Arbeitsbuch zur linearen Algebra: Aufgaben, Lösungen und Vertiefungen [1. Aufl.] 978-3-662-58765-2;978-3-662-58766-9

Dieses Arbeitsbuch enthält zahlreiche Aufgaben großer thematischer Breite und unterschiedlicher Schwierigkeitsgrade – ei

1,204 83 2MB

German Pages X, 269 [274] Year 2019

Report DMCA / Copyright

DOWNLOAD FILE

Polecaj historie

Arbeitsbuch zur linearen Algebra: Aufgaben, Lösungen und Vertiefungen [1. Aufl.]
 978-3-662-58765-2;978-3-662-58766-9

Table of contents :
Front Matter ....Pages i-x
Algebraische Strukturen (Laurenz Göllmann, Christian Henig)....Pages 1-20
Lineare Gleichungssysteme, Matrizen und Determinanten (Laurenz Göllmann, Christian Henig)....Pages 21-65
Erzeugung von Vektorräumen (Laurenz Göllmann, Christian Henig)....Pages 67-93
Lineare Abbildungen und Bilinearformen (Laurenz Göllmann, Christian Henig)....Pages 95-126
Produkte in Vektorräumen (Laurenz Göllmann, Christian Henig)....Pages 127-142
Eigenwerte und Eigenvektoren (Laurenz Göllmann, Christian Henig)....Pages 143-192
Trigonalisierung und Normalformen (Laurenz Göllmann, Christian Henig)....Pages 193-218
Anwendungen (Laurenz Göllmann, Christian Henig)....Pages 219-244
Minitests (Laurenz Göllmann, Christian Henig)....Pages 245-264
Back Matter ....Pages 265-269

Citation preview

Laurenz Göllmann Christian Henig

Arbeitsbuch zur linearen Algebra Aufgaben, Lösungen und Vertiefungen

Arbeitsbuch zur linearen Algebra

Laurenz Göllmann · Christian Henig

Arbeitsbuch zur linearen Algebra Aufgaben, Lösungen und Vertiefungen

Laurenz Göllmann Fachbereich Maschinenbau Fachhochschule Münster Steinfurt, Deutschland

Christian Henig Management, Kultur und Technik Hochschule Osnabrück Lingen, Deutschland

ISBN 978-3-662-58765-2 ISBN 978-3-662-58766-9  (eBook) https://doi.org/10.1007/978-3-662-58766-9 Die Deutsche Nationalbibliothek verzeichnet diese Publikation in der Deutschen Nationalbibliografie; detaillierte bibliografische Daten sind im Internet über http://dnb.d-nb.de abrufbar. Springer Spektrum © Springer-Verlag GmbH Deutschland, ein Teil von Springer Nature 2019 Das Werk einschließlich aller seiner Teile ist urheberrechtlich geschützt. Jede Verwertung, die nicht ausdrücklich vom Urheberrechtsgesetz zugelassen ist, bedarf der vorherigen Zustimmung des Verlags. Das gilt insbesondere für Vervielfältigungen, Bearbeitungen, Übersetzungen, Mikroverfilmungen und die Einspeicherung und Verarbeitung in elektronischen Systemen. Die Wiedergabe von allgemein beschreibenden Bezeichnungen, Marken, Unternehmensnamen etc. in diesem Werk bedeutet nicht, dass diese frei durch jedermann benutzt werden dürfen. Die Berechtigung zur Benutzung unterliegt, auch ohne gesonderten Hinweis hierzu, den Regeln des Markenrechts. Die Rechte des jeweiligen Zeicheninhabers sind zu beachten. Der Verlag, die Autoren und die Herausgeber gehen davon aus, dass die Angaben und Informationen in diesem Werk zum Zeitpunkt der Veröffentlichung vollständig und korrekt sind. Weder der Verlag, noch die Autoren oder die Herausgeber übernehmen, ausdrücklich oder implizit, Gewähr für den Inhalt des Werkes, etwaige Fehler oder Äußerungen. Der Verlag bleibt im Hinblick auf geografische Zuordnungen und Gebietsbezeichnungen in veröffentlichten Karten und Institutionsadressen neutral. Planung/Lektorat: Iris Ruhmann Springer Spektrum ist ein Imprint der eingetragenen Gesellschaft Springer-Verlag GmbH, DE und ist ein Teil von Springer Nature Die Anschrift der Gesellschaft ist: Heidelberger Platz 3, 14197 Berlin, Germany

Vorwort

Wer sich mit den Inhalten der linearen Algebra auseinandersetzt, verspürt vielleicht den Wunsch, das erworbene Wissen auszuprobieren, zu vertiefen und in der Praxis anzuwenden. Das vorliegende Buch ergänzt das Lehrbuch Lineare Algebra [5], indem es die dort genannten Aufgaben aufgreift und deren vollständige Lösung ausführlich darstellt. Dabei entspricht die thematische Gliederung der des Lehrbuchs. Dennoch kann dieses Übungsbuch auch losgelöst vom Lehrbuch verwendet werden. Darüber hinaus werden die Übungen durch weitere, thematisch verwandte Aufgaben ergänzt, die die Inhalte des Lehrbuchs weiter vertiefen, aber auch in neue Themen einführen. So werden Aspekte der numerischen linearen Algebra behandelt wie beispielsweise Matrixnormen, Singulärwertzerlegung und lineare Ausgleichsprobleme. Zudem haben wir Wert darauf gelegt, dass sich die Aufgaben nicht allein den theoretischen Hintergründen widmen, sondern auch den Praxiseinsatz der linearen Algebra verdeutlichen. Trotz der heute verfügbaren, leistungsfähigen mathematischen Software halten wir die Beschäftigung mit einfachsten Hilfsmitteln („Papier und Bleistift“) für elementar wichtig, um ein tiefgreifendes Verständnis der Zusammenhänge zu erlangen. Dennoch ist uns bewusst, dass ein zeitgemäßer Umgang mit der linearen Algebra auch den Einsatz rechnergestützter Verfahren einschließt. Aus diesem Grund sind in diesem Buch zahlreiche R Beispiele aufgeführt, die den Einsatz von MATLAB illustrieren. Einige Aufgaben stellen Varianten einer bestehenden Aufgabe dar oder stehen in direktem Kontext zu einer vorausgegangenen Aufgabe. Um die Nummerierung des Lehrbuchs nicht zu verändern, sind derartige Aufgaben mit einer dreigliedrigen Nummer versehen, die den Bezug zur vorausgegangenen Aufgabe verdeutlicht. Wir wünschen den Leserinnen und Lesern eine anregende Lektüre und hoffen, dass das Interesse an diesem faszinierenden Teilgebiet der Mathematik weiter gesteigert werde. Wir danken an dieser Stelle Frau Agnes Herrmann und Frau Iris Ruhmann vom Springer-Verlag für die gute Zusammenarbeit. Steinfurt und Lingen, im Februar 2019

Laurenz Göllmann, Christian Henig

v

Inhaltsverzeichnis

Symbolverzeichnis

ix

1 Algebraische Strukturen 1 1.1 Gruppen und Ringe . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 1 1.2 Restklassen und Körper . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 3 1.3 Vektorräume . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 11 1.4 Vertiefende Aufgaben . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 16 2 Lineare Gleichungssysteme, Matrizen und Determinanten 2.1 Lineare Gleichungssysteme . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 2.2 Matrizenmultiplikation . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 2.3 Inversion von Matrizen . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 2.4 Regularität und Singularität . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 2.5 Faktorisierungen . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 2.6 Determinanten und Cramer’sche Regel . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 2.7 Invariantenteiler . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 2.8 Vertiefende Aufgaben . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .

21 21 33 37 40 41 48 59 62

3 Erzeugung von Vektorräumen 3.1 Lineares Erzeugnis, Bild und Kern . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 3.2 Äquivalente Matrizen . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 3.3 Basiswahl und Koordinatenabbildung . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 3.4 Vertiefende Aufgaben . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .

67 67 74 76 79

4 Lineare Abbildungen und Bilinearformen 4.1 Lineare Abbildungen . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 4.2 Bilinearformen, quadratische Formen und hermitesche Formen . . . . . . . . . . . . 4.3 Vertiefende Aufgaben . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .

95 95 109 113

5 Produkte in Vektorräumen 127 5.1 Produkte im R3 . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 127

vii

viii

Inhaltsverzeichnis

5.2 Normen und Orthogonalität . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 134 5.3 Vertiefende Aufgaben . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 137 6 Eigenwerte und Eigenvektoren 6.1 Eigenwerte und Eigenräume . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 6.2 Änderung der Eigenwerte bei Matrixoperationen . . . . . . . . . . . . . . . . . . . . . . . . 6.3 Ähnlichkeit von Matrizen . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 6.4 Diagonalisierbare Endomorphismen . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 6.5 Adjungiertheit und symmetrische Matrizen . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 6.6 Vertiefende Aufgaben . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .

143 143 159 162 165 171 181

7 Trigonalisierung und Normalformen 7.1 Grundlagen, ähnliche Matrizen und Normalformen . . . . . . . . . . . . . . . . . . . . . . 7.2 Jordan’sche Normalform . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 7.3 Vertiefende Aufgaben . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .

193 193 204 212

8 Anwendungen 8.1 Orthogonale Entwicklung . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 8.2 Markov-Ketten . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 8.3 Lineare Differenzialgleichungssysteme . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 8.4 Vertiefende Aufgaben . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .

219 219 222 229 233

9 Minitests 9.1 Lineare Gleichungssysteme, Matrizen und Rang . . . . . . . . . . . . . . . . . . . . . . . . . 9.2 Determinanten . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 9.3 Homomorphismen . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 9.4 Eigenwerte . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 9.5 Definitheit, Länge, Winkel und Orthogonalität . . . . . . . . . . . . . . . . . . . . . . . . . .

245 245 251 253 257 261

Literaturverzeichnis

265

Sachverzeichnis

267

Symbolverzeichnis

Innerhalb dieses Buches werden die folgenden Symbole und Bezeichnungen verwendet. Zu beachten ist, dass die spitzen Klammern h i sowohl für lineare Erzeugnisse als auch für Skalarprodukte Verwendung finden. Aus dem Kontext erschließt sich aber stets die jeweilige Bedeutung. hBi hv, wi 0m×n A−1 AT A∗ A∼B A≈B A'B A˜ i j algA (λ ) Bild A bzw. Bild f cB (v) c−1 B (x) deg p det A bzw. det f dimV En End(V ) FNF(A) geoA (λ ) GL(n, K) Hom(V → W ) K

lineares Erzeugnis der Vektormenge B Skalarprodukt der Vektoren v und w m × n-Matrix aus lauter Nullen (Nullmatrix) Inverse der regulären Matrix A Transponierte der Matrix A Adjungierte der Matrix A A ist äquivalent zu B A ist ähnlich zu B A ist kongruent zu B Streichungsmatrix, die aus A durch Streichen von Zeile i und Spalte j entsteht algebraische Ordnung des Eigenwertes λ der Matrix A Bild der Matrix A bzw. Bild des Homomorphismus f Koordinatenvektor zur Basis B des Vektors v Basisisomorphismus zur Basis B vom Koordinatenvektor x ∈ Kn Grad des Polynoms p Determinante der quadratischen Matrix A bzw. Determinante des Endomorphismus f Dimension des Vektorraums V n × n-Einheitsmatrix Menge der Endomorphismen f : V → V auf dem Vektorraum V Frobenius-Normalform von A geometrische Ordnung des Eigenwertes λ der Matrix A allgemeine lineare Gruppe über K Menge der Homomorphismen f : V → W vom Vektorraum V in den Vektorraum W Körper ix

x

Kern A bzw. Kern f M(m × n, R) M(n, R) MCB ( f ) MB ( f ) = MBB ( f ) O(n) R∗ Rang A bzw. Rang f SL(n, K) SNF(A) SO(n) SU(n) U(n) VA,λ V1 ⊕V2 WNFK (A)

Symbolverzeichnis

Kern der Matrix A bzw. Kern des Homomorphismus f Menge der m × n-Matrizen über dem Ring R (in der Regel ist R ein Körper) Menge (Matrizenring) der quadratischen Matrizen mit n Zeilen und Spalten über dem Ring R (in der Regel ist R ein Körper) Koordinatenmatrix bezüglich der Basen B von V und C von W des Homomorphismus f : V → W Koordinatenmatrix bezüglich der Basis B von V des Endomorphismus f : V → V orthogonale Gruppe vom Grad n Einheitengruppe des Rings R Rang der Matrix A bzw. Rang des Homomorphismus f spezielle lineare Gruppe über K Smith-Normalform von A spezielle orthogonale Gruppe vom Grad n spezielle unitäre Gruppe vom Grad n unitäre Gruppe vom Grad n Eigenraum zum Eigenwert λ der Matrix A direkte Summe der Teilräume V1 und V2 Weierstraß-Normalform von A bezüglich K

Kapitel 1

Algebraische Strukturen

1.1 Gruppen und Ringe

Aufgabe 1.1 Es sei R ein Ring. Zeigen Sie für alle a, b ∈ R a) b) c) d)

a ∗ 0 = 0 = 0 ∗ a, −(−a) = a, −(a ∗ b) = (−a) ∗ b = a ∗ (−b), (−a) ∗ (−b) = −(a ∗ (−b)) = −(−(a ∗ b)) = a ∗ b.

Lösung Es sei R ein Ring und a, b ∈ R. a) Es ist 0 = 0 + 0. Nach Multiplikation von links mit a folgt hieraus a ∗ 0 = a ∗ (0 + 0) = a ∗ 0 + a ∗ 0. Addition von −a ∗ 0 ergibt 0 = a ∗ 0. Analog ergibt sich 0 ∗ a = 0. b) Es ist −a ∈ R. Somit gibt es auch für −a ein additiv-inverses Element −(−a) ∈ R mit 0 = (−a) + (−(−a)). Addition von a von links auf beiden Seiten ergibt a = −(−a). c) Es gilt a ∗ b + (−a) ∗ b = (a + (−a)) ∗ b = 0 ∗ b = 0 und damit a ∗ b + (−a) ∗ b = 0. Die Addition von −(a ∗ b) auf beiden Seiten ergibt dann (−a) ∗ b = −(a ∗ b). Ähnlich kann gezeigt werden: a ∗ (−b) = −(a ∗ b). d) Aus der vorausgegangenen Aussage folgt auch (−a) ∗ (−b) = −(a ∗ (−b)) = −(−(a ∗ b)) = a ∗ b. © Springer-Verlag GmbH Deutschland, ein Teil von Springer Nature 2019 L. Göllmann und C. Henig, Arbeitsbuch zur linearen Algebra, https://doi.org/10.1007/978-3-662-58766-9_1

1

2

1 Algebraische Strukturen

Aufgabe 1.2 Es sei R ein Ring mit Einselement 1 6= 0. Zeigen Sie: Die Einheitengruppe R∗ bildet zusammen mit der in R gegebenen Multiplikation eine Gruppe. Weshalb ist es gerechtfertigt, von dem inversen Element zu sprechen? Lösung Ein Element a eines Rings (R, +, ∗) mit Einselement 1 6= 0 heißt Einheit, wenn es ein Element a−1 ∈ R gibt, mit a ∗ a−1 = 1 = a−1 ∗ a. Die Menge der Einheiten von R wird mit R∗ bezeichnet und heißt Einheitengruppe. Wir zeigen nun, dass tatsächlich die Gruppenaxiome für R∗ erfüllt sind. Wegen der Assoziativität der Multiplikation in R folgt die Assoziativität in R∗ . Das Einselement ist wegen 1 ∗ 1 = 1 eine Einheit und gehört daher zu R∗ . Für jede Einheit a ∈ R∗ gibt es nach Definition der Einheit ein Element a−1 ∈ R mit a ∗ a−1 = 1 = a−1 ∗ a. Wir können dies auch so lesen, dass es mit a ein Element aus R gibt, sodass a−1 ∗ a = 1 = a ∗ a−1 gilt. Dadurch ist definitionsgemäß auch das links- und rechtsinverse Element a−1 eine Einheit und gehört somit ebenfalls zu R∗ . Es seien nun a, b ∈ R∗ . Dann gibt es für a und b definitionsgemäß a−1 , b−1 ∈ R mit a ∗ a−1 = 1 = a−1 ∗ a und b ∗ b−1 = 1 = b−1 ∗ b. Es gilt (a ∗ b) ∗ (b−1 ∗ a−1 ) = a ∗ (b ∗ b−1 ) ∗ a−1 = a ∗ 1 ∗ a−1 = a ∗ a−1 = 1 sowie (b−1 ∗ a−1 ) ∗ (a ∗ b) = b−1 ∗ (a−1 ∗ a) ∗ b = b−1 ∗ 1 ∗ b = b−1 ∗ b = 1. Das Produkt a ∗ b ist daher eine Einheit und gehört somit auch zu R∗ . Die Menge der Einheiten ist daher multiplikativ abgeschlossen. Das Element b−1 ∗ a−1 ist links- und rechtsinvers zu a ∗ b. Wir haben bereits gesehen, dass b−1 ∗ a−1 als links- und rechtsinverses Element einer Einheit selbst eine Einheit ist, sodass b−1 ∗ a−1 ebenfalls in R∗ liegt. Die Einheiten R∗ bilden also bezüglich der Ringmultiplikation eine Gruppe. Bei Gruppen sind inverse Elemente darüber hinaus eindeutig bestimmt, sodass die Schreib- bzw. Sprechweise „a−1 “ für das inverse Element von a gerechtfertigt ist. Aufgabe 1.3 Zeigen Sie, dass die Einheitengruppe eines Rings mit Einselement 1 6= 0 eine Teilmenge seiner Nichtnullteiler ist. Lösung Es sei R ein Ring mit Einselement 1 6= 0 und a ∈ R∗ eine Einheit von R. Es gibt dann a−1 ∈ R mit a−1 ∗ a = 1 = a ∗ a−1 . Angenommen, es gäbe ein b ∈ R, b 6= 0 mit 0 = a ∗ b oder 0 = b ∗ a, so wäre auch 0 = a−1 ∗ 0 = a−1 ∗ (a ∗ b) = (a−1 ∗ a) ∗ b = b oder 0 = 0 ∗ a−1 = (b ∗ a) ∗ a−1 = b ∗ (a ∗ a−1 ) = b.

1.2 Restklassen und Körper

3

In beiden Fällen folgt also b = 0 im Widerspruch zu b 6= 0.

1.2 Restklassen und Körper

Aufgabe 1.4 Berechnen Sie alle Werte von a + b und ab für a, b ∈ Z4 . Bestimmen Sie zudem die Einheitengruppe Z∗4 dieser Restklassen. Wie lauten jeweils die multiplikativ-inversen Elemente der Einheiten? Lösung Für die Menge Z4 = {0, 1, 2, 3} ergeben Addition und Multiplikation die folgenden Werte: + 0123

· 0123

0 1 2 3

0 1 2 3

0123 1 2 3 0, 2301 3012

0000 0 1 2 3. 0202 0321

Die Einheitengruppe von Z4 lautet Z∗4 = {1, 3}. Die multiplikativ-inversen Elemente der Einheiten sind dabei 1−1 = 1,

3−1 = 3.

Aufgabe 1.5 Multiplizieren Sie das Polynom (x − 1)(x − 2)(x − 3) ∈ Z5 [x] über Z5 vollständig aus. Lösen Sie die Gleichung x(x + 4) = 4x + 1 innerhalb des Körpers Z5 . Lösung Die additiv-inversen Elemente von Z5 lauten a 01234 . −a 0 4 3 2 1

4

1 Algebraische Strukturen

Da Z5 einen Körper darstellt, ist Z∗5 = Z5 \ {0}. Es gilt für die Einheiten a 1234 . a−1 1 3 2 4 Es gilt (x − 1)(x − 2)(x − 3) = (x + 4)(x + 3)(x + 2) = (x + 4)(x2 + 3x + 2x + 3 · 2) = (x + 4)(x2 + 0x + 1) = x3 + 4x2 + x + 4. Da Z5 endlich ist, können wir prinzipiell mit endlichem Aufwand durch Einsetzen der Elemente Gleichungen auf Lösbarkeit prüfen bzw. lösen. Dennoch wollen wir die zu lösende Gleichung durch Äquivalenzumformungen innerhalb von Z5 lösen: x(x + 4) = 4x + 1 ⇐⇒ x2 + 4x = 4x + 1 ⇐⇒ x2 = 1 2 ⇐⇒ x −1 = 0 ⇐⇒ x2 + 4 = 0 ⇐⇒ (x + 4)(x + 1) = 0 ⇐⇒ x ∈ {1, 4}. Aufgabe 1.6 a) Zeigen Sie: |{ik : k ∈ N}| = 4. b) Wie viele verschiedene komplexe Zahlen ergibt der Term exp( π·i 3 · k), für k ∈ Z? c) Bringen Sie z0 = 1, z1 = 1 + i, z2 = i, z3 = −1 + i, z4 = −1, z5 = −1 − i, z6 = −i und z7 = z1 in die Darstellung zi = r exp(i · ϕ), skizzieren Sie die Lage der zi in der Gauß’schen Zahlenebene. d) Zeigen Sie, dass für alle z = r exp(i · ϕ) mit r, ϕ ∈ R gilt: z¯ = r exp(−i · ϕ). e) Berechnen Sie die 19-te Potenz der komplexen Zahl z = −i(2 + 2i). Lösung a) Es gilt i0 = 1,

i1 = i,

i2 = −1,

i3 = −i,

i4 = 1,

i5 = i,

...

Es entsteht damit ein Viererzyklus, d. h., es gilt offenbar ik = ik mod 4 ,

für alle k ∈ Z.

Die mit ζ4 := i definierten vier Zahlen ζ40 = i0 = 1, ζ41 = i1 = i, ζ42 = i2 = −1 und ζ43 = i3 = −i lösen alle die Gleichung z4 = 1. Es sind auch die einzigen Lösungen dieser Gleichung,

1.2 Restklassen und Körper

5

denn es ist bereits (z − 1)(z − i)(z − (−1))(z − (−i)) = (z − 1)(z − i)(z + 1)(z + i) = (z2 − 1)(z2 − i2 ) = (z2 − 1)(z2 + 1) = z4 − 1 ein Polynom vierten Grades. Gäbe es eine weitere Lösung, so ergäbe das entsprechende Produkt der Linearfaktoren ein Polynom höheren Grades. Bemerkung 1.1 Die vier Zahlen ζ40 , ζ41 , ζ42 , ζ43 werden auch als vierte Einheitswurzeln bezeichnet, da sie die komplexen Lösungen der Gleichung z4 = 1 darstellen. Diese Zahlen liegen auf dem Einheitskreis in der komplexen Ebene und teilen ihn in vier Sektoren mit π ◦ jeweiligem Winkel von 2π 4 = 2 = 90 auf (vgl. Abb. 1.1). Dabei können wir diese vier Lösungen auch mithilfe der komplexen Exponentialfunktion   2πi ζ4 := exp =i 4   k · 2πi ζ4k = exp = ik , k = 0, 1, 2, 3 4 darstellen. iR 1 ζ41 = exp( 2πi 4 )=i =i

ζ40 = exp(0) = i0 = 1 R 2 ζ42 = exp( 2·2πi 4 ) = i = −1

3 ζ43 = exp( 3·2πi 4 ) = i = −i

Abb. 1.1 Vierte Einheitswurzeln in C

6

1 Algebraische Strukturen

b) Es gilt 

0 · πi 3



= e0 = 1, √   1 · πi 1 3 exp = +i· , 3 2 2 √   2 · πi 1 3 exp = − +i· , 3 2 2   3 · πi exp = −1 + i · 0 = −1, 3 √   4 · πi 1 3 exp = − −i· , 3 2 2 √   5 · πi 1 3 exp = −i· , 3 2 2   6 · πi exp = exp(2πi) = 1, 3 √   7 · πi 1 3 exp = +i· , 3 2 2 .. . exp

  2πi Es ergeben sich mit ζ6 := exp πi genau sechs verschiedene komplexe Zah3 = exp 6 len:  k   2πi k · 2πi k ζ6 = exp = exp , k = 0, 1, . . . , 5. 6 6 Diese Zahlen sind genau die sechs Lösungen der Gleichung z6 = 1. Diese sechsten Einheitswurzeln liegen ebenfalls auf dem Einheitskreis und teilen ihn in sechs Sektoren des π ◦ Winkels 2π 6 = 3 = 60 auf (vgl. Abb. 1.2). Bemerkung 1.2 Wir können mit den Potenzen ζnk



2πi = exp n

k



k · 2πi = exp n





 (k mod n) · 2πi = exp , n

k = 0, 1, . . . , n − 1,

 n von ζn := exp 2πi n , welche die n komplexen Lösungen der Gleichung z = 1 darstellen, 2π 360◦ den Einheitskreis in n Sektoren des Winkels n = n gleichmäßig aufteilen, denn man überzeugt sich leicht davon, dass (ζnk )n = 1 ist. Diese n Lösungen bezeichnen wir als n-te Einheitswurzeln. Für jedes k ∈ Z gilt dabei ζnk = ζnk mod n . Außerdem ist ζn−k = (ζnk )−1 = ζnk . c) Die in kartesischer Darstellung vorliegenden Zahlen z0 = 1, z1 = 1 + i, z2 = i, z3 = −1 + i, z4 = −1, z5 = −1 − i, z6 = −i und z7 = z1 ergeben die Polardarstellungen:

1.2 Restklassen und Körper

7 iR ζ62 = exp( 2·2πi 6 )

ζ61 = exp( 2πi 6 )

ζ60 = exp(0) = 1 R

ζ63 = exp( 3·2πi 6 ) = exp(πi) = −1

ζ66 = exp( 4·2πi 6 ) 2 = exp(− 2·2πi 6 ) = ζ6

ζ67 = exp( 5·2πi 6 ) 1 = exp(− 2πi 6 ) = ζ6

Abb. 1.2 Sechste Einheitswurzeln in C

z0 z2 z4 z6

= = = =

1 = 1 · exp(i · 0), i = exp(i π2 ), −1 = exp(iπ), −i = exp(i 3π 2 ),

z1 z3 z5 z7

√ = 1+i = √ 2 exp(i π4 ) = −1 + i = √2 exp(i 3π 4 ) = −1 −√ i = 2 exp(i 5π 4 )√ = z1 = 2 exp(−i π4 ) = 2 exp(i 7π 4 ).

Hierzu beachten wir, dass diese komplexen Zahlen, wie in Abb. 1.3 dargestellt, auf dem Rand eines Quadrats in der Ebene liegen. Hierdurch ergeben sich die Winkel als π ◦ Vielfaches von 2πi 8 = 4 = 45√. Die Eckpunkte z1 , z3 , z5 und z7 haben nach dem Satz des Pythagoras den Abstand 2 zum Nullpunkt. Die Beträge können aber auch durch p |zk | = (Re z)2 + (Im z)2 ermittelt werden. iR z3 = −1 + i

z2 = i

z0 = 1 R

z4 = −1

z5 = −1 − i Abb. 1.3 Quadrat in der Ebene

z1 = 1 + i

z6 = −i

z7 = z1 = 1 − i

8

1 Algebraische Strukturen

d) Hat man z = r exp(iϕ) = r(cos ϕ + i sin ϕ), so folgt für die komplexe Konjugation: z = r(cos ϕ − i sin ϕ) = r(cos(−ϕ) + i sin(−ϕ)) = r exp(−iϕ), da der Kosinus gerade ist, d. h. cos(x) = cos(−x), während es sich beim Sinus um eine ungerade Funktion handelt, d. h. − sin(x) = sin(−x). e) Es gibt zwei Lösungsvarianten, um für z = −i(2 + 2i) die 19-te Potenz zu berechnen. Variante 1: Mithilfe der Polardarstellung:   √ 7π z = −i(2 + 2i) = 2 − 2i = 2(1 − i) = 2 2 exp i , 4 damit ist 19

z

  19   √ 19 √ 57 2 · πi 2πi 19·7 = (2 2) exp 7 · = 2 exp 2·4 8  133  133 mod 8 √ 57 2πi 2πi = 2 exp = 257/2 exp 8 8  5   2πi 2πi 57/2 57/2 =2 exp =2 exp 5 · 8 8   1 1 = 257/2 − √ − √ i = 256/2 (−1 − i) 2 2 = 228 (−1 − i).

Variante 2: Durch Abspaltung von Zweierpotenzen und binomischer Formel: z19 = z18 z = (z2 )9 z = ((2 − 2i)2 )9 · (2 − 2i) = ((2(1 − i))2 )9 · 2 · (1 − i) = (4(1 − i)2 )9 · 2 · (1 − i) = (4(1 − 2i + i2 ))9 · 2 · (1 − i) = 49 · (−2i)9 · 2 · (1 − i) = 218 · (−2)9 · i9 · 2 · (1 − i) = −219 · 29 · i1 · (1 − i) = −228 · (i + 1) = 228 (−1 − i).

1.2 Restklassen und Körper

9

Aufgabe 1.6.1 Es sei c = |c|eϕi ∈ C eine beliebige komplexe Zahl mit ϕ ∈ R sowie n ∈ N, n ≥ 1. a) Zeigen Sie ϕ p zn = c ⇐⇒ z ∈ { n |c| · e n ·i · ζnk : k = 0, 1, . . . , n − 1}. √ b) Bestimmen Sie sämtliche Lösungen der Gleichung z4 = 8( 3i − 1).

Lösung a) Für jedes k ∈ {0, 1, . . . , n − 1} gilt in der Tat  n  n  ϕ n  n ϕ p p ·i n n k n |c| · e · ζn = |c| · e n ·i · ζnk = |c|eϕi = c. Mehr als n Lösungen kann es für zn − c = 0 nicht geben, sodass hiermit alle komplexen Lösungen dieser Gleichung vorliegen. √ √ ◦ b) Hier ist zunächst 8( 3i − 1) = 8 · 2(− 12 + 23 i) = 16e120 ·i = 16 · e2/3·πi . Damit gilt

√ √ 2 2πi 4 2 z4 = 8( 3i − 1) = 16e /3·πi ⇐⇒ z ∈ { 16 · e 3·4 πi · e 4 ·k : k = 0, 1, 2, 3} π

= {2 · e 6 i · ik : k = 0, 1, 2, 3}. Es ergeben sich damit die folgenden vier Lösungen: √ √ π z0 := 2e 6 i i0 = 2( 23 + 12 i) = 3 + i √ √ π z1 := 2e 6 i i = ( 3 + i)i = −1 + 3i √ √ π z2 := 2e 6 i i2 = ( 3 + i) · (−1) = − 3 − i √ √ π z3 := 2e 6 i i3 = ( 3 + i) · (−i) = 1 − 3i.

Diese Lösungen liegen auf einem Kreis √ mit Radius 2 und teilen ihn gleichmäßig in vier Segmente, beginnend bei z0 = 2eπi/6 = 3 + i. Es wird also beim Übergang von zk zu zk+1 stets ein Winkel von π/2 = 90◦ hinzuaddiert. Die Lösungen entsprechen den um den p 4 Faktor |c| = 2 gestreckten vierten Einheitswurzeln, deren Winkel jeweils um π/6 = ◦ 30◦ = 120 4 gegen den Uhrzeigersinn verdreht sind (vgl. Abb. 1.4).

10

1 Algebraische Strukturen iR π

π

z1 = 2e( 6 + 2 )i

2i π

z0 = 2e 6 i

i

R 1

π

2

π

z2 = 2e( 6 +2· 2 )i

π

π

z3 = 2e( 6 +3· 2 )i

√ Abb. 1.4 Lösungen von z4 = 8( 3i − 1) = 16e2/3·πi

Aufgabe 1.7 Ein Zahnrad mit 120 Zähnen werde durch einen Schrittmotor in der Weise angesteuert, dass pro Impuls des Steuersystems das Zahnrad um einen Zahn entgegen dem Uhrzeigersinn gedreht wird (entspricht einem Drehwinkel um 360◦ /120 = 3◦ ). Leider funktioniert der Schrittmotor nur in dieser Drehrichtung. a) Um welchen Winkel ist das Zahnrad in seiner Endstellung im Vergleich zur Ausgangsstellung nach (i) (ii) (iii) (iv)

12 345 Impulsen, 990 Impulsen, 540 Impulsen, 720 000 Impulsen

verdreht? b) Wie viele Impulse sind mindestens notwendig, um das Zahnrad so zu drehen, (i) dass es in der Endstellung um einen Zahn im Uhrzeigersinn weitergedreht ist, (ii) dass es in der Endstellung um 90◦ im Uhrzeigersinn weitergedreht ist? c) Das Zahnrad soll direkt den Sekundenzeiger einer Uhr, der ebenfalls auf der Zahnradachse montiert ist, antreiben. Wie viele Impulse sind mindestens in einer Sekunde von der Steuerung und der Mechanik zu verarbeiten? Welche Besonderheit weist der Gang des Sekundenzeigers auf? Lösung a) Der Endwinkel dieser Konfiguration verhält sich in 3◦ -Abschnitten zyklisch. Wir rechnen also in der Restklasse modulo 120, d. h. im Restklassenring Z120 . (i) 12 345 Impulse erzeugen den gleichen Endwinkel wie 12 345 mod 120 = 105 Impulse, dies entspricht damit einem Endwinkel von 315◦ .

1.3 Vektorräume

11

(ii) 990 Impulse erzeugen den gleichen Endwinkel wie 990 mod 120 = 30 Impulse, dies entspricht damit einem Endwinkel von 90◦ . (iii) 540 Impulse erzeugen den gleichen Endwinkel wie 540 mod 120 = 60 Impulse, dies entspricht damit einem Endwinkel von 180◦ . (iv) 720 000 Impulse erzeugen den gleichen Endwinkel wie 720 000 mod 120 = 0 Impulse, der Endwinkel stimmt also mit dem Anfangswinkel überein. b) Mindestimpulszahlen (i) −1 entspricht 120 − 1 im Restklassenring Z120 . Daher bewegen 119 Impulse das Rad im Endeffekt um 3◦ entgegen der Drehrichtung des Schrittmotors, d. h. im Uhrzeigersinn. (ii) 90◦ im Uhrzeigersinn entsprechen 30 · (−1) = −30 in Z120 . Es entspricht −30 dem Wert 120 − 30 = 90 in Z120 . Es erzeugen daher 90 Impulse einen Winkel von 270◦ entgegen dem Uhrzeigersinn und damit einen Winkel von 90◦ im Uhrzeigersinn. c) Eine Sekunde entspricht 6◦ = 2 · 3◦ im Uhrzeigersinn. Dieser Winkel wird von 2 · (−1), also 118 Impulsen erzeugt. Die Konfiguration muss also imstande sein, 118 Impulse pro Sekunde zu verarbeiten. Der Sekundenzeiger läuft von Sekunde zu Sekunde 354◦ entgegen dem Uhrzeigersinn.

1.3 Vektorräume

Aufgabe 1.8 Zeigen Sie, dass die Menge aller Nullfolgen M0 := {(an )n : lim an = 0} bezüglich der gliedweisen Addition (an )n + (bn )n := (an + bn )n und der gliedweisen skalaren Multiplikation α(an )n := (αan )n , α ∈ R, einen Vektorraum über R bildet, die Menge M1 := {(an )n : lim an = 1} aller reellen Folgen, die gegen den Wert 1 konvergieren, aber keinen R-Vektorraum darstellt. Stellt M1 einen R-Vektorraum dar, wenn man die gliedweise Addition in M1 durch die gliedweise Multiplikation in M1 ersetzt? Lösung Wir führen uns zunächst noch einmal die formale Definition des Vektorraums vor Augen. Es sei K ein Körper, z. B. einer der Zahlkörper Q, R, C oder ein Restklassenring Z p mit einer Primzahl p. Ein Vektorraum V über dem Körper K ist eine Menge mit einer inneren Addition: + : V ×V → V (x, y) 7→ x + y und einer skalaren Multiplikation: · : K ×V → V (a, y) 7→ a · y,

12

1 Algebraische Strukturen

sodass folgende Rechengesetze gelten: (i) (ii) (iii) (iv) (v) (vi) (vii) (viii)

x + (y + z) = (x + y) + z, x + y = y + x, es gibt einen Nullvektor 0 ∈ V mit x + 0 = x, zu jedem Vektor x ∈ V gibt es einen inversen Vektor −x ∈ V mit x + (−x) = 0, (ab) · x = a · (b · x), 1 · x = x, a · (x + y) = a · x + a · y, (a + b) · x = a · x + b · x,

für alle x, y, z ∈ V und a, b ∈ K. Der Nullvektor und der jeweilige inverse Vektor sind hierbei eindeutig bestimmt, da insbesondere (V, +) eine (abelsche) Gruppe ist. Nun betrachten wir die Menge M0 aller reellen Nullfolgen. Für diese Menge definieren wir eine innere Addition, indem die Summe zweier Nullfolgen (xn )n , (yn )n ∈ M0 durch die Folge der Summe ihrer einzelnen Folgenglieder definiert wird: (xn )n + (yn )n := (xn + yn )n . Eine skalare Multiplikation definieren wir ebenfalls gliedweise: a · (xn )n := (axn )n . Stellt nun die Menge M0 aller Nullfolgen mit diesen beiden Verknüpfungen einen RVektorraum dar? Die acht Rechengesetze gelten aufgrund der Rechengesetze für Addition und Multiplikation im Körper R der reellen Zahlen, denn die Addition zweier Folgen und die skalare Multiplikation sind ja in ihren Definitionen auf die Addition und Multiplikation reeller Zahlen jeweils direkt zurückgeführt worden. Der Nullvektor ist die Folge, deren Glieder alle verschwinden (0)n = (0, 0, . . .) ∈ M0 , Für eine beliebige Nullfolge (xn )n ∈ M0 ist die Folge (−xn )n ebenfalls eine Nullfolge mit der Eigenschaft (xn )n + (−xn )n = (xn − xn )n = (0)n . Damit existiert für jede Folge aus M0 auch eine inverse Folge in M0 . Es bleibt lediglich die Frage, ob es sich bei der so definierten Addition und Multiplikation überhaupt um innere Verknüpfungen handelt, ob also die Summenfolge oder die skalar multiplizierte Folge wieder in M0 liegt. Aus der Analysis wissen wir, dass die Summe zweier konvergenter Folgen ebenfalls konvergent ist und sich ihr Grenzwert aus der Summe der Einzelgrenzwerte ergibt. Für Folgen (xn )n , (yn )n ∈ M0 bedeutet dies lim (xn + yn ) = lim xn + lim yn = 0 + 0 = 0.

n→∞

n→∞

n→∞

Daher ist auch (xn )n + (yn )n ∈ M0 . Ebenfalls ein Ergebnis der Analysis ist, dass bei einer konvergenten Folge ein konstanter Faktor aus dem lim-Symbol vor das lim-Symbol gezogen werden kann: lim axn = a lim xn = a · 0 = 0, n→∞

n→∞

1.3 Vektorräume

13

also ist auch a · (xn )n ∈ M0 . Bei beiden Verknüpfungen handelt es sich somit um innere Verknüpfungen. Alles in allem ist die Menge M0 aller Nullfolgen in dieser Weise ein RVektorraum. Die einzelnen Nullfolgen stellen somit die Vektoren dar. Betrachtet man nun die Menge M1 aller reellen Folgen mit Grenzwert 1, so ergibt diese Menge mit der oben eingeführten gliedweisen Addition und gliedweisen skalaren Multiplikation keinen R-Vektorraum mehr. Denn die Addition zweier Folgen mit Grenzwert 1 führt zu einer Folge mit Grenzwert 2. Die Summenfolge liegt damit nicht mehr in M1 . Entsprechendes gilt für die skalar multiplizierte Folge a · (xn )n 6∈ M1 für a 6= 1. Es handelt sich hier nicht mehr um innere Verknüpfungen. Nun könnte man die Addition zweier Folgen aus M1 auch wie folgt definieren, um Abhilfe zu schaffen und somit an eine innere Addition zu kommen: (xn )n + (yn )n := (xn yn )n . Wir addieren also zwei Folgen, indem wir ihre jeweiligen Folgenglieder miteinander multiplizieren. Auf diese Weise ist die Summe zweier Folgen aus M1 wieder eine Folge mit Grenzwert 1. Die Addition führt damit wieder in die Menge M1 zurück. Der Nullvektor wäre die Folge (1)n = (1, 1 . . .) ∈ M1 . Wir bekommen aber Probleme mit den Rechengesetzen, da in einem Vektorraum beispielsweise nach Axiom (vii) verlangt wird: a · (x + y) = a · x + a · y für alle a ∈ K, x, y ∈ V . Nun gilt hier für alle a ∈ R, und (xn )n , (yn )n ∈ M1  a · (xn )n + (yn )n = a · (xn yn )n = (axn yn )n . Nach Axiom (vii) müsste aber  a · (xn )n + (yn )n = a · (xn )n + a · (yn )n = (axn )n + (ayn )n = (a2 xn yn )n gelten. Für a 6∈ {1, 0} gilt aber a 6= a2 . Mit dieser umdefinierten Addition ist also M1 noch kein R-Vektorraum. Dies hätte man auch daran bereits erkennen können, dass die skalare Multiplikation für a 6= 1 aus der Menge M1 herausführt. Aufgabe 1.9 Es sei V ein Vektorraum über dem Körper K. Zeigen Sie allein durch Verwendung der Vektorraumaxiome, dass für jeden Vektor x ∈ V und jeden Skalar λ ∈ K die folgenden Regeln gelten: (i) (−λ ) · x = λ · (−x) = −(λ x). (ii) Gilt λ x = 0, so ist λ = 0 oder x = 0. (iii) 0 · x = 0 = λ · 0. Lösung Es sei x ∈ V ein Vektor und λ ∈ K ein Skalar. Wir zeigen zunächst das dritte Gesetz. Es gilt 0 · x = (0 + 0) · x = 0 · x + 0 · x.

14

1 Algebraische Strukturen

Nach Addition von −(0 · x) auf beiden Seiten folgt 0 = 0 · x. Zudem ist λ · 0 = λ · (0 + 0) = λ · 0 + λ · 0. Nach Addition von −(λ · 0) auf beiden Seiten folgt 0 = λ · 0. Das erste Gesetz ergibt sich nun wie folgt: Es gilt λ · x + (−λ ) · x = (λ + (−λ ))x = 0 · x = 0 = λ · x + (−(λ · x)). Nach Addition von −(λ · x) folgt (−λ ) · x = −(λ · x). Zudem gilt λ · x + λ · (−x) = λ · (x + (−x)) = λ 0 = 0 = λ · x + (−(λ · x)). Nach Addition von −(λ · x) folgt λ · (−x) = −(λ · x). Um das zweite Gesetz zu zeigen, betrachten wir für λ 6= 0 die Gleichung !

λ · x = 0. Nach Multiplikation mit λ −1 ergibt sich !

λ −1 · (λ · x) = (λ −1 λ ) · x = 1 · x = x = λ −1 · 0 = 0. Daher folgt x = 0. Aufgabe 1.10 Zeigen Sie, dass die Menge C0 (R) der stetigen Funktion R → R bezüglich der punktweisen Addition, ( f + g)(x) := f (x) + g(x), und der punktweisen skalaren Multiplikation, (λ · f )(x) := λ · f (x), für alle f , g ∈ C0 (R) und λ ∈ R, einen R-Vektorraum bildet. Lösung Aus der Analysis ist bekannt, dass die Summe stetiger Funktionen eine stetige Funktion ergibt. Außerdem ändert ein konstanter Faktor nichts an der Stetigkeit einer Funktion. Diese beiden Rechenoperationen führen also wieder in die Menge C0 (R) zurück. Die Rechengesetze eines Vektorraums ergeben sich dann aus der Körpereigenschaft von R. Die Nullfunktion 0(x) := 0 für alle x ∈ R übernimmt die Rolle des Nullvektors. Für eine stetige Funktion f ∈ C0 (R) ist dann die Funktion − f definiert durch (− f )(x) := − f (x) für alle x ∈ R eine additiv inverse Funktion mit der Eigenschaft f + (− f ) = 0. In diesem Sinne ist also C0 (R) ein R-Vektorraum. Dies trifft im Übrigen in analoger Weise auch auf die Menge Ck (R) der k-mal stetig differenzierbaren Funktionen auf der Menge R zu.

1.3 Vektorräume

15

Aufgabe 1.11 Inwiefern stellt die Menge aller Polynome K[x] in der Variablen x und Koeffizienten aus K einen K-Vektorraum dar? Lösung Es seien p = an xn + an−1 xn−1 + · · · + a1 x + a0 ,

q = bm xm + bm−1 xm−1 + · · · + b1 x + b0

zwei Polynome aus K[x] mit n = deg p und m = deg q. Für m = n definieren wir die Summe aus beiden Polynomen durch Zusammenfassen der Koeffizienten: p + q = (an xn + an−1 xn−1 + · · · + a1 x + a0 ) + (bm xm + bm−1 xm−1 + · · · + b1 x + b0 ) := (an + bn )xn + (an−1 + bn−1 )xn−1 + · · · + (a1 + b1 )x + (a0 + b0 ).

(1.1)

Für m 6= n, also etwa m < n, definieren wir die Summe durch p + q = (an xn + an−1 xn−1 + · · · + a1 x + a0 ) + (bm xm + bm−1 xm−1 + · · · + b1 x + b0 ) := an xn + · · · + am+1 xm+1 + (am + bm )xm + (am−1 + bm−1 )xm−1 + · · · + (a1 + b1 )x + (a0 + b0 ). Wir könnten alternativ die Summe aus p und q in dieser Situation auch durch Definition von bi := 0 für i = m + 1, . . . , n gemäß (1.1) definieren. Als skalare Multiplikation von p ∈ K[x] mit λ ∈ K liegt es nahe, λ · p = λ · (an xn + an−1 xn−1 + · · · + a1 x + a0 ) := (λ an )xn + (λ an−1 )xn−1 + · · · + (λ a1 )x + (λ a0 ) zu definieren. Die Rechengesetze des Körpers K liefern dann die Rechengesetze eines K-Vektorraums für K[x]. Der Nullvektor ist das Nullpolynom 0 ∈ K[x]. Für p ∈ K[x] ist −p := (−1) · p das zu p additiv inverse Polynom. Aufgabe 1.11.1 Warum bildet für n ∈ N die Menge K[x]≤n := {p ∈ K[x] : deg p ≤ n} aller Polynome in x und Koeffizienten aus K maximal n-ten Grades ebenfalls einen K-Vektorraum, die Menge K[x]=n := {p ∈ K[x] : deg p = n} aller Polynome in x und Koeffizienten aus K vom Grad n dagegen nicht?

16

1 Algebraische Strukturen

Lösung Zwei Polynome maximal n-ten Grades ergeben in Summe wieder ein Polynom maximal nten Grades. Wird ein Polynom maximal n-ten Grades mit einem Skalar aus K multipliziert, so kann dies ebenfalls nicht zur Gradsteigerung führen. Beide Rechenoperationen führen also nicht aus K[x]≤n hinaus. Da K[x]≤n ⊂ K[x] und K[x] ein K-Vektorraum ist, gelten die Rechenregeln des Vektorraums K[x] auch in K[x]≤n . Der Raum K[x]≤n ist also ein Teilraum von K[x]. Die Teilmenge K[x]=n aller Polynome vom Grad n ist nicht additiv abgeschlossen. Es gilt beispielsweise für n > 0 n>0

(xn + 1) + (−xn ) = 1 ∈ / K[x]=n . Da definitionsgemäß deg 0 = −∞ ist, gilt sogar 0 ∈ / K[x]=0 , sodass auch K[x]=0 kein Vektorraum ist. Hierbei müssen wir beachten, dass K[x]=0 wegen des nicht vorhandenen Nullpolynoms eine echte Teilmenge des K-Vektorraums K ist. Wir können auch ganz kurz argumentieren: K[x]=n ist kein K-Vektorraum, weil der Nullvektor für kein n ∈ N in K[x]=n enthalten ist. Auch hierbei beachten wir, dass K[x]=0 = K \ {0} gilt, denn deg 0 = −∞.

1.4 Vertiefende Aufgaben

Aufgabe 1.12 Zeigen Sie: Ist R ein Integritätsring, dann ist der Polynomring R[x] ebenfalls ein Integritätsring. Lösung Wir zeigen, dass R[x] nullteilerfrei ist. Es seien p, q ∈ R[x] mit p 6= 0 6= q. Wir betrachten die beiden Leitkoeffizienten a von p und b von q. Es sind a 6= 0 6= b. Der Leitkoeffizient c des Produkts pq ist damit das Produkt der beiden Leitkoeffizienten c = ab. Da R nullteilerfrei ist, folgt c = ab 6= 0. Das Produktpolynom kann dann nicht das Nullpolynom sein. Aufgabe 1.13 Zeigen Sie, dass das Polynom f = x2 + x + 1 ∈ Z2 [x] innerhalb Z2 [x] irreduzibel ist. Lösung Wir versuchen, f in zwei Linearfaktoren zu zerlegen: !

f = x2 + x + 1 = (x + a)(x + b), Hieraus folgt nach Ausmultiplizieren

mit

a, b ∈ Z2 .

1.4 Vertiefende Aufgaben

17

x2 + x + 1 = x(x + b) + a(x + b) = x2 + bx + ax + ab = x2 + (a + b)x + ab. Ein Koeeffizientenvergleich liefert a + b = 1 und ab = 1. Für kein einziges der vier möglichen Paare (a, b) ∈ Z2 × Z2 sind diese beiden Bedingungen erfüllt. Aufgabe 1.13.1 Es werde ein beliebiges Polynom p ∈ Z2 [x] mittels Polynomdivision durch das irreduzible Polynom x2 + x + 1 wie folgt zerlegt: p = q · (x2 + x + 1) + r p ,

deg r p < 2.

Welche möglichen Divisionsreste können sich auf diese Weise ergeben? Zeigen Sie, dass sich durch die Restabbildung p mod(x2 + x + 1) := r p eine Menge F := {r p = p mod(x2 + x + 1) : p ∈ Z2 [x]} ergibt, die bezüglich der Polynomaddition f +r g := f + g und der Polynommultiplikation f ·r g := ( f g) mod(x2 + x + 1) einen Körper der Charakteristik char F = 2 bildet. Lösung Die möglichen Divisionsreste müssen vom Grad kleiner deg(x2 + x + 1) = 2 sein. Es gibt nur vier Polynome aus Z2 [x] mit Grad < 2: 0,

1,

x,

x + 1.

Diese Polynome ergeben sich selbst als Rest, wenn sie in · mod(x2 + x + 1) eingesetzt werden. Sie treten also alle in F auf. Damit ist F = {0, 1, x, x + 1}. Wir sehen uns nun sämtliche additiven und multiplikativen Verknüpfungen in F an: +r

0

1

x

x+1

0 0 1 x x+1 1 1 0 x+1 x x x x+1 0 1 1 0 x+1 x+1 x

·r 0 1 x x+1

0

1

x

x+1

0 0 0 0 0 1 x x+1 0 x x+1 1 0 x+1 1 x

Wir erkennen, dass jedes p ∈ F über ein multiplikativ inverses Element verfügt. Offensichtlich gelten sämtliche Körperaxiome. Wegen 1 +r 1 = 0 ist zudem char p = 2. Bemerkung 1.3 Auf ähnliche Weise zeigt man, dass beispielsweise x3 + x + 1 ein irreduzibles Polynom in Z2 [x] ist. Die Menge der Divisionsreste G := {r p = p mod(x3 + x + 1) : p ∈ Z2 [x]} ergibt dann bezüglich der Polynomaddition und -multiplikation

18

1 Algebraische Strukturen

f +r g := f + g,

f ·r g := ( f g) mod(x3 + x + 1)

einen Körper G := {0, 1, x, x + 1, x2 , x2 + 1, x2 + x, x2 + x + 1}. mit den 23 = 8 Restpolynomen des Grades < 3. Ist p eine Primzahl und f ∈ Z p [x] ein irreduzibles Polynom des Grades n, so ist die Menge der Divisionsreste F = {r p = p mod f : p ∈ Z p [x]} bezüglich der Polynomaddition und -multiplikation f +r g := f + g,

f ·r g := ( f g) mod f

ein Körper mit den verbleibenden pn Restpolynomen des Grades < n. Einen Körper dieser Art bezeichnen wir als Galois-Feld F pn mit pn Elementen. Aufgabe 1.14 Es seien (R1 , +1 , ∗1 ) und (R2 , +2 , ∗2 ) zwei Ringe. Das kartesische Produkt R1 ×R2 ist hinsichtlich der komponentenweisen Addition und Multiplikation (a1 , a2 ) + (b1 , b2 ) := (a1 +1 b1 , a2 +2 b2 ),

(a1 , a2 ) · (b1 , b2 ) := (a1 ∗1 b1 , a2 ∗2 b2 )

für (a1 , a2 ), (b1 , b2 ) ∈ R1 × R2 ebenfalls ein Ring, dessen Nullelement (01 , 02 ) sich aus den Nullelementen 01 von R1 und 02 von R2 zusammensetzt. Wir bezeichnen diesen Ring als direktes Produkt aus R1 und R2 . Warum kann R1 ×R2 kein Integritätsring sein, selbst wenn R1 und R2 Integritätsringe sind? Lösung Sind a1 ∈ R1 \ {01 } und a2 ∈ R2 \ {02 } zwei vom jeweiligen Nullelement verschiedene Elemente, so sind (a1 , 02 ) 6= (01 , 02 ) 6= (01 , a2 ). Das Produkt (a1 , 02 ) · (01 , a2 ) = (a1 ∗1 01 , 02 ∗2 a2 ) = (01 , 02 ) ergibt jedoch das Nullelement von R1 × R2 . Es liegen damit zwei Nullteiler aus R1 × R2 vor. Aufgabe 1.15 (Direktes Produkt von Vektorräumen) Es seien V und W zwei KVektorräume. Zeigen Sie, dass das kartesische Produkt V ×W bezüglich der komponentenweisen Addition und skalaren Multiplikation (v1 , w1 ) + (v2 , w2 ) := (v1 + v2 , w1 + w2 ) λ (v, w) := (λ v, λ w) für (v, w), (v1 , w1 ), (v2 , w2 ) ∈ V ×W und λ ∈ K einen K-Vektorraum bildet. Dieser Vektorraum wird als direktes Produkt von V und W bezeichnet.

1.4 Vertiefende Aufgaben

19

Lösung Die Vektorraumeigenschaft von V × W ergibt sich unmittelbar aus der Vektorraumeigenschaft von V und W . Auch wenn dies im Grunde klar ist, bestätigen wir diesen Sachverhalt einmal mit expliziter Rechnung. Dabei benutzen wir innerhalb von V ×W dieselben Verknüpfungssymbole + und · wie in V und in W bzw. in K. Es ist stets durch den Kontext klar, in welchem Sinne die jeweilige Addition und skalare Multiplikation erfolgt. Sind nun (v, w), (v1 , w1 ), (v2 , w2 ), (v3 , w3 ) ∈ V ×W und a, b ∈ K, so gilt Folgendes: (i) Assoziativität der Addition:   (v1 , w1 ) + (v2 , w2 ) + (v3 , w3 ) = (v1 , w1 ) + (v2 + v3 , w2 + w3 ) = (v1 + (v2 + v3 ), w1 + (w2 + w3 )) = ((v1 + v2 ) + v3 ), (w1 + w2 ) + w3 ) = (v1 + v2 , w1 + w2 ) + (v3 , w3 )   = (v1 , w1 ) + (v2 , w2 ) + (v3 , w3 ), (ii) Kommutativität der Addition: (v1 , w1 ) + (v2 , w2 ) = (v1 + v2 , w1 + w2 ) = (v2 + v1 , w2 + w1 ) = (v2 , w2 ) + (v1 , w1 ), (iii) mit den Nullvektoren 0v ∈ V und 0w ∈ W ist (0v , 0w ) ein additiv neutraler Vektor: (v, w) + (0v , 0w ) = (v + 0v , w + 0w ) = (v, w), (iv) der Vektor (−v, −w) ∈ V ×W ist additiv invers zu (v, w): (v, w) + (−v, −w) = (v + (−v), w + (−w)) = (0v , 0w ), (v) gemischte Assoziativität der Multiplikationen: (ab) · (v, w) = ((ab) · v, (ab) · w) = (a · (b · v), a · (b · w)) = a · (b · v, b · w)   = a · b · (v, w) , (vi) das Einselement 1 ∈ K ist auch hinsichtlich der Skalarmultiplikation ein neutrales Element: 1 · (v, w) = (1 · v, 1 · w) = (v, w),

20

1 Algebraische Strukturen

(vii) Distributivität bei Vektoraddition:   a · (v1 , w1 ) + (v2 , w2 ) = a · ((v1 + v2 , w1 + w2 )) = (a · (v1 + v2 ), a · (w1 + w2 )) = (a · v1 + a · v2 , a · w1 + a · w2 ) = (a · v1 , a · w1 ) + (a · v2 , a · w2 ) = a · (v1 , w1 ) + a · (v2 , w2 ), (viii) Distributivität bei Skalaraddition: (a + b) · (v, w) = ((a + b) · v, (a + b) · w) = (a · v + b · v, a · w + b · w) = (a · v, a · w) + (b · v, b · w) = a · (v, w) + b · (v, w).

Kapitel 2

Lineare Gleichungssysteme, Matrizen und Determinanten

2.1 Lineare Gleichungssysteme

Aufgabe 2.1 Lösen Sie die folgenden linearen Gleichungssysteme durch das Gauß’sche Eliminationsverfahren. Bringen Sie die linearen Gleichungssysteme zuvor in MatrixVektor-Schreibweise. x1 + 2x2 − 3 = 0 3x1 + 6x3 = 6 + x2 5x1 − x2 + 9x3 = 10 b) x1 + x2 + x3 + 2x4 = 1 x1 + 2x2 + 2x3 + 4x4 = 2 x1 + x2 + 2x3 + 4x4 = 0 x1 + x2 + x3 + 4x4 = 2 c) 2(x1 + x2 ) = −x3 3x1 + 2x2 + x3 = −2x2 7x1 + 2(4x2 + x3 ) = 0 a)

Lösung a) Das lineare Gleichungssystem (LGS) lautet in Matrix-Vektor-Schreibweise      1 20 x1 3  3 −1 6   x2  =  6  5 −1 9 x3 10 bzw. in Kurzform als Tableau, das mit dem Gauß’schen Verfahren transformiert wird:     100 1 1 20 3  3 −1 6 6  −→ · · · −→  0 1 0 1  . 5 −1 9 10 0 0 1 23 © Springer-Verlag GmbH Deutschland, ein Teil von Springer Nature 2019 L. Göllmann und C. Henig, Arbeitsbuch zur linearen Algebra, https://doi.org/10.1007/978-3-662-58766-9_2

21

22

2 Lineare Gleichungssysteme, Matrizen und Determinanten

Hieraus lesen wir die eindeutig bestimmte Lösung ab, sie lautet in vektorieller Schreibweise     1 x1 x =  x2  =  1  . 2 x3 3 b) Das LGS lautet in Matrix-Vektor-Schreibweise      1112 x1 1  1 2 2 4   x2   2     =    1 1 2 4   x3   0  1114 x4 2 bzw. in Tableauform, die nach wenigen Gauß-Eliminationen in die Lösungsform gebracht werden kann:     1000 0 11121 1 2 2 4 2 0 1 0 0 2      1 1 2 4 0  −→ · · · −→  0 0 1 0 −2  . 11142 0 0 0 1 12 Hieraus lesen wir die eindeutige Lösung ab:     0 x1  x2   2     x=  x3  =  −2  . 1 x4 2 c) Das homogene LGS lautet in Matrix-Vektor-Schreibweise      221 x1 0  3 4 1   x2  =  0  . 782 x3 0 In der Tableauform können wir die rechte Seite weglassen, da sie nur aus Nullen besteht. Im Zuge des Gauß’schen Verfahrens würde sich ja hier nichts ändern, warum sollten wir dann die Nullen stets mitschreiben? Das Tableau lautet also   221  3 4 1 . 782 Da wir bereits wissen, dass jedes homogene LGS die triviale Lösung x = 0 besitzt, stellt sich die Frage, ob wir hier überhaupt noch weiterrechnen müssen. Nun ist aber noch nicht klar, ob die triviale Lösung auch die einzige Lösung ist, mit anderen Worten: Besteht die Lösungsmenge evtl. aus mehr als einem Vektor? Bei den Aufgaben zuvor zeigt das Gauß’sche Verfahren, dass die berechnete Lösung jeweils eindeutig ist, denn eine Tableauform der Art

2.1 Lineare Gleichungssysteme

23



1 0 ···  0 1  . ..  .. . 0 ··· 0 lautet zurückübersetzt in ein LGS  x1     x2    



0 c1 ..  . c2   ..  0 .  1 cn

 = c1    = c2  , .. .. . .     xn = cn

hieraus lesen wir die eindeutige Lösung in vektorieller Schreibweise ab:     x1 c1  x2   c2      x =  .  =  .  ∈ Rn .  ..   ..  xn

cn

Wenn die triviale Lösung ebenfalls die einzige Lösung für das LGS der Teilaufgabe c) ist, dann müsste sich durch das Gauß’sche Verfahren die 3×3-Einheitsmatrix aus dem Tableau erzeugen lassen. Wir probieren dies nun aus. Um das Rechnen mit Brüchen während der elementaren Umformungen möglichst zu vermeiden und erst zum Schluss durchzuführen (mögliche Rechenfehler!), multiplizieren wir die zweite und die dritte Zeile so durch, dass die Zahl 2 links oben in der ersten Spalte einen gemeinsamen Teiler der übrigen beiden Einträge darstellt:         221 2 2 1 ·(−3), ·(−7) 22 1 22 1  3 4 1  ·2 →  6 8 2  →  0 2 −1  ·(−1) →  0 2 −4  .  7 8 2 ·2 14 16 4 0 2 −3  0 0 −2 Alternativ hätten wir auch im Anfangstableau eine 1 in der ersten Spalte erzeugen können, indem wir die erste Zeile von der zweiten Zeile subtrahiert und danach die ersten beiden Zeilen vertauscht hätten. Wir könnten dann mit der 1 in der linken oberen Position bequem die Eliminationen durchführen, ohne Brüche oder größere Zahlen in Kauf nehmen zu müssen. Eine weitere Variante wäre beispielsweise der Tausch der ersten und letzten Spalte. Mit der dann links oben stehenden 1 lassen sich bequem die beiden darunter befindlichen Elemente 1 und 2 eliminieren. Für die Beantwortung der Frage, ob es nur die triviale Lösung gibt, müsste dieser Spaltentausch auch nicht wieder rückgängig gemacht werden. Denn es reicht ja hierfür zu klären, ob voller Rang vorliegt oder nicht. Wir haben nun eine sogenannte obere Dreiecksmatrix erreicht, deren Diagonalkomponenten (2,2 und −2) nicht verschwinden. An dieser Stelle ist bereits erkennbar, dass die 3 × 3-Einheitsmatrix hieraus durch weitere elementare Umformungen erzeugbar ist, indem u. a. das obere Dreieck ebenfalls eliminiert werden kann. Es hat sich also – und

24

2 Lineare Gleichungssysteme, Matrizen und Determinanten

das ist entscheidend – keine Nullzeile ergeben. Die triviale Lösung ist daher die einzige Lösung. Aufgabe 2.1.1 Gegeben sei das inhomogene lineare Gleichungssystem    3x1 + 2x2 + 5x3 + 12x4 = 19  2x1 + 1x2 + 3x3 + 7x4 = 12 .   5x1 + 4x2 + 9x3 + 22x4 = 33 a) Wie lautet die Koeffizientenmatrix A und der Vektor b der rechten Seite dieses Systems? b) Lösen Sie das Gleichungssystem ohne Verwendung von Brüchen und geben Sie dabei die Lösungsmenge in der üblichen Kurzschreibweise als lineares Erzeugnis an, also unter Verwendung der spitzen Klammern h. . .i. c) Welchen Rang besitzt die Koeffizientenmatrix A? d) Ergänzen Sie die folgenden Vektoren zu Lösungsvektoren des obigen LGS:       0 0               0     .  , v3 =   , v2 =  v1 =           -1   1        1 Lösung a) Die Koeffizientenmatrix und der Vektor der rechten Seite lauten     3 2 5 12 19 A = 2 1 3 7  , b = 12 . 5 4 9 22 33 b) Zur Lösung von Ax = b verwenden wir die Tableauform:     3 2 5 12 19  1 1 2 5 7 ·(−2), ·(−5) [A | b] =  2 1 3 7 12  − →  2 1 3 7 12    5 4 9 22 33 5 4 9 22 33 

  1 1 2 5 7 1 →  0 −1 −1 −3 −2  +, ·(−1) →  0  0 −1 −1 −3 −2 0

0 1 0

Die Lösungsmenge lautet nach der Ableseregel (vgl. [5])

1 1 0

2 3 0

 5 2 . 0

2.1 Lineare Gleichungssysteme

25

      5 −2 + * −1 2 −1 −3  +  ,   . 0 1 0 0 0 1 c) Es gilt Rang A = 2. d) Es sind 

2



     -2  , v1 =     1    1



0



     -6  , v2 =     -1    3



0



     0  . v3 =     11    -3

Aufgabe 2.1.2 Gegeben sei ein lineares Gleichungssystem Ax = b über R und die Menge   *     + 7 2 0 −1 −2 1 0 0 L =  4  +  0  ,  1  ,  0  ⊂ R4 . 0 0 0 1 Es gelte nun Ax = b ⇐⇒ x ∈ L. a) Welche Spaltenzahl besitzt die Matrix A, und wie lautet ihr Rang? b) Geben Sie ein zur Menge L passendes Zieltableau an. Lösung a) Bei A muss es sich um eine Matrix aus vier Spalten handeln, da das lineare Gleichungssystem vier Unbekannte besitzt, denn die angegebene Lösungsmenge besteht aus Vektoren des R4 . Es gilt dabei Rang A = 1. b) Um ein Zieltableau zu finden, das durch die Ableseregel die Lösungsmenge L ergibt, muss der obige Stützvektor durch einen Stützvektor ersetzt werden, der in den unteren drei Komponenten aus Nullen besteht, denn es ist Rang A = 1. Der neue Stützvektor muss dabei ebenfalls ein Lösungsvektor sein, also in L liegen. Wir konstruieren daher den neuen Stützvektor wie folgt:           7 2 0 −1 11 −2 1 0  +2· −4· +0· 0  =  0 . 4 0 1 0 0 0 0 0 1 0 Es ist dann

  *     + 11 2 0 −1 0 1 0  0    L= 0 + 0 , 1 , 0 0 0 0 1

26

2 Lineare Gleichungssysteme, Matrizen und Determinanten

und beispielsweise 

1 −2 0 0 0 0

0 0 0

 1 11 0 0 0 0

ein Zieltableau, das nach Anwenden der Ableseregel die Lösungsmenge L in der letztgenannten Form ergibt. In diesem Zieltableau dürfen wir beliebig viele weitere Nullzeilen ergänzen, ohne dass sich die Lösungsmenge ändert. Aufgabe 2.2 Die Lösungsmenge eines homogenen linearen Gleichungssystems ist ein Teilraum, während die Lösungsmenge eines inhomogenen linearen Gleichungssystems einen affinen Teilraum darstellt. In dieser Aufgabe soll insbesondere die Ableseregel zur Bestimmung dieser Räume trainiert werden. a) Bestimmen Sie die (affinen) Lösungsräume folgender linearer Gleichungssysteme über dem Körper R:       4 3 3 10 9 7 0 212 5 4 5 2 3 2 5 7 4 0   x = 0, 1 3 6 10 2 x = 0 . 2 2 3 9 8 5 0 124 7 2 1 111 3 320 b) Bestimmen Sie die Lösungsmenge des linearen Gleichungssystems     1211 2 2 0 0 1 x = 1 1120 2 über dem Körper Z3 . c) Lösen Sie das lineare Gleichungssystem     −2t 4 − t 3 − 2t 2 − t 2t(1 − t) −2t 2 −t  2(t − 1) t 1  x =  t 3 + t 2 + 2t + 2  t −1 0 1 t 2 + 2t + 2 über dem Quotientenkörper von R[t]. Lösung a) Durch elementare Zeilenumformungen können wir eine Zeile komplett eliminieren und das Tableau schließlich in Normalform überführen:       4 3 3 10 9 7 0 111 3 320 100 1 010 2 3 2 5 7 4 0 2 3 2 5 7 4 0       2 2 3 9 8 5 0 → 2 2 3 9 8 5 0 → . . . → 0 1 0 −1 1 0 0 . 0 0 1 3 2 1 0 111 3 320  4 3 3 10 9 7 0 Die Ableseregel liefert uns als Lösungsmenge einen vierdimensionalen Teilraum des R7 :

2.1 Lineare Gleichungssysteme

27

        −1 0 −1 0  1  −1  0  0        * −3 −2 −1 0+                L0 =   1  ,  0  ,  0  , 0 .  0   1   0  0          0   0   1  0 0 0 0 1 Im Tableau des inhomogenen linearen Gleichungssystems lässt sich eine Zeile eliminieren, sodass wir nach wenigen Schritten zur Normalform gelangen:       212 5 45  1 3 6 10 2 0  1 3 6 10 2 0  →  2 1 2 5 4 5  → . . . → 1 0 0 1 2 3 . 0 1 2 3 0 −1 124 7 21 124 7 21 Die Ableseregel liefert die Lösungsmenge als affinen Teilraum des R5         3 0 −1 −2 * −1 −2 −3  0 +                L=  0 +  1 ,  0 ,  0  . 0 0 1 0 0 0 0 1 R Um die durch Zeilenumformungen bestimmte Normalform des Tableaus durch MATLAB ermitteln zu lassen, können wir die Funktion rref (reduced row echelon form) verwenden: 1

>> A=[2,1,2,5,4,5; 1,3,6,10,2,0; 1,2,4,7,2,1]

2 3

A =

4

2 1 1

5 6 7

1 3 2

2 6 4

5 10 7

4 2 2

5 0 1

0 1 0

0 2 0

1 3 0

2 0 0

3 -1 0

8 9

>> rref(A)

10 11

ans =

12 13 14 15

1 0 0

b) In Z3 haben wir folgende inverse Elemente: 0 12 −x 0 2 1 , x−1 − 1 2 x

28

2 Lineare Gleichungssysteme, Matrizen und Determinanten

die wir für die weitere Rechnung benötigen, um das Tableau des zu lösenden linearen Gleichungssystems mit elementaren Umformungen über dem Körper Z3 in die Normalform zu bringen:     12112 1 2 1 1 2 ·(−2)=1, ·(−1)=2  2 0 0 1 1  →  0 2 1 2 0  −, ·2−1 =2  02120  11202 

1211 → 0 1 2 1 0000

 2 0  ·(−2)=1 0



1002 → 0 1 2 1 0000

 2 0 . 0

Hieraus lesen wir die Lösungsmenge ab. Sie lautet             2 −2 + 2 1 + * 0 * 0 0 −2 −1 0 1 2  +   ,  =  +   ,  . 0 1 0 0 1 0 0 0 1 0 0 1 Da wir Z3 als Körper zugrunde gelegt haben, ergibt sich eine endliche Lösungsmenge aus 32 = 9 Lösungen:                   2 0 1 2 0 1 2 0 1                       0 2 1 1 0 2 2 1  ,   ,   ,   ,   ,   ,   ,   , 0 . x∈  0 0 0 1 1 1 2 2 2      0 1 2 0 1 2 0 1 2 c) Im Tableau vertauschen wir zunächst die erste und die letzte Zeile und führen dann weitere elementare Zeilenumformungen unter Verwendung von Skalaren aus dem Quotientenkörper von R[t] durch. Dies ist der Körper der reellen rationalen Funktionen in der Variablen t. Wir erhalten:   2t(1 − t) −2t 2 −t −2t 4 − t 3 − 2t 2 − t   2(t − 1) t 1 t 3 + t 2 + 2t + 2   t −1 0 1 t 2 + 2t + 2  t −1 0 1 t 2 + 2t + 2 ·(−2), ·2t 1 t 3 + t 2 + 2t + 2  →  2(t − 1) t  2t(1 − t) −2t 2 −t −2t 4 − t 3 − 2t 2 − t 

 t −1 0 1 t 2 + 2t + 2 t −1 t 3 − t 2 − 2t − 2  ·2t → 0 0 −2t 2 t −2t 4 + t 3 + 2t 2  

2.1 Lineare Gleichungssysteme

29

t −1 0 1 t 2 + 2t + 2 3  0 t −1 t − t 2 − 2t − 2  → 1 ·(− t ) 0 0 −t −t 3 − 2t 2 − t 



  t −1 0 1 t 2 + 2t + 2  →  0 t −1 t 3 − t 2 − 2t − 2  2 + − 0 0 1 t + 2t + 1 

 1   1 100 · t−1 t −1 0 0 1 t−1 →  0 t 0 t 3 − 1  · 1t →  0 1 0 t 2 − 1t  . 0 0 1 t 2 + 2t + 1 0 0 1 t 2 + 2t + 1 

Die eindeutige Lösung ist also x1 = tenkörper von R[t].

1 t−1 , x2

= t 2 − 1t und x3 = (t + 1)2 aus dem Quotien-

Aufgabe 2.2.1 Für ein Aquarium sollen die Wassertemperaturen im stationären Zustand auf halber Höhe näherungsweise ermittelt werden. Hierzu wird nur die Wärmeleitung im Wasser betrachtet, Einflüsse durch Konvektion sollen vernachlässigt werden. Vereinfachend wird das Inventar des Aquariums (Fische, Pflanzen und anderes) vernachlässigt, sodass das Wasser als homogenes Material betrachtet werden kann. Das Aquarium habe einen fünfeckigen Querschnitt, wie in Abb. 2.1 gezeigt. Das Aquarium soll in einer Raumecke aufgestellt werden, sodass für die beiden langen Seiten, die der schrägen Seite gegenüberliegen, eine Temperatur von 24 ◦ C angenommen werden soll. Für die übrigen Seiten kann eine Temperatur von 20 ◦ C unterstellt werden. Zum Erwärmen des Wassers sind in der Nähe der Ecken gegenüber der schrägen Seite Heizelemente positioniert, in Abb. 2.1 bezeichnet mit H1 und H2 , die die Umgebung auf eine einstellbare Temperatur bringen können. Zur Berechnung der Wassertemperaturen wird der Querschnitt des Aquariums mit einem äquidistanten Raster versehen (siehe Abb. 2.1). An den Kreuzungspunkten des Rasters sollen die Temperaturen xi bestimmt werden. Da das Wasser vereinfachend als homogenes Medium betrachtet wird, kann angenommen werden, dass die Temperatur an jedem Raumpunkt annähernd der arithmetische Mittelwert der Temperaturen der nächsten Nachbarpunkte in vertikaler und horizontaler Richtung ist. Für die Berechnung der Temperaturen bietet es sich an, eine Mathematiksoftware wie z. B. R MATLAB zu verwenden. a) Die Temperatur der beiden Heizelemente sei jeweils 30 ◦ C. Stellen Sie das Gleichungssystem für die Temperaturen xi an den 13 Punkten auf und berechnen Sie diese. Ermitteln Sie die Durchschnittstemperatur des Wassers. b) Finden Sie durch Probieren heraus, auf welche Temperatur die beiden Heizelemente eingestellt werden müssen, damit die Temperatur im Durchschnitt etwa 25 ◦ C beträgt.

30

2 Lineare Gleichungssysteme, Matrizen und Determinanten

24 ◦ C

H1

x1

x2

x3

x4

x5

x6

x7

x8

x9

x10

x11

x12

x13

24 ◦ C

20 ◦ C

H2 Abb. 2.1 Äquidistantes Raster zur Bestimmung der Temperaturverteilung im Aquarium

Lösung a) Der Übersichtlichkeit halber werden die Temperaturen ohne Berücksichtigung der Einheit berechnet. Für die 13 Temperaturen ergibt sich folgendes LGS: x1 x2 x3 x4 x5 x6 x7 x8 x9 x10 x11 x12 x13

= = = = = = = = = = = = =

1/4(x2 + 30 + 30 + x5 ) 1/4(x3 + 24 + x1 + x6 ) 1/4(x4 + 24 + x2 + x7 ) 1/4(20 + 24 + x3 + x8 ) 1/4(x6 + x1 + 24 + x9 ) 1/4(x7 + x2 + x5 + x10 ) 1/4(x8 + x3 + x6 + x11 ) 1/4(20 + x4 + x7 + 20) 1/4(x10 + x5 + 24 + x12 ) 1/4(x11 + x6 + x9 + x13 ) 1/4(20 + x7 + x10 + 20) 1/4(x13 + x9 + 30 + 30) 1/4(20 + x10 + x12 + 20).

Bringen wir alle Unbekannten des LGS auf die linke Seite und multiplizieren alle Gleichungen mit 4, um Brüche zu vermeiden, lautet das LGS in Matrix-Vektor-Schreibweise:

2.1 Lineare Gleichungssysteme



31









4 −1 0 0 −1 0 0 0 0 0 0 0 0 x1 60  −1 4 −1 0 0 −1 0 0 0 0 0 0 0   x2   24        0 −1 4 −1 0 0 −1 0 0 0 0 0 0   x3   24        0 0 −1 4 0 0 0 −1 0 0 0 0 0   x4   44        −1 0 0 0 4 −1 0 0 −1 0 0 0 0   x5   24        0 −1 0 0 −1 4 −1 0 0 −1 0 0 0   x6   0        0 0 −1 0 0 −1 4 −1 0 0 −1 0 0   x7  =  0  .       0 0 0 −1 0 0 −1 4 0 0 0 0 0   x8   40        0 0 0 0 −1 0 0 0 4 −1 0 −1 0   x9   24        0 0 0 0 0 −1 0 0 −1 4 −1 0 −1   x10   0        0 0 0 0 0 0 −1 0 0 −1 4 0 0   x11   40        0 0 0 0 0 0 0 0 −1 0 0 4 −1   x12   60  0 0 0 0 0 0 0 0 0 −1 0 −1 4 x13 40 R Dieses LGS kann z. B. mithilfe des Programms MATLAB leicht gelöst werden. Im FolR

genden ist ein möglicher Einsatz von MATLAB dargestellt: 1 2 3 4 5 6 7 8 9 10 11 12 13 14 15 16 17 18 19

>> % LGS: A*x=b >> % Koeffizientenmatrix A: >> A=[ 4, -1, 0, 0, -1, 0, 0, 0, 0, 0, 0, 0, 0; -1, 4, -1, 0, 0, -1, 0, 0, 0, 0, 0, 0, 0; 0, -1, 4, -1, 0, 0, -1, 0, 0, 0, 0, 0, 0; 0, 0, -1, 4, 0, 0, 0, -1, 0, 0, 0, 0, 0; -1, 0, 0, 0, 4, -1, 0, 0, -1, 0, 0, 0, 0; 0, -1, 0, 0, -1, 4, -1, 0, 0, -1, 0, 0, 0; 0, 0, -1, 0, 0, -1, 4, -1, 0, 0, -1, 0, 0; 0, 0, 0, -1, 0, 0, -1, 4, 0, 0, 0, 0, 0; 0, 0, 0, 0, -1, 0, 0, 0, 4, -1, 0, -1, 0; 0, 0, 0, 0, 0, -1, 0, 0, -1, 4, -1, 0, -1; 0, 0, 0, 0, 0, 0, -1, 0, 0, -1, 4, 0, 0; 0, 0, 0, 0, 0, 0, 0, 0, -1, 0, 0, 4, -1; 0, 0, 0, 0, 0, 0, 0, 0, 0, -1, 0, -1, 4]; >> % Vektor b (rechte Seite): >> b=[60, 24, 24, 44, 24, 0, 0, 40, 24, 0, 40, 60, 40]’; >> % Berechung der Lösung des LGS: >> x=A\b

20 21

x =

22 23 24 25 26 27 28 29 30 31 32 33 34 35

27.3917 24.6036 23.2690 22.0968 24.9632 23.7537 22.3757 21.1181 24.7072 23.0724 21.3620 26.7934 22.4664

32

2 Lineare Gleichungssysteme, Matrizen und Determinanten

Der Lösungsvektor des LGS ist   27.3917 24.6036   23.2690   22.0968   24.9632   23.7537    x= 22.3757 . 21.1181   24.7072   23.0724   21.3620   26.7934 22.4664 Schließlich kann noch der Mittelwert der berechneten Temperaturwerte bestimmt werden: 1

>> mean(x)

2 3

ans =

4 5

23.6903

b) Das Ergebnis aus a) zeigt, dass der Mittelwert der Temperaturen kleiner als 25 ◦ C ist. Daher muss die Temperatur der Heizelemente erhöht werden. Durch einfaches Ausprobieren erhält man eine passende Lösung, nämlich eine Temperatur von 36 ◦ C je Heizelement. Die Änderung der Temperatur der Heizelemente betrifft auf der rechten Seite des LGS nur die Komponenten b1 und b12 . Alle anderen Komponenten und die Koeffizientenmatrix bleiben davon unberührt. Die neue rechte Seite lautet:   72  24     24     44     24     0    0 .    40     24     0    40     72  40 R Unter Einsatz des Programms MATLAB können wir die Lösung durch die Verwendung des Ausdrucks A\b auf folgende Weise bestimmen lassen:

2.2 Matrizenmultiplikation

1 2

>> b=[72, 24, 24, 44, 24, 0, >> x=A\b

33

0, 40, 24, 0, 40, 72, 40]’;

3 4

x =

5 6 7 8 9 10 11 12 13 14 15 16 17 18

31.1395 25.9643 23.7980 22.2762 26.5935 24.9199 22.9513 21.3069 26.3148 24.1704 21.7804 30.4953 23.6664

19 20

>> mean(x)

21 22

ans =

23 24

25.0290

2.2 Matrizenmultiplikation

Aufgabe 2.3 Verifizieren Sie die Blockmultiplikationsregel des Matrixprodukts, Satz 2.11 aus [5], an einem Beispiel. Lösung Es seien beispielsweise 

  1 2 3 −1 2 A = 0 −2 1 1 4  , 2 0 −1 3 −2

1 3  4 −2  B= −1 2 1 1 0 4

 4 0 2 −1  2 0 . 3 2 2 −1

Wir berechnen zunächst das Produkt aus A und B nach der üblichen Methode. Das Ergebnis ist die 3 × 4-Matrix   5 12 15 −6 AB = −8 23 9 0  . 6 −1 11 8

34

2 Lineare Gleichungssysteme, Matrizen und Determinanten

Nun können wir die beiden Matrizen auch blockweise betrachten. Mit     1 2 3 −1 2 A11 = , A12 = 0 −2 1 1 4   A21 = 2 0 , A22 = −1 3 −2 und     1 3 4 0 B11 = , B12 = 4 −2 2 −1     −1 2 2 0 B21 =  1 1 , B22 = 3 2  0 4 2 −1 ist das Blockprodukt      A11 A12 B11 B12 A11 B11 + A12 B21 A11 B12 + A12 B22 = A21 A22 B21 B22 A21 B11 + A22 B21 A21 B12 + A22 B22         9 −1 −4 13 8 −2 7 −4 + + 0 19  −4 2  13 −2   =  −8 4  2 6 + 4 −7 8 0 + 3 8    5 12 15 −6 9 0  =  −8 23 6 −1 11 8 identisch mit dem Matrixprodukt AB. Natürlich können wir die Blöcke auch anders aufteilen. Entscheidend ist jedoch, dass die einzelnen Blöcke ein miteinander multiplizierbares Format besitzen. Aufgabe 2.4 Es seien A, B ∈ M(n, K) quadratische Matrizen über einem Körper K der Form     0 ∗ ··· ∗ d1 ∗ · · · ∗   . . 0 0 . . . ..   0 d2 . . . ..  ,   A= B = . . .  . . .   .. . . . . ∗  .. . . . . ∗  0 ··· 0 0 0 · · · 0 dn mit d1 , . . . , dn 6= 0. Zeigen Sie A · B = 0n×n =⇒ A = 0n×n . Lösung Für die Matrix A gilt zunächst ai j = 0 für 1 ≤ j ≤ i ≤ n, während für B nur das untere Dreieck aus Nullen besteht, d. h. bi j = 0 für 1 ≤ j < i ≤ n. Die Diagonalkomponenten von B sind dabei alle ungleich null: bii = di 6= 0 für 1 ≤ i ≤ n. Zu zeigen ist, dass aus AB = 0n×n

2.2 Matrizenmultiplikation

35

folgt A = 0n×n . Nehmen wir an, es gäbe einen Eintrag im oberen Dreieck von A mit ai j 6= 0 für 1 ≤ i < j ≤ n. Hierbei sei j > i der kleinste Spaltenindex, für den ai j 6= 0 ist, d. h., in Zeile i gilt für alle vorausgehenden Spalten, dass aik = 0 ist mit 1 ≤ k < j. Wir berechnen die Komponente ci j in Zeile i und Spalte j der Produktmatrix AB: n

ci j =

i

n

aik bk j + ∑ ∑ aik bk j = ∑ |{z}

k=1

k=1

n

aik bk j =

k=i+1

=0



aik bk j .

k=i+1

Da i < j gilt, ist j ∈ {i + 1, . . . , n}. Für die letzte Summe gilt somit j−1

n

∑ k=i+1

aik bk j =

n

aik bk j + ai j b j j + ∑ aik bk j = ai j b j j = ai j d j 6= 0. ∑ |{z} |{z} k=i+1 k= j+1 =0

=0

Das Produkt AB wäre dann nicht die Nullmatrix. Aufgabe 2.5 Zeigen Sie: Das Produkt zweier oberer (bzw. unterer) Dreiecksmatrizen ist wieder eine obere (bzw. untere) Dreiecksmatrix. Die Inverse einer regulären oberen (bzw. unteren) Dreiecksmatrix ist ebenfalls eine obere (bzw. untere) Dreiecksmatrix. Lösung Es seien A, B ∈ M(n, K) zwei obere Dreieckmatrizen. Es gilt also ai j = 0 = bi j für 1 ≤ j < i ≤ n. Wir zeigen, dass die Produktmatrix AB ebenfalls eine obere Dreiecksmatrix ist. Es gilt ! n

AB =

.

∑ aik bk j k=1

1≤i, j,≤k

Es sei nun i, j ∈ {1, . . . , n} mit i > j. Für die Komponente in der Zeile i und der Spalte j der Produktmatrix AB gilt n

∑ aik bk j

n

=

k=1

∑ aik bk j

=

0.

k=i





aik = 0

bk j = 0,

für k < i

da k ≥ i > j

Die transponierten Matrizen BT und AT sind untere Dreiecksmatrizen. Ihr Produkt BT · AT = (AB)T ist daher als Transponierte von AB eine untere Dreiecksmatrix. Daher gilt die Aussage in analoger Weise auch für untere Dreiecksmatrizen. Ist A eine reguläre obere Dreiecksmatrix, so können wir allein durch Zeileneliminationen, die nach oben wirken, das obere Dreieck von A eliminieren. Die entsprechenden Eliminationsmatrizen sind obere Dreiecksmatrizen. Das Produkt Λ dieser Eliminationsmatrizen ist ebenfalls eine obere Dreiecksmatrix. Die verbleibende Diagonale der diagonalisierten Matrix Λ A kann dann durch eine Diagonalmatrix D mit den Kehrwerten der

36

2 Lineare Gleichungssysteme, Matrizen und Determinanten

Diagonalkomponenten von Λ A in die Einheitsmatrix E überführt werden: DΛ A = E. Da D als Diagonalmatrix ebenfalls obere Dreiecksgestalt besitzt, ist das Produkt A−1 = DΛ eine obere Dreiecksmatrix. Ist A dagegen eine reguläre untere Dreiecksmatrix, so ist AT eine reguläre obere Dreiecksmatrix, deren Inverse (AT )−1 ebenfalls obere Dreiecksstruktur besitzt. Nun gilt (A−1 )T = (AT )−1 . Damit hat A−1 = ((AT )−1 )T untere Dreiecksgestalt. Aufgabe 2.6 Zeigen Sie: Für jede obere (bzw. untere) Dreiecksmatrix A ∈ M(n, K) und N 3 p > 0 gilt: (A p )ii = aiip , für alle 1 ≤ i ≤ n. Lösung Es sei A eine obere Dreiecksmatrix. Zu zeigen ist für p ∈ N, p ≥ 1: (A p )ii = aiip ,

1 ≤ i ≤ n.

für alle

Für k = 1 ist die Behauptung trivial (mit k = 0 und A0 := En gilt sie ebenfalls trivialerweise). Wir zeigen die Behauptung für k = 2. Für höhere Potenzen folgt sie induktiv. Da akl = 0 für 1 ≤ l < k ≤ n, gilt für alle 1 ≤ i, j ≤ n: n

(A2 )i j =

n

∑ aik ak j = ∑ aik ak j . k=1

k=i

Speziell gilt für die Diagonalkomponenten von A2 : n

i

(A2 )ii = ∑ aik aki = ∑ aik aki = aii aii = a2ii . k=i

k=i

Für p ≥ 2 gilt nun mit (αik )1≤i, j≤n := A p und der Induktionsvoraussetzung (IV) αii = aiip : n

(A p+1 )ii = (A p A)ii =

∑ αik aki k=1 n

= ∑ αik aki k=i i

= ∑ αik aki k=i

= αii aii IV

= aiip aii = aiip+1 .

2.3 Inversion von Matrizen

37

2.3 Inversion von Matrizen

Aufgabe 2.7 Invertieren Sie die folgenden regulären Matrizen     101 10 i A = 0 1 0 , B = 0 i 0 102 i 01 über R bzw. C. Hierbei ist i ∈ C die imaginäre Einheit. Lösung Es ergeben sich nach kurzer Rechnung durch das Gauß’sche Eliminationsverfahren:     1/2 0 −i/2 2 0 −1 A−1 =  0 1 0  , B−1 =  0 −i 0  . −1 0 1 −i/2 0 1/2 Aufgabe 2.7.1 Bestimmen Sie die Inverse der regulären Matrix   n n−1 ··· 3 2 1 n − 1 n − 2 · · · 2 1 0    n − 2 n − 3 · · · 1 0 0     .. .. .. ..  ∈ GL(n, R). . . M =  ... . . . . .     3 2 ··· 0 0 0     2 1 ··· 0 0 0  1 0 ··· 0 0 0 Lösung Zur Inversion von A wenden wir das Gauß’sche Eliminationsverfahren auf [M | En ] an. Es bietet sich an, im Tableau die Zeilen sofort in umgekehrter Reihenfolge aufzuschreiben.   1 0 0 ··· 0 0 ··· 0 0 1 ·(−2), ·(−3) · · · , ·(−n)  2  1 0 · · · 0 0 · · · 0 1 0     3 2 1 ··· 0 0 ··· 1 0 0     .. .. .. . . . .. .. ..   . . .. . . . . .   n n−1 n−2 · · · 1 1 0 ··· 0 0

38

2 Lineare Gleichungssysteme, Matrizen und Determinanten

    →  

1 0 0 .. . 0

    →  



··· ··· ··· .. .

0 0 0 .. .

0 0 0 .. .

··· ··· ···

0 0 1

0 1 0 .. .

n−1 n−2 · · ·

1

1

0

···

0

··· ··· ··· .. .

0 0 0 .. .

0 0 0 .. .

··· ··· ···

n−2 · · ·

1

1

0

 0 1 1 −1   −2 1   ·(−2), · · · , ·(2−n) .. ..  . .   · · · 1−n −1

0 1 2 .. .

1 0 0 .. .

0 1 0 .. .

0

0

0 0 1 .. .

0 0 1 .. .

1 −2 −3 .. .

 ·(−2), · · · , ·(1−n)      −n 

0 0 1

.. .     →  

1 0 0 .. .

0 1 0 .. .

0 0 1 .. .

··· ··· ··· .. .

0 0 0 .. .

0 0 0 .. .

··· ··· ···

0 0 1

0

0

0

···

0

1

−2

1

 0 1 1 −2   −2 1  . .. ..  . .  ··· 0

Die Inverse von M lautet also 

0 0 0 0 0 0 0 0  0 0 0 0  0 0 0 0  −1 M = . . . .  .. .. .. ..   0 0 1 −2   0 1 −2 1 1 −2 1 0

 ··· 0 0 1 · · · 0 1 −2   · · · 1 −2 1   · · · −2 1 0   .. .. ..  . . . .  ··· 0 0 0   ··· 0 0 0  ··· 0 0 0

Aufgabe 2.7.2 Bestimmen Sie die Inverse der regulären Matrix   1212 1 1 2 1  N= 1 1 1 2 ∈ GL(n, Z3 ). 1111

2.3 Inversion von Matrizen

39

Lösung Zur Inversion von N über Z3 sehen wir uns zunächst die additiv- und multiplikativ-inversen Elemente dieses Körpers an: x 0 12 −x 0 2 1 . x−1 − 1 2 Wir wenden nun das Gauß’sche Verfahren über Z3 an: =

[N|E4 ] 

1 1  1 1

2 1 1 1

1 2 1 1

2 1 2 1

1 0 0 0

0 1 0 0

0 0 1 0

  0 ·2 1  0 0  → 0 0  1  0

2 2 2 2

1 1 0 0

2 2 0 2

1 2 2 2

0 1 0 0

0 0 1 0

 0 0  ·2 0  1 

1 0 → 0 0

2 2 0 0

1 1 2 2

2 2 1 0

1 2 0 0

0 1 2 2

0 0 1 0

 0 0  0  ·2 1 



1 0 → 0 0

2 2 0 0

1 1 2 0

2 2 1 2

1 2 0 0

0 1 2 0

0 0 1 2

  0 1 0 0  → 0 0 1 ·2 0

2 2 0 0

1 1 2 0

2 2 1 1

1 2 0 0

0 1 2 0

0 0 1 1

   0 1  0 0  → 0 0 2 ·2, + 0

2 2 0 0

1 1 2 0

0 0 0 1

1 2 0 0

0 1 2 0

1 1 0 1

 2   2  1 + 2



2 2 0 0

0 0 2 0

0 0 0 1

1 2 0 0

2 0 2 0

1 1 0 1

  0  1 0 0 ·2  → 0 1 2 0

0 2 0 0

0 0 2 0

0 0 0 1

2 2 0 0

2 0 2 0

0 1 0 1

 0 0  ·2 1  ·2 2

0 1 0 0

0 0 1 0

0 0 0 1

2 1 0 0

2 0 1 0

0 2 0 1

 0 0 . 2 2

1 0 → 0 0





1 0 → 0 0

Wir lesen die Inverse von N aus dem Zieltableau ab:   2200 1 0 2 0  N −1 =  0 1 0 2 . 0012 Um zu testen, ob wir fehlerfrei gerechnet haben, können wir das Produkt aus N und N −1 bestimmen. Dabei können wir auch das Produkt zunächst über Z bilden, um anschließend jede Komponente in die Restklassenabbildung mod 3 einzusetzen:         1212 2200 4366 1000 1 1 2 1 1 0 2 0 3 4 3 6 0 1 0 0        N · N −1 =  1 1 1 2 · 0 1 0 2 = 3 3 4 6 mod 3 = 0 0 1 0 . 1111 0012 3334 0001

40

2 Lineare Gleichungssysteme, Matrizen und Determinanten

2.4 Regularität und Singularität

Aufgabe 2.8 Zeigen Sie: Sind A ∈ M(m × n, K) und B ∈ M(n × p, K) zwei Matrizen, so gilt für die Transponierte des Produkts (A · B)T = BT · AT ∈ M(p × m, R). Lösung Für A ∈ M(m × n, K) und B ∈ M(n × p, K) gilt mit den Komponentendarstellungen A = (ai j ) 1≤i≤m , 1≤ j≤n

B = (bi j ) 1≤i≤n

1≤ j≤p

für das Matrixprodukt n T

n

B A = ( ∑ bk j aik ) 1≤ j≤p = ( ∑ aik bk j ) 1≤ j≤p = k=1

1≤i≤m

k=1

!T

n

T

1≤i≤m

( ∑ aik bk j ) 1≤i≤m k=1

= (AB)T .

1≤ j≤p

Aufgabe 2.9 Zeigen Sie: Für zwei gleichformatige symmetrische Matrizen A und B gilt AB = (BA)T . Lösung Da A und B symmetrisch sind, gilt AB = AT BT = (BA)T . Aufgabe 2.10 Zeigen Sie, dass für eine reguläre Matrix A Transponieren und Invertieren miteinander vertauschbar sind, dass also (A−1 )T = (AT )−1 gilt. Lösung Zunächst ist mit A auch AT regulär, da det A = det(AT ). Es gilt AT (A−1 )T = (A−1 A)T = E T = E. Die Multiplikation beider Seiten mit (AT )−1 von links liefert die Behauptung (A−1 )T = (AT )−1 . Aufgabe 2.11 Das Produkt symmetrischer Matrizen muss nicht symmetrisch sein. Konstruieren Sie ein Beispiel hierzu.

2.5 Faktorisierungen

41

Lösung Die Matrizen

 A=

 1 −1 , −1 2

 B=

 01 10

sind symmetrisch, das Produkt AB =

  −1 1 2 −1

dagegen nicht.

2.5 Faktorisierungen

Aufgabe 2.12 Mit dieser Aufgabe soll die Darstellung von elementaren Zeilen- und Spaltenumformungen mithilfe von Umformungsmatrizen geübt werden. a) Bestimmen Sie für die Matrix  4 2 5 3 A= 2 −2 3 2

 0 1 0 1  1 −2 0 1

eine Zeilenumformungsmatrix Z ∈ GL(4, R) mit ZA = obere Dreiecksmatrix. b) Bestimmen Sie für die Matrix   3334 0 1 0 0  B= 0 0 1 0 2123 eine Spaltenumformungsmatrix S ∈ GL(4, R) mit BS = untere Dreiecksmatrix. Lösung a) Wir bestimmen eine reguläre 4 × 4-Matrix Z, sodass ZA obere Dreiecksform hat. Wir führen hierzu elementare Zeilenumformungen an A durch, die wir in identischer Weise an E4 vollziehen. Sinnvoll ist es, hierzu A und E4 in ein gemeinsames Tableau aufzunehmen:

42

2 Lineare Gleichungssysteme, Matrizen und Determinanten

=

[A|E4 ] 

4 2 5 3   2 −2 3 2

0 1 0 1 1 −2 0 1

1 0 0 0



0 0 0 1 1 −2 0 1

 1 0 0 −1  −5 1 0 5   −2 0 1 2  + −3 0 0 4



0 0 0 1 1 −1 0 3 −4 0 −2 3



0 1 0 0

1 0 0 3 →  0 −2 0 2 1 0 → 0 0 1 0  → 0 0

0 0 1 −1 1 −1 0 1

Mit

0 1 0 0

0 0 1 0

1 −7 −16 11

 0  0  0 1 ·(−1)



0 0 0 1 1 −2 0 1

1 0 0 0



0 0 1 −1 1 −2 0 1

1 −7 −2 −3

1 0 5 3 →  2 −2 3 2 1 0 0 1 →  0 −2 0 2

  0 0 −1 10 0 0  0 1 1 −1 1 1 7   →  0 0 1 −1 2 3 16  −2 −2 −10 + 0 0 −2 3

0 1 0 0

 0 −1 ·(−5), ·(−2), ·(−3)  0 0     1 0  0 1  0 0 −1 11 7   ·2, ·(−2) 0 1 2   00 4

 1 0 0 −1 −7 1 1 7   −5 0 1 6  ·2 11 −2 −2 −10 

 1 0 0 −1 −7 1 1 7  . −5 0 1 6  1 −2 0 2 

1 0 U = 0 0

0 1 0 0

0 1 1 0

 0 −1 , −1 1



1 0 −7 1 Z= −5 0 1 −2

0 1 1 0

 −1 7   6  2

folgt ZA = U. b) Wir bestimmen nun eine reguläre 4 × 4-Matrix S, sodass BS untere Dreiecksgestalt hat. Hierzu führen wir elementare Spaltenumformungen durch, die wir analog an E4 durchführen. Im Gegenatz zu Zeilenumformungen ordnen wir die beiden Matrizen untereinander in einem gemeinsamen Tableau an:         3 3 3 4 3 3 3 1 1 3 3 3 1 0 0 0 0 1 0 0 0 1 0 0   0 1 0 0 0 1 0 0         0 0 1 0 0 0 1 0   0 0 1 0 0 0 1 0           2 1 2 3       B  →  2 1 2 1  →  1 1 2 2  →  1 −2 −1 −1 . =         E4 1 0 0 0  1 0 0 −1 −1 0 0 1  −1 3 3 4  0 1 0 0 0 1 0 0   0 1 0 0 0 1 0 0         0 0 1 0 0 0 1 0   0 0 1 0 0 0 1 0 0 0 0 1 0 0 0 1 1 0 0 0 1 −3 −3 −3 6 6 6 ·(−3) 6 6 6 −

2.5 Faktorisierungen

Mit

43



1 0  L= 0 1

0 1 0 −2

 0 0 0 0 , 1 0 −1 −1



−1 0  S= 0 1

3 1 0 −3

3 0 1 −3

 4 0  0 −3

folgt BS = L. Die Zerlegungen in Teil a) und b) sind allerdings nicht eindeutig. Aufgabe 2.13 Bestimmen Sie für die Matrix  222 2 2 3 A= 1 3 4 122

 1 2  4 2

eine Permutation P, eine linke Dreiecksmatrix L mit Einsen auf der Hauptdiagonalen und eine obere Dreiecksmatrix U, sodass PA = LU gilt. Lösung Wir überprüfen, ob für die geplante Zerlegung von   2221 2 2 3 2  A= 1 3 4 4 1222 Zeilenvertauschungen notwendig sind. Hierzu betrachten wir die Hauptabschnittsmatrizen. Die erste Hauptabschnittsmatrix (2) 6= (0) ist regulär. Für die zweite Hauptabschnittsmatrix   22 22 ergibt sich eine singuläre Matrix. Nach Vertauschen der zweiten und dritten Zeile in A ergibt sich eine reguläre zweite Hauptabschnittsmatrix:   22 . 13 Auch die dritte Hauptabschnittsmatrix der zeilenvertauschten Matrix P23 A ist regulär, da     222 222 det 1 3 4 = det 1 3 4 = 2 · 3 − 1 · 2 = 4. 223 001 Wir können nun die LU-Zerlegung der zeilenpermutierten Matrix P23 A durchführen. Es ergibt sich dann das folgende Zerlegungsverfahren:

44

2 Lineare Gleichungssysteme, Matrizen und Determinanten



2 1 P23 A =  2 1

2 3 2 2

2 4 3 2

 1 ·(−1/2), ·(−1), ·(−1/2)  4  .   2  2

Wir wählen also die Frobenius-Matrix F1 := F(−1/2, −1, −1/2) und erhalten   222 1 0 2 3 7/2 ·(−1/2)  . F1 P23 A =  0 0 1 1  0 1 1 3/2  Mit der Frobenius-Matrix F2 := F(0, −1/2) folgt  22 2 0 2 3 F2 F1 P23 A =  0 0 1 0 0 −1/2

 1 7/2   . 1  ·1/2 −1/4 

Die Frobenius-Matrix F3 := F(1/2) liefert  2 0  F3 F2 F1 P23 A =  0 0

2 2 0 0

2 3 1 0

 1 7/2  =: U. 1 1/4

Mit der unteren Dreiecksmatrix L := (F3 F2 F1 )−1 = F1−1 F2−1 F3−1 = F(1/2, 1, 1/2)F(0, 1/2)F(−1/2)   1 0 0 0 1/2 1 0 0  =  1 0 1 0 1/2 1/2 −1/2 1 gilt demnach mit P = P23 die Zerlegung PA = LU. Diese Zerlegung ist nach Wahl der Permutation P eindeutig. Wie vergleichen unser Ergebnis mit dem Resultat, das uns R MATLAB liefert. 1

>> A=[2,2,2,1; 2,2,3,2; 1,3,4,4; 1,2,2,2]

2 3

A =

4 5 6 7 8

2 2 1 1

2 2 3 2

9 10 11

>> [L,U,P]=lu(A)

2 3 4 2

1 2 4 2

2.5 Faktorisierungen 12

45

L =

13 14 15 16 17

1.0000 0.5000 1.0000 0.5000

0 1.0000 0 0.5000

0 0 1.0000 -0.5000

0 0 0 1.0000

2.0000 0 0 0

2.0000 2.0000 0 0

2.0000 3.0000 1.0000 0

1.0000 3.5000 1.0000 0.2500

18 19 20

U =

21 22 23 24 25 26 27 28

P =

29 30 31 32 33

1 0 0 0

0 0 1 0

0 1 0 0

0 0 0 1

R In diesem Fall stimmt das Resultat von MATLAB mit unserem Ergebnis überein. Auch hier werden die mittleren beiden Zeilen von A durch P vertauscht. Alternativ hätte aber die Vertauschung der ersten und letzten Zeile in A uns ebenfalls eine Zerlegung dieser Art ermöglicht. Dann hätten wir mit P14 A = L0U 0 jedoch andere Matrixfaktoren L0 6= L und U 0 6= U erhalten.

Aufgabe 2.13.1 Bestimmen Sie für die reelle 3 × 4-Matrix " # 3 4 2 3 A= 4 7 3 5 8 9 5 7 reguläre Matrizen Z ∈ GL(3, R) und S ∈ GL(4, R) mit h i E 0 ZAS = 0 r 0 r×r = N, m−r×r

m−r×n−r

wobei r = Rang A ist. Dabei sollen die Matrizen Z und S nur aus ganzen Zahlen bestehen. Bestimmen Sie aus der ZAS-Zerlegung die Lösungsmenge von   1 Ax = 2 , 2 indem Sie y := S−1 x substituieren.

46

2 Lineare Gleichungssysteme, Matrizen und Determinanten

Lösung Wir führen elementare Zeilen- und Spaltenumformungen an A durch und achten darauf, im ganzzahligen Bereich zu bleiben. Um Z und S zu bestimmen, führen wir die Zeilenbzw. Spaltenumformungen in analoger Weise an E3 bzw. E4 durch: Matrix

Zeilenumformungen

Spaltenumformungen



   3 4 2 3  1 0 0  A =  4 7 3 5  −, ·(−2)  0 1 0  −, ·(−2)   8 9 5 7 0 0 1   −1 −3 −1 −2 · 4 →  4 7 3 5  0 −5 −1 −3   −1 −3 −1 −2 →  0 −5 −1 −3 − 0 −5 −1 −3 



 1 −1 0 · 4  0 1 0  0 −2 1 



1 −1 0  4 −3 0  − 0 −2 1 

6 6     −1 −1 −3 −2 ·(−1) 1 −1 0 ·(−1) →  0 −1 −5 −3 ·(−1)  4 −3 0  ·(−1) 0 0 0 0 −4 1 1 ·(−1)



1 0  0 0 ·(−3)

6

·(−2)

·(−2)

6





1 0 0 0 → 0 1 5 3 0 0 0 0 ·(−5)

1 0  0 0

·(−1)

6

·(−3)







−1 1 0  −4 3 0  =: Z −4 1 1

6

·(−3)

6  1 0 0 0 → 0 1 0 0 0 0 0 0 



 0 0 0 1 0 0  0 1 0 0 0 1 66  0 0 0 0 1 0  1 0 0 0 0 1 6 6 6

 −3 −2 1 0  0 0 0 1 ·(−5) 6 6  ·(−3) 1 −1 2 1 0 0 1 0     0 1 −5 −3 =: S. 0 0 0 1 1 0  0 0

−1 0 1 0

Mit Z und S gilt also 

 1 0 0 0 ZAS =  0 1 0 0  = N. 0 0 0 0 Diese Zerlegung können wir nun zur Lösung von linearen Gleichungssystemen verwenden, sofern Lösungen existieren. Hierzu betrachten wir das Problem

2.5 Faktorisierungen

47

Ax = b,

  1 b = 2 . 2

Linksmultiplikation mit Z liefert ZAx = Zb ⇐⇒ ZASS−1 x = Zb. Nun substituieren wir y := S−1 x. Wir erhalten ein neues Gleichungssystem ZASy = Zb ⇐⇒ Ny = Zb mit sehr einfacher Tableauform 

 1 0 0 0 |  0 1 0 0 Zb  . 0 0 0 0 | Da die unterste Komponente des Vektors      −1 1 0 1 1 Zb =  −4 3 0  2 = 2 −4 1 1 2 0 verschwindet, existieren Lösungen. Die Ableseregel für die Lösungsmenge liefert zunächst   Zb y∈ + hˆe3 , eˆ 4 i . 0 Hierbei sind eˆ 3 und eˆ 4 kanonische Einheitsvektoren des R4 . Das lineare Gleichungssystem besteht aus schließlich vier Unbekannten. Zudem mussten wir den Vektor Zb und eine 0 als vierte Komponente ergänzen. Wegen x = Sy ist jeder Vektor    1 −1 2 1 1    0 0 1 0  2 Zb   x∈S + hSˆe3 , Sˆe4 i =   0 1 −5 −3 0 + hSˆe3 , Sˆe4 i 0 0 0 0 1 0       −1 1 + * 2 0 1 0      =  2  + −5 , −3 0 0 1 | {z } =Kern A

ein Lösungsvektor des ursprünglichen Gleichungssystems und jeder Lösungsvektor des ursprünglichen Gleichungssystems auch ein Vektor dieser Menge.

48

2 Lineare Gleichungssysteme, Matrizen und Determinanten

2.6 Determinanten und Cramer’sche Regel

Aufgabe 2.14 Warum ist die Determinante einer quadratischen Matrix aus ganzen Zahlen ebenfalls ganzzahlig? Lösung Ist A ∈ M(n, Z), so ist nach der Determinantenformel von Leibniz (Satz 2.73 aus [5]) n

det A =

∑ π∈Sn

sign(π) ∏ ai,π(i) i=1

eine Summe ganzer Zahlen und damit ebenfalls ganzzahlig. Aufgabe 2.15 Aus welchem Grund ist die Inverse einer regulären Matrix A, die aus ganzen Zahlen besteht und für deren Determinante det A = ±1 gilt, ebenfalls eine ganzzahlige Matrix? Lösung Nach der Cramer’schen Regel zur Matrixinversion, Satz 2.68 aus [5], gilt für die Inverse von A  1  A−1 = (−1)i+ j det (A˜T )i j . det A 1≤i, j≤n Da (A˜T ) durch Streichen der i-ten Zeile und j-ten Spalte aus AT hervorgeht, sind deren ij

Komponenten wie die von A ganzzahlig. Da det A = ±1 ist, bleibt die Ganzzahligkeit bei Division durch det A erhalten. Wir können die Ganzzahligkeit von A−1 noch einfacher begründen: Da det A = ±1 ∈ Z∗ eine Einheit im Ring Z ist, folgt nach dem Invertierbarkeitskriterium gemäß Satz 2.78 aus [5] die Invertierbarkeit der Matrix A im Matrizenring M(n, Z). Aufgabe 2.16 Zeigen Sie: Ist A ∈ M(n, K) eine reguläre obere (bzw. untere) Dreiecksmatrix, so ist A−1 ebenfalls eine reguläre obere (bzw. untere) Dreiecksmatrix mit Diagonalkomponenten a111 , . . . , a1nn . Lösung Es sei A ∈ GL(n, K) eine obere Dreiecksmatrix. Es sei A−1 = (bi j )1≤i, j≤n . Zunächst zeigen wir, dass A−1 ebenfalls eine obere Dreiecksmatrix ist. Hierzu betrachten wir ein Indexpaar (i, j) des unteren Dreiecks, d. h. 1 ≤ j < i ≤ n. Es gilt nun aufgrund der Cramer’schen Regel für die Inversion von Matrizen für das Element bi j in Zeile i und Spalte j von A−1 : bi j =

1 ((−1)i+ j det (A˜T )i j ). det A

2.6 Determinanten und Cramer’sche Regel

49

Wir betrachten also die transponierte Matrix AT , die eine untere Dreiecksmatrix ist, und streichen in ihr Zeile i und Spalte j. Der Kreuzungspunkt der Streichung befindet sich wegen i > j im unteren Dreieck von AT . Da das obere Dreieck von AT nur aus Nullen besteht, verbleibt mit (A˜T )i j eine Matrix, die eine Nullspalte (i = n) bzw. Nullzeile ( j = 1) oder linear abhängige Zeilen oder Spalten besitzt, da durch die Streichung auf der Diagonalen eine Stufung mit einer Null entsteht. Diese Streichungsmatrix ist also singulär. Es gilt daher det (A˜T )i j = 0 und damit bi j = 0. Wir zeigen nun, dass die Diagonalkomponenten von A−1 die Kehrwerte der Diagonalkomponenten von A sind. Es sei wieder A−1 = (bi j )1≤i, j≤n . Es gilt nun ! En = A · A−1 =

n

.

∑ aik bk j k=1

1≤i, j,≤k

Wir werten diese Gleichung auf der Hauptdiagonalen aus, also für i ∈ {1, . . . , n}, und beachten dabei, ähnlich wie bei Aufgabe 2.5, welchen Effekt einerseits die obere Dreiecksmatrix A nach sich zieht und dass bki = 0 gilt für k > i: n

1=

n

i

∑ aik bki = ∑ aik bki = ∑ aik bki = aii bii . k=1

k=i

k=i

Es folgt bii = a1ii . Mit A ist AT eine untere Dreiecksmatrix. Die Inverse der Transponierten, also die Matrix (AT )−1 = (A−1 )T , ist daher als Transponierte von A−1 eine untere Dreiecksmatrix. Die Aussage gilt demnach in analoger Weise auch für untere Dreiecksmatrizen. Aufgabe 2.17 Beweisen Sie die nützliche Kästchenformel zur Berechnung der Determinanten (vgl. Satz 2.72 aus [5]): Es seien M1 ∈ M(n1 , K), M2 ∈ M(n2 , K), . . . , M p ∈ M(n p , K) quadratische Matrizen. Dann gilt     det   

M1 0 .. . 0



··· ∗ . . M2 . . .. .. .. . . ∗ · · · 0 Mp

   p   = ∏ det Mk .  k=1 

(2.1)

Lösung Es reicht aus, die Kästchenformel für eine Blocktrigonalmatrix mit zwei Blöcken zu zeigen. Es ist aufgrund der Blockmultiplikationsregel und des Multiplikationssatzes ! ! !! En1 ∗ M1 0 M1 ∗ = det det 0 En2 0 M2 0 M2

50

2 Lineare Gleichungssysteme, Matrizen und Determinanten

= det

En1



0

M2

! · det

M1 0

0 En2

! .

Durch n1 -fach verschachtelte Spaltenentwicklung der linken und n2 -fach verschachtelte Spaltenentwicklung der rechten Determinante folgt dann ! M1 ∗ det = 1| · 1{z· · · 1} · det M2 · 1 | · 1{z· · · 1} · det M1 0 M2 n1 mal n2 mal = det M2 · det M1 . Sollte die Blocktrigonalmatrix aus mehr als zwei Blöcken bestehen, so können wir sie zunächst in zwei Blöcke aufteilen und die obige Argumentation mehrmals hintereinander führen. Beispielsweise gilt dann für eine aus drei Blöcken bestehende Blocktrigonalmatrix   ! ∗ M1 ∗ M2 ∗   det  0 M2 ∗  = det M1 · det 0 M3 0 0 M3 = det M1 · det M2 · det M3 .

Aufgabe 2.17.1 Warum gilt die Kästchenformel in entsprechender Weise auch für untere Blocktrigonalmatrizen? Weshalb ist also für quadratische Blöcke Mk ∈ M(nk , K)     det   

M1 ∗ .. . ∗

··· 0 . . M2 . . .. .. .. . . 0 · · · ∗ Mp 0

   p   = ∏ det Mk ?  k=1 

Lösung Dies folgt direkt aus der Symmetrieeigenschaft der Determinante, also det(AT ) = det A, und der Kästchenformel für obere Blocktrigonalmatrizen (2.1).

2.6 Determinanten und Cramer’sche Regel

51

Aufgabe 2.17.2 Berechnen Sie die folgenden Determinanten über R. 1 2 3 4 5 6 7 2 3 1 2 8 6 1 0 3 2 1 1 2 3 3 1 2 0 3 7 9 3 0 4 2 a) 2 3 1 b) c) 0 0 0 0 3 2 1 3 1 2 2 4 0 3 0 0 0 3 0 4 2 1 0 0 0 0 0 0 2 4 0 3 0 0 0 1 0 0 0 1 0 d) −1 1

2 2 5 3

3 4 0 −1 2 4 0 3

e)

207 414 121 491 415

323 114 315 −112 646 228 630 −224 133 −121 101 502 411 −123 312 131 115 512 710 100

Lösung a) Es handelt sich um eine 3 × 3-Matrix. Nach der Formel von Sarrus gilt für die Determinante: 1 2 3 2 3 1 = 1 · 3 · 2 + 2 · 1 · 3 + 3 · 2 · 1 − 33 − 23 − 13 = −18. 3 1 2 b) Wir entwickeln beispielsweise nach der vierten Zeile: 0 3 2 1 3 2 1 3 0 4 2 2 4 0 3 = −1 · 0 4 2 = −36. 4 0 3 1 0 0 0 c) Hier bietet sich die Kästchenformel an: 1 2 3 4 5 6 7 2 3 1 2 8 6 1 3 1 2 0 3 7 9 1 2 3 0 0 0 0 0 3 2 1 = 2 3 1 · 3 0 0 0 3 0 4 2 3 1 2 2 1 0 0 0 2 4 0 3 0 0 0 1 0 0 0

3 0 4 0

2 4 0 0

1 2 a), b) = (−18) · (−36) = 648. 3 0

d) Es bietet sich die Entwicklung nach der zweiten Zeile oder nach der dritten Spalte an. Letzteres ergibt im Detail:

52

2 Lineare Gleichungssysteme, Matrizen und Determinanten

1 0 −1 1

2 2 5 3

3 4 0 0 −1 −1 = 3 · 2 4 1 0 3

1 2 −1 5 4 + 2 · 0 1 3 3

2 4 2 −1 = 64. 3 3

Da die Determinante invariant ist unter elementaren Zeilen- oder Spaltenumformungen des Typs I, können wir alternativ auch zunächst weitere Nullen erzeugen. So könnten wir beispielsweise innerhalb der ersten Spalte zunächst die −1 in der dritten und die 1 in der vierten Zeile durch Addition bzw. Subtraktion der ersten Zeile eliminieren, um danach die Determinante nach der ersten Spalte zu entwickeln. Die Determinante der einzig verbleibenden 3 × 3-Streichungsmatrix können wir mit der Formel von Sarrus berechnen: 1 2 3 4 1 2 3 4 2 0 −1 0 2 0 −1 0 2 0 −1 −1 5 2 4 = 0 7 5 8 = 1 · 7 5 8 = −10 + 0 + 21 + 5 + 48 − 0 = 64. 1 −3 −1 1 3 0 3 0 1 −3 −1 e) Die zweite Zeile ist das Doppelte der ersten Zeile dieser Matrix. Aus diesem Grund hat die Matrix keinen vollen Rang und ist daher singulär. Die Determinante verschwindet demnach: 207 323 114 315 −112 414 646 228 630 −224 121 133 −121 101 502 = 0. 491 411 −123 312 131 415 115 512 710 100 Aufgabe 2.17.3 Bestimmen Sie 

 3−x −2 0 det A(x) mit A(x) =  1 −x 0  ∈ M(3, R[x]). −3 3 3−x Für welche x ∈ R ist die Matrix A(x) singulär? Lösung Es bietet sich die Entwicklung der Determinante von A(x) nach der dritten Spalte an:   3−x −2 0 det A(x) = det  1 −x 0  = (3 − x)(x2 − 3x + 2) = (3 − x)(x − 1)(x − 2). −3 3 3−x Betrachten wir A(x) mit x ∈ R als reelle Matrix, so wird A(x) für x ∈ {3, 1, 2} singulär.

2.6 Determinanten und Cramer’sche Regel

Aufgabe 2.17.4 Es seien   101 A =  1 2 0 , 112

53



2 B= 3 −1

 1 1 2 −2  , 0 −3



 110 C =  1 0 1 . 011

Berechnen Sie mit möglichst wenig Aufwand: a) det(ABC), b) det(AT CT ), c) det(C−1 B−1 ) |A1−1 | ,   A A d) det . C B +C Lösung Man berechnet zunächst det A = |A| = 3, det B = |B| = 1 und detC = |C| = −2. a) det(ABC) = det(A) det(B) det(C) = −6 b) det(AT CT ) = det(AT ) det(CT ) = det(A) det(C) = −6 c) det(C−1 B−1 ) |A1−1 | = det(C−1 ) det(B−1 ) det(A) =

1 1 |C| |B| |A|

= − 32

Bemerkung 2.1 Wir haben hierbei den Multiplikationssatz für Determinanten verwendet, d. h., wir bestimmen die Determinante des Produkts zweier quadratischer Matrizen, indem wir das Produkt ihrer Determinanten berechnen: det(AB) = det(A) det(B). Dies gilt im Allgemeinen allerdings nicht in entsprechender Weise für die Addition, wie das folgende Gegenbeispiel zeigt:     10 11 A= , B= . 02 12 Es ist

 det(A + B) = det

10 02



 +

11 12



 = det

21 14

 = 7,

während jedoch det(A) + det(B) = 2 + 1 = 3 6= 7 = det(A + B). Eine Folge des Multiplikationssatzes ist, dass für eine reguläre Matrix A die Determinante ihrer Inversen der Kehrwert der Determinante von A ist, denn es gilt 1 = det(A−1 A) = det(A−1 ) det(A). d) Es handelt sich um die Determinante einer blockweise zusammengesetzten 6 × 6Matrix. Durch elementare Spaltenumformungen des Typs I ist der rechte 3 × 3-Block A im oberen Teil der Matrix eliminierbar, ohne dass sich dabei die Determinante ändert. Wir subtrahieren daher die erste Spalte von der dritten Spalte, die zweite Spalte von der vierten Spalte und die dritte Spalte von der letzten Spalte. Elementare Umformungen des Typs I

54

2 Lineare Gleichungssysteme, Matrizen und Determinanten

haben keinen Einfluss auf die Determinante. Danach können wir die Kästchenformel für untere Blocktrigonalmatrizen anwenden. Es ist also     A A A0 det = det = det(A) · det(B) = 3 · 1 = 3. C B +C CB Aufgabe 2.18 Zeigen Sie: Für jede n × n-Matrix A gilt det A = det(S−1 AS) mit jeder regulären n × n-Matrix S. Lösung Es gilt nach dem Multiplikationssatz für die Determinante und wegen det(S−1 ) = (det S)−1 det(S−1 AS) = det(S−1 ) det(A) det(S) =

1 1 det(A) det S = det(S) det A = det A. det S det S

Aufgabe 2.19 Es sei A ∈ M(n, K[x]) eine quadratische Polynommatrix über dem Polynomring K[x]. Warum gilt A invertierbar ⇐⇒ deg det A = 0 (also det A ∈ K \ {0})? Lösung Da es sich bei A um eine quadratische Matrix über dem Ring K[x] handelt, gilt nach dem Invertierbarkeitskriterium A ∈ (M(n, K[x]))∗ ⇐⇒ det A ∈ (K[x])∗ = {p ∈ K[x] : deg p = 0} = K \ {0}.

Aufgabe 2.20 Es sei A ∈ M(n, Z) eine nicht über Z invertierbare ganzzahlige n × nMatrix und b ∈ Zn ein Vektor aus ganzen Zahlen. Unter welchen Umständen besitzt das lineare Gleichungssystem Ax = b dennoch eine eindeutige ganzzahlige Lösung x ∈ Zn ? Finden Sie ein Beispiel hierzu. Lösung Wir betrachten das ganzzahlige lineare Gleichungssystem Ax = b zunächst über dem Quotientenkörper Q = Q(Z). Eine eindeutige Lösung über Q gibt es genau dann, wenn A über Q regulär ist, wenn also det A 6= 0 gilt. Laut Cramer’scher Regel für lineare Gleichungssysteme gelten für die Komponenten xi des Lösungsvektors xi =

det(a1 | · · · | ai−1 | b | ai+1 | · · · | an ) ∈ Q. det A

Sowohl die im Zähler als auch die im Nenner auftretende Determinante sind dabei ganzzahlig. Gelten nun darüber hinaus die Teilbarkeitsbedingungen

2.6 Determinanten und Cramer’sche Regel

55

det A det(a1 | · · · | ai−1 | b | ai+1 | · · · | an ) für i = 1, . . . , n, so sind alle Lösungskomponenten ganzzahlig (vgl. hierzu auch Cramer’sche Regel für lineare Gleichungssysteme über Integritätsringen innerhalb von Satz 2.78 aus [5]). Ein Beispiel ist sehr schnell gefunden: Für x1 = 6 und x2 = 3 gilt beispielsweise   4x1 + 2x2 = 30 . 2x1 + 3x2 = 21 In Matrix-Vektor-Notation Ax = b formuliert ist hierbei     42 30 A= , b= . 23 21 Wegen det A = 8 ist zwar A über Q invertierbar, nicht jedoch über Z, da det A ∈ / {−1, 1} = Z∗ . Es gilt aber     30 2 4 30 8 = det A 48 = det , 8 = det A 24 = det , 21 3 2 21 woraus sich nach der Cramer’schen Regel die beiden ganzzahligen Lösungen     30 2 4 30 det det 21 3 2 21 x1 = = 6 und x1 = =3 det A det A ergeben. Aufgabe 2.20.1 Es seien  A=



12 , 28



 147 B =  2 5 8 , 369



 112 C =  1 2 3 , 001



0 1 D= 0 0

1 1 1 0

1 0 1 1

 0 1 . 1 1

a) Überprüfen Sie anhand der Determinante, ob die oben angegebenen Matrizen regulär sind. b) Lösen Sie folgende lineare Gleichungssysteme mithilfe der Cramer’schen Regel zur Matrixinversion oder per Cramer’scher Regel für lineare Gleichungssysteme:         x1 2     x1 3  x2   −4  x 16    A 1 = , C  x2  =  6  , D  x2  =  5  . x2 20 x3 9 x4 −6

56

2 Lineare Gleichungssysteme, Matrizen und Determinanten

Lösung a) Es ist det A = 4 6= 0 und A somit regulär. Zudem ist det B = 0 und daher B singulär, also nicht invertierbar. Des Weiteren sind detC = 1 6= 0 und det D = 1 6= 0, sodass C und D regulär sind. b) Berechnung von A−1 nach der Cramer’schen Regel:     1 8 −2 2 − 12 A−1 = = . − 12 14 det A −2 1 Damit berechnen wir für das LGS Ax = (16, 20)T die Lösung x = A−1 (16, 20)T = (22, −3)T . Berechnung von C−1 nach der Cramer’schen Regel: Zunächst empfiehlt sich die Aufstellung der transponierten Matrix CT , da für die Anwendung der Cramer’schen Regel in dieser Matrix Zeilen und Spalten gemäß der Formel zu streichen sind. Es ist   110 CT =  1 2 0  . 231 Mithilfe der Cramer’schen Regel invertieren wir nun C. Für die Unterdeterminanten streichen wir aus CT entsprechend der Position in C−1 . So ergibt beispielsweise die Streichung der ersten Spalte und zweiten Zeile aus CT die Unterdeterminante zur Berechnung des Elementes in der ersten Spalte und zweiten Zeile der inversen Matrix. Wir erhalten   2 0 1 0 1 2  + 3 1 − 2 1 + 2 3          2 −1 −1   1 1 0 1 0 1 1  −    C−1 = 3 1 + 2 1 − 2 3  = −1 1 −1 . detC    0 0 1       1 0 − 1 0 + 1 1 + 1 0 1 2 2 0 Damit berechnen wir für das LGS Cx = (3, 6, 9)T die Lösung x = C−1 (3, 6, 9)T = (−9, −6, 9)T . Wir berechnen D−1 nach der Cramer’schen Regel. Zunächst erfolgt wieder die Aufstellung von DT , da in dieser Matrix Zeilen und Spalten nach der Cramer’schen Regel gestrichen werden:   0100 1 1 1 0  DT =   1 0 1 1 . 0111

2.6 Determinanten und Cramer’sche Regel

Hiermit berechnen wir  1 1  + 0 1   1 1     1 0   − 0 1   1 1  1 −1  D = det D   1 0   + 1 1   1 1     1 0   − 1 1 0 1

57

0 1 1

1 1 0 − 1 1 1 0 1 1

1 1 0 + 1 0 1 0 1 1

0 1 1

0 0 0 + 1 1 1 0 1 1

0 1 0 − 1 0 1 0 1 1

0 0 1

0 0 0 − 1 1 0 0 1 1

0 1 0 + 1 1 0 0 1 1

0 0 1

0 0 0 + 1 1 0 1 1 1

0 1 0 − 1 1 0 1 0 1

 1 1 1 − 1 0 1   0 1 1     0 1 0    + 1 0 1   1 0 1 1    0    =  1 0 1 0   −1 − 1 1 1   0 1 1     0 1 0   + 1 1 1  1 0 1

 1 −2 1 0 1 −1  . 0 −1 1  0 1 0

Es ergibt sich nun für das LGS Dx = (2, −4, 5, −6)T die Lösung x = D−1 (2, −4, 5, −6)T = (−18, 11, −9, 3)T . Wir haben diese linearen Gleichungssysteme mit der Cramer’schen Regel für die Matrixinversion gelöst. Die Berechnung der Lösung ist aber auch ohne explizite Berechnung der inversen Matrix möglich. Hierzu kann alternativ die Cramer’sche Regel für lineare Gleichungssysteme verwendet werden. Dabei benötigen wir zur Bestimmung von xk neben der Determinante der Koeffizientenmatrix die Determinante der Matrix, die sich ergibt, wenn die k-te Spalte der Koeffizientenmatrix ersetzt wird durch den Spaltenvektor der rechten Seite des linearen Gleichungssystems. Bildet man die Quotienten aus jeder diesen Determinanten mit der Determinante der Koeffizientenmatrix, so ergeben sich die Unbekannten des linearen Gleichungssystems. Für Ax = (16, 20)T ergibt dies   1 88 16 2 x1 = det = = 22, 20 8 det A 4   1 −12 1 16 x2 = det = = −3. 2 20 det A 4 Für Cx = (3, 6, 9)T ergibt dies  3 1 x1 = det  6 detC 9  1 1 x2 = det  1 detC 0

 12 2 3 = 01  32 6 3 = 91

−9 = −9, 1 −6 = −6, 1

58

2 Lineare Gleichungssysteme, Matrizen und Determinanten

  113 1 9 x3 = det  1 2 6  = = 9. detC 1 009 Für Dx = (2, −4, 5, −6)T ergibt dies 

x1 =

x2 =

x3 =

x4 =

 2110  −4 1 0 1  1  det   5 1 1 1 = det D −6 0 1 1   0 210  1 −4 0 1  1  det  0 5 1 1 = det D 0 −6 1 1   01 20  1 1 −4 1  1  det  0 1 5 1 = det D 0 0 −6 1   011 2  1 1 0 −4  1  det  0 1 1 5 = det D 0 0 1 −6

−18 = −18, 1

11 = 11, 1

−9 = −9, 1

3 = 3. 1

Bemerkung 2.2 Auch wenn es zunächst attraktiv erscheint, eine reguläre Matrix per Cramer’scher Regel zu invertieren oder lineare Gleichungssysteme über die Cramer’sche Regel zu lösen, so darf nicht darüber hinweggesehen werden, dass dies in der Regel mit hohem Rechenaufwand verbunden ist. Es müssen rekursiv Unterdeterminanten bestimmt werden. Die Berechnung von Determinanten ist dabei im Allgemeinen sehr rechenintensiv. Ob die Verwendung der Cramer’schen Regel dem Gauß-Verfahren oder anderen, numerisch günstigeren Verfahren vorzuziehen ist, liegt an der jeweiligen Situation. Für Systeme mit zwei Variablen ist die Lösung per Cramer’scher Regel sehr schnell ermittelt. Das GaußVerfahren ist in dieser Situation aber dann ebenfalls nicht mit viel Aufwand verbunden. Die Cramer’sche Regel hat aber eine hohe theoretische Bedeutung. Sie lässt erkennen, in welcher Weise die Lösung von den Eingangsdaten eines linearen Gleichungssystems abhängt. So können wir beispielsweise Bedingungen für Lösungen mit ganzzahligen Komponenten aufstellen (vgl. hierzu auch Aufgaben 2.15 und 2.20).

2.7 Invariantenteiler

59

2.7 Invariantenteiler

Aufgabe 2.21 Bestimmen Sie die Invariantenteiler d1 , d2 , d3 ∈ Q[x] der Matrix   x − 1 −1 0 M =  0 x − 1 0  ∈ M(3, Q[x]) 0 0 x−2 über Q[x]. Geben Sie dabei eine Zerlegung der Art   d1 0 0 ZMS =  0 d2 0  0 0 d3 an mit d1 |d2 und d2 |d3 sowie invertierbaren Matrizen Z, S ∈ (M(3, Q[x]))∗ . Lösung Die Einträge von   x − 1 −1 0 M =  0 x − 1 0  ∈ M(3, Q[x]) 0 0 x−2 sind teilerfremde Polynome aus Q[x], sodass wir ohne Einschränkung von −1 ∈ (Q[x])∗ als größtem gemeinsamem Teiler der Komponenten von M ausgehen. Wir werden nun durch Spaltenvertauschung zunächst das Polynom −1 links oben in der Matrix erzeugen, um anschließend die übrigen Elemente der ersten Spalte und ersten Zeile zu eliminieren. Wie üblich, führen wir sämtliche Zeilen- und Spaltenumformungen in analoger Weise jeweils an zwei 3 × 3-Einheitsmatrizen fortlaufend durch, um die gesuchten Transformationsmatrizen Z und S aus (M(3, Q[x]))∗ zu bestimmen: Matrix   x − 1 −1 0  0 x−1 0  0 0 x−2 6 6   −1 x − 1 0 ·(x−1) 0  → x − 1 0 0 0 x−2 ·(x−1) 6   −1 0 0 →  0 (x − 1)2 0  0 0 x−2

Zeilenumformungen

Spaltenumformungen





 1 0 0 0 1 0 0 0 1 

 1 0 0 ·(x−1) 0 1 0  0 0 1 

 1 0 0 x − 1 1 0  0 0 1

 1 0 0 0 1 0 0 0 1  66  0 1 0 1 0 0 0 0 1 ·(x−1) 6   0 1 0  1 x−1 0 . 0 0 1

60

2 Lineare Gleichungssysteme, Matrizen und Determinanten

Die Polynome des verbleibenden 2 × 2-Blocks   (x − 1)2 0 0 x−2 rechts unten sind teilerfremd. Auch in diesem Block erzeugen wir einen größten gemeinsamen Teiler, der in diesem Fall ein Element aus der Einheitengruppe (Q[x])∗ = Q∗ ist. Anschließend eliminieren wir in entsprechender Weise:       −1 0 0 1 0 0 0 1 0  0 (x − 1)2 0  x − 1 1 0  1 x−1 0 0 0 1 ·x 0 0 1 0 0 x − 2 ·x     −1 0 0 1 0 0 →  0 (x − 1)2 (x − 2)x x − 1 1 x  0 0 1 0 0 x−2 6 ·(−1)



  −1 0 0 →  0 1 (x − 2)x ·x−2 0 2−x x−2   ·−(x−2)x 6  −1 0 0  0 →0 1 0 0 (x−2)(x−1)2





 1 0 0 x − 1 1 x  ·x−2 0 0 1 

 0 1 0 1 x−1 0 0 0 1 6·(−1)

 0 1 0  1 x−1 0 0 −1 1    ·−(x−2)x 6  1 0 0 0 1 x(2−x)  x−1 1 x   1 x−1 −x(x−1)(x−2) . (x−1)(x−2) x−2 (x−1)2 0 −1 (x−1)2

Die Invariantenteiler von M sind somit d1 = −1, Mit den Transformationsmatrizen  1 0 1 Z =  x−1

d2 = 1,

0



x

,

(x−1)(x−2) x−2 (x−1)2

d3 = (x − 2)(x − 1)2 .

  0 1 x(2−x) S = 1 x−1 −x(x−1)(x−2) 0 −1 (x−1)2

gilt 

 −1 0 0 . 0 ZMS =  0 1 2 0 0 (x − 2)(x − 1)

2.7 Invariantenteiler

61

Aufgabe 2.21.1 Bringen Sie die Matrix   x − 1 −1 0 M =  0 x − 1 0  ∈ M(3, Q[x]) 0 0 x−1 durch elementare Umformungen über Q[x] in eine Smith-Normalform D ∈ M(3, Q[x]). Wie lauten die Invariantenteiler von M? Geben Sie dabei eine Faktorisierung der Art ZMS = D an mit invertierbaren Matrizen Z, S ∈ (M(3, Q[x]))∗ . Vergleichen Sie Ihr R Ergebnis mit dem Resultat, das MATLAB durch die Funktion smithForm liefert. Erklären Sie dabei die Variable x zuvor als symbolische Variable. Hierzu benötigen TM Sie die Symbolic Math Toolbox . Lösung Mit dem üblichen Vorgehen gelangen wir zur Smith-Normalform von M: Matrix   x − 1 −1 0  0 x−1 0  0 0 x−1 6 6   −1 x − 1 0 ·(x−1) 0  → x − 1 0 0 0 x−1 6 ·(x−1)   −1 0 0  →  0 (x − 1)2 0  0 0 x−1  6 6  −1 0 0 0  →  0 x−1 0 0 (x − 1)2

Zeilenumformungen

Spaltenumformungen





 1 0 0 0 1 0 0 0 1 

 1 0 0 ·(x−1) 0 1 0  0 0 1 

 1 0 0 x − 1 1 0  0 0 1  

 1 0 0  0 0 1 x−1 1 0

 1 0 0 0 1 0 0 0 1  66  0 1 0 1 0 0 0 0 1 ·(x−1) 6   0 1 0 1 x−1 0 0 0 1 6 6   0 0 1  1 0 x − 1 . 0 1 0

Die Invariantenteiler von M sind somit d1 = −1,

d2 = x − 1,

Mit den Transformationsmatrizen   1 0 0 Z =  0 0 1 , x−1 1 0

d3 = (x − 1)2 .



 0 0 1 S =  1 0 x − 1 0 1 0

können wir nun die Matrix M über Q[x] in eine Smith-Normalform überführen. Die entsprechende Faktorisierung lautet

62

2 Lineare Gleichungssysteme, Matrizen und Determinanten

  −1 0 0 0  = D. ZMS =  0 x − 1 0 0 (x − 1)2 R Zur Kontrolle bestimmen wir die Smith-Normalform von A mithilfe von MATLAB . 1 2 3

>> syms x >> M=[x-1, -1,0; 0,x-1, 0; 0,0,x-1]; >> smithForm(M)

4 5

ans =

6 7 8 9

[ 1, 0, 0] [ 0, x - 1, 0] [ 0, 0, x^2 - 2*x + 1]

R Die Invariantenteiler von M lauten daher nach MATLAB

d10 = 1,

d20 = x − 1,

d30 = x2 − 2x + 1

und stimmen bis auf Assoziiertheit mit den zuvor per Tableau bestimmten Invariantenteilern d1 , d2 und d3 überein. Wir erkennen auch hier die Teilbarkeitsbeziehungen d10 | d20 und d20 = x − 1 | (x − 1)2 = x2 − 2x + 1 = d30 .

2.8 Vertiefende Aufgaben

Aufgabe 2.22 Es seien A ∈ M(n × m, K) und B ∈ M(m × n, K). Für diese Matrizen sind sowohl AB als auch BA definiert. Im Allgemeinen stimmen beide Produkte nicht überein, sind sogar für m 6= n von unterschiedlichem Format. Gilt dann aber zumindest Rang(AB) = Rang(BA)? Lösung Für beliebige Matrizen A ∈ M(n × m, K) und B ∈ M(m × n, K) gilt dies im Allgemeinen nicht. Wir betrachten ein Gegenbeispiel:     01 100 A= , B = 0 0 . 000 00 Es ist

   0 100  0 AB = 000 0

   1 01 0 = 00 0

und somit Rang(AB) = 1. Bei Vertauschung beider Faktoren ergibt sich dagegen die 3 × 3Matrix

2.8 Vertiefende Aufgaben

63

 0 BA = 0 0



   1  000 1 0 0 0 = 0 0 0 , 000 0 000

für die Rang(BA) = 0 gilt. Selbst wenn wir uns nur auf quadratische Matrizen beschränken, sind die Ränge der Produkte AB und BA in der Regel nicht identisch, wie das Beispiel     10 01 A= , B= 00 00 erkennen lässt. Bemerkung 2.3 Für zwei reguläre Matrizen dieser Art gilt in der Tat Rang(AB) = m = n = Rang(BA), denn sowohl A als auch B haben vollen Rang und sind gleichformatig, sodass auch AB und BA regulär sind und dabei das Format von A und B besitzen. Somit gilt auch Rang(AB) = n = Rang(BA). Es reicht sogar aus, wenn nur ein Faktor eine reguläre Matrix ist. Ist etwa A ∈ GL(n, K) und damit B ∈ M(n × n, K) nach Voraussetzung eine quadratische Matrix, so ändert die Multiplikation der Matrix B mit der Matrix A von links oder von rechts nicht den Rang von B. Es ist dann Rang(AB) = Rang(B) = Rang(BA).

Aufgabe 2.23 Die n × n-Matrix  1 x1  1 x2  V (x1 , x2 , . . . , xn ) :=  . ..  .. . 1

xn

x12 x22 .. .

··· ···

x1n−1 x2n−1 .. .

xn2

···

xnn−1

    ∈ M(n, K[x1 , x2 , . . . , xn ]) 

wird als Vandermonde-Matrix bezeichnet. Berechnen Sie detV (x1 , x2 , . . . , xn ) durch geschicktes Ausnutzen der Determinantenregeln. Unter welcher Bedingung ist die Vandermonde-Matrix durch Einsetzen von x1 , . . . , xn ∈ K im Sinne einer Matrix aus M(n, K) invertierbar? Lösung Zur Berechnung der Determinante führen wir zunächst Typ-I-Spaltenumformungen an V (x1 , x2 , . . . , xn ) durch. Dadurch wird die Determinante nicht verändert: 1 x1 x12 ··· x1n−2 x1n−1 1 x2 x22 ··· x2n−2 x2n−1 . . . .. .. .. .. . 1 xn x2 ··· xn−2 xn−1 n

n

·(−x1 )

n

6

64

2 Lineare Gleichungssysteme, Matrizen und Determinanten

1 1 = . .. 1

x1 x2 .. .

x12 x22 .. .

··· ···

x1n−2 x2n−2

xn

xn2

···

xnn−2

1 1 = . .. 1

x1 x2 .. .

x12 x22 .. .

··· ···

x1n−2 x2n−2

xn

xn2

···

xnn−2

x1n−1 − x1 x1n−2 x2n−1 − x1 x2n−2 .. . n−1 n−2 x − x1 x n

n

0 n−2 (x2 − x1 )x2 . .. . n−2 (xn − x1 )x n

Nun fahren wir in analoger Weise fort und eliminieren das Element x1n−2 in der obersten Zeile der zweitletzten Spalte. Dazu addieren wir wieder das −x1 -Fache der Vorgängerspalte und erhalten 1 x1 x12 ··· 0 0 n−2 n−3 n−1 2 1 x2 x2 · · · x2 − x1 x2 (x2 − x1 )x2 ... = . .. .. .. .. .. . . . . 2 n−2 n−3 n−1 1 xn xn · · · xn − x1 xn (xn − x1 )xn 1 x1 x12 ··· 0 0 n−3 n−2 2 1 x x · · · (x − x )x (x − x )x 2 2 1 2 2 1 2 2 = . . .. .. .. .. .. . . . . 2 n−3 n−2 1 xn x · · · (xn − x1 )x (xn − x1 )x n

n

n

Wir setzen dieses Verfahren nach links hin Spalte für Spalte fort, sodass wir schließlich 1 0 0 ··· 0 0 n−3 n−2 1 1 x2 − x1 (x2 − x1 )x2 · · · (x2 − x1 )x2 (x2 − x1 )x2 ... = . .. .. .. .. .. . . . . 1 n−3 n−2 1 xn − x1 (xn − x1 )xn · · · (xn − x1 )xn (xn − x1 )xn erhalten. Durch Subtraktion der ersten Zeile von den übrigen Zeilen ergibt sich 1 0 0 ··· 0 0 1 · · · (x − x )xn−3 (x − x )xn−2 0 x − x (x − x )x 2 1 2 1 2 2 1 2 2 1 2 ... = . . .. .. .. .. .. . . . . 1 n−3 n−2 0 xn − x1 (xn − x1 )xn · · · (xn − x1 )xn (xn − x1 )xn Wir extrahieren nun aus der zweiten Zeile den gemeinsamen Faktor x2 − x1 , aus der dritten Zeile den Faktor x3 − x1 und fahren so fort bis zur Extraktion des Faktors xn − x1 aus der letzten Zeile. Dies liefert

2.8 Vertiefende Aufgaben

65

! 1 0 n (x − x ) · ∏ k 1 .. k=2 . 0

... =

0 1 .. .

0 x21 .. .

··· ···

0 x2n−3 .. .

0 x2n−2 .. .

1

xn1

···

xnn−3

xnn−2

.

Der verbleibende rechte untere (n − 1) × (n − 1)-Block ist eine Vandermonde-Matrix, zu dessen Determinantenbestimmung wir analog vorgehen können. Insgesamt folgt detV (x1 , x2 , . . . , xn ) ! n

=

∏ (xk − x1 )

k=2

=



!

n

∏ (xk − x2 )

· · · · · (xn−1 − xn−2 )(xn − xn−2 ) · (xn − xn−1 )

k=3

(x j − xi ).

1≤i< j≤n

Hierdurch erkennen wir: detV (x1 , x2 , . . . , xn ) = 0 ⇐⇒ Es gibt j, k ∈ {1, . . . , n}, j 6= k mit x j = xk . Die Vandermonde-Matrix V (x1 , x2 , . . . , xn ) ∈ M(n, K) ist also genau dann invertierbar, falls x1 , x2 , . . . , xn ∈ K paarweise verschieden sind. Bemerkung 2.4 (Interpolation) Es seien Datenpaare (x1 , y1 ), . . . , (xn , yn ) ∈ K × K gegeben. Die Bestimmung eines Polynoms des Grades n − 1 der Form p(x) = an−1 xn−1 + an−2 xn−2 + · · · + a1 x + a0 ∈ K[x] mit p(xi ) = yi für i = 1, . . . , n führt auf ein lineares Gleichungssystem der Form       1 x1 x12 · · · x1n−1 a0 y1 2 · · · xn−1   a   1 y2  x x 1 2 2 2        .  ·  ..  =  ..  . .. .. ..  ..   .  . . . . 1

xn

xn2

···

xnn−1

an−1

yn

Sind x1 , x2 , . . . , xn ∈ K paarweise verschieden, so existiert eine eindeutige Lösung und damit ein eindeutig bestimmtes Interpolationspolynom. So lautet beispielsweise für n = 2 die Lösung    −1        1 1 a0 1 x1 y1 x2 −x1 y1 x2 y1 − x1 y2 = = = , y2 y2 − y1 a1 1 x2 y2 x2 − x1 −1 1 x2 − x1 woraus sich p(x) =

y2 −y1 x2 −x1

1 y2 · x + x2 yx12 −x −x1 als Interpolationsgerade ergibt.

Kapitel 3

Erzeugung von Vektorräumen

3.1 Lineares Erzeugnis, Bild und Kern

Aufgabe 3.1 Reduzieren Sie das Vektorsystem       1 −1 2 2 2 4            u1 =  3 , u2 =  4  , u3 =  0  , 1 2 −1 0 3 4

  2 8    u4 =  7 , 2 7



 2 0    u5 =  −1 −1 −3

zu einer Basis von V = hu1 , u2 , u3 , u4 , u5 i. Lösung Wir reduzieren das Tableau der Spaltenvektoren u1 , u2 , u3 , u4 , u5 durch elementare Spaltenumformungen. Dadurch ändert sich nicht das lineare Erzeugnis dieser Vektoren bzw. das Bild der Tableaumatrix. Ziel ist es, durch Spaltenelimination Nullspalten zu erzeugen. Diese Nullspalten können dann aus dem linearen Erzeugnis der Tableauspalten gestrichen werden:         1 −1 2 2 2 10 0 0 0 10 0 0 0 10 0 00 2 2 4 8 0  2 4 0 4 −4 2 4 0 0 0 2 4 0 0 0         3 4 0 7 −1 → 3 7 −6 1 −7 → 3 7 −6 −6 0 → 3 7 −6 0 0 .         1 2 −1 2 −1 1 3 −3 0 −3 1 3 −3 −3 0 1 3 −3 0 0 0 3 4 7 −3 0 3 4 7 −3 03 4 4 0 03 4 00 − 6 − 6 + 6 6 66 + 6 ·(−2) Durch die Stufenform erkennen wir, dass die ersten drei Spalten linear unabhängig sind. Es gilt also

© Springer-Verlag GmbH Deutschland, ein Teil von Springer Nature 2019 L. Göllmann und C. Henig, Arbeitsbuch zur linearen Algebra, https://doi.org/10.1007/978-3-662-58766-9_3

67

68

3 Erzeugung von Vektorräumen

      1 0 0 *     + 2 4     0      hu1 , u2 , u3 , u4 , u5 i =  3 , 7 , −6 . 1 3 −3 0 3 4 Außerdem ist zu erkennen, dass es sich bei dem linearen Erzeugnis von u1 , u2 , u3 , u4 , u5 um einen dreidimensionalen Vektorrraum handelt. Aufgabe 3.2 Bestimmen Sie den Kern, das Bild und den Rang folgender Matrizen:       2 0 1 5 −5 1 1 0 1 −1 1 −1 1 −1 1 2 1 8 −8 2 2 1 2 −1  −1 1 0 0       A= 1 1 2 9 −9 , B = 3 3 0 4 −1 , C =  1 0 0 1  . 1 1 1 6 −6 6 6 1 7 −3 −1 0 1 1 Lösung Es gilt: Der Kern einer Matrix ist invariant unter elementaren Zeilenumformungen, während das Bild einer Matrix invariant ist unter elementaren Spaltenumformungen. Der Rang einer Matrix ändert sich weder durch elementare Zeilen- noch durch elementare Spaltenumformungen. Zur Kernberechnung führen wir also Zeilenumformungen durch, zur Bildberechnung dagegen Spaltenumformungen. Ziel ist jeweils eine Normalform, die den Kern bzw. das Bild leicht ablesbar macht. Den Kern von A bestimmen wir nun durch elementare Zeilenumformungen:       −1 1   2 0 1 5 −5 *    + 1 0 0 1 −1 −2 1 2 1 8 −8   2  = . . . = Kern 0 1 0 2 −2 = −3 , 3 . Kern A = Kern      1 1 2 9 −9  1  0 0 0 1 3 −3 1 1 1 6 −6 0 1 Der Kern von A ist demnach ein zweidimensionaler Teilraum des R5 . Nach der Dimensionsformel gilt also für die Bilddimension dim Bild A = 5 − dim Kern A = 5 − 2 = 3. Wir bestimmen das Bild von A nun durch elementare Spaltenumformungen und erhalten beispielsweise           2 0 1 5 −5 1 0 0 0 0 + * 1 1 2 1 8 −8 1 −1 0  1 −1  0           Bild A = Bild  1 1 2 9 −9 = . . . = Bild 2 −3 −5 = 2 , −3 , −5 . 1 1 1 6 −6 1 −1 −1 1 −1 −1 Durch die Stufenform dieser drei Vektoren ist erkennbar, dass keine weitere Spalte mehr eliminiert werden kann. Diese drei übrigbleibenden Vektoren sind somit in der Tat linear unabhängig. Rang und Bilddimension einer Matrix sind stets identisch. Es gilt also Rang A = dim Bild A = 3.

3.1 Lineares Erzeugnis, Bild und Kern

69

Bei der Matrix B erkennen wir, dass die ersten beiden Spalten übereinstimmen. Wenn wir beim Gauß-Verfahren zur Kernberechnung anstreben, dass die größtmöglich erzeugbare Einheitsmatrix links oben erscheint, so kommen wir an einer Spaltenvertauschung nicht vorbei. Wir beginnen aber zunächst mit der Zeilenelimination in der ersten Spalte:     1 1 0 1 −1 ·(−2), ·(−3), (−6) 1 1 0 1 −1 2 2 1 2 −1  0 0 1 0 1    Kern B = Kern  →  3 3 0 4 −1 0 0 0 1 2  .  6 6 1 7 −3 0011 3 Um die größtmögliche Einheitsmatrix im linken Bereich zu erzeugen, müssen wir Spaltenvertauschungen durchführen, etwa dadurch, dass wir die erste Spalte nach hinten stellen und alle weiteren Spalten um eine Spalte nach links rücken. Dieser zyklische Spaltentausch muss später als Variablentausch wieder rückgängig gemacht werden, wenn wir den Kern von B angeben. An der spaltenvertauschten Matrix führen wir wieder Zeileneliminationen durch, bis wir die Normalform erreicht haben:     1 0 1 −1 1 1 0 0 −3 1 0 1 0 1 0 0 1 0 1 0     0 0 1 2 0 → · · · → 0 0 1 2 0 . 011 3 0 000 0 0 Wir lesen aus dem Zieltableau zunächst den Kern der spaltenvertauschten Matrix ab,     3 −1 *   + −1  0  −2 ,  0  ,     1 0 0 1 um anschließend den zyklischen Variablentausch wieder rückgängig zu machen, indem wir die jeweils untersten Komponenten an die erste Position setzen und alle weiteren Komponenten um eine Zeile nach unten rücken. Dies ergibt dann     0 1 *    + 3 −1        Kern B =  −1 ,  0  . −2  0  1 0 Am Zieltableau erkennen wir, dass Rang B = 3 gilt. Das Bild von B wird also durch drei Vektoren linear erzeugt. Wir bestimmen nun das Bild von B durch Spaltenelimination, bis wir drei linear unabhängige Spalten erreicht haben:

70

3 Erzeugung von Vektorräumen

 1 2 Bild B = Bild  3 6

1 2 3 6

0 1 0 1

1 2 4 7

  −1 1 2 −1  = Bild  3 −1 −3 6

0 1 0 1

  1 −1 1 2 2 −1  = Bild  3 4 −1 7 −3 6

0 1 0 1

0 0 1 1

 0 1 . 2 3

In der rechten Matrix ist die letzte Spalte die Summe aus der zweiten Spalte und dem Doppelten der dritten Spalte. Die letzte Spalte fällt daher weg. Es bleibt somit       0 0 + * 1 2 1 0      Bild B =  3 , 0 , 1 . 6 1 1 Um den Kern von C zu ermitteln, verwenden wir wieder Zeilenumformungen und erhalten nach wenigen Schritten zunächst eine obere Dreiecksmatrix:     1 −1 1 −1 1 −1 1 −1  −1 1 0 0     → · · · →  0 1 −1 2  . C=  1 0 0 1  0 0 1 −1  −1 0 1 1 0 0 0 3 Wir stellen fest, dass C vollen Rang besitzt, also RangC = 4 gilt. Die Matrix ist also regulär und besitzt daher nur den Nullvektor des R4 als Kern. Zudem ist jeder Vektor des R4 ein Bildvektor. Aufgabe 3.3 (Durchschnitt von Vektorräumen) Zeigen Sie, dass der Schnitt zweier oder mehrerer Teilräume eines Vektorraums V ebenfalls ein Teilraum von V ist. Lösung Es seien T1 , T2 ⊂ V zwei Teilräume von V . Zunächst ist der Schnitt nicht leer, da der Nullvektor in jedem Teilraum enthalten ist. Es reicht nun zu zeigen, dass für x, y ∈ T1 ∩ T2 der Summenvektor in T1 ∩ T2 liegt und für jeden Skalar λ des zugrunde gelegten Körpers der Vektor λ x in T1 ∩ T2 liegt. Nun gilt, da x, y ∈ T1 , dass auch x + y ∈ T1 ist, da T1 Vektorraumeigenschaft besitzt. Nach analoger Argumentation ist auch x + y ∈ T2 , und daher ist x + y ∈ T1 ∩ T2 . Ebenso liegt, da x ∈ T1 , auch der Vektor λ x in T1 . Entsprechend argumentiert, liegt λ x auch in T2 , und daher ist λ x ∈ T1 ∩ T2 . Die Verallgemeinerung dieser Aussage auf mehrere Teilräume ist trivial. Aufgabe 3.3.1 (Summe von Vektorräumen) Zeigen Sie: Sind V1 und V2 Teilräume eines K-Vektorraums V , so ist V1 +V2 = {v1 + v2 : v1 ∈ V1 , v2 ∈ V2 } ebenfalls ein Teilraum von V .

3.1 Lineares Erzeugnis, Bild und Kern

71

Lösung Sind x, y ∈ V1 +V2 , so ist x = x1 + x2 und y = y1 + y2 mit x1 , y1 ∈ V1 und x2 , y2 ∈ V2 . Für die Summe gilt x + y = x1 + x2 + y1 + y2 = (x1 + y1 ) + (x2 + y2 ) ∈ V1 +V2 . | {z } | {z } ∈V1

∈V2

Zudem ist für jedes λ ∈ K λ x = λ (x1 + x2 ) = ( λ x1 ) + ( λ x2 ) ∈ V1 +V2 . |{z} |{z} ∈V1

∈V2

Jede Linearkombination von Vektoren aus V1 +V2 liegt wieder in V1 +V2 . Bemerkung 3.1 Es folgt unmittelbar, dass auch die analog definierte Summe von mehr als zwei Teilräumen von V einen Vektorraum darstellt.

Aufgabe 3.3.2 Zeigen Sie durch ein Gegenbeispiel, dass die Vereinigung zweier Teilräume eines Vektorraums im Allgemeinen keinen Vektorraum darstellt. Lösung Wir betrachten beispielsweise die beiden Teilräume     1 0 V1 = , V2 = 0 1 des Vektorraums R2 . Bereits die Summe der beiden Basisvektoren       1 0 1 + = 0 1 1 befindet sich weder in V1 noch in V2 und damit nicht in V1 ∪V2 . Aufgabe 3.4 Berechnen Sie den Schnittraum der beiden reellen Vektorräume *     + *   + −3 −2 4 2 1 V1 :=  1  ,  1  , 1 , V2 := −3 , −2 . −2 −1 5 3 2 Hinweis: Wenn die drei Erzeugendenvektoren der Darstellung von V1 sich als linear unabhängig erweisen sollten, so würde V1 mit dem R3 übereinstimmen. Der Schnittraum aus V1 und V2 wäre dann V2 selbst. Eine Reduktion der obigen Darstellungen durch elementare Spaltenumformungen ist daher zunächst naheliegend.

72

3 Erzeugung von Vektorräumen

Lösung Wir reduzieren die Darstellung der beiden Vektorräume durch elementare Spaltenumformungen auf eine minimale Normalform. Für V1 gilt *     + *     + −3 −2 4 −3 −2 1 V1 =  1  ,  1  , 1 =  1  ,  1  , 2 −2 −1 5 −2 −1 3 + 6 − 6 *     + *     + −3 1 1 1 1 −3 =  1  , 0 , 2 = 0 , 2 ,  1  −2 1 3 1 3 −2

6 6 − *     + *   + 1 0 0 1 0 = 0 , 2 , 1 = 0 , 1 . 1 2 1 1 1 Es bleiben zwei linear unabhängige Vektoren übrig. Damit ist dimV1 = 2. Für V2 gilt *   + *   + 2 1 1 2 V2 = −3 , −2 = −2 , −3 3 2 2 3 ·(−2) 6 *   + *   + 1 0 1 0 = −2 ,  1  = 0 ,  1  . 2 −1 0 −1

Mit diesen reduzierten Darstellungen bestimmen wir nun sehr leicht den Schnittraum *   + *   + * + 1 0 1 0 −2 V1 ∩V2 = 0 , 1 ∩ 0 ,  1  =  1  , 1 1 0 −1 −1 denn das lineare Gleichungssystem     10   1 0   x !  0 1 x1 = 0 1 3 x2 x4 11 0 −1 ist gleichbedeutend mit dem homogenen System     x1 1 0 −1 0   0 1 0 −1 x2  = 0, x3  11 0 1 x4

3.1 Lineares Erzeugnis, Bild und Kern

73

dessen Tableau sehr schnell zu reduzieren ist:         1 0 −1 0 1 0 −1 0 1 0 −1 0 100 2 0 1 0 −1 → 0 1 0 −1 → 0 1 0 −1 → 0 1 0 −1 . 11 0 1 01 1 1 00 1 2 001 2 Die Wahl von x1 = −2, x2 = 1 bzw. x3 = −2, x4 = 1 liefert den o. g. Basisvektor der Schnittgeraden. Bemerkung 3.2 Sind V1 ,V2 ⊂ V endlich-dimensionale Teilräume eines gemeinsamen Vektorraums, so gilt dim(V1 ∩V2 ) = dimV1 + dimV2 − dim(V1 +V2 ) (vgl. Aufgabe 4.11).

(3.1)

Hierbei ist V1 + V2 = {v1 + v2 : v1 ∈ V1 , v2 ∈ V2 } der Summenraum aus V1 und V2 (vgl. Aufgabe 3.3.1). Für die beiden Teilräume V1 und V2 aus dieser Aufgabe gilt *       + *     + 1 0 1 0 1 0 0 V1 +V2 = 0 , 1 , 0 ,  1  = 0 , 1 , 0 = R3 . 1 1 0 −1 0 0 1 Also dim(V1 +V2 ) = 3. Damit verifizieren wir die Dimensionsformel (3.1) dim(V1 ∩V2 ) = dimV1 + dimV2 − dim(V1 +V2 ) . | {z } | {z } | {z } | {z } =1

=2

=2

=3

Aufgabe 3.5 Beweisen Sie: In Ergänzung zu Satz 3.39 aus [5] gilt für eine beliebige m × n-Matrix A über K, eine beliebige quadratische Matrix T ∈ M(m, K) sowie jede reguläre S ∈ GL(n, K) T Bild A = Bild(TA),

S Kern A = Kern(AS−1 ).

Lösung Wir zeigen zunächst: T Bild A = Bild(TA). Es gilt y ∈ T Bild A ⇐⇒ ∃ y0 ∈ Bild A : y = T y0 ⇐⇒ ∃ x ∈ Kn : y = TAx ⇐⇒ y ∈ Bild(TA). Nun zeigen wir S Kern A = Kern(AS−1 ). Es gilt: x ∈ S Kern A ⇐⇒ S−1 x ∈ Kern A ⇐⇒ AS−1 x = 0 ⇐⇒ x ∈ Kern(AS−1 ). Bemerkung 3.3 Während Zeilenumformungen den Kern und Spaltenumformungen das Bild einer Matrix unangetastet lassen, führen in der Regel Spaltenumformungen zu Kern-

74

3 Erzeugung von Vektorräumen

änderungen und Zeilenumformungen zu Bildänderungen. Aus der zuvor gezeigten Behauptung folgt nun, in welcher Weise diese Änderungen vonstattengehen. Es gilt also für jede beliebige Matrix A ∈ M(m × n, K) sowie zwei reguläre Matrizen Z ∈ GL(m, K) und S ∈ GL(n, K) Kern(ZA) = Kern(A), Kern(AS) = S

−1

Kern A,

Bild(AS) = Bild(A), Bild(ZA) = Z Bild(A).

Nebenbei haben wir gezeigt: Ist w ∈ Kern(AS), so ist dies gleichbedeutend mit Sw ∈ Kern A (vgl. hierzu Standardisierung der Lösung inhomogener linearer Gleichungssysteme, Abschnitt 3.2 aus [5]).

3.2 Äquivalente Matrizen

Aufgabe 3.6 Es seien A, B ∈ M(n, R) zwei formatgleiche, quadratische Matrizen über einem euklidischen Ring R. Zeigen Sie: A ∼ B ⇐⇒ A und B haben dieselben Invariantenteiler. Lösung Wenn bei Matrizen von identischen Invariantenteilern die Rede ist, dann sollten wir dabei beachten, dass Invariantenteiler nur bis auf Assoziiertheit eindeutig sind. Der Einfachheit halber nehmen wir in den folgenden Betrachtungen ihre komplette Gleichheit an. Es gelte zunächst A ∼ B. Dann gibt es zwei invertierbare Matrizen M, N ∈ (M(n, R))∗ mit B = MAN. Nach Satz 2.82 aus [5] ändert die Links- bzw. Rechtsmultiplikation mit invertierbaren Matrizen nichts an den Invariantenteilern einer Matrix. Daher hat B dieselben Invariantenteiler wie A. Haben nun umgekehrt A und B dieselben Invariantenteiler d1 , d2 , . . . , dn , so gibt es invertierbare Matrizen Za , Zb , Sa , Sb ∈ (M(n, R))∗ mit Za ASa = D = Zb BSb , wobei D die Diagonalmatrix ist, deren Hauptdiagonale aus den Invariantenteilern d1 , d2 , . . . , dn beider Matrizen besteht. Die Umstellung der letzten Gleichung nach B liefert die Äquivalenz von A und B: B = Zb−1 (Za ASa )Sb−1 = (Zb−1 Za )A(Sa Sb−1 ) = MAN. | {z } | {z } =:M

=:N

3.2 Äquivalente Matrizen

75

Aufgabe 3.6.1 Zeigen Sie, dass die Äquivalenz gleichformatiger Matrizen über einem Integritätsring R eine Äquivalenzrelation darstellt. Weisen Sie also folgende Eigenschaften für A, B,C ∈ M(m × n, R) nach: (i) Reflexivität: A ∼ A, (ii) Symmetrie: A ∼ B ⇒ B ∼ A, (iii) Transitivität; A ∼ B ∧ B ∼ C ⇒ A ∼ C. Lösung Es ist A = Em AEn . Daher folgt nach Definition der Äquivalenz von Matrizen, dass A ∼ A gilt. Gilt A ∼ B, so existieren invertierbare Matrizen M ∈ (M(m, R))∗ und N ∈ (M(n, R))∗ mit B = MAN. Hieraus folgt durch Linksmultiplikation mit M −1 und Rechtsmultiplikation mit N −1 , die Darstellung M −1 BN −1 = A. Definitionsgemäß ist also B ∼ A. Gilt A ∼ B und B ∼ C, so gibt es invertierbare Matrizen M1 , M2 ∈ (M(m, R))∗ , N1 , N2 ∈ (M(n, R))∗ mit B = M1 AN1 und C = M2 BN2 . Damit folgt C = M2 (M1 AN1 )N2 = (M2 M1 )A(N1 N2 ). Da die Menge der invertierbaren Matrizen gleichen Formats über R eine Gruppe bildet, gilt M2 M1 ∈ (M(m, R))∗ und N1 N2 ∈ (M(n, R))∗ . Damit folgt A ∼ C. Aufgabe 3.6.2 Es seien A, B ∈ M(m × n, M) zwei äquivalente Matrizen über dem Körper K. Was unterscheidet ihre Kerne bzw. Bilder, was haben ihre Kerne bzw. Bilder gemeinsam? Lösung Da A ∼ B ist, gilt Rang A = Rang B. Daher ist dim Bild A = dim Bild B. Nach der Dimensionsformel folgt aber auch dim Kern A = dim Kern B. Ihre Bilddimensionen und Kerndimensionen stimmen jeweils überein. Nun ist B = RAC mit R ∈ GL(m, K) und C ∈ GL(n, K). Das Bild einer Matrix ändert sich nicht durch Rechtsmultiplikation mit regulären Matrizen, während sich der Kern einer Matrix nicht durch Linksmultiplikation mit regulären Matrizen ändert (vgl. Satz 3.39 aus [5]). Eine Linksmultiplikation mit einer regulären Matrix ändert dagegen in der Regel das Bild ebenso, wie die Rechtsmultiplikation mit einer regulären Matrix den Kern im Allgemeinen ändert. Nach Aufgabe 3.5 sind diese Änderungen allerdings kontrollierbar, sodass insgesamt folgt: Bild B = Bild(RAC) = Bild(RA) = R Bild A, Kern B = Kern(RAC) = Kern(AC) = C−1 Kern A.

76

3 Erzeugung von Vektorräumen

3.3 Basiswahl und Koordinatenabbildung

Aufgabe 3.7 Es sei V = hb1 , b2 i der von B = (b1 , b2 ) mit b1 = eix , b2 = e−ix erzeugte zweidimensionale C-Vektorraum. a) Bestimmen Sie die Koordinatenvektoren von sin, cos ∈ V bezüglich der Basis B. b) Zeigen Sie, dass B0 = (b01 , b02 ) mit b01 = 2eix + 3e−ix , b02 = eix + 2e−ix ebenfalls eine Basis von V ist. c) Wie lautet die Übergangsmatrix cB (B0 ) von B nach B0 ? d) Berechnen Sie mithilfe der inversen Übergangsmatrix (cB (B0 ))−1 = cB0 (B) die Koordinatenvektoren von sin, cos ∈ V bezüglich der Basis B0 und verifizieren Sie das jeweilige Ergebnis durch Einsetzen der Koordinatenvektoren in den Basisisomorphismus c−1 B0 . Lösung Es ist V = hb1 , b2 i mit b1 = eix und b2 = e−ix ein zweidimensionaler C-Vektorraum mit der Basis B = (b1 , b2 ). a) Es sind sin x = cos x =

−ix 1 ix ) = − 2i (eix − e−ix ) 2i (e − e −ix 1 ix ) ∈ V. 2 (e + e

∈ V,

Damit lauten die Koordinatenvektoren dieser beiden Funktionen bezüglich B:   −i/2 cB (sin) = , i/2   1/2 cB (cos) = . 1/2 b) Es sind b01 = 2eix + 3e−ix und b02 = eix + 2e−ix zwei linear unabhängige Vektoren aus V , da für kein λ ∈ C gilt b02 = λ b01 . Daher ist hb01 , b02 i ein zweidimensionaler Teilraum von V . Da V bereits zweidimensional ist, handelt es sich also bei B0 = (b01 , b02 ) um eine Basis von V . c) Die Übergangsmatrix von B nach B0 lautet 0

cB (B ) =

[cB (b01 ) | cB (b02 )]

Die Übergangsmatrix von B0 nach B lautet

  21 = . 32

3.3 Basiswahl und Koordinatenabbildung

77

 cB0 (B) = [cB0 (b1 ) | cB0 (b2 )] =



2 −1 , −3 2

denn es gilt b1 = 2b01 − 3b02 und b2 = −b01 + 2b02 . Alternativ können wir cB0 (B) auch durch Inversion von cB (B0 ) bestimmen: 0

cB0 (B) = (cB (B ))

−1

 −1   1 21 2 −1 = = · . 32 1 −3 2

d) Wir berechnen die (neuen) Koordinatenvektoren von sin und cos bezüglich der (neuen) Basis B0 mithilfe der inversen Übergangsmatrix cB (B0 )−1 = cB0 (B):      −i/2 −3i/2 2 −1 0 −1 cB0 (sin) = (cB (B )) cB (sin) = cB0 (B)cB (sin) = = , i/2 5i/2 −3 2      1/2 1/2 2 −1 cB0 (cos) = (cB (B0 ))−1 cB (cos) = cB0 (B)cB (cos) = = . 1/2 −3 2 −1/2 Wir verifizieren dies: Es gilt − 3i2 b01 + 5i2 b02 = − 2i (6eix + 9e−ix − 5eix − 10e−ix ) = − 2i (eix − e−ix ) = sin x, 1 0 1 0 2 b1 − 2 b2

= eix + 32 e−ix − 12 eix − e−ix = 12 (eix + e−ix ) = cos x.

Aufgabe 3.7.1 Wir betrachten für n ∈ N den Polynomraum K[x]≤n der Polynome maximal n-ten Grades in der Variablen x und Koeffizienten aus K. Mit B = (1, x, x2 , . . . , xn ) sowie B0 = (1, x − x0 , (x − x0 )2 , . . . , (x − x0 )n ) liegen zwei Basen für K[x]≤n vor. Dabei ist x0 ∈ K. Bestimmen Sie von p = a0 + a1 x + a2 x2 + · · · + an xn ∈ K[x]≤n den Koordinatenvektor bezüglich der Basis B0 aus dem Koordinatenvektor von p bezüglich B. Bringen Sie das Polynom q = 1 + 2x + 3x2 ∈ R[x]≤2 in die Form λ1 + λ2 (x − 5) + λ3 (x − 5)2 . Lösung Für den Koordinatenvektor von p bezüglich B gilt   a0 a1    cB (p) =  .  ∈ Kn .  ..  an Nach dem binomischen Lehrsatz ist n   n   n k n n n−k (x − x0 ) = ∑ x (−x0 ) =∑ (−1)n−k x0n−k xk . k k=0 k=0 k

78

3 Erzeugung von Vektorräumen n

Hierbei bedeutet der Binomialkoeffizient das k -fache Aufsummieren der 1 ∈ K. Die Übergangsmatrix von B nach B0 ist die (n + 1) × (n + 1)-Matrix cB (B0 ) = (cB (1) | cB (x − x0 ) | · · · | cB (x − x0 )n )  1 −x0 x02 −x03  0 1 −2x0 3x02   0 0 1 −3x0  = 0 0 0 1   . . . .. .. .. ..  . 0

0

0

  · · · (−1)n n0x0n · · · (−1)n−1 n1x0n−1   · · · (−1)n−2 n2x0n−2   . · · · (−1)n−3 n3 x0n−3    ..  . ···

0

1

Diese obere Dreiecksmatrix besitzt die Determinante 1 und ist regulär. Ihre Inverse kann direkt angegeben werden. Sie lautet    1 x0 x02 x03 · · · n0x0n  0 1 2x0 3x02 · · · n1x0n−1     0 0 1 3x0 · · · n2x0n−2    cB0 (B) =  0 . 0 0 1 · · · n3 x0n−3      .. .. .. .. ..   . . . . . 0

0

0

Ihr Eintrag in Zeile i + 1 und Spalte j + 1 ist Koordinatenvektor von p bezüglich B0 cB0 (p) = cB0 (B) · cB (p)  1  0   0  = 0   ..  . 0     n = ∑k=i  

···

0 j j−i i x0

1

für 0 ≤ i ≤ j ≤ n. Damit lautet der

x0 1 0 0 .. .

x02 2x0 1 0 .. .

x03 3x02 3x0 1 .. .

··· ··· ··· ···

0

0

0

···

n n 0x0 n n−1 1x0 n n−2 2x0 n n−3 3 x0

.. . 1

  a0  a1     a2     a3      ..   .  an



p(x0 ) ..   .   k k−i  ← i + 1-te Komponente (i = 0, . . . , n). i x0 ak   ..  . an

Der Koordinatenvektor von q = 1 + 2x + 3x2 ∈ R[x]≤2 bezüglich B = (1, x, x2 ) lautet   1 cB (q) = 2 . 3

3.4 Vertiefende Aufgaben

79

Zur Umrechnung in die Koordinaten bezüglich B0 = (1, x − 5, (x − 5)2 ) nutzen wir die Inverse der Übergangsmatrix von B nach B0 mit x0 = 5 nach obiger Überlegung:      1 5 25 1 86 cB0 (q) = 0 1 10 2 = 32 . 00 1 3 3 Damit ist q = 1 + 2x + x2 = 86 + 32(x − 5) + 3(x − 5)2 .

3.4 Vertiefende Aufgaben

Aufgabe 3.8 Es sei A eine quadratische Matrix. Zeigen Sie: a) Für jede natürliche Zahl k gilt: Kern Ak ⊂ Kern Ak+1 (hierbei ist A0 := E). b) Falls für ein ν ∈ N gilt Kern Aν = Kern Aν+1 , so muss auch Kern Aν+1 = Kern Aν+2 = Kern Aν+3 = . . . gelten. c) Für alle k ∈ N \ {0} gilt: v ∈ Kern Ak ⇐⇒ Av ∈ Kern Ak−1 . d) Für v ∈ Kern A gilt: Ist w eine Lösung des LGS Ax = v, so folgt: w ∈ Kern A2 . Finden Sie ein Beispiel mit einem nicht-trivialen Vektor v ∈ Kern A ∩ Bild A hierzu. e) Liegt A in Normalform   Er | ∗ A = Nr,∗ := 0n−r×n vor (vgl. Satz 2.39 aus [5]), so ist der Schnitt aus Kern und Bild trivial, besteht also nur aus dem Nullvektor. Eine derartige Matrix kann also nicht als Beispiel für die vorausgegangene Aussage dienen. Lösung a) Behauptung: Kern Ak ⊂ Kern Ak+1 , für alle A ∈ M(n, K) und k ∈ N. Beweis. Es seien A ∈ M(n, K), k ∈ N und v ∈ Kern Ak . Es gilt dann Ak v = 0. Nach Multiplikation dieser Gleichung von links mit A folgt Ak+1 v = 0, woraus v ∈ Kern Ak+1 folgt. b) Behauptung: Es sei A eine quadratische Matrix. Falls für ein ν ∈ N gilt Kern Aν = Kern Aν+1 , so muss auch Kern Aν+1 = Kern Aν+2 gelten. Beweis. Zu zeigen ist: Kern Aν = Kern Aν+1 ⇒ Kern Aν+1 = Kern Aν+2 . Wenn also einmal die Matrixpotenz Aν zu einem nicht größer werdenden Kern bei der Folgepotenz Aν+1 führt, so bleibt der Kern für alle weiteren Potenzen stabil und wird

80

3 Erzeugung von Vektorräumen

nicht größer. Wir zeigen die Gleichheit Kern Aν+1 = Kern Aν+2 . Da wir bereits wissen, dass Kern Aν+1 ⊂ Kern Aν+2 gilt, bleibt nur die umgekehrte Inklusion Kern Aν+1 ⊃ Kern Aν+2 zu zeigen. Es sei x ∈ Kern Aν+2 . Damit gilt Vor.

0 = Aν+2 x = Aν+1 (Ax) ⇒ (Ax) ∈ Kern Aν+1 = Kern Aν . Also gilt 0 = Aν (Ax) = Aν+1 x, woraus x ∈ Kern Aν+1 folgt. c) Behauptung: Für jede quadratische Matrix A gilt: v ∈ Kern Ak ⇐⇒ Av ∈ Kern Ak−1 für alle k ∈ N \ {0}. Beweis. Es seien A ∈ M(n, K) und 0 6= k ∈ N. Es gilt v ∈ Kern Ak ⇐⇒ 0 = Ak v = Ak−1 Av ⇐⇒ Av ∈ Kern Ak−1 . d) Es sei A eine quadratische Matrix und v ∈ Kern A. Behauptung: Ist w eine Lösung des LGS Ax = v, so folgt: w ∈ Kern A2 . Die Umkehrung gilt im Allgemeinen nicht. Beweis. Wir setzen also für den Vektor v ∈ Kern A voraus, dass er auch im Bild von A liegt. Dann gibt es eine Lösung w des linearen Gleichungssystems Ax = v. Es gilt also Aw = v. Nach Linksmultiplikation mit A folgt A2 w = Av = 0, woraus w ∈ Kern A2 folgt. Wir betrachten beispielsweise die Matrix   1 −1 0 A = 1 −1 0 . 0 0 1 Der Vektor

  2 v = 2 0

liegt im Kern von A, aber auch im Bild von A, da      1 −1 0 1 2 1 −1 0 −1 = 2 . 0 0 1 0 0 Mit w = (1, −1, 0)T gilt nun

3.4 Vertiefende Aufgaben

81



    000 1 0 A2 w = 0 0 0 −1 = 0 , 001 0 0 womit w ∈ Kern A2 gilt. Allerdings ist auch der Nullvektor oder der Vektor w0 = (−1, 1, 0)T im Kern von A2 . Es gilt aber nicht Aw0 = v. e) Behauptung: Für eine quadratische Matrix in Normalform Nr,∗ ist der Schnitt aus Kern und Bild trivial. Beweis. Da die n × n-Matrix A in Normalform vorliegt, gilt mit r = Rang A   1 0 ··· 0 ∗ ··· ∗ 0 1 0 ∗ · · · ∗    .. ..  . . .. ..    . . . . .   Er ∗ . 0 · · · · · · 1 ∗ · · · ∗ A = Nr,∗ = =   0 0 0 · · · · · · 0 0 · · · 0   . .. .. ..   .. . . . 0 ··· ··· 0 0 ··· 0 Hieraus lesen wir den Kern von A ab:       ∗ ∗ ∗  ..   ..   ..   . + . . * ∗ ∗ ∗        , 0 , . . . , 0 ← Zeile r + 1. 1 Kern A =        0 1  ..  . . . . .   . . 0 0 0 1 Das Bild von A ist das lineare Erzeugnis ihrer Spalten, also hier bereits das lineare Erzeugnis der ersten r Spalten, da die weiteren n − r Spalten aus ihnen linear kombiniert werden können. Es folgt also       1 0 0 0 1  ..      . + *  ...   ...  0            Bild A = 0 , 0 , . . . ,  1 ← Zeile r. 0 0 0 . . . . . . . . . 0 0 0 Kein Basisvektor des Bildes kann durch die Basisvektoren des Kerns linear kominiert werden und umgekehrt. Bis auf den Nullvektor hat das Bild mit dem Kern von A demnach keinen gemeinsamen Vektor.

82

3 Erzeugung von Vektorräumen

Aufgabe 3.9 Es sei V = (Z2 )3 der Spaltenvektorraum über dem Restklassenkörper Z2 = Z/2Z. Geben Sie alle Vektoren seines Teilraums *   + 1 0 T := 1 , 1 0 1 an. Bestimmen Sie zudem sämtliche Vektoren des Quotientenvektorraums V /T . Welche Dimension hat dieser Raum? Sind die Vektoren       1 0 1 1 , 1 , 0 0 1 1 linear unabhängig über Z2 ? Lösung Der Vektorraum V = (Z2 )3 besteht aus 23 = 8 Vektoren. Es gilt also                  1 0 1 0 1 0 1   0 V = 0 , 0 , 1 , 1 , 0 , 0 , 1 , 1 .   0 0 0 0 1 1 1 1 Für seinen Teilraum T gilt    *   +    1 0 1 0   T = 1 , 1 = λ 1 + µ 1 : λ , µ ∈ {0, 1}   0 1 0 1         1 0 1   0 = 0 , 1 , 1 , 0 .   0 0 1 1 Wir bestimmen nun die Elemente des Quotientenvektorraums V /T und bilden hierzu die affinen Teilräume der Form v + T, v ∈ V. Für die vier Vektoren aus V , die dabei in T liegen, muss sich der Nullvektor 0 + T = T des Quotientenraums V /T ergeben. Eine explizite Berechnung aller Vektoren aus V /T ergibt nun                 1 0 1   0 1 0 1   0 v1 = 0 + 0 , 1 , 1 , 0 = 0 , 1 , 1 , 0 = T,     0 0 1 1 0 0 1 1                   1 1 0 1   1 0 1 0   0 v2 = 0 + 0 , 1 , 1 , 0 = 0 , 1 , 1 , 0 ,     0 0 0 1 1 0 0 1 1

3.4 Vertiefende Aufgaben

83

                    0 1 0 1   0 1 0 1   0 v3 = 1 + 0 , 1 , 1 , 0 = 1 , 0 , 0 , 1 = v2 ,     0 0 0 1 1 0 0 1 1                     1 1 0 1   1 0 1 0   0 v4 = 1 + 0 , 1 , 1 , 0 = 1 , 0 , 0 , 1 = T,     0 0 0 1 1 0 0 1 1                     0 1 0 1   0 1 0 1   0 v5 = 0 + 0 , 1 , 1 , 0 = 0 , 1 , 1 , 0 = v2 ,     0 1 0 0 1 1 1 1 0                   1 1 0 1   1 0 1 0   0 v6 = 0 + 0 , 1 , 1 , 0 = 0 , 1 , 1 , 0 = T,     1 0 0 1 1 1 1 0 0                   0 1 0 1   0 1 0 1   0 v7 = 1 + 0 , 1 , 1 , 0 = 1 , 0 , 0 , 1 = T,     1 0 0 1 1 1 1 0 0                   1 1 0 1   1 0 1 0   0 v8 = 1 + 0 , 1 , 1 , 0 = 1 , 0 , 0 , 1 = v2 .     1 0 0 1 1 1 1 0 0 In der Tat ergibt sich viermal der Nullvektor des Quotientenraums V /T . Dieser Raum besteht dabei aus genau zwei Vektoren: V /T = {T, v2 } = hv2 i. Da v2 6= T = 0 gilt, ist V /T ein eindimensionaler Z2 -Vektorraum. Wegen       1 0 1 1 + 1 = 0 0 1 1 sind die drei Vektoren

  1 1 , 0

  0 1 , 1

  1 0 1

linear abhängig. Wir sehen, dass der zugrunde gelegte Körper in dieser Frage sehr wichtig ist. Die Komponenten dieser Vektoren bestehen nur aus dem Null- und Einselement des Skalarkörpers. Wir könnten diese Vektoren auch als Spaltenvektoren des R3 interpretieren. Dann wären sie aber linear unabhängig, denn es gilt   101 det R 1 1 0 = 1 + 1 = 2 6= 0. 011 Hierbei soll der Index R des Determinantensymbols den zugrunde gelegten Körper R andeuten. Über den Körper R betrachtet ist diese Matrix damit regulär, sodass die drei Spal-

84

3 Erzeugung von Vektorräumen

ten linear unabhängig sind. Dagegen ist   101 det Z2 1 1 0 = 1 + 1 = 0. 011 Über Z2 betrachtet ist diese Matrix singulär, woraus sich nochmals die lineare Abhängigkeit der Spalten ergibt. Aufgabe 3.10 Zeigen Sie: Für jede reelle m × n-Matrix A ist (i) Rang(AT A) = Rang(A), (ii) Rang(AT A) = Rang(AAT ). Lösung Es gilt einserseits x ∈ Kern A ⇔ Ax = 0 ⇒ AT Ax = 0 ⇒ x ∈ Kern(AT A) und andererseits mit Ax = (y1 , . . . , ym )T x ∈ Kern(AT A) ⇔ AT Ax = 0 ⇒ xT AT Ax = 0 ⇒ (Ax)T (Ax) = y21 + · · · + y2m = 0 ⇒ (y1 , . . . , ym )T = Ax = 0 ⇔ Ax ∈ Kern A. Also ist Kern(AT A) = Kern A und damit dim Kern(AT A) = dim Kern A. Nach der Dimensionsformel ist Rang(AT A) = n − dim Kern(AT A) = n − dim Kern A = Rang A.

Bemerkung 3.4 Für die Implikation (Ax)T (Ax) = 0 ⇒ Ax = 0 ist der zugrunde gelegte Körper, in diesem Fall der Körper R, schon entscheidend. Beispielsweise ist über K = Z5   2 (2 1) · = 4 + 1 = 0. 1 Über diesen Körper ist beispielsweise für  2 A = 1 0 auch tatsächlich

 0 0 0

3.4 Vertiefende Aufgaben

85



   2 2 1 0 Rang(AT A) = Rang  · 1 000 0



  0 00   0 = Rang = 0 6= 1 = Rang(A). 00 0

Es ergibt sich nun durch Rollentausch von AT und A (i)

(i)

Rang(AAT ) = Rang((AT )T AT ) = Rang(AT ) = Rang A = Rang(AT A). Damit ist auch (ii) nachgewiesen. Aufgabe 3.11 Es sei K ein Körper und M eine beliebige Menge. Zeigen Sie, dass die Menge K(M) := { f : M → K : f (m) 6= 0 nur für endlich viele m ∈ M}

(3.2)

aller abbrechenden Abbildungen von M in den Körper K bezüglich der Addition und der skalaren Multiplikation f +g

definiert durch ( f + g)(m) := f (m) + g(m),

λ·f

definiert durch (λ · f )(m) := λ · f (m),

m ∈ M,

m ∈ M,

einen K-Vektorraum bildet. Wie lautet der Nullvektor von K(M) ? Wir bezeichnen K(M) als freien Vektorraum. Für jede Abbildung f : M → K wird die Menge {m ∈ M : f (m) 6= 0} als Träger von f bezeichnet. Der freie Vektorraum K(M) ist also der Raum der Abbildungen von M nach K mit endlichem Träger. Lösung Es seien f , g, h ∈ K(M) sowie α, β ∈ K und m ∈ M. Durch die Definition der Addition und der skalaren Multiplikation ist sichergestellt, dass sowohl f + g als auch λ · f Abbildungen sind, die nur für endlich viele m ∈ M einen Wert ungleich des Nullelements von K liefern. Beide Rechenoperationen führen also wieder in die Menge K(M) zurück. Wir zeigen nun, dass die Vektorraumaxiome erfüllt sind. Da K ein Körper ist, folgen Kommutativität f + g = g + f und die Assoziativität f + (g + h) = ( f + g) + h der Addition in K(M) direkt aus der Kommutativität f (m) + g(m) = g(m) + f (m) und der Assoziativität f (m) + (g(m) + h(m)) = ( f (m) + g(m)) + h(m) in K. Zudem gelten aufgrund der Distributivität in K (α + β ) f (m) = α f (m) + β f (m),

α( f (m) + g(m)) = α f (m) + αg(m)

und daher (α + β ) · f = α f + β f ,

α( f + g) = α f + αg.

Die Nullabbildung 0 ∈ K(M) , definiert durch 0(m) := 0 ∈ K, wirkt additiv neutral und kann daher als Nullvektor von K(M) aufgefasst werden. Mit − f ∈ K(M) , definiert durch (− f )(m) := − f (m), ergibt sich eine Abbildung mit − f + f = 0. Dass (αβ ) · f = α · (β · f ) gilt, folgt aus der Assoziativität der Multiplikation (αβ ) f (m) = α(β f (m)) in K. Ebenso

86

3 Erzeugung von Vektorräumen

ist mit dem Einselement 1 ∈ K wegen 1 f (m) = f (m) das Vektorraumaxiom 1 · f = f garantiert. Damit sind sämtliche acht Vektorraumaxiome gezeigt. Aufgabe 3.12 Es sei M eine Menge und K, wie üblich, ein Körper. Für n Elemente m1 , . . . , mn ∈ M mit n ∈ N definiert der formale Ausdruck λ1 m1 + λ2 m2 + · · · + λn mn

(3.3)

mit Skalaren λ1 , . . . , λn ∈ K eine formale Linearkombination über K. Hierbei soll es nicht auf die Reihenfolge der Summanden in (3.3) ankommen, sodass die Schreibweise mit dem Summenzeichen möglich wird: n

λ1 m1 + λ2 m2 + · · · + λn mn = ∑ λi mi = i=1



λi mi .

i∈{1,...,n}

Zudem dürfen identische Elemente aus M innerhalb dieses Ausdrucks durch Ausklammerung zusammengefasst werden. Es ist also λ1 m + λ2 m = (λ1 + λ2 )m. Wir können nun davon ausgehen, dass es innerhalb (3.3) keine mehrfach auftretenden Elemente mi gibt. Einen Faktor λi = 1 dürfen wir auch formal weglassen, d.h. 1mi = mi . Wir definieren nun in „natürlicher Weise“ eine Addition und eine skalare Multiplikation. Es seien hierzu v = λ1 m1 + λ2 m2 + · · · + λn mn ,

w = µ1 m01 + µ2 m02 + · · · + µ p m0p

zwei formale Linearkombinationen dieser Art. Zudem sei α ∈ K ein Skalar. Die Addition, definiert durch v + w := λ1 m1 + λ2 m2 + · · · + λn mn + µ1 m01 + µ2 m02 + · · · + µ p m0p ,

(3.4)

ist dann wiederum eine formale Linearkombination von Elementen aus M. Eventuell gemeinsam auftretende Elemente aus M können wieder durch Ausklammerung zusammengefasst werden. Die skalare Multiplikation mit α ∈ K, definiert durch αv := (αλ1 )m1 + (αλ2 )m2 + · · · + (αλn )mn ,

(3.5)

stellt ebenfalls eine formale Linearkombination von Elementen m1 , . . . , mn aus M dar. Zeigen Sie nun, dass die Menge aller formalen Linearkombinationen hMi = {λ1 m1 + λ2 m2 + · · · + λn mn : λi ∈ K, mi ∈ M, n ∈ N} = hm : m ∈ Mi bezüglich der zuvor definierten Addition und skalaren Multiplikation einen K-Vektorraum bildet. Überlegen Sie zunächst, wie der Nullvektor aussehen muss und was die spezielle Linearkombination 0 · m für m ∈ M ergibt. Wann könnte man zwei formale Linearkombinationen als gleich betrachten? Geben Sie ein Beispiel für einen Vektorraum formaler Linearkombinationen an.

3.4 Vertiefende Aufgaben

87

Lösung Der Nullvektor ist gegeben durch die leere Linearkombination 0 :=

m=

∑ m∈{}

∑ m = ∑ λi mi , i∈{}

i∈{}

denn hiermit gilt die additive Neutralität: v+



m = λ1 m1 + λ2 m2 + · · · + λn mn +



m

m∈{}

m∈{}

=

λ i mi +

∑ i∈{1,...,n}

∑ λi mi = i∈{}

λi mi =

∑ i∈{1,...,n}∪{}



λi mi = v.

i∈{1,...,n}

Im Übrigen gilt für die spezielle formale Linearkombination 0 · m, die aus der Multiplikation des Skalars 0 ∈ K mit einem beliebigen Element m ∈ M besteht, die nicht überraschende Regel ! 0·m =

∑1

·m =

i∈{}

∑ 1·m = ∑ m = ∑ i∈{}

i∈{}

m = 0.

m∈{}

Es sei nun v=



λi mi

i∈{1,...,n}

eine formale Linearkombinationen mit paarweise verschiedenen mi ∈ M. Da 0 · m = 0 für jedes m ∈ M gilt und wir auf den Nullvektor verzichten können, ist es sinnvoll, zudem davon auszugehen, dass λi 6= 0 für alle i ∈ {1, . . . , n} gilt. Der Einfachheit halber bezeichnen wir dann die so vorliegende Darstellung als Normalform einer formalen Linearkombination. Zwei formale Linearkombinationen v, v0 ∈ hMi sind damit identisch, wenn ihre Normalformen ∑ λi mi , und ∑ λi0 m0i i∈{1,...,n}

i∈{1,...,n}

aus denselben Elementen von M bestehen und die entsprechenden Vorfaktoren dabei jeweils übereinstimmen:   {m1 , . . . , mn } = {m01 , . . . , m0n } 0 0 . ∑ λi mi = ∑ λi mi ⇐⇒ ∧ λi = λ j0 für mi = m0j i∈{1,...,n}

i∈{1,...,n}

Da die Addition (3.4) und die skalare Multiplikation (3.5) jeweils wieder formale Linearkombinationen von Elementen aus M über K darstellen, führen diese Rechenoperationen wieder in die Menge hMi zurück. Da es nicht auf die Reihenfolge der Summanden innerhalb einer formalen Linearkombination ankommt, gilt die Kommutativität. Um die Assoziativität zu zeigen, betrachten wir drei formale Linearkombinationen v, w, x ∈ hMi. Zudem seien nun I, J, K ⊂ N endliche Indexmengen und mi ∈ M für i ∈ I ∪ J ∪ K, sodass wir die drei Linearkombinationen in der Form v = ∑ λi mi , i∈I

w=

∑ µ jm j, j∈J

x=

∑ νk mk k∈K

88

3 Erzeugung von Vektorräumen

darstellen können. Wir definieren nun die zusätzlichen Vorfaktoren λl = 0,

l ∈ (J ∪ K) \ I,

µl = 0,

l ∈ (I ∪ K) \ J,

νl = 0,

l ∈ (I ∪ J) \ K.

Nun haben wir die Möglichkeit, alle drei Linearkombinationen mit identischer Summandenzahl und Indexmenge L = I ∪ J ∪ K darzustellen: v = ∑ λl ml ,

w = ∑ µl ml ,

l∈L

x = ∑ νl ml .

l∈L

l∈L

Wegen der Assoziativität in K ist ! v + (w + x) = ∑ λl ml + l∈L

∑ µl ml + ∑ νl ml l∈L

l∈L

= ∑ λl ml + ∑ (µl + νl )ml l∈L

l∈L

= ∑ (λl + (µl + νl ))ml = ∑ ((λl + µl ) + νl )ml = ∑ (λl + µl )ml + ∑ νl ml l∈L

l∈L

l∈L

l∈L

! =

∑ λl ml + ∑ µl ml l∈L

l∈L

+ ∑ νl ml = (v + w) + x. l∈L

Zudem gelten für alle α, β ∈ K aufgrund der Definition der skalaren Multiplikation (3.5) (α + β )v = ((α + β )λ1 )m1 + · · · + ((α + β )λn )mn = (αλ1 + β λ1 )m1 + · · · + (αλn + β λn )mn = (αλ1 )m1 + (β λ1 )m1 + · · · + (αλn )mn + (β λn )mn = (αλ1 )m1 + · · · + (αλn )mn + (β λ1 )m1 + · · · + (β λn )mn = α(λ1 m1 + · · · + λn mn ) + β (λ1 m1 + · · · + λn mn ) = αv + β v sowie α(v + w) = αv + αw. Schließlich stellt für v = λ1 m1 + λ2 m2 + · · · + λn mn ∈ hMi der Vektor −v := (−1) · v = (−λ1 )m1 + (−λ2 )m2 + · · · + (−λn )mn ∈ hMi einen inversen Vektor dar mit v + (−v) = λ1 m1 + λ2 m2 + · · · + λn mn + (−λ1 )m1 + (−λ2 )m2 + · · · + (−λn )mn = (λ1 − λ1 )m1 + (λ2 − λ2 )m2 + · · · + (λn − λn )mn = 0 · m1 + 0 · m2 + · · · + 0 · mn = 0 + 0 + · · · + 0 = 0, da 0 additiv neutral ist. Der Polynomring K[x] über einem Körper K ist ein Beispiel für einen Vektorraum formaler Linearkombinationen mit M = {1, x, x2 , x3 , . . .}. Die Menge C der komplexen Zah-

3.4 Vertiefende Aufgaben

89

len kann als R-Vektorraum der formalen Linearkombinationen von Elementen der Menge {1, i} aufgefasst werden. Aufgabe 3.13 Wie lautet eine Basis des K-Vektorraums der formalen Linearkombinationen einer Menge M? Lösung Die Menge M selbst bildet eine Basis des K-Vektorraums aller formalen Linearkombinationen von Elementen aus M. Die Linearkombinationen dürfen dabei nur als formale Linearkombinationen betrachtet werden. Bemerkung 3.5 Ist M ein (Teil-)Raum, so sind bereits eine Addition und eine skalare Multiplikation innerhalb des Vektorraums M definiert. Wir dürfen dann die formalen Linearkombinationen der Elemente aus M nicht mit den Linearkombinationen der Elemente aus M verwechseln. Für die letzteren Linearkombinationen werden die bereits gegebene Addition und die skalare Multiplikation verwendet. Im Sinne dieser Definition der Linearkombination ist hMi = M, und M ist in der Regel nicht Basis für hMi. Hier müssten im Grunde zwei unterschiedliche Bezeichnungen für lineare Erzeugnisse verwendet werden.

Aufgabe 3.14 Es sei M eine Menge und K ein Körper. Zeigen Sie, dass der freie Vektorraum K(M) isomorph ist zum Vektorraum hMi der formalen Linearkombinationen der Elemente aus M über K. Lösung Wir ordnen einer Abbildung f ∈ K(M) eine formale Linearkombination aus hMi auf folgende Weise zu: Ω : K(M) → hMi f 7→ Ω ( f ) :=



f (m) · m.

m∈M f (m)6=0

Die auf diese Weise definierte formale Linearkombination Ω ( f ) liegt zudem in Normalform vor. Da f (m) 6= 0 nur für endlich viele m ∈ M gilt, besteht



f (m) · m

m∈M f (m)6=0

nur aus endlich vielen Summanden und ist daher eine formale Linearkombination aus hMi. Innerhalb einer formalen Linearkombination können Summanden der Form 0 · m auch weggelassen oder beliebig addiert werden, ohne die Linearkombination zu ändern (vgl. Aufgabe 3.12). Aus diesem Grunde können wir die Bedingung f (m) 6= 0 auch weglassen, sodass wir einfacher

90

3 Erzeugung von Vektorräumen

f (m) · m =





f (m) · m

m∈M

m∈M f (m)6=0

schreiben können. Wir zeigen, dass die Zuordnung Ω linear und bijektiv ist. Nach Definition des freien Vektorraums ist mit f , g ∈ K(M) und λ ∈ K für jedes m ∈ M ( f + g)(m) := f (m) + g(m) und

(λ f )(m) := λ f (m).

Es ist nun jeweils auch ( f + g)(m) 6= 0 und (λ f )(m) 6= 0 nur für endlich viele m ∈ M. Zudem gilt Ω ( f + g) =



( f + g)(m) · m =

=

∑ ( f (m) + g(m)) · m = ∑

m∈M

=

∑ ( f + g)(m) · m

m∈M

m∈M ( f +g)(m)6=0

f (m) · m +

m∈M

f (m) · m +



m∈M f (m)6=0





g(m) · m

m∈M

g(m) · m = Ω ( f ) + Ω (g).

m∈M g(m)6=0

Hierbei bestehen alle Summen nur aus endlich vielen Summanden ungleich null. Außerdem gilt für λ 6= 0 Ω (λ · f ) =



(λ f )(m) · m =

λ 6=0

=



λ f (m) · m = λ

∑ (λ f )(m) · m = ∑

m∈M

m∈M (λ · f )(m)6=0

m∈M f (m)6=0



λ f (m) · m

m∈M

f (m) · m = λ Ω ( f ).

m∈M f (m)6=0

Dies gilt auch für λ = 0, denn es ist Ω (0 · f ) = Ω (0) =



f (m) · m = 0 = 0 ·

m∈{}

f (m) · m = 0 · Ω ( f ).



m∈M f (m)6=0

Die Zuordnung Ω ist daher linear. Sie ist zudem surjektiv, denn für eine beliebige, in Normalform vorliegende, formale Linearkombination λ1 m1 + λ2 m2 + · · · + λn mn =



λi · mi ∈ hMi

i∈{1,...,n}

mit 0 6= λi ∈ K und paarweise verschiedenen mi ∈ M ist durch  λi , m = mi , (i = 1, 2, . . . , n) f (m) := 0, m 6∈ {m1 , m2 , . . . , mn } eine Abbildung aus K(M) definiert, welche die Eigenschaft

3.4 Vertiefende Aufgaben

Ω( f) =

91



f (m) · m =

m∈M f (m)6=0

=

f (m) · m +



m∈{m1 ,...,mn } f (m)6=0

=

f (m) · m



m∈{m1 ,...,mn } f (m)6=0



f (m) · m =

m∈{m1 ,...,mn }



f (m) · m



f (mi ) · mi =

m∈{m1 ,...,mn } f (m)=0

i∈{1,...,n}



λi · mi

i∈{1,...,n}

erfüllt. Keine andere Abbildung f 0 aus K(M) erfüllt diese Eigenschaft, da es dann ein mi ∈ {m1 , . . . , mn } mit f 0 (mi ) = λi0 6= λi = f (mi ) oder ein m ∈ M mit f (m) = 0 6= f 0 (m) gäbe. Die beiden sich ergebenden formalen Linearkombinationen Ω ( f 0 ) und Ω ( f ) wären dann aber unterschiedlich, denn sie liegen jeweils in Normalform vor und haben für mi unterschiedliche Vorfaktoren oder unterscheiden sich um den Summanden f 0 (m)m. Die Zuordnung Ω ist somit auch injektiv, also insgesamt eine bijektive und lineare Abbildung und daher ein Vektorraumisomorphismus von K(M) nach hMi. Aufgabe 3.15 Es seien A ∈ M(m × n, K) und B ∈ M(n × p, K) zwei Matrizen. Zeigen Sie mithilfe der Normalform für äquivalente n × p-Matrizen die Rangungleichung Rang(AB) ≤ min(Rang A, Rang B). Lösung Nach Satz 2.41 bzw. Satz 3.42 aus [5] gibt es zwei reguläre Matrizen Z ∈ GL(n, K) und S ∈ GL(p, K) mit   ErB 0rB ×p−rB ZBS = = (ˆe1 | . . . | eˆ rB | 0 | . . . | 0) ∈ M(n × p, K), rB = Rang B. 0n−rB ×p | {z } p − rB mal

Hierbei sind eˆ 1 , . . . , eˆ rB die ersten rB kanonischen Einheitsvektoren des Kn . Da sich nach Satz 3.36 aus [5] der Rang einer Matrix durch Links- oder Rechtsmultiplikation mit regulären Matrizen nicht ändert, gilt Rang(AB) = Rang(AZ −1 (ˆe1 | . . . | eˆ rB | 0 | . . . | 0)S−1 ) = Rang(AZ −1 (ˆe1 | . . . | eˆ rB | 0 | . . . | 0)) = Rang(AZ −1 eˆ 1 | . . . | AZ −1 eˆ rB | 0 | . . . | 0)) = Rang(AZ −1 eˆ 1 | . . . | AZ −1 eˆ rB ) ≤ rb = Rang B. Außerdem gibt es für jeden Vektor w ∈ Bild(AB) ein v ∈ K p mit w = ABv. Mit x := Bv ∈ Kn ist also w = Ax. Daher ist auch w ∈ Bild A. Es ist also Bild(AB) ⊂ Bild A ein Teilraum von Bild A. Daher gilt dim Bild(AB) ≤ dim Bild A. Da die Bilddimension einer Matrix nichts anderes ist als ihr Rang, folgt auch Rang(AB) ≤ Rang A. Insgesamt ergibt sich also Rang(AB) ≤ min(Rang A, Rang B).

92

3 Erzeugung von Vektorräumen

Bemerkung 3.6 Wir haben diese Rangungleichung matrizentheoretisch nachgewiesen und dabei eine Matrizennormalform verwendet. Diese Ungleichung kann viel eleganter mithilfe der Dimensionsformel für lineare Abbildungen nachgewiesen werden, vgl. Bemerkung 4.1 nach Aufgabe 4.1.3.

Aufgabe 3.16 Es seien V und W zwei K-Vektorräume endlicher Dimension mit den Basen B = (b1 , . . . , bn ) von V und C = (c1 , . . . , cm ) von W . Wie lautet eine Basis von V ×W (vgl. Aufgabe 1.15)? Welche Dimension hat das direkte Produkt V ×W ? Lösung Es bezeichne 0v den Nullvektor aus V und 0w den Nullvektor aus W . Die Vektoren (b1 , 0w ), . . . , (bn , 0w ), (0v , c1 ), . . . , (0v , cm ) ∈ V ×W

(3.6)

sind imstande, jeden Vektor (v, w) des direkten Produkts als Linearkombination aus ihnen darzustellen. Denn ist (v, w) ∈ V ×W , so sind n

m

v = ∑ λi bi ,

w = ∑ µi ci

i=1

i=1

mit λ1 , . . . , λn , µ1 , . . . , µm ∈ K. Damit ist aufgrund der Addition und der skalaren Multiplikation im direkten Produkt V ×W (v, w) = (v, 0w ) + (0v , w) n m   = ∑ λi bi , 0w + 0v , ∑ µi ci i=1 n

i=1

m

= ∑ λi (bi , 0w ) + ∑ µi (0v , ci ). i=1

i=1

n

m

Der Ansatz (0v , 0w ) = ∑ λi (bi , 0w ) + ∑ µi (0v , ci ) i=1 n

=

m

∑ λi bi , 0w

i=1 n

=

i=1



+ 0v , ∑ µi ci i=1

m

∑ λi bi , ∑ µi ci

i=1





i=1

zur Darstellung des Nullvektors (0v , 0w ) von V ×W aus diesen Vektoren liefert n

m

0v = ∑ λi bi ,

0w = ∑ µi ci .

i=1

i=1

3.4 Vertiefende Aufgaben

93

Als Basen bilden b1 , . . . , bn und c1 , . . . , cm jeweils Systeme linear unabhängiger Vektoren. Daher folgt λ1 , . . . , λn = 0 und µ1 , . . . , µm = 0. Der Nullvektor von V × W kann also nur trivial aus den Vektoren des Systems in (3.6) kombiniert werden. Die Vektoren dieses Systems sind also linear unabhängig und bilden eine Basis des direkten Produkts V × W . Da das Vektorsystem in (3.6) aus n + m Vektoren besteht, gilt dimV ×W = n + m.

Kapitel 4

Lineare Abbildungen und Bilinearformen

4.1 Lineare Abbildungen

Aufgabe 4.1 Es sei V ein endlich-dimensionaler K-Vektorraum und W ein KVektorraum. Zeigen Sie, dass für einen beliebigen Homomorphismus f : V → W die Dimensionsformel dimV / Kern f = dimV − dim Kern f gilt. Lösung Aufgrund des Homomorphiesatzes ist V / Kern f ∼ = Bild f . Somit gilt dimV / Kern f = dim Bild f . Die Dimensionsformel für lineare Abbildungen liefert nun dim Bild f = dimV − dim Kern f und daher dimV / Kern f = dimV − dim Kern f .

© Springer-Verlag GmbH Deutschland, ein Teil von Springer Nature 2019 L. Göllmann und C. Henig, Arbeitsbuch zur linearen Algebra, https://doi.org/10.1007/978-3-662-58766-9_4

95

96

4 Lineare Abbildungen und Bilinearformen

Aufgabe 4.1.1 (Dimensionsformel für Quotientenräume) Es sei V ein endlichdimensionaler K-Vektorraum und T ⊂ V ein Teilraum von V . Zeigen Sie, dass die Dimension des Quotientenraums V /T mit dimV /T = dimV − dim T

(4.1)

bestimmt werden kann. Lösung Wir können T als Kern der kanonischen Surjektion ρ : V → V /T auffassen. Nach der Aussage von Aufgabe 4.1 ist dann dimV /T = dimV / Kern ρ = dimV − dim Kern ρ = dimV − dim T.

Aufgabe 4.1.2 Verifizieren Sie die Dimensionsformel für Quotientenräume (4.1) anhand des Beispiels aus Aufgabe 3.9. Hier ist V = (Z2 )3 ein Spaltenvektorraum über dem Restklassenkörper Z2 = Z/2Z und *    + 1 0 T := 1 , 1 1 0 ein Teilraum von V . Lösung Nach der Lösung von Aufgabe 3.9 ist der Teilraum T die endliche Menge         1 0 1   0 T = 0 , 1 , 1 , 0   1 0 0 1 und der Quotientenraum V /T die Menge V /T = hvi mit           1 1 0 1   0 v = 0 + 0 , 1 , 1 , 0   0 0 0 1 1          0 1 0   1 = 0 , 1 , 1 , 0 6= T = 0.   0 0 1 1

4.1 Lineare Abbildungen

97

Damit ist dimV /T = 1, was sich auch durch die Dimensionsformel für Quotientenvektorräume (4.1) dimV /T = dimV − dim T = 3 − 2 = 1 ergibt. Aufgabe 4.1.3 (Sylvester’sche Rangungleichung) Es seien A ∈ M(m × n, K) und B ∈ M(n× p, K) zwei Matrizen. Zeigen Sie mithilfe der Dimensionsformel für lineare Abbildungen in Ergänzung zu Aufgabe 3.15: Rang(AB) ≥ Rang A + Rang B − n. Lösung Wir betrachten die auf dem Vektorraum Bild B definierte lineare Abbildung h : Bild B → Km v 7→ Av. Für diese Abbildung gilt Bild h = Bild(AB). Aufgrund der Dimensionsformel für lineare Abbildungen ist dim Bild h = dim Bild B − dim Kern h = Rang B − dim Kern h. Da Bild h = Bild(AB) ist, folgt nun Rang(AB) = dim Bild(AB) = dim Bild h = Rang B − dim Kern h. Für jeden Vektor v ∈ Kern h ist h(v) = Av = 0. Daher ist v ∈ Kern A. Es gilt somit Kern h ⊂ Kern A, woraus sich dim Kern h ≤ dim Kern A ergibt. Insgesamt folgt Rang(AB) = Rang B − dim Kern h ≥ Rang B − dim Kern A = Rang B − (n − Rang A) = Rang A + Rang B − n.

Bemerkung 4.1 Die Abschätzung Rang(AB) ≤ min(Rang A, Rang B) aus Aufgabe 3.15 ist mittels der Dimensionsformel für lineare Abbildungen viel schneller nachweisbar, denn aus der obigen Gleichung Rang(AB) = dim Bild(AB) = Rang B − dim Kern h folgt Rang(AB) ≤ Rang B. Andererseits ist Bild(AB) ⊂ Bild A, da Bild(B) ⊂ Kn . Somit ist Rang(AB) = dim Bild(AB) ≤ dim Bild A = Rang A. Wir halten also fest: Für A ∈ M(m × n, K) und B ∈ M(n × p, K) gelten die Rangabschätzungen Rang A + Rang B − n ≤ Rang(AB) ≤ min(Rang A, Rang B).

98

4 Lineare Abbildungen und Bilinearformen

Aufgabe 4.2 Es seien V = he3t + t 2 ,t 2 , 1i und W = he3t ,ti zwei R-Vektorräume. Betrachten Sie die lineare Abbildung f :V →W ϕ 7→ f (ϕ) =

dϕ . dt

a) Bestimmen Sie die Koordinatenmatrix von f bezüglich der Basen B = (e3t + t 2 ,t 2 , 1) von V und C = (e3t ,t) von W . b) Berechnen Sie die Ableitung von 4e3t + 2 mithilfe der unter a) berechneten Koordinatenmatrix. c) Bestimmen Sie Bild f und Rang f = dim Bild f . d) Wie lautet der Kern von f sowie dessen Dimension? e) Bestimmen Sie neue Basen B0 und C0 von V bzw. W , sodass die hierzu gehörende Koordinatenmatrix von f Diagonalgestalt besitzt mit Einsen auf der Hauptdiagonalen. Lösung a) Die Basisvektoren der Basis B von V sind b1 = e3t + t 2 , b2 = t 2 und b3 = 1, während die Basis C von W aus den beiden Vektoren c1 = e3t und c2 = t besteht. Wir erhalten dann für die Koordinatenmatrix von f = dtd bezüglich der Basen B und C die 2 × 3-Matrix MCB ( f ) = MCB ( dtd ) = cC ( f (B)) = cC

d dt b1



| cC

d dt b2



| cC

d dt b3



   300 = cC (3e3t + 2t) | cC (2t) | cC (0) = . 220 Mithilfe der Koordinatenmatrix können wir nun den Ableitungsoperator auf V als lineare Abbildung R3 → R2 in Form eines Matrix-Vektorprodukts darstellen: f

ϕ ∈ V −→ W 3 cB ↓ ↓ cC

d dt ϕ

MB ( f )

C cB (ϕ) ∈ R3 −→ R2 3 cC ( dtd ϕ).

b) Wir berechnen die Ableitung der Funktion ϕ(t) = 4e3t + 2 mithilfe von MBC ( f ). Dazu benötigen wir zunächst den Koordinatenvektor von ϕ bezüglich B. Es gilt   4 cB (ϕ) = −4 , 2 denn es ist ϕ(t) = 4b1 − 4b2 + 2b3 . Damit gilt für den Koordinatenvektor seiner Ableitung bezüglich der Basis C

4.1 Lineare Abbildungen

99



cC ( dtd ϕ) =

MCB ( dtd ) · cB (ϕ) =



  4   300   12 −4 = . 220 0 2

Der Basisisomorphismus cC−1 ergibt nun die Ableitung von ϕ in Form einer Funktion in W als   d 12 −1 ϕ(t) = cC = 12c1 + 0c2 = 12e3t . 0 dt c) Es ist Bild f ∼ = Bild MCB ( f ). Daher ist dim Bild f = dim Bild MCB ( f ) = Rang MCB ( f ) = 2, da beide Zeilen von MCB ( f ) linear unabhängig sind. Das Bild von f ist also ein zweidimensionaler Teilraum des zweidimensionalen Raums W . Daher stimmen beide Räume überein. Es gilt also Bild f = W . Wir erkennen dies auch an einer direkten Berechnung von Bild f aus dem Bild von MCB ( f ). Da das Bild der Koordinatenmatrix invariant unter elementaren Spaltenumformungen ist, gilt zunächst           300 100 100 1 0 B Bild MC ( f ) = Bild = Bild = Bild = , . 220 110 010 0 1 Der Basisisomorphismus cC−1 liefert mit

Bild f =

cC−1 (Bild MCB ( f )) =

     1 0 −1 −1 cC , cC 0 1

= h1 · c1 + 0 · c2 , 0 · c1 + 1 · c2 i = hc1 , c2 i = W das Bild von f in W , das in diesem Fall mit W übereinstimmt. d) Der Kern von f ist isomorph zum Kern der Koordinatenmatrix von f . Ihr Kern ist invariant unter elementaren Zeilenumformungen. Wir erhalten:       * 0 + 3 0 0 1 0 0 Kern f ∼ = Kern = 0 . = Kern MCB ( f ) = Kern 220 010 1 Der Basisisomorphismus c−1 B liefert nun diesen eindimensionalen Kern als Teilraum  + * 0 B −1   0 Kern f = c−1 (Kern M ( f )) = c = h0b1 + 0b2 + 1b3 i = h1i C B B 1 von V in Form einer Menge von konstanten Funktionen. Die Eindimensionalität wäre bereits vor der Kernbestimmung erkennbar gewesen. Es gilt aufgrund der Dimensionsformel für lineare Abbildungen dim Kern f + dim Bild f = dimV , da V ein endlich dimensionaler Vektorraum ist. Aus diesem Grund ist dim Kern f = dimV − dim Bild f = 3 − 2 = 1.

100

4 Lineare Abbildungen und Bilinearformen

e) Wir bestimmen nun neue Basen B0 von V und C0 von W , sodass die Koordinatenmatrix von f bezüglich B0 und C0 in Normalform mit minimaler Besetzung vorliegt:     0 Er |0r×n−r 100 MCB0 ( f ) = = . 010 0m−r×n Hier ist r = Rang A = 2, m = 2, n = 2. Ausgangspunkt ist nun die Koordinatenmatrix MCB ( f ) bezüglich der Basen B und C. Wir werden diese Matrix nun per ZAS-Zerlegung in die gewünschte Form bringen. Wie üblich führen wir die Zeilen- und Spaltenumformungen in gleicher Weise an den Einheitsmatrizen durch: Matrix   3 0 0 ·1/3 2 2 0   1 0 0 → 2 2 0 6−   1 0 0 → 0 2 0 ·1/2   1 0 0 → 0 1 0

Zeilenumformungen   1 0 0 1   1/3 0 0 1

Spaltenumformungen   1 0 0 0 1 0 0 0 1



 1 0 0 −1 1 0  = S 0 0 1 

 0 = Z. 0 1/2

1/3

Mit Z und S gilt nun ! ZMBC ( f )S = (cC (C0 ))−1 MCB ( f )cB (B0 ) =

  100 . 010

Wir identifizieren hierin nach Satz 4.17 aus [5] die Übergangsmatrizen mit Z = (cC (C0 ))−1 bzw. 0

cC (C ) = Z und

−1



 30 = 02



 1 0 0 cB (B0 ) = S = −1 1 0  . 0 0 1

Die Spalten dieser Matrizen sind die Koordinatenvektoren der neuen Basisvektoren aus C0 und B0 bezüglich der alten Basen C und B. So ermitteln wir schließlich mithilfe der Basisisomorphismen cC−1 und c−1 B die neuen Basisvektoren

4.1 Lineare Abbildungen

101

  3 c01 = cC−1 = 3c1 + 0c2 = 3e3t , 0   0 = 0c1 + 2c2 = 2t, c02 = cC−1 2   1 −1 = 1b1 − 1b2 + 0b3 = e3t , b01 = c−1 B 0   0 1 = b2 = t 2 , b02 = c−1 B 0   0 0 = b3 = 1. b03 = c−1 B 1 Bezüglich der neuen Basen B0 = (e3t , t 2 , 1),

C0 = (3e3t , 2t)

lautet die Koordinatenmatrix von f 0 MCB0 ( f ) =

  100 . 010

Wir können uns davon überzeugen, indem wir die Koordinatenmatrix von f bezüglich B0 und C0 auf direktem Wege bestimmen. In der Tat ergibt sich 0

0

MCB0 ( f ) = MCB0 ( dtd ) = cC0 ( f (B0 ))  = cC0 dtd b01 | cC0

d 0 dt b2



| cC0  3t = cC0 (3e ) | cC0 (2t) | cC0 (0)   100 = . 010

d 0 dt b3



Wir haben bei der ZAS-Zerlegung sowohl Zeilen- als auch Spaltenumformungen durchgeführt. Die Koordinatenmatrix kann in diesem Beispiel auch ausschließlich durch Zeilenumformungen oder ausschließlich durch Spaltenumformungen in die Normalform   100 N := 010 überführt werden. So gilt beispielsweise bereits allein durch die Spaltenumformungsmatrix   1/3 0 0 S = −1/3 1/2 0 0 0 1

102

4 Lineare Abbildungen und Bilinearformen

die Zerlegung AS = N. Daher sind C00 := C und B00 = ( 13 b1 − 13 b2 , 12 b2 , b3 ) = ( 13 e3t , 12 t 2 , 1) 00

zwei weitere Basen mit MCB00 ( f ) = N. Aufgabe 4.3 Gegeben seien die R-Vektorräume V = {p ∈ R[x] : deg p ≤ 2},

W = {p ∈ R[x] : deg p ≤ 1}

sowie die Abbildung TP : V → W p 7→ TP(p) = p(1) + p0 (1)(x − 1), die einem Polynom p ∈ V sein Taylor-Polynom erster Ordnung um den Entwicklungspunkt x0 = 1 zuweist. Des Weiteren seien B = (x2 , x, 1) und B0 = (x2 + x + 1, x + 1, 1) sowie C = (1, x) und C0 = (1, x − 1) Basen von V bzw. W . a) Zeigen Sie, dass TP linear ist. b) Berechnen Sie unter Zuhilfenahme der Übergangsmatrizen die Koordinatenmatrix von TP bezüglich B0 und C0 aus der Koordinatenmatrix von TP bezüglich B und C. c) Bestimmen Sie bezüglich beider Basenpaare das obige Taylor-Polynom von (x − 1)2 . d) Bei welchen Polynomen p ∈ V gilt TP(p) = 0? (Berechnen Sie Kern TP mithilfe einer der unter Teil b) bestimmten Koordinatenmatrizen, oder schließen Sie aus der Kerndimension von TP auf den Kern von TP.) e) Bestimmen Sie neue Basen B00 und C00 von V bzw. W , sodass die hierzu gehörende Koordinatenmatrix von TP in Normalform vorliegt. (Führen Sie eine ZAS-Zerlegung an einer der beiden unter b) bestimmten Koordinatenmatrizen durch. Beachten Sie den Vorteil von reinen Spaltenumformungen bei dieser Aufgabe.) Lösung Mit V = {p ∈ R[x] : deg p ≤ 2} und W = {p ∈ R[x] : deg p ≤ 1} liegt uns ein drei- und ein zweidimensionaler R-Vektorraum vor. a) Wir weisen nach, dass TP : V → W p 7→ TP(p) = p(1) + p0 (1)(x − 1) einen Homomorphismus darstellt. Zu zeigen sind daher die beiden Linearitätseigenschaften für TP. Nun gilt für alle p, q ∈ V und alle Skalare λ ∈ R

4.1 Lineare Abbildungen

103

TP(p + q) = (p + q)(1) + (p + q)0 (1)(x − 1) = p(1) + q(1) + (p0 (1) + q0 (1))(x − 1) = p(1) + p0 (1)(x − 1) + q(1) + q0 (1)(x − 1) = TP(p) + TP(q) sowie TP(λ p) = (λ p)(1) + (λ p)0 (1)(x − 1) = λ p(1) + λ p0 (1)(x − 1) = λ (p(1) + p0 (1)(x − 1)) = λ TP(p). Bei TP : V → W handelt es sich also um eine lineare Abbildung. b) Zur Berechnung der Koordinatenmatrix von TP bezüglich der Basen B = (x2 , x, 1) von V und C = (1, x) von W werden die Bildvektoren der Basisvektoren aus B mit ihren Koordinatenvektoren bezüglich C dargestellt. Es gilt zunächst TP(b1 ) = TP(x2 ) = 12 + 2 · 1 · (x − 1) = 2x − 1 TP(b2 ) = TP(x) = 1 + 1 · (x − 1) = x TP(b3 ) = TP(1) = 1 + 0 · (x − 1) = 1. Diese Bildvektoren können wir nun mithilfe der Basisvektoren c1 = 1 und c2 = x von C darstellen, sodass wir hieraus die entsprechenden Koordinatenvektoren bezüglich C gewinnen:   −1 2x − 1 = −1 · c1 + 2 · c2 =⇒ cC (2x − 1) = 2   0 x = 0 · c1 + 1 · c2 =⇒ cC (x) = 1   1 1 = 1 · c1 + 0 · c2 =⇒ cC (1) = . 0 Diese Koordinatenvektoren bilden die Spalten der gesuchten Koordinatenmatrix von TP bezüglich B und C:   −1 0 1 B MC (TP) = cC (TP(B)) = . 2 10 Mit B0 = (x2 + x + 1, x2 + x, 1) und C0 = (1, x − 1) liegen zwei neue Basen vor. Um die Koordinatenmatrix bezüglich B0 und C0 aus der Koordinatenmatrix MCB (TP) zu bestimmen, ist eine Äquivalenztransformation gemäß Satz 4.17 aus [5] erforderlich. Hiernach gilt 0

0

MCB0 (TP) = MCC0 (idW ) · MCB (TP) · MBB (idV ) = cC0 (C) · MCB (TP)cB (B0 ).

(4.2)

104

4 Lineare Abbildungen und Bilinearformen

Mit den Übergangsmatrizen cC0 (C) = (cC0 (c1 ) | cC0 (c2 )) = (cC0 (1) | cC0 (x)) =

  11 01

und   100   cB (B0 ) = cB (b01 ) | cB (b02 ) | cB (b03 ) = cB (x2 + x + 1) | cB (x + 1) | cB (1) = 1 1 0 111 ergibt sich nach Einsetzen in (4.2)     100      0 11 −1 0 1  11 011 321 1 1 0 = MCB0 (TP) = = . 01 2 10 01 310 310 111 

c) Wir bestimmen nun das Taylor-Polynom erster Ordnung um 1 von (x − 1)2 mithilfe beider Koordinatenmatrizen. Da (x − 1)2 = x2 − 2x + 1 = 1b1 − 2b2 + b3 ist, wird an dieser Stelle einerseits ersichtlich, dass (x − 1)2 in V liegt, andererseits liefert diese Zerlegung auch den Koordinatenvektor von (x − 1)2 bezüglich B:   1 cB ((x − 2)2 ) = −2 . 1 Mit der Übergangsmatrix 

0

cB0 (B) = (cB (B ))

−1

 1 0 0 = −1 1 0 0 −1 1

folgt für den Koordinatenvektor von (x − 1)2 bezüglich der alternativen Basis B0      1 0 0 1 1 cB0 ((x − 2)2 ) = cB0 (B) · cB ((x − 1)2 ) = −1 1 0 −2 = −3 . 0 −1 1 1 3 Wir haben also für zwei unterschiedliche Basen B und B0 die entsprechenden Koordinatenvektoren von (x − 1)2 . Durch Linksmultiplikation mit den beiden Koordinatenmatrizen erhalten wir dann die jeweilige Darstellung von TP((x − 1)2 ) bezüglich C und C0 :     1   −1 0 1 0 2 B 2   −2 = cC (TP((x − 1) )) = MC (TP) · cB ((x − 1) ) = 2 10 0 1

4.1 Lineare Abbildungen

105

2

cC0 (TP((x − 1) )) =

0 MCB0 (TP) · cB0 ((x − 1)2 ) =







 1   321   0 −3 = . 310 0 3

Die Basisisomorphismen ergeben nun in beiden Fällen das gesuchte Taylor-Polynom, in diesem Fall also das Nullpolynom TP((x − 1)2 ) = 0. Grundsätzlich könnten wir auch mit der Übergangsmatrix cC0 (C) aus dem Koordinatenvektor von TP((x−1)2 ) bezüglich C den Koordinatenvektor dieses Polynoms bezüglich C0 bestimmen: cC0 (TP((x − 1)2 )) = cC0 (C)cC (TP((x − 1)2 )). 0

Es wäre hierzu also nicht erforderlich gewesen, MCB0 (TP) zu berechnen. d) Wir haben gesehen, dass sich mit TP((x − 1)2 ) = 0 das Nullpolynom in W ergibt. Damit ist das Polynom (x − 1)2 ∈ Kern TP, also ein nicht-triviales Polynom im Kern von TP. Der Kern von TP ist also mindestens eindimensional. Wir können die Kerndimension auch direkt bestimmen: dim Kern TP = dimW − dim Bild TP = 3 − Rang TP = 3 − Rang MCB (TP) = 3 − 2 = 1. Der Kern ist also eindimensional. Es bleibt daher nur Kern TP = h(x − 1)2 i. Alternativ könnte der Kern von TP auch über den Kern einer der beiden Koordinatenmatrizen bestimmt werden:       * 1 + −1 0 1 1 0 −1 Kern TP ∼ = Kern = −2 . = Kern MCB (TP) = Kern 2 10 01 2 1 Mithilfe des Basisisomorphismus ergibt sich der Kern von TP als Teilraum in V :

2 B Kern TP = c−1 B (Kern MC (TP)) = h1b1 − 2b2 + 1b3 i = x − 2x + 1 . e) Wir können allein durch Spaltenumformungen MCB (TP) in die Normalform überführen. Hierzu vertauschen wir die erste und die letzte Spalte und addieren daraufhin die erste Spalte auf die letzte Spalte und subtrahieren das Doppelte der zweiten Spalte von der letzten Spalte:       −1 0 1 1 0 −1 100 B MC (TP) = → → . 2 10 01 2 010 Dieselben Umformungen führen wir an der 3 × 3-Einheitsmatrix durch, um die Spaltenumformungsmatrix S zu erhalten:       100 001 00 1 0 1 0 → 0 1 0 → 0 1 −2 =: S. 001 100 10 1

106

4 Lineare Abbildungen und Bilinearformen

Da wir keine Zeilenumformungen durchgeführt haben, setzen wir Z := E2 und erhalten die Faktorisierung   100 B ZMC (TP)S = . 010 Wir identifizieren hierin die Übergangsmatrizen cC (C00 ) = Z −1 = E2 , woraus C = C00 folgt und cB (B00 ) = S. Die Matrix S enthält also die Koordinatenvektoren der Basisvektoren der gesuchten Basis B00 bezüglich B. Es gilt also für die neuen Basisvektoren aus B b001 = b3 = 1,

b002 = b2 = x,

b003 = 1 · b1 − 2 · b2 + 1b3 = x2 − 2x + 1 = (x − 1)2 .

Es ist nun sehr leicht zu erkennen, dass 00

MCB00 =



 100 010

gilt. Wenn, wie in diesem Beispiel, bereits Spaltenumformungen ausreichen, um eine gegebene Koordinatenmatrix in die Normalform zu überführen, so ist die Zeilenumformungsmatrix Z identisch mit der Einheitsmatrix. Es entfällt zudem deren Inversion. Die Basis C bleibt dann erhalten, lediglich B wird verändert. Aufgabe 4.4 Gegeben seien die beiden R-Vektorräume V = hx, x2 i,

W = hx2 , x3 i.

Betrachten Sie die lineare Abbildung I :V →W ϕ 7→ I(ϕ) =

Z x

ϕ(t) dt. 0

a) In welchem Verhältnis steht φ := I(ϕ) ∈ W zu ϕ ∈ V ? Bestimmen Sie die Koordinatenmatrix von I bezüglich der Basen B = (x, x(x + 1)) von V und C =  x3 , x2 von W . b) Berechnen Sie I((x − 1)2 − 1) mithilfe der unter a) berechneten Koordinatenmatrix. c) Welchen Rang besitzt I? d) Wie lautet der Kern von I sowie dessen Dimension? Ist I injektiv, surjektiv oder gar bijektiv? e) Bestimmen Sie weitere Basen B0 von V und C0 von W , sodass die hierzu gehörende Koordinatenmatrix von I in Normalform vorliegt, also einfachste Gestalt besitzt. Eine explizite ZAS-Zerlegung ist hierzu nicht erforderlich. Lösung Es sind V = hx, x2 i und W = hx2 , x3 i zweidimensionale R-Vektorräume. Die über ein Integral definierte Abbildung

4.1 Lineare Abbildungen

107

I :V →W ϕ 7→ I(ϕ) :=

Z x

ϕ(t) dt 0

ist linear. a) Für jedes ϕ ∈ V ist I(ϕ) die Stammfunktion von ϕ, für die I(ϕ)(0) = 0 gilt. Mit den Basen B = (x, x(x + 1)) = (x, x2 + x) von V und C = (x3 , x2 ) gilt Z x

I(b1 ) =

0

t dt = 12 x2 ,

Z x

I(b2 ) =

0

(t 2 + t) dt = 13 x3 + 12 x2 .

Die Koordinatenvektoren dieser Stammfunktionen lauten bezüglich der Basis C     1/3 0 cC (I(b1 )) = , cC (I(b2 )) = . 1/2 1/2 Damit ist MCB (I) =



 0 1/3 1/2 1/2

die Koordinatenmatrix von I bezüglich B und C. b) Es ist cB ((x − 1)2 − 1) = cB (x2 − 2x) = cB (x2 + x − 3x) =



−3 1



der Koordinatenvektor von (x − 1)2 − 1 bezüglich B. Es gilt dann für den Koordinatenvektor von I((x − 1)2 − 1) bezüglich C      1/3 −3 0 1/3 cC (I((x − 1)2 − 1)) = MCB (I) · cB ((x − 1)2 − 1) = 1 1 = , /2 /2 1 −1 woraus sich I((x − 1)2 − 1) = cC−1



1/3



−1

= 13 c1 − c2 = 13 x3 − x2

ergibt. c) Da MCB (I) regulär ist, gilt 2 = Rang MCB (I) = Rang I. d) Es gilt dim Kern I = dimV − Rang I = 2 − 2 = 0. Der Kern von I besteht also nur aus dem Nullvektor, also der Nullfunktion 0 ∈ V . Damit ist I injektiv. Da dimW = dimV < ∞ gilt, ist dies mit der Surjektivität und somit auch der Bijektivität von I gleichbedeutend. e) Da MCB (I) regulär, also invertierbar ist, liegt mit Z = (MCB (I))−1 die Zerlegung   10 B Z · MC (I) · E2 = 01

108

4 Lineare Abbildungen und Bilinearformen

vor. Wir identifizieren in dieser Äquivalenztransformation die Übergangsmatrizen cC0 (C) = Z und cB (B0 ) = E2 . Es reichen also Zeilenumformungen aus, um MCB (I) in die Normalform zu überführen. Damit wählen wir B0 = B, während für die Übergangsmatrix von C nach C0 gilt cC (C0 ) = Z −1 = MCB (I). Die Spalten von MCB (I) sind dann die Koordinatenvektoren der neuen Basis C0 bezüglich C. Wir erhalten also mit   0 0 −1 c1 = cC = 21 c2 = 12 x2 1/2   1/3 0 −1 c2 = cC = 13 c1 + 12 c2 = 13 x3 + 12 x2 1/2 die gesuchten Basisvektoren von C0 . Es handelt sich erwartungsgemäß um die Bildvektoren I(b1 ) und I(b2 ), sodass deren Darstellung als Linearkombinationen aus sich selbst heraus zur Einheitsmatrix führt. Aufgabe 4.4.1 Es seien V und W zwei endlich-dimensionale K-Vektorräume identischer Dimension und f : V → W ein Isomorphismus. Zudem sei B eine Basis von V und C eine Basis von W . Weisen Sie formal nach, dass MBC ( f −1 ) = (MCB ( f ))−1 gilt. Lösung Es sei n = dimV = dimW . Wir weisen nach, dass MBC ( f −1 ) · MCB ( f ) = En gilt, woraus die Behauptung folgt. Es ist MCB ( f ) = cC ( f (B)) = [cC ( f (b1 )) | · · · | cC ( f (bn ))]. Für k = 1, . . . , n gilt zudem eˆ k = cB (bk ) = cB ( f −1 ( f (bk ))) = MBC ( f −1 ) · cC ( f (bk )). Damit folgt für das Matrixprodukt MBC ( f −1 ) · MCB ( f ) = MBC ( f −1 ) · [cC ( f (b1 )) | · · · | cC ( f (bn ))] = [MBC ( f −1 )cC ( f (b1 )) | · · · | MBC ( f −1 )cC ( f (bn ))] = [ˆe1 | · · · | eˆ n ] = En .

4.2 Bilinearformen, quadratische Formen und hermitesche Formen

109

Aufgabe 4.5 Beweisen Sie Satz 4.21 aus [5]: Für zwei zueinander ähnliche Matrizen A, B ∈ M(n, K) mit B = S−1 AS gilt: Kern(Ak ) = S Kern(Bk ), Bild(Ak ) = S Bild(Bk ) für alle k ∈ N, hierbei ist die nullte Potenz als Einheitsmatrix definiert: A0 := En =: B0 . Lösung Es seien A, B ∈ M(n, K) mit B = S−1 AS, wobei S ∈ GL(n, K). Es gilt also A ≈ B. Zudem sei k ∈ N. Wir zeigen zunächst, dass Kern(Ak ) = S Kern(Bk ) gilt. Da der Kern einer Matrix invariant ist unter Linksmultiplikation mit regulären Matrizen, gilt nun x ∈ Kern(Ak ) = Kern(SBS−1 )k = Kern(SBk S−1 ) = Kern(Bk S−1 ) ⇐⇒ Bk S−1 x = 0 ⇐⇒ S−1 x ∈ Kern Bk ⇐⇒ x ∈ S Kern Bk . Das Bild einer Matrix ist dagegen invariant unter Rechtsmultiplikation mit regulären Matrizen. Daher gilt: y ∈ Bild(Ak ) = Bild(SBS−1 )k = Bild(SBk S−1 ) = Bild(SBk ) ⇐⇒ ∃ x ∈ Kn : SBk x = y ⇐⇒ ∃ x ∈ Kn : Bk x = S−1 y ⇐⇒ S−1 y ∈ Bild Bk ⇐⇒ y ∈ S Bild Bk . Bemerkung 4.2 Im Falle der Regularität von S gilt zwar S Bild(Bk ) = Bild(SBk ), allerdings ist im Allgemeinen S Kern(Bk ) 6= Kern(SBk ). Es gilt aber S Kern(Bk ) = Kern(Bk S−1 ) (vgl. hierzu auch Aufgabe 3.5).

4.2 Bilinearformen, quadratische Formen und hermitesche Formen

Aufgabe 4.6 Zum Sylvester’schen Trägheitssatz (vgl. Satz 4.41 aus [5]): Zeigen Sie: Gilt für eine symmetrische Matrix A ∈ M(n, R)     Ep 0 0 E p0 0 0  0 −Es 0  ' A '  0 −Es0 0  , 0 0 0q 0 0 0q so folgt p0 = p und damit s0 = s.

110

4 Lineare Abbildungen und Bilinearformen

Lösung Es seien



 Ep 0 0 M :=  0 −Es 0  , 0 0 0q



 E p0 0 0 M 0 :=  0 −Es0 0  . 0 0 0q

Wegen M ' A ' M 0 stellt M bzw. M 0 die durch A vermittelte Bilinearform βA bezüglich einer Basis B bzw. B0 von Rn dar. Ohne Beschränkung der Allgemeinheit gehen wir von p0 ≥ p aus. Die Matrizen M und M 0 unterscheiden sich aufgrund ihrer Kongruenz lediglich durch Multiplikation mit regulären Matrizen voneinander. Sie haben also identischen Rang. Es gilt daher p0 + s0 = Rang M 0 = Rang M = p + s. Ist also p0 ≥ p, so muss entsprechend s0 ≤ s gelten. Es gibt nun ein k ∈ N mit p0 = p + k. Wir betrachten nun die folgenden Teilräume des Rn : V+0 := c−1 e1 , . . . , eˆ p0 i), B0 (hˆ

V−,0 := c−1 e p+1 , . . . , eˆ n i). B (hˆ

Es gilt nun für alle v ∈ V+0 , da cB0 (v) ∈ hˆe1 , . . . , eˆ p0 i, βA (v, v) = cB0 (v)T M 0 cB0 (v) ≥ 0 und βA (v, v) = cB0 (v)T M 0 cB0 (v) = 0 ⇐⇒ v = 0, während für alle v ∈ V−,0 aufgrund cB (v) ∈ hˆe p+1 , . . . , eˆ n i die Ungleichung βA (v, v) = cB (v)T McB (v) ≤ 0 gilt. Es sei nun v ∈ V+0 ∩V−,0 . Für diesen Vektor muss also einerseits wegen v ∈ V+0 βA (v, v) ≥ 0 sowie βA (v, v) = 0 ⇐⇒ v = 0 und andererseits wegen v ∈ V−,0 βA (v, v) ≤ 0 gelten, woraus βA (v, v) = 0 und daher v = 0 folgt. Der Schnittraum V+0 ∩ V−,0 kann also nur nulldimensional sein. Andererseits gilt für diesen Schnittraum nach seiner Definition V+0 ∩V−,0 = hB0 eˆ 1 , . . . , B0 eˆ p0 i ∩ hBˆe p+1 , . . . , Bˆen i = hB0 eˆ 1 , . . . , B0 eˆ p+1 , . . . , B0 eˆ p+k i ∩ hBˆe p+1 , . . . , Bˆen i. Die Vektoren B0 eˆ 1 , . . . , B0 eˆ p0 sind als Basisvektoren linear unabhängig. Da nun der Schnittraum V+0 ∩V−,0 nur aus dem Nullvektor besteht, muss jeder weitere Basisvektor von V−,0 , also jeder Vektor aus der Basis (Bˆe p+1 , . . . , Bˆen ), zu allen Basisvektoren von V+0 linear unabhängig sein. Dies ergäbe dann ein Vektorsystem

4.2 Bilinearformen, quadratische Formen und hermitesche Formen

111

B0 eˆ 1 , . . . , B0 eˆ p , . . . , B0 eˆ p+k , Bˆe p+1 , . . . , Bˆen {z } | {z } | n − p Vektoren p0 Vektoren aus p0 + n − p = n + k linear unabhängigen Vektoren des Rn , was nur mit k = 0 möglich ist. Damit ist p0 = p + k = p. Da p0 + s0 = Rang M 0 = Rang M = p + s und p0 = p gilt, bleibt nur s0 = s. Aufgabe 4.7 Es sei B eine m × n-Matrix über R. Zeigen Sie, dass die Matrix BT B symmetrisch und positiv semidefinit und im Fall der Regularität von B sogar positiv definit ist. Lösung Für die m × n-Matrix B ist BT B eine n × n-Matrix mit (BT B)T = BT BT T = BT B. Daher ist BT B symmetrisch. Da B nur aus reellen Komponenten besteht, ist BT B sogar reell-symmetrisch. Wir betrachten für x ∈ Rn die von BT B vermittelte quadratische Form xT (BT B)x = (Bx)T (Bx) ≥ 0, daher ist BT B positiv semidefinit. Wenn B eine reguläre n × n-Matrix ist, kann für x 6= 0 das Produkt Bx ebenfalls nicht verschwinden, womit auch xT (BT B)x = (Bx)T (Bx) > 0 gilt. In diesem Fall ist BT B sogar positiv definit. Aufgabe 4.7.1 Aus welchem Grund ist für jede reelle m × n-Matrix A mit m ≥ n und Rang A = n die reell-symmetrische Matrix AT A positiv definit? Lösung Die positive Semidefinitheit von AT A folgt aus Aufgabe 4.7. Es ist Rang A = n und m ≥ n. Das lineare Gleichungssystem Ax = 0 ∈ Rm ist damit nur trivial lösbar. Für jeden Vektor x ∈ Rn , x 6= 0 ist Ax 6= 0, und es gilt xT (AT A)x = (Ax)T (Ax) 6= 0, was die positive Definitheit von AT A liefert. Aufgabe 4.7.2 Es sei K ein Körper mit char K 6= 2 und A ∈ M(n, K) eine quadratische Matrix, für die AT = −A gilt (schiefsymmetrische Matrix). Was folgt für die Diagonalkomponenten von A? Was ändert sich für die Diagonalkomponenten von A, falls A hermitesch bzw. schiefhermitesch, d.h. A∗ = −A ist?

112

4 Lineare Abbildungen und Bilinearformen

Lösung Ist A eine schiefsymmetrische Matrix, so gilt ai j = −a ji . Für jedes Diagonalelement folgt dann speziell aii = −aii . Das einzige Element aus dem Körper K mit dieser Eigenschaft ist das Nullelement, da char K 6= 2 ist. Somit bleibt nur aii = 0. Ist A hermitesch, so gilt definitionsgemäß A ∈ M(n, C) mit A∗ = A¯ T = A. Damit gilt ai j = a¯ ji . Für jedes Diagonalelement folgt speziell aii = a¯ii . Die einzigen komplexen Zahlen, die ihr eigenes Konjugiertes bilden, sind reelle Zahlen. Daher ist aii ∈ R. Ist A nun schiefsymmetrisch, so folgt ai j = −a¯ ji und somit insbesondere aii = −a¯ii . Diese Eigenschaft ist nur für imaginäre Zahlen oder für aii = 0 erfüllt. Die Diagonalkomponenten einer schiefsymmetrischen Matrix müssen also imaginär oder 0 sein. Aufgabe 4.8 Es sei A eine symmetrische n × n-Matrix über R und V ⊂ Rn ein Teilraum des Rn mit der Basis(matrix) B = (b1 | . . . |bm ). Zeigen Sie die Äquivalenz vT Av > 0 für alle v ∈ V \ {0} ⇐⇒ BT AB

positiv definit.

Lösung Für alle v ∈ V , v 6= 0 gelte vT Av > 0. Wir zeigen nun, dass dann die m × m-Matrix BT AB positiv definit ist. Es sei hierzu x ∈ Rm , x 6= 0 ein nicht-trivialer Vektor. Dann ist xT (BT AB)x = (Bx)T A(Bx) > 0,

da Bx ∈ V .

Also ist BT AB positiv definit. Es sei nun umgekehrt BT AB positiv definit und v ∈ Rn , v 6= 0 ein nicht-trivialer Vektor. Wir können v nun mithilfe der Basis B darstellen: Es gibt einen Vektor y ∈ Rm , sodass v = By ist. Nun gilt vT Av = (By)T A(By) = yT (BT AB)y > 0, da BT AB positiv definit ist. Aufgabe 4.9 Warum gilt für jede hermitesche Form β : V × V → C auf einem CVektorraum V die Eigenschaft β (v, v) ∈ R für alle v ∈ V ? Lösung Aufgrund der konjugierten Symmetrie β (v, w) = β (w, v) für alle v, w ∈ V folgt speziell für w = v β (v, v) = β (v, v), was äquivalent ist zu β (v, v) ∈ R.

4.3 Vertiefende Aufgaben

113

4.3 Vertiefende Aufgaben

Aufgabe 4.10 Es sei A ∈ M(n, R) eine symmetrische Matrix. Berechnen Sie den Gradienten und die Hesse-Matrix der quadratischen Form q : Rn → R x 7→ q(x) = xT · A · x. Lösung Wir schreiben die quadratische Form als Summe explizit aus: n

q(x) = xT · A · x =

n



i, j=1

n

ai j xi x j = ∑ ∑ ai j xi x j . i=1 j=1

Für k = 1, . . . , n ist dann die partielle Ableitung ∂q ∂ n n ∂ = ∑ ∑ ai j xi x j = ∂ xk ∂ xk ∂ xk i=1 j=1  =

∂ ∂ xk n

n

n

n

n



∑ ∑ ai j xi x j + ∂ xk ∑ ak j xk x j i=1 i6=k

j=1

j=1



n

 ∂ 

 n

∑  ∑ ai j xi x j + aik xi xk  + ∂ xk  ∑ ak j xk x j + akk xk2  

i=1 i6=k



j=1 j6=k



j=1 j6=k

n

= ∑ aik xi + ∑ ak j x j + 2akk xk i=1 i6=k

j=1 j6=k

n

n

= ∑ aik xi + ∑ aki xi + 2akk xk i=1 i6=k

i=1 i6=k

n

n

= ∑ aik xi + ∑ aik xi + 2akk xk , i=1 i6=k

n

da aik = aki

i=1 i6=k

n

= ∑ 2aik xi + 2akk xk = ∑ 2aik xi . i=1 i6=k

i=1

Als Zeilenvektor notiert ergibt sich der Gradient von q somit als ∇q = ∇xT Ax = 2xT A. Es ist nun unmittelbar klar, dass die Hesse-Matrix von q das Doppelte der Strukturmatrix von q ist: Hess q = ∇T ∇ xT Ax = 2A.

114

4 Lineare Abbildungen und Bilinearformen

Aufgabe 4.11 (Dimensionsformel für Vektorraumsummen) Zeigen Sie: Sind V1 und V2 Teilräume eines endlich-dimensionalen Vektorraums V , so gilt dim(V1 +V2 ) = dimV1 + dimV2 − dim(V1 ∩V2 ).

(4.3)

Hinweis: Betrachten Sie das direkte Produkt V1 × V2 (vgl. Aufgabe 1.15) und den Homomorphismus f : V1 × V2 → V1 + V2 definiert durch f (v1 , v2 ) := v1 + v2 sowie die Dimensionsformel für lineare Abbildungen. Lösung Offenbar ist f eine lineare Abbildung. Für den Kern gilt Kern f = {(x, −x) : x ∈ V1 ∩V2 }. Somit ist nach der Dimensionsformel für lineare Abbildungen dimV1 ∩V2 = dim Kern f = dim(V1 ×V2 ) − dim Bild f . Nach Aufgabe 3.16 ist dim(V1 × V2 ) = dimV1 + dimV2 . Des Weiteren ist dim Bild f = dim(V1 +V2 ), da f offensichtlich surjektiv ist. Es folgt dim(V1 ∩V2 ) = dimV1 + dimV2 − dim(V1 +V2 ), woraus sich (4.3) ergibt. Aufgabe 4.12 Es seien V1 und V2 endlich-dimensionale Teilräume eines gemeinsamen Vektorraums. Zeigen Sie dim(V1 ⊕V2 ) = dimV1 + dimV2 .

(4.4)

Lösung Nach Aufgabe 4.11 gilt für die Dimension des Summenraums dim(V1 ⊕V2 ) = dim(V1 +V2 ) = dimV1 + dimV2 − dim(V1 ∩V2 ). Da es sich um eine direkte Summe handelt, ist V1 ∩V2 = {0} und daher dim(V1 ∩V2 ) = 0, sodass die Behauptung folgt. Aufgabe 4.13 Zeigen Sie: Jeder Vektorraumhomomorphismus f ∈ Hom(V → W ) ist durch die Bilder einer Basis von V eindeutig bestimmt. Lösung Es sei f ∈ Hom(V → W ) eine lineare Abbildung von einem K-Vektorraum V in einen K-Vektorraum W . Zudem sei B ⊂ V eine Basis von V . Es sei nun f 0 ∈ Hom(V → W ) eine zweite lineare Abbildung mit denselben Basisbildern f 0 (b) = f (b) für alle b ∈ B. Wir

4.3 Vertiefende Aufgaben

115

zeigen, dass f 0 (v) = f (v) für alle v ∈ V gilt, woraus sich f 0 = f ergibt. Es sei nun v ∈ V . Da B eine Basis von V ist, ist mit endlich vielen, eindeutig bestimmten λ1 , . . . , λk ∈ K die Darstellung von v = λ1 b1 + · · · + λk bk als Linearkombination aus Vektoren b1 , . . . , bk ∈ B möglich. Nun gilt f 0 (v) = f 0 (λ1 b1 + · · · + λn bk ) = λ1 f 0 (b1 ) + · · · + λk f 0 (bk ) = λ1 f (b1 ) + · · · + λn f (bk ) = f (λ1 b1 + · · · + λk bk ) = f (v). Damit sind beide Homomorphismen identisch. Aufgabe 4.14 (Prägen einer linearen Abbildung) Es sei V ein endlich-dimensionaler K-Vektorraum und W ein weiterer, nicht notwendig endlich-dimensionaler Vektorraum über K sowie B = (b1 , . . . , bn ) eine Basis von V . Zudem seien w1 , . . . , wn ∈ W beliebige Vektoren aus W . Zeigen Sie, dass es dann eine eindeutig bestimmte lineare Abbildung f ∈ Hom(V → W ) gibt, mit f (bi ) = wi für alle i ∈ {1, . . . , n}. Warum ist die Basiseigenschaft von B hierbei wichtig? Warum reicht es nicht aus, wenn B lediglich ein Erzeugendensystem von V ist? Lösung Jeder Vektor v ∈ V besitzt eine eindeutige Darstellung v = λ1 b1 + · · · + λn bn als Linearkombination von Vektoren aus B mit endlich vielen λ1 , . . . , λn ∈ K. Wir definieren nun durch diese eindeutig bestimmten Skalare eine Abbildung f : V → W durch f (v) = f (λ1 b1 + · · · + λn bn ) := λ1 f (b1 ) + · · · + λn f (bn ) = λ1 w1 + · · · + λn wbn . (4.5) Diese Abbildung ist linear, denn für zwei Linearkombinationen λ1 b1 + · · · + λn bn und µ1 b1 + · · · + µn bn ist zunächst das Bild ihrer Summe, f ((λ1 b1 + · · · + λn bn ) + (µ1 b1 + · · · + µn bn )) = f ((λ1 + µ1 )b1 + · · · + (λn + µn )b1 ) Def.

= (λ1 + µ1 ) f (b1 ) + · · · + (λn + µn ) f (bn ) = λ1 f (b1 ) + · · · + λn f (bn ) + µ1 f (b1 ) + · · · + µn f (bn )

Def.

= f (λ1 b1 + · · · + λn bn ) + f (µ1 b1 + · · · + µn bn ),

die Summe ihrer Bilder. Außerdem ist jeder Skalar α ∈ K aus der Abbildung extrahierbar, denn es gilt

116

4 Lineare Abbildungen und Bilinearformen

f (α(λ1 b1 + · · · + λn bn )) = f (αλ1 b1 + · · · + αλn bn ) Def.

= αλ1 f (b1 ) + · · · + αλn f (bn ) = α · (λ1 f (b1 ) + · · · + λn f (bn ))

Def.

= α · f (λ1 b1 + · · · + λn bn ).

Zudem bildet f jeden Basisvektor bi ∈ B auf seinen zugewiesenen Bildvektor f (bi ) = wi ab. Nach Aufgabe 4.13 ist f eindeutig bestimmt. Es ist hierbei wichtig, dass die obige Darstellung von v als Linearkombination von Vektoren aus B eindeutig ist. Denn nur so ist die auf diese Weise geprägte lineare Abbildung wohldefiniert. Die Basiseigenschaft von B garantiert dies. Wäre B nur ein Erzeugendensystem, so könnte es eine weitere Darstellung von v geben, also v = λ10 b1 + · · · + λn0 bn . Dann wäre aber nicht klar, auf welcher Darstellung die Konstruktion von f (v) gemäß (4.5) beruhen soll, denn wir können nicht erwarten, dass λ1 w1 + · · · + λn wn = λ10 w1 + · · · + λn0 wn garantiert ist. Aufgabe 4.15 (Universelle Eigenschaft einer Basis) Warum können wir die Aussage aus Aufgabe 4.14 auch wie folgt formulieren? Es sei V ein endlich-dimensionaler K-Vektorraum und W ein weiterer Vektorraum über K sowie B = (b1 , . . . , bn ) eine Basis von V . Für die Indexmenge I := {1, . . . , n} bezeichne p : I → V, i 7→ bi die Zuordnung des Index zum entsprechenden Basisvektor. Dann gibt es zu jeder Abbildung q : I → W genau einen Homomorphismus f : V → W mit q = f ◦ p. q I

W

p ∃! f : q = f ◦ p V Für die lineare Abbildung f gilt also q(i) = f (p(i)) für alle i = 1, . . . , n. Lösung Die Abbildung p ordnet jedem i ∈ I den zugehörigen Basisvektor p(i) = bi zu, während die Abbildung q jedem i ∈ I einen Vektor wi := q(i) ∈ W zuordnet. Wir können nun nach der Aussage von Aufgabe 4.14 eine eindeutig bestimmte lineare Abbildung f : V → W durch f (bi ) := wi für alle i ∈ I prägen. Es gilt also q(i) = wi = f (bi ) = f (p(i)) = ( f ◦ p)(i) für alle i ∈ I.

4.3 Vertiefende Aufgaben

117

Aufgabe 4.16 Es gelten die Bezeichnungen und Voraussetzungen wie in Aufgabe 4.14. Zudem seien w1 , . . . wn linear unabhängig. Zeigen Sie, dass die lineare Abbildung f : V → Bild f dann ein Isomorphismus ist. Lösung Da nun w1 , . . . wn linear unabhängig sind, bilden sie eine Basis des Teilraums Bild f ⊂ W . Es ist dann V ∼ = Bild f , da beide Vektorräume mit dimV = n = dim Bild f dimensionsgleich sind. Bei f handelt es sich um einen surjektiven Homomorphismus, der aufgrund dim Kern f = dimV − dim Bild f = n − n = 0 auch injektiv und damit bijektiv ist. Damit ist f ein Isomorphismus. Aufgabe 4.16.1 Es seien V und W zwei endlich-dimensionale K-Vektorräume identischer Dimension und f ∈ Hom(V → W ). Begründen Sie: f ist ein Isomorphismus von V nach W ⇐⇒ f bildet jede Basis von V auf eine Basis von W ab. Lösung Die Aussage folgt im Grunde direkt aus der Isomorphie V ∼ = W . Dennoch zeigen wir beide Implikationen. Dazu seien n = dimV = dimW und B = (b1 , . . . , bn ) Basis von V und C = (c1 , . . . , cn ) Basis von W . Ist f ein Isomorphismus, so sind mit der linearen Unabhängigkeit der Basisvektoren b1 , . . . , bn auch die Bildvektoren f (b1 ), . . . , f (bn ) linear unabhängig und bilden aufgrund dimW = dimV = n eine Basis von W . Es sei nun f eine lineare Abbildung von V nach W , die jede Basis von V auf eine Basis von W abbildet. Die Bildvektoren f (b1 ), . . . , f (bn ) sind dann insbesondere linear unabhängig. Dann ist nach Aufgabe 4.16 f ein Isomorphismus von V nach Bild f . Da dim Bild f = n = dimW und Bild f ⊂ W ist, gilt Bild f = W . Damit ist f ein Isomorphismus von V nach W . Aufgabe 4.17 Es seien V und W endlich-dimensionale K-Vektorräume mit dimV > dimW . Warum kann es keinen injektiven Homomorphismus f : V → W und keinen surjektiven Homomorphismus g : W → V geben? Lösung Für f ∈ Hom(V → W ) gilt nach der Dimensionsformel dim Kern f = dimV − dim Bild f ≥ dimV − dimW > 0. Insbesondere ist Kern f 6= {0}. Daher kann f nicht injektiv sein. Für g ∈ Hom(W → V ) ist dim Bild g = dimW − dim Kern g < dimV − dim Kern g ≤ dimV.

118

4 Lineare Abbildungen und Bilinearformen

Es gilt also Bild g ( V , sodass g nicht surjektiv sein kann. Aufgabe 4.18 (Homomorphismenraum) Zeigen Sie, dass für zwei K-Vektorräume V und W die Menge Hom(V → W ) aller linearen Abbildungen von V nach W im Hinblick auf die Verknüpfungen f +g

definiert durch ( f + g)(v) := f (v) + g(v),

λ·f

definiert durch (λ · f )(v) := λ · f (v),

v∈V

a ∈ K, v ∈ V

(4.6) (4.7)

einen K-Vektorraum darstellt. In welchem Verhältnis steht Hom(V → W ) zur Menge W V := {ϕ : V → W } aller Abbildungen von V nach W , wenn wir für jedes ϕ ∈ W V in analoger Weise durch (4.6) und (4.7) zwei Verknüpfungen definieren? Geben Sie hierfür ein einfaches Beispiel mit Hom(V → W ) ( W V an. Lösung Es seien f , g, h ∈ Hom(V → W ) und a, b ∈ K. Wir zeigen nun, dass die Vektorraumaxiome gelten. (i) Es ist für alle v ∈ V aufgrund der Vektorraumeigenschaften in W (4.6)

( f + (g + h))(v) = f (v) + (g(v) + h(v)) | {z } ∈W

(4.6)

= ( f (v) + g(v)) + h(v) = (( f + g) + h)(v). Somit gilt f + (g + h) = ( f + g) + h. (ii) Ähnlich zeigen wir f + g = g + f . (iii) Die Nullabbildung n : V → W mit n(v) := 0 ∈ W für alle v ∈ V ist trivialerweise linear, gehört also zu Hom(V → W ). Sie verhält sich additiv neutral: (4.6)

( f + n)(v) = f (v) + n(v) = f (v) + 0 = f (v) für alle v ∈ V . Damit ist f + n = f . (iv) Die für f ∈ Hom(V → W ) durch (− f )(v) := − f (v), | {z }

v∈V

∈W

definierte lineare Abbildung − f ∈ Hom(V → W ) besitzt die Eigenschaft (4.6)

( f + − f )(v) = f (v) + − f (v) = 0 = n(v) | {z } ∈W

für alle v ∈ V . Damit ist f + − f = n.

4.3 Vertiefende Aufgaben

119

(v) Es gilt für alle v ∈ V (4.7)

(4.7)

(ab · f )(v) = (ab) f (v) = a(b f (v)) = (a · (b · f ))(v). | {z } ∈W

Aus diesem Grund ist ab · f = a · (b · f ). (vi) Für alle v ∈ V gilt mit dem Einselement 1 ∈ K (4.7)

(1 · f )(v) = 1 f (v) = f (v), | {z } ∈W

woraus sich 1 · f = f ergibt. (vii) Für alle v ∈ V gilt (4.7)

(4.6)

(a · ( f + g))(v) = a( f + g)(v) = a( f (v) + g(v)) = a f (v) + ag(v) | {z } ∈W

(4.7)

(4.6)

= (a · f )(v) + (a · g)(v) = (a · f + a · g)(v).

Hieran erkennen wir a · ( f + g) = a · f + a · g. (viii) Schließlich ist (4.7)

((a + b) · f )(v) = (a + b) f (v) = a f (v) + b f (v) | {z } ∈W

(4.7)

(4.6)

= (a · f )(v) + (b · f )(v) = (a · f + b · f )(v).

Es ist damit (a + b) · f = a · f + b · f . Wir haben damit alle Axiome eines K-Vektorraums für Hom(V → W ) nachgewiesen. Wir können uns nun fragen, an welcher Stelle in diesem Nachweis eigentlich die Vektorraumforderung für V eingeht. Es ist in der Tat nicht erforderlich, dass es sich bei V um einen Vektorraum handeln muss. Allerdings besteht die Menge Hom(V → W ), um die es hierbei geht, aus linearen Abbildungen, daher muss sinnvollerweise V ein Vektorraum sein. Die Linearität der Abbildungen von V nach W ist aber nicht nötig für die obigen Rechnungen. Betrachten wir die Menge W V aller Abbildungen vom K-Vektorraum V in den K-Vektorraum W , so ergibt sich in analoger Weise, dass W V ein K-Vektorraum ist, der zudem Hom(V → W ) als Teilraum enthält. Beispielsweise kann für die reellen Vektorräume V = R und W = R2 die Menge der Nullpunktgeraden     at Hom(R → R2 ) = R 3 t 7→ ∈ R2 : a, b ∈ R bt als Teilraum des reellen Vektorraums (R2 )R aller Funktionen der Art f : R → R2 betrachtet werden.

120

4 Lineare Abbildungen und Bilinearformen

Selbst wenn wir nun auch noch die Vektorraumeigenschaft der Menge V nicht mehr voraussetzen, erweist sich die Menge W V aller Abbildungen von der Menge V in den K-Vektorraum W mit den Verknüpfungen gemäß (4.6) und (4.7) analog den obigen Überlegungen ebenfalls als K-Vektorraum. Spezielle Vektorräume dieser Art hatten wir bereits an früherer Stelle untersucht. Mit W = K ist für eine beliebige Menge A die Menge KA mit den Verknüpfungen gemäß (4.6) und (4.7) ein K-Vektorraum. Dieser Raum enthält dann die Menge aller Abbildungen mit endlichem Träger K(A) als Teilraum. Aufgabe 4.19 Zeigen Sie: Sind V und W endlich-dimensionale K-Vektorräume, so ist Hom(V → W ) ∼ = M(m × n, K). Geben Sie einen Isomorphismus Hom(V → W ) → M(m × n, K) an. Lösung Es seien B und C Basen von V bzw. W . Aufgrund der Definition der Addition (4.6) und der skalaren Multiplikation (4.7) im K-Vektorraum Hom(V → W ) ist die Abbildung MCB : Hom(V → W ) → M(m × n, K) f 7→ MCB ( f ) = cC ( f (B)) linear. Denn für f , g ∈ Hom(V → W ) und λ , µ ∈ K ist aufgrund der Linearität der Koordinatenabbildung MCB (λ f + µg) = cC ((λ f + µg)(B))  = cC ((λ f + µg)(b1 )) · · · cC ((λ f + µg)(bn ))  = cC (λ f (b1 ) + µg(b1 )) · · · cC (λ f (bn ) + µg(bn ))  = λ cC ( f (b1 )) + µcC (g(b1 )) · · · λ cC ( f (bn )) + µcC (g(bn ))   = λ cC ( f (b1 )) · · · cC ( f (bn )) + µ cC (g(b1 )) · · · cC (g(bn )) = λ cC ( f (B)) + µcC (g(B)) = λ MCB ( f ) + µMCB (g). Gilt für f ∈ Hom(V → W ) die Zuordnung MCB ( f ) = 0m×n , so kann f nur die Nullabbildung sein. Die Zuordnung MCB (·) ist damit injektiv. Jede Matrix A ∈ M(m × n, K) vermittelt eine lineare Abbildung fA ∈ Hom(V → W ) durch fA (v) := cC−1 (AcB (v)). Die Koordinatenmatrix von fA ist gerade A, denn es ist MCB ( fA ) = cC ( fA (B)) = cC (cC−1 (A cB (B))) = A. | {z } =En

Damit ist die Zuordnung MCB (·) auch surjektiv. Bei MCB (·) handelt es sich also um einen Isomorphismus.

4.3 Vertiefende Aufgaben

121

Aufgabe 4.20 Zeigen Sie: Sind V und W endlich-dimensionale K-Vektorräume, so ist Hom(V → W ) ebenfalls endlich-dimensional, und es gilt dim Hom(V → W ) = (dimV )(dimW ). Lösung Die Menge M(m × n, K) der m × n-Matritzen ist hinsichtlich der komponentenweisen Addition und skalaren Multiplikation ein K-Vektorraum. Eine Basis dieses Raums sind die mn Matrizen der Form 0 · · · 0 · · · 0 .. ..   ... . .   ← i-te Zeile, 0 · · · 1 · · · 0 Ti j :=  i = 1, . . . , m, j = 1, . . . , n,   .. ..   .. . . . 0 ··· 0 ··· 0 ↑ j-te Spalte die nur in Zeile i und Spalte j eine 1 besitzen und sonst nur aus Nullen bestehen. Daher ist dim M(m × n, K) = n · m. Nach Aufgabe 4.19 ist Hom(V → W ) ∼ = M(m × n, K). Daher sind die Dimensionen beider Räume identisch. Es ist also dim Hom(V → W ) = dim M(m × n, K) = n · m = (dimV )(dimW ).

Aufgabe 4.21 Es seien V und W zwei K-Vektorräume endlicher Dimension mit den Basen B = (b1 , . . . , bn ) von V und C = (c1 , . . . , cm ) von W . Zeigen Sie, dass die mn Homomorphismen fi j ∈ Hom(V → W ) geprägt durch  ci , l = j fi j (bl ) := , j = 1, . . . , n, i = 1, . . . , m 0, l 6= j eine Basis von Hom(V → W ) bilden. Lösung Es ist Hom(V → W ) ∼ = M(m × n, K). Für jedes j ∈ {1, . . . , n} und jedes i ∈ {1, . . . , m} ist die Koordinatenmatrix des Homomorphismus fi j bezüglich der Basen B und C eine m × n-Matrix. Wir berechnen nun deren Gestalt nach der üblichen Methode und beachten dabei, dass cC (ci ) = eˆ i , also der i-te kanonische Einheitsvektor des Km ist. Für die Koordinatenmatrix ergibt sich also MCB ( fi j ) = cC ( fi j (B))  = cC ( fi j (b1 )) | · · · | cC ( fi j (b j )) | · · · | cC ( fi j (bn )) | {z } | {z } | {z } 0

ci

0

122

4 Lineare Abbildungen und Bilinearformen

0  ...  = 0  .. . 0

···

0 ··· .. . ··· 1 ··· .. . ··· 0 ··· ↑ j-te Spalte

0 ..  . 0  ← i-te Zeile ..  . 0

=: Ti j . Diese mn Matrizen bilden eine Basis des Matrizenraums M(m × n, K), der isomorph ist zu Hom(V → W ). Die Abbildung MCB : Hom(V → W ) → M(m × n, K) ist ein Isomorphismus (vgl. Aufgabe 4.19), ebenso ihre Umkehrabbildung, mit der die Basis (Ti j : j = 1, . . . , n, i = 1, . . . , m) auf die Basis ( fi j : j = 1, . . . , n, i = 1, . . . , m) abgebildet wird. Bemerkung 4.3 Ist h ∈ Hom(V → W ) ein Homomorphismus, B = (b1 , . . . , bn ) eine Basis des Raums V und C = (c1 , . . . , cm ) eine Basis des Raums W , so kann h auf folgende Weise aus der Basis ( fi j : j = 1, . . . , n, i = 1, . . . , m) von Hom(V → W ) linear kombiniert werden: m

n

h = ∑ ∑ cC (h(b j ))i · fi j . i=1 j=1

Hierbei ist cC (h(b j ))i die Komponente in Zeile i und Spalte j der Koordinatenmatrix MCB (h) von h. Durch Einsetzen des Basisvektors bk in die Linearkombination auf der rechten Seite der obigen Gleichung können wir dies leicht bestätigen:   m

n

m

n

(bk ) +cC (h(bk ))i · fik (bk ) ∑ ∑ cC (h(b j ))i · fi j (bk ) = ∑  ∑ cC (h(b j ))i · |fi j{z | {z } } 

i=1 j=1

i=1



j=1 j6=k

=0

=ci

m

= ∑ cC (h(bk ))i · ci = h(bk ). i=1

Für jeden Basisvektor bk , k = 1, . . . , n stimmt die obige Linearkombination der fi j mit dem Bildvektor h(bk ) überein. Aufgrund der universellen Eigenschaft der Basis (vgl. Aufgaben 4.13 und 4.15) ist dann die obige Linearkombination bereits h.

Aufgabe 4.22 (Dualbasis) Es sei V ein K-Vektorraum endlicher Dimension und B = (b1 , . . . , bn ) eine Basis von V . Bestimmen Sie eine Basis seines Dualraums V ∗ = Hom(V → K). Lösung Wir fassen den Körper K als eindimensionalen K-Vektorraum mit Basis {1} auf. Nach Aufgabe 4.21 sind die n · 1 Linearformen f j geprägt durch

4.3 Vertiefende Aufgaben

123

 f j (bl ) :=

1, l = j , 0, l 6= j

j = 1, . . . , n

eine Basis des Dualraums V ∗ = Hom(V → K). Wir bezeichnen diese Basis als die zu B duale Basis oder kurz Dualbasis, für deren Vektoren auch die Schreibweise b∗j := f j , j = 1, . . . , n verwendet wird. Aufgabe 4.22.1 Es sei V = hsin(t), cos(t)i der von den Basisvektoren b1 = sin(t) und b2 = cos(t) aufgespannte R-Vektorraum. Zeigen Sie, dass die Linearformen b∗1 und b∗2 , definiert durch b∗1 (ϕ) :=

2 π

Z π

b∗2 (ϕ) :=

sin(τ) ϕ(τ) dτ, 0

2 π

Z π

cos(τ) ϕ(τ) dτ 0

(ϕ ∈ V ), die zu B = (b1 , b2 ) duale Basis des Dualraums V ∗ darstellen. Stellen Sie die Linearform L ∈ V ∗ definiert durch die Auswertung der Ableitung bei t = π/3, ˙ π/3), ϕ 7→ L(ϕ) := ϕ(

(ϕ ∈ V ),

als Linearkombination der dualen Basis b∗1 und b∗2 dar. Lösung Die Linearität beider Abbildungen folgt aus der Linearität des Integrals. Zudem gilt b∗1 (b1 ) =

2 π

b∗1 (b2 ) =

2 π

b∗2 (b1 ) =

2 π

b∗2 (b2 ) =

2 π

Z π 0

sin(τ) b1 (τ) dτ =

2 π

sin(τ) b2 (τ) dτ =

2 π

Z π 0 Z π 0

cos(τ) b1 (τ) dτ =

2 π

cos(τ) b2 (τ) dτ =

2 π

Z π 0

Z π

sin(τ) sin(τ) dτ =

2 π

· π2 = 1,

sin(τ) cos(τ) dτ =

2 π

· 0 = 0,

cos(τ) sin(τ) dτ =

2 π

· 0 = 0,

cos(τ) cos(τ) dτ =

2 π

· π2 = 1,

0

Z π 0

Z π 0

Z π 0

was der prägenden Eigenschaft b∗i (b j ) = δi j für die Dualbasis entspricht. Alternativ können wir diese Dualbasis auch kürzer durch die beiden Auswertungsformen b∗1 (ϕ) = ϕ(π/2),

b∗2 (ϕ) = −ϕ(π),

(ϕ ∈ V )

kürzer darstellen, für die ebenfalls b∗i (b j ) = δi j gilt. Die Koordinatenmatrix von L bezüglich der Basis B von V und 1 von R ist √

M1B (L) = (L(b1 ), L(b2 )) = (L(sin), L(cos)) = (cos(π/3), − sin(π/3)) = (1/2, − 3/2). Nach Bemerkung 4.3 können wir L nun aus b∗1 und b∗2 durch L = 1/2 · b∗1 −

√ 3/2 · b∗ 2

124

4 Lineare Abbildungen und Bilinearformen

mit diesen Koordinaten linear kombinieren. Aufgabe 4.22.2 Es sei B = (s1 , . . . , sn ) eine Basis aus Spaltenvektoren von V = Kn . Wie lautet die zugeordnete Dualbasis des Dualraums V ∗ ? Lösung Zunächst ist B = (s1 | . . . | sn ) ∈ GL(n, K) eine reguläre Matrix. Es gilt mit den Zeilen zT1 , . . . , zTn von B−1  T z1  ..  −1 En = B B =  .  (s1 | . . . | sn ) = (zTi s j )1≤i, j≤n . zTn

Für die durch zTi repräsentierte Linearform l∗i gilt dann l∗i (b j ) = zTi b j = δi j ,

1 ≤ i, j ≤ n.

Die durch die Zeilenvektoren zT1 , . . . , zTn repräsentierten Linearformen l∗1 , . . . , l∗n bilden somit die zugeordnete Dualbasis von B. Aufgabe 4.23 (Universelle Eigenschaft des Quotientenraums) Es sei V ein KVektorraum und T ⊂ V ein Teilraum von V . Zeigen Sie, dass der Quotientenvektorraum V /T folgende universelle Eigenschaft besitzt: Für jeden K-Vektorraum W und jeden Homomorphismus f ∈ Hom(V → W ) mit T ⊂ Kern f gibt es genau eine lineare Abbildung f ∈ Hom(V /T → W ) mit f = f ◦ ρ. f V

W

ρ ∃! f : f = f ◦ ρ V /T Hierbei bezeichnet ρ die kanonische Projektion von V auf V /T . Lösung Die gesuchte Abbildung f : V /T → W muss für jedes v ∈ V Folgendes leisten: !

f (v) = ( f ◦ ρ)(v) = f (ρ(v)) = f (v + T ). Der von f auf V /T induzierte Homomorphismus f : V /T → W , definiert durch f (v+T ) = f (v), ist wegen Kern f ⊃ T wohldefiniert und leistet die geforderte Eigenschaft. Die Eindeutigkeit von f folgt aus der Surjektivität von ρ. Da Bild ρ = V /T ist, gibt es keine Elemente von V /T , die nicht im Bild von ρ liegen, sodass sich keine weitere lineare

4.3 Vertiefende Aufgaben

125

Abbildung konstruieren lässt, die eingeschränkt auf Bild ρ mit f übereinstimmt, sich aber auf (V /T ) \ Bild ρ von f unterscheidet. Aufgabe 4.24 Es sei V ein K-Vektorraum und T ⊂ V ein Teilraum von V . Zeigen Sie, dass auch eine Umkehrung der Aussage von Aufgabe 4.23 gilt: Sei Q ein K-Vektorraum und p ∈ Hom(V → Q) eine lineare Abbildung mit T ⊂ Kern p und folgender Eigenschaft: Für jeden K-Vektorraum W und jeden Homomorphismus f : V → W mit T ⊂ Kern f gibt es genau einen Homomorphismus ϕ : Q → W mit f = ϕ ◦ p. Das folgende Diagramm veranschaulicht diese Eigenschaft. f V W p ∃! ϕ: f = ϕ ◦ p Q

(4.8)

Dann ist Q isomorph zum Quotientenraum V /T . Lösung Es sei also Q ein K-Vektorraum und p : V → Q ein Homomorphismus mit T ⊂ Kern p. Nach Aufgabe 4.23 gilt für den Quotientenraum V /T mit der kanonischen Projektion ρ : V → V /T speziell für W := Q: Es gibt genau einen Homomorphismus, nämlich den von p induzierten Homomorphismus p : V /T → Q mit p = p ◦ ρ. Das folgende Diagramm zeigt diese Situation. p

V

W := Q

ρ ∃! p: p = p ◦ ρ V /T Nun wenden wir die für Q und p vorausgesetzte Eigenschaft (4.8) auf W := V /T und f := ρ an. Demnach gibt es eine eindeutige Abbildung ϕ : Q → V /T mit ρ = ϕ ◦ p. ρ

V

W := V /T

p ∃! ϕ: ρ = ϕ ◦ p Q Wir ziehen ein kurzes Zwischenfazit. Es gilt (ϕ ◦ p) ◦ ρ = ϕ ◦ (p ◦ ρ ) = ϕ ◦ p = ρ = idV /T ◦ρ |{z} =p

126

4 Lineare Abbildungen und Bilinearformen

(p ◦ ϕ) ◦ p = p ◦ (ϕ ◦ p) = p ◦ ρ = p = idQ ◦p. | {z } =ρ

Wir zeigen nun, dass wir jeweils auf beiden Seiten ◦ρ bzw. ◦p weglassen können, sodass ϕ ◦ p = idV /T ,

p ◦ ϕ = idQ

folgt. Dies liegt aber an der Eindeutigkeitsaussage für die induzierte Abbildung gemäß Aufgabe 4.23 und der Eindeutigkeitseigenschaft innerhalb (4.8). Denn wenn wir einerseits in der universellen Eigenschaft von V /T gemäß Aufgabe 4.23 speziell W := V /T und f := ρ : V → V /T wählen, V

ρ

W := V /T

ρ ∃! ρ: ρ = ρ ◦ ρ V /T so gibt es genau einen Homomorphismus ρ mit ρ = ρ ◦ ρ. Nach unserem Zwischenfazit ist (ϕ ◦ p) ◦ ρ = idV /T ◦ρ = ρ = ρ ◦ ρ, sodass wegen der Eindeutigkeit von ρ nur ρ = ϕ ◦ p = idV /T sein kann. Ebenso können wir in der Eigenschaft (4.8) nun speziell W := Q und f := p wählen: V

p

W := Q

p ∃! Φ: p = Φ ◦ p Q Es gibt also genau einen Homomorphismus Φ : Q → Q mit p = Φ ◦ p. Nach unserem zweiten Zwischenfazit ist (p ◦ ϕ) ◦ p = idQ ◦p = p = Φ ◦ p. Wegen der Eindeutigkeit von Φ bleibt nur p ◦ ϕ = idQ . Damit ist ϕ : Q → V /T ein Isomorphismus und p : V /T → Q der zu ϕ inverse Isomorphismus. Beide Räume sind damit isomorph Q ∼ = V /T . Bemerkung 4.4 Der Quotientenraum V /T erfüllt einerseits die universelle Eigenschaft, andererseits zeigt die vorangegangene Aufgabe, dass ein Raum Q zusammen mit einer linearen Abbildung p : V → Q mit T ⊂ Kern p, der die universelle Eigenschaft erfüllt, isomorph ist zu V /T . Wir erkennen also, dass die universelle Eigenschaft prägend für den Quotientenraum ist. Wir können daher bis auf Isomorphie den Quotientenraum auch über das Erfülltsein der universellen Eigenschaft definieren. Diese Definition beinhaltet dabei nicht die konkrete Konstruktion des Quotientenraums V /T , dennoch ist das Wesentliche über den Quotientenraum durch die universelle Eigenschaft ausgedrückt.

Kapitel 5

Produkte in Vektorräumen

5.1 Produkte im R3

Aufgabe 5.1 Gegeben seien die folgenden drei räumlichen Vektoren √      −1 2 1 √ a =  2 , b =  √1  , c =  2 . 0 2 2 a) Welchen Winkel schließen die Vektoren a und b ein? b) Welchen Winkel schließen die Vektoren b und c ein? c) Konstruieren Sie einen Vektor in der x-y-Ebene, der um 45◦ im positiven Sinne vom Vektor c verdreht ist. Lösung a) Winkel ^(a, b): ^(a, b) = arccos

aT b . kakkbk

Es ist √ √ √ √ aT b = − 2 + 2 + 2 2 = 2 2, √ √ √ kak = 2 + 2 + 4 = 8 = 2 2, q √ kbk = (−1)2 + 1 + 2 = 4 = 2. Damit gilt also

√ aT b 2 2 1 cos ^(a, b) = = √ = , kakkbk 2 2 · 2 2

woraus folgt © Springer-Verlag GmbH Deutschland, ein Teil von Springer Nature 2019 L. Göllmann und C. Henig, Arbeitsbuch zur linearen Algebra, https://doi.org/10.1007/978-3-662-58766-9_5

127

128

5 Produkte in Vektorräumen

^(a, b) =

π = 60◦ . 3

b) Winkel ^(b, c): ^(b, c) = arccos

bT c . kbkkck

Es ist bT c = −1 + 2 = 1, q √ kbk = (−1)2 + 1 + 2 = 4 = 2 √ kck = 5.

(s. o.),

Damit gilt also bT c kbkkck 1 = arccos √ ≈ 77.07903◦ ≈ 77◦ 40 4500 . 2 5

^(b, c) = arccos

c) Die Drehmatrix um die z-Achse um den Winkel ϕ = 

Deˆ 3 ,π/4 =

  



= 45◦ lautet:







1/ 2 −1/ 2 0 cos π/4 − sin π/4 0   √  √   π π sin /4 cos /4 0  =  1/ 2 1/ 2 0  . 0 0 1 0 0 1

Die Drehung des Vektors c um den Winkel ϕ = √ √ 1/ 2 −1/ 2  √ √  1/ 2 1/ 2  

Deˆ 3 ,π/4 · c =



π 4

0

0

π 4

 

= 45◦ um die z-Achse ergibt: 



√ 

0 1 −1/ 2     √   2  =  3/ 2  =: d. · 0      1 0 0

Wir verifizieren dies durch Berechnung des Winkels zwischen c und d: cT d kckkdk √ 5/ 2 1 π = arccos √ √ = arccos √ = = 45◦ . 4 5 5 2

^(c, d) = arccos

5.1 Produkte im R3

129

Aufgabe 5.1.1 Gegeben sei ein Dreieck mit den Eckpunkten A(0; 1), B(2; 0) und C(2; 1) in der x-y-Ebene. a) Drehen Sie im ersten Schritt das Dreieck um 45◦ gegen den Uhrzeigersinn und geben Sie die neuen Koordinaten der Eckpunkte A1 , B1 und C1 an. (Hinweis: Verwenden Sie die geeignete Drehmatrix.) Strecken Sie im zweiten Schritt das gedrehte Dreieck mit den Eckpunkten A1 , B1 und C1 nun in y-Richtung um den Faktor 3. b) Wenden Sie die Operationen Streckung und Drehung in genau dieser, also in gegenüber a) umgekehrter Reihenfolge auf das ursprüngliche Dreieck an. Vergleichen Sie beide Ergebnisse. c) Bestimmen Sie die Matrix, die beide Operationen Drehung und Streckung in einem Schritt ausführt, jeweils für beide Reihenfolgen. Lösung a) Die Eckpunkte des Dreiecks können wir durch Ortsvektoren darstellen, wir erhalten:       0 2 2 a= , b= , c= . 1 0 1 Das Dreieck ist im Ausgangszustand in Abb. 5.1 gezeigt. Die Matrix D, die die Drehung y 6 5 4 3 2 1

C

A

B -4

-3

-2

-1

1

2

3

4

x

-1 Abb. 5.1 Dreieck im Ausgangszustand

um 45◦ =

π 4

bewirkt, und die Matrix S, die die Streckung beschreibt, sind:

130

5 Produkte in Vektorräumen

  cos( π4 ) − sin( π4 ) D= , sin( π4 ) cos( π4 )

 S=



1 0 . 0 3

Die neuen Ortsvektoren nach der Drehung erhalten wir, indem wir die Drehmatrix mit den Ortsvektoren multiplizieren: a1 = D · a,

b1 = D · b,

c1 = D · c.

Das Ergebnis nach der Streckung resultiert aus der Multiplikation der Streckmatrix mit den gerade berechneten Ortsvektoren: a2 = S · a1 ,

b2 = S · b1 ,

c2 = S · c1 .

R Die Berechnung lässt sich leicht mit MATLAB durchführen: 1 2 3 4 5 6

7 8 9

>> >> >> >> >> >>

a=[0;1]; b=[2;0]; c=[2;1]; % Drehmatrix fuer den Winkel pi/4: D=[cos(pi/4), -sin(pi/4); sin(pi/4), cos(pi/4)]; % Matrix, die die Streckung in y-Richtung um Faktor 3 beschreibt: >> S=[1, 0; 0, 3]; >> % zuerst Drehung, dann Streckung: >> a1=D*a

10 11

a1 =

12 13 14

-0.7071 0.7071

15 16

>> b1=D*b

17 18

b1 =

19

1.4142 1.4142

20 21 22 23

>> c1=D*c

24 25

c1 =

26

0.7071 2.1213

27 28 29 30

>> a2=S*a1

31 32

a2 =

33 34 35

-0.7071 2.1213

36 37

>> b2=S*b1

5.1 Produkte im R3

131

38 39

b2 =

40

1.4142 4.2426

41 42 43 44

>> c2=S*c1

45 46

c2 =

47 48 49

0.7071 6.3640

Die Ortsvektoren  a2 =

 −0.7071 , 2.1213

 b2 =

 1.4142 , 4.2426

c2 =

  0.7071 6.3640

geben die Eckpunkte des resultierenden Dreiecks an (vgl. Abb. 5.2). y 6 5 4 3 2 1

-4

-3

-2

-1

1

2

3

4

x

-1 Abb. 5.2 Dreieck nach Drehung (orange) und anschließender Streckung (rot)

b) Die Ortsvektoren der Punkte des Dreiecks sind im Ausgangszustand dieselben wie im Teil a). Die resultierenden Ortsvektoren nach Streckung berechnen wir wie folgt: a3 = S · a,

b3 = S · b,

c3 = S · c.

Das Ergebnis der Drehung erhalten wir mittels Multiplikation der Drehmatrix mit den Ortsvektoren: a4 = D · a3 , b4 = D · b3 , c4 = D · c3 .

132

5 Produkte in Vektorräumen

Das Ergebnis ist: a4 =

  −2.1213 , 2.1213

b4 =

  1.4142 , 1.4142

c4 =

  −0.7071 . 3.5355

Der Vergleich zeigt, dass sich die resultierenden Vektoren je nach Reihenfolge von Drehung und Streckung unterscheiden, wie Abb. 5.3 zeigt. y 6 5 4 3 2 1

-4

-3

-2

-1

1

2

3

4

x

-1 Abb. 5.3 Dreieck nach Streckung (hellblau) und anschließender Drehung (dunkelblau)

c) Wir haben die aus der Drehung bzw. Streckung resultierenden Vektoren durch Multiplikation der entsprechenden Matrix mit den Vektoren erhalten. Die gesamte Operation wird also durch diejenige Matrix G beschrieben, die wir mittels Produkt der Matrizen D und S erhalten. Für die erste Reihenfolge (zuerst Drehung, dann Streckung) erhalten wir:   cos( π4 ) − sin( π4 ) G1 = S · D = . 3 · sin( π4 ) 3 · cos( π4 ) Für die zweite Reihenfolge (zuerst Streckung, dann Drehung) lautet die Gesamtmatrix   cos( π4 ) −3 · sin( π4 ) G2 = D · S = . sin( π4 ) 3 · cos( π4 ) Offensichtlich sind diese Matrizen verschieden. Dies zeigt konkret, dass die Matrixmultiplikation im Allgemeinen nicht kommutativ ist.

5.1 Produkte im R3

133

Aufgabe 5.2 Es seien   1 x =  2 , 3



 −1 y =  5 , 4



 0 z =  −1  . 1

a) Berechnen Sie das Vektorprodukt x × y. b) Berechnen Sie das doppelte Vektorprodukt x × (y × z). c) Zeigen Sie durch Rechnung, dass der unter a) berechnete Vektor sowohl senkrecht auf x als auch senkrecht auf y steht. d) Berechnen Sie das Volumen des durch die drei Vektoren x, y und z aufgespannten Spats. Lösung a) Die Berechnung des Vektorprodukts x × y ergibt   eˆ 1 1 −1 −7 2 5 1 −1 1 −1 − eˆ + eˆ =  −7  . x × y = eˆ 2 2 5 = eˆ 1 3 4 2 3 4 3 2 5 eˆ 3 3 4 7 b) Zur Bestimmung des doppelten Vektorprodukts x × (y × z) berechnen wir zunächst       −1 0 9      5 −1 y×z = × = 1 . 4 1 1 Damit folgt       1 9 −1 x × (y × z) =  2  ×  1  =  26  . 3 1 −17 Eine Alternative bietet die Graßmann-Identität des Vektorproduks: x × (y × z) = y(xT z) − z(xT y) = y(−2 + 3) − z(−1 + 10 + 12) = y − 21z       −1 0 −1 =  5  − 21 −1  =  26  . 4 1 −17 c) Der unter Teilaufgabe a) berechnete Vektor steht tatsächlich senkrecht auf x und auf y. Hierzu bilden wir das Skalarprodukt dieses Vektors mit x und y und zeigen, dass beide Skalarprodukte verschwinden:

134

5 Produkte in Vektorräumen

T     −7 1 −7  −7  ·  2  = −7 − 14 + 21 = 0 ⇒  −7  ⊥ x, 7 3 7  T     −7 −1 −7  −7  ·  5  = 7 − 35 + 28 = 0 ⇒  −7  ⊥ y. 7 4 7 

d) Die Berechnung des Volumens des durch x, y und z aufgespannten Spats ergibt T   −7 0 VSpat = (x × y) · z =  −7  ·  −1  = 7 + 7 = 14. 7 1 

Das Volumen kann auch mittels Determinantenformel für das Spatprodukt bestimmt werden: 1 −1 0 VSpat = (x × y) · z = det(x|y|z) = 2 5 −1 = 14. 3 4 1

5.2 Normen und Orthogonalität

Aufgabe 5.3 Beweisen Sie die Cauchy-Schwarz’sche Ungleichung (vgl. Satz 5.7 aus [5]): Für zwei Vektoren x, y ∈ V eines euklidischen Raums (V, h·, ·i) gilt: |hx, yi| ≤ kxkkyk. Nutzen Sie dabei den Ansatz: 0 ≤ kx − pk2 , wobei p die (abstrakte) Projektion des Vektors x auf den Vektor y für y 6= 0 darstellt: p=

hx, yi hx, yi y= y. hy, yi kyk2

Hierbei ist k · k die aufpdem Skalarprodukt h·, ·i basierende euklidische Norm auf V , definiert durch kvk = hv, vi für v ∈ V . Lösung Für y = 0 gilt die Cauchy-Schwarz’sche Ungleichung trivialerweise. Es seien also x, y ∈ V mit y 6= 0. Nun gilt für alle λ ∈ R und p ∈ V 0 ≤ kx − pk2 und damit auch speziell für p =

hx,yi hy,yi y

=

hx,yi y: kyk2

5.2 Normen und Orthogonalität

0 ≤ kx −

hx,yi yk2 kyk2

135

= hx −

hx,yi y, x − hx,yi yi kyk2 kyk2

= kxk2 − 2 hx,yi hx, yi + kyk2



 hx,yi 2 kyk2 2 kyk

2 2 2 2 1 1 1 = kxk2 − 2 kyk 2 hx, yi + kyk2 hx, yi = kxk − kyk2 hx, yi .

Damit gilt nach Multiplikation mit kyk2 ≥ 0 und Umstellen hx, yi2 ≤ kxk2 kyk2 , woraus sich die Cauchy-Schwarz’sche Ungleichung nach Ziehen der Wurzel ergibt. Aufgabe 5.4 Welche Gestalt haben folgende durch die Normen k · k1 , k · k2 , und k · k∞ definierte Teilmengen des R2 ? M1 = {x ∈ R2 : kxk1 ≤ 1}, M2 = {x ∈ R2 : kxk2 ≤ 1}, M∞ = {x ∈ R2 : kxk∞ ≤ 1}. Wie verändert sich qualitativ die Gestalt von M p := {x ∈ R2 : kxk p ≤ 1} für wachsendes p ∈ N? Lösung Wir betrachten die p-Norm im R2 kxk p =

p p

|x| p + |y| p ,

für

  x x= ∈ R2 . y

Die Ungleichung kxk p ≤ 1 ⇐⇒

p p

|x| p + |y| p ≤ 1

ergibt für die Komponente y √ √ p − p 1 − xp ≤ y ≤ p 1 − xp, p − p 1 − (−x) p ≤ y ≤ p 1 − (−x) p ,

für für

x ∈ [0, 1] x ∈ [−1, 0].

Ist p gerade, so gilt wegen x p = (−x) p für alle x ∈ [−1, 1] √ √ − p 1 − xp ≤ y ≤ p 1 − xp. Für p = 1 ergibt sich daher eine Menge, die durch folgende Kurven berandet wird: ymin = x − 1, ymax = 1 − x, ymin = −1 − x, ymax = 1 + x,

x ∈ [0, 1], x ∈ [−1, 0].

136

5 Produkte in Vektorräumen

Die Menge M1 = {x ∈ R2 : kxk1 ≤ 1} ist eine Raute um den Nullvektor mit den Ecken (1, 0)T , (0, 1)T , (−1, 0)T und (0, −1)T . Für p = 2 lauten die Begrenzungskurven p p ymin = − 1 − x2 , ymax = 1 − x2 , x ∈ [−1, 1]. Die Menge M2 = {x ∈ R2 : kxk2 ≤ 1} ist daher der Einheitskreis im R2 , was der Anschauung entspricht. Für p = 3 ergeben sich die Begrenzungskurven p p 3 3 ymin = − 1 − x3 , ymax = 1 − x3 , x ∈ [0, 1], p p 3 3 ymin = − 1 + x3 , ymax = 1 + x3 , x ∈ [−1, 0]. Im Vergleich zu M2 erscheint die Menge M3 = {x ∈ R2 : kxk3 ≤ 1}, dargestellt in Abb. 5.4, kissenförmig konvex verzerrt. Bei weiter wachsendem p verzerrt sich die Menge M p immer weiter in Richtung der Eckpunkte (1, 1)T , (−1, 1)T , (−1, −1)T und (1, −1)T . Dabei steigt der Flächeninhalt immer weiter an. Für die ∞-Norm ergibt sich die Beschränkung kxk∞ = max(|x|, |y|) ≤ 1, wodurch für beide Komponenten von x unabhängig gilt −1 ≤ x, y ≤ 1. In der Tat liegt für x ∈ (−1, 1) eine Begrenzung der Komponenten y durch −1 ≤ y ≤ 1 vor, denn es ist ymax = (1 − |x| p ) /p = e 1

ln(1−|x| p ) p

p→∞

→ 1,

da |x| ≤ 1,

ymin = −ymax = −1. Im Grenzfall p = ∞ ergibt sich schließlich ein Quadrat der Seitenlänge 2 um den Nullpunkt. Aufgabe 5.5 Es sei (V, h·, ·, i) ein euklidischer oder unitärer Vektorraum. Zeigen Sie, dass bezüglich des Skalarprodukts nur der Nullvektor orthogonal zu allen Vektoren aus V ist. Lösung Es ist zu zeigen, dass aus hx, vi = 0 für alle x ∈ V folgt: v = 0. Nehmen wir an, es gäbe einen nicht-trivialen Vektor v ∈ V , mit hx, vi = 0 für alle x ∈ V . Dann müsste dies auch speziell für x = v gelten. Es müsste also hv, vi = 0 folgen. Da aber v 6= 0 ist, stellt dies einen Widerspruch zur positiven Definitheit des Skalarprodukts dar.

5.3 Vertiefende Aufgaben

137 y

x

Abb. 5.4 Berandungskurven der Einheitsmengen kxk p ≤ 1 im R2 für p = 1, 2, 3, 6, ∞ (von innen nach außen)

5.3 Vertiefende Aufgaben

Aufgabe 5.6 Die Abbildung !1/p

n

kxk p :=

∑ |xk |

p

(5.1)

k=1

ist für reelle p ≥ 1 eine Norm auf Rn . Warum ist diese Abbildung etwa für p = keine Norm des Rn ? Lösung Es gilt zwar für alle x ∈ Rn kxk1/2 ≥ 0 und kxk1/2 = 0 ⇐⇒ x = 0 sowie für alle λ ∈ R und alle x ∈ Rn kλ xk1/2 = |λ |kxk1/2 ,

1 2

138

5 Produkte in Vektorräumen

wie sehr schnell gezeigt werden kann, allerdings ist die Dreiecksungleichung in der Regel nicht erfüllt, denn es gilt beispielsweise für n ≥ 2 mit x = 3ˆe1 und y = eˆ 1 + eˆ 2 !2

n

kx + yk1/2 =

1/2

∑ |xk + yk |

√ √ = ( 4 + 1)2 = 9.

k=1

Dagegen ist n

kxk1/2 + kyk1/2 =

!2 1/2

∑ |xk |

!2

n

∑ |yk |

+

k=1

1/2

√ √ √ = ( 3)2 + ( 1 + 1)2 = 7

k=1

ein kleinerer Wert. Aufgabe 5.7 (Induzierte Matrixnorm) Es sei A ∈ M(m × n, K) eine m × n-Matrix über K = R oder K = C. Wie üblich bezeichne k.k p für p ∈ N \ {0} oder p = ∞ die p-Norm des Km bzw. Kn . Zeigen Sie, dass durch die von k · k p induzierte Matrixnorm   kAxk p kAk p := max : x ∈ Kn , x 6= 0 kxk p eine Norm auf den Matrizenraum M(m × n, K) definiert wird. Zeigen Sie zuvor, dass es ausreicht, sich gemäß  kAk p = max kAxk p : x ∈ Kn , kxk p = 1 auf Einheitsvektoren zu beschränken. Lösung Es sei A ∈ M(m × n, K). Für jeden Vektor x ∈ Kn mit x 6= 0 gilt zunächst kAxk p 1 = kAxk p kxk p kxk p 1 = kxk p =



i=1 m

=

∑ ∑ ai j x j

i=1

1 kxk p n

∑ ∑

i=1

! p !1/p

n

1 m ∑ kxk pp i=1 m

=

m

j=1

j=1

! p !1/p

n

∑ ai j x j

j=1

! p !1/p

n

∑ ai j x j

j=1

! p !1/p x ai j kxkj p



x = A kxk

. p p

5.3 Vertiefende Aufgaben

139

Der Vektor x/kxk p ist ein Einheitsvektor, und jeder Einheitsvektor kann in die Form x/kxk p gebracht werden. Wir können uns also auf die Menge E := {x ∈ Kn : kxk p = 1} der Einheitsvektoren beschränken. Da die Menge E abgeschlossen und beschränkt, also kompakt ist, existiert das Maximum der stetigen Funktion kAxk p auf dieser Menge. Wir zeigen nun, dass diese Abbildung die Eigenschaften einer Vektornorm auf dem Matrizenraum M(m × n, K) besitzt. Zunächst ist aufgrund der Normeigenschaften von k·k p unmittelbar klar, dass kAk p ≥ 0 ist. Es sei nun b1 , . . . , bn eine Orthonormalbasis von Kn . Sollte nun kAk p = 0 gelten, dann gilt für jeden Einheitsvektor xˆ ∈ E, dass kAˆxk p = 0, also auch für jeden Basisvektor bi : kAbi k p = 0,

i = 1, . . . , n.

Aufgrund der Normeigenschaft von k · k p ist dies nur möglich, wenn Abi = 0,

i = 1, . . . , n.

Somit kann A nur die Nullabbildung, also die Nullmatrix aus M(m × n, K) sein (vgl. universelle Eigenschaft einer Basis, Aufgaben 4.14 und 4.15). Ist also kAk p = 0, so folgt A = 0m×n . Für jedes λ ∈ K ist kλ Ak p = max kλ Axk p = max |λ | · kAxk p = |λ | · max kAxk p = |λ | · kAk p . x∈E

x∈E

x∈E

Nun sei B ∈ M(m × n, K) eine weitere Matrix. Wir zeigen nun die Dreiecksungleichung. Es ist kA + Bk p = max k(A + B)xk p x∈E

= k(A + B)x0 k p

(mit einem x0 ∈ E)

= kAx0 + Bx0 k p ≤ kAx0 k p + kBx0 k p

(Dreiecksungleichung der p-Norm auf Km )

≤ max kAxk p + max kBxk p = kAk p + kBk p . x∈E

x∈E

Damit erfüllt k · k p : M(m × n, K) → K A 7→ max kxk p Ax∈E

die Eigenschaften einer Vektornorm auf dem Matrizenraum M(m × n, K). Aufgabe 5.7.1 Zeigen Sie, dass die von der p-Norm induzierte Matrixnorm mit der p-Norm verträglich ist, d. h., für alle A ∈ M(m × n, K) und v ∈ Kn gilt kAvk p ≤ kAk p · kvk p .

(5.2)

140

5 Produkte in Vektorräumen

Lösung Für v = 0 ist die Aussage klar. Für A ∈ M(m × n, K) und 0 6= v ∈ Kn gilt

v kAvk p = kvk p · A · kvk

p p

v = kvk p · A kvk

p p

≤ kvk p · max kAxk p , kxk=1

v da k kvk kp = 1 p

= kvk p · kAk p .

Aufgabe 5.7.2 Zeigen Sie, dass die von der p-Norm induzierte Matrixnorm submultiplikativ ist, d. h., für alle A ∈ M(m × n, K) und B ∈ M(n × p, K) gilt die Ungleichung kA · Bk p ≤ kAk p · kBk p . Lösung Diese Aussage ist eine direkte Konsequenz aus der Verträglichkeit der induzierten Matrixnorm mit der zugrunde gelegten p-Norm, denn kA · Bk p = max k(A · B)x)k p kxk p =1

= max kA · (Bx)k p kxk p =1

(5.2)

≤ max kAk p kBxk p kxk p =1

= kAk p · max kBxk p kxk p =1

= kAk p · kBk p .

Aufgabe 5.7.3 Es sei A ∈ M(m × n, K) eine Matrix über K = R bzw. K = C. Zeigen Sie, dass für die von der ∞-Norm induzierte Matrixnorm n

kAk∞ = max

∑ |ai j | 1≤i≤m

(Zeilensummennorm)

j=1

und für die von der 1-Norm induzierte Matrixnorm m

kAk1 = max

∑ |ai j | 1≤ j≤n i=1

gilt.

(Spaltensummennorm)

5.3 Vertiefende Aufgaben

141

Lösung Für die ∞-Norm ist n n kAk∞ = max kAxk∞ = max max ∑ ai j x j = max max ∑ ai j x j . 1≤i≤m kxk∞ =1 j=1 kxk∞ =1 kxk∞ =1 1≤i≤m j=1 Der Ausdruck

n

∑ ai j x j

j=1

wird für kxk∞ = 1 betragsmaximal, wenn die Vorzeichen der Komponenten von x mit den Vorzeichen der Einträge in der i-ten Zeile von A übereinstimmen, d. h., falls 1 ≤ j ≤ n.

x j = sign ai j ,

Für den auf diese Weise definierten Vektor x gilt kxk∞ = 1. Insgesamt folgt nun n n n kAk∞ = max max ∑ ai j x j = max ∑ ai j sign ai j = max ∑ |ai j |. 1≤i≤m j=1 | {z } 1≤i≤m j=1 1≤i≤m kxk∞ =1 j=1 =|ai j |

Wir bezeichnen daher die von der ∞-Norm induzierte Matrixnorm als Zeilensummennorm. Für die 1-Norm ist m n kAk1 = max kAxk1 = max ∑ ∑ ai j x j . kxk1 =1 kxk1 =1 i=1 j=1 Es gilt nun für kxk1 = 1 aufgrund der Dreiecksungleichung m n kAxk1 = ∑ ∑ ai j x j i=1 j=1 m

n

n

≤ ∑ ∑ |ai j ||x j | = i=1 j=1 n



n

j=1 i=1

m

∑ |x j | max

j=1

m

m

∑ ∑ |ai j ||x j | = ∑ |x j | ∑ |ai j | j=1

∑ |aik | =

i=1

!

n

m

∑ |x j | · max

1≤k≤n i=1

1≤k≤n i=1

j=1

|

{z

=kxk1 =1

m

∑ |aik | = max

∑ |aik | =: M.

1≤k≤n i=1

}

Der Ausdruck kAxk1 kann also für kxk1 = 1 nach oben durch M abgeschätzt werden. Wählen wir nun mit l ∈ {1, . . . , n} einen Index mit m

m

∑ |aik | = ∑ |ail |, 1≤k≤n

M = max

i=1

i=1

142

5 Produkte in Vektorräumen

so liegt mit dem kanonischen Einheitsvektor xˆ = eˆ l ein Vektor vor, für den kˆxk1 = 1 gilt und mit dem die Schranke M wegen m n m n m m kAˆxk1 = ∑ ∑ ai j xˆ j = ∑ ∑ ai j δ jl = ∑ |ail | = M = max ∑ |aik | i=1 j=1 i=1 1≤k≤n i=1 i=1 j=1 auch erreicht wird. Wir bezeichnen daher die von der 1-Norm induzierte Matrixnorm als Spaltensummennorm. Aufgabe 5.7.4 (Kondition einer regulären Matrix) Es sei A ∈ GL(n, R) eine reguläre Matrix und 0 6= b ∈ Rn sowie k · k eine Norm auf Rn bzw. die induzierte Matrixnorm auf M(n, R). Zeigen Sie folgende Fehlerabschätzung für den relativen Fehler in der Lösung x + ∆ x des gestörten Systems A(x + ∆ x) = b + ∆ b: k∆ xk k∆ bk ≤ kAk · kA−1 k kxk kbk

(5.3)

Der Wert cond A := kAk · kA−1 k heißt Kondition der Matrix A und ist ein Maß für die Empfindlichkeit des relativen Fehlers der Lösung k∆ xk/kxk vom relativen Fehler der rechten Seite k∆ bk/kbk. Lösung Wenn A ∈ GL(n, R) eine reguläre Matrix ist, dann ist das lineare Gleichungssystem Ax = b für jeden Vektor 0 6= b ∈ Rn eindeutig durch x 6= 0 lösbar. Zudem existiert auch eine eindeutige Lösung von A(x + ∆ x) = b + ∆ b. Wir formen dieses System etwas um und führen anschließend eine Normabschätzung (vgl. Aufgabe 5.7.1) durch. A(x + ∆ x) = b + ∆ b ⇔ Ax + A∆ x = b + ∆ b ⇔ A∆ x = ∆ b ⇔ ∆ x = A−1 ∆ b ⇒ k∆ xk = kA−1 ∆ bk ≤ kA−1 k · k∆ bk ⇔

k∆ xk kxk

| − Ax = −b | A−1 · | k···k 1 | kxk

bk ≤ kA−1 k k∆ kxk

Nun ist kbk = kAxk ≤ kAk · kxk, woraus sich kxk ≥ kbk/kAk ergibt. Insgesamt folgt mit k∆ xk k∆ bk k∆ bk ≤ kA−1 k ≤ kAk · kA−1 k kxk kxk kbk die nachzuweisende Abschätzung.

Kapitel 6

Eigenwerte und Eigenvektoren

6.1 Eigenwerte und Eigenräume

Aufgabe 6.1 Berechnen Sie die Eigenwerte und Eigenräume der reellen 4 × 4-Matrix   1200 2 1 0 0  A= 0 0 2 1 . 0012 Geben Sie auch jeweils die algebraische und geometrische Ordnung der Eigenwerte an. Bestimmen Sie einen Vektor v 6= 0, der durch Multiplikation mit A nicht verändert wird. Lösung Für das charakteristische Polynom von A gilt nach der Kästchenformel   x − 1 −2 0 0  −2 x − 1 0 0   χA (x) = det(xE − A) = det   0 0 x − 2 −1  0 0 −1 x − 2     x − 1 −2 x − 2 −1 = det det (Kästchenformel) −2 x − 1 −1 x − 2 = ((x − 1)2 − 4)((x − 2)2 − 1) = 0 ⇐⇒

x − 1 = ±2



x − 2 = ±1.

Die sich hieraus ergebenden Eigenwerte zusammen mit ihren algebraischen und geometrischen Ordnungen lauten nun:

© Springer-Verlag GmbH Deutschland, ein Teil von Springer Nature 2019 L. Göllmann und C. Henig, Arbeitsbuch zur linearen Algebra, https://doi.org/10.1007/978-3-662-58766-9_6

143

144

6 Eigenwerte und Eigenvektoren

λ alg(λ ) geo(λ ) −1 1 1 . 1 1 1 3 2 2 Da die Matrix A symmetrisch ist und nur reelle Komponenten enthält, stimmt die geometrische Ordnung jedes Eigenwertes auch mit der jeweiligen algebraischen Ordnung überein. Wir berechnen nun die Eigenräume. Für λ = −1 erhalten wir:     2200 1100 2 2 0 0    VA,−1 = Kern(A + E) = Kern  0 0 3 1 = Kern 0 0 1 0 . 0001 0013 Ein zyklischer Spaltentausch (1 → 4 und 2, 3, 4 eine Spalte vor) liefert     * −1 + 1001 0  Kern 0 1 0 0 =  0 . 0010 1 Nach Rückgängigmachen des zyklischen Variablenentauschs erhalten wir   * 1 + −1  VA,−1 =  0 . 0 Für λ = 1 ergibt sich:  0 2 VA,1 = Kern(A − E) = Kern  0 0

2 0 0 0

0 0 1 1

     * 0 + 0 1000   0  = Kern 0 1 0 0 =  0  . −1 1 0011 1 1

Jeder Vektor aus diesem Raum wird durch Multiplikation mit A nicht verändert, so beispielsweise auch v = (0, 0, 12, −12)T . Für λ = 3 berechnen wir:   −2 2 0 0    2 −2 0 0  −1 1 0 0   VA,3 = Kern(A − 3E) = Kern  = Kern . 0 0 −1 1  0 0 1 −1 0 0 1 −1 Ein zyklischer Spaltentausch (1 → 4 und 2, 3, 4 eine Spalte vor) liefert uns zunächst

6.1 Eigenwerte und Eigenräume

145

    1 +   * 0 1 0 1 0 0 −1    Kern =  1 , 0 , 0 1 −1 0 0 1 woraus sich nach Rückgängigmachen des zyklischen Variablenentauschs     1 + * 0 0 1    VA,3 =  1 , 0 1 0 ergibt. Aufgabe 6.2 Gegeben sei die reelle 4 × 4-Matrix   −1 3 3 0 −6 8 6 0  A=  0 0 2 0 . −4 3 3 3 a) Berechnen Sie die Eigenwerte und Eigenräume von A. Geben Sie auch jeweils die algebraische und geometrische Ordnung der Eigenwerte an. b) Warum ist A diagonalisierbar? c) Bestimmen Sie eine reguläre Matrix S bestehend aus nicht-negativen Komponenten sowie eine geeignete Diagonalmatrix Λ , sodass S−1 AS = Λ gilt. Lösung a) Das charakteristische Polynom von A können wir durch Entwicklung nach der vierten Spalte und anschließender Entwicklung nach der dritten Zeile zügig faktorisieren:     x + 1 −3 −3 0 x + 1 −3 −3  6 x − 8 −6 0   = (x − 3) det  6 x − 8 −6  χA (x) = det(xE − A) = det   0 0 x−2 0  0 0 x−2 4 −3 −3 x − 3   x + 1 −3 = (x − 3)(x − 2) det = (x − 3)(x − 2)((x + 1)(x − 8) + 18) 6 x−8 = (x − 2)(x − 3)(x2 − 7x + 10) = (x − 3)(x − 2)(x − 2)(x − 5). Für die Eigenwerte von A ergibt sich daher die folgende Aufstellung: λ alg(λ ) geo(λ ) 2 2 . 3 1 1 5 1 1

146

6 Eigenwerte und Eigenvektoren

Da alg(3) = alg(5) = 1 ist, können wir bereits auf geo(3) = geo(5) = 1 schließen. Die in dieser Tabelle noch offene geometrische Ordnung des Eigenwertes λ = 2 ergibt sich aus der nun folgenden Berechnung der Eigenräume. Es gilt   −3 3 3 0   −6 6 6 0  = Kern 1 −1 −1 0 VA,2 = Kern(A − 2E) = Kern   0 0 0 0 −4 3 3 1 −4 3 3 1     1 −1 −1 0 1 0 0 −1 = Kern = Kern 0 1 1 −1 0 1 1 −1         1 + * 1 1 + * 0 −1 1 0 1        =   1  , 0 = 1 , 0 . 0 1 1 1 6

+

Der Eigenraum ändert sich nicht, wenn wir den zweiten Eigenvektor auf den ersten addieren. Hierdurch erhalten wir zwei Basisvektoren von VA,2 mit nicht-negativen Komponenten. Da dieser Eigenraum zweidimensional ist, gilt für die geometrische Ordnung dieses Eigenwertes geo(2) = 2. Den Eigenraum zu λ = 3 können wir unmittelbar der Matrix   −1 3 3 0 −6 8 6 0  A=  0 0 2 0 −4 3 3 3 entnehmen. Da wir wissen, dass geo(3) = 1 ist, reicht ein Eigenvektor aus, um als Basisvektor VA,3 aufzuspannen. Die letzte Spalte von A ist 3ˆe4 , woraus Aˆe4 = 3ˆe4 folgt. Damit ist eˆ 4 ein Eigenvektor zu λ = 3. Es gilt somit   * 0 + 0  VA,3 = hˆe4 i =  0 . 1 Abschließend bestimmen wir den Eigenraum zu λ = 5:     −6 3 3 0 −6 3 0 0 −6 3 6 0  −6 3 0 0     VA,5 = Kern(A − 5E) = Kern   0 0 −3 0  = Kern  0 0 1 0  −4 3 3 −2 −4 3 0 −2         * 1 + −2 1 0 0 −2 1 0 0 −2 1 0 0 2  = Kern  0 0 1 0  = Kern  0 0 1 0  = Kern  0 0 1 0 =  0 . −4 3 0 −2 2 0 0 −2 −1 0 0 1 1

6.1 Eigenwerte und Eigenräume

147

b) Es gilt alg λ = geo λ für jeden Eigenwert λ ∈ Spec A. Daher ist A diagonalisierbar. c) Da



geo λ = 4 = dim R4

λ ∈Spec A

ist, gibt es eine Basis aus Eigenvektoren von A. Die oben angegebenen Eigenvektoren sind linear unabhängig und (nach einer Spaltenaddition bei VA,2 ) mit positiven Komponenten versehen. Wir können diese Eigenvektoren also zu einer regulären Matrix mit der geforderten Eigenschaft zusammenstellen. Beispielsweise gilt mit   1101 0 1 0 2  S= 1 0 0 0 1111 die Ähnlichkeitstransformation  2 0 −1 S AS =  0 0

0 2 0 0

0 0 3 0

 0 0  =: Λ . 0 5

Aufgabe 6.2.1 Bestimmen Sie für die 4 × 4-Matrizen     −7 0 0 5 4 0 0 0  −5 −2 0 5 0 3 −1 0    A=  −6 0 1 3 , B = 0 1 1 0 , −10 0 0 8 0 −3 4 2



1 2 0 3 C= 0 −1 0 1

 4 2 1 1  1 −1 1 3

sämtliche Eigenwerte und ihre dazugehörigen Eigenräume. Ist die jeweilige Matrix diagonalisierbar? Bestimmen Sie dabei im Falle der Diagonalisierbarkeit eine Basis des R4 aus Eigenvektoren der betreffenden Matrix. Wie lautet eine Ähnlichkeitstransformation, um die jeweilige Matrix in eine Diagonalform zu überführen? Lösung Wir erkennen an der Matrix



−7 0  −5 −2 A=  −6 0 −10 0

 05 0 5  1 3 08

sofort die beiden Eigenwerte −2 und 1 mit zugehörigen Eigenvektoren eˆ 2 bzw. eˆ 3 , denn es gilt Aˆe2 = −2 · eˆ 2 und Aˆe3 = eˆ 3 . Diese beiden Eigenwerte ergeben sich auch unmittelbar nach Bestimmung des charakteristischen Polynoms χA von A durch zweimalige Spaltenentwicklung

148

6 Eigenwerte und Eigenvektoren

    x+7 0 0 −5 x + 7 0 −5  5 x + 2 0 −5   = (x + 2) det  6 x − 1 −3  χA (x) = det(xE − A) = det   6 0 x − 1 −3  10 0 x−8 10 0 0 x−8   x + 7 −5 = (x + 2)(x − 1) det = (x + 2)(x − 1)(x2 − x − 6) 10 x − 8 = (x + 2)(x − 1)(x + 2)(x − 3). Wir erhalten daher mit λ alg(λ ) geo(λ ) −2 2 1 1 1 3 1 1 die Aufstellung der Eigenwerte von A. Da 1 und 3 algebraisch einfache Eigenwerte sind, müssen die zugehörigen Eigenräume eindimensional sein. Wir beginnen mit der Bestimmung des Eigenraums zum Eigenwert −2. Dabei vertauschen wir im Laufe der Berechnung die zweite mit der dritten Spalte. Um dies auszugleichen, führen wir durch Linksmultiplikation mit der 4 × 4-Permutationsmatrix P23 einen entsprechenden Tausch der zweiten mit der dritten Komponente des Kerns durch:   −5 0 0 5 ·(−1/5)  −5 0 0 5   VA,−2 = Kern(A + 2E) = Kern   −6 0 3 3  ·1/3 −10 0 0 10 

   1 0 0 −1 1 0 0 −1 ·2 = Kern = P23 Kern −2 0 1 1 −2 1 0 1    1 0 0 −1 = P23 Kern 0 1 0 −1             1 + * 0 1 + * 0 1 + * 0 0 1 0 1 1 0            = P23  1 , 0 = P23 1 , P23 0 = 0 , 1 . 0 1 0 1 0 1 Es gilt geo(−2) = dimVA,−2 = 2 = alg(−2). Da auch geo(1) = alg(1) und geo(3) = alg(3) gilt, ist A diagonalisierbar. Für den eindimensionalen Eigenraum VA,1 haben wir mit eˆ 3 bereits einen Eigenvektor gefunden, daher gilt   * 0 + 0  VA,1 = hˆe3 i =  1 . 0

6.1 Eigenwerte und Eigenräume

149

Den Eigenraum zum Eigenwert 3 bestimmen wir wieder konventionell über eine Kernberechnung. Es gilt   −10 0 0 5 ·1/5  −5 −5 0 5 ·1/5  VA,3 = Kern(A − 3E) = Kern   −6 0 −2 3 −10 0 0 5     −2 0 0 1  1 1 0 −1 = Kern  1 1 0 −1 = Kern −2 0 0 1  −6 0 −2 3 −6 0 −2 3     1 1 0 −1 1 1 0 −1 = Kern 0 2 0 −1 ·(−3) = Kern 0 2 0 −1 ·1/2 0 6 −2 −3  0 0 −2 0         * 1/2 + * 1 + 1 1 1 0 −1 1 0 0 − /2 1 1/2    = Kern 0 1 0 −1/2 − = Kern 0 1 0 −1/2 =   0  = 0 . 001 0 001 0 1 2 ·2

Die letzte Operation war zwar nicht notwendig, macht aber das Ergebnis etwas handlicher, da der erzeugende Eigenvektor nun ganzzahlig ist. Wenn wir nun die Basisvektoren dieser Eigenräume zu einer Basismatrix   0101 1 0 0 1  S= 0 1 1 0 0102 zusammenstellen, dann ergibt die Ähnlichkeitstransformation von A mit S   −2 0 0 0  0 −2 0 0  S−1 AS =   0 0 1 0 0 0 03 die Eigenwertdiagonalmatrix mit den Eigenwerten von A auf der Hauptdiagonalen in der Reihenfolge der Platzierung der entsprechenden Eigenvektoren innerhalb von S. Die Matrix   4 0 0 0 0 3 −1 0  B= 0 1 1 0 0 −3 4 2 besitzt den Eigenwert 4 mit eˆ 1 ∈ R4 als Eigenvektor. Für das charakteristische Polynom können wir den Linearfaktor x − 4 direkt abspalten. Die Entwicklung nach erster Zeile oder Spalte mit anschließender Entwicklung nach der letzten Spalte ergibt dann

150

6 Eigenwerte und Eigenvektoren

    x−3 1 0 x−3 1   χB (x) = (x − 4) det −1 x − 1 0 = (x − 4)(x − 2) det −1 x − 1 3 −4 x − 2 = (x − 4)(x − 2)(x2 − 4x + 4) = (x − 4)(x − 2)3 . Wir erhalten damit 2 als einzigen weiteren Eigenwert mit alg(2) = 3. Es ist alg(4) = 1 und damit auch geo(4) = 1. Der eindimensionale Eigenraum zum Eigenwert 4 wird daher bereits durch den Eigenvektor eˆ 1 erzeugt:   * 1 + 0  VB,4 = hˆe1 i =  0 . 0 Für den zweiten Eigenraum berechnen wir    2 0 0 0 1 0 0 0 1 −1 0  = Kern 0 1 −1 VB,2 = Kern(B − 2E) = Kern  0 1 −1 0 0 −3 4 0 −3 4 0

   * 0 + 0 0  0 = hˆe4 i =  0 , 0 1

denn die verbleibenden drei Zeilen sind linear unabhängig, sodass auch dieser Kern nur eindimensional ist und bereits durch eˆ 4 erzeugt wird. Da nun geo(2) = 1 < 3 = alg(2) gilt, gibt es keine Basis des R4 aus Eigenvektoren von B. Daher ist B nicht diagonalisierbar. Mit   1 2 4 2 0 3 1 1   C= 0 −1 1 −1 0 1 1 3 liegt eine reelle 4 × 4-Matrix vor, für die C · eˆ 1 = 1 · eˆ 1 gilt. Sie besitzt also den Eigenwert 1 mit eˆ 1 als Eigenvektor. Für das charakteristische Polynom berechnen wir mit Entwicklung nach erster Spalte und anschließenden Typ-I-Umformungen     x − 3 −1 −1 x − 3 −1 −1 χC (x) = (x − 1) det  1 x − 1 1  + = (x − 1) det  1 x − 1 1  −1 −1 x − 3  0 x−2 x−2 6 −     x − 3 0 −1 x − 3 −1   1 x−2 1 = (x − 1) det = (x − 1)(x − 2) det 0 x−2 0 0 x−2 = (x − 1)(x − 2)2 (x − 3). Wir erhalten hieraus die folgende Aufstellung aller Eigenwerte von A nebst ihren algebraischen und geometrischen Ordnungen:

6.1 Eigenwerte und Eigenräume

151

λ alg(λ ) geo(λ ) 1 1 1 2 2 3 1 1 für die Eigenwerte von C. Um eine Aussage zur Diagonalisierbarkeit zu erhalten, beginnen wir mit der Bestimmung des Eigenraums zum Eigenwert 2. Es gilt   −1 2 4 2 0 1 1 1  VC,2 = Kern(C − 2E) = Kern   0 −1 −1 −1 0 1 1 1        −1 2 4 2 −1 0 2 0 1 0 −2 0 = Kern = Kern = Kern 0 1 1 1 ·(−2) 0 111 01 1 1 | {z } Matrix mit Rang 2, geo(2) = 4 − 2 = 2 Somit ist C diag.-bar.

 * =

   2 0 + −1 −1  ,   . 1 0 0 1

Für den Eigenwert 1 hatten wir bereits einen Eigenvektor gefunden. Da der zugehörige Eigenraum eindimensional ist, erzeugt bereits dieser Eigenvektor den gesamten Eigenraum. Es ist also   * 1 + 0  VC,1 = hˆe1 i =  0 . 0 Den verbleibenden Eigenraum zum Eigenwert 3 berechnen wir wieder mit der bewährten Methode. Es ist     −2 2 4 2 −2 2 4 2  0 0 1 1 0 1 1 0+    VC,3 = Kern(C − 3E) = Kern   0 −1 −2 −1 = Kern  0 −1 −2 −1 0 1 1 0  0 0 1 1       −2 2 4 2  −2 2 4 2 −2 2 0 −2 0 1 1 0    = Kern  = Kern  0 1 0 −1 .  0 0 −1 −1 = Kern 0 1 1 0 0 0 1 1 −, ·(−4) 0 01 1 0 0 1 1 Dieser Kern enthält beispielsweise den nicht-trivialen Vektor (0, 1, −1, 1)T . Da der Kern zudem eindimensional ist, erzeugt dieser Vektor bereits den Kern und damit den Eigenraum:

152

6 Eigenwerte und Eigenvektoren



 * 0 + 1  VC,3 =  −1 . 1 Mit der aus vier linear unabhängigen Eigenvektoren zusammengestellten Matrix   1 0 2 0 0 1 −1 −1  T = 0 −1 1 0  0 1 0 1 gilt die Ähnlichkeitstransformation  1 0 −1  T CT =  0 0

0 3 0 0

0 0 2 0

 0 0 . 0 2

Aufgabe 6.2.2 Bestimmen Sie die Eigenwerte und die zugehörigen Eigenräume der folgenden Matrizen. Geben Sie dabei auch die algebraischen und geometrischen Vielfachheiten der Eigenwerte an. Überprüfen Sie jeweils die Diagonalisierbarkeit.     −1 −1 1 0 0 2 0 −2 −2  1 −3 6 0 0    0 2 1 1   A= B=  0 0 3 0 0 , −1 −2 −1 −2  0 0 0 4 −1 1 2 4 5 0 0 01 2 Geben Sie eine Matrix S an mit BS = SΛ , wobei Λ eine Diagonalmatrix ist. Lösung Wir bestimmen die Eigenwerte von   −1 −1 1 0 0  1 −3 6 0 0     A= 0 0 30 0  0 0 0 4 −1 0 0 01 2 mithilfe des charakteristischen Polynoms   x + 1 1 −1 0 0  −1 x + 3 −6 0 0    0 0 x − 3 0 0  χA (x) = det(xE − A) = det   ←  0 0 0 x−4 1  0 0 0 −1 x − 2

6.1 Eigenwerte und Eigenräume

153

  x+1 1 0 0 ←  −1 x + 3 0  0  = (x − 3) det   0 0 x−4 1  0 0 −1 x − 2      x+3 0 0 −1 0 0 = (x − 3) (x + 1) det  0 x − 4 1  − det  0 x − 4 1  0 −1 x − 2 0 −1 x − 2      x−4 1 x−4 1 = (x − 3) (x + 1)(x + 3)det + det −1 x − 2 −1 x − 2     x−4 1 = (x − 3)det · (x + 1)(x + 3) + 1 −1 x − 2     = (x − 3) (x − 4)(x − 2) + 1 · (x + 1)(x + 3) + 1 = (x − 3)(x2 − 6x + 9)(x2 + 4x + 4) = (x − 3)(x − 3)2 (x + 2)2 = (x − 3)3 (x + 2)2 . Alternativ bietet es sich hier an, die Kästchenformel anzuwenden, was die Berechnung der Determinante sehr stark vereinfacht und sie gleichzeitig faktorisiert:   x + 1 1 −1 0 0  −1 x + 3 −6 0 0     0 x−3 0 0  χA (x) = det(xE − A) = det  0   0 0 0 x−4 1  0 0 0 −1 x − 2     x+1 1 x−4 1 = det · (x − 3) · det −1 x + 3 −1 x − 2 = (x2 + 4x + 4)(x − 3)(x2 − 6x + 9) = (x + 2)2 (x − 3)(x − 3)2 = (x + 2)2 (x − 3)3 . Die Eigenwerte mit den entsprechenden algebraischen Vielfachheiten von A lauten also λ alg(λ ) λ1 = −2 2 . λ2 = 3 3 Nun berechnen wir die Eigenräume. Für den Eigenraum zu λ1 = −2 gilt zunächst   1 −1 1 0 0 1 −1 6 0 0     VA,λ1 = Kern(A − λ1 E) = Kern(A + 2E) = Kern  0 0 5 0 0  0 0 0 6 −1 0 0 01 4   1 −1 1 0 0 0 0 5 0 0  ·(−1)    = Kern  0 0 5 0 0  0 0 0 1 4  ·(−6) 0 0 0 6 −1 

154

6 Eigenwerte und Eigenvektoren



1 −1 0 0 = Kern  0 0 0 0  1 −1 0 0 = Kern  0 0 0 0





 10 0 1 −1 1 0 0   50 0   = Kern 0 0 1 0 0 ·(−1)   01 4 0 0 0 1 4  0 0 −25 0 0 0 0 1 ·(−4)    000 1 −1 0 0 0   1 0 0  = Kern 0 0 1 0 0 .   010 0 0 0 1 0 001 0 0 001

Wir führen einen zyklischen Spaltentausch durch (1 → 5 sowie 2, 3, 4, 5 → 1, 2, 3, 4):       1 −1 0 0 0 1 1 0 0 0 −1 * +  0 1 0 0 0   0  = Kern 0 1 0 0 0  = 0 . Kern     0 0 1 0 0 0 0 1 0 0  0 0 0010 0001 0 1 Nach Rückgängigmachen des zyklischen Spaltentausches erhalten wir als Eigenraum   1 *  + 1  VA,λ1 =  0 . 0 0 Dieser Raum ist eindimensional. Für die geometrische Ordnung des Eigenwertes λ1 = −2 gilt also geo(λ1 ) = 1. Für den zweiten Eigenraum berechnen wir   −4 −1 1 0 0  1 −6 6 0 0     VA,λ2 = Kern(A − λ2 E) = Kern(A − 3E) = Kern  0 0 00 0  0 0 0 1 −1 0 0 0 1 −1     1 −6 6 0 0 · 4 1 −6 6 0 0 = Kern −4 −1 1 0 0  = Kern 0 −25 25 0 0  ·1/25 0 0 0 1 −1 0 0 0 1 −1   1 −6 6 0 0 = Kern 0 −1 1 0 0  . 0 0 0 1 −1 Wir tauschen Spalte 3 gegen Spalte 5 und erhalten

6.1 Eigenwerte und Eigenräume

155

  1 −6 0 0 6 Kern 0 −1 0 0 1 ·(−6) 0 0 −1 1 0

    0   * 0 0 1+ 100 0 0        = Kern 0 1 0 0 −1 =  1 , 0 .  0 0 1 −1 0 1 0 0 1

Nach Rückgängigmachen des Variablentausches (3 ↔ 5) erhalten wir     0 0 *   + 0   1    VA,λ2 =  0 , 1 1 0 1 0 als Eigenraum. Da es sich um einen zweidimensionalen Raum handelt, folgt geo(λ2 ) = 2. Die Matrix A ist nicht diagonalisierbar, denn es stimmt sogar bei beiden Eigenwerten die geometrische Ordnung nicht mit der algebraischen Ordnung überein: λ alg(λ ) geo(λ ) λ1 = −2 2 1 . λ2 = 3 3 2 Wir betrachten nun



 2 0 −2 −2 0 2 1 1  B= −1 −2 −1 −2 1 2 4 5

und bestimmen die Eigenwerte:   x−2 0 2 2  0 x − 2 −1 −1   χB (x) = det(xE − B) = det   1 2 x+1 2  + −1 −2 −4 x − 5      x−2 0 2 2 x−2 0 0 2  0 x − 2 −1 −1     = det  0 x − 2 0 −1  = det   1   2 x+1 2 1 2 x−1 2  0 0 x−3 x−3 0 0 0 x−3 6 ·(−1)   x−2 0 0 = (x − 3) det  0 x − 2 0  1 2 x−1 = (x − 3)(x − 2)2 (x − 1). Wie üblich, lesen wir die Eigenwerte von B und ihre algebraischen Ordnungen hieraus direkt ab:

156

6 Eigenwerte und Eigenvektoren

λ alg(λ ) λ1 = 2 2 . λ2 = 3 1 λ3 = 1 1 Für den Eigenraum von B zum Eigenwert λ1 = 2 berechnen wir   0 0 −2 −2 0 0 1 1  VB,λ1 = Kern(B − λ1 E) = Kern(B − 2E) = Kern  −1 −2 −3 −2 1 2 4 3       0011 1243 1 2 0 −1 = Kern = Kern = Kern . 1243 0011 001 1 Es bietet sich der Spaltentausch 2 ↔ 3 an:     1 +  * −2  0  −1 1 0 2 −1    Kern =   1 , 0  . 010 1 0 1 

Nach Rückgängigmachen des Variablentausches folgt     1 + * −2 1 0    VB,λ1 =   0  , −1 . 0 1 Es gilt also geo(λ1 ) = 2 = alg(λ1 ). Da die algebraische Ordnung der anderen beiden Eigenwerte jeweils 1 ist, kann an dieser Stelle bereits festgestellt werden, dass B diagonalisierbar ist. Für den Eigenraum zum Eigenwert λ2 = 3 gilt   −1 0 −2 −2  0 −1 1 1   VB,λ2 = Kern(B − λ2 E) = Kern(B − 3E) = Kern  −1 −2 −4 −2 1 2 4 2     −1 0 −2 −2 −1 0 −2 −2 = Kern  0 −1 1 1  = Kern  0 −1 1 1  0 2 2 0 0 1 1 0     −1 0 −2 −2 −1 0 −2 −2 = Kern  0 −1 1 1  = Kern  0 −1 1 1  0 0 2 1 0 0 1 1/2       * −1 + −1 0 0 −1 100 1  1/2   = Kern  0 −1 0 1/2  = Kern 0 1 0 −1/2 =  −1/2 . 0 0 1 1/2 0 0 1 1/2 1

6.1 Eigenwerte und Eigenräume

157

Wie erwartet, ist der Eigenraum eindimensional, es gilt also geo(λ2 ) = 1. Schließlich ergibt die Bestimmung des Eigenraums zum dritten Eigenwert   1 0 −2 −2 0 1 1 1  VB,λ3 = Kern(B − λ3 E) = Kern(B − 1E) = Kern  −1 −2 −2 −2 1 2 4 4     1 0 −2 −2 1 0 −2 −2 0 −1 1 1  0 −1 1 1     = Kern  0 −2 −4 −4 = Kern 0 0 −6 −6 0 2 6 6 0 0 8 8     1 0 −2 −2 1 0 00 = Kern 0 −1 1 1  = Kern 0 −1 0 0 0 0 1 1 0 0 11     * 0 + 1000 0  = Kern 0 1 0 0 =  −1 . 0011 1 Auch dieser Eigenraum ist erwartungsgemäß eindimensional. Es gilt also geo(λ2 ) = 1. Für jeden Eigenwert stimmt die geometrische Ordnung mit seiner algebraischen Ordnung überein. Es gibt daher eine Basis (v1 , v2 , v3 , v4 ) des R4 aus Eigenvektoren von B. Wir können beliebige linear unabhängige Vektoren v1 , v2 ∈ VB,λ1 sowie beliebige nicht-triviale Vektoren v3 ∈ VB,λ2 und v4 ∈ VB,λ3 aus den zuvor berechneten Eigenräumen auswählen. Wenn wir diese Eigenvektoren zu einer Matrix S zusammenstellen, ergibt sich aufgrund der jeweiligen Eigenwertgleichung eine reguläre Matrix mit BS = B · (v1 |v2 |v3 |v4 ) = (Bv1 |Bv2 |Bv3 |Bv4 ) = (λ1 v1 |λ1 v2 |λ2 v3 |λ3 v4 )  λ1 0 0  0 λ1 0 = (v1 |v2 |v3 |v4 )   0 0 λ2 0 0 0 {z | =:Λ

 0 0  = SΛ , 0 λ3 }

woraus S−1 BS = Λ folgt. Wählen wir also aus den drei Eigenräumen einen Satz von vier linear unabhängigen Vektoren aus, beispielsweise direkt die angegebenen Richtungsvektoren:         −2 1 −1 0 1 0  1/2  0        v1 =   0 , v2 = −1, v3 = −1/2, v4 = −1. 0 1 1 1

158

6 Eigenwerte und Eigenvektoren

Wir stellen nun diese Vektoren zu einer Matrix zusammen:  −2 1 −1  1 0 1/2 S = (v1 |v2 |v3 |v4 ) =   0 −1 −1/2 0 1 1

 0 0 . −1 1

In der Tat leistet S das Geforderte, wie die folgende Rechnung zeigt. Für die Inverse von S gilt   0 1 −1 −1 1 2 0 0  S−1 =  0 0 2 2 −1 −2 −2 −1 und somit 

   0 1 −1 −1 2 0 −2 −2 −2 1 −1 0  1 2 0 0   0 2 1 1   1 0 1/2 0     S−1 BS =   0 0 2 2  −1 −2 −1 −2  0 −1 −1/2 −1 −1 −2 −2 −1 1 2 4 5 0 1 1 1      0 1 −1 −1 −4 2 −3 0 2000  1 2 0 0   2 0 3/2 0  0 2 0 0     =  0 0 2 2   0 −2 −3/2 −1 = 0 0 3 0 =: Λ . −1 −2 −2 −1 0 2 3 1 0001 Aufgabe 6.2.3 Gegeben sei eine 10 × 10-Matrix A mit reellen Komponenten und Rang A = 6. Die Matrix habe u. a. die Eigenwerte λ1 = 1, λ2 = −2 und λ3 = −3. Zudem gebe es einen Vektor x ∈ R10 , x 6= 0 mit Ax − 4x = 4x. Des Weiteren gelte Rang(A − E10 ) = 7. Geben Sie sämtliche Eigenwerte von A an sowie jeweils die geometrische Ordnung. Ist A diagonalisierbar? Lösung Eigenwert Geom. Ordnung Begründung 0 4 A ist singulär (da Rang A < 10), somit ist 0 ein Eigenwert von A. Es gilt geo(0) = dim Kern(A − 0E) = 10 − Rang A = 4. 1 3 geo(1) = dim Kern(A − 1E) = 10 − Rang(A − E) = 3 8 1 Es gilt Ax − 4x = 4x ⇒ Ax = 8x, und es bleiben noch zwei weitere Eigenwerte λ2 = −2 und λ3 = −3. −2 1 Da bereits geo(0) + geo(1) = 7 ist, bleibt nur noch geo(8) = geo(−2) = geo(−3) = 1 −3 1 für die übrigen drei Eigenwerte, denn Eigenräume sind mindestens eindimensional. Da geo(0) + geo(1) + geo(8) + geo(−2) + geo(−3) = 10 ergibt, ist A diagonalisierbar.

6.2 Änderung der Eigenwerte bei Matrixoperationen

159

Aufgabe 6.2.4 Welche der folgenden Matrizen sind diagonalisierbar, welche nicht?       27 13 12 14 1000 25 19 24  0 37 10 19 0 1 0 0      A=  0 0 34 11 , B = 0 0 2 1 , C = 19 11 23 24 23 11 0 0 0 19 0002 Hinweis: Dies kann ohne großen Aufwand direkt erkannt werden. Lösung Bei A handelt es sich um eine (obere) Dreiecksmatrix. Die Eigenwerte von A stehen daher auf ihrer Diagonalen. Es liegen somit genau vier verschiedene Eigenwerte der 4×4-Matrix A vor. Sie sind alle von einfacher algebraischer Ordnung, sodass jeder der vier Eigenräume eindimensional ist. Die algebraische Ordnung stimmt also für jeden Eigenwert von A mit der jeweiligen geometrischen Ordnung überein. Daher ist A diagonalisierbar. Die Eigenwerte von B sind λ1 = 1 und λ2 = 2 mit alg(λ1 ) = 2 = alg(λ2 ). Es ist leicht zu erkennen, dass Rang(B − 2E) = 3 gilt. Für die geometrische Ordnung von λ2 folgt daher geo(λ2 ) = 4 − Rang(B − 2E) = 1 < 2 = alg(λ2 ). Daher ist B nicht diagonalisierbar. Die Matrix C ist reell-symmetrisch und daher nach dem Spektralsatz diagonalisierbar.

6.2 Änderung der Eigenwerte bei Matrixoperationen

Aufgabe 6.3 Es sei A eine n × n-Matrix über K. Zeigen Sie Folgendes: a) Spec A = Spec AT , wobei auch die algebraischen und geometrischen Ordnungen der Eigenwerte bei A und AT übereinstimmen. b) Im Allgemeinen sind dagegen die Eigenräume von A und AT verschieden. Finden Sie ein entsprechendes Beispiel. c) Ist A regulär, so gilt Spec(A−1 ) = { λ1 : λ ∈ Spec A}. d) Ist A regulär, so gilt VA,λ = VA−1 ,λ −1 für jeden Eigenwert λ ∈ Spec A. e) Hat A obere oder untere Dreiecksgestalt, so sind die Diagonalkomponenten von A die Eigenwerte von A. f) Ist A diagonalisierbar, so gilt: A ist selbstinvers ⇐⇒ Spec A ⊂ {−1, 1}. Lösung a) Behauptung: Spec A = Spec AT . Beweis. Für das charakteristische Polynom von A gilt χA (x) = det(xE − A) = det((xE − A)T ) = det(xE T − AT ) = det(xE − AT ) = χAT (x).

160

6 Eigenwerte und Eigenvektoren

Beide charakteristischen Polynome sind also gleich und daher auch deren Nullstellen bzw. die Eigenwerte von A und AT sowie deren algebraische Ordnungen. Für jeden Eigenwert λ gilt dabei geoAT (λ ) = dimVAT ,λ = dim Kern(AT − λ E) = n − Rang(AT − λ E) = n − Rang(AT − λ E T ) = n − Rang(A − λ E)T = n − Rang(A − λ E) = dim Kern(A − λ E) = dimVA,λ = geoA (λ ). Somit ist die geometrische Ordnung von λ bei A und bei AT identisch. b) Behauptung: Im Allgemeinen sind dagegen die Eigenräume von A und AT verschieden. Beweis. Wir betrachten beispielsweise die reelle 2 × 2-Matrix   21 A= . 03 Die Eigenwerte von A und AT sind λ1 = 2 und λ2 = 3. Für die Eigenräume gilt jedoch   1 VA,λ1 = Kern(A − 2E) = Kern(0, 1) = , 0   1 VA,λ2 = Kern(A − 3E) = Kern(1, −1) = , 1   1 VAT ,λ1 = Kern(AT − 2E) = Kern(1, 1) = , −1   0 VAT ,λ2 = Kern(AT − 3E) = Kern(1, 0) = . 1 Die Eigenräume von A und AT sind also in der Regel nicht identisch. c) Behauptung: A regulär ⇒ Spec(A−1 ) = {λ −1 : λ ∈ Spec A}. Beweis. Es gilt für alle x ∈ VA,λ mit x 6= 0 Ax = λ x ⇐⇒ Ex = A−1 λ x ⇐⇒ x = λ A−1 x. Da A regulär ist, gilt λ 6= 0. Durch Multiplikation der letzten Gleichung mit λ −1 folgt λ −1 x = A−1 x. Dies ist eine Eigenwertgleichung für A−1 . Da x 6= 0 ist, handelt es sich bei λ −1 um einen Eigenwert von A−1 . Der Eigenvektor x ∈ VA,λ ist also auch ein Eigenvektor zu λ −1 von A−1 . Könnte A−1 auch über weitere Eigenwerte verfügen? Dazu sei µ ein Eigenwert von A−1 . Es folgt mit analoger Argumentation, dass µ 6= 0 gilt und µ −1 ein Eigenwert von A ist. Es gibt also außer den Kehrwerten der Eigenwerte von A keine weiteren Eigenwerte von A−1 .

6.2 Änderung der Eigenwerte bei Matrixoperationen

161

d) Behauptung: VA−1 ,λ −1 = VA,λ . Beweis. Dies folgt direkt aus der vorausgegangenen Argumentation zu Teil c). e) Behauptung: Die Eigenwerte einer Dreiecksmatrix A sind ihre Diagonalkomponenten. Beweis. Die charakteristische Matrix xE − A einer oberen bzw. unteren Dreiecksmatrix A ist ebenfalls eine obere bzw. untere Dreiecksmatrix. Die Determinante einer oberen bzw. unteren Dreiecksmatrix ist das Produkt ihrer Diagonalkomponenten. Daher gilt χA (x) = (x − a11 ) · · · · · (x − ann ). Die Eigenwerte von A sind dann ihre Diagonalkomponenten a11 , . . . , ann . f) Behauptung: Ist A diagonalisierbar, so gilt: A ist selbstinvers ⇐⇒ Spec A ⊂ {−1, 1}. Beweis. Da A diagonalisierbar ist, gibt es eine reguläre Matrix S mit S−1 AS = Λ , wobei Λ eine Eigenwertdiagonalmatrix mit den Eigenwerten λ1 , λ2 , . . . , λn von A ist. Gilt nun A−1 = A, so ist  2  λ1  λ2  2   = ΛΛ = (S−1 AS)(S−1 AS) = S−1 AAS = S−1 S = En ,  . ..    λn2 woraus λi2 = 1 bzw. λi = ±1 für i = 1, . . . , n folgt. Gilt dagegen Spec A = {−1, 1}, so ist Λ 2 = E und daher AA = SΛ S−1 SΛ S−1 = SΛ 2 S−1 = SS−1 = E. Aufgabe 6.4 Es sei A eine quadratische Matrix. Zeigen Sie: Ist λ ∈ Spec A, so ist λ 2 ∈ Spec A2 . Lösung Es sei λ ∈ Spec A. Damit gibt es v 6= 0 mit Av = λ v. Nach Multiplikation dieser Gleichung mit A von links folgt A2 v = Aλ v = λ Av = λ 2 v. Hieraus folgt λ 2 ∈ Spec(A2 ). Aufgabe 6.5 Eine quadratische Matrix A ∈ M(n, K) heißt idempotent, falls A2 = A gilt. Zeigen Sie: a) Eine nicht mit En übereinstimmende idempotente Matrix muss singulär sein. b) Für jede idempotente Matrix A ∈ M(n, K) ist Spec A ⊂ {0, 1}. c) Jede idempotente Matrix ist diagonalisierbar. Lösung Es sei also A ∈ M(n, K) eine quadratische und idempotente Matrix. Wir zeigen zunächst, dass im Fall der Regularität von A nur die Einheitsmatrix für A infrage kommt. Es gilt für jedes x ∈ Kn A · A · En = A · En .

162

6 Eigenwerte und Eigenvektoren

Ist nun A regulär, so folgt nach Multiplikation dieser Gleichung mit A−1 von links: A · En = En , woraus A = En folgt. Ist also A 6= En , so muss A singulär sein. Wenn wir den allgemeinen Fall betrachten, also die Regularität von A nicht voraussetzen, so gibt es zunächst für jeden Vektor v ∈ Bild A einen Vektor x ∈ Kn mit v = Ax. Sollte A nicht gerade die Nullmatrix (die ausschließlich den Eigenwert 0 besitzt) sein, so ist Bild A 6= {0}, und wir können v 6= 0 annehmen. Da A idempotent ist, gilt nun Av = A(Ax) = (AA)x = Ax = v. Damit ist v definitionsgemäß ein Eigenvektor zum Eigenwert λ = 1 von A, und es gilt Bild A ⊂ VA,1 . Ist A regulär, so folgt nach obiger Argumentation A = En , sodass λ = 1 in diesem Fall der einzige Eigenwert von A ist. Ist dagegen A singulär, so besitzt A, wie jede singuläre Matrix, den Eigenwert 0. Im Fall der Nullmatrix (Rang A = 0) besitzt A nur den Eigenwert 0. Es stellt sich die Frage, ob es im Fall 0 < Rang A < n neben 0 und 1 noch weitere Eigenwerte von A geben kann. Dazu berechnen wir die geometrischen Ordnungen geo 0 = dim Kern A = n − Rang A,

geo 1 = dimVA,1 ≥ dim Bild A = Rang A,

da Bild A ⊂ VA,1 . Somit gilt für die Summe der geometrischen Ordnungen geo 0 + geo 1 ≥ n − Rang A + Rang A = n. Aus Dimensionsgründen bleibt nur geo 0 + geo 1 = n. Damit ist ein dritter Eigenwert ausgeschlossen. Zudem folgt die Diagonalisierbarkeit von A. Zusammengefasst erhalten wir folgendes Fazit. Bemerkung 6.1 Für jede idempotente Matrix A gilt: (i) (ii) (iii) (iv) (v)

A ist diagonalisierbar, Spec A ⊂ {0, 1}, A = En , Spec A = {1}, falls A regulär ist, Spec A = {0, 1}, falls A singulär ist und nicht mit der Nullmatrix übereinstimmt, Spec A = {0}, falls A die Nullmatrix ist.

6.3 Ähnlichkeit von Matrizen

Aufgabe 6.6 Es seien A, B zwei quadratische Matrizen. Zeigen Sie: A ≈ B =⇒ A2 ≈ B2 . Die Umkehrung gilt im Allgemeinen nicht.

6.3 Ähnlichkeit von Matrizen

163

Lösung Gilt A ≈ B, so existiert eine reguläre Matrix S mit S−1 AS = B. Damit folgt (S−1 AS)2 = B2 . Nun ist andererseits (S−1 AS)2 = (S−1 AS)(S−1 AS) = S−1 A2 S. Daher ist S−1 A2 S = B2 , woraus A2 ≈ B2 folgt. Die Umkehrung gilt im Allgemeinen nicht, da beispielsweise  2 −1 0 = E22 ≈ E22 , 0 1 aber



 −1 0 Spec 6 Spec E2 . = 0 1

Da ähnliche Matrizen notwendigerweise dieselben Eigenwerte haben, sind die beiden Matrizen in der letzten Ungleichung auch nicht ähnlich zueinander. Aufgabe 6.7 Zeigen Sie für λ1 , . . . , λn , µ1 , . . . , µn ∈ K und eine beliebige Permutation π der Indexmenge {1, . . . , n}:     λ1 µ1     (λ1 , . . . , λn ) = (µπ(1) , . . . , µπ(n) ) ⇒  . . .  ≈  . . .  λn

µn

bzw. etwas prägnanter formuliert: Unterscheiden sich zwei Diagonalmatrizen nur um eine Permutation ihrer Diagonalkomponenten, so sind sie ähnlich zueinander. Lösung Es gelte (λ1 , . . . , λn ) = (µπ(1) , . . . , µπ(n) ). Wir betrachten die beiden Diagonalmatrizen   

λ1 ..

.





 ,

 

λn



µ1 ..

 .

. µn

Die charakteristischen Polynome beider Matrizen sind zwar identisch, aber aus dieser Tatsache allein folgt zunächst noch nicht deren Ähnlichkeit! Wir wollen versuchen, eine Ähnlichkeitstransformation zur bestimmen, mit der die rechte Matrix zur linken wird. Wir können die Diagonalelemente (µ1 , . . . , µn ) permutieren durch nacheinander ausgeführte paarweise Vertauschungen, sodass (µπ(1) , . . . , µπ(n) ) = (λ1 , . . . , λn ) gilt. Wie können wir eine einzelne Vertauschung zweier Elemente µi und µ j mit 1 ≤ i, j ≤ n in der Diagonalmatrix   µ1  ..   .  µn durch elementare Umformungen durchführen? Hierzu vertauschen wir zunächst Zeile i und Zeile j miteinander und danach Spalte i und Spalte j. Dies können wir durch eine

164

6 Eigenwerte und Eigenvektoren

Typ-II-Umformungsmatrix Pi j durch Links- und anschließender Rechtsmultiplikation bewerkstelligen:       .. .. .. . . .        µi    µj  0 µj              . . . .. .. .. Pi j   Pi j =   Pi j =  .            µj  0 µi    µi    .. .. .. . . . Da Pi j = Pi−1 j gilt, ist die Matrix mit den vertauschten Diagonalkomponenten ähnlich zur Ausgangsmatrix. Dies können wir nun mit allen hintereinandergeschalteten paarweisen Vertauschungen durchführen, sodass es ein Produkt P = P1 P2 · · · Pk von Typ-IIUmformungsmatrizen P1 , P2 , . . . , Pk gibt mit     µ1 λ1     Pk · · · P2 P1  . . .  P1 P2 · · · Pk =  . . .  . µn

λn

Da jede einzelne Vertauschungsmatrix Pl , (l = 1, . . . , k) zu sich selbst invers ist, gilt für das Produkt Pk · · · P2 P1 = Pk−1 · · · P2−1 P1−1 = (P1 P2 · · · Pk )−1 = P−1 . Daher liegt mit P = P1 P2 · · · Pk die Ähnlichkeitstransformation     µ1 λ1     P−1  . . .  P =  . . .  µn

λn

vor, woraus die Behauptung folgt. Wir hätten alternativ auch wie folgt argumentieren können: Eine Eigenvektorbasis für die Diagonalmatrix   λ1  ..   .  := L λn ist einfach anzugeben. Es ist dies beispielsweise die kanonische Basis (ˆe1 , . . . , eˆ n ) oder anders formuliert: Die Einheitsmatrix En „transformiert“ die Matrix L in Diagonalform. Wir wissen bereits, dass sich durch Permutieren der Vektoren in der Eigenvektorbasis eine Diagonalmatrix mit entsprechend permutierten Diagonalkomponenten ergibt, also beispielsweise die Diagonalmatrix   µ1  ..   . . µn

6.4 Diagonalisierbare Endomorphismen

165

Der erste Ansatz zeigt darüber hinaus, wie wir zu einer entsprechenden Transformationsmatrix gelangen können. Aufgabe 6.8 Es sei Λ eine n × n-Diagonalmatrix mit den Diagonalkomponenten λ1 , λ2 , . . . , λn ∈ Z und S ∈ GL(n, R) eine ganzzahlige Matrix mit det S = 1. Warum ist dann S−1Λ S ebenfalls ganzzahlig, und warum gilt Spec(S−1Λ S) = {λ1 , λ2 , . . . , λn }? Lösung Da S eine reguläre Matrix mit ganzzahligen Komponenten und det S = 1 ist, besitzt nach der Cramer’schen Regel ihre Inverse S−1 ebenfalls nur ganzzahlige Komponenten. Nun ist Λ eine Matrix, die ausschließlich ganzzahlige Komponenten besitzt. Daher ist das Produkt S−1Λ S ebenfalls eine Matrix aus ganzen Zahlen. Dieses Produkt ist eine Ähnlichkeitstransformation von Λ . Die Eigenwerte ändern sich dadurch nicht, sodass   λ1  λ2    Spec(S−1Λ S) = SpecΛ = Spec   = {λ1 , λ2 , . . . , λn } ..  .  λn gilt.

6.4 Diagonalisierbare Endomorphismen

Aufgabe 6.9 Zeigen Sie mithilfe der Diagonalisierung einer geeigneten 2 × 2-Matrix, dass für die rekursiv definierte Fibonacci-Folge a0 := 0 a1 := 1 an := an−1 + an−2 , die Formel 1 an = √ 5 gilt.

√ !n 1+ 5 − 2

n≥2 √ !n ! 1− 5 2

166

6 Eigenwerte und Eigenvektoren

Lösung Durch Zusammenfassen von zwei aufeinanderfolgenden Folgengliedern definieren wir basierend auf der Fibonacci-Folge a0 := 0,

a1 := 1 n≥2

an := an−1 + an−2 , die Vektorfolge  xn :=

 an , an+1

n ≥ 0.

Für diese Folge gilt mit dem Startvektor   0 x0 = = eˆ 2 1 die Beziehung xn =

   n 01 01 xn−1 = . . . = x0 , 11 11

Um die n-te Potenz der Matrix

n ≥ 1.



 01 A= 11

effektiv zu bestimmen, berechnen wir zunächst die Eigenwerte von A. Es gilt χA (x) := det(xE2 − A) = x(x − 1) − 1 = x2 − x − 1 = (x − λ1 )(x − λ2 ) mit den beiden Eigenwerten √ 1+ 5 λ1 = 2

√ 1− 5 und λ2 = 1 − λ1 = . 2

Diese beiden Eigenwerte erfüllen zudem die Bedingung λ1 λ2 = −1

bzw. λ2 = −1/λ1 .

Da beide Eigenwerte verschieden sind, liegen zwei jeweils eindimensionale Eigenräume vor. Damit ist A diagonalisierbar. Wir berechnen nun die beiden Eigenräume. Da wir wissen, dass die beiden Matrizen A − λ1 E2 und A − λ2 E2 jeweils vom Rang 1 sind, können wir bei der Kernberechnung einfach jeweils die erste Zeile streichen, um den Eigenraum abzulesen. Wegen 1 − λ1 = λ2 bzw. 1 − λ2 = λ1 ist daher      −λ1 1 −λ2 VA,λ1 = Kern(A − λ1 E2 ) = Kern = Kern 1 1 − λ1 = , 1 1 − λ1 1      −λ2 1 −λ1 VA,λ2 = Kern(A − λ2 E2 ) = Kern = Kern 1 1 − λ2 = . 1 1 − λ2 1

6.4 Diagonalisierbare Endomorphismen

167

Mit der regulären Matrix   −λ2 −λ1 B= 1 1 gilt   λ1 0 B AB = =: Λ 0 λ2 −1

bzw. A = BΛ B−1 . Ausgehend vom Startvektor x0 gilt dann xn = An x0 = (BΛ B−1 )n x0 = BΛ n B−1 x0  n  λ 0 = B 1 n B−1 x0 λ2   n    −λ2 −λ1 λ1 0 1 λ1 1 = · eˆ 1 1 0 λ2n λ1 −λ2 −1 −λ2 2   n      n+1  −λ2 −λ1 λ1 0 λ1 −λ2 −λ1 λ1 1 1 = λ −λ = λ1 −λ2 1 2 1 1 0 λ2n −λ2 1 1 −λ2n+1     λ1n − λ2n −λ2 λ1n+1 + λ1 λ2n+1 λ1 λ2 =−1 √1 = √15 = . 5 λ n+1 − λ n+1 λ1n+1 − λ2n+1 1 2 Die erste Komponente dieses Vektors liefert nun die geschlossene Form zur Berechnung des n-ten Folgenglieds der Fibonacci-Folge:  √ n  √ n  1+ 5 an = √15 (λ1n − λ2n ) = √15 − 1−2 5 . 2

Aufgabe 6.10 Betrachten Sie den Operator Φ ∈ EndY , definiert durch Φ[ f ] :=

d dt (t ·

f ) = f + t · ddtf ,

auf dem durch die Funktionen b1 = t 2 , b2 = t 2 + t und b3 = t 2 + t + 1 erzeugten R-Vektorraum Y . a) Bestimmen Sie die Koordinatenmatrix des Endomorphismus Φ bezüglich der Basis B = (b1 , b2 , b3 ). b) Bestimmen Sie sämtliche Eigenwerte und Eigenfunktionen des Operators Φ als Teilräume von V . c) Warum gibt es von 0 verschiedene Funktionen, die invariant unter Φ sind, für die also Φ[ f ] = f gilt? d) Warum ist Φ diagonalisierbar, und wie lautet eine Basis B0 von Y bezüglich der die Koordinatenmatrix von Φ Diagonalgestalt besitzt?

168

6 Eigenwerte und Eigenvektoren

Lösung a) Die Bestimmung der Koordinatenmatrix von Φ bezüglich der Basis B = (b1 , b2 , b3 ) mit b1 = t 2 b2 = t 2 + t und b3 = t 2 + t + 1 ergibt: MB (Φ) = (cB (Φ[b1 ]) | cB (Φ[b2 ]) | cB (Φ[b3 ]))) = cB (t 2 + 2t 2 ) | cB ((t 2 + t + 2t 2 + t) | cB ((t 2 + t + 1 + 2t 2 + t)  = cB (3t 2 ) | cB ((3t 2 + 2t) | cB ((3t 2 + 2t + 1)   311 = 0 2 1 . 001



b) Die Eigenwerte von Φ sind die Eigenwerte von A := MB (Φ). Da A eine Dreiecksmatrix ist, können wir sie von der Hauptdiagonalen ablesen. Es gilt also Spec Φ = Spec A = {1, 2, 3}. Hierbei sind alle Eigenwerte von einfacher algebraischer Vielfachheit, woraus zudem die Diagonalisierbarkeit von Φ folgt. Für die Eigenräume von A gilt       * 0 + 211 1 0 0 VA,1 = Kern(A − E) = Kern 0 1 1 = Kern = −1 011 000 1   *  +   11 1 1 110 VA,2 = Kern(A − 2E) = Kern 0 0 1  = Kern = −1 001 0 0 −1 0   * +   0 1 1 1 011 VA,3 = Kern(A − 3E) = Kern 0 −1 1  = Kern = 0 . 001 0 0 −2 0 Es ist VΦ,λ ∼ = VA,λ für jeden Eigenwert λ . Genauer gilt VΦ,1 = c−1 B (VA,1 ) = h0 · b1 − 1 · b2 + 1 · b3 i = h1i VΦ,2 = c−1 B (VA,2 ) = h1 · b1 − 1 · b2 + 0 · b3 i = h−ti = hti

2 VΦ,3 = c−1 B (VA,3 ) = h1 · b1 + 0 · b2 + 0 · b3 i = t . In der Tat gilt für jede der drei Basisfunktionen ihre jeweilige Eigenwertgleichung Φ[1] = 1 + 0 = 1 · 1,

Φ[t] = t + t · 1 = 2 · t,

Φ[t 2 ] = t 3 + t · 2t 2 = 3 · t 2 .

c) Da λ = 1 ein Eigenwert von Φ ist, gibt es eine nicht-triviale Funktion f aus Y mit Φ[ f ] = 1 · f . d) Mit B0 = (1,t,t 2 ) liegt eine Basis von Y aus Eigenfunktionen von Φ vor. Bezüglich B0 ist die Koordinatenmatrix von Φ die Eigenwertdiagonalmatrix

6.4 Diagonalisierbare Endomorphismen

169

  100 MB0 (φ ) = 0 2 0 . 003 Aufgabe 6.10.1 Betrachten Sie den durch Φ[ f ] := t · ddtf definierten Operator Φ ∈ EndY auf dem von b1 = (t − 1)2 , b2 = 2(t − 1) und b3 = 4 erzeugten R-Vektorraum Y . Bestimmen Sie die Koordinatenmatrix des Endomorphismus Φ bezüglich der Basis B = (b1 , b2 , b3 ). Warum besitzt die Differenzialgleichung Φ[ f ] − f = 0 nichttriviale Lösungen? Bestimmen Sie alle Eigenfunktionen von Φ mit Φ[ f ] = f bzw. Φ[ f ] = 2 f . Wie lautet der Kern von Φ? Bestimmen Sie eine Basis C von Y , bezüglich der die Koordinatenmatrix MC (Φ) diagonal ist. Lösung Für den durch die Basisfunktionen b1 = (t −1)2 , b2 = 2(t −1) und b3 = 4 erzeugten reellen Funktionenraum Y = hb1 , b2 , b3 i betrachten wir den Operator Φ ∈ End(Y ) definiert durch Φ[ f ] := t · ddtf . Dieser lineare Operator ist in der Tat ein Endomorphismus, denn die Bilder der Basisfunktionen b1 , b2 und b3 d(t − 1)2 = t · 2(t − 1) = 2t 2 − 2t = 2 · b1 + 1 · b2 + 0 · b3 , dt d2(t − 1) Φ[b2 ] = t · = t · 2 = 2t = 0 · b1 + 1 · b2 + 12 · b3 , dt d4 Φ[b3 ] = t · = t · 0 = 0 · b1 + 0 · b2 + 0 · b3 dt Φ[b1 ] = t ·

und damit auch jede Linearkombination aus ihnen sind wiederum Linearkombinationen dieser Basisfunktionen. Die Koordinatenvektoren dieser Bildvektoren bezüglich der Basis B = (b1 , b2 , b3 ) lauten       2 0 0 cB (Φ[b1 ]) = 1 , cB (Φ[b1 ]) =  1  , cB (Φ[b1 ]) = 0 . 1/2 0 0 Wir erhalten somit



 2 0 0 MB (Φ) = 1 1 0 0 1/2 0

als Koordinatenmatrix von Φ bezüglich B. Die Differenzialgleichung Φ[ f ] − f = t ·

d f−f =0 dt

ist äquivalent mit der Operatoreigenwertgleichung Φ[ f ] = f zum Eigenwert 1. Es gibt genau dann nicht-triviale Lösungen, wenn 1 ∈ Spec Φ ein Eigenwert von Φ ist. Die Ei-

170

6 Eigenwerte und Eigenvektoren

genwerte von Φ stimmen mit den Eigenwerten der Koordinatenmatrix MB (Φ) überein. Wir bestimmen also die Eigenwerte von MB (Φ). Hierzu benötigen wir nicht das charakteristische Polynom, da die Eigenwerte einer Dreiecksmatrix bereits auf ihrer Hauptdiagonalen stehen. Es gilt also Spec Φ = Spec MB (Φ) = {0, 1, 2}, wobei es sich ausschließlich um algebraische einfache Eigenwerte handelt. Da nun 1 Eigenwert von Φ ist, gibt es nicht-triviale Lösungen der obigen Differenzialgleichung. Um die Menge aller Lösungsfunktionen zu bestimmen, berechnen wir zunächst den Eigenraum zum Eigenwert 1 von MB (Φ). Es gilt       * 0 + 1 0 0 1 0 0 VMB (Φ),1 = Kern(MB (Φ) − E) = Kern 1 0 0  = Kern = 2 . 0 1 −2 1 0 /2 −1 1 Dieser Teilraum des R2 ist isomorph zum gesuchten Lösungsraum und enthält die Koordinatenvektoren der Lösungsfunktionen bezüglich der Basis B. Durch Einsetzen in den Basisisomorphismus erhalten wir den gesuchten Lösungsraum. Er lautet also * + *  + 0 0  2  = c−1 2 = h0 · b1 + 2 · b2 + 1 · b3 i = h4ti = hti. VΦ,1 = c−1 B B 1 1 In der Tat ist jede Funktion f (t) = αt ∈ hti mit α ∈ R invariant unter Φ. Wir bestimmen nun die weiteren Eigenräume auf analoge Art. Für den Raum der Eigenfunktionen zum Eigenwert 2 erhalten wir   0 0 0 VΦ,2 ∼ = VMB (Φ),2 = Kern(MB (Φ) − 2E) = Kern 1 −1 0  0 1/2 −2       * 4 + 1 −1 0 1 0 −4 = Kern = Kern = 4 . 0 1 −4 0 1 −4 1 Der Basisisomorpismus liefert 2 2 2 VΦ,2 = c−1 B (VMB (Φ),2 ) = h4b1 + 4b2 + b3 i = h4t − 8t + 4 + 8t − 8 + 4i = h4t i = ht i.

Der Eigenraum zum Eigenwert 0 ist nichts weiter als der Kern von Φ. Er ist isomorph zum Kern von MB (Φ). Wir erhalten VΦ,0 = Kern Φ = c−1 B Kern MB (Φ)

geo(0)=1 −1 = cB (hˆe3 i) =

h4i = h1i.

Der Kern von Φ besteht also aus allen konstanten reellen Funktionen. Wenn wir nun etwa mit C = (1,t,t 2 ) eine Basis von Y aus Eigenfunktionen von Φ wählen, so ergibt sich eine Koordinatenmatrix

6.5 Adjungiertheit und symmetrische Matrizen

171



 000 MC (Φ) = 0 1 0 002 in Diagonalform.

6.5 Adjungiertheit und symmetrische Matrizen

Aufgabe 6.11 Warum gilt Rang(A∗ ) = Rang A sowie det(A∗ ) = det A für jede komplexe n × n-Matrix A? Lösung Es sei A eine komplexe Matrix. Wir zeigen zunächst Rang(A∗ ) = Rang A. Die lineare Unabhängigkeit eines Systems aus Vektoren des Cn bleibt nach komplexer Konjugation erhalten. Denn wenn uns mit z1 , . . . , zm ∈ Cn ein System linear unabhängiger Vektoren vorliegt und wir annehmen, dass ihre konjugierten Vektoren linear abhängig wären, dann gäbe es einen Index k ∈ {1, . . . , m}, sodass der Vektor zk eine Linearkombination der übrigen konjugierten Vektoren ist: m

zk =

∑ λ jz j j=1 j6=k

mit λ j ∈ C. Die komplexe Konjugation dieser Gleichung ergibt dann m

zk =

m

∑ λ jz j = ∑ λ jz j. j=1 j6=k

j=1 j6=k

Es wäre dann zk eine Linearkombination der übrigen Vektoren z j , was einen Widerspruch zur linearen Unabhängigkeit der Vektoren z1 , . . . , zm darstellt. Ebenso bleibt durch diese Überlegung auch die lineare Abhängigkeit bei komplexer Konjugation erhalten. Wenn wir also die Einträge einer komplexen Matrix A konjugieren, so ist die Anzahl der linear unabhängigen Zeilen der konjugierten Matrix A mit der Anzahl der linear unabhängigen Zeilen von A identisch. Es gilt somit Rang A = Rang A. Wir wissen bereits, dass sich der Rang einer Matrix durch Transponieren nicht ändert (Zeilenrang=Spaltenrang). Insgesamt gilt also T

Rang(A∗ ) = Rang(A ) = Rang(A) = Rang A. Nun zeigen wir, dass det(A∗ ) = det A gilt. Es sei dazu A ∈ M(n, C). Für die Determinante von A∗ gilt nach der Determinantenformel von Leibniz (vgl. Satz 2.73 aus [5])

172

6 Eigenwerte und Eigenvektoren T

det(A∗ ) = det(A ) = det(A) =

n



sign(π) ∏ ai,π(i) i=1

π∈Sn

n

=



sign(π)∏ ai,π(i) i=1

π∈Sn

n

=



sign(π) ∏ ai,π(i) = det A.

π∈Sn

i=1

Aufgabe 6.12 Es seien A, B zwei reell-symmetrische Matrizen. Zeigen Sie: Sind A und B positiv semidefinit, so gilt: A ≈ B ⇐⇒ A2 ≈ B2 (vgl. hierzu Aufgabe 6.6). Lösung Die Implikation A ≈ B =⇒ A2 ≈ B2 wurde bereits in Aufgabe 6.6 gezeigt. Wir zeigen nun die Umkehrung für A und B positiv semidefinit. Zunächst sind A und B als symmetrische Matrizen diagonalisierbar, und es gibt S, T regulär mit     λ1 µ1     S−1 AS =  . . .  =: Λa , T −1 BT =  . . .  =: Λb , λn

µn

hierbei sind wegen der positiven Semidefinitheit λi , µi ≥ 0 für 1 ≤ i ≤ n. Es gilt für das charakteristische Polynom von A2 : χA2 (x) = det(xEn − A2 ) = det(xEn − (SΛa S−1 )2 ) = det(xEn − SΛa2 S−1 ) = det(S(xEn − Λa2 )S−1 ) = det(xEn − Λa2 ). Wir erkennen hieran, dass die Eigenwerte von A2 nichts weiter sind als die Quadrate der Diagonalkomponenten von Λa , also der Eigenwerte von A. Entsprechend gilt für B2 χB2 (x) = det(xEn − Λb2 ). Da zudem A2 ≈ B2 gilt, sind die charakteristischen Polynome identisch χA2 (x) = (x − λ12 ) · · · (x − λn2 ) = (x − µ12 ) · · · (x − µn2 ) = χB2 (x). Mit einer Permutation π der Indexmenge {1, . . . , n} gilt also 2 λi2 = µπ(i) ,

1 ≤ i ≤ n.

Da λi und µi nicht-negativ sind, folgt hieraus auch λi = µπ(i) , und damit nach Aufgabe 6.7

1≤i≤n

6.5 Adjungiertheit und symmetrische Matrizen

 λ1  ..  .

173





  ≈



µ1 ..

λn |

{z

≈A

 ,

. µn

}

|

{z

≈B

}

woraus A ≈ B folgt. Aufgabe 6.13 Zeigen Sie: Ist A eine reguläre, symmetrische Matrix über R, für die es einen Vektor x 6= 0 gibt mit xT Ax = 0 (isotroper Vektor), so ist A indefinit. Lösung Da A reell-symmetrisch ist, gibt es nach dem Spektralsatz eine orthogonale Matrix S, mit   λ1  λ2    ST AS =  =: Λ . . ..    λn Nun ist S−1 = ST , daher kann diese Gleichung durch Linksmultiplikation mit S und Rechtsmultiplikation mit ST nach A aufgelöst werden: A = SΛ ST . Mit dem isotropen Vektor x 6= 0 folgt 0 = xT Ax = xT SΛ ST x = (ST x)T Λ (ST x) = yT Λ y mit y = ST x. Da ST regulär ist, gilt y 6= 0. Mit y liegt also ein isotroper Vektor für Λ vor. Im Detail gilt also    λ1 y1  λ2  y2  n    0 = (y1 , y2 , . . . , yn )  = ∑ λi y2i .    . . . .   ..   i=1

λn

yn

Da alle Eigenwerte aufgrund der Regularität von A von null verschieden sind und y 6= 0 ist, geht dies nur, wenn es (mindestens) zwei vorzeichenverschiedene Eigenwerte λ j , λk ∈ Spec A gibt, woraus die Indefinitheit von A folgt. Aufgabe 6.14 Beweisen Sie Satz 6.41 aus [5]: Für jeden Eigenwert λ einer Isometrie f auf einem euklidischen bzw. unitären Vektorraum gilt |λ | = 1. Lösung Es sei λ ein Eigenwert der Isometrie f und v 6= 0 ein Eigenvektor zu λ . Es gilt nun aufgrund der Normerhaltung von f kvk = k f (v)k = kλ vk = |λ |kvk.

174

6 Eigenwerte und Eigenvektoren

Da v 6= 0 ist, folgt |λ | = 1. p Hierbei ist k · k := h·, ·i die auf dem Skalarprodukt von V basierende Norm. Aufgabe 6.15 Es sei T = ha, bi eine durch zwei linear unabhängige Vektoren a, b ∈ R3 aufgespannte Ebene und vˆ ein Normaleneinheitsvektor von T . Zeigen Sie, dass die Householder-Transformation H = E3 − 2ˆvvˆ T symmetrisch, orthogonal und selbstinvers ist. Warum wird ein Vektor x ∈ R3 durch H an der Ebene T gespiegelt? Lösung Da a, b linear unabhängig sind, ist beispielsweise vˆ := a × b/ka × bk ein Normaleneinheitsvektor. Wir zeigen zunächst die Symmetrie von H. Das Transponieren von H ergibt H T = (E3 − 2ˆvvˆ T )T = E3T − 2(ˆvvˆ T )T = E3 − 2(ˆvT )T vˆ T = H. Die Orthogonalität von H ergibt sich durch Multiplikation von H mit der transponierten Matrix. Wir erhalten HH T = H 2 = (E3 − 2ˆvvˆ T )2 = E3 − 2ˆvvˆ T − 2ˆvvˆ T (E3 − 2ˆvvˆ T ) = E3 − 4ˆvvˆ T + 4ˆv |{z} vˆ T vˆ vˆ T = E3 . =kˆvk2 =1

Insbesondere ist also H 2 = E3 und daher H = H −1 . Wir bezeichnen für x ∈ R3 mit d = Hx − x den Differenzvektor zwischen dem Bildvektor Hx und x. Es ist d = Hx − x = x − 2ˆvvˆ T x − x = −2ˆv(|{z} vˆ T x ) = −2(ˆvT x)ˆv. ∈R

Der Differenzvektor ist also parallel zum Normaleneinheitsvektor vˆ und steht daher senkrecht zu T . Abb. 6.1 veranschaulicht die Situation. Wir können d interpretieren als Vektorpfeil, der von x nach Hx zeigt. Wenn nun noch die Summe aus x und dem auf die halbe Länge reduzierten Differenzvektor in T liegt, ist Hx die Spiegelung von x an T . Es sei also s = x + 12 d = x − (ˆvT x)ˆv. Für das Skalarprodukt aus s und vˆ gilt nun sT vˆ = (x − (ˆvT x)ˆv)T vˆ = xT vˆ − (|{z} vˆ T x ) |{z} vˆ T vˆ = 0. =xT vˆ

=1

6.5 Adjungiertheit und symmetrische Matrizen

175

Der Summenvektor s ist also senkrecht zu vˆ und liegt damit im orthogonalen Komplement von vˆ , also der Ebene T .

1 2d

x s Hx

vˆ T

Abb. 6.1 Spiegelung an einer Ebene T ⊂ R3 durch H

Aufgabe 6.16 Untersuchen Sie die reell-symmetrischen Matrizen     1 0 0 1 1 −1 2 0 1 −2 0  A = −1 0 1 , B= 0 −2 8 0 , 2 1 2 1 0 0 2 

−1 0 C = −B =  0 −1

0 −1 2 0

0 2 −8 0

 −1 0 , 0 −2



−1 1 D= 0 0

1 −1 0 0

0 0 −3 0

 0 0  0 −4

auf ihr Definitheitsverhalten. Denken Sie zuvor über die Definition dieser Begriffe nach. Welche Definitheitskriterien kennen Sie? Lösung Zur Definitheit reell-symmetrischer Matrizen: Eine symmetrische n × n-Matrix A über R heißt (i) positiv definit : ⇐⇒ xT Ax > 0 für alle x ∈ Rn mit x 6= 0. (ii) negativ definit : ⇐⇒ xT Ax < 0 für alle x ∈ Rn mit x 6= 0. Dies ist genau dann der Fall, wenn −A positiv definit ist. (iii) positiv semidefinit : ⇐⇒ xT Ax ≥ 0 für alle x ∈ Rn .

176

6 Eigenwerte und Eigenvektoren

(iv) negativ semidefinit : ⇐⇒ xT Ax ≤ 0 für alle x ∈ Rn . (v) indefinit : ⇐⇒ A ist weder positiv noch negativ semidefinit (und damit erst recht weder positiv noch negativ definit). Dies ist genau dann der Fall, wenn es x, y ∈ Rn gibt mit yT Ay < 0 < xT Ax. Statt mit dieser Definition zu arbeiten, ist es in vielen Fällen einfacher, mit Definitheitskriterien zu argumentieren. Hierzu gibt es drei wirksame Methoden, die Definitheit einer reell-symmetrischen Matrix zu überprüfen. I. Eigenwertkriterium: Da der Definitheitsbegriff nur für reell-symmetrische Matrizen erklärt ist, haben wir es mit Matrizen zu tun, deren Eigenwerte ausschließlich reell sind. Hierbei gilt: Eine symmetrische n × n-Matrix A über R ist (i) positiv definit ⇐⇒ alle Eigenwerte von A sind positiv. (A ist also insbesondere regulär.) (ii) negativ definit ⇐⇒ alle Eigenwerte von A sind negativ. (A ist also insbesondere regulär.) (iii) positiv semidefinit ⇐⇒ alle Eigenwerte von A sind nicht-negativ, also ≥ 0. (Die Singularität von A ist möglich.) (iv) negativ semidefinit ⇐⇒ alle Eigenwerte von A sind nicht-positiv, also ≤ 0. (Die Singularität von A ist möglich.) (v) indefinit ⇐⇒ A besitzt vorzeichenverschiedene Eigenwerte. II. Hauptminorenkriterium: Für die symmetrische Matrix   a11 a12 · · · a1n a12 a22 · · · a2n    A= . . . ..   .. . .  a1n a2n · · · ann definiert die Determinante der k-ten Hauptabschnittsmatrix   a11 a12 · · · a1k a12 a22 · · · a2k    det  . . . ..   .. . .  a1k a2k · · · akk für k = 1, . . . , n den k-ten Hauptminor. Die Matrix A ist genau dann positiv definit, wenn alle Hauptminoren positiv sind:   a11 a12 · · · a1k a12 a22 · · · a2k    det  . > 0, k = 1, . . . , n. . . ..   .. . .  a1k a2k · · · akk Die Matrix A ist genau dann negativ definit, wenn die Hauptminoren abwechselndes Vorzeichen haben, beginnend mit „−“:

6.5 Adjungiertheit und symmetrische Matrizen

 a11 a12 · · · a12 a22 · · ·  det  . ..  .. . a1k a2k · · ·

177



a1k  a2k   > 0, ..  < 0, . 

für k gerade für k ungerade

 ,

k = 1, . . . , n.

akk

III. Diagonalisierung mit kongruenten Zeilen- und Spalteneliminationen (vgl. Satz 4.41 aus [5]): Werden bei einer reell-symmetrischen n × n-Matrix A elementare Zeilenumformungen mit den jeweils entsprechenden Spaltenumformungen durchgeführt, so ändert dies zwar in der Regel die Eigenwerte von A, nicht aber deren Vorzeichen. Die Definitheit der Matrix bleibt also bei gekoppelten Zeilen- und Spaltenumformungen erhalten. Wenn A mithilfe dieses Verfahrens diagonalisiert wird, so sind zwar die Diagonalkomponenten der erzeugten Diagonalmatrix ∆ in der Regel nicht die Eigenwerte von A, die Definitheit von A geht aber mit der Definitheit von ∆ , die am Vorzeichen der Diagonalkomponenten abgelesen werden kann, einher. Nun wenden wir uns den Matrizen der Aufgabe zu. Wir diagonalisieren die Matrix   1 −1 2 A = −1 0 1 2 1 2 mit dem gekoppelten Gauß-Verfahren:        1 −1 2 1 0 0 1 0 1 −1 2 +, ·(−2) → 0 −1 3  → 0 −1 3  ·3 → 0 −1 A = −1 0 1  0 3 −2 0 3 −2  0 0 2 1 2 +

·3

6

·(−2)

 0 0 =: ∆ . 7

6

6

Die zu A kongruente Diagonalmatrix ∆ besitzt die Eigenwerte 1, −1 und 7. (Dies sind nicht die Eigenwerte von A!) Da ∆ vorzeichenverschiedene Eigenwerte besitzt, ist ∆ indefinit. Damit ist auch die Matrix A indefinit. Dass A weder positiv noch negativ definit sein kann, zeigt bereits die zweite Hauptminore von A:   1 −1 det = −1 < 0. −1 0 Die Matrix



1 0 0 0 1 −2 B= 0 −2 8 1 0 0

 1 0  0 2

kann durch das gekoppelte Zeilen- und Spalteneliminationsverfahren in die Diagonalmatrix

178

6 Eigenwerte und Eigenvektoren

 1 0 ∆ = 0 0

0 1 0 0

0 0 4 0



0 0  0 1

überführt werden. Somit sind ∆ und B positiv definit. Bei der Matrix C = −B handelt es sich um eine negativ definite Matrix, da B positiv definit ist. Die Matrix   −1 1 0 0  1 −1 0 0   D=  0 0 −3 0  0 0 0 −4 ist singulär. Es ist daher 0 ein Eigenwert von A, sodass die Matrix allenfalls noch semidefinit sein kann. Nach Diagonalisierung mit dem gekoppelten Verfahren erhalten wir die Diagonalmatrix   −1 0 0 0 0 0 0 0  ∆ =  0 0 −3 0  . 0 0 0 −4 Die Eigenwerte von ∆ sind wie die Eigenwerte von D nicht-positiv. Daher sind ∆ und D negativ semidefinit. Aufgabe 6.17 Bestimmen Sie für die reell-symmetrische Matrix   −2 2 0 0  2 −2 0 0  A=  0 0 5 1 0 0 15 eine orthogonale Matrix S, sodass ST AS = Λ gilt, wobei Λ eine Diagonalmatrix ist, deren Diagonale somit aus den Eigenwerten von A besteht. Lösung Da es sich bei der 4 × 4-Matrix 

−2 2  2 −2 A= 0 0 0 0

 00 0 0  5 1 15

6.5 Adjungiertheit und symmetrische Matrizen

179

um eine reell-symmetrische Matrix handelt, existiert nach dem Spektralsatz eine orthogonale Matrix S ∈ O(4) mit   λ1 0 0 0  0 λ2 0 0   ST AS =   0 0 λ3 0  =: Λ . 0 0 0 λ4 Dabei sind sämtliche Eigenwerte λ1 , λ2 , λ3 , λ4 von A reell. Das charakteristische Polynom von A ist mithilfe der Kästchenformel sehr leicht zu bestimmen. Wir erhalten   x + 2 −2 0 0      −2 x + 2 0 0   = det x + 2 −2 · det x − 5 −1 χA (x) = det   0 0 x − 5 −1  −2 x + 2 −1 x − 5 0 0 −1 x − 5 = ((x + 2)2 − 4) · ((x − 5)2 − 1) = x(x + 4)(x − 4)(x − 6). Die Matrix besitzt vier verschiedene Eigenwerte von einfacher algebraischer Ordnung: λ alg(λ ) geo(λ ) 0 1 1 −4 1 1 . 4 1 1 6 1 1 Hieraus ergibt sich die Diagonalisierbarkeit von A ein weiteres Mal. Da 0 ein Eigenwert von A ist, handelt es sich bei A um eine singuläre Matrix. Ihr Kern ist der Eigenraum zum Eigenwert 0. Da es sich um einen eindimensionalen Eigenraum handelt, reicht bereits ein Eigenvektor aus, um ihn zu erzeugen. Wir erkennen unmittelbar, dass A · (1, 1, 0, 0)T = 0 ergibt. Es ist also   * 1 + 1  VA,0 = Kern A =  0 0 der Eigenraum zum Eigenwert 0. Für den Eigenraum zum Eigenwert −4 berechnen wir       2200 1100 1100 2 2 0 0      VA,−4 = Kern(A + 4E) = Kern  0 0 9 1 = Kern 0 0 9 1 = Kern 0 0 1 0 , 0019 0001 0019 denn der 2 × 2-Block



 91 19

rechts unten in der zweiten Matrix ist regulär. Es folgt daher für den eindimensionalen Eigenraum

180

6 Eigenwerte und Eigenvektoren



 * 1 + −1  VA,−4 =  0 . 0 In ähnlicher Weise können wir die übrigen beiden Eigenräume sehr einfach bestimmen. Es gilt   −6 2 0 0  2 −6 0 0  VA,4 = Kern(A − 4E) = Kern   0 0 1 1 0 0 11       * 0 + −6 2 0 0 1000 0  = Kern  2 −6 0 0 = Kern 0 1 0 0 =  −1 0 0 11 0011 1 sowie 

 −8 2 0 0  2 −8 0 0   VA,6 = Kern(A − 6E) = Kern   0 0 −1 1  0 0 1 −1       * 0 + −6 2 0 0 100 0 0  = Kern  2 −6 0 0  = Kern 0 1 0 0  =  1 . 0 0 1 −1 0 0 1 −1 1 Da A reell-symmetrisch ist, sind die Eigenräume zueinander orthogonal. Die Basisvektoren dieser vier eindimensionalen Eigenräume müssen also zueinander bereits orthogonal sein. Es erübrigt sich daher eine Orthogonalisierung der Basisvektoren. Wenn wir die vier Basisvektoren oder ein beliebiges Vielfaches dieser Vektoren zu einer Matrix T in einer beliebigen Reihenfolge zusammenstellen, so muss also T T T eine Diagonalmatrix sein. In der Tat ergibt sich etwa durch   3 40 0 −3 4 0 0   T =  0 0 2 −1 0 02 1 mit dem Produkt

 18  0 TT ·T =  0 0

 0 00 32 0 0  0 8 0 0 02

zunächst eine Diagonalmatrix. Durch Normierung der Spalten, also durch Division der Spalten durch ihre jeweilige 2-Norm werden die Spalten zu Einheitsvektoren. Die Quadrate der 2-Normen der Spalten von T finden wir auf der Hauptdiagonalen von T T T wieder.

6.6 Vertiefende Aufgaben

181

Wir erhalten durch 

√ √ 3/ 18 4/ 32 −3/√18 4/√32 

S=

0 0

0 0

eine Matrix mit

sowie

  √ 1/ 2 0 0 −1/√2 0 0  √ = √  0 2/ 8 −1/ 2 √ √ 2/ 8 1/ 2 0  1 0 T S ·S =  0 0 

−4  0 ST AS =  0 0

0 1 0 0

0 0 1 0

√ 1/ 2 √ 1/ 2

 0 0 0 0  √ √  0 1/ 2 −1/ 2 √ √ 0 1/ 2 1/ 2

 0 0  0 1

 000 0 0 0  = S−1 AS. 0 6 0 004

6.6 Vertiefende Aufgaben

Aufgabe 6.18 Es sei A eine m × n-Matrix mit reellen Komponenten. a) Warum sind AT A und AAT diagonalisierbar und haben dabei reelle Eigenwerte? b) Zeigen Sie, dass für A ∈ GL(n, R) die Matrizen AT A und AAT identische Eigenwerte haben, die zudem alle positiv sind. c) Warum gilt Spec(AT A) = Spec(AAT ) auch für jede singuläre Matrix A ∈ M(n, R)? Was folgt für die Vorzeichen der Eigenwerte in diesem Fall? Lösung a) Es gilt (AT A)T = AT AT T = AT A und (AAT )T = AT T AT = AAT . Bei AT A handelt es sich also um eine reell-symmetrische n × n-Matrix, während AAT eine reell-symmetrische m × m-Matrix darstellt. Nach dem Spektralsatz sind also beide Matrizen diagonalisierbar und haben reelle Eigenwerte. b) Wegen A−1 (AAT )A = AT A ist AAT ≈ AT A. Damit sind AAT und AT A ähnlich. Sie haben insbesondere dieselben Eigenwerte. Alternativ können wir dies auch anhand der Eigenwertgleichung zeigen. Es sei hierzu λ ∈ Spec(AT A). Es gibt einen Vektor v ∈ Rn , v 6= 0 mit AT Av = λ v. Nach Multiplikation dieser Gleichung von links mit A erhalten wir

182

6 Eigenwerte und Eigenvektoren

AAT Av = λ Av. Da A regulär und v 6= 0 ist, ist auch w := Av 6= 0. Die vorausgegangene Gleichung ist daher eine Eigenwertgleichung mit Eigenvektor w zum Eigenwert λ der Matrix AAT : AAT w = AAT (Av) = λ (Av) = λ w. Jeder Eigenwert von AT A ist also auch Eigenwert von AAT . Dass auch jeder Eigenwert von AAT ein Eigenwert von AT A ist, folgt mit der gleichen Argumentation, indem wir mit B := AT begründen, dass jeder Eigenwert von BT B = AAT auch ein Eigenwert von BBT = AT A ist. In Aufgabe 4.7 haben wir zudem gezeigt, dass BT B positiv definit ist. Die Eigenwerte von BT B und damit die von AAT und AT A sind also sämtlich positiv. c) Es sei nun A eine singuläre n × n-Matrix mit reellen Komponenten. Mit A ist auch AT singulär, daher gibt es Vektoren v, w 6= 0 mit Av = 0 und AT w = 0. Wir multiplizieren die erste Gleichung von links mit AT und die zweite Gleichung von links mit A und erhalten AT Av = 0 sowie AAT w = 0 mit den beiden nicht-trivialen Vektoren v und w. Damit sind sowohl AT A als auch AAT singulär, beide Matrizen haben also den Eigenwert λ = 0. Im Übrigen ist bei einer quadratischen Matrix A die Singularität nicht nur hinreichend, sondern auch notwendig dafür, dass AT A und AAT singulär sind. Denn wäre A regulär, so wäre auch AT regulär. Produkte regulärer Matrizen sind regulär, sodass AT A und AAT dann nicht singulär sein könnten. Für λ ∈ Spec(AT A) mit λ 6= 0 gibt es einen Vektor v 6= 0 aus VAT A,λ mit AT Av = λ v. Wäre v ∈ Kern A, so wäre Av = 0, und daher wäre auch AT Av = 0. Damit wäre v ein nicht-trivialer Vektor aus dem Kern von AT A und somit v ∈ VAT A,0 ein Eigenvektor zum Eigenwert 0 von AT A. Andererseits ist aber auch v ∈ VAT A,λ mit λ 6= 0. Eigenräume zu verschiedenen Eigenwerten haben aber triviale Schnitträume, dies steht im Widerspruch zu v 6= 0. Es ist also Av 6= 0. Dass λ auch Eigenwert von AAT ist, folgt nun genauso wie im regulären Fall aus AT Av = λ v nach Multiplikation von links mit A. Analog folgt auch, dass 0 6= λ ∈ Spec(AAT ) auch Eigenwert von AT A ist. Laut Aufgabe 4.7 sind AAT und AT A positiv semidefinit. Die Eigenwerte sind demnach nicht-negativ. Als Gesamtfazit können wir also festhalten: Bemerkung 6.2 Ist A eine beliebige n × n-Matrix über R, so sind die Eigenwerte von AT A und AAT identisch und nicht-negativ.

6.6 Vertiefende Aufgaben

183

Aufgabe 6.19 (Singulärwertzerlegung) Es sei A ∈ M(m × n, R) eine Matrix mit m ≥ n, die also eher höher als breiter ist („Porträt-Format“). Der Einfachheit halber gelte dabei Rang A = n. Wie durch Aufgabe 4.7.1 bekannt, ist AT A eine wegen Rang A = n positiv definite n × n-Matrix. Es sei   λ1  λ2    Λ = ∈ GL(n, R), λ1 ≥ λ2 ≥ · · · ≥ λn > 0 . ..    λn die Eigenwertdiagonalmatrix, bei der die Eigenwerte λi von AT A der Größe nach absteigend angeordnet werden. Zeigen Sie, dass mit einer orthogonalen Matrix V aus Eigenvektoren von AT A und einer orthogonalen Matrix der Form  √  U = AV Λ −1 ∗ · · · ∗ ∈ O(m, R) die sogenannte Singulärwertzerlegung (engl.: Singular Value Decomposition (SVD)),  √  Λ T A = USV , mit S := ∈ M(m × n, R) (6.1) 0m−n×n von A ermöglicht wird, wobei wir folgenden die Kurzschreibweisen nutzen: √   √  1/ λ1 λ1 √ √     .. .. Λ = Λ −1 =  , . . . √ √ 1 / λn λn Die Quadratwurzeln σi =

p

λi ,

i = 1, . . . , Rang A

der (positiven) Eigenwerte von AT A werden auch als Singulärwerte von A bezeichnet. Lösung Da AT A reell-symmetrisch ist, existiert nach dem Spektralsatz eine orthogonale Matrix V ∈ O(n, R) mit   λ1  λ2    =: Λ V T AT AV =  . ..    λn und positiven Eigenwerten λ1 , λ2 , . . . , λn . Hierbei können wir die Spalten von V so anordnen, dass die entsprechenden Eigenwerte der Größe nach absteigen: λ1 ≥ λ2 ≥ · · · ≥ λn > 0.

184

6 Eigenwerte und Eigenvektoren

Wir definieren die m × n-Matrizen  √  Λ S= 0m−n×n

√ Ur := A ·V Λ −1 .

Für Ur folgt zunächst wegen der Vertauschbarkeit der Diagonalmatrizen √ √ √ √ T T −1 UrT Ur = (AV Λ −1 )T · AV Λ −1 = Λ −1 V A A ·V | {z } Λ =Λ

√ √ √ √ = Λ −1Λ Λ −1 = Λ −1 Λ −1Λ = Λ −1Λ = En . Die Spalten von Ur sind also orthonormal. Wir können nun durch Hinzufügen weiterer m − n orthonormaler Spalten die Matrix Ur zu einer orthogonalen m × m-Matrix  √  U = AV Λ −1 ∗| · · · |∗ ∈ O(m, R) ↑ m − n Spalten erweitern. Nun gilt  √  √ T  Λ ΛV USV T = |{z} U · · |{z} VT = U · 0m−n×n 0m−n×n m×m | {z } n×n m×n

 √  √ T  ΛV = AV Λ −1 ∗| · · · |∗ · 0m−n×n √ = Ur ΛV T + (∗| · · · |∗) · 0m−n×n √ √ = (AV Λ −1 ) ΛV T = AVV T = A. Wegen der obigen Anordnung der Eigenwerte λi sind die Diagonaleinträge ebenfalls der Größe nach absteigend geordnet: p p p λ1 ≥ λ2 ≥ · · · ≥ λn > 0.

√ λi von S

√ Bemerkung 6.3 Die Singulärwerte σi = λi sind zwar eindeutig bestimmt, nicht jedoch die Faktoren U und V . Bei der Wahl der orthogonalen Eigenvektormatrix V haben wir eine gewisse Freiheit. Die Matrix Ur und damit die ersten n Spalten von U ergeben sich dann aus V . Bei einer Singulärwertzerlegung A = USV T handelt es sich insbesondere um eine Äquivalenztransformation, sodass A ∼ S gilt.

Aufgabe 6.19.1 Wie könnte die Singulärwertzerlegung auf reelle m × n-Matrizen mit m ≥ n verallgemeinert werden, wenn nicht der maximale Rang vorausgesetzt wird?

6.6 Vertiefende Aufgaben

185

Lösung Es sei A ∈ M(m × n, R) eine Matrix mit m ≥ n. Laut Aufgabe 3.10 ist Rang AT A = Rang A. Da eine Ähnlichkeitstransformation keinen Einfluss auf den Rang einer Matrix hat, besitzt die Eigenwertdiagonalmatrix Λ von AT A genau r := Rang AT A = Rang A ≤ n Eigenwerte λ1 , . . . , λr > 0. Auch hier gibt es zunächst eine orthogonale n × n-Matrix V mit V T AT AV = Λ . Wir können die Spalten von V wieder so anordnen, dass λ1 ≥ · · · ≥ λr > 0 gilt. Sollte nun Rang A < n gelten, so setzen wir wie im Fall Rang A = n √  λ1   ..   .   √   λ r     0  √    Λ   . .. S := = . 0m−n×n    0     0 ··· ··· 0     . ..   .. .  0 ··· Es sei nun

  L=

··· 0 

λ1 ..

 

. λr

die Diagonalmatrix bestehend aus den positiven Eigenwerten von AT A. Es ist dann  √  L 0r×n−r S= . 0m−r×n | {z } m×n

Wir bezeichnen nun mit v1 , . . . , vr die ersten r Spalten von V . Dann gilt AT A(v1 | · · · | vr ) = (AT Av1 | · · · | AT Avr ) = (λ1 v1 | · · · | λr vr ). Nach Linksmultiplikation mit (v1 | · · · | vr )T folgt hieraus  T v1   (v1 | · · · | vr )T AT A(v1 | · · · | vr ) =  ...  (λ1 v1 | · · · | λr vr ) vTr  λ1 vT1 v1 λ2 vT1 v2  λ1 vT v1 λ2 vT v2 2 2  = .  ..

 · · · λr vT1 vr · · · λr vT2 vr   ..  .. . .  T T λ1 vr v1 λ2 vr v2 · · · λr vTr vr

186

6 Eigenwerte und Eigenvektoren

 λ1  λ2  = ..  .

    = L.  λr

Wir definieren nun mit den ersten r Spalten v1 , . . . , vr von V die m × r-Matrix √ Ur := A(v1 | · · · | vr ) L−1 . Dann ist √ √ L−1 (v1 | · · · | vr )T AT A(v1 | · · · | vr ) L−1 √ √ √ √ = L−1 L L−1 = L−1 L−1 L = Er .

UrT Ur =

Die Spalten von Ur sind also orthonormal. Auch hier können wir durch Hinzufügen weiterer m − r orthonormaler Spalten die Matrix Ur zu einer orthogonalen m × m-Matrix   √ U = A(v1 | · · · | vr ) L−1 ∗| · · · |∗ ∈ O(m, R) ↑ m − r Spalten erweitern. Es gilt     √ √ L 0r×n−r US = A(v1 | · · · | vr ) L−1 ∗| · · · |∗ · 0m−r×n | {z } √ = A(v1 | · · · | vr ) | {z m×r

L−1



m×n

L | 0| ··· |0 } | {z }



m×n−r

 = A(v1 | · · · | vr ) | 0 | · · · | 0 . | {z } | {z } m×r

Nun ist

m×n−r

     T T T (AV ) (AV ) = V A AV = Λ =     



λ1 ..

.

    λn .  0   .. .  0

Daher gilt innerhalb der Matrix AV = (Av1 | · · · | Avn ) für die letzten n−r Spalten kAvi k22 = (Avi )T (Avi ) = 0, i = r + 1, . . . , n. Dies ist nur möglich, wenn bereits Avi = 0 ist für i = r + 1, . . . , n. Also ist

6.6 Vertiefende Aufgaben

187

 A(v1 | · · · | vr ) | 0 | · · · | 0 = (Av1 | · · · | Avr | Avr+1 | · · · | Avn ) = AV. Insgesamt folgt also US = AV und daher USV T = A. Die positiven Diagonalkomponenten von S, p σi = λi , i = 1, . . . , r, werden dann als Singulärwerte von A bezeichnet. Aufgabe 6.19.2 Wie könnte eine der Singulärwertzerlegung ähnliche Faktorisierung für eine reelle m × n-Matrix A aussehen, die eher breiter als hoch ist, für die also m ≤ n gilt („Landscape-Format“)? Lösung Es ist AT eine Matrix im Porträt-Format. Es gibt dann nach Aufgabe 6.19 eine Singulärwertzerlegung AT = USV T von A. Durch Transponieren erhalten wir hieraus A = V ST U T = V SU T mit orthogonalen Matrizen V ∈ O(m, R) und U ∈ O(n, R). Aufgabe 6.19.3 Bestimmen Sie jeweils zwei Singulärwertzerlegungen der reellen 3 × 2-Matrizen     −3 0 2 1 A =  0 1 , B = −1 2 4 0 0 0 mit unterschiedlichen Faktorisierungen. Lösung Wir bestimmen zunächst die Eigenwerte von     −3 0   −3 0 4 25 0 T   0 1 = A A= . 0 10 0 1 4 0 Die Eigenwerte von AT A sind 25 und 1. Damit sind σ1 = 5 und σ2 = 1 die Singulärwerte von A. Da AT A in diesem Fall eine Diagonalmatrix ist, liegen mit VAT A,25 = hˆe1 i und VAT A,1 = hˆe2 i die beiden Eigenräume von AT A vor. Hieraus ergibt sich V = E2 als Matrix aus orthonormalen Eigenvektoren von AT A. Nun bestimmen wir die Matrix U. Mit der Eigenwertdiagonalmatrix   25 0 Λ= 0 1 folgt für den ersten zweispaltigen Block von U       −3 0 −3/5 0 √ 1/5 0 Ur = AV Λ −1 =  0 1 · E2 · =  0 1 . 0 1 4/5 0 4 0

188

6 Eigenwerte und Eigenvektoren

Die beiden Spalten aus Ur sind tatsächlich orthonormiert, wie wir durch Nachrechnen schnell bestätigen können. Wir ergänzen nun die beiden Spalten von Ur zu einer Orthonormalbasis des R3 . Dies gelingt uns in diesem Vektorraum durch das Kreuzprodukt dieser beiden Spalten:         −3/5 0 −3/5 0 −3/5 0 −4/5 U =   0  1  0  × 1  =  0 1 0  . 4/5 4/5 4/5 0 −3/5 0 0 Mit



  σ1 0 5 S =  0 σ2  = 0 0 0 0

ist

   −3/5 0 −4/5 5 USV T =  0 1 0  · 0 4/5 0 −3/5 0

 0 1 0

   0 −3 0 1 · E2T =  0 1 = A 0 4 0

eine Singulärwertzerlegung von A. Ersetzen wir die Matrix V durch eine andere Eigenvektormatrix mit orthonormalen Spalten, beispielsweise   −1 0 V0 = , 0 1 so ergibt sich        3/5 0 −3 0  √ 1 −1 0 /5 0 Ur0 = AV 0 Λ −1 =  0 1 · · =  0 1 0 1 0 1 4 0 −4/5 0 und entsprechend 

       3/5 3/5 0 4/5 0 0 U 0 =   0  1  0  × 1  =  0 1 0  . −4/5 0 −4/5 0 −4/5 0 3/5 3/5

Wir erhalten mit 

  0 4/5 5 U 0 S(V 0 )T =  0 1 0  · 0 −4/5 0 3/5 0 3/5

   0  −3 −1 0 1 · = 0 0 1 0 4

 0 1 = A 0

eine weitere Singulärwertzerlegung von A. Der Unterschied zur vorausgegangenen Zerlegung besteht allerdings nur in den Vorzeichen einiger Komponenten der Transformationsmatrizen. Zur Bestimmung einer Singulärwertzerlegung von

6.6 Vertiefende Aufgaben

189





2 1 B = −1 2 0 0 berechnen wir auch hier zunächst die Eigenwerte von     2 1   2 −1 0  50 −1 2 = BT B = . 1 2 0 05 0 0 √ √ Einziger Eigenwert von BT B ist 5 mit alg(5) = 2. Damit sind σ1 = 5 und σ2 = 5 die Singulärwerte von B. Auch in diesem Fall ist BT B bereits eine Eigenwertdiagonalmatrix. Der Eigenraum ist VBT B,5 = hˆe1 , eˆ 2 i. Hieraus ergibt sich beispielsweise V = E2 als Matrix aus orthonormalen Eigenvektoren von BT B. Wir bestimmen wieder die Matrix U. Mit der Eigenwertdiagonalmatrix   50 Λ= 05 folgt für den ersten zweispaltigen Block von U    √ √   √  2/ 5 1/ 5 2 1 √ 1/ 5 0 √ √ √ Ur = BV Λ −1 = −1 2 · E2 · = −1/ 5 2/ 5 . 0 1/ 5 0 0 0 0 Die beiden Spalten aus Ur sind tatsächlich wieder orthonormiert, wie eine Rechnung schnell bestätigt. Wir ergänzen nun die beiden Spalten von Ur zu einer Orthonormalbasis des R3 . Dies gelingt uns durch Hinzufügen des Einheitsvektors eˆ 3 :  √  √ 2/ 5 1/ 5 0 √ √ U = −1/ 5 2/ 5 0 . 0 0 1 Mit

   √ σ1 0 5 √0 S =  0 σ2  =  0 5 0 0 0 0

ist USV T =

 √    0 5 √0 2 1 0 ·  0 5 · E2T = −1 2 = B 0 1 0 0 0 0

√ √ 2/ 5 1/ 5 √ −1/ 5 2/√5



0

eine Singulärwertzerlegung von B. Auch die Alternativmatrix  √ √  1/ 2 1/ 2 √ √ V0 = −1/ 2 1/ 2 ist eine Orthogonalmatrix aus Eigenvektoren von BT B. Mit V 0 ergibt sich zunächst

190

6 Eigenwerte und Eigenvektoren

  √ √   1/ 10 3/ 10 2 1  1 √ 1 √  1 √ √ √ √ / / / 2 2 5 0 √ √ √ Ur0 = BV 0 Λ −1 = −1 2 · · = −3/ 10 1/ 10 −1/ 2 1/ 2 0 1/ 5 0 0 0 0 

und entsprechend

√ √ 1/ 10 3/ 10 √ −3/ 10 1/√10

 U0 =

0

0

 0 0 . 1

Wir erhalten mit √ √ 1/ 10 3/ 10 √ −3/ 10 1/√10

 U 0 S(V 0 )T =

0

0

 √    √ √  0 5 √0 2 1/ 2 1/ 2 −1 √ √ 0 ·  0 = 5 · −1/ 2 1/ 2 1 0 0 0

 1 2 = B 0

eine weitere Singulärwertzerlegung von B. Aufgabe 6.19.4 Bestimmen Sie eine Singulärwertzerlegung der Matrix   3 1 −4 −3 −1 4  A= −3 1 4 . −3 1 4 R Verifizieren Sie das Ergebnis mit MATLAB .

Lösung Es ist



 36 0 −48 AT A =  0 4 0  −48 0 64

mit χA (x) = (x−4)((x−36)(x−64)−2304) = (x−4)(x2 −100x) = (x−4)(x−100)x. Die Eigenwerte sind also λ1 = 100, λ2 = 4, λ3 = 0. Die Singulärwerte sind somit σ1 = 10, σ2 = 2. Wir bestimmen die Eigenräume von AT A und geben dabei orthonormierte Basisvektoren an. Es gilt         * −3/4 + * −3/5 + −64 0 −48 3 1 0 /4 VAT A,100 = Kern  0 −96 0  = Kern =  0  =  0  01 0 4/5 −48 0 −36 1 und

* + 0 VAT A,4 = Kern 1 . 0

Beide Basisvektoren sind orthonormiert. Wir erhalten über das Kreuzprodukt

6.6 Vertiefende Aufgaben

191

      4/5 0 −3/5 1 ×  0  =  0  4/5 3/5 0 einen hierzu orthonormalen Basisvektor von VAT A,0 und wählen daher   −3/5 0 4/5 V =  0 1 0 . 4/5 0 3/5 Es ist r = Rang A = 2. Die Matrix Ur besteht aus zwei Spalten: √ Ur = A(v1 | v2 ) L−1    3 1 −4  3   −3 −1 4 − /5 0 1/10 0     0 1 · = · −3 1 4 0 1/2 4/5 0 −3 1 4     3 1 −4  3 −1/2 − / 50 0 −3 −1 4  1/2   0 1/2 =  = −3 1 4 ·  1/2 4/50 0 1/2 −3 1 4

1/2



−1/2 . 1/2  1/2

Wir ergänzen Ur um zwei weitere Spalten, sodass wir vier orthonormale Spalten erhalten. Beispielsweise ist   √ −1/2 1/2 −1/ 2 0  1/2 −1/2 −1/√2 0  √  U =  1/2 1/2 0 −1/ 2 √ 1/2 1/2 1/ 2 0 eine Matrix mit orthonormalen Spalten. Mit   10 0 0  0 2 0  S=  0 0 0 0 00 ist A = USV T eine Singulärwertzerlegung von A. Wir lassen uns dieses Ergebnis mit R MATLAB bestätigen. 1

>> A=[3,1,-4; -3,-1,4; -3,1,4; -3,1,4]

2 3

A =

4 5 6 7 8 9

3 -3 -3 -3

1 -1 1 1

-4 4 4 4

192 10

6 Eigenwerte und Eigenvektoren >> [U,S,V]=svd(A)

11 12

U =

13 14 15 16 17

-0.5000 0.5000 0.5000 0.5000

-0.5000 0.5000 -0.5000 -0.5000

-0.7071 -0.7071 0.0000 -0.0000

10.0000 0 0 0

0 2.0000 0 0

0 0 0.0000 0

-0.6000 0 0.8000

-0.0000 -1.0000 0

-0.8000 0.0000 -0.6000

1.0000 -1.0000 1.0000 1.0000

-4.0000 4.0000 4.0000 4.0000

18 19 20

S =

21 22 23 24 25 26 27 28

V =

29 30 31 32 33 34

>> U*S*V’

35 36

ans =

37 38 39 40 41

3.0000 -3.0000 -3.0000 -3.0000

0.0000 0.0000 -0.7071 0.7071

Kapitel 7

Trigonalisierung und Normalformen

7.1 Grundlagen, ähnliche Matrizen und Normalformen

Aufgabe 7.1 Zeigen Sie, dass die algebraische Ordnung eines Eigenwertes eine Obergrenze für die Stufe eines Hauptvektors zu diesem Eigenwert darstellt. Lösung Nehmen wir an, es gäbe mit vk einen Hauptvektor der Stufe k = alg(λ )+1. Ausgehend von diesem Vektor kann dann eine Hauptvektorkette v1 , v2 , . . . , vk fortlaufender Stufe i durch die weiteren Vektoren vi := (A − λ En )vi+1 für i = k − 1, k − 2, . . . , 1 konstruiert werden. Eine Basis S = (v1 , . . . , vk , bk+1 , . . . , bn ) würde eine Matrix S−1 AS ergeben, die im linken oberen Block einen k × k-Jordan-Block zum Eigenwert λ enthielte. Die algebraische Ordnung des Eigenwertes λ von S−1 AS und damit die algebraische Ordnung des Eigenwertes λ von A wäre dann mindestens k im Widerspruch zu k − 1 = alg(λ ). Aufgabe 7.2 Beweisen Sie den binomischen Lehrsatz für kommutative Matrizen: Es seien A und B zwei n × n-Matrizen über einem Körper K, die miteinander kommutieren, d. h., es gelte AB = BA. Dann gilt für jedes ν ∈ N die verallgemeinerte binomische Formel ν   ν k ν−k ν (A + B) = ∑ AB . k=0 k  0 = A0 = B0 := E . Der Binomialkoeffizient ν steht dabei für das Hierbei ist (A + B) n k ν k -fache Aufsummieren des Einselementes aus K. Hinweis: Es gilt für alle ν ∈ N:       ν ν ν +1 + = , 0 ≤ k ≤ ν. k k−1 k Zeigen Sie dies zuvor durch direktes Nachrechnen.

© Springer-Verlag GmbH Deutschland, ein Teil von Springer Nature 2019 L. Göllmann und C. Henig, Arbeitsbuch zur linearen Algebra, https://doi.org/10.1007/978-3-662-58766-9_7

193

194

7 Trigonalisierung und Normalformen

Lösung Wir zeigen zunächst:       ν ν ν +1 + = , k k−1 k

0 ≤ k ≤ ν ∈ N.

Dies können wir durch direkte Rechnung beweisen:     ν ν ν! ν! + = + k k−1 (ν − k)! k! (ν − k + 1)! (k − 1)! ν! (ν − k + 1) ν! k = + (ν − k + 1)! k! (ν − k + 1)! k! ν! (ν − k + 1 + k) ν! (ν + 1) = = (ν − k + 1)! k! (ν + 1 − k)! k!   (ν + 1)! ν +1 = = . (ν + 1 − k)! k! k Wir beweisen den binomischen Lehrsatz durch Induktion über ν ∈ N. Es seien nun im Folgenden A und B zwei n × n-Matrizen über K mit AB = BA. Induktionsanfang für ν = 0: Es gilt (A + B)0 = En =

0 0−0 0 B 0 A

0

=



0 0−k k B. k A

k=0

Die Behauptung gilt also für ν = 0. Damit gilt auch die Induktionsvoraussetzung: Es gibt ein ν ∈ N mit ν  (A + B)ν = ∑ νk Aν−k Bk . k=0

Induktionsschritt von ν auf ν +1: Zu zeigen ist, dass mit der Induktionsvoraussetzung (IV) die Behauptung auch für ν + 1 gilt: ν+1

(A + B)ν+1 =



ν+1 ν+1−k k B. k A

k=0

Es ist IV

(A + B)ν+1 = (A + B) · (A + B)ν

=

ν

(A + B) · ∑ k=0

ν

=A∑ =

ν  ν−k k B +B k A

ν



ν  ν−k k B k A

k=0 k=0 ν ν  ν ν ν+1−k k ν−k k B + B k A k BA k=0 k=0





ν  ν−k k B k A

7.1 Grundlagen, ähnliche Matrizen und Normalformen ν

=



ν  ν+1−k k B + k A

k=0

ν



195 ν  ν−k k+1 B , k A

da AB = BA

k=0 ν

= Aν+1 + ∑ k=1 ν

= Aν+1 + ∑ k=1 ν

= Aν+1 + ∑ k=1 ν

= Aν+1 + ∑

ν  ν+1−k k B + k A

ν−1



ν  ν−k k+1 B + Bν+1 k A

k=0 ν ν  ν+1−k k B +∑ k A

ν  ν−(k−1) k B + Bν+1 k−1 A

k=1 ν + k−1 Aν−k+1 Bk + Bν+1 {z } =(ν+1 k ), s. o. ν+1 ν+1−k k B + Bν+1 k A ν



|k

k=1 ν

=

ν+1 0

Aν+1 B0 + ∑

 0 ν+1 ν+1 ν+1−k k B + ν+1 k A ν+1 A B

k=1 ν+1

=



ν+1 ν+1−k k B. k A

k=0

Aufgabe 7.3 Beweisen Sie Satz 7.29 aus [5]: Es sei p ∈ K[x] ein normiertes Polynom m-ten Grades der Form p(x) = xm + am−1 xm−1 + · · · + a1 x + a0 , das vollständig über K in Linearfaktoren zerfällt: q(x) = (x − λ1 ) · · · (x − λm ) mit den Nullstellen λ1 , . . . , λm in K. Wenn wir für den Platzhalter x eine quadratische Matrix A ∈ M(n, K) oder einen Endomorphismus f auf einem K-Vektorraum in die ausmultiplizierte Form q(x) einsetzen, so soll dies im folgenden Sinne geschehen: q(A) := (A − λ1 En ) · · · (A − λm En ),

q( f ) := ( f − λ1 id) · · · ( f − λm id).

(7.1)

In der verallgemeinerten Variante mit dem Endomorphismus f bedeutet dabei das Produkt die Hintereinanderausführung der einzelnen Endomorphismen f − λk id. Dann kommt es in beiden Varianten nicht auf die Reihenfolge der Faktoren in (7.1) an. Zudem ist es, wie beim Einsetzen von Skalaren für x, unerheblich, ob die ausmultiplizierte oder faktorisierte Version beim Einsetzen von A bzw. f für x verwendet wird. Es gilt also: q(A) := (A − λ1 En ) · · · (A − λm En ) = Am + am−1 Am−1 + · · · + a1 A + a0 En , q( f ) := ( f − λ1 id) · · · ( f − λm id) = f m + am−1 f m−1 + · · · + a1 f + a0 id .

196

7 Trigonalisierung und Normalformen

Lösung Wir zeigen den Satz nur in der Ausprägung für Matrizen per Induktion. Für einen Faktor ist nichts zu zeigen. Für zwei Faktoren, d. h. für p(x) = x2 + a1 x + a0 ,

q(x) = (x − λ1 )(x − λ2 )

mit a1 = −λ1 − λ2 und a0 = λ1 λ2 , gilt beim Einsetzen der Matrix A: q(A) = (A − λ1 En ) · (A − λ2 En ) = (A − λ1 En )A − (A − λ1 En )λ2 En = A2 − λ1 En A − λ2 AEn + λ1 λ2 En En = A2 + (−λ1 − λ2 )A + λ1 λ2 En = p(A). Dieser Ausdruck ist in λ1 und λ2 symmetrisch aufgebaut mit der Folge, dass ein Vertauschen der Faktoren A − λ1 En und A − λ2 En für das Matrixprodukt unerheblich ist, was hieraus folgend auch für mehr als zwei Faktoren gilt, da jede Permutation von m Faktoren dieser Art durch sukzessive Vertauschung zweier Nachbarfaktoren erreicht werden kann. Es gibt also ein m, für das die Behauptung gilt. Wir betrachten dies als Induktionsvoraussetzung (IV). Der Induktionsschritt ist dem Induktionsanfang sehr ähnlich: Es sei q(x) = (x − λ1 ) · · · (x − λm ) · (x − λm+1 ) = (xm + αm−1 xm−1 + · · · + α1 x + α0 ) · (x − λm+1 ) = xm+1 + am xm + · · · + ak xk + · · · + a1 x + a0 = p(x) mit am = αm−1 − λm+1 , .. . ak = αk−1 − αk λm+1 , .. .

k = m − 1, . . . , 1

a0 = −α0 λm+1 . Dann gilt q(A) = (A − λ1 En ) · · · (A − λ2 En ) · (A − λm+1 En ) IV

= (Am + αm−1 Am−1 + · · · + α1 A + α0 En ) · (A − λm+1 En ) = Am+1 + αm−1 Am + αm−2 Am−1 · · · + α1 A2 + α0 A − λm+1 Am − αm−1 λm+1 Am−1 − · · · − α1 λm+1 A − α0 λm+1 En = Am+1 + am Am + am−1 Am−1 + · · · + a1 A + a0 A = p(A).

7.1 Grundlagen, ähnliche Matrizen und Normalformen

197

Bemerkung 7.1 Aufgrund der Vertauschbarkeit von A und λk En können wir, wie im skalaren Fall, die Summanden gleicher Potenz zusammenfassen. Für beliebige n × nMatrizen ist aber (A − B)(A − C) = A2 − BA − AC + BC und analog (A − C)(A − B) = A2 − CA − AB + CB. Sind A und B, A und C sowie B und C vertauschbar, so stimmen die beiden Produkte ebenfalls überein.

Aufgabe 7.4 Zeigen Sie in Ergänzung zu Aufgabe 6.4: Für jede quadratische Matrix A gilt Spec(A2 ) = {λ 2 : λ ∈ Spec A}. Lösung Mit Aufgabe 6.4 hatten wir nur eine Inklusion gezeigt: {λ 2 : λ ∈ Spec A} ⊂ Spec(A2 ). Mithilfe der Jordan’schen Normalform können wir sogar die Gleichheit beider Mengen zeigen. Es sei K Zerfällungskörper von χA . Dann gibt es eine reguläre Matrix S ∈ GL(n, K) mit S−1 AS = J, wobei J ∈ M(n, K) eine Jordan’sche Normalform von A ist. Es gilt J 2 = (S−1 AS)2 = S−1 A2 S und damit J 2 ≈ A2 . Da J eine obere Dreiecksmatrix ist, ist nach Aufgabe 2.5 auch J 2 eine obere Dreiecksmatrix, deren Diagonalkomponenten aufgrund von Aufgabe 2.6 die Quadrate der Diagonalkomponenten von J und damit die Quadrate der Eigenwerte von J sind. Die Eigenwerte von J 2 sind also die Quadrate der Eigenwerte von J. Da A2 ≈ J 2 ist, sind dies auch die Eigenwerte von A2 . Wegen Spec A = Spec J folgt also Spec(A2 ) = Spec(J 2 ) = {λ 2 : λ ∈ Spec J}

Spec A=Spec J

=

{λ 2 : λ ∈ Spec A}.

Aufgabe 7.5 Zeigen Sie: Eine n × n-Matrix über K, die mit jeder anderen n × nMatrix über K kommutiert, ... (i) ist nur zu sich selbst ähnlich, (ii) ist eine Diagonalmatrix, (iii) hat nur einen Eigenwert, ist somit von der Form aEn mit a ∈ K. Lösung Es sei also A ∈ M(n, K) eine Matrix, die mit jeder weiteren n × n-Matrix über K kommutiert, also vertauschbar ist. Dann gilt für jede reguläre Matrix S ∈ GL(n, K) S−1 AS = S−1 SA. Jede beliebige Ähnlichkeitstransformation von A hat also keine Auswirkungen auf A. Daher kann A nur zu sich selbst ähnlich sein. Insbesondere stimmt jede Jordan’sche Normalform (über dem Zerfällungskörper von χA ) von A mit A überein. Es kann daher nur eine Jordan’sche Normalform J von A geben, nämlich J = A, sodass A bereits selbst in Jordan’scher Normalform vorliegen muss. Aus diesem Grund liegen auch alle Eigenwerte

198

7 Trigonalisierung und Normalformen

von A bereits in K oder anders ausgedrückt, das charakteristische Polynom von A zerfällt bereits über K vollständig in Linearfaktoren. Da J eine obere Dreiecksmatrix ist, kann also A nur eine obere Dreiecksmatrix sein. Für die Permutation   0 ··· 0 1  .. . .   . . . ..    S :=    0 ... 0 1 0 ··· 0 gilt S−1 = S. Mithilfe von S können wir die obere Dreiecksmatrix J in eine untere Dreiecksmatrix U ähnlichkeitstransformieren: U = SJS = S−1 JS = S−1 AS = A. Damit ist A auch eine untere Dreiecksmatrix. Es bleibt also nur die Möglichkeit, dass es sich bei A um eine Diagonalmatrix handelt. Nehmen wir an, es gäbe für n ≥ 2 mehr als einen Eigenwert von A. Dann wäre ohne Einschränkung   λ1   A =  λ2  .. . mit λ1 6= λ2 . Die Ähnlichkeitstransformation mit der Permutationsmatrix P12 vertauscht die Diagonalkomponenten λ1 und λ2 :     λ2 λ1  λ1    −1   = P12 AP12 = P12 AP12 = A =  λ2 . .. .. . . Es ergäbe sich dann der Widerspruch λ1 = λ2 . Aufgabe 7.6 Beweisen Sie Satz 7.28 aus [5]: Für jede Matrix A ∈ M(n, K), deren charakteristisches Polynom über K vollständig in Linearfaktoren zerfällt, gibt es A-zyklische Teilräume V1 , . . . ,Vk ⊂ Kn mit Kn = V1 ⊕V2 ⊕ · · · ⊕Vk . Lösung Wir können den Vektorraum Kn in eine direkte Summe der Haupträume von A zerlegen: Kn =

M λ ∈Spec A

HA,λ .

7.1 Grundlagen, ähnliche Matrizen und Normalformen

199

Für jeden Eigenwert λ ∈ Spec A können wir den Hauptraum HA,λ ebenfalls als direkte Summe M-zyklischer Teilräume von HA,λ mit geeigneten Startvektoren v1 , . . . vg ∈ Kn der einzelnen Jordan-Ketten darstellen: HA,λ = hM 0 v1 , . . . , M b1 v1 i ⊕ hM 0 v2 , . . . , M b2 v2 i ⊕ · · · ⊕ hM 0 vg , . . . , M bg vg i. Dabei ist M = A − λ E eine singuläre n × n-Matrix, deren Kern der Eigenraum zu λ ist und g = geo λ die Anzahl der Jordan-Blöcke zu λ . Die Jordan-Blöcke sind hierbei vom Format b j + 1 × b j + 1 für j = 1, . . . , g. Wir betrachten ohne Einschränkung den ersten Summanden im Detail: hM 0 v1 , . . . , M b1 v1 i = h(A − λ E)0 v1 , . . . , (A − λ E)k v1 , . . . , (A − λ E)b1 v1 i. Da A und λ E kommutieren, gilt mit k = 0, . . . , b1 nach dem binomischen Lehrsatz für kommutative Matrizen ! k   k j k k− j (A − λ E) v1 = ∑ A (−λ ) E v1 j=0 j k   k =∑ (−λ )k− j A j v1 j=0 | j {z } =:µ jk ∈K

= µ0k A0 v1 + µ1k A1 v1 + . . . + µkk Ak v1 ,   wobei der Binomialkoeffizient kj das kj -fache Aufsummieren des Einselementes 1K aus K bedeutet. Wir zerlegen nun jeden Hauptvektor (A − λ E)k v1 für k = 0, . . . , bk auf diese Weise. Für den obigen Hauptraumsummanden liegt also folgende Darstellung vor: hM 0 v1 , . . . , M b1 v1 i = hµ00 A0 v1 , µ01 A0 v1 + µ11 A1 v1 , µ02 A0 v1 + µ12 A1 v1 + µ22 A2 v1 , . . . , µ0k A0 v1 + µ1k A1 v1 + . . . + µkk Ak v1 , . . . . . . , µ0b1 A0 v1 + µ1b1 A1 v1 + . . . + µb1 b1 Ab1 v1 i. Durch elementare Spaltenumformungen können wir die Vektoren ohne Änderung ihres linearen Erzeugnisses so umarrangieren, dass wir eine einfachere Darstellung erhalten. Da   k µkk = (−λ )k−k = 1, k = 0, . . . , b1 , k können wir im vorausgegangenen linearen Erzeugnis mit dem ersten Vektor µ00 A0 v1 = A0 v1 durch Subtraktion seines µ01 -Fachen vom zweiten Vektor diesen Vektor vereinfachen: hM 0 v1 , . . . , M b1 v1 i = hA0 v1 , A1 v1 , µ02 A0 v1 + µ12 A1 v1 + µ22 A2 v1 , . . .i.

200

7 Trigonalisierung und Normalformen

Den dritten Vektor reduzieren wir durch Subtraktion des µ02 -Fachen des ersten Vektors und durch Subtraktion des µ12 -Fachen des zweiten Vektors: hM 0 v1 , . . . , M b1 v1 i = hA0 v1 , A1 v1 , A2 v1 , . . .i. Wir setzen dieses Verfahren fort und erhalten schließlich hM 0 v1 , . . . , M b1 v1 i = hA0 v1 , . . . , Ab1 v1 i. Da dies nun für alle Summanden der obigen direkten Summe möglich ist, folgt letztlich die Behauptung. Aufgabe 7.7 Zeigen Sie, dass für das charakteristische Polynom der Matrix   0 1 ··· 0  .. . . . . ..   . . .  B :=  .  ∈ M(n, K)  0 0 ··· 1  −a0 −a1 · · · −an−1 gilt χB = xn + an−1 xn−1 + · · · + a1 x + a0 . Lösung Für das charakteristische Polynom von  0 1  .. . .  . B :=  .  0 0 −a0 −a1

 ··· 0 ..  .. . .   ∈ M(n, K) ··· 1  · · · −an−1

berechnen wir durch Entwicklung nach der letzten Zeile:   x −1 0 · · · 0  0 x −1 · · · 0     .. . . . . . .  .. χB (x) = det  .  . . . .    0 ··· x −1  a0 a1 · · · an−2 x + an−1 n−1

=

∑ (−1)n+ j a j−1 · (−1)n− j x j−1 + (x + an−1 )xn−1

j=1

n−1

=

∑ a j−1 x j−1 + (x + an−1 )xn−1 = xn + an−1 xn−1 + · · · + a1 x + a0 = p(x).

j=1

7.1 Grundlagen, ähnliche Matrizen und Normalformen

201

Aufgabe 7.8 Bestimmen Sie für die reelle Matrix   2 −1 0 0 0 3 0 0  A= 1 1 4 1 0 0 −1 2 die Frobenius-Normalform FNF(A) und die Weierstraß-Normalform WNFR (A). Aus welchem Grund ist WNFC (A) = WNFR (A)? Bestimmen Sie aus der WeierstraßNormalform schließlich eine Jordan’sche Normalform von A. Lösung Für



2 −1 0 0 3 0 A= 1 1 4 0 0 −1

 0 0  1 2

lautet die charakteristische Matrix   x−2 1 0 0  0 x−3 0 0   xE − A =   −1 −1 x − 4 −1  . 0 0 1 x−2 Wir bringen diese Matrix nun durch elementare Umformungen (und damit (ring-)äquivalente Umformungen) über R[x] in Smith-Normalform:     x−2 1 0 0 1 x−2 0 0  0 x−3 0  0  0 0   x − 3 0  xE − A =   −1 −1 x − 4 −1  ∼  −1 −1 x − 4 −1  0 0 1 x−2 0 0 1 x−2 6 

6

·(2−x)

6



1 0 0 0 ·(3−x) + x − 3 −(x − 3)(x − 2) 0  0  ∼   −1 x−3 x − 4 −1  0 0 1 x−2 

   1 0 0 0 1 0 0 0  0 −(x − 3)(x − 2) 0  0  x−3 x − 4 −1   ∼ 0  ∼  0   x−3 x − 4 −1 0 −(x − 3)(x − 2) 0 0  0 0 1 x−2 0 0 1 x−2 6

6

202

7 Trigonalisierung und Normalformen





 1 0 0 0 1 0 0 0 0 −1 x − 4  0 −1  ·(x−2) 0 0 x−3 ∼  ∼ 0 0   0 0 0 −(x − 3)(x − 2) 0 −(x − 3)(x − 2)  0 x−2 1 0 0 x − 2 (x − 3)2 (x − 3)(x − 2) ·(x−4)



6

·(x−3) 6  1 0 0 0 0 −1  0 0  ∼ 0 0 0 −(x − 3)(x − 2) 0 0 (x − 3)2 (x − 3)(x − 2)   1 0 0 0 0 −1  0 0  ∼ 0 0 (x − 3)(x − 2) −(x − 3)(x − 2) 0 0 −(x − 3) (x − 3)(x − 2) 





 1 0 0 0 0 −1  0 0  ∼ 0 0 −(x − 3) (x − 3)(x − 2)  0 0 (x − 3)(x − 2) −(x − 3)(x − 2) ·(x−2)

6



 1 0 0 0 0 −1  0 0  ∼ 0 0  ·(x−2) −(x − 3) 0 0 0 (x − 3)(x − 2) (x − 3)2 (x − 2)    1 0 0 0 0 −1  0 0 . ∼ 0 0 −(x − 3)  0 0 0 0 (x − 3)2 (x − 2) Die letzte Matrix ist die bis auf Assoziiertheit ihrer Komponenten eindeutig bestimmte Smith-Normalform SNF(xE − A) der charakteristischen Matrix von A. Als Invariantenteiler von xE − A entnehmen wir aus SNF(xE − A) die Polynome 1,

1,

x − 3,

(x − 3)2 (x − 2).

Es gibt daher zwei nicht-konstante Invariantenteiler von xE − A: x−3

und (x − 3)2 (x − 2) = x3 − 8x2 + 21x − 18.

Die Frobenius-Normalform lautet daher nach Satz 7.44 aus [5]:

(7.2)

7.1 Grundlagen, ähnliche Matrizen und Normalformen

203



 FNF(A) =



Bx−3 Bx3 −8x2 +21x−18

3 0 = 0 0

0 0 0 1 0 0 18 −21

 0 0 . 1 8

Die Potenzen der über R irreduziblen Teiler der beiden Invariantenteiler in (7.2) lauten (x − 3)1 ,

(x − 3)2 = x2 − 6x + 9,

(x − 2)1 .

Die Weierstraß-Normalform über R ist damit nach Satz 7.45 aus [5]     3 0 00 B(x−3)1    = 0 0 1 0 . B(x−3)2 WNFR (A) =  0 −9 6 0 B(x−2)1 0 0 02 Da die irreduziblen Teiler der beiden nicht-konstanten Invariantenteiler bereits vollständig über R zerfallen, stimmt die Weierstraß-Normalform über C mit dieser Matrix überein: WNFR (A) = WNFC (A). Aufgrund von Satz 7.37 aus [5] gilt für die obigen drei Blockbegleitmatrizen: B(x−3)1 ≈ J3,1 , B(x−3)2 ≈ J3,2 , B(x−2)1 ≈ J2,1 , woraus sich schließlich mit  J3,1 J3,2 J=

 3 0 = 0 J2,1 0 

0 3 0 0

0 1 3 0

 0 0  0 2

eine Jordan’sche Normalform von A ergibt. Alles in allem gilt A ≈ FNF(A) ≈ WNF(A) ≈ J und äquivalent hierzu xE − A ∼ SNF(xE − A) ∼ xE − FNF(A) ∼ xE − WNF(A) ∼ xE − J. R Wir können uns durch MATLAB die Jordan’sche Normalform und die Smith-Normalform von xE − A bestätigen lassen: 1

>> A=[2,-1,0,0; 0,3,0,0; 1,1,4,1; 0,0,-1,2]

2 3

A =

4 5 6 7 8

2 0 1 0

-1 3 1 0

9 10

>> jordan(A)

0 0 4 -1

0 0 1 2

204

7 Trigonalisierung und Normalformen

11 12

ans =

13

2 0 0 0

14 15 16 17

0 3 0 0

0 1 3 0

0 0 0 3

18 19 20

>> syms x >> smithForm(A-x*eye(4))

21 22

ans =

23 24 25 26 27

[ [ [ [

1, 0, 0, 0,

0, 0, 0] 1, 0, 0] 0, x - 3, 0] 0, 0, x^3 - 8*x^2 + 21*x - 18]

R Die von MATLAB bestimmte Jordan’sche Normalform unterscheidet sich nur um die R Reihenfolge der Jordan-Blöcke von unserer, während die von MATLAB ausgegebenen Invariantenteiler bis auf Assoziiertheit mit den von uns bestimmten Invariantenteilern in der Smith-Normalform übereinstimmen.

7.2 Jordan’sche Normalform

Aufgabe 7.9 Bestimmen Sie für die reelle 4 × 4-Matrix   −1 5 0 −5  5 −1 0 5   A= 1 0 4 1 5 −5 0 9 eine Ähnlichkeitstransformation S−1 AS = J, sodass J in Jordan’scher Normalform vorliegt. Verwenden Sie hierzu das in Satz 7.46 aus [5] beschriebene Verfahren, indem Sie mit elementaren Umformungen die charakteristische Matrix xE − A ringäquivalent in die charakteristische Matrix xE − J einer Jordan’schen Normalform J überführen. Lösung Die charakteristische Matrix von A lautet   x + 1 −5 0 5  −5 x + 1 0 −5   xE − A =   −1 0 x − 4 −1  . −5 5 0 x−9

7.2 Jordan’sche Normalform

205

Für das charakteristische Polynom von A folgt x + 1 −5 0 5 −5 x + 1 0 −5 χA (x) = det(xE − A) = −1 0 x − 4 −1 −5 5 0 x − 9 x + 1 −5 5 x + 1 −5 5 −5 = (x − 4) −5 x + 1 −5 = (x − 4) −5 x + 1 −5 5 x − 9 0 −(x − 4) x − 4 x + 1 0 5 x + 1 0 = (x + 1)(x − 4)3 . = (x − 4) −5 x − 4 −5 = (x − 4)2 −5 x − 4 0 0 x − 4 Nach dem Ähnlichkeitskriterium von Frobenius sind zwei Matrizen A, J ∈ M(n, K) genau dann ähnlich, wenn ihre charakteristischen Matrizen xE − A und xE − J äquivalent über K[x] sind. Ist J eine Jordan’sche Normalform von A, so gibt es eine reguläre Matrix S ∈ GL(n, K) mit S−1 AS = J und damit auch S−1 (xE − A)S = xE − J. Wir können daher sogar ausschließlich mit Umformungen über K aus der charakteristischen Matrix xE − A die charakterische Matrix xE − J gewinnen. Dabei können wir bei Äquivalenzumformungen charakteristischer Matrizen Zeilen- und Spaltenumformungen unabhängig voneinander durchführen. Wir versuchen nun, die charakteristische Matrix xE − A durch Zeilen- und Spaltenumformungen über R in die charakteristische Matrix einer Jordan’schen Normalform J zu überführen. Dazu streben wir an, zunächst die Diagonalkomponenten von xE − J, also die Linearfaktoren x + 1, x − 4, x − 4, x − 4, zu erzeugen:     x + 1 −5 0 5 x+1 0 0 5  −5 x + 1 0 −5   −5 x − 4 0 −5  −    xE − A =   −1 0 x − 4 −1  ∼  −1 −1 x − 4 −1  −5 5 0 x−9 −5 x − 4 0 x − 9  6 +     x+1 0 0 x+1 x+1 0 0 5  −5 x − 4 0 −5   −5 x − 4 0 −5     ∼  −1 −1 x − 4 −1  ∼  −1 −1 x − 4 −1  0 0 0 x−4 0 0 0 x−4 + 6 −     x+1 0 0 0 x+1 0 0 0   −5 x − 4 0   0   ∼  −1 −1 x − 4 0  ∼  −1 −1 x − 4 0   −5 x − 4 0 0  0 0 0 x−4 0 0 0 x−4 6

6

206

7 Trigonalisierung und Normalformen

    x+1 0 0 0 x+1 0 0 0 +  −1 x − 4 −1 0   −1 x − 4 −1 0     ∼  −5 0 x − 4 0  ∼ x − 4 0 x − 4 0  0 0 0 x−4 0 0 0 x−4 6



  x+1 0 0 0  0 x − 4 −1 0   = xE − J, ∼  0 0 x−4 0  0 0 0 x−4 mit der in Jordan’scher Normalform vorliegenden Matrix   −1 0 0 0  0 4 1 0  J=  0 0 4 0 . 0 004 Wegen xE − A ∼ xE − J folgt aufgrund des Ähnlichkeitskriteriums von Frobenius (Satz 7.42 aus [5]) hieraus A ≈ J. Um die Zeilenumformungsmatrix zu bestimmen, die allen obigen Zeilenumformungen entspricht, führen wir sämtliche Zeilenumformungen in derselben Reihenfolge an der 4 × 4- Einheitsmatrix durch:       1 0 00  1000 1 −1 0 1     0 1 0 0 −  → 0 1 0 0 → 0 1 0 0 E4 =  0 0 1 0 0 0 1 0 0 0 1 0  0 −1 0 1 + 0001 0 −1 0 1     1 −1 0 1 1 −1 0 1 + 0 0 1 0 0 0 1 0    → 0 1 0 0 → 1 0 0 1 = T. 0 −1 0 1 0 −1 0 1 Nach Satz 7.46 aus [5] liegt mit T eine reguläre Matrix vor, für die TAT −1 = J gilt. Mit S = T −1 liegt die Faktorisierung S−1 AS = J vor. Wir müssten hierzu also noch T invertieren. Obwohl für die Aufgabenstellung zunächst nicht erforderlich, bestimmen wir einmal an dieser Stelle die Spaltenumformungsmatrix, die allen obigen Spaltenumformungen entspricht. Dazu führen wir sämtliche Spaltenumformungen in derselben Reihenfolge an der 4 × 4- Einheitsmatrix durch:       1000 1000 1 0 0 −1 0 1 0 0 0 1 0 0 0 1 0 0       E4 =  0 0 1 0 → 0 0 1 0 → 0 0 1 0  0001 0101 010 1

7.2 Jordan’sche Normalform

 1 0 → 0 0

207

0 0 1 0

0 1 0 1

  −1 1 −1 0 → 0 0 1 −1

 0 0 −1 01 0  = S. 10 0 01 1

Bei genauerer Betrachtung der oben durchgeführten elementaren Umformungen an xE −A fällt auf, dass wir einer Zeilenumformung Zk stets die entsprechende inverse Spaltenumformung Sk = Zk−1 und umgekehrt haben folgen lassen. Dies hat den Effekt, dass die Spaltenumformungsmatrix S aller Spaltenumformungen sich aus den inversen Zeilenumformungen in folgender Weise ergibt: Z4 Z3 Z2 Z1 (xE − A) Z1−1 Z2−1 Z3−1 Z4−1 = xE − J, | {z } | {z } =T

S = (Z4 Z3 Z2 Z1 )−1 = T −1 .

=S

In diesem Fall ist also S−1 = T bzw. S = T −1 , womit die Spaltenumformungsmatrix S die Ähnlichkeitstransformation S−1 AS = J bewerkstelligt. Wir verifizieren dies:    −1 5 0 −5 1 0 0 −1  5 −1 0 5  −1 0 1 0    S−1 AS = TAS = T   1 0 4 1  0 1 0 0  5 −5 0 9 −1 0 1 1      1 −1 0 1 −1 0 0 −4 −1 0 0 0 0 0 1 0  1 0 4 0   0 4 1 0     = 1 0 0 1  0 4 1 0  =  0 0 4 0 = J. 0 −1 0 1 1 04 4 0 004 Die invers gekoppelten Zeilen- und Spaltenumformungen könnten wir auch direkt an der Matrix A durchführen, um J zu erhalten. Wir hätten den Umweg über die charakteristische Matrix xE − A nicht gehen müssen. Durch die paarweise Kopplung der Umformungen in dieser Art entspricht dies insgesamt einer Ähnlichkeitstransformation von A: (Z4 Z3 Z2 Z1 )A(Z1−1 Z2−1 Z3−1 Z4−1 ) = (Z4 Z3 Z2 Z1 )A(Z4 Z3 Z2 Z1 )−1 = J. Es stellt sich daher die Frage, aus welchem Grund wir zunächst den Weg über die charakteristische Matrix xE − A überhaupt gehen sollten. Hierzu erinnern wir uns daran, dass wir uns bei Umformungen an der charakteristischen Matrix xE − A keine Gedanken darüber machen müssen, ob die Umformungen ähnlichkeitsinvariant für A sind. Sobald wir durch elementare Umformungen aus xE − A die Form xE − B der charakteristischen Matrix einer weiteren Matrix B machen, garantiert uns das Ähnlichkeitskriterium von Frobenius die Ähnlichkeit von A und B. Bei direkten Umformungen an A müssten wir dies erst beispielsweise durch invers gekoppelte Umformungen sicherstellen. Bei Betrachtung von xE − A dagegen können wir Zeilen- und Spaltenumformungen auch völlig unabhängig voneinander durchführen, was uns mehr Freiheiten lässt. Dabei können wir uns sogar auf

208

7 Trigonalisierung und Normalformen

Umformungen über K beschränken. Ziel ist es dann, die charakteristische Matrix einer Jordan’schen Normalform zu erreichen. Im Endeffekt wird sich jedoch notwendigerweise herausstellen, dass die Matrix S, die sich aus den Spaltenumformungen ergibt, und die Matrix T , die alle Zeilenumformungen darstellt, zueinander invers sind, ohne dass wir hierauf im Laufe des Verfahrens zu achten haben. Aufgabe 7.10 Zeigen Sie: Für jede quadratische Matrix A ∈ M(n, K) mit ihren Eigenwerten λ1 , . . . , λm des Zerfällungskörpers L von χA und den dazugehörigen algebraischen Vielfachheiten µ1 , . . . , µm gilt m µ

det A = ∏ λk k , k=1

bzw.: für jede quadratische Matrix A gilt det A =

λ alg λ .



λ ∈SpecL A

Hierbei bezeichnet SpecL A sämtliche Eigenwerte von A im Zerfällungskörper L von χA . Das Produkt über die Eigenwerte (mit Berücksichtigung der algebraischen Vielfachheiten) ergibt also die Determinante. Lösung Es sei J ∈ M(n, L) eine Jordan’sche Normalform von A, die als Matrix über L betrachtet werde. Da J ähnlich zu A ist, sind die Determinanten beider Matrizen gleich. Da J eine Trigonalmatrix ist, lässt sich die Determinante sehr leicht als das Produkt ihrer Diagonalkomponenten berechnen: m µ

det J = ∏ λk k , k=1

denn auf der Hauptdiagonalen von J stehen alle Eigenwerte von A. Damit gilt für die Determinante von A m

µ

det A = det J = ∏ λk k . k=1

Aufgabe 7.11 Es sei A ∈ M(n, K) eine quadratische Matrix, deren charakteristisches Polynom vollständig über K in Linearfaktoren zerfällt. Zeigen Sie, dass A ≈ AT gilt. Wie lautet eine Transformationsmatrix T mit AT = T −1 AT ? Wie sieht T im Spezialfall einer diagonalisierbaren Matrix A aus? Lösung Es sei J Jordan’sche Normalform einer quadratischen Matrix A (notfalls über Zerfällungskörper). Es gibt dann eine reguläre Matrix S mit

7.2 Jordan’sche Normalform

209

J = S−1 AS. Transponieren dieser Gleichung ergibt J T = ST AT (S−1 )T = ST AT (ST )−1 . Andererseits kann durch umgekehrte Anordnung der Hauptvektoren für jeden einzelnen Jordan-Block in J die Matrix S unter Beibehaltung der Reihenfolge der Jordan-Blöcke die Matrix S in eine spaltenpermutierte Matrix Su umgestellt werden, sodass J T = Su−1 ASu gilt. Die Matrix J T hat also die Einsen innerhalb der Subdiagonalen statt innerhalb der Superdiagonalen (Alternativform einer Jordan’schen Normalform). Zusammenfassend gilt also ST AT (ST )−1 = J T = Su−1 ASu . Nach AT aufgelöst ergibt sich AT = (ST )−1 Su−1 ASu ST = (Su ST )−1 ASu ST . Mit der Transformationsmatrix T = Su ST gilt für die Bestimmung der Transponierten von A per Ähnlichkeitstransformation aus A: AT = T −1 AT. Es gilt also in der Tat A ≈ AT . Wenn A diagonalisierbar ist, dann besitzt J nur 1 × 1-Jordan-Blöcke. Alle Hauptvektoren innerhalb S sind also Eigenvektoren. Es gibt nichts zu permutieren, bzw. es ist J eine Diagonalmatrix, sodass J T = J gilt. Damit ist bereits Su = S. Mit T = Su ST = SST gilt dann AT = (SST )−1 ASST = T −1 AT . Wir betrachten ein einfaches Beispiel:   11 A= . 02 Es gilt mit   11 S= , 01

S

−1



 1 −1 = 0 1

die Ähnlichkeitstransformation          1 −1 11 11 1 −1 12 10 S−1 AS = = = = J. 0 1 02 01 0 1 02 02 Die Matrix A ist also diagonalisierbar. Damit sind alle Hauptvektoren in S bereits Eigenvektoren, d. h. es ist Su = S. Mit der regulären Matrix

210

7 Trigonalisierung und Normalformen

     11 10 21 T = Su ST = SST = = 01 11 11 und T

−1



1 −1 = −1 2



gilt in der Tat T

−1



        1 −1 11 21 1 −1 32 10 AT = = = = AT . −1 2 02 11 −1 2 22 12

Aufgabe 7.11.1 Es sei B ∈ M(n, K). Was unterscheidet den Kern von B vom Kern ihrer transponierten Matrix BT ? Demonstrieren Sie den Zusammenhang zwischen beiden Kernen an einem Beispiel. Lösung Nach Aufgabe 7.11 sind B und BT ähnlich zueinander. Es gibt also eine reguläre Matrix T ∈ GL(n, K) mit BT = T −1 BT . Aufgrund von Aufgabe 4.5 gilt somit für den Kern von B Kern B = T Kern(BT ), woraus direkt Kern(BT ) = T −1 Kern B folgt. Um nun ein Beispiel für diesen Sachverhalt mit einer 3 × 3-Matrix, die einen nichttrivialen Kern besitzt, zu konstruieren, betrachten wir zunächst als Ausgangspunkt eine singuläre Jordan’sche Normalform   210 J = 0 2 0 . 000 Um nun hieraus eine stärker besetzte, zu J ähnliche Matrix B zu machen, betrachten wir beispielsweise die reguläre Matrix   1 −1 1 R = 0 1 0 . 1 1 2 Es ist det R = 1, sodass ihre Inverse auch nur aus ganzen Zahlen besteht:   2 3 −1 R−1 =  0 1 0  . −1 −2 1 Damit definieren wir nun eine singuläre 3 × 3-Matrix, die zu J ähnlich ist:

7.2 Jordan’sche Normalform

211





4 4 4 B := R−1 JR =  0 2 0  . −2 −3 −2 Mit S := R−1 gilt also S−1 BS = J. Mit der spaltenpermutierten Transformationsmatrix   3 2 −1 Su :=  1 0 0  −2 −1 1 ergibt sich eine alternative Darstellung einer Jordan’schen Normalform von B als untere Dreiecksmatrix   200 Su−1 BSu = 1 2 0 . 000 Nach Aufgabe 7.11 bewirkt die reguläre Matrix      3 2 −1 2 0 −1 13 2 −8 T := Su ST =  1 0 0   3 1 −2 =  2 0 −1 −2 −1 1 −1 0 1 −8 −1 5 eine Ähnlichkeitstransformation von B, die zur transponierten Matrix BT führt:   4 0 −2 T −1 BT = 4 2 −3 = BT . 4 0 −2 Es ist det T = det(Su ST ) = det(Su ) det ST = −1 · det S = −1. Die Inverse von T ist daher eine Matrix aus ganzen Zahlen. Sie lautet   1 2 2 T −1 = 2 −1 3 . 2 3 4 Wir berechnen nun zunächst den Kern der Matrix BT . Es gilt          * 1/2 + * 1 + 4 0 −2 4 0 −2 1 0 −1/2 Kern BT = Kern = Kern = Kern = 1/2 = 1 . 4 2 −3 0 2 −1 0 1 −1/2 1 2 

Alternativ ergibt die Rechnung     4 4 4 101 T −1 Kern B = T −1 Kern  0 2 0  = T −1 Kern 010 −2 −3 −2

212

7 Trigonalisierung und Normalformen

  + * *  + * −1 −1 1 2 = T −1  0  = T −1 ·  0  = 2 −1 1 1 2 3

  + * + 2 −1 1 3  0  = 1 4 1 2

ebenfalls den Kern von BT .

7.3 Vertiefende Aufgaben

Aufgabe 7.12 Es seien A, B ∈ M(n, K) zwei quadratische Matrizen. Zeigen Sie, dass es für die Spur des Produkts aus beiden Matrizen nicht auf die Reihenfolge der Faktoren ankommt, d. h., es gilt Spur(AB) = Spur(BA). Lösung Die Spur einer Matrix ist definiert als die Summe über ihre Diagonalkomponenten. Es ist nun ! n

Spur(AB) = Spur

∑ aik bk j k=1

n

=

1≤i, j≤n

n

∑ ∑ alk bkl l=1 k=1 n n

=

∑ ∑ bkl alk l=1 k=1 n n

=

∑ ∑ bkl alk k=1 l=1 n

= Spur

! = Spur(BA).

∑ ail bl j l=1

1≤i, j≤n

Aufgabe 7.12.1 Warum ändert sich die Spur einer Matrix nicht unter Ähnlichkeitstransformation? Lösung Dies ist eine direkte Konsequenz aus der Regel Spur(AB) = Spur(BA) für gleichformatige quadratische Matrizen A und B (vgl. Aufgabe 7.12). Denn für A ∈ M(n, K) und S ∈ GL(n, K) gilt

7.3 Vertiefende Aufgaben

213

Spur(S−1 AS) = Spur(SS−1 A) = Spur(A).

Bemerkung 7.2 Da die Spur einer Matrix invariant unter Ähnlichkeitstransformation ist, kann auch die Spur eines Endomorphismus f auf einem endlich-dimensionalen Vektorraum über die Spur einer beliebigen Koordinatenmatrix von f wohldefiniert erklärt werden.

Aufgabe 7.12.2 Zeigen Sie in Analogie zur Aufgabe 7.10: Für jede quadratische Matrix A ∈ M(n, K) mit ihren Eigenwerten λ1 , . . . , λm des Zerfällungskörpers L von χA und den dazugehörigen algebraischen Vielfachheiten µ1 , . . . , µm gilt m

Spur A =

∑ µk λk , k=1

bzw.: für jede quadratische Matrix A gilt Spur A =



alg(λ ) · λ .

λ ∈SpecL A

Hierbei bezeichnet SpecL A sämtliche Eigenwerte von A im Zerfällungskörper L von χA . Die Summe über die Eigenwerte (mit Berücksichtigung der algebraischen Vielfachheiten) ergibt also die Spur. Lösung Wir gehen analog zur Lösung von Aufgabe 7.10 vor. Es sei J ∈ M(n, L) eine Jordan’sche Normalform von A, die als Matrix über L betrachtet werde. Da J ähnlich zu A ist, sind die Spuren beider Matrizen gleich (vgl. Aufgabe 7.12.1). Damit gilt für die Spur von A m

Spur A = Spur J =

∑ µk λk = ∑ k=1

alg(λ ) · λ ,

λ ∈SpecL A

denn auf der Hauptdiagonalen von J stehen alle Eigenwerte von A. Aufgabe 7.12.3 Es sei A ∈ M(2, C) eine 2 × 2-Matrix. Geben Sie eine Formel an, mit der die Eigenwerte von A allein aus der Determinante und Spur von A bestimmt werden können. Unter welchen Bedingungen gibt es genau einen Eigenwert von A? Lösung Es seien d := det A, s := Spur A sowie λ1 und λ2 die beiden Eigenwerte von A. Da die Determinante das Produkt und die Spur die Summe der Eigenwerte von A sind, gilt d = λ1 λ2 ,

s = λ1 + λ2 .

214

7 Trigonalisierung und Normalformen

Wir setzen s − λ1 für λ2 in die erste Gleichung ein und erhalten d = λ1 (s − λ1 ) = sλ1 − λ12 . Die Lösungen dieser quadratischen Gleichung sind √ √ s − s2 − 4d s + s2 − 4d , . 2 2 Dies sind dann die beiden Eigenwerte von A. Beide Eigenwerte ergeben in Summe √ √ s − s2 − 4d s + s2 − 4d 2s + = = s. 2 2 2 Für den Fall (Spur A)2 = 4 det A gibt es nur einen Eigenwert mit doppelter algebraischer Vielfachheit. Aufgabe 7.12.4 Zeigen Sie, dass jede reelle 2 × 2-Matrix mit negativer Determinante nur reelle Eigenwerte besitzt und diagonalisierbar ist. Lösung Das Produkt der beiden Eigenwerte einer reellen 2 × 2-Matrix A ist die Determinante von A. Wären die beiden Eigenwerte von A nicht reell, dann bildeten sie als Nullstellen von χA ein konjugiertes Paar (λ , λ ). Das Produkt det A = λ λ = |λ |2 > 0 wäre positiv im Widerspruch zur Voraussetzung. Da beide Eigenwerte reell sind, müssen sie bei negativer Determinante vorzeichenverschieden sein. Insbesondere hat dann A genau zwei verschiedene Eigenwerte mit einfacher algebraischer Ordnung, sodass A diagonalisierbar ist. Damit also eine reelle 2×2-Matrix A nicht diagonalisierbar ist, muss notwendig det A ≥ 0 sein. Diese Bedingung ist aber nicht hinreichend für fehlende Diagonalisierbarkeit, wie bereits die Einheitsmatrix E2 zeigt. Aufgabe 7.12.5 Warum ist jede reelle 2 × 2-Matrix mit nicht-reellen Eigenwerten über C diagonalisierbar? Geben Sie ein Beispiel für eine derartige Matrix an. Geben Sie zudem ein Beispiel für eine nicht über C diagonalisierbare reelle 2 × 2-Matrix an. Lösung Wenn die beiden Eigenwerte nicht-reell sind, so bilden sie ein konjugiertes Paar und sind insbesondere verschieden. Daher haben sie einfache algebraische Ordnung, sodass die Diagonalisierbarkeit folgt. Die Matrix   1 1 A= −1 1

7.3 Vertiefende Aufgaben

215

besitzt das charakteristische Polynom χA (x) = (x − 1)2 + 1. Die Nullstellen sind λ1 = 1 − i und λ2 = 1 + i = λ 1 . Damit ist A (über C) diagonalisierbar. Dagegen ist   11 J= 01 als reeller 2 × 2-Jordan-Block zum Eigenwert λ = 1 eine weder über R noch über C diagonalisierbare Matrix. Aufgabe 7.13 (Spektralnorm) Es sei A ∈ M(m × n, K) eine Matrix über K = R bzw. K = C. Zeigen Sie mithilfe der Singulärwertzerlegung (vgl. Aufgabe 6.19), dass für die von der 2-Norm induzierte Matrixnorm (Spektralnorm) √ kAk2 = max λ λ ∈Spec A∗ A

gilt. Lösung Wir zeigen die Behauptung für die Situation K = R. Im Komplexen verläuft der Beweis ähnlich. Wir nehmen die Situation m ≥ n an, ansonsten betrachten wir AT statt A. Ist A eine reelle m × n-Matrix, so gibt es eine Singulärwertzerlegung von A der Art A = USV T mit orthogonalen Matrizen U ∈ O(m, R) und V ∈ O(n, R) sowie einer reellen m × n-Matrix   σ1 0 ··· 0  .. .. ..   . . .     σ 0 · · · 0 r   S=  0 · · · · · · 0   .  . ..   .. 0 ···

··· 0

mit r = Rang A und den Singulärwerten σ1 ≥ σ2 ≥ · · · σr > 0. Für die von der 2-Norm induzierte Matrixnorm ist definitionsgemäß kAk2 = max kAxk2 = max kUSV T xk2 = max kSV T xk2 = max kSxk2 , kxk2 =1

kxk2 =1

kxk2 =1

kxk2 =1

denn U erhält als Isometrie die 2-Norm. Zudem gilt kxk2 = 1 ⇐⇒ kV T xk2 = 1, da V T ebenfalls eine Isometrie ist. Für x ∈ Rn mit kxk2 = 1 wird der Ausdruck kSxk2 = k(σ1 x1 , σ2 x2 , . . . , σr xr , 0, . . . , 0)T k2 = σ12 x12 + σ22 x22 + · · · + σ22 xr2

216

7 Trigonalisierung und Normalformen

maximal, wenn x1 = 1 und x j = 0 für j 6= 1 gewählt wird, denn es ist σ1 ≥ σ j für alle j = 1, . . . , r. Dieser Vektor entspricht dem kanonischen Einheitsvektor eˆ 1 ∈ Rn und hat den geforderten Betrag 1. Insgesamt folgt q σ >0 kAk2 = max kSxk2 = kSxˆe1 k2 , = σ12 1= σ1 . kxk2 =1

T Da √ die Singulärwerte von A die Quadratwurzeln der Eigenwerte von A A sind, √ ist σ1 = T λ , wobei λ der größte Eigenwert von A A ist. Damit gilt kAk2 = max λ. λ ∈Spec AT A

Aufgabe 7.13.1 Es sei S ∈ O(n) bzw. S ∈ U(n) eine orthogonale bzw. unitäre Matrix. Berechnen Sie die Spektralnorm kSk2 von S. Welche Kondition (vgl. Aufgabe 5.7.4) besitzt S hinsichtlich der Spektralnorm? Wie verändert sich die Spektralnorm und die auf dieser Norm basierende Kondition einer reellen bzw. komplexen m × n-Matrix A nach Links- bzw. Rechtsmultiplikation mit einer orthogonalen bzw. unitären Matrix? Lösung Für S ∈ O(n) bzw. S ∈ U(n) ist ST S = En bzw. S∗ S = En . Damit ist kSk2 = 1. Da mit S auch S−1 = ST bzw. S−1 = S∗ orthogonal bzw. unitär ist, ist auch kS−1 k2 = 1. Für die Kondition gilt also cond S = kSk2 · kS−1 k2 = 1. Es sei nun A eine reelle bzw. komplexe m × n-Matrix. Dann gilt nach Definition der induzierten Matrixnorm und der Eigenschaft, dass orthogonale bzw. unitäre Matrizen normerhaltend sind, mit S ∈ O(m) bzw. S ∈ U(m) kSAk2 = max kSAxk2 = max kAxk2 = kAk2 . kxk2 =1

kxk2 =1

Zudem ist wegen kSxk2 = 1 ⇐⇒ kxk2 = 1 für jede Matrix S ∈ O(n) bzw. S ∈ U(n) kASk2 = max kASxk2 = max kA(Sx)k2 = max kAxk2 = kAk2 . kxk2 =1

kSxk2 =1

kxk2 =1

Ist A eine reguläre n × n-Matrix mit reellen oder komplexen Einträgen, so bleibt auch die auf der Spektralnorm basierende Kondition von A nach Links- und Rechtsmultiplikation mit orthogonalen bzw. unitären Matrizen erhalten. Bemerkung 7.3 Da die Kondition einer Matrix ein Maß für die Empfindlichkeit relativer Fehler ist (vgl. Aufgabe 5.7.4), sollten Rechenoperationen nicht dazu führen, dass gut konditionierte Probleme zu schlechter konditionierten Problemen werden. Operationen, die mit orthogonalen bzw. unitären Matrizen durchgeführt werden, sind aufgrund der Normund Konditionserhaltung daher von Vorteil in der numerischen Mathematik. Die Singulärwertzerlegung ist ein derartiges Verfahren. Sie kann beispielsweise eine gute Alternative zu einer ZAS-Zerlegung sein, wenn die Matrix A besonders großformatig ist.

7.3 Vertiefende Aufgaben

217

Aufgabe 7.13.2 (Kondition bezüglich der Spektralnorm) Es sei A ∈ GL(n, R). Zeigen Sie, dass die von der Spektralnorm induzierte Kondition von A das Verhältnis des größten Singulärwertes σ1 zum kleinsten Singulärwert σn von A ist: cond2 A =

σ1 . σn

Lösung Nach Aufgabe 7.13 ist kAk2 =

√ max

λ ∈Spec AT A

λ = σ1 .

Die Eigenwerte von (AT A)−1 sind bekanntlich die Kehrwerte der Eigenwerte von AT A (vgl. Aufgabe 6.3). Zudem ist Spec AAT = Spec AT A (vgl. Aufgabe 6.18). Daher ist √ √ √ kA−1 k2 = max λ= max λ= max λ λ ∈Spec(A−1 )T A−1

λ ∈Spec(AT )−1 A−1



=

max

λ ∈Spec(AT A)−1

λ=

max

λ ∈Spec AT A

p

1/λ

=

λ ∈Spec(AAT )−1



min

λ ∈Spec AT A

λ = σn .

Damit ist cond2 A = σ1/σn . Aufgabe 7.14 Es sei   1 1 ··· 1 1 1 1  1n×n = (1)1≤i, j≤n =  . .  .. . . ...  ∈ M(n, R) 1 1 ··· 1 die reelle n × n-Matrix, die nur aus der 1 besteht. Geben Sie ohne Rechnung sämtliche Eigenwerte von 1n×n an. Warum ist 1n×n diagonalisierbar? Bestimmen Sie ohne Rechnung eine Matrix V mit V −1 · 1n×n ·V = Λ , wobei Λ eine Diagonalmatrix ist. Lösung Wir erkennen unmittelbar, dass Rang 1n×n = 1 ist. Damit ist 1n×n singulär und 0 ein Eigenwert von 1n×n mit geo 0 = n − Rang 1n×n = n − 1. Für den nicht-trivialen Vektor   1 1   v =  .  ∈ Rn  ..  1 gilt 1n×n v = n · v. Damit ist n ein weiterer Eigenwert von 1n×n . Da bereits geo(0) = n − 1 ist, bleibt nur geo(n) = 1. Zudem ist geo(0) + geo(n) = n. Es kann also keinen weiteren

218

7 Trigonalisierung und Normalformen

Eigenwert geben. Außerdem ist 1n×n diagonalisierbar. Der Kern von 1n×n kann nach der Ableseregel direkt aus dem Tableau [1 1 · · · 1] entnommen werden:       −1 −1 −1  0 + * 1   0               Kern 1n×n = Kern 1 1 · · · 1 =  0  ,  1  , . . .  0  .  ..   ..   ..   .   .   .  0

0

Wir erhalten dann zusammen mit v eine Basis des Rn ist  −1 −1 · · · −1  1 0 0   .. . V =  0 1  . .. .  . . 0 0 ··· 1

aus Eigenvektoren von 1n×n . Somit  1 1   1    1

eine reguläre Matrix mit 

0  ..  V −1 · 1n×n ·V =  . 0 0

··· .. . ··· ···

 0 ..  .  = Λ. 0 0 0 n 0 .. .

1

Kapitel 8

Anwendungen

8.1 Orthogonale Entwicklung

Aufgabe 8.1 Es sei (V, h·, ·i) ein durch das Skalarprodukt h f , gi :=



f (x)g(x) dx −π

definierter euklidischer und durch die Basis B = ( √12 , cos(x), cos(2x), . . . , cos(5x)) erzeugter, 6-dimensionaler R-Vektorraum. Für die 2π-periodische Funktion  f (x) = 4 cos(x) cos2 32 x , x ∈ R, gilt f ∈ V . Weisen Sie nach, dass B eine Orthogonalbasis von V ist, und berechnen Sie den Koordinatenvektor von f bezüglich B. Wie lautet die Fourier-Reihe von f ? Lösung Es gilt für die Basisvektoren b0 = vorgegebenen Skalarprodukts hb j , bk i =

√1 2

und bk = cos(kx), k = 1, . . . , 5 von V aufgrund des 

Z π

cos( jx) cos(kx) dx = . . . = −π

π, j = k . 0, j = 6 k

Nach der orthogonalen Entwicklung (Satz 5.20 aus [5]) ergeben sich für die Komponenten des Koordinatenvektors a = (a0 , . . . , a5 )T = cB ( f ) der Funktion f (x) = 4 cos(x) cos2 23 x bezüglich B

© Springer-Verlag GmbH Deutschland, ein Teil von Springer Nature 2019 L. Göllmann und C. Henig, Arbeitsbuch zur linearen Algebra, https://doi.org/10.1007/978-3-662-58766-9_8

219

220

8 Anwendungen

a0 = a1 = a2 = a3 = a4 = a5 =

hb0 , f i hb0 , b0 i hb1 , f i hb1 , b1 i hb2 , f i hb2 , b2 i hb3 , f i hb3 , b3 i hb4 , f i hb4 , b4 i hb5 , f i hb5 , b5 i

= = = = = =

1 π 1 π 1 π 1 π 1 π 1 π

Z π

cos(0x) f (x) dx = . . . = 0 −π Z π

cos(1x) f (x) dx = . . . = 2 −π Z π

cos(2x) f (x) dx = . . . = 1 −π Z π

cos(3x) f (x) dx = . . . = 0 −π Z π

cos(4x) f (x) dx = . . . = 1 −π Z π

cos(5x) f (x) dx = . . . = 0, −π

woraus cB ( f ) = a = (0, 2, 1, 0, 1, 0)T folgt. In der Tat kann gezeigt werden, dass der Basisisomorphismus auf diesen Vektor angewandt wieder die Funktion f ergibt:  2 3 c−1 B (a) = 2 · cos(x) + 1 · cos(2x) + 1 · cos(4x) = . . . = 4 cos(x) cos 2 x = f (x). Die Fourier-Reihe von f ist daher eine endliche Summe und lautet ∞



ak eikx = 2 · 12 (eix + e−ix ) + 1 · 12 (e2ix + e−2ix ) + 1 · 12 (e4ix + e−4ix )

k=−∞

= 12 e−4ix + 12 e−2ix + e−ix + eix + 12 e2ix + 12 e4ix . Aufgabe 8.1.1 Bestimmen Sie die Fourier-Reihen von f (x) = 2 sin(x) cos(x),

g(x) = cos2 (x) − sin2 (x)

in der Darstellung mit komplexer Exponentialfunktion unter Verwendung der Additionstheoreme. Lösung Bei den Funktionen f und g handelt es sich um 2π-periodische, auf [−π, π] (stückweise) stetige und stückweise monotone Funktionen. Die Fourier-Reihe von f bzw. g in der Darstellung mit komplexer Exponentialfunktion ∞

∑ k=−∞ ∞



ck eikx ,

ck :=

1 2π

dk eikx ,

dk :=

1 2π

k=−∞

Z π

f (x)e−ikx dx

−π

Z π

g(x)e−ikx dx

−π

konvergiert daher gegen f (x) bzw. g(x). Die Additionstheoreme lauten (i) sin(x ± y) = sin(x) cos(y) ± sin(y) cos(x),

8.1 Orthogonale Entwicklung

221

(ii) cos(x ± y) = cos(x) cos(y) ∓ sin(x) sin(y) für alle x, y ∈ R. Die Fourier-Reihen von f und g bestehen dann jeweils nur aus zwei Exponentialsummanden, denn es sind 2ix f (x) = 2 sin(x) cos(x) = sin(x) cos(x) + sin(x) cos(x) = sin(2x) = 2i e−2ix + −i 2 e ,

g(x) = cos2 (x) − sin2 (x) = cos(2x) = 12 e−2ix + 12 e2ix . Wir können uns dieses Ergebnis bestätigen lassen, indem wir die Koeffizienten ck und dk TM R jeweils über die Integrale bestimmen. Da MATLAB mit der Symbolic Math Toolbox auch als Computeralgebrasystem verwendet werden kann, überlassen wir zu diesem Zweck den Aufwand für die beiden Integrationen dieser Software. Wir begnügen uns dabei mit der Berechnung der Koeffizienten ck für f : 1 2

>> syms k x >> int(2*sin(x)*cos(x)*exp(-i*k*x),x)

3 4

ans =

5 6

(exp(-k*x*1i)*(2*cos(2*x) + k*sin(2*x)*1i))/(k^2 - 4)

Hieraus entnehmen wir ck = = =

1 2π

Z π

−ikx

f (x)e

dx =

−π

1 2π

e−ikx (2 cos(2x) + ik sin(2x)) · k2 − 4 



−π −ikπ ikπ e (2 cos(2π) + ik sin(2π)) − e (2 cos(−2π) + ik sin(−2π))

2π(k2 − 4) 2e−ikπ − 2eikπ e−ikπ − eikπ −2i sin(kπ) = = =0 2 2π(k − 4) π(k2 − 4) π(k2 − 4)

für k 6= ±2. Für k = 2 oder k = −2 ergeben die jeweiligen Integrale 1 2

>> syms k x >> int(2*sin(x)*cos(x)*exp(-i*(-2)*x),x)

3 4

ans =

5 6

(x*1i)/2 - exp(x*4i)/8

7 8

>> int(2*sin(x)*cos(x)*exp(-i*2*x),x)

9 10

ans =

11 12

- (x*1i)/2 - exp(-x*4i)/8

Also sind c−2 =

1 2π

c2 =

1 2π

Z π −π Z π −π

h



f (x)e−(−2)ix dx =

1 2π

f (x)e−2ix dx =

h − ix2 − 18 e−4ix

1 2π

ix 2

− 18 e4ix

−π iπ −π

=

1 iπ 2π ( 2

+ iπ2 ) = 2i ,

=

1 iπ 2π (− 2

− iπ2 ) = − 2i

222

8 Anwendungen

die beiden übrig bleibenden Koeffizienten in der Fourier-Reihe von f .

8.2 Markov-Ketten

Aufgabe 8.2 Zeigen Sie, dass die durch die Matrix   001 A = 0 1 0 100 definierte Markov-Kette im Allgemeinen keinen stationären Zustand besitzt. Für welche Startvektoren gibt es einen stationären Zustand? Lösung Es ist

  001 A = 0 1 0 = P13 100

die 3 × 3-Permutationsmatrix P13 . Damit gilt A2 = E3 ,

A3 = A,

A4 = E3 ,

...

bzw. allgemein Ak = Mit dem Startvektor



E3 , A,

für k gerade für k ungerade.

  a x0 = b ∈ R3 c

folgt  x0 ,   

  c xk = Ak x0 =  , b Ax =    0 a

für k gerade für k ungerade.

Einen stationären Zustand gibt es also genau dann, wenn c = a gilt. In diesem Fall ist die Markov-Kette konstant:   a xk = b ⇒ lim xk = x0 . n→∞ a

8.2 Markov-Ketten

223

Aufgabe 8.3 Innerhalb einer Firma gebe es drei Abteilungen: A, B und C. Am Ende jeder Woche gibt jede Abteilung die Hälfte ihres Geldbestandes zu gleichen Teilen an die anderen beiden Abteilungen ab. a) Stellen Sie die Markov-Matrix für den gesamten Geldfluss in der Firma auf. b) Berechnen Sie das Verhältnis der Geldbestände der drei Abteilungen nach drei Wochen und nach drei Monaten, wenn die Anfangsverteilung durch den Startvektor   0% x0 = 10 % 90 % gegeben ist. c) Wie lautet die durch den stationären Zustand gegebene Grenzverteilung? Lösung a) Die Markov-Matrix für den gesamten Einnahmenfluss lautet   1/2 1/4 1/4 A = 1/4 1/2 1/4 . 1/4 1/4 1/2 Da diese Matrix reell-symmetrisch ist, existiert eine Orthonormalbasis des R3 aus Eigenvektoren von A. b) Wir berechnen zunächst die Eigenwerte von A:     x − 1/2 −1/4 −1/4 x − 1/2 −1/4 −1/4 χa (x) = det  −1/4 x − 1/2 −1/4  = det  −1/4 x − 1/2 −1/4  −1/4 −1/4 x − 1/2 0 −x + 1/4 x − 1/4     x − 1/2 −1/2 −1/4 x − 1/2 −1/2 = det  −1/4 x − 3/4 −1/4  = (x − 1/4) det −1/4 x − 3/4 0 0 x − 1/4  = (x − 14 ) · (x − 12 )(x − 34 ) − 18 = (x − 14 ) · (x2 − 54 x + 14 ) = (x − 14 )(x − 14 )(x − 1) = (x − 14 )2 (x − 1). Es ist also Spec A = {1, 1/4} mit alg(1/4) = 2 = geo(1/4). Wir bestimmen nun die Eigenräume von A. Zunächst gilt   *   + 1/4 1/4 1/4 −1 −1 VA,1/4 = Kern(A − 14 E) = Kern 1/4 1/4 1/4 = Kern(1 1 1) =  1  ,  0  . 1/4 1/4 1/4 0 1 Aufgrund der Symmetrie von A sind die Vektoren der beiden Eigenräume orthogonal zueinander. Zudem ist der Eigenraum zu λ = 1 nur eindimensional. Wir können daher den

224

8 Anwendungen

Eigenraum zu λ = 1 auch per Vektorprodukt aus den beiden Basisvektoren von VA,1/4 bestimmen. Es gilt demnach *   + * + −1 −1 1 VA,1 =  1  ×  0  = 1 . 0 1 1 Wir können nun nicht erwarten, dass die beiden Basisvektoren (−1, 1, 0)T und (−1, 0, 1)T des Eigenraums VA,1/4 bereits orthogonal zueinander sind. In der Tat gilt für das Skalarprodukt (−1, 1, 0)(−1, 0, 1)T = 1 6= 0. Daher ist   −1 −1 1 B =  1 0 1 0 1 1 keine orthogonale Matrix. Wir benötigen die Inverse der Basismatrix, um durch Koordinatentransformation die Elemente xk der Markov-Kette effektiv zu bestimmen. Wir könnten nun die ersten beiden Spalten von B orthogonalisieren und durch anschließende Normierung alle drei Spalten in eine Orthonormalbasis C des R3 überführen. In diesem Fall ist es aber mit weniger Aufwand verbunden, B zu invertieren als C zu bestimmen, um dann die orthogonale Matrix C−1 = CT zu verwenden. Es gilt für die Inverse von B   −1 2 −1 B−1 = 13 −1 −1 2  . 1 1 1 Damit folgt 

 0 0 B−1 AB =  0 1/4 0 =: Λ 0 0 1 1/4

und somit für x0 = (a, b, c)T ∈ [0, ∞)3 mit kx0 k1 = a + b + c = 1 xk = Ax0 = (BΛ B−1 )k x0 = BΛ k B−1 x0      (1/4)k 0 0 −1 2 −1 a = B  0 (1/4)k 0 · 13 −1 −1 2  b 1 1 1 c 0 0 1      k 1/4 0 0 1/4k (2b − a − c) 2b − a − c = 13 · B  0 1/4k 0 2c − a − b = 13 · B 1/4k (2c − a − b) 0 0 1 a+b+c a+b+c    k 1/4 (2b − a − c) −1 −1 1 = 13 ·  1 0 1 1/4k (2c − a − b) 0 1 1 a+b+c   k −1/4 (2b − a − c + 2c − a − b) + a + b + c  1/4k (2b − a − c) + a + b + c = 13 ·  1/4k (2c − a − b) + a + b + c

8.2 Markov-Ketten

225



 1/4k (2a − b − c) + a + b + c = 13 · 1/4k (2b − a − c) + a + b + c 1/4k (2c − a − b) + a + b + c     1/3 a+b+c k→∞ 1    −→ 3 · a + b + c = 1/3 , da a + b + c = 1. 1/3 a+b+c Es folgt bei der Anfangsverteilung 

 0 x0 = 1/10 9/10 nach k Wochen die Zustandsverteilung     1/4k (−1/10 − 9/10) + 1 −1/4k + 1 xk =  1/4k (2/10 − 9/10) + 1  = 13 · −1/4k · 7/10 + 1 . 1/4k (18/10 − 1/10) + 1 1/4k · 17/10 + 1 Speziell folgt für den Zustand nach k = 3 Wochen   0.3281250 x3 = 0.3296875 . 0.3421875 Nach drei Monaten, also nach k = 12 Wochen gilt bereits   0.3333333134651184 x12 = 0.3333333194255829 . 0.3333333671092987 c) Der stationäre Zustand ist die Grenzverteilung x∞ = (1/3, 1/3, 1/3)T .

226

8 Anwendungen

Aufgabe 8.3.1 Ein Autoverleih habe drei Filialen F1 , F2 und F3 . An jeder Filiale werden Autos verliehen und auch wieder im Empfang genommen. Kunden können ihr Fahrzeug an jeder der drei Filialen zurückgeben. Vereinfachend betrachten wir die Situation, dass die Autos jeweils nur für einen Tag geliehen werden. Der Autoverleih beobachtet das Rückgabeverhalten seiner Kunden über einen langen Zeitraum und stellt fest, dass nach Geschäftsschluss in Filiale F1 60 % der Autos aus dieser Filiale stammen, 30 % an der Filiale F2 abgegeben werden und die restlichen 10 % an der Filiale F3 stehen. Für Filiale F2 ergibt sich folgendes Rückgabeverhalten: 50 % der Autos verbleiben dort, 20 % gehen an Filiale F1 , 30 % an Filiale F3 . Die Filiale F3 behält 80 % ihrer Autos, 10 % werden an Filiale F1 , 10 % an Filiale F2 abgegeben. Für den Autoverleih stellt sich die Frage, ob der gesamte Fuhrpark von 100 Autos so auf die drei Filialen aufgeteilt werden kann, dass sich von Tag zu Tag die Anzahl der Autos an jeder Filiale nicht ändert (Schwankungen im Rückgabeverhalten seien hier vernachlässigt). Sollte dies möglich sein, dann könnte der Autoverleih Transporte von Autos von einer zur anderen Filiale einsparen und an jeder Filiale verlässlich Autos anbieten. Zur Lösung dieser Frage verwenden wir einen Vektor xn ∈ R3 , dessen Komponenten der Bestand an Autos in den Filialen am Tag n sind. a) Geben Sie die Matrix A an, die den Übergang von xn zu xn+1 , den Bestand am Tag n + 1, beschreibt. b) Behandeln Sie die Frage, ob durch geeignete Verteilung der Autos auf die Filialen der Bestand an Autos an jeder Filiale konstant gehalten werden kann, als Eigenwertproblem und bestimmen Sie die geeignete Verteilung, wenn möglich. R Hierzu kann eine Mathematiksoftware, z. B. MATLAB , eingesetzt werden. Lösung

0.6

F1

0.2

0.1

0.3

0.1

0.3 0.5

F3

F2 0.1

Abb. 8.1 Graph zur Veranschaulichung des Rückgabeverhaltens

0.8

8.2 Markov-Ketten

227

a) Das Rückgabeverhalten der Verleihfirma wird in Abb. 8.1 gezeigt. Aus dem Bestand xn der Autos am Tag n kann der Bestand am Folgetag, xn+1 , mit der Gleichung xn+1 = A · xn berechnet werden. Die Matrix A, die den Übergang von einem auf den nächsten Tag beschreibt, lautet mit dem genannten Rückgabeverhalten:   0.6 0.2 0.1 A = 0.3 0.5 0.1 . 0.1 0.3 0.8 b) Wenn der Bestand an Autos in jeder Filiale von Tag zu Tag unverändert bleiben soll, dann müssen die Vektoren xn und xn+1 gleich sein. Das heißt aber, dass die Zeitabhängigkeit des Vektors x keine Rolle spielt. Damit erhalten wir die Gleichung x = A · x. Diese Gleichung stellt ein Eigenwertproblem mit dem Eigenwert 1 dar. Die grundsätzliche FraR ge ist also, ob die Matrix A den Eigenwert 1 hat. Mithilfe von MATLAB können wir die Eigenwerte und normierte Eigenvektoren der Matrix A berechnen. Der Einsatz von R MATLAB könnte sein: 1 2

>> A=[0.6, 0.2, 0.1; 0.3, 0.5, 0.1; 0.1, 0.3, 0.8]; >> [V,D]=eig(A)

3 4

V =

5 6 7 8

0.4082 -0.8165 0.4082

-0.4082 -0.4082 0.8165

0.4082 0.4082 0.8165

0.3000 0 0

0 0.6000 0

0 0 1.0000

9 10 11

D =

12 13 14 15

Die Matrix V enthält bezüglich der 2-Norm normierte Eigenvektoren der Matrix A. Die Diagonalelemente der Matrix D sind die Eigenwerte der Matrix A. Offensichtlich hat die Übergangsmatrix A den Eigenwert 1. Schließlich können wir die Verteilung der Autos auf die Filialen berechnen: Der zum Eigenwert 1 berechnete Eigenvektor ist   0.4082 x = 0.4082 . 0.8165 Um aus diesem stationären Vektor die absolute Verteilung der Autos auf die Filialen für einen stationären Zustand zu bestimmen, skalieren wir den Vektor abschließend noch ent-

228

8 Anwendungen

sprechend, indem wir ihn hinsichtlich der 1-Norm normieren und mit der Gesamtzahl der Autos multiplizieren: 1 2

>> x=abs(V(:,3)); >> x=100/sum(x)*x

Das Ergebnis der Skalierung ist: 1

x =

2

25.0000 25.0000 50.0000

3 4 5

Also sollte der Autoverleih 25 seiner Autos in Filiale F1 , 25 Autos in Filiale F2 und 50 Autos in Filiale F3 abstellen, um dauerhaft diese Verteilung zu erhalten (vorausgesetzt, dass sich das Kundenverhalten nicht ändert). Aufgabe 8.4 Wie lautet der stationäre Zustand einer symmetrischen Markov-Matrix des Formats n × n mit positiven Komponenten? Lösung Ist A ∈ M(n, R) eine symmetrische Markov-Matrix, so summieren sich mit den Zeilen in jeder Spalte auch die Spalten in jeder Zeile zu 1. Damit gilt       1 1 1  ..   ..   ..  A. = . = 1·.. 1 Es ist also

1

1

  1  ..  p =  .  ∈ Rn 1

Eigenvektor zum Eigenwert λ = 1. Da alle Komponenten von A positiv sind, folgt nach Satz 8.10 aus [5], dass     1/n 1 1  ..  1  ..  x∞ = p = n . =  .  kpk1 1/n 1 stationärer Zustand der Markov-Kette xk = Ak x0 ist. Insbesondere folgt, dass es unabhängig von der Anfangsverteilung x0 langfristig auf eine Gleichverteilung der Anteile in allen Komponenten hinausläuft.

8.3 Lineare Differenzialgleichungssysteme

229

8.3 Lineare Differenzialgleichungssysteme

Aufgabe 8.5 Betrachten Sie das Anfangswertproblem x˙1 = x2

x1 (0) = 1

x˙2 = 4x1 + t,

x2 (0) = 0.

a) Bringen Sie das Problem in die Standardform x˙ = Ax + b(t) eines gekoppelten inhomogenen linearen Differenzialgleichungssystems erster Ordnung mit konstanten Koeffizienten. b) Entkoppeln Sie das System durch eine geeignete Basiswahl. c) Bestimmen Sie die Lösung y(t) des entkoppelten Systems. d) Transformieren Sie die Lösung des entkoppelten Systems zurück in die Lösung x(t) des ursprünglichen Koordinatensystems. Lösung a) Mit A=

  01 , 40

b(t) =

  0 t

lautet das Anfangswertproblem x˙ = Ax + b(t),

x(0) =

  1 =: x0 . 0

b) Zur Entkopplung durch Diagonalisierung von A bestimmen wir zunächst die Eigenwerte von A. Es gilt   x −1 χA (x) = det(xE − A) = det = x2 − 4 = (x − 2)(x + 2). −4 x Die 2 × 2-Matrix A besitzt also zwei verschiedene Eigenwerte 2 und −2 und ist daher diagonalisierbar. Die Eigenräume lauten     1/2 −2 1 VA,2 = Kern(A − 2E) = Kern = Kern(1 − 1/2) = 4 −2 1 sowie VA,−2 = Kern(A + 2E) = Kern

    21 −1/2 = Kern(1 1/2) = . 42 1

Hieraus ergibt sich mit  B=

 −1/2 1 1

1/2

230

8 Anwendungen

eine Basis aus Eigenvektoren von A. Da det B = 1 ist, folgt unmittelbar die Inverse der Basismatrix   1 1/2 B−1 = . −1 1/2 Damit bestimmen wir den Koordinatenvektor der Inhomogenität und des Anfangswertes bezüglich der Basis B. Es gilt     1 1/2 0 −1 1 t =2 β (t) := cB (b(t)) = B b(t) = −1 1/2 t t und y0 := cB (x0 )) = B−1 x0 =



    1 1/2 1 1 = . −1 1/2 0 −1

Zudem gilt   2 0 B AB = =: Λ . 0 −2 −1

Mit y(t) := cB (x(t)) lautet das Anfangswertproblem im B-System y˙ = Λ y + β (t), im Detail

y(0) = y0

      y˙1 2 0 y1 t + 12 , = y˙2 0 −2 y2 t

    y1 (0) 1 = . y2 (0) −1

Dies ergibt zwei voneinander entkoppelte Differenzialgleichungen erster Ordnung mit jeweiligem Anfangswert: y˙1 = 2y1 + 12 t, y˙2 = −2y2 +

1 2 t,

y1 (0) = 1 y2 (0) = −1.

c) Diese beiden skalaren Anfangswertprobleme lassen sich nun unabhängig voneinander durch Variation der Konstanten lösen. Es folgt   Z t Z t 2t 2t 1 1 −2τ y1 (t) = e2t y1 (0) + τe dτ = e + e · τe−2τ dτ 2 2 0 0   Z t = e2t + e2t · 12 [− 12 τe−2τ ]t0 + 12 e−2τ dτ 0  2t 2t 1 1 −2t 1 1 = e + e · 2 − 2 te + 2 · (− 2 ) · [e−2τ ]t0  = e2t + 14 e2t −te−2t + 12 − 12 e−2t  = e2t + 18 e2t −2te−2t + 1 − e−2t  = e2t + 18 −2t + e2t − 1 = 98 e2t − 14 t − 18 ,

8.3 Lineare Differenzialgleichungssysteme



y2 (t) = e−2t y2 (0) +

Z t

231



= −e−2t + e−2t · 12   Z t = −e−2t + e−2t · 12 12 [τe2τ ]t0 − 12 e2τ dτ 0  −2t 2t 1 −2t 1 2τ t = −e + 4 e te − 2 [e ]0  −2t 1 −2t = −e + 4 e te2t + 12 − 12 e2t  = −e−2t + 14 t + 12 e−2t − 12 = − 78 e−2t + 14 t − 18 . 0

1 2τ 2 τe

Z t



τe2τ dτ

0

Damit lautet die Lösung des entkoppelten Systems  9 2t 1  e − 4 t − 18 8 y(t) = . − 78 e−2t + 14 t − 18 d) Der Basisisomorphismus liefert nun die Lösung im ursprünglichen Koordinatensystem. Es gilt    9 2t 1   9 2t 7 −2t t  1/2 −1/2 e − 4 t − 18 e + e −4 −1 8 x(t) = cB (y(t)) = By(t) = = 169 2t 16 . 7 −2t 1 1 − 78 e−2t + 14 t − 18 − 14 8e − 8e Aufgabe 8.6 Betrachten Sie das homogene lineare Differenzialgleichungssystem erster Ordnung mit Anfangswert     0 1 0 ˙x = x, x(0) = . −1 0 2 a) Entkoppeln Sie das System. b) Berechnen Sie die Lösung y(t) des entkoppelten Systems und die Lösung x(t) des Ausgangsproblems. c) Überprüfen Sie die Lösung durch Einsetzen in die Anfangswertaufgabe. Lösung a) Um das System zu entkoppeln, bestimmen wir eine Basis aus Eigenvektoren von   0 1 A= . −1 0 Das charakteristische Polynom von A lautet   x −1 χA (x) = det = x2 + 1 = (x − i)(x + i). 1 x Mit −i und i liegen genau zwei verschiedene, nicht-reelle Eigenwerte von A vor. Die 2 × 2Matrix A ist somit über C diagonalisierbar. Die beiden Eigenräume lauten

232

8 Anwendungen



  i 1 i VA,−i = Kern(A + iE) = Kern = Kern(1 − i) = , −1 i 1     −i 1 −i VA,i = Kern(A − iE) = Kern = Kern(1 i) = . −1 −i 1 Wir erhalten mit





i −i B= 1 1



eine komplexe Basis(matrix) aus Eigenvektoren von A. Ihre Inverse lautet     1 i −1 1 −i 1 1 B = 2i =2 . −1 i i 1 Die Anfangswertaufgabe lautet mit y = cB (x) im B-System     −i 0 1 −1 y˙ = y, y(0) = y0 = cB (x0 ) = B x0 = . 0 i 1 b) Das entkoppelte System lautet im Detail y˙1 = −iy1 ,

y1 (0) = 1

y˙2 = iy2 ,

y2 (0) = 1

und wird gelöst durch y˙1 = e−it , y˙2 = eit . Die Lösung lautet im ursprünglichen Koordinatensystem    it   −it    i −i e ie − ieit 2 sint x(t) = c−1 y(t) = By(t) = = = . B 1 1 2 cost e−it e−it + eit c) Wir überprüfen zunächst die Anfangswerte. Es gilt x1 (0) = 2 sin 0 = 0, x2 (0) = 2 cos 0 = 2. Wegen x˙1 = 2 cost = x2 , x˙2 = −2 sint = −x1 wird auch die Differenzialgleichung x˙ = Ax bestätigt.

8.4 Vertiefende Aufgaben

233

8.4 Vertiefende Aufgaben

Aufgabe 8.7 (Lineares Ausgleichsproblem) Es sei A ∈ M(m × n, R) eine reelle m × n-Matrix mit m ≥ n und b ∈ Rm ein Vektor mit b 6∈ Bild A. Da das lineare Gleichungssystem Ax = b keine Lösung besitzt, betrachten wir ersatzweise das lineare Ausgleichsproblem minn kAx − bk2 . x∈R

Zeigen Sie, dass jede Lösung x dieses Problems die Normalgleichungen AT Ax = AT b erfüllt. Lösung Wir betrachten zunächst die Zielfunktion f :R→R x 7→ f (x) := kAx − bk22 . Das lineare Ausgleichsproblem ist dann äquivalent zur Minimierung von f . Wir berechnen nun den Gradienten von f . Dazu formen wir den Term von f zuvor geeignet um. Es gilt f (x) = kAx − bk22 = (Ax − b)T (Ax − b) = (xT AT − bT )(Ax − b) = xT AT (Ax − b) − bT (Ax − b) = xT AT Ax − xT AT b − bT Ax + bT b = xT (AT A)x − xT (AT b) −(bT A)x + kbk22 | {z } =(bT A)x

= xT (AT A)x − 2(bT A)x + kbk22 . Damit lautet der Gradient von f als Zeilenvektor (vgl. Aufgabe 4.10) ∇ f = 2xT AT A − 2(bT A). Die notwendige Bedingung im Falle eines Minimums ist, dass der Gradient zum Nullvektor wird, also ∇ f = 2xT AT A − 2(bT A) = 0T ⇐⇒ xT AT A = bT A. Das Transponieren der letzten Gleichung ergibt die notwendige Bedingung AT Ax = AT b.

234

8 Anwendungen

Aufgabe 8.7.1 Es sei A ∈ M(m × n, R) eine reelle m × n-Matrix mit m ≥ n und b ∈ Rm . Zeigen Sie, dass es stets eine Lösung der Normalgleichungen AT Ax = AT b gibt. Betrachten Sie dabei die orthogonale Zerlegung Rm = Bild A ⊕ (Bild A)⊥ , wobei (Bild A)⊥ = {v ∈ Rm : vT w = 0, für alle w ∈ Bild A} das orthogonale Komplement von Bild A ist. Lösung Wir können den Vektor b ∈ Rm = Bild A ⊕ (Bild A)⊥ als Summe b = b1 + b2 von zwei eindeutig bestimmten Teilvektoren b1 ∈ Bild A und b2 ∈ (Bild A)⊥ darstellen. Für w ∈ Bild A ist bT2 w = 0. Da die Spalten von A spezielle Bildvektoren von A sind, gilt für jede Spalte a j von A ebenfalls bT2 a j = 0 bzw. in Kompaktform bT2 A = 0T . Nach Transponieren folgt hieraus AT b2 = 0 ∈ Rn . Da b1 ∈ Bild A ist, gibt es ein x1 ∈ Rn mit Ax1 = b1 . Nach Linksmultiplikation dieser Gleichung mit AT folgt AT Ax1 = AT b1 = AT b1 + 0 = AT b1 + AT b2 = AT (b1 + b2 ) = AT b. Der Vektor x1 löst also die Normalgleichungen. Aufgabe 8.7.2 Es sei A ∈ M(m×n, R) eine reelle m×n-Matrix mit m ≥ n und b ∈ Rm . Zeigen Sie, dass auch die Umkehrung der Aussage von Aufgabe 8.7 gilt: Ist x0 ∈ Rn eine Lösung der Normalgleichungen AT Ax = AT b, so ist x0 eine Lösung des linearen Ausgleichsproblems minn kAx − bk2 . x∈R

Hinweis: Betrachten Sie beliebige Vektoren der Form A(x − x0 ) ∈ Bild A und weisen Sie nach, dass (A(x − x0 ))T (Ax0 − b) = 0 gilt. Zeigen Sie dann durch geschicktes Abschätzen kAx0 − bk22 ≤ kAx − bk22 . Lösung Es gelte also AT Ax0 = AT b. Wir betrachten nun einen beliebigen Vektor x ∈ Rn und zeigen, dass kAx0 − bk22 ≤ kAx − bk22 gilt. Wegen AT Ax0 = AT b ist AT (Ax0 − b) = 0 und nach Transponieren (Ax0 − b)T A = 0T . Damit ist für jede Spalte a j von A die Orthogonalitätseigenschaft (Ax0 − b)T a j = 0 erfüllt. Der Vektor Ax0 − b ist also zu allen Spalten von A orthogonal. Da das Bild von A das lineare Erzeugnis der Spalten von A darstellt, ist Ax0 −b ∈ (Bild A)⊥ . Weil nun A(x−x0 ) ∈ Bild A ist, gilt daher (A(x−x0 ))T (Ax0 −b) = 0. Nun schätzen wir kAx0 − bk22 nach oben ab: kAx0 − bk22 ≤ kAx0 − bk22 + kA(x − x0 )k22 = kAx0 − bk22 + 2 (A(x − x0 ))T (Ax0 − b) +kA(x − x0 )k22 | {z } =0

T  = Ax0 − b + A(x − x0 ) Ax0 − b + A(x − x0 )

8.4 Vertiefende Aufgaben

235

= kAx0 − b + A(x − x0 )k22 = kAx − bk22 . Damit ist kAx0 − bk2 = minn kAx − bk2 . x∈R

Bemerkung 8.1 Das Erfülltsein der Normalgleichungen ist nach Aufgabe 8.7 notwendig und nach der letzten Aufgabe auch hinreichend für eine Lösung des linearen Ausgleichsproblems. Zudem wissen wir durch Aufgabe 8.7.1, dass es immer eine Lösung der Normalgleichungen gibt. Jedes lineare Ausgleichsproblem besitzt daher eine Lösung. Um eine Lösung zu bestimmen, können wir die Normalgleichungen AT Ax0 = AT b lösen. Hierbei handelt es sich um ein lineares Gleichungssystem mit einer n × n-Matrix A. Aufgrund von Aufgabe 3.10 ist Rang(AT A) = Rang A. Gilt also Rang A = n, so existiert eine eindeutige Lösung.

Aufgabe 8.7.3 Lösen Sie das lineare Ausgleichsproblem

   

12   6

1 1 · x1 − 5 . min

x2 x∈R2 23 5 2 Lösung Mit

 1 A = 1 2

 2 1 , 3

  6 b = 5 5

lauten die Normalgleichungen AT Ax = AT b im Detail     6 9 21 x= . 9 14 32 Da in diesem Fall AT A regulär ist, gibt es nur eine Lösung. Sie ergibt sich nach der Cramer’schen Regel zur Matrixinversion als       21 2 1 14 −9 x0 = 3 · = . −9 6 32 1 Für den Vektor x = x0 ist also kAx − bk22 minimal. Da dim Bild A = Rang A = 2 ist, können wir uns das Bild der Matrix A als Fläche im R3 durch den Nullpunkt vorstellen. Der Vektor b ist ein Punkt im R3 , dessen Abstand zur Fläche durch die Minimaldistanz kAx0 − bk2 bemessen werden kann. In diesem Beispiel beträgt der Abstand des Punktes b von der Fläche Bild A

   

4 6 √ √

3 − 5 = 12 = 3 2. kAx0 − bk2 =

7 5 2

236

8 Anwendungen

Den Vektor

  4 Ax0 = 3 ∈ Bild A 7

können wir uns als den Punkt auf der Fläche Bild A veranschaulichen, der sich durch orthogonale Projektion von b auf die Fläche ergibt. Aufgabe 8.8 Betrachten Sie das lineare Ausgleichsproblem min kAx − bk2

x∈Rn

mit A ∈ M(m × n, R) , m ≥ n und b ∈ Rm \ ∈ Bild A. Wie kann dieses Problem unter ausschließlicher Verwendung der Singulärwertzerlegung (vgl. Aufgaben 6.19 und 6.19.1) gelöst werden? Lösung Es sei

 T

A = USV ,

   mit S :=   



σ1 ..

. σr

    ∈ M(m × n, R)  

sowie mit den orthogonalen Matrizen U ∈ O(m), V ∈ O(n) und den Singulärwerten σ1 ≥ · · · ≥ σr > 0 (r = Rang A), eine Singulärwertzerlegung von A. Nun gilt aufgrund der Singulärwertzerlegung von A und der Normerhaltung von U kAx − bk2 = kUSV T x − bk2 = kUSV T x −UU T bk2 = kU(SV T x −U T b)k2 = kSV T x −U T bk2 . Wir setzen nun y := V T x. Die k-te Zeile von U T ist eˆ Tk U T . Die k-te Komponente von U T b können wir als eˆ Tk U T b notieren. Damit ist kAx − bk22 = kSy −U T bk22



2     T T  2

σ1 y1

σ1 y1 eˆ 1 U b



 .. 

 ..   .. 

 . 

 .   .  T =   −U b =  − 

 σr yr 

 σr yr  eˆ T U T b r



0m−r×1

0m−r×1

∗ 2 2 r

=

∑ (σk yk − eˆ Tk U T b)2 + ∗. k=1

8.4 Vertiefende Aufgaben

237

Dieser Ausdruck wird minimal, wenn yk =

1 σk

· eˆ Tk U T b,

k = 1, . . . , r.

Die übrigen Komponenten von y können beliebig gewählt werden, da sie nicht in die Rechnung einfließen. Mit V = (v1 | · · · | vn ) folgt nun n

x = Vy =

r

n

∑ yk vk = ∑ yk vk + ∑ k=1

k=1

k=r+1

r

yk vk =

n

∑ σ1k · eˆ Tk U T bvk + ∑

k=1

yk vk .

k=r+1

Für die letzten n − r Spalten vk , r < k ≤ n von V gilt Avk = (USV T )vk = (US) ·V T vk | {z } =ˆek

= (∗m×r | 0m×n−r ) · eˆ k = 0,

(da k > r).

Jeder dieser n − r linear unabhängigen Spaltenvektoren vk von V liegt also im Kern von A. Da dim Kern A = n − r, ist bereits Kern A = hvr+1 , . . . , vn i . Somit wird das lineare Ausgleichsproblem durch alle Vektoren aus dem affinen Teilraum r

∑ σ1k · eˆ Tk U T bvk + Kern A

k=1

gelöst. Gilt Rang A = n, so ist der Kern von A trivial. Der Vektor r

∑ σ1k · eˆ Tk U T bvk

k=1

ist dann die einzige Lösung des linearen Ausgleichsproblems.

238

8 Anwendungen

Aufgabe 8.9 (Pseudoinverse) Liegt für eine Matrix A ∈ M(m×n, R) durch U ∈ O(m) und V ∈ O(n) eine Singulärwertzerlegung A = USV T mit   σ1  ..    .   S= ∈ M(m × n, R) σr      vor, so wird die n × m-Matrix A+ := V TU T mit   1/σ1   ..   . T =  ∈ M(n × m, R)  1/σr  als Pseudoinverse von A bezeichnet. Zeigen Sie Folgendes: (i) Es gilt A+ AA+ = A und AA+ A = A. Hinweis: Offensichtlich ist T ST = T und ST S = S. (ii) AA+ und A+ A sind symmetrisch. (iii) Unabhängig von der Wahl der Singulärwertzerlegung ergibt sich stets dieselbe Pseudoinverse. Sie ist daher als die Pseudoinverse von A wohldefinert. (iv) T = S+ ist die Pseudoinverse von S, und es gilt T + = S. (v) (A+ )+ = A. (vi) Ist m ≥ n und Rang A = n, so ist AT A regulär, und es gilt A+ = (AT A)−1 AT . (vii) Ist A ∈ GL(n, R), so ist A+ = A−1 . Lösung (i) Es ist A+ AA+ = (V TU T )A(V TU T ) = V T (U T AV )TU T = V T S TU T = V TU T = A+ , AA+ A = A(V TU T )A = USV T V TU T USV T = UST SV T = USV T = A. (ii) Es gilt offensichtlich (ST )T = ST und (T S)T = T S. Daher folgt (AA+ )T = (USV T V TU T )T = (USTU T )T = U(ST )T U T = U(ST )U T = USV T V TU T = AA+ , (A+ A)T = (V TU T USV T )T = (V T SV T )T = V (T S)T V T = V (T S)V T = V TU T USV T = A+ A.

8.4 Vertiefende Aufgaben

239

(iii) Es seien A = USV T = U 0 S(V 0 )T zwei Singulärwertzerlegungen von A. Die Matrizen U und U 0 sowie V und V 0 können verschieden sein. Dagegen sind die Singulärwerte in beiden Zerlegungen identisch, sodass S und damit T eindeutig bestimmt sind. Wir erhalten basierend auf diesen Zerlegungen die beiden Pseudoinversen P1 = V 0 T (U 0 )T und P2 = V TU T und zeigen, dass P1 = P2 gilt. Sowohl P1 als auch P2 genügen den bereits nachgewiesenen Rechengesetzen (i) und (ii). Damit gilt (i)

(i)

(ii)

P1 = P1 AP1 = P1 (AP2 A)P1 = (P1 A)(P2 A)P1 = (P1 A)T (P2 A)T P1 (i)

(ii)

(ii)

= (P2 A P1 A)T P1 = (P2 A)T P1 = P2 A P1 = P2 (A P1 )T (i)

(ii)

(i)

(i)

= P2 (AP2 A P1 )T = P2 (A P1 )T (AP2 )T = P2 AP1 AP2 = P2 AP2 = P2 . Wir haben in diesem Eindeutigkeitsnachweis nicht von der expliziten Konstruktion von A+ Gebrauch gemacht, sondern einzig mit den Rechengesetzen (i) und (ii) gearbeitet. Wir können den vorausgegangenen Nachweis auch so lesen: Jede Matrix P ∈ M(n × m, R), für die PAP = P, APA = A, (AP)T = AP und (PA)T = PA gilt, stimmt mit der Pseudoinversen von A überein. Durch diese vier Eigenschaften ist die Pseudoinverse eindeutig charakterisiert. Ihre Konstruktion aus einer Singulärwertzerlegung zeigt die Existenz einer derartigen Matrix. (iv) Für S gilt die triviale Singulärwertzerlegung S = Em SEnT . Damit ist S+ = En T EmT = T . Analog ist S die Pseudoinverse von T , also T + = S. Def.

(v) (A+ )+ = (V TU T )+ = U T T T +V T = USV T = A. (vi) Nach Aufgabe 3.10 ist Rang(AT A) = Rang A = n. Daher ist AT A regulär. Nun gilt für die n × m-Matrix P = (AT A)−1 AT PAP = (AT A)−1 AT A (AT A)−1 AT = (AT A)−1 (AT A) (AT A)−1 AT = (AT A)−1 AT = P, APA = A (AT A)−1 AT A = A (AT A)−1 (AT A) = A, (AP)T = (A (AT A)−1 AT )T = A((AT A)−1 )T AT = A((AT A)T )−1 AT = A(AT A)−1 AT = AP, (PA)T = ((AT A)−1 AT A)T = EnT = En = (AT A)−1 AT A = PA. Die Matrix P erfüllt nun die vier Rechengesetze aus (i) und (ii) und muss daher mit A+ übereinstimmen. Alternativ können wir den Nachweis auch mit der expliziten Konstruktion von A+ führen. Dazu beachten wir, dass A genau n Singulärwerte σ1 , . . . , σn > 0 besitzt, sodass

240

8 Anwendungen



   σ1  2   ..  σ1   .    ..  =  .  ∈ GL(n, R). σn      σn2

σ1 ..

T

 S S=

. σn

Damit ist zunächst 



1/σ 2 1

..

 (ST S)−1 ST = 

 

.



σ1

1/σn2

..



  =

.



1/σ1

..

 + =S .

.

σn

1/σn

Mit einer Singulärwertzerlegung A = USV T ist A+ = V S+U T die Pseudoinverse von A. Wir berechnen das Produkt −1 −1 T (AT A)−1 AT = (USV T )T (USV T ) AT = V ST U T USV T A  −1 T −1 T V = V = V ST SV T A = V (ST S)−1V T AT = V (ST S)−1V T (USV T )T (iv)

= V (ST S)−1V T V ST U T = V (ST S)−1 ST U T = V S+U T = A+ . (vii) Ist A ∈ GL(n, R), so gilt nach (vi) A+ = (AT A)−1 AT = A−1 (AT )−1 AT = A−1 . Bemerkung 8.2 Wenn wir für ein lineares Ausgleichsproblem die Normalgleichungen AT Ax = AT b im Fall einer m × n-Matrix A mit Rang A = n ≤ m betrachten, so liefert uns die Regularität von AT A durch Linksmultiplikation der Normalgleichungen AT Ax = AT b mit (AT A)−1 genau eine Lösung x = (AT A)−1 AT x = A+ b. Die Lösung des linearen Ausgleichsproblems ist also das Produkt der Pseudoinversen A+ mit der rechten Seite b. Wir haben dies in der Lösung von Aufgabe 8.7.3 praktiziert, ohne von der Pseudoinversen zu sprechen. Die hier auftretende 3 × 2-Matrix   12 A = 1 1 23 besitzt die Pseudoinverse +

T

−1

A = (A A)

T

·A =

1 3



     14 −9 112 1 −4 5 1 · =3 . −9 6 213 3 −3 0

Die Lösung des linearen Ausgleichsproblems min kAx − bk2 mit b = (6 5 5)T ergibt sich wie in der Lösung berechnet als

8.4 Vertiefende Aufgaben

241

    6   −4 5 1 2 + 1   5 = A b= 3 . 3 −3 0 1 5 Aufgabe 8.9.1 Zeigen Sie, dass das lineare Ausgleichsproblem min kAx − bk2 auch im Fall einer m × n-Matrix A mit Rang A < n ≤ m durch das Produkt A+ b gelöst wird. Lösung Es sei A = USV T eine Singulärwertzerlegung von A und σ1 ≥ · · · ≥ σr > 0 die Singulärwerte von A. Das lineare Ausgleichsproblem min kAx − bk2 wird nach Aufgabe 8.8 durch alle Vektoren des affinen Teilraums r

L :=

∑ σ1k · eˆ Tk U T bvk + Kern A

k=1

gelöst. Hierbei ist eˆ Tk U T b die k-te Komponente des Vektors U T b. Für den Vektor xs := A+ b gilt  · · · σ1r vr 0n×m−r ·U T b  T T    eˆ 1 U b   = σ11 v1 · · · σ1r vr 0n×m−r ·  ...  eˆ TmU T b

xs = A+ b = V S+U T b =





1 σ1 v1

r

=

∑ σ1k · eˆ Tk U T bvk ∈ L.

k=1

Wir erhalten den obigen Stützvektor des affinen Lösungsraums L als spezielle Lösung des linearen Ausgleichsproblems. Bemerkung 8.3 Es kann gezeigt werden, dass xs = A+ b die bezüglich der 2-Norm des Rn normkleinste Lösung des linearen Ausgleichsproblems ist.

242

8 Anwendungen

R Aufgabe 8.9.2 Berechnen Sie mithilfe von MATLAB zunächst eine Singulärwertzerlegung der 5 × 3-Matrix   123 1 1 2    A= 2 3 5 2 2 4 314

und bestimmen Sie hieraus die Pseudoniverse von A. Vergleichen Sie dieses Resultat R mit der Pseudoinversen, die durch die MATLAB -Funktion pinv berechnet werden kann. Lösen Sie die beiden linearen Ausgleichsprobleme     5 5 3 3      0 min kAx = b1 k2 , für b2 =  , b2 =    8 . x∈R3 0 6 0 5 Was fällt auf? Lösung Zunächst definieren wir A und bestimmen eine Singulärwertzerlegung von A, sodass U, S und V mit ausgegeben werden. Hieraus bestimmen wir die Pseudoinverse nach Definition. 1 2

>> A=[1,2,3; 1,1,2; 2,3,5; 2,2,4; 3,1,4]; >> [U,S,V]=svd(A)

3 4

U =

5 6 7 8 9 10

-0.3586 -0.2390 -0.5976 -0.4781 -0.4781

-0.4082 0.0000 -0.4082 0.0000 0.8165

0.8257 -0.2720 -0.4261 -0.1505 0.1998

10.2470 0 0 0 0

0 1.7321 0 0 0

0 0 0.0000 0 0

-0.4082 -0.4082 -0.8165

0.7071 -0.7071 -0.0000

-0.5774 -0.5774 0.5774

11 12 13

S =

14 15 16 17 18 19 20 21 22

V =

23 24 25 26

-0.0649 -0.2475 -0.3760 0.8629 -0.2205

-0.1367 -0.8987 0.3915 -0.0649 0.1274

8.4 Vertiefende Aufgaben

243

27 28

>> T=[1/S(1,1),0,0,0,0; 0,1/S(2,2),0,0,0; 0,0,0,0,0]

29 30

T =

31

0.0976 0 0

32 33 34

0 0.5774 0

0 0 0

0 0 0

0 0 0

0.0095 0.0095 0.0190

-0.1429 0.1905 0.0476

0.0190 0.0190 0.0381

0.3524 -0.3143 0.0381

35 36

>> P=V*T*U’

37 38

P =

39 40 41 42

-0.1524 0.1810 0.0286

R Nun vergleichen wir das Ergebnis mit der Pseudoinversen, die durch die MATLAB eigene Funktion pinv berechnet wird. Ihre Differenz ergibt tatsächlich die Nullmatrix. 1

>> pinv(A)

2 3

ans =

4 5 6 7

-0.1524 0.1810 0.0286

0.0095 0.0095 0.0190

-0.1429 0.1905 0.0476

0.0190 0.0190 0.0381

0.3524 -0.3143 0.0381

8 9

>> ans-P

10 11

ans =

12

0 0 0

13 14 15

0 0 0

0 0 0

0 0 0

0 0 0

Wir lösen nun beide linearen Ausgleichsprobleme

min kAx = b1 k2 ,

x∈R3

für

  5 3    b2 =  0 , 0 0

  5 3    b2 =  8 6 5

durch Linksmultiplikation der rechten Seiten b1 und b2 mit der Pseudoinversen. Wir achten darauf, die beiden Vektoren b1 und b2 als Spaltenvektoren zu definieren, indem wir die Komponenten durch ein Semikolon jeweils voneinander trennen. 1 2 3

>> b1=[5;3;0;0;0]; >> b2=[5;3;8;6;5]; >> pinv(A)*b1

4 5

ans =

244

8 Anwendungen

6 7 8 9

-0.7333 0.9333 0.2000

10 11

>> pinv(A)*b2

12 13

ans =

14 15 16 17

-0.0000 1.0000 1.0000

Es ist b2 die Summe der zweiten und dritten Spalte von A, daher ist b2 ∈ Bild A. Der R von MATLAB ausgegebene Lösungsvektor (0, 1, 1)T löst das lineare Gleichungssystem Ax = b2 . Der Vektor b1 liegt nicht im Bild von A. Wir berechnen nun durch kA · (A+ b1 ) − b1 k2 den (Minimal-)Abstand von b1 zu Bild A. 1

>> norm(A*pinv(A)*b1-b1,2)

2 3

ans =

4 5

4.8511

Kapitel 9

Minitests

9.1 Lineare Gleichungssysteme, Matrizen und Rang Gegeben sei eine n × n-Matrix A über R, für die es keinen nicht-trivialen Vektor v ∈ Rn gibt mit 0 = Av. F R ← Bitte ankreuzen: F=falsch, R=richtig   Durch elementare Zeilenumformungen kann keine Zeile von A vollständig eliminiert werden.   Es gilt Rang A < n.   Es gibt einen Vektor v ∈ Rn mit Av 6= 0.   Durch Zeilenvertauschungen ändert sich der Rang von A nicht.   Die Matrix A ist singulär.   Das Gleichungssystem Ax = b mit einem beliebigen Vektor b ∈ Rn ist stets eindeutig lösbar.   Das Produkt AB mit einer regulären n × n Matrix B ist auf jeden Fall eine reguläre Matrix.   Es gibt genau einen Vektor v ∈ Rn , mit Av = 0.   Die Matrix A muss eine Nullspalte besitzen.   Das Tableau [A|En ] ist durch elementare Zeilenumformungen in ein Tableau der Gestalt [En |∗] überführbar.   Es gilt Rang A = n − c, wobei c die Anzahl aller durch elementare Umformungen eliminierbaren Zeilen darstellt.   Die Matrix A ist invertierbar.   Es gibt eine nicht-triviale Lösung des homogenen linearen Gleichungssystems Ax = 0.   Eine Matrix B, die aus A durch elementare Zeilenumformungen hervorgeht, hat denselben Rang.   Das homogene lineare Gleichungssystem Ax = 0 ist in diesem Fall nicht lösbar.

© Springer-Verlag GmbH Deutschland, ein Teil von Springer Nature 2019 L. Göllmann und C. Henig, Arbeitsbuch zur linearen Algebra, https://doi.org/10.1007/978-3-662-58766-9_9

245

246

9 Minitests

Gegeben sei eine n × n-Matrix A über R, für die es keinen nicht-trivialen Vektor v ∈ Rn gibt mit 0 = Av. F R ← Bitte ankreuzen: F=falsch, R=richtig   Durch elementare Zeilenumformungen kann keine Zeile von A vollständig eliminiert werden.   Es gilt Rang A < n.   Es gibt einen Vektor v ∈ Rn mit Av 6= 0.   Durch Zeilenvertauschungen ändert sich der Rang von A nicht.   Die Matrix A ist singulär.   Das Gleichungssystem Ax = b mit einem beliebigen Vektor b ∈ Rn ist stets eindeutig lösbar.   Das Produkt AB mit einer regulären n × n Matrix B ist auf jeden Fall eine reguläre Matrix.   Es gibt genau einen Vektor v ∈ Rn , mit Av = 0.   Die Matrix A muss eine Nullspalte besitzen.   Das Tableau [A|En ] ist durch elementare Zeilenumformungen in ein Tableau der Gestalt [En |∗] überführbar.   Es gilt Rang A = n − c, wobei c die Anzahl aller durch elementare Umformungen eliminierbaren Zeilen darstellt.   Die Matrix A ist invertierbar.   Es gibt eine nicht-triviale Lösung des homogenen linearen Gleichungssystems Ax = 0.   Eine Matrix B, die aus A durch elementare Zeilenumformungen hervorgeht, hat denselben Rang.   Das homogene lineare Gleichungssystem Ax = 0 ist in diesem Fall nicht lösbar.

9.1 Lineare Gleichungssysteme, Matrizen und Rang

247

Gegeben sei eine n × n-Matrix A über R, deren Rang kleiner als die Spaltenzahl ist. F R ← Bitte ankreuzen: F=falsch, R=richtig   Durch elementare Zeilenumformungen kann mindestens eine Zeile von A vollständig eliminiert werden.   Es ist Rang A stets die Anzahl aller durch elementare Zeilenumformungen eliminierbaren Zeilen.   Das Produkt AEn ist eine singuläre Matrix.   Durch Zeilenvertauschungen ändert sich der Rang von A nicht.   Das Gleichungssystem Ax = b mit einem beliebigen Vektor b ∈ Rn ist stets eindeutig lösbar.   Die Matrix A ist regulär.   Es gilt AEn = En A.   Es gibt genau einen Vektor v ∈ Rn , mit Av = 0.   Das Tableau [A|En ] ist durch elementare Zeilenumformungen in ein Tableau der Gestalt [En |∗] überführbar.   Für eine Matrix B, die aus A durch elementare Zeilenumformungen hervorgeht, gilt Ax = 0 ⇐⇒ Bx = 0.   Der Rang der Matrix A entspricht ihrer Spaltenzahl abzüglich der Anzahl aller durch elementare Umformungen eliminierbaren Zeilen.   Es gilt stets Rang A = Spaltenzahl von A.   Es gibt eine nicht-triviale Lösung des homogenen linearen Gleichungssystems Ax = 0.   Für eine Matrix B, die aus A durch genau eine elementare Zeilenumformung hervorgeht, gilt Rang B = Rang A − 1.   Das homogene lineare Gleichungssystem Ax = 0 hat keine Lösung. Gegeben sei ein lineares Gleichungssystem Mx = c ∈ R2 mit reellen Koeffizienten und die Menge   *   + −6 1 2 L = −1 + 1 , 0 0 0 1 mit Mx = c ⇐⇒ x ∈ L. (i) Ergänzen Sie: Das lineare Gleichungssystem hat Unbekannte. Bei der Matrix M handelt es sich um eine × -Matrix. (ii) Mit den Vektoren       0       w2 =  3  w1 =  0  , v0 =  2  , 0 3 gilt Mv0 = 0 sowie Mw1 = Mw2 = c.

248

9 Minitests

Gegeben sei eine n × n-Matrix A über R, deren Rang kleiner als die Spaltenzahl ist. F R ← Bitte ankreuzen: F=falsch, R=richtig   Durch elementare Zeilenumformungen kann mindestens eine Zeile von A vollständig eliminiert werden.   Es ist Rang A stets die Anzahl aller durch elementare Zeilenumformungen eliminierbaren Zeilen.   Das Produkt AEn ist eine singuläre Matrix.   Durch Zeilenvertauschungen ändert sich der Rang von A nicht.   Das Gleichungssystem Ax = b mit einem beliebigen Vektor b ∈ Rn ist stets eindeutig lösbar.   Die Matrix A ist regulär.   Es gilt AEn = En A.   Es gibt genau einen Vektor v ∈ Rn , mit Av = 0.   Das Tableau [A|En ] ist durch elementare Zeilenumformungen in ein Tableau der Gestalt [En |∗] überführbar.   Für eine Matrix B, die aus A durch elementare Zeilenumformungen hervorgeht, gilt Ax = 0 ⇐⇒ Bx = 0.   Der Rang der Matrix A entspricht ihrer Spaltenzahl abzüglich der Anzahl aller durch elementare Umformungen eliminierbaren Zeilen.   Es gilt stets Rang A = Spaltenzahl von A.   Es gibt eine nicht-triviale Lösung des homogenen linearen Gleichungssystems Ax = 0.   Für eine Matrix B, die aus A durch genau eine elementare Zeilenumformung hervorgeht, gilt Rang B = Rang A − 1.   Das homogene lineare Gleichungssystem Ax = 0 hat keine Lösung. Gegeben sei ein lineares Gleichungssystem Mx = c ∈ R2 mit reellen Koeffizienten und die Menge   *   + −6 1 2 L = −1 + 1 , 0 0 0 1 mit Mx = c ⇐⇒ x ∈ L. (i) Ergänzen Sie: Das lineare Gleichungssystem hat 3 Unbekannte. Bei der Matrix M handelt es sich um eine 2 × 3 -Matrix. (ii) Mit den Vektoren       0 8 -5       v0 =  2  , w1 =  0  , w2 =  3  1 3 0 gilt Mv0 = 0 sowie Mw1 = Mw2 = c.

9.1 Lineare Gleichungssysteme, Matrizen und Rang

249

Es sei U eine Matrix aus vier Spalten, V eine Matrix aus drei Zeilen und W eine quadratische Matrix. Zudem sei das Produkt U(WV )T eine aus fünf Zeilen bestehende Matrix. Ergänzen Sie: U ist eine × -Matrix, V T ist eine × -Matrix und W ist eine × -Matrix. Es sei A eine m × n-Matrix über dem Körper K und r, s Lösungen von Ax = b 6= 0 und u eine Lösung des zugehörigen homogenen linearen Gleichungssystems Ax = 0. Dann ist b∈K , r, s ∈ K . Für q ∈ N und v ∈ K p mit p ∈ {m, n} bedeutet qv =

.

Es gilt nun A(8s − 5r + 4u) =

.

Für char K = ist s + r ebenfalls eine Lösung des homogenen Systems, denn es gilt dann . Ergänzen Sie die Lücken in den folgenden reellen Matrizen, sodass sich eine wahre Aussage ergibt: !     3 2 9 1 −1 0 . = · 3 0 2 12 6 Für λ ∈ R sei  λ 0 Mλ :=  0 λ 3 − λ 1 0

 2 0 1

  4 bk =  1  . λ

und

Es gilt nun (i) Rang Mλ = 2 ⇐⇒ λ ∈ {

}.

(ii) {Rang Mλ : λ ∈ R} = {

}.

(iii) Mλ ist regulär ⇐⇒ λ

.

(iv) Mλ x = bλ besitzt unendlich viele Lösungen ⇐⇒ Es sei A ∈ GL(n, K) eine reguläre Matrix mit (i) Es gilt A−1 =

A5

und damit auch A =

(ii) Für K = R, n = 3 und eindeutig durch x =

b ∈ R3

=

A4 .

.

Ergänzen Sie:

.

ist das lineare Gleichungssystem (A − 2En )x = b lösbar.

250

9 Minitests

Es sei U eine Matrix aus vier Spalten, V eine Matrix aus drei Zeilen und W eine quadratische Matrix. Zudem sei das Produkt U(WV )T eine aus fünf Zeilen bestehende Matrix. Ergänzen Sie: U ist eine 5 × 4 -Matrix, V T ist eine 4 × 3 -Matrix und W ist eine 3 × 3 -Matrix. Es sei A eine m × n-Matrix über dem Körper K und r, s Lösungen von Ax = b 6= 0 und u eine Lösung des zugehörigen homogenen linearen Gleichungssystems Ax = 0. Dann ist m n b∈K , r, s ∈ K . Für q ∈ N und v ∈ K p mit p ∈ {m, n} bedeutet q

qv =

∑1

q



v=

k=1

∑ v. k=1

Es gilt nun A(8s − 5r + 4u) = 8As − 5Ar + 4Au = 8b − 5b + 0 = 3b. Für char K = 2 ist s + r ebenfalls eine Lösung des homogenen Systems, denn es gilt dann A(s + r) = 2b = 0 . Ergänzen Sie die Lücken in den folgenden reellen Matrizen, sodass sich eine wahre Aussage ergibt: !     3 2 6 9 1 0 3 −1 = · . 2 4 3 0 2 12 6 6 Für λ ∈ R sei  λ 0 Mλ :=  0 λ 3 − λ 1 0

 2 0 1

  4 bk =  1  . λ

und

Es gilt nun (i) Rang Mλ = 2 ⇐⇒ λ ∈ { − 1, 0, 1, 2 }. (ii) {Rang Mλ : λ ∈ R} = { 2, 3 }. (iii) Mλ ist regulär ⇐⇒ λ ∈ / { − 1, 0, 1, 2 }. (iv) Mλ x = bλ besitzt unendlich viele Lösungen ⇐⇒ Es sei A ∈ GL(n, K) eine reguläre Matrix mit (i) Es gilt A−1 = En

A5

=

A4 .

λ =2 .

Ergänzen Sie:

und damit auch A = En .

(ii) Für K = R, n = 3 und b ∈ R3 ist das lineare Gleichungssystem (A − 2En )x = b eindeutig durch x = −b lösbar.

9.2 Determinanten

251

9.2 Determinanten Es seien A, B ∈ M(n, K), R ∈ GL(n, K) und S ∈ M(n, K) \ GL(n, K). Welche der folgenden Aussagen gelten?  det AB = det(A) · det(B)

 det(A + B) = det(A) + det(B)

 det(−A) = − det A

 det(−A) = det(A)

 det(R−1 ) = det R

 det(R−1 ) = (det R)−1

 det(AS) = 0

 det(2A) = 2n det A

 det(AT ) = det A

 det(AB) = det(BA)

 det R = 0

 det(ASB) = det S

Es sei A ∈ M(n, K). Ergänzen Sie: (i) Wird bei A das Vielfache einer Zeile (bzw. Spalte) zu einer anderen Zeile (bzw. Spalte) addiert, so gilt für die Determinante der sich hieraus ergebenden Matrix A0 die Eigenschaft det A0 = . (ii) Werden bei A zwei Zeilen (bzw. zwei Spalten) miteinander vertauscht, so gilt für die Determinante der sich hieraus ergebenden Matrix A0 die Eigenschaft det A0 = . (iii) Wird eine Zeile oder eine Spalte von A mit einem Skalar λ ∈ K multipliziert, so gilt für die Determinante der sich hieraus ergebenden Matrix A0 die Eigenschaft det A0 = . (iv) Werden bei A insgesamt 2k Zeilen (bzw. 2k Spalten) paarweise miteinander vertauscht, so gilt für die Determinante der sich hieraus ergebenden Matrix A0 die Eigenschaft det A0 = . (v) Wird A mit einem Skalar λ ∈ K multipliziert, so gilt für die Determinante der sich hieraus ergebenden Matrix A0 die Eigenschaft det A0 = . Ergänzen Sie die Lücken:   2134 0 0 2 4  det  3 2 9 7 = 0037 = =

 2 3 · det  0 0

13 29 02 03 !

 4 7  4 7

· det

det .

!

252

9 Minitests

Es seien A, B ∈ M(n, K), R ∈ GL(n, K) und S ∈ M(n, K) \ GL(n, K). Welche der folgenden Aussagen gelten?  det AB = det(A) · det(B)

 det(A + B) = det(A) + det(B)

 det(−A) = − det A

 det(−A) = det(A)

 det(R−1 ) = det R

 det(R−1 ) = (det R)−1

 det(AS) = 0

 det(2A) = 2n det A

 det(AT ) = det A

 det(AB) = det(BA)

 det R = 0

 det(ASB) = det S

Es sei A ∈ M(n, K). Ergänzen Sie: (i) Wird bei A das Vielfache einer Zeile (bzw. Spalte) zu einer anderen Zeile (bzw. Spalte) addiert, so gilt für die Determinante der sich hieraus ergebenden Matrix A0 die Eigenschaft det A0 = det A . (ii) Werden bei A zwei Zeilen (bzw. zwei Spalten) miteinander vertauscht, so gilt für die Determinante der sich hieraus ergebenden Matrix A0 die Eigenschaft det A0 = − det A . (iii) Wird eine Zeile oder eine Spalte von A mit einem Skalar λ ∈ K multipliziert, so gilt für die Determinante der sich hieraus ergebenden Matrix A0 die Eigenschaft det A0 = λ det A . (iv) Werden bei A insgesamt 2k Zeilen (bzw. 2k Spalten) paarweise miteinander vertauscht, so gilt für die Determinante der sich hieraus ergebenden Matrix A0 die Eigenschaft det A0 = det A . (v) Wird A mit einem Skalar λ ∈ K multipliziert, so gilt für die Determinante der sich hieraus ergebenden Matrix A0 die Eigenschaft det A0 = λ n det A . Ergänzen Sie die Lücken:     2134 2134 0 0 2 4 3 2 9 7    det  3 2 9 7 = (−1) · det 0 0 2 4 0037 0037  !  ! 21 24 = − det · det 32 37 = −1 · 2 = −2 .

9.3 Homomorphismen

253

9.3 Homomorphismen Wir betrachten für n ≥ 1 den reellen Polynomraum R[x]≤n = hxn , xn−1 , . . . , x, 1i sowie eine lineare Abbildung ϕ ∈ Hom(R[x]≤n → R[x]≤n−1 ), deren Koeffizientenmatrix bezüglich der Basen B = (xn , xn−1 , . . . , x, 1) von R[x]≤n und C = (xn−1 , . . . , x, 1) von R[x]≤n−1 die folgende Gestalt besitzt:   n 0 0 ··· 0 0 n − 1 0 · · · 0   MCB (ϕ) =  . ..  ∈ M(n × n + 1, R). ..  .. . . 0

0

··· 1 0

Ergänzen Sie: (i) Es gilt

Kern MCB (ϕ) =

,

Bild MCB (ϕ) =

und damit Kern ϕ =

,

Bild ϕ =

.

(ii) Mit n = 3 ist ϕ(x(x + 3)2 + 1) =

.

(iii) Die Abbildung ϕ stellt analytisch betrachtet nichts weiter als von p(x) ∈ R[x]≤n dar. (iv) Bezüglich der Basen B = (xn , xn−1 , . . . , x, 1),

C0 = (

)

bzw. B0 = (

),

C = (xn−1 , xn−2 , . . . , x, 1)

gilt 

 1 0 0 ··· 0  0 1 0 ··· 0    B0 MCB0 (ϕ) =  . ..  = MC (ϕ). . . .  . . .  0 0 ··· 1 0

254

9 Minitests

Wir betrachten für n ≥ 1 den reellen Polynomraum R[x]≤n = hxn , xn−1 , . . . , x, 1i sowie eine lineare Abbildung ϕ ∈ Hom(R[x]≤n → R[x]≤n−1 ), deren Koeffizientenmatrix bezüglich der Basen B = (xn , xn−1 , . . . , x, 1) von R[x]≤n und C = (xn−1 , . . . , x, 1) von R[x]≤n−1 die folgende Gestalt besitzt:   n 0 0 ··· 0 0 n − 1 0 · · · 0   MCB (ϕ) =  . ..  ∈ M(n × n + 1, R). ..  .. . . 0

0

··· 1 0

Ergänzen Sie: (i) Es gilt   * 0 +  ..    Kern MCB (ϕ) =  .  ⊂ Kn+1 , 0 1

    0 + * 1 0 0     Bild MCB (ϕ) =  .  , · · · ,  .  = Kn  ..   ..  0 1

und damit Kern ϕ = {a0 : a0 ∈ R} ,

Bild ϕ = R[x]≤n−1 .

(ii) Mit n = 3 ist ϕ(x(x + 3)2 + 1) = ϕ(x3 + 6x2 + 9x + 1) = 3x2 + 12x + 9. (iii) Die Abbildung ϕ stellt analytisch betrachtet nichts weiter als die Ableitung von p(x) ∈ R[x]≤n dar. (iv) Bezüglich der Basen B = (xn , xn−1 , . . . , x, 1),

C0 = ( nxn−1 , (n − 1)xn−2 , . . . , 2x, 1 )

bzw. B0 = ( 1n xn ,

1 n−1 ,..., n−1 x

x, 1 ),

C = (xn−1 , xn−2 , . . . , x, 1)

gilt 

 1 0 0 ··· 0  0 1 0 ··· 0    B0 MCB0 (ϕ) =  . ..  = MC (ϕ). . . .  . . .  0 0 ··· 1 0

9.3 Homomorphismen

255

Es sei A ∈ M(m × n, K), Z ∈ GL(m, K) und S ∈ GL(n, K). Welche der folgenden Aussagen gelten?  Kern ZAS = Kern A

 Bild ZAS = Bild A

 Kern ZA = Kern A

 Bild ZA = Bild A

 Kern AS = Kern A

 Bild AS = Bild A

 Rang ZAS = Rang A

 dim Kern ZAS = dim Kern A

 Rang ZA = Rang A

 dim Kern ZA = dim Kern A

 Rang AS = Rang A

 dim Kern AS = dim Kern A

Ergänzen Sie: (i) Der Kern einer Matrix ändert sich nicht, wenn an dieser Matrix elementare -Umformungen durchgeführt werden. (ii) Das Bild einer Matrix ändert sich nicht, wenn an dieser Matrix elementare -Umformungen durchgeführt werden. (iii) Der Rang einer Matrix ändert sich nicht, wenn an dieser Matrix durchgeführt werden. (iv) Die Anzahl der linear unabhängigen Spalten einer Matrix entspricht . (v) Das lineare Erzeugnis der Spalten einer Matrix ist

.

Es seien V und W zwei K-Vektorräume mit den Basen B = (b1 , . . . , bn ) von V und C = (c1 , . . . , cm ) von V . Zudem sei f ∈ Hom(V → W ) eine lineare Abbildung. Ergänzen Sie: ×

(i) Die Koordinatenmatrix von f bezüglich B und C ist eine B0

-Matrix.

(ii) Wir betrachten eine alternative Basis von V und eine alternative Basis C0 von W . Für die Koordinatenmatrix von f bezüglich B0 und C0 gilt 0

)−1 · MCB ( f ) ·

MCB0 ( f ) = ( Welche der folgenden Aussagen gelten? 0

0

 Kern MCB0 ( f ) = Kern MCB ( f )

 Bild MCB0 ( f ) = Bild MCB ( f )

 Kern MCB0 ( f ) = Kern MCB ( f )

 Bild MCB0 ( f ) = Bild MCB ( f )

0

 Kern MCB ( f ) = Kern MCB ( f )

0

 Bild MCB ( f ) = Bild MCB ( f )

.

256

9 Minitests

Es sei A ∈ M(m × n, K), Z ∈ GL(m, K) und S ∈ GL(n, K). Welche der folgenden Aussagen gelten?  Kern ZAS = Kern A

 Bild ZAS = Bild A

 Kern ZA = Kern A

 Bild ZA = Bild A

 Kern AS = Kern A

 Bild AS = Bild A

 Rang ZAS = Rang A

 dim Kern ZAS = dim Kern A

 Rang ZA = Rang A

 dim Kern ZA = dim Kern A

 Rang AS = Rang A

 dim Kern AS = dim Kern A

Ergänzen Sie: (i) Der Kern einer Matrix ändert sich nicht, wenn an dieser Matrix elementare Zeilen -Umformungen durchgeführt werden. (ii) Das Bild einer Matrix ändert sich nicht, wenn an dieser Matrix elementare Spalten -Umformungen durchgeführt werden. (iii) Der Rang einer Matrix ändert sich nicht, wenn an dieser Matrix elementare Zeilen- oder Spaltenumformungen durchgeführt werden. (iv) Die Anzahl der linear unabhängigen Spalten einer Matrix entspricht ihrem Rang bzw. ihrer Bilddimension . (v) Das lineare Erzeugnis der Spalten einer Matrix ist

ihr Bild

.

Es seien V und W zwei K-Vektorräume mit den Basen B = (b1 , . . . , bn ) von V und C = (c1 , . . . , cm ) von V . Zudem sei f ∈ Hom(V → W ) eine lineare Abbildung. Ergänzen Sie: (i) Die Koordinatenmatrix von f bezüglich B und C ist eine m × n -Matrix. (ii) Wir betrachten eine alternative Basis B0 von V und eine alternative Basis C0 von W . Für die Koordinatenmatrix von f bezüglich B0 und C0 gilt 0

MCB0 ( f ) = ( cC (C0 ) )−1 · MCB ( f ) · cB (B0 ) . Welche der folgenden Aussagen gelten? 0

0

 Kern MCB0 ( f ) = Kern MCB ( f )

 Bild MCB0 ( f ) = Bild MCB ( f )

 Kern MCB0 ( f ) = Kern MCB ( f )

 Bild MCB0 ( f ) = Bild MCB ( f )

0

 Kern MCB ( f ) = Kern MCB ( f )

0

 Bild MCB ( f ) = Bild MCB ( f )

9.4 Eigenwerte

257

9.4 Eigenwerte Es sei A eine 5 × 5-Matrix über R mit Spec A = {0, 1, 2, 3} und dim Kern A = 2. Ergänzen Sie den folgenden Lückentext: (i) Das lineare Gleichungssystem Ax = 0 besitzt Lösung(en).

nicht-triviale

(ii) Das lineare Gleichungssystem Ax + x = 0 besitzt sung(en).

nicht-triviale Lö-

(iii) Die Matrix A + 2E4 ist:

 singulär,

 regulär.

(iv) Die Matrix 3E4 − A ist:

 invertierbar,

 nicht invertierbar.

(v) Für λ ∈ {1, 2, 3} ist alg(λ ) = (vi) Es gilt Rang A =

.

sowie (möglichst präzise!): = geo(0)

alg(0)

5.

Ergänzen Sie den folgenden Satz: Jede reelle n × n-Matrix mit n verschiedenen Eigenwerten ist diagonalisierbar, da

Es sei B eine 5 × 5-Matrix über R, die ausschließlich ganzzahlige Eigenwerte besitzt. Zudem gelte det B = −18 und Rang(B + 3E) = 3 = Rang(B − E5 ) − 1. (i) Notieren Sie alle Eigenwerte von B und geben Sie deren algebraische und geometrische Ordnung jeweils an. Eigenwert λ alg(λ ) geo(λ )

∑ (ii) Das charakteristische Polynom von B lautet in vollständig faktorisierter Form χB (x) = (iii) Die Matrix B ist

.  diagonalisierbar,

 nicht diagonalisierbar.

258

9 Minitests

Es sei A eine 5 × 5-Matrix über R mit Spec A = {0, 1, 2, 3} und dim Kern A = 2. Ergänzen Sie den folgenden Lückentext: (i) Das lineare Gleichungssystem Ax = 0 besitzt Lösung(en).

unendlich viele

(ii) Das lineare Gleichungssystem Ax + x = 0 besitzt sung(en).

keine

nicht-triviale

nicht-triviale Lö-

(iii) Die Matrix A + 2E4 ist:

 singulär,

 regulär.

(iv) Die Matrix 3E4 − A ist:

 invertierbar,

 nicht invertierbar.

(v) Für λ ∈ {1, 2, 3} ist alg(λ ) = 1 . (vi) Es gilt Rang A = 3 sowie (möglichst präzise!): 2 = geo(0) = alg(0) < 5. Ergänzen Sie den folgenden Satz: Jede reelle n × n-Matrix mit n verschiedenen Eigenwerten ist diagonalisierbar, da bei n verschiedenen Eigenwerten jeder Eigenwert nur von einfacher algebraischer Ordnung sein kann. Da für jeden Eigenwert die geometrische Ordnung mindestens 1 ist und durch die algebraische Ordnung (in diesem Fall ebenfalls 1) nach oben begrenzt ist, stimmen algebraische und geometrische Ordnung bei jedem Eigenwert überein. Derartige Matrizen sind diagonalisierbar. Es sei B eine 5 × 5-Matrix über R, die ausschließlich ganzzahlige Eigenwerte besitzt. Zudem gelte det B = −18 und Rang(B + 3E) = 3 = Rang(B − E5 ) − 1. (i) Notieren Sie alle Eigenwerte von B und geben Sie deren algebraische und geometrische Ordnung jeweils an. Eigenwert λ alg(λ ) geo(λ ) -3

2

2

-2

1

1

1

2

1



5

4

(ii) Das charakteristische Polynom von B lautet in vollständig faktorisierter Form χB (x) = (x + 3)2 (x + 2)(x − 1)2 . (iii) Die Matrix B ist

 diagonalisierbar,

 nicht diagonalisierbar.

9.4 Eigenwerte

259

Gegeben sei eine symmetrische 10 × 10-Matrix A über R, die nur die Eigenwerte −1 und 1 besitzt. Des Weiteren gelte Rang(A + E10 ) = 3. F               

R               

← Bitte ankreuzen: F=falsch, R=richtig Es gilt det A = −1. Es gibt nicht-triviale Vektoren x, die das LGS x + Ax = 0 lösen. Der Kern von A stellt einen Eigenraum von A dar. Es gilt dim Kern(A + E10 ) = 3. A ist singulär. Es gilt det(A + E10 ) = 0. Der Nullvektor ist die einzige Lösung des Gleichungssystems Ax − 2x = 0. Die Zeilen von A sind linear abhängig. Es gilt det(A − E) > 0. Es ist Rang A = 10. A ist negativ definit. Kern A enthält nur den Nullvektor. Es gibt einen Vektor b ∈ Rn , b 6= 0 mit Ab = −b. Die Matrix A ist invertierbar. Das lineare Gleichungssystem Ax = eˆ 1 ist eindeutig lösbar. (Hierbei bezeichne eˆ 1 den ersten kanonischen Einheitsvektor des R10 .)

Es seien λ1 , . . . , λn die Eigenwerte einer n × n-Matrix M. Ergänzen Sie: ,

Spur M =

det M =

Die Eigenwerte der Matrix  2 0  B= 0 0 0

1 2 0 0 0

3 9 3 6 0

4 1 1 2 0

 7 8  2  5 1

lauten Eigenwert λ alg(λ ) geo(λ ) Begründung

Die Matrix B ist

 diagonalisierbar,

 nicht diagonalisierbar.

.

260

9 Minitests

Gegeben sei eine symmetrische 10 × 10-Matrix A über R, die nur die Eigenwerte −1 und 1 besitzt. Des Weiteren gelte Rang(A + E10 ) = 3. F               

R               

← Bitte ankreuzen: F=falsch, R=richtig Es gilt det A = −1. Es gibt nicht-triviale Vektoren x, die das LGS x + Ax = 0 lösen. Der Kern von A stellt einen Eigenraum von A dar. Es gilt dim Kern(A + E10 ) = 3. A ist singulär. Es gilt det(A + E10 ) = 0. Der Nullvektor ist die einzige Lösung des Gleichungssystems Ax − 2x = 0. Die Zeilen von A sind linear abhängig. Es gilt det(A − E) > 0. Es ist Rang A = 10. A ist negativ definit. Kern A enthält nur den Nullvektor. Es gibt einen Vektor b ∈ Rn , b 6= 0 mit Ab = −b. Die Matrix A ist invertierbar. Das lineare Gleichungssystem Ax = eˆ 1 ist eindeutig lösbar. (Hierbei bezeichne eˆ 1 den ersten kanonischen Einheitsvektor des R10 .)

Es seien λ1 , . . . , λn die Eigenwerte einer n × n-Matrix M. Ergänzen Sie: det M = λ1 · · · · · λn .

Spur M = λ1 + · · · + λn , Die Eigenwerte der Matrix  2 0  B= 0 0 0

1 2 0 0 0

3 9 3 6 0

4 1 1 2 0

 7 8  2  5 1

lauten Eigenwert λ alg(λ ) geo(λ ) Begründung

Die Matrix B ist

2

2

1

2 × 2-Jordan-Block links oben

5

1

1

Spur

0

1

1

2 × 2-Block

1

1

1

1 × 1-Jordan-Block rechts unten

 diagonalisierbar,



 3 1 = 6 2

5, zudem ist der 

 3 1 6 2

singulär

 nicht diagonalisierbar.

9.5 Definitheit, Länge, Winkel und Orthogonalität

261

9.5 Definitheit, Länge, Winkel und Orthogonalität Es sei M eine symmetrische n × n-Matrix über R. Ergänzen Sie: (i) M ist genau dann negativ definit, wenn ihre Eigenwerte

sind.

(ii) M ist genau dann positiv definit, wenn ihre Eigenwerte

sind.

(iii) M ist genau dann positiv semidefinit, wenn für jedes λ ∈ Spec M gilt

.

(iv) M ist genau dann negativ semidefinit, wenn für jedes λ ∈ Spec M gilt

.

(v) M ist genau dann indefinit, wenn

.

Es seien A, B und C symmetrische Matrizen über R mit A ≈ B ' C. Ergänzen Sie: Die Matrix B ist kongruent zur Matrix , während B zur Matrix ist. Es gibt reguläre n × n-Matrizen R, S ∈ GL(n, R) mit R−1 BR = und ST BS = . Die Matrizen haben dasselbe Definitheitsverhalten, da sie reell-symmetrisch sind, die Eigenwerte von und identisch sind und die Signatur von mit der von übereinstimmt. Wenn es zwei Vektoren x, y ∈ Rn gibt mit xT Bx < 0 < yT By, dann ist B  positiv definit,

 indefinit,

 negativ definit.

Sind x, y ∈ Rn , mit n ∈ {2, 3}, so gilt für den Einschlusswinkel zwischen beiden Vektoren cos ^(x, y) =

.

Beide Vektoren stehen also genau dann senkrecht aufeinander, wenn Für das Skalarprodukt von x und y gilt die Ungleichung ≤ xT · y ≤

.

.

Es sei S ∈ O(n) = O(n, R) eine orthogonale Matrix. Ergänzen Sie: (i) S · ST =

,

S−1 =

(ii) det S ∈ (iii) Für alle x ∈ Rn ist kSxk2 = (iv) Für alle x, y ∈ (v)

Rn

.

ist das Skalarprodukt hSx, Syi = (Sx)T (Sy) = h

i.

,

Ist n = 2 oder n = 3 und x, y ∈ Rn , so gilt für den Winkel ^(Sx, Sy) =

.

(vi) Für die Menge der reellen Eigenwerte von S gilt R ∩ Spec S = { (vii) Für jeden Eigenwert λ ∈ Spec S gilt |λ | = (viii) Für die Spektralnorm von S gilt kSk2 =

}.

. .

(ix) Ist R ∈ O(n) eine weitere orthogonale Matrix, so ist RS

.

262

9 Minitests

Es sei M eine symmetrische n × n-Matrix über R. Ergänzen Sie: (i) M ist genau dann negativ definit, wenn ihre Eigenwerte

negativ

(ii) M ist genau dann positiv definit, wenn ihre Eigenwerte

positiv

sind. sind.

(iii) M ist genau dann positiv semidefinit, wenn für jedes λ ∈ Spec M gilt λ ≥ 0 . (iv) M ist genau dann negativ semidefinit, wenn für jedes λ ∈ Spec M gilt λ ≤ 0 . (v) M ist genau dann indefinit, wenn es vorzeichenverschiedene Eigenwerte gibt. Es seien A, B und C symmetrische Matrizen über R mit A ≈ B ' C. Ergänzen Sie: Die Matrix B ist kongruent zur Matrix C , während B ähnlich zur Matrix A ist. Es gibt reguläre n × n-Matrizen R, S ∈ GL(n, R) mit R−1 BR = A und T S BS = C . Die Matrizen A, B,C haben dasselbe Definitheitsverhalten, da sie reell-symmetrisch sind, die Eigenwerte von A und B identisch sind und die Signatur von B mit der von C übereinstimmt. Wenn es zwei Vektoren x, y ∈ Rn gibt mit xT Bx < 0 < yT By, dann ist B  positiv definit,

 indefinit,

 negativ definit.

Sind x, y ∈ Rn , mit n ∈ {2, 3}, so gilt für den Einschlusswinkel zwischen beiden Vektoren xT · y cos ^(x, y) = . kxk2 kyk2 Beide Vektoren stehen also genau dann senkrecht aufeinander, wenn Für das Skalarprodukt von x und y gilt die Ungleichung − kxk2 kyk2 ≤ xT · y ≤

xT · y = 0 .

kxk2 kyk2 .

Es sei S ∈ O(n) = O(n, R) eine orthogonale Matrix. Ergänzen Sie: (i) S · ST = En ,

S−1 = ST

(ii) det S ∈ {−1, 1} (iii) Für alle x ∈ Rn ist kSxk2 = kxk2 . (iv) Für alle x, y ∈ Rn ist das Skalarprodukt hSx, Syi = (Sx)T (Sy) = h x , y i. (v) Ist n = 2 oder n = 3 und x, y ∈ Rn , so gilt für den Winkel ^(Sx, Sy) = ^(x, y). (vi) Für die Menge der reellen Eigenwerte von S gilt R ∩ Spec S = { − 1, 1 }. (vii) Für jeden Eigenwert λ ∈ Spec S gilt |λ | = 1 . (viii) Für die Spektralnorm von S gilt kSk2 = 1 . (ix) Ist R ∈ O(n) eine weitere orthogonale Matrix, so ist RS

orthogonal .

9.5 Definitheit, Länge, Winkel und Orthogonalität

263

Bei welchen der folgenden Matrizen handelt es sich um Jordan’sche Normalformen?       31000   3100 3100 0 3 0 0 0 123 0 3 0 0 0 3 1 0       0 0 2 1 0  0 3 1        0020 0021 0 0 0 2 1 002 0002 0002 00002 

1 0  0 0

1 2 0 0

0 1 3 0

 0 0  1 4



10 0 2  0 0 00

0 0 3 0

 0 0  0 4



2 1  0 0

0 2 0 0

0 0 3 1



1 0   0 0 0

 0 0  0 3

2 1 0 0 0

0 0 2 0 0

0 0 1 2 0

 0 0  0  0 2

Ergänzen Sie: (i) Die Anzahl der Jordan-Blöcke zu einem Eigenwert λ einer quadratischen Matrix entspricht . (ii) Ist p ∈ K[x] mit deg p = n das charakteristische Polynom einer quadratischen Matrix A, so gilt p(A) = ∈ . (iii) Ist λ Eigenwert einer quadratischen Matrix A, so entspricht der algebraischen Ordnung der Nullstelle λ im Minimalpolynom von A . (iv) Bei einer diagonalisierbaren Matrix zeichnet sich das Minimalpolynom dadurch aus, dass es . (v) Besitzt die Jordan’sche Normalform einer quadratischen Matrix A zu jedem Eigenwert nur einen Jordan-Block, so gilt für jeden Eigenwert λ dieser Matrix dim Kern(A − λ E) = . Es seien A, B ∈ M(n, K) zwei gleichformatige Matrizen. Ergänzen Sie: A≈B

⇐⇒

xE − A ∼

.

Zwei Matrizen sind also genau dann ähnlich zueinander, wenn ihre charakteristischen Matrizen sind. Es sei A ∈ M(n, K) eine nilpotente Matrix, d. h., es gibt ein k ∈ N mit Ak = 0n×n , Ak−1 6= 0n×n . Ergänzen Sie: (i) Die Hauptdiagonale einer Jordan’schen Normalform von A besteht dann aus lauter . Damit ist Spec A = . (ii) Das Minimalpolynom von A lautet µA (x) =

.

(iii) Jede zu A ähnliche Matrix ist ebenfalls

.

264

9 Minitests

Bei welchen der folgenden Matrizen handelt es sich um Jordan’sche Normalformen?       31000   3100 3100 0 3 0 0 0 123 0 3 0 0 0 3 1 0       0 0 2 1 0  0 3 1        0020 0021 0 0 0 2 1 002 0002 0002 00002 

1 0  0 0

1 2 0 0

0 1 3 0

 0 0  1 4



10 0 2  0 0 00

0 0 3 0

 0 0  0 4



2 1  0 0

0 2 0 0

0 0 3 1



1 0   0 0 0

 0 0  0 3

2 1 0 0 0

0 0 2 0 0

0 0 1 2 0

 0 0  0  0 2

Ergänzen Sie: (i) Die Anzahl der Jordan-Blöcke zu einem Eigenwert λ einer quadratischen Matrix entspricht der geometrischen Ordnung von λ . (ii) Ist p ∈ K[x] mit deg p = n das charakteristische Polynom einer quadratischen Matrix A, so gilt p(A) = 0 ∈ M(n, K) . (iii) Ist λ Eigenwert einer quadratischen Matrix A, so entspricht der algebraischen Ordnung der Nullstelle λ im Minimalpolynom von A das Format des größten Jordan-Blocks von λ . (iv) Bei einer diagonalisierbaren Matrix zeichnet sich das Minimalpolynom dadurch aus, dass es nur einfache Nullstellen besitzt . (v) Besitzt die Jordan’sche Normalform einer quadratischen Matrix A zu jedem Eigenwert nur einen Jordan-Block, so gilt für jeden Eigenwert λ dieser Matrix dim Kern(A − λ E) = 1 . Es seien A, B ∈ M(n, K) zwei gleichformatige Matrizen. Ergänzen Sie: A≈B

⇐⇒

xE − A ∼

xE − B .

Zwei Matrizen sind also genau dann ähnlich zueinander, wenn ihre charakteristischen Matrizen äquivalent zueinander sind. Es sei A ∈ M(n, K) eine nilpotente Matrix, d. h., es gibt ein k ∈ N mit Ak = 0n×n , Ak−1 6= 0n×n . Ergänzen Sie: (i) Die Hauptdiagonale einer Jordan’schen Normalform von A besteht dann aus lauter Nullen . Damit ist Spec A = {0} . (ii) Das Minimalpolynom von A lautet µA (x) = xk (iii) Jede zu A ähnliche Matrix ist daher ebenfalls

.

nilpotent .

Literaturverzeichnis

1. Beutelspacher, A., Lineare Algebra, 8. Aufl., Springer Spektrum 2013. 2. Dobner, G., Dobner, H.-J., Lineare Algebra für Naturwissenschaftler und Ingenieure, 1. Aufl., Elsevier - Spektrum Akad. Verlag 2007. 3. Fischer, G., Lineare Algebra, 13. Aufl., Springer Spektrum, Wiesbaden 2014. 4. Fischer, G., Lehrbuch der Algebra, 2. überarb. Aufl. Springer Spektrum, Wiesbaden 2011. 5. Göllmann, L., Lineare Algebra, Springer Spektrum, Heidelberg 2017. 6. Jong, Th. de, Lineare Algebra, Pearson Higher Education, München 2013. 7. Karpfinger, Ch., Meyberg, K., Algebra, 3. Aufl. Springer Spektrum, Heidelberg 2013. 8. Lorenz, F., Lineare Algebra I, 4. Aufl., Spektrum Akad. Verlag 2005. 9. Lorenz, F., Lineare Algebra II, 3. überarb. Aufl., 4. korrigierter Nachdruck, Spektrum Akad. Verlag 2005. 10. Strang, G., Lineare Algebra, Englische Originalausgabe erschienen bei Wellesley-Cambridge Press, 1998, Springer-Lehrbuch, 2003.

© Springer-Verlag GmbH Deutschland, ein Teil von Springer Nature 2019 L. Göllmann und C. Henig, Arbeitsbuch zur linearen Algebra, https://doi.org/10.1007/978-3-662-58766-9

265

Sachverzeichnis

Basis duale, 123 eines Homomorphismenraums, 121 Cauchy-Schwarz’sche Ungleichung, 134 Definitheitskriterien, 176 Dimensionsformel für Quotientenräume, 96 für Vektorraumsummen, 114 direktes Produkt von Ringen, 18 von Vektorräumen, 18 Dualbasis, 123 Durchschnitt von Vektorräumen, 70 Einheitswurzeln, 6 Fibonacci-Folge, 165 formale Linearkombination, 86 freier Vektorraum, 85 Galois-Feld, 18 Graßmann-Identität, 133 Gradient einer quadratischen Form, 113 Hesse-Matrix einer quadratischen Form, 113 Homomorphismenraum, 118 Interpolation, 65 isotroper Vektor, 173 Kondition bezüglich der Spektralnorm, 217 einer orthogonalen Matrix, 216 einer regulären Matrix, 142 lineares Ausgleichsproblem, 233 Linearkombination

formale, 86 Matrix idempotente, 161 nilpotente, 263 schiefhermitesche, 111 schiefsymmetrische, 111 Matrixnorm induzierte, 138 nilpotent, 263 Normalgleichungen, 233 Pseudoinverse, 238 Rangabschätzungen, 97 Singulärwerte, 183 Singulärwertzerlegung, 183, 215, 236 Spaltensummennorm, 140 Spatprodukt, 134 Spektralnorm, 215 Spur einer Matrix, 212 submultiplikativ, 140 Summe von Vektorräumen, 70 Sylvester’sche Rangungleichung, 97 Träger, 85 universelle Eigenschaft einer Basis, 116 eines Quotientenraums, 124 Vandermonde-Matrix, 63 Vektorraum freier, 85 Zeilensummennorm, 140

© Springer-Verlag GmbH Deutschland, ein Teil von Springer Nature 2019 L. Göllmann und C. Henig, Arbeitsbuch zur linearen Algebra, https://doi.org/10.1007/978-3-662-58766-9

267

springer-spektrum.de

Jetzt im Springer-Shop bestellen: springer.com/978-3-662-54342-9