Lineare Algebra: leicht gemacht! [1 ed.] 3662676664, 9783662676660, 9783662676677

Das vorliegende Buch bietet eine leicht lesbare Darstellung der Kerninhalte der Linearen Algebra. Es richtet sich an Stu

164 80 3MB

German Pages 247 [241] Year 2023

Report DMCA / Copyright

DOWNLOAD FILE

Polecaj historie

Lineare Algebra: leicht gemacht! [1 ed.]
 3662676664, 9783662676660, 9783662676677

  • Commentary
  • Publisher PDF | Published: September 2023 | УДК, ББК are set to "Algebra"

Table of contents :
Vorwort
Inhaltsverzeichnis
1 Vektorräume
1.1 Ortsvektoren
1.2 Definition des Vektorraums
1.3 Beispiel: n-Tupel
1.4 Unterräume
Übungsaufgaben
2 Basis und Koordinaten
2.1 Erzeugnis und Linearkombinationen
2.2 Lineare Unabhängigkeit
2.3 Basis
2.4 Dimension
2.5 Koordinaten
Übungsaufgaben
3 Lineare Abbildungen
3.1 Begriff der linearen Abbildung
3.2 Grundlegende Eigenschaften
3.3 Matrix einer linearen Selbstabbildung
3.4 Beispiel: Drehungen
3.5 Berechnung des Rangs
3.6 Lineare Operationen von Abbildungen
3.7 Multiplikation von Abbildungen
3.8 Umkehrabbildung und inverse Matrix
3.9 Transposition von Matrizen
Übungsaufgaben
4 Basistransformation
4.1 Transformationsmatrix
4.2 Basistransformation für Abbildungen
4.3 Beispiel: Dreidimensionale Drehungen
Übungsaufgaben
5 Determinanten
5.1 Determinantenformen
5.2 Definition der Determinante
5.3 Berechnung von Determinanten
5.4 Anwendungen
Übungsaufgaben
6 Eigenvektoren und Eigenwerte
6.1 Definition von Eigenvektoren
6.2 Berechnung von Eigenvektoren
6.3 Basen mit Eigenvektoren
Übungsaufgaben
7 Euklidische Vektorräume
7.1 Skalarprodukt
7.2 Betrag
7.3 Orthogonalität
7.4 Schmidt-Orthonormierungsverfahren
Übungsaufgaben
8 Anwendungen im gewöhnlichen R3
8.1 Vektorpfeile
8.2 Projektion
8.3 Ebene und Normalenvektor
8.4 Vektorprodukt
8.5 Drehungen und Drehmatrizen
Übungsaufgaben
9 Lösungen der Übungsaufgaben
Stichwortverzeichnis

Citation preview

Jochen Balla

Lineare Algebra leicht gemacht!

Lineare Algebra

Jochen Balla

Lineare Algebra leicht gemacht!

Jochen Balla Bochum - University of Applied Sciences Hattingen, Deutschland

ISBN 978-3-662-67666-0 https://doi.org/10.1007/978-3-662-67667-7

ISBN 978-3-662-67667-7 (eBook)

Die Deutsche Nationalbibliothek verzeichnet diese Publikation in der Deutschen Nationalbibliografie; detaillierte bibliografische Daten sind im Internet über http://dnb.d-nb.de abrufbar. Springer Spektrum © Der/die Herausgeber bzw. der/die Autor(en), exklusiv lizenziert an Springer-Verlag GmbH, DE, ein Teil von Springer Nature 2023 Das Werk einschließlich aller seiner Teile ist urheberrechtlich geschützt. Jede Verwertung, die nicht ausdrücklich vom Urheberrechtsgesetz zugelassen ist, bedarf der vorherigen Zustimmung des Verlags. Das gilt insbesondere für Vervielfältigungen, Bearbeitungen, Übersetzungen, Mikroverfilmungen und die Einspeicherung und Verarbeitung in elektronischen Systemen. Die Wiedergabe von allgemein beschreibenden Bezeichnungen, Marken, Unternehmensnamen etc. in diesem Werk bedeutet nicht, dass diese frei durch jedermann benutzt werden dürfen. Die Berechtigung zur Benutzung unterliegt, auch ohne gesonderten Hinweis hierzu, den Regeln des Markenrechts. Die Rechte des jeweiligen Zeicheninhabers sind zu beachten. Der Verlag, die Autoren und die Herausgeber gehen davon aus, dass die Angaben und Informationen in diesem Werk zum Zeitpunkt der Veröffentlichung vollständig und korrekt sind. Weder der Verlag noch die Autoren oder die Herausgeber übernehmen, ausdrücklich oder implizit, Gewähr für den Inhalt des Werkes, etwaige Fehler oder Äußerungen. Der Verlag bleibt im Hinblick auf geografische Zuordnungen und Gebietsbezeichnungen in veröffentlichten Karten und Institutionsadressen neutral. Das Papier dieses Produkts ist recyclebar. Springer Spektrum ist ein Imprint der eingetragenen Gesellschaft Springer-Verlag GmbH, DE und ist ein Teil von Springer Nature. Die Anschrift der Gesellschaft ist: Heidelberger Platz 3, 14197 Berlin, Germany

Vorwort

Die Lineare Algebra ist neben der Analysis das zweite wichtige Grundgebiet der Mathematik. Die Objekte der linearen Algebra sind Vektoren und Matrizen, mit denen sich Abbildungen von Vektoren beschreiben lassen. Zwei- und dreidimensionale Vektoren besitzen eine unmittelbare geometrische Bedeutung und sind daher in Naturwissenschaft und Technik allgegenwärtig. Aber auch höherdimensionale Vektoren sind, beispielsweise im Zusammenhang mit linearen Gleichungssystemen, nützliche und oft verwendete Werkzeuge. Die Notation ist in der Mathematik oft von grundlegender Bedeutung und für die Lineare Algebra gilt dies in besonderem Maß. Ich habe mich bemüht, sie einfach und doch möglichst klar zu gestalten – einen in allen Einzelheiten eindeutigen Standard gibt es diesbezüglich nicht. Zielsetzung dieses Buchs Dieses Buch bietet eine – wie ich hoffe – leicht lesbare Darstellung der Linearen Algebra. Es ist gedacht für Studierende der Naturund Ingenieurwissenschaften, aber auch der Wirtschaftswissenschaften und anderer Fachrichtungen, in denen die Methoden der linearen Algebra eine Rolle spielen. Und natürlich sollte es auch Studierenden der Mathematik als Einführung gute Dienste leisten. Die Darstellung erfolgt anwendungsorientiert und mit vielen Beispielen, enthält aber ebenso die notwendigen theoretischen Grundlagen. Der Inhalt lässt sich wie folgt umreißen:  Der Vektor wird als Element eines zugrunde liegenden Vektorraums definiert. Diese Definition schließt das wichtige Beispiel der Ortsvektoren ein und ist gleichzeitig der Schlüssel zum allgemeinen Begriff des Vektors. Weitere Grundbegriffe sind die lineare Unabhängigkeit von Vektoren, die Basis eines Vektorraums und die Koordinaten der Vektoren. Dabei lernen wir das Gauß-Schema als ein Standardrechenverfahren der linearen Algebra kennen.  Lineare Abbildungen von Vektoren können durch Matrizen beschrieben werden. Die Eigenschaften der Abbildungen spiegeln sich in entsprechenden Eigenschaften der Matrizen wieder. Wir lernen in diesem Zusammenhang das Rechnen V

VI



 



Vorwort

mit Matrizen kennen, insbesondere ihre Multiplikation und die Inversion von Matrizen. In vielen Anwendungen ist es erforderlich, zwischen „Bezugssystemen“ wechseln zu können, gleichbedeutend mit einer Basistransformation. Ihre Beschreibung durch Matrizen erlaubt es, die Zusammenhänge einfach wiederzugeben. Wir können nun zwischen aktiven und passiven Drehungen unterscheiden und sie auch kombinieren. Determinanten besitzen viele Anwendungen. Der Blick auf ihren theoretischen Hintergrund erlaubt es, die Sarrus-Regel begründen zu können und weitere nützliche Formeln zu gewinnen. Lineare Abbildungen können Eigenwerte und Eigenvektoren besitzen. Ihre Kenntnis erlaubt einen Einblick in das Wesen der Abbildung, so ist beispielsweise die Drehachse einer dreidimensionalen Drehung gleichbedeutend mit einem Eigenraum. In euklidischen Vektorräumen kann „gemessen“ werden, d. h., die Länge von Vektoren und der Winkel zwischen Vektoren können definiert werden. Im gewöhnlichen R3 entspricht dies den geometrischen Verhältnissen. Daraus ergeben sich naturgemäß unzählige Anwendungen der analytischen Geometrie, Ebenen und Geraden können analysiert werden, gegenseitige Abstände können berechnet werden usw.

Hilfestellungen Lineare Algebra „leicht gemacht“ ist leicht gesagt. Aber tatsächlich gibt dir das Buch eine Reihe zusätzlicher Hilfestellungen, die sich in grauen Boxen wie der folgenden finden:

 Zu Beginn eines jeden Kapitels wird erläutert, in welchen Zusammenhängen die Inhalte bedeutsam sind.  Der Text wird durch zahlreiche Lesehilfen ergänzt, die Begriffe, Schreibweisen, Hintergründe erläutern und dir über problematische Stellen hinweghelfen.  Der Text enthält Zwischenfragen (und etwas verzögert auch die Antworten), die dich zum Hinterfragen des Gelesenen anregen und das Verständnis prüfen und vertiefen.  Am Ende eines jeden Kapitels erlaubt „Das Wichtigste in Kürze“ eine Rekapitulation der Inhalte, ergänzt durch eine kleine Formelsammlung. Verstehst du genau, was hier steht, und kannst du jede Formel erklären, so hast du das Kapitel gut verinnerlicht.

Darüber hinaus ist jedes Kapitel mit Übungsaufgaben versehen. Sie zielen auf das Vertiefen des Verständnisses und auch auf das Training der Rechentechniken ab. Die ausführlichen Lösungen erlauben dir eine unmittelbare Selbstkontrolle.

Vorwort

VII

Literatur Es gibt viele gute Bücher, die ein vertiefendes Studium der Linearen Algebra erlauben. Mit der hier vorliegenden „Einführung“ in das Thema solltest du mit jedem weiterführenden Buch zurechtkommen. Abschließend ein Hinweis in eigener Sache: Die Lineare Algebra ist das vierte Buch der kleinen „leicht gemacht“-Reihe bei Springer Spektrum, neben der Differenzialrechnung, der Integralrechnung und den Gewöhnlichen Differenzialgleichungen. Ich wünsche dir viel Erfolg im Studium und würde mich freuen, wenn dieses Buch einen Beitrag dazu leisten kann :-) April 2023

Jochen Balla

Inhaltsverzeichnis

1

Vektorräume . . . . . . . . . . . . 1.1 Ortsvektoren . . . . . . . . . 1.2 Definition des Vektorraums 1.3 Beispiel: n-Tupel . . . . . . 1.4 Unterräume . . . . . . . . . . Übungsaufgaben . . . . . . . . . .

. . . . . .

. . . . . .

. . . . . .

. . . . . .

. . . . . .

. . . . . .

. . . . . .

. . . . . .

. . . . . .

. . . . . .

. . . . . .

. . . . . .

. . . . . .

. . . . . .

. . . . . .

. . . . . .

. . . . . .

. . . . . .

. . . . . .

. . . . . .

. . . . . .

. . . . . .

. . . . . .

. . . . . .

1 2 4 6 8 12

2

Basis und Koordinaten . . . . . . . . . . . . 2.1 Erzeugnis und Linearkombinationen . 2.2 Lineare Unabhängigkeit . . . . . . . . 2.3 Basis . . . . . . . . . . . . . . . . . . . . 2.4 Dimension . . . . . . . . . . . . . . . . . 2.5 Koordinaten . . . . . . . . . . . . . . . . Übungsaufgaben . . . . . . . . . . . . . . . .

. . . . . . .

. . . . . . .

. . . . . . .

. . . . . . .

. . . . . . .

. . . . . . .

. . . . . . .

. . . . . . .

. . . . . . .

. . . . . . .

. . . . . . .

. . . . . . .

. . . . . . .

. . . . . . .

. . . . . . .

. . . . . . .

. . . . . . .

. . . . . . .

13 14 17 21 25 29 36

3

Lineare Abbildungen . . . . . . . . . . . . . . . . . . . . . . . . . . . 3.1 Begriff der linearen Abbildung . . . . . . . . . . . . . . . . . . 3.2 Grundlegende Eigenschaften . . . . . . . . . . . . . . . . . . . 3.3 Matrix einer linearen Selbstabbildung . . . . . . . . . . . . . . 3.4 Beispiel: Drehungen . . . . . . . . . . . . . . . . . . . . . . . . 3.5 Berechnung des Rangs . . . . . . . . . . . . . . . . . . . . . . . 3.6 Lineare Operationen von Abbildungen . . . . . . . . . . . . . 3.7 Multiplikation von Abbildungen . . . . . . . . . . . . . . . . . 3.7.1 Matrix der Produktabbildung . . . . . . . . . . . . . . . 3.7.2 Allgemeines Schema der Matrizenmultiplikation . . 3.8 Umkehrabbildung und inverse Matrix . . . . . . . . . . . . . . 3.8.1 Rechenschema zur Berechnung der inversen Matrix . 3.8.2 Eindeutig lösbare Gleichungssysteme . . . . . . . . . 3.9 Transposition von Matrizen . . . . . . . . . . . . . . . . . . . . Übungsaufgaben . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .

. . . . . . . . . . . . . . .

. . . . . . . . . . . . . . .

. . . . . . . . . . . . . . .

. . . . . . . . . . . . . . .

39 40 42 46 50 53 60 61 62 63 67 68 73 74 79

IX

X

Inhaltsverzeichnis

4

Basistransformation . . . . . . . . . . . . . . . . . . . . . . . . . 4.1 Transformationsmatrix . . . . . . . . . . . . . . . . . . . . . 4.1.1 Koordinatentransformation . . . . . . . . . . . . . . 4.1.2 Berechnung der Transformationsmatrix . . . . . . 4.1.3 Beispiel: Koordinatendrehung . . . . . . . . . . . . 4.2 Basistransformation für Abbildungen . . . . . . . . . . . . 4.3 Beispiel: Dreidimensionale Drehungen . . . . . . . . . . . 4.3.1 Drehung um die Raumachse in Richtung .0; 1; 1/ 4.3.2 Allgemeiner Fall dreidimensionaler Drehungen . Übungsaufgaben . . . . . . . . . . . . . . . . . . . . . . . . . . . .

. . . . . . . . . .

. . . . . . . . . .

. . . . . . . . . .

. . . . . . . . . .

. . . . . . . . . .

. 83 . 84 . 85 . 86 . 89 . 92 . 95 . 95 . 99 . 103

5

Determinanten . . . . . . . . . . . . . . . . 5.1 Determinantenformen . . . . . . . . . 5.2 Definition der Determinante . . . . . 5.3 Berechnung von Determinanten . . 5.3.1 Obere Dreiecksdeterminante 5.3.2 Entwicklungssatz . . . . . . . 5.3.3 Diagonalblockmatrizen . . . 5.4 Anwendungen . . . . . . . . . . . . . 5.4.1 Cramer-Regel . . . . . . . . . 5.4.2 Matrixinversion . . . . . . . . Übungsaufgaben . . . . . . . . . . . . . . .

. . . . . . . . . . .

. . . . . . . . . . .

. . . . . . . . . . .

. . . . . . . . . . .

. . . . . . . . . . .

. . . . . . . . . . .

. . . . . . . . . . .

. . . . . . . . . . .

. . . . . . . . . . .

. . . . . . . . . . .

105 106 110 113 116 119 123 126 126 128 132

6

Eigenvektoren und Eigenwerte . . . . . . . . . . . . . . . 6.1 Definition von Eigenvektoren . . . . . . . . . . . . . . 6.2 Berechnung von Eigenvektoren . . . . . . . . . . . . . 6.2.1 Charakteristisches Polynom und Eigenwerte 6.2.2 Eigenvektoren . . . . . . . . . . . . . . . . . . . 6.2.3 Beispiel . . . . . . . . . . . . . . . . . . . . . . . 6.3 Basen mit Eigenvektoren . . . . . . . . . . . . . . . . . Übungsaufgaben . . . . . . . . . . . . . . . . . . . . . . . . .

. . . . . . . .

. . . . . . . .

. . . . . . . .

. . . . . . . .

. . . . . . . .

. . . . . . . .

. . . . . . . .

. . . . . . . .

. . . . . . . .

135 135 137 138 140 141 146 151

7

Euklidische Vektorräume . . . . . . . . . . 7.1 Skalarprodukt . . . . . . . . . . . . . . . 7.2 Betrag . . . . . . . . . . . . . . . . . . . 7.3 Orthogonalität . . . . . . . . . . . . . . 7.4 Schmidt-Orthonormierungsverfahren Übungsaufgaben . . . . . . . . . . . . . . . .

. . . . . .

. . . . . .

. . . . . .

. . . . . .

. . . . . .

. . . . . .

. . . . . .

. . . . . .

. . . . . .

. . . . . .

. . . . . .

. . . . . .

. . . . . .

. . . . . .

. . . . . .

. . . . . .

. . . . . .

. . . . . .

153 153 157 161 165 170

8

Anwendungen im gewöhnlichen R3 8.1 Vektorpfeile . . . . . . . . . . . . . 8.2 Projektion . . . . . . . . . . . . . . 8.3 Ebene und Normalenvektor . . . 8.4 Vektorprodukt . . . . . . . . . . . 8.5 Drehungen und Drehmatrizen . .

. . . . . .

. . . . . .

. . . . . .

. . . . . .

. . . . . .

. . . . . .

. . . . . .

. . . . . .

. . . . . .

. . . . . .

. . . . . .

. . . . . .

. . . . . .

. . . . . .

. . . . . .

. . . . . .

. . . . . .

. . . . . .

173 174 174 177 180 190

. . . . . .

. . . . . .

. . . . . . . . . . .

. . . . . .

. . . . . . . . . . .

. . . . . . . . . . .

. . . . . . . . . . .

. . . . . . . . . . .

. . . . . . . . . . .

. . . . . . . . . . .

. . . . . . . . . . .

. . . . . . . . . . .

Inhaltsverzeichnis

8.5.1 Invarianz der Länge . . . . . . 8.5.2 Invarianz des Rechtsvolumens 8.5.3 Beispiel . . . . . . . . . . . . . . Übungsaufgaben . . . . . . . . . . . . . . . . 9

XI

. . . .

. . . .

. . . .

. . . .

. . . .

. . . .

. . . .

. . . .

. . . .

. . . .

. . . .

. . . .

. . . .

. . . .

. . . .

. . . .

. . . .

. . . .

190 191 193 197

Lösungen der Übungsaufgaben . . . . . . . . . . . . . . . . . . . . . . . . 201

Stichwortverzeichnis . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 231

1

Vektorräume

Der Vektor ist der Grundbegriff der linearen Algebra. Seine ursprünglich geometrische Bedeutung als Ortsvektor, also als Verbindungspfeil zu einem Punkt in der Ebene oder im Raum, findet sich in der Schreibweise xE für einen Vektor x wieder. Ortsvektoren lassen sich auf anschauliche Weise addieren und mit einer Zahl multiplizieren. Daraus ergibt sich die Idee für den allgemeinen Begriff eines Vektors: Vektoren sind Objekte, für die sich analoge lineare Operationen finden lassen. Sie sind Elemente eines entsprechenden Vektorraums, in dem die Rechenregeln und Eigenschaften enthalten sind. Ein wichtiges Beispiel für Vektoren sind die n-Tupel. Für n D 2; 3 lassen sich die Ortsvektoren in ihnen wiederfinden, aber auch für n > 3 sind sie etwa für die Lösung von linearen Gleichungssystemen von zentraler Bedeutung.

Wozu dieses Kapitel im Einzelnen

 Der Vektor ist der Grundbegriff der linearen Algebra. Wir wollen genau wissen, was man mit Vektoren machen darf, und sind dann bei den linearen Operationen.  Es gibt Gruppen, es gibt Körper, es gibt Skalare. Diese Begriffe spielen bei Vektorräumen eine Rolle und wir werden sehen, wie sie hier zusammenhängen.  Der Vektorraum ist der Raum, in dem sich die Vektoren befinden. Er kann Unterräume besitzen, zu denen man in Anwendungen oft von alleine gelangt. Wir wollen daher sehen, was einen Unterraum ausmacht.

© Der/die Autor(en), exklusiv lizenziert an Springer-Verlag GmbH, DE, ein Teil von Springer Nature 2023 J. Balla, Lineare Algebra, https://doi.org/10.1007/978-3-662-67667-7_1

1

2

1

Vektorräume

1.1 Ortsvektoren Wir geben in der Ebene oder im Raum einen festen Anfangspunkt O vor. Jedem Punkt X kann dann eindeutig der von O nach X weisende Pfeil zugeordnet werden. Diesen Pfeil nennt man den Ortsvektor von X (bezüglich des Anfangspunkts O) und wir wollen diesen Vektor zur Unterscheidung von Zahlen mit dem fettgedruckten Buchstaben x bezeichnen.1

Lesehilfe

In Büchern bzw. in mit dem Computer erstellten Texten ist es allgemein üblich, Vektoren durch fettgedruckte Buchstaben kenntlich zu machen. Handschriftlich erreichst du dies am einfachsten durch Unterstreichen, also x D x. Aber du kannst auch bei der Schreibweise xE bleiben, wie du sie vielleicht aus der Schule kennst.

Ortsvektoren können addiert werden: Ist y ein zweiter Ortsvektor, so ist der Summenvektor x C y gleich dem Diagonalpfeil in dem durch die beiden Vektoren aufgespannten Parallelogramm und ergibt einen weiteren Ortsvektor, siehe Abb. 1.1. Diese Addition ist offenbar kommutativ, d. h., es gilt x C y D y C x:

(1.1)

Durch einfache geometrische Überlegungen lässt sich darüber hinaus sehen, dass die Addition dem Assoziativgesetz genügt, d. h., dass mit einem dritten Ortsvektor z gilt .x C y/ C z D x C .y C z/ D x C y C z:

(1.2)

Lesehilfe

Aufgrund des Assoziativgesetzes sind bei Vektorsummen keine Klammern notwendig. Geometrisch kann eine Summe x C y C z C : : : leicht ausgeführt werden, indem die Vektorpfeile aneinandergehängt werden.

Das neutrale Element der Addition ist der Nullvektor 0, also der zu einem Punkt entartete Ortsvektor des Anfangspunkts O selbst, mit der Eigenschaft x C 0 D x:

(1.3)

In alten Büchern werden Vektoren oft mit Frakturbuchstaben bezeichnet, also etwa x, y, z anstelle von x, y, z. 1

1.1 Ortsvektoren

3

Abb. 1.1 Der Ortsvektor x eines Punkts X bezüglich des Anfangspunkts O entspricht dem Pfeil von O nach X. Die Addition zweier Vektoren x und y erfolgt nach der Parallelogrammregel: Die beiden Vektoren spannen ein Parallelogramm auf und der Summenvektor entspricht dem im Anfangspunkt O beginnenden diagonalen Pfeil in diesem Parallelogramm. Die Addition kann auch erfolgen, indem die Vektorpfeile von x und y aneinandergehängt werden

Das inverse Element zum Ortsvektor x ist der zu x entgegengesetzt orientierte Pfeil x. Es ist also x C .x/ D 0:

(1.4)

Die obenstehenden Eigenschaften lassen sich wie folgt zusammenfassen: Satz 1.1 Die Ortsvektoren bilden bezüglich der Addition eine kommutative Gruppe. Ortsvektoren können darüber hinaus mit einer Zahl a multipliziert werden: ax ist der Vektor mit der jaj-fachen Länge von x, wobei seine Orientierung für a > 0 mit der von x übereinstimmt und ihr für a < 0 entgegengesetzt ist. Für diese Multiplikation gilt (b sei eine weitere Zahl): .ab/x D a.bx/ a.x C y/ D ax C ay .a C b/x D ax C bx:

(1.5)

Die Rechenregeln für die Zahlen, die man zur Unterscheidung von den Vektoren als Skalare bezeichnet, ergeben sich aus den Eigenschaften ihres Zahlenkörpers. Bei den Ortsvektoren haben wir es mit den reellen Zahlen und dem Körper R zu tun.

4

1

Vektorräume

1.2 Definition des Vektorraums Die obigen Eigenschaften von Ortsvektoren erweitern wir nun zum allgemeinen Begriff eines Vektorraums: Definition 1.1 Ein Vektorraum besteht aus einer additiv geschriebenen kommutativen Gruppe V , deren Elemente Vektoren genannt werden, einem kommutativen Skalarenkörper K und einer Multiplikation, die jedem a 2 K und x 2 V eindeutig einen Vektor ax 2 V zuordnet und für die gilt (a; b 2 K; x; y 2 V ): .1/ .ab/x D a.bx/ .2/ a.x C y/ D ax C ay .a C b/x D ax C bx .3/ 1x D x:

(Assoziativität) (Distributivität)

In der Gruppeneigenschaft ist insbesondere die Abgeschlossenheit enthalten, d. h., dass die Summe zweier Vektoren aus V wieder einen Vektor in V ergibt. Bei dem Skalarenkörper K handelt es sich in der Regel um den Körper R und wir sprechen dann von reellen Vektorräumen. Da in Anwendungen manchmal auch die komplexen Zahlen C von Interesse sind, verwenden wir für den Skalarenkörper die allgemeine Bezeichnung K.

Lesehilfe

In diesem Buch bleiben wir durchgehend bei reellen Zahlen, lass dich daher von dem K nicht irritieren. Aber Vektorräume funktionieren eben auch mit anderen Skalarenkörpern.

Bei den Vektoren kann es sich um unterschiedliche Objekte handeln: Natürlich sind die Ortsvektoren Vektoren, aber auch Funktionen können Vektoren sein, Zahlen, Zahlentupel usw. Die Frage „Was ist ein Vektor?“ ist abstrakt zu beantworten mit: „Ein Vektor ist ein Element eines Vektorraums.“ Für Vektoren müssen daher eine Addition und eine Multiplikation mit einem Skalar definiert sein. Diese charakteristischen Operationen eines Vektorraums, also die  Vektoraddition und die  Multiplikation der Vektoren mit Skalaren werden als die linearen Operationen bezeichnet und ein Vektorraum wird auch linearer Raum genannt. Satz 1.2 Für beliebige Vektoren x und Skalare c gilt 0x D 0 und c0 D 0. Aus cx D 0 folgt c D 0 oder x D 0. Des Weiteren ist .1/x D x.

1.2 Definition des Vektorraums

5

Beweis Aus der Distributivität folgt 0x C 0x D .0 C 0/x D 0x c0 C c0 D c.0 C 0/ D c0

) )

0x D 0 c0 D 0:

Es sei nun cx D 0 und c ¤ 0. Aus 1x D x erhält man dann x D 1x D c 1 cx D c 1 0 D 0: Schließlich ist x C .1/x D 1x C .1/x D .1  1/x D 0x D 0 und daher .1/x D x.



Lesehilfe

Die Gleichung .1/x D x sieht „selbstverständlich“ aus. Hier steht, dass die Multiplikation von x mit der Zahl 1 gleich dem inversen Element von x bezüglich der Vektoraddition ist. Man muss das zunächst unterscheiden und der Satz besagt, dass es eben doch gleich ist, sodass ein Minuszeichen vor dem x beides bedeuten kann und eine Unterscheidung nicht notwendig ist. Des Weiteren siehst du im Beweis, dass die vielleicht etwas eigenartige Forderung von 1x D x aus Definition 1.1 notwendig ist. Sie stellt also ein „normales“ Verhalten im Vektorraum sicher.

Beispiele für reelle Vektorräume (1) Die Ortsvektoren in der Ebene oder im Raum bezüglich eines festen Anfangspunkts bilden einen reellen Vektorraum. (2) Die Menge F sei die Menge aller auf einem reellen Intervall Œa; b definierten Funktionen f W Œa; b ! R. Für f; g 2 F definiert man f C g für alle t 2 Œa; b durch .f C g/.t/ WD f .t/ C g.t/

(1.6)

.cf /.t/ WD c.f .t//:

(1.7)

und cf für c 2 R durch

Mit diesen linearen Operationen ist F ein reeller Vektorraum. Der Nullvektor ist die auf Œa; b identisch verschwindende Funktion n, d. h., n.t/ D 0 für alle t 2 Œa; b.

6

1

Vektorräume

Lesehilfe

Funktionenräume spielen in vielen Bereichen der höheren Mathematik eine wichtige Rolle. Auch wenn sie in der linearen Algebra für uns nicht in der ersten Reihe stehen, sehen wir uns daher auch entsprechende Beispiele an. Sofern du mit den Funktionenbegriffen nicht vertraut bist, kannst du diese Beispiele einfach überlesen.

Zwischenfrage (1)

Bilden auch die stetigen Funktionen fc W Œa; b ! R mit den obigen linearen Operationen einen reellen Vektorraum? Und wie sieht es mit den nichtnegativen Funktionen fC W Œa; b ! RC aus?

1.3 Beispiel: n-Tupel Wegen ihrer großen praktischen Bedeutung wollen wir die n-Tupel als weiteres Beispiel für Vektorräume ausführlich besprechen: Ein n-Tupel besteht aus n Zahlen x1 ; : : : ; xn 2 K, n  1. Der aus ihnen bestehende Vektor kann liegend geschrieben ! x1

werden, .x1 ; : : : ; xn /, oder aufrecht,

:: :

. Die Menge der n-Tupel wird mit Kn

xn

bezeichnet. Lesehilfe

Das kleinste Tupel, ein 1-Tupel, ist nur eine Zahl. Zwar lassen sich Zahlen als Vektoren auffassen, man schränkt sie aber damit nur ein.

Lineare Operationen Für x D .x1 ; : : : ; xn /, y D .y1 ; : : : ; yn / und a 2 K setzt man x C y WD .x1 C y1 ; : : : ; xn C yn / (komponentenweise Addition) (1.8) ax WD .ax1 ; : : : ; axn / (komponentenweise Multiplikation): Es ist also z. B. .1; 2; 3/ C .2; 4; 10/ D .1; 6; 7/ und 2.1; 2; 3/ D .2; 4; 6/: Mit diesen linearen Operationen ist Kn ein Vektorraum. Der Nullvektor ist 0 D .0; : : : ; 0/. In den meisten Fällen wird man es mit reellen n-Tupeln, also dem reellen Vektorraum Rn zu tun haben.

1.3 Beispiel: n-Tupel

7

Abb. 1.2 Die Komponenten eines 2-Tupels .x1 ; x2 / werden als Koordinaten eines Punkts in einem Koordinatensystem aufgefasst. Der Vektor .x1 ; x2 / wird durch den Pfeil vom Ursprung zum Punkt .x1 ; x2 / dargestellt. Die Addition mit einem zweiten Vektor .y1 ; y2 / erfolgt wie bei der Parallelogrammregel

Graphische Darstellung von reellen 2- und 3-Tupeln Reelle 2-Tupel können graphisch dargestellt werden, indem man sie als die Koordinaten eines Punkts in einem ebenen Koordinatensystem auffasst. Ein Tupel .x1 ; x2 / wird dann durch den Pfeil vom Ursprung des Koordinatensystems zum Punkt .x1 ; x2 / dargestellt, siehe Abb. 1.2. Analog lassen sich reelle 3-Tupel .x1 ; x2 ; x3 / in einem räumlichen Koordinatensystem darstellen. Die Pfeildarstellungen der Tupel entsprechen somit den Ortsvektoren der Ebene (des Raums), deren Anfangspunkt im Ursprung des Koordinatensystems liegt, und die linearen Operationen (1.8) ergeben dasselbe Ergebnis, wie es sich auch aus der Parallelogrammregel und der Multiplikation eines Ortsvektors mit einem Skalar ergibt, siehe Abb. 1.2.2 Für n-Tupel mit n  4 ist naturgemäß keine graphische Darstellung mehr möglich.

2

Es ist dabei nicht notwendig, ein kartesisches Koordinatensystem zur Darstellung der Tupel zu verwenden. Schiefe Achsen mit unterschiedlichen Maßstäben funktionieren ebenso.

8

1

Vektorräume

Antwort auf Zwischenfrage (1)

Gefragt war, ob die stetigen oder die nichtnegativen Funktionen einen Vektorraum bilden. Die Vektoren eines Vektorraums müssen eine Gruppe bilden: Die Nullfunktion ist stetig (somit gibt es das neutrale Element), die Summe zweier stetiger Funktionen ist wieder stetig (Abgeschlossenheit) usw. Des Weiteren ändert auch die Multiplikation mit einem Skalar nichts an der Stetigkeit. Die stetigen Funktionen bilden einen Vektorraum. Nun zu den nichtnegativen Funktionen: Zwar ist darin auch die Nullfunktion enthalten, aber es gibt bezüglich der Vektorraddition keine inversen Elemente. Auch erhält man bei der Multiplikation einer nichtnegativen Funktion mit einem negativen Skalar nicht wieder eine nichtnegative Funktion. Die nichtnegativen Funktionen bilden somit keinen Vektorraum.

1.4 Unterräume Teilmengen eines Vektorraums können selbst wieder Vektorräume sein: Definition 1.2 Eine Teilmenge U eines Vektorraums V heißt ein Unterraum von V , wenn sie selbst ein Vektorraum ist.

Lesehilfe

Wir erinnern an Schreibweisen für Mengen: U ist eine Teilmenge von V ist gleichbedeutend mit U  V , die leere Menge schreibt man als ; oder auch fg, der Durchschnitt zweier Mengen U1 und U2 ist U1 \ U2 und ihre Vereinigung U1 [ U2 .

In einem Unterraum U werden natürlich dieselben linearen Operationen wie in V verwendet. Um herauszufinden, ob es sich bei einer gegebenen Teilmenge um einen Unterraum handelt, ist nicht notwendig, sämtliche Eigenschaften des Vektorraums zu prüfen: Satz 1.3 Eine nichtleere Teilmenge U eines Vektorraums V ist genau dann ein Unterraum von V , wenn sie gegenüber den linearen Operationen abgeschlossen ist. Beweis „)“ folgt aus der Definition des Unterraums. „(“: Zu zeigen ist, dass das neutrale Element und das inverse Element in U liegen. Wegen U ¤ ; gibt es ein x 2 U . Aus der Abgeschlossenheit folgt dann 0x D 0 2 U und .1/x D x 2 U . 

1.4 Unterräume

9

Bei einem Unterraum dürfen also die linearen Operationen nicht aus der Menge herausführen, d. h., für alle x; y 2 U und a 2 K müssen auch x C y und ax in U liegen. Wir halten darüber hinaus noch einmal fest, dass jeder Unterraum den Nullvektor enthält. Satz 1.4 Der Durchschnitt beliebig vieler Unterräume eines Vektorraums ist selbst wieder ein Unterraum. Beweis Es sei I eine beliebige Indexmenge und Ui , i 2 I , seien Unterräume eines T Vektorraums. Ihr Durchschnitt ist D D fUi j i 2 I g. Aus x; y 2 D folgt x; y 2 Ui für alle i 2 I . Wegen der Abgeschlossenheit der Unterräume gilt dann auch x C y 2 Ui für alle i 2 I und somit x C y 2 D. Analog gilt für a 2 K auch ax 2 D. Des Weiteren ist notwendig 0 2 D und daher D ¤ ;. Nach Satz 1.3 ist D somit ein Unterraum. 

Lesehilfe zum Beweis

Der Durchschnitt U1 \ U2 \ : : : \TUk ist ein Durchschnitt von k Mengen. Man kann ihn auch schreiben als fUi j i 2 f1; : : : ; kgg mit der endlichen Indexmenge f1; : : : ; kg. Im obigen Beweis ist nun eine beliebige Indexmenge erlaubt, d. h., es sind auch Durchschnitte unendlich vieler Mengen Ui eingeschlossen.

Zwischenfrage (2)

Jemand sagt: „Was ein Durchschnitt von Mengen kann, kann ihre Vereinigung erst recht. Daher ist die Vereinigung von Unterräumen natürlich auch wieder ein Unterraum.“ Hat er recht?

Beispiele (1) Der Nullraum, das heißt die Menge f0g, ist ein Unterraum des Vektorraums V . Er ist offenbar der kleinste Unterraum von V . Auch V selbst ist ein Unterraum.

Lesehilfe

Es ist V  V , d. h., V ist eine Teilmenge von sich selbst (allerdings keine echte Teilmenge). Insofern ist V Unterraum von sich selbst. Wenn man also sagt „Für jeden Unterraum von V gilt ...“, so gilt dies auch für V .

(2) Wir betrachten den reellen Vektorraum der Ortsvektoren im Raum bezüglich des Anfangspunkts O. Es sei E eine Ebene, die den Anfangspunkt O enthält. Die Ortsvektoren, die zu den Punkten von E gehören, bilden dann einen Unterraum. Denn

10

1

Vektorräume

Abb. 1.3 Die Ebene E enthalte den Anfangspunkt O. Die Ortsvektoren, die zu den Punkten von E führen, bilden einen Unterraum des Vektorraums der räumlichen Ortsvektoren. Betrachtet man zusätzlich eine zweite Ebene, so erhält man als Durchschnitt der beiden Ebenen eine Gerade G durch den Anfangspunkt O, die ebenfalls ein Unterraum der räumlichen Ortsvektoren ist

wie man sich leicht klarmacht, ist eine solche Ursprungsebene abgeschlossen gegenüber den linearen Operationen. Ebenso verhält es sich mit einer Gerade G durch den Anfangspunkt: Die zu ihren Punkten gehörenden Ortsvektoren bilden ebenfalls einen Unterraum, siehe Abb. 1.3. Die Ebenen und Geraden, die den Anfangspunkt enthalten, und der Nullraum sind die einzigen Unterräume des Raums.

Lesehilfe

Machen wir uns das noch einmal klar: Addiert man zwei Ortsvektoren einer Ebene, so erhält man wieder einen Ortsvektor, der in der Ebene liegt. Ebenso verhält es sich mit dem Vielfachen eines Ortsvektors. Dabei darf die Ebene nicht beschränkt sein, etwa auf einen Kreis um den Ursprung: Dann führte etwa ein geeignetes Vielfaches eines Vektors im Kreis aus dem Kreis heraus. Analog verhält es sich mit einer Gerade.

Der Schnitt zweier Ebenen durch den Anfangspunkt bildet i. Allg. eine Gerade. Sie ist als Durchschnitt zweier Unterräume wieder Unterraum. Der Schnitt dreier

1.4 Unterräume

11

solcher Ebenen ergibt i. Allg. nur den Anfangspunkt, also den Nullraum und damit erneut einen Unterraum. (3) Die Menge aller n-Tupel der Form .0; x2 ; : : : ; xn / mit x2 ; : : : ; xn 2 K bildet einen Unterraum des Kn . Für die n-Tupel der Form .c; x2 ; : : : ; xn / mit c ¤ 0 ist dies jedoch nicht der Fall, weil sie nicht den Nullvektor enthalten. (4) Im Raum F aller Funktionen f W Œa; b ! R bilden die Teilmengen der integrierbaren, der stetigen, der differenzierbaren Funktionen jeweils einen Unterraum. Auch ist die Menge der Polynome ein Unterraum von F . In der angegebenen Reihenfolge sind diese Räume darüber hinaus jeweils Unterräume voneinander.

Antwort auf Zwischenfrage (2)

Gefragt war, ob die Vereinigung von Unterräumen auch wieder Unterraum ist. Nein, das stimmt nicht. Die Abgeschlossenheit ist dann normalerweise nicht mehr gegeben: Addiert man ein Element eines Unterraums zu dem eines anderen Unterraums, erhält man i. Allg. einen Vektor, der in keinem der beiden Unterräume liegt. Betrachten wir ein Beispiel im R3 : Es sei U1 D f.s; 0; 0/ j s 2 Rg und U2 D f.0; u; 0/ j u 2 Rg, beide Mengen sind Unterräume. Die Summe .1; 0; 0/ C .0; 1; 0/ D .1; 1; 0/ liegt aber in keinem der beiden Unteräume und somit auch nicht in der Vereinigung.

Das Wichtigste in Kürze

 Ortsvektoren können auf natürliche Weise addiert und mit einer reellen Zahl multipliziert werden.  Allgemein ist ein Vektor ein Element eines Vektorraums. In ihm sind die linearen Operationen definiert.  Beispielsweise sind n-Tupel Vektoren. 2- und 3-Tupel können auf elementare Weise graphisch dargestellt werden und lassen sich mit den Ortsvektoren der Ebene bzw. des Raums identifizieren.  Eine Teilmenge eines Vektorraums kann ein Unterraum sein. Unterräume besitzen alle Eigenschaften eines Vektorraums und sind insbesondere abgeschlossen gegenüber den linearen Operationen. J Und was bedeuten die Formeln? .x C y/ C z D x C .y C z/ D x C y C z; x C .x/ D 0; .ab/x D a.bx/; a.x C y/ D ax C ay; .a C b/x D ax C bx; Kn D f.x1 ; : : : ; xn / j x1 ; : : : ; xn 2 Kg; x C y D .x1 C y1 ; : : : ; xn C yn /; ax D .ax1 ; : : : ; axn /; \ DD fUi ji 2 I g:

12

1

Vektorräume

Übungsaufgaben A1.1 Wir betrachten den Vektorraum der ebenen Ortsvektoren mit dem Anfangspunkt O, der im Ursprung eines gewöhnlichen Koordinatensystems liege. Der Vektor x sei der Ortsvektor des Punkts mit den Koordinaten .1; 2/, der Vektor y zeige zum Punkt .4; 1/ und z zum Punkt .1; 1/. Konstruiere graphisch die folgenden Vektoren: x C y C z, x, y  x, 2z  12 y. A1.2 Im reellen Vektorraum R4 mit der üblichen komponentenweisen Addition und Multiplikation mit einem Skalar seien die Vektoren x D .1; 0; 2; 3/, y D .5; 1; 2; 5/, z D .0; 0; 7; 7/ gegeben. Berechne die folgenden Vektoren: x C y C z, x, x  y, 3x, 2x  32 z. A1.3 Handelt es sich bei den Mengen U1 WD f.0; s 2 / j s 2 Rg U2 WD f.0; s 3 / j s 2 Rg U3 WD f.s; s 3 / j s 2 Rg jeweils um einen Unterraum des reellen Vektorraums R2 ? Warum (nicht)? A1.4 Sind die folgenden Aussagen richtig oder falsch? Begründe jeweils deine Antwort. (I) Der Vektorraum R2 besitzt unendlich viele verschiedene Unterräume. (II) Der Vektorraum R3 besitzt unendlich viele verschiedene Unterräume. (III) Der Durchschnitt zweier verschiedener echter Unterräume des R2 ist der Nullraum. (IV) Der Durchschnitt zweier verschiedener echter Unterräume des R3 ist der Nullraum.

2

Basis und Koordinaten

Man kann die Gesamtheit aller Vektoren eines Vektorraums erhalten, indem man sie auf bestimmte „Basisvektoren“ zurückführt. Eine Basis, also eine vollständige Menge von Basisvektoren, erlaubt es, jeden Vektor auf eindeutige Weise als Linearkombination zu erhalten. Ein Vektor kann daher mit den Koeffizienten seiner Linearkombination, seinen Koordinaten, identifiziert werden und das Rechnen mit Vektoren kann in endlichdimensionalen Vektorräumen letztlich das (einfache) Rechnen mit n-Tupeln zurückgeführt werden.

Wozu dieses Kapitel im Einzelnen

 Vektoren lassen sich linear kombinieren und erzeugen damit einen ganzen Raum von Vektoren. Linearkombinationen sind für die lineare Algebra von großer Bedeutung.  Mengen von Vektoren können linear unabhängig sein. Der Begriff der linearen Unabhängigkeit ist grundlegend für eine Basis und wir müssen ihn uns genau ansehen.  Ein Vektorraum kann zwar unterschiedliche Basen besitzen, aber seine Basen enthalten alle dieselbe Anzahl von Vektoren. Diese Anzahl nennt man die Dimension des Vektorraums. Wir werden sehen, dass sie dem geometrischen Begriff von „zwei-“ oder „dreidimensional“ entspricht, es aber ohne Weiteres auch höhere Dimensionen gibt.  Koordinaten verbindet man gewöhnlich mit Koordinatensystemen. Wir werden erkennen, dass ein Koordinatensystem letztlich einer Basis entspricht.

© Der/die Autor(en), exklusiv lizenziert an Springer-Verlag GmbH, DE, ein Teil von Springer Nature 2023 J. Balla, Lineare Algebra, https://doi.org/10.1007/978-3-662-67667-7_2

13

14

2 Basis und Koordinaten

2.1 Erzeugnis und Linearkombinationen Wir bilden zunächst den allgemeinen Begriff des Erzeugnisses einer Menge: Zu einer Teilmenge M des Vektorraums V betrachten wir sämtliche Unterräume U von V , in denen M vollständig enthalten ist. Der Durchschnitt dieser Unterräume ist nach Satz 1.4 selbst wieder Unterraum von V , und zwar der kleinste Unterraum von V , der die Menge M enthält, und man setzt Definition 2.1 Die Menge M sei eine Teilmenge des Vektorraums V . Dann nennt man \ hM i WD fU j M  U; U ist Unterraum von V g das Erzeugnis der Menge M .

Lesehilfe

Der Begriff des Erzeugnisses, so wie er hier definiert wird, ist sicherlich etwas abstrakt. Wir werden aber gleich sehen, dass er sich letztlich auf Linearkombinationen von Vektoren zurückführen lässt und damit leicht zu fassen ist :-)

Der Unterraum hM i wird in diesem Sinn von der Menge M erzeugt oder aufgespannt. Sofern die Menge M selbst bereits ein Unterraum ist, gilt hM i D M . Außerdem ist offenbar h;i D f0g D h0i.

Zwischenfrage (1)

Warum ist „offenbar“ h;i D f0g D h0i?

Auch in einem anderen Sinn kann eine nichtleere Menge von Vektoren andere Vektoren „erzeugen“, nämlich indem man die Linearkombinationen ihrer Vektoren betrachtet: Definition 2.2 Es seien v1 ; : : : ; vk endlich viele Vektoren eines Vektorraums V und c1 ; : : : ; ck beliebige Skalare. Ein Vektor der Form c1 v1 C : : : C ck vk wird dann eine Linearkombination der Vektoren v1 ; : : : ; vk genannt. Ein Vektor heißt Linearkombination der Menge M , wenn er eine Linearkombination endlich vieler Vektoren aus M ist. Auch bei unendlichen Mengen wird eine Linearkombination also stets aus nur endlich vielen Vektoren gebildet.

2.1 Erzeugnis und Linearkombinationen

15

Lesehilfe

Eine Linearkombination aus unendlich vielen Vektoren wäre eine unendliche Summe mit all ihren Problemen. Man müsste sich beispielsweise nach ihrer Konvergenz fragen. Linearkombinationen sind aber nur endliche Summen und können ganz ohne solche Schwierigkeiten verwendet werden.

Zwischen dem Erzeugnis einer Menge und ihren Linearkombinationen besteht nun der folgende Zusammenhang: Satz 2.1 Der von einer nichtleeren Teilmenge M eines Vektorraums aufgespannte Unterraum hM i besteht genau aus allen Linearkombinationen von M . Beweis Addiert man zwei Linearkombinationen von M oder multipliziert sie mit einem Skalar, so erhält man offenbar wieder eine Linearkombination von M . Wegen Satz 1.3 ist daher die Menge LM aller Linearkombinationen von M ein Unterraum von V. Jeder Vektor v 2 M ist wegen v D 1v auch Linearkombination von M . Daher gilt M  LM . Da hM i der kleinste Unterraum ist, der M enthält, folgt hM i  LM . Andererseits muss hM i als Unterraum mit je endlich vielen Vektoren aus M auch jede ihrer Linearkombinationen enthalten, d. h., es gilt umgekehrt LM  hM i. Zusammen ergibt dies hM i D LM .  Wollen wir also das Erzeugnis einer nichtleeren Menge angeben, so müssen wir dazu nur die Menge aller Linearkombinationen bilden.

Antwort auf Zwischenfrage (1)

Gefragt war nach h;i D f0g D h0i. Das Erzeugnis h;i ist nach Definition der Durchschnitt aller Unterräume, die die leere Menge enthalten, also aller Unterräume (denn die leere Menge ist trivialerweise Teil jeder Menge). Jeder Unterraum muss die 0 enthalten und der kleinste Unterraum ist der Nullraum f0g; dies ist somit auch der Durchschnitt aller Unterräume und haben wir h;i D f0g. Das zweite Gleichheitszeichen gilt ebenso.

Beispiele (1) Im Vektorraum der reellen 3-Tupel besitzt die Menge (0 3 1 0 1 1) M D @2A; @ 0 A 1 1

16

2 Basis und Koordinaten

das Erzeugnis 0 1 0 1 ˇ ) 3 1 ˇ 3ˇ hM i D x 2 R ˇ x D s @2A C u@ 0 AI s; u 2 R : ˇ 1 1 (

Dieses Erzeugnis hM i ist die durch die beiden Vektoren aufgespannte Ebene. 0 1 1 Wir prüfen, ob der Vektor x 1 D @ 2 A in hM i enthalten ist: Die Vektorgleichung 3 0 1 1 0 1 1 3 1 s @2A C u@ 0 A D x 1 D @ 2 A 3 1 1 0

entspricht dem folgenden linearen Gleichungssystem für die Variablen s und u: 3s C u D 1 2s

D 2:

s  u D 3 Ist es lösbar, so gilt x 1 2 hM i. Aus der zweiten Gleichung folgt s D 1. Dies eingesetzt in die dritte Gleichung ergibt u D 2. Setzt man nun dieses s und u in die erste Gleichung ein, so ergibt sich eine wahre Aussage. Also gilt x 1 2 hM i. Lesehilfe

Hier ist wichtig, dass alle drei Gleichungen erfüllt sein müssen. Zwar lassen sich ein s und u finden, sodass die zweite und dritte Gleichung erfüllt sind. Aber nur dann, wenn sie auch die erste Gleichung erfüllen, haben wir eine Lösung des Gleichungssystems vor uns. 0

1 a Wie man aus dem obigen Beispiel ersieht, ist andererseits jeder Vektor x a D @ 2 A mit a ¤ 1 nicht in hM i enthalten. 3 (2) Wir betrachten die Menge der Sinusfunktionen sink W x 7! sin.kx/, M D fsink j k 2 N  g:

(2.1)

Diese Menge ist unendlich, d. h., sie besitzt unendlich Pviele Elemente. Ihre Linearkombinationen werden gegeben durch die Summen nkD1 ck sink mit beliebigem n 2 N  . Zwar kann n jeden beliebigen Wert annehmen, aber man hat es immer mit endlichen Summen zu tun. Natürlich dürfen die ck (einzelne oder alle) dabei auch den Wert 0 haben.

2.2 Lineare Unabhängigkeit

17

2.2 Lineare Unabhängigkeit Es seien v1 ; : : : ; vk Vektoren eines Vektorraums V . Diese Vektoren spannen einen Unterraum U auf, der aus den Linearkombinationen c1 v1 C : : : C ck vk

mit c1 ; : : : ; ck 2 K

besteht. Auch der Nullvektor lässt sich als notwendiges Element jedes Unterraums aus einer solchen Linearkombination erhalten: Für ihn gibt es mindestens die triviale Darstellung 0 D 0 v 1 C : : : C 0 vk ; in der sämtliche Koeffizienten gleich 0 sind. Daneben können aber auch nichttriviale Darstellungen 0 D c1 v1 C : : : C ck vk

mit ci ¤ 0 für mindestens ein i

existieren. Man verwendet in diesem Zusammenhang die folgende Definition 2.3 Endlich viele Vektoren v1 ; : : : ; vk eines Vektorraums heißen linear unabhängig, wenn sie den Nullvektor nur über die triviale Darstellung erzeugen, wenn also aus c1 v1 C : : : C ck vk D 0 folgt c1 D : : : D ck D 0. Andernfalls heißen die Vektoren v1 ; : : : ; vk linear abhängig. Eine Teilmenge M eines Vektorraums heißt linear unabhängig, wenn je endlich viele verschiedene Vektoren aus M linear unabhängig sind. Andernfalls heißt die Menge linear abhängig. Der zweite Teil der Definition erweitert den Begriff auf unendliche Mengen. Eine Menge linear unabhängiger Vektoren kann offenbar nicht den Nullvektor enthalten, denn es ergäbe sich etwa für v1 D 0 sofort die nichttriviale Darstellung 0 D 1 v1 C 0 v2 C : : : C 0 vk . Lesehilfe

Wir werden sehen, dass die lineare Unabhängigkeit ein zentraler Begriff ist, auch und insbesondere im Zusammenhang mit Basen von Vektorräumen. Ihre Definition enthält die „Rechenvorschrift“ zur Prüfung der linearen Unabhängigkeit: Die homogene Gleichung c1 v1 C : : : C ck vk D 0, bei n-Tupeln gleichbedeutend mit einem homogenen Gleichungssystem von n linearen Gleichungen, muss eindeutig lösbar sein. Die Frage lautet also nicht, ob die Gleichung lösbar ist (das ist sie mit der trivialen Lösung immer), sondern ob die triviale Lösung die einzige ist.

Schließlich geben wir noch einen Satz an, der für die Prüfung der linearen Unabhängigkeit einer Menge nützlich sein kann:

18

2 Basis und Koordinaten

Satz 2.2 Eine aus mindestens zwei Vektoren bestehende Teilmenge M eines Vektorraums ist genau dann linear abhängig, wenn sich mindestens ein Vektor v 2 M als Linearkombination anderer Vektoren v1 ; : : : ; vk 2 M darstellen lässt. Beweis „)“: M sei linear abhängig. Dann gibt es Vektoren v1 ; : : : ; vk 2 M , die eine nichttriviale Darstellung 0 D c1 v1 C : : : C ck vk mit ci ¤ 0 für mindestens ein i erlauben. Ohne Beschränkung der Allgemeinheit sei c1 ¤ 0. Dann folgt v1 D c11 c2 v2  : : :  c11 ck vk , d. h., v1 kann als Linearkombination von v2 ; : : : ; vk dargestellt werden. „(“: Aus v D c1 v1 C : : : C ck vk mit verschiedenen Vektoren v; v1 ; : : : ; vk 2 M ergibt sich 0 D 1 v  c1 v1  : : :  ck vk , also eine nichttriviale Darstellung des Nullvektors.  Beispiele (1) Die Menge f0g ist linear abhängig, die Menge fvg mit v ¤ 0 ist linear unabhängig. Die Menge fv1 ; v2 g ist linear unabhängig, wenn v2 kein Vielfaches von v1 ist. Bei bis zu zwei Vektoren erkennt man daher leicht, ob die Menge linear unabhängig ist. (2) Wir betrachten den Vektorraum R3 der reellen 3-Tupel und wollen prüfen, ob die Vektoren v1 ; v2 ; v3 mit 0

1 1 v 1 D @ 2 A; 1

0

1 1 v2 D @1A; 2

0 1 3 v3 D @0A 7

(2.2)

linear unabhängig sind. Wir müssen also herausfinden, ob sich der Nullvektor nur in trivialer Weise aus diesen Vektoren erzeugen lässt. Das ist der Fall, wenn die Gleichung 0

0 1 0 1 0 1 1 1 1 3 0 @ @ @ A A A @ c1 v1 C c2 v2 C c3 v3 D c1 2 C c2 1 C c3 0 D 0A 1 2 7 0

(2.3)

nur durch c1 D c2 D c3 D 0 gelöst werden kann. Diese Gleichung entspricht einem linearen Gleichungssystem von drei Gleichungen mit den drei Unbekannten c1 , c2 , c3 , c1  c2 C 3c3 D 0 2c1  c2

D0;

c1 C 2c2 C 7c3 D 0

2.2 Lineare Unabhängigkeit

19

das wir abgekürzt schreiben wollen als 1 1 3 2 1 0 1 2 7

0 0: 0

(2.4)

Die vollständige Lösung dieses linearen Gleichungssystems ist zu ermitteln. Wir verwenden dazu das Additionsverfahren, wobei wir nach dem Gauß-Schema1 vorgehen und bei den Koeffizienten ein oberes Dreiecksschema erzeugen. Die einzelnen Rechenschritte, also das Wievielfache einer Gleichung jeweils zu einer anderen Gleichung addiert wird, werden dabei angegeben: 1 1 3 2 1 0 1 2 7

1 1 3 0 .2/ .1/ , 0 1 6 0 # 0 # 0 1 10

1 1 3 0 0 .1/ , 0 1 6 0 # 0 0 16

0 0: 0

Die Lösung kann nun durch Rückwärtseinsetzen abgelesen werden: Aus der letzten Zeile ergibt sich c3 D 0, dies eingesetzt in die vorletzte Zeile ergibt dort c2 D 0 und beides zusammen mit der ersten Zeile schließlich auch c1 D 0. Das Gleichungssystem ist somit nur trivial lösbar und die Vektoren v1 ; v2 ; v3 sind linear unabhängig.

Lesehilfe

Wir haben hier eine Standardrechenaufgabe der linearen Algebra. Die abkürzende Schreibweise für das Gleichungssystem lässt alles Unnötige weg und erleichtert das Aufschreiben und Rechnen; bei Bedarf können die Namen der Unbekannten (hier c1 , c2 , c3 ) über die Spalten geschrieben werden. Bei einem linearen Gleichungssystem wie (2.4) dürfen Zeilen vertauscht werden – was nur einer anderen Reihenfolge der Gleichungen entspricht – und es dürfen Zeilen mit einer Zahl ungleich 0 multipliziert werden. Beim Additionsverfahren werden nun Vielfache von Zeilen (Gleichungen) zu anderen Zeilen (Gleichungen) addiert. Beim Gauß-Verfahren handelt es sich um eine spezielle Durchführung, die auf ein oberes Dreiecksschema abzielt. Dabei ist von oben nach unten vorzugehen: Zunächst ist ggf. durch Vertauschen von Zeilen dafür zu sorgen, dass die erste Zeile an erster Stelle keine 0 aufweist. Anschließend werden durch das Addieren geeigneter Vielfacher der ersten Zeile zu den anderen Zeilen abwärts Nullen in der ersten Spalte erzeugt. Anschließend erzeugt man – ggf. nach Zeilentausch – mit der zweiten Zeile abwärts die Nullen der zweiten Spalte usw.

1

Benannt nach dem deutschen Mathematiker Carl Friedrich Gauß, 1777–1855.

20

2 Basis und Koordinaten

Zwischenfrage (2)

Jemand sagt: „Die Frage, ob die Vektoren v1 ; v2 ; v3 linear unabhängig sind, kann doch aufgrund von Satz 2.2 viel einfacher beantwortet werden, indem man prüft, ob sich v1 als Linearkombination von v2 und v3 darstellen lässt.“ Stimmt das? 0

1 3 Umgekehrt ist die Menge fv1 ; v2 ; wg mit w D @ 0 A nicht linear unabhängig, 9 sondern linear abhängig. Hier ergibt die Lösung des entsprechenden Gleichungssystems 1 1 3 2 1 0 1 2 9

1 1 3 0 .2/ .1/ , 0 1 6 0 # 0 # 0 1 6

1 1 3 0 0 .1/ , 0 1 6 0 # 0 0 0

0 0: 0

Es entsteht hier kein vollständiges oberes Dreiecksschema in den Koeffizienten des Gleichungssystems, sondern eine Nullzeile, die keine Aussage mehr enthält. Das Gleichungssystem ist daher nicht eindeutig lösbar, sondern mehrdeutig. Also sind die Vektoren v1 ; v2 ; w linear abhängig.

Lesehilfe

Ein mehrdeutig lösbares Gleichungssystem besitzt eine Lösungsmenge. Sie kann hier beispielsweise angegeben werden, indem man die zweite Zeile nach c2 auflöst und das Ergebnis in die erste Zeile einsetzt, die nach c1 aufgelöst wird: L D f.c1 ; c2 ; c3 / j c2 D 6c3 ^ c1 D 3c3 ; c3 2 Rg: Der Parameter c3 2 R kann beliebig vorgegeben werden und es gibt damit neben der trivialen Lösung unendlich viele weitere Lösungen.

(3) Anhand von Satz 2.2 und mit Hilfe der geometrischen Anschauung macht man sich klar:  Zwei Ortsvektoren, deren Endpunkte nicht auf derselben Gerade durch den Anfangspunkt liegen, sind linear unabhängig.  Drei Ortsvektoren der Ebene sind linear abhängig.  Drei Ortsvektoren des Raums sind linear unabhängig dann, wenn ihre Endpunkte nicht in einer Ebene durch den Anfangspunkt liegen.  Vier Ortsvektoren des Raums sind linear abhängig.

2.3 Basis

21

(4) Die Menge (2.1) derP Sinusfunktionen sink , k 2 N  , ist linear unabhängig, da eine Linearkombination nkD1 ck sink nur die Nullfunktion ergibt, wenn sämtliche ck D 0 sind.

Antwort auf Zwischenfrage (2)

Gefragt war, ob die Vektoren v1 ; v2 ; v3 linear unabhängig sind, wenn sich v1 nicht als Linearkombination von v2 und v3 darstellen lässt. Die Aussage von Satz 2.2 lautet, dass sich in einer linear unabhängigen Menge kein Vektor durch die anderen darstellen lässt. Also v1 nicht durch v2 und v3 , v2 nicht durch v1 und v3 und v3 nicht durch v1 und v2 . Im Prinzip hätte man also zunächst drei Rechenaufgaben und nicht nur eine. Tatsächlich sind die Verhältnisse für drei 3-Tupel v1 ; v2 ; v3 aber einfacher zu überblicken: Man prüft durch Hinsehen, dass kein Vektor ein Vielfaches eines anderen ist, es sind also keine Vektoren kolinear. Die drei Vektoren liegen somit genau dann in einer Ebene und sind linear abhängig, wenn sich einer durch die anderen beiden darstellen lässt. Mit dieser Vorüberlegung reicht es dann tatsächlich aus, zu prüfen, ob sich v1 als Linearkombination von v2 und v3 erhalten lässt. Die Beantwortung der Frage, ob die Gleichung v1 D a2 v2 C a3 v3 lösbar ist, verursacht aber letztlich nicht weniger Rechenaufwand als die Lösung von (2.3).

2.3 Basis Wir kommen nun zu dem für Vektorräume und deren Anwendungen grundlegenden Begriff der Basis: Definition 2.4 Eine Teilmenge B eines Vektorraums V heißt eine Basis von V, wenn B linear unabhängig ist und den ganzen Raum V aufspannt, wenn also gilt hBi D V . Jede linear unabhängige Menge kann Ausgangspunkt einer Basis sein: Satz 2.3 Es sei M eine linear unabhängige Teilmenge des Vektorraums V . Dann gibt es eine Basis von V , die M enthält. Der Beweis erfordert transfinite Methoden der Mengenlehre wie das Zornsche Lemma. Wir führen ihn nicht aus. ı Mit M D ; folgt aus Satz 2.3, dass jeder Vektorraum eine Basis besitzt.

22

2 Basis und Koordinaten

Lesehilfe

In Räumen wie dem Rn ist es keine Frage, ob es eine Basis gibt: Wir werden sehen, dass sich hier leicht explizit Basen angeben lassen. Aber es gibt Vektorräume, bei denen das nicht offensichtlich ist, man denke etwa an den Vektorraum aller Funktionen f W Œa; b ! R. Die Fülle dieser Funktionen ist gänzlich unüberschaubar und doch gibt es eine Basis, mit der sich jede Funktion als endliche Linearkombination erzeugen lässt.

Im folgenden Satz sind wichtige Eigenschaften einer Basis zusammengefasst. Der große theoretische und praktische Nutzen einer Basis ergibt sich insbesondere aus Eigenschaft (2): Satz 2.4 Für Teilmengen B des Vektorraums V , der nicht der Nullraum ist, sind folgende Aussagen gleichwertig: (1) B ist eine Basis von V . (2) Jeder Vektor x 2 V kann auf genau eine Weise als Linearkombination von B dargestellt werden, d. h., aus x D x1 b1 C : : : C xn bn und x D x10 b1 C : : : C xn0 bn mit verschiedenen Vektoren b1 ; : : : ; bn 2 B folgt xk D xk0 für k D 1; : : : ; n. (3) B ist die minimale Menge, die V erzeugt, d. h., es gilt hBi D V , aber für jede echte Teilmenge C  B ist hC i ¤ V . (4) B ist eine maximale linear unabhängige Teilmenge von V , d. h., wird ein beliebiger Vektor hinzugefügt, so entsteht eine linear abhängige Menge.

Lesehilfe zum Satz

Der Nullraum ist ein Sonderfall: Die Basis des Nullraums ist die leere Menge, denn sie erzeugt den Nullraum und sie ist linear unabhängig (was sich als Sonderfall aus Definition 2.3 entnehmen lässt). Aber der Nullraum passt damit nicht zu den obigen Aussagen.

Beweis Der Beweis folgt dem Schema (1))(2))(3))(4))(1). (1))(2): Wegen hBi D V kann jeder Vektor x 2 V auf mindestens eine Weise als Linearkombination von B dargestellt werden. Es seien nun x D x1 b1 C : : : C xn bn

und x D x10 b1 C : : : C xn0 bn

zwei solche Darstellungen. Dann folgt .x1  x10 /b1 C : : : C .xn  xn0 /bn D 0: Nun ist B linear unabhängig, so dass sich xk  xk0 D 0 und damit xk D xk0 für k D 1; : : : ; n ergibt.

2.3 Basis

23

(2))(3): Aus (2) folgt insbesondere, dass B den Raum V erzeugt, also hBi D V . Nun sei C eine echte Teilmenge von B und es werde hC i D V angenommen. Wegen V ¤ f0g gilt C ¤ ;. Da C echte Teilmenge von B ist, gibt es einen Vektor x 2 B mit x 62 C . Wegen x 2 hC i gibt es eine Darstellung x D x1 b1 C : : :C xn bn mit Vektoren b1 ; : : : ; bn 2 C . Andererseits gilt aber auch x D 1 x. Dies sind im Widerspruch zu (2) aber zwei verschiedene Darstellungen von x als Linearkombination von B. (3))(4): Wegen hBi D V ¤ f0g ist B nicht leer. Fall 1: B enthält nur einen Vektor, B D fbg. Es folgt b ¤ 0 und damit die lineare Unabhängigkeit von B. Fügt man hier einen weiteren Vektor aus V D hBi hinzu, so kann dies nur ein Vielfaches von b sein und die Menge würde linear abhängig. Fall 2: B enthält mindestens 2 Vektoren. Wäre B linear abhängig, so gäbe es nach Satz 2.2 einen Vektor x 2 B, der als Linearkombination von weiteren Vektoren aus B darstellbar wäre. Die aus B durch Herausnahme von x entstehende Menge C wäre dann eine echte Teilmenge von B, es würde x 2 hC i und daher auch B  hC i und weiter V D hBi  hC i, also V D hC i gelten. Dies widerspricht aber der Minimalitätsbedingung aus (3). Daher ist B in jedem Fall linear unabhängig. Weil andererseits jeder nicht in B liegende Vektor aus V eine Linearkombination von B ist, kann erneut wegen Satz 2.2 keine echte Obermenge von B linear unabhängig sein. (4))(1): Da B linear unabhängig ist, gibt es nach Satz 2.3 eine Basis B  von V mit B  B  . Da B  als Basis ebenfalls linear unabhängig ist, muss wegen der Maximalität von B sogar B D B  gelten. Also ist B eine Basis von V .  Wir wollen den Inhalt des Satzes 2.4 noch einmal mit anderen Worten wiedergeben:  Die Darstellung eines Vektors als Linearkombination von Vektoren einer Basis ist eindeutig. Ein Vektor kann daher mit den Koeffizienten seiner Linearkombination identifiziert werden. Wir werden sehen, dass dies auf den Begriff der Koordinaten des Vektors führt.  Aus einer Basis kann kein Vektor entfernt werden, ohne dass damit ihre Eigenschaft, den gesamten Vektorraum zu erzeugen, verloren ginge. Es sind also sämtliche Vektoren auch tatsächlich „notwendig“.  Eine Basis kann nicht um einen Vektor erweitert werden, ohne dass damit ihre Eigenschaft der linearen Unabhängigkeit verloren ginge. Beispiele (1) Im reellen Vektorraum der ebenen Ortsvektoren bilden je zwei Ortsvektoren, deren Endpunkte nicht mit dem Anfangspunkt auf derselben Gerade liegen, eine Basis. Zwei solche Vektoren spannen die gesamte Ebene auf und sind linear unabhängig. Im Raum bilden je drei Ortsvektoren, deren Endpunkte nicht mit dem Anfangspunkt in einer Ebene liegen, eine Basis. Siehe Abb. 2.1.

24

2 Basis und Koordinaten

Abb. 2.1 Zwei räumliche Ortsvektoren, die nicht kolinear sind, spannen eine Ebene auf. Sie sind eine Basis dieses Unterraums. Zusammen mit einem dritten Vektor, der nicht in dieser Ebene liegt, wird der gesamte Raum aufgespannt. Solche drei Vektoren bilden somit eine Basis des Vektorraums der räumlichen Ortsvektoren

(2) Im Vektorraum der n-Tupel bilden die n Vektoren 0 1 0 1 0 1 1 0 0 B C B C B C 0 1 B C B C B0 C B C B C B:C B0C B C 0C e1 D B B : C; e 2 D B : C; : : : ; e n D B :: C B:C B:C B C @:A @:A @0 A 0 0 1

(2.5)

eine Basis. Sie heißt die kanonische Basis des Kn und die Vektoren e 1 ; : : : ; e n werden als die kanonischen Einheitsvektoren bezeichnet. Beispielsweise wird die kanonische Basis des R3 gegeben durch (011 001 001) fe 1 ; e 2 ; e 3 g D @0A; @1A; @0A : 0

0

1

Natürlich ist dies nicht die einzige Basis des R3 . Zum Beispiel bilden die Vektoren 0 1 0 1 0 1 1 0 0 @1A; @2A; @0A 0

0

3

2.4 Dimension

25

ebenso eine Basis, da sie linear unabhängig sind und den gesamten Raum aufspannen. (3) Im Vektorraum F aller Funktionen f W Œa; b ! R bilden die Polynomfunktionen fk D idk , k D 0; 1; 2; : : :, d. h. die Funktionen, für die gilt fk .t/ D t k , eine Basis des Unterraums aller Polynomfunktionen. Sie besitzt unendlich viele Elemente.

2.4 Dimension Wir kommen nun zur Frage nach der Anzahl der Basisvektoren. Wir werden sehen, dass die Basen eines Vektorraums immer dieselbe Anzahl von Vektoren aufweisen. Diese Eigenschaft ergibt sich aus dem Austauschsatz von Steinitz, der manchmal auch als „großer Austauschsatz“ bezeichnet wird. Der „kleine Austauschsatz“ beschreibt zunächst den Austausch eines Basisvektors: Satz 2.5 Es sei fb1 ; : : : ; bn g eine Basis des Vektorraums V und der Vektor v 2 V besitze die Darstellung v D v1 b1 C : : : C vn bn . Gilt dann vk ¤ 0, so ist auch die Menge fb1 ; : : : ; bk1 ; v; bkC1 ; : : : ; bn g eine Basis von V . Man kann also den Vektor bk gegen den Vektor v austauschen und erhält wieder eine Basis. Lesehilfe zum Satz

Beachte, dass hier und im Folgenden von einer Basis fb1 ; : : : ; bn g gesprochen wird. Dabei ist n  1 eine feste Zahl, die Basis besitzt somit endlich viele Vektoren. Beweis Ohne Beschränkung der Allgemeinheit kann k D 1 angenommen werden. Jeder Vektor x 2 V besitzt eine Darstellung x D x1 b1 C : : : C xn bn . Wegen v1 ¤ 0 kann der Basisvektor b1 dargestellt werden als b1 D v11 .v  v2 b2  : : :  vn bn / und es folgt durch Einsetzen dieses Ausdrucks für b1 in die Darstellung von x:     x D v11 x1 v C x2  x1 v11 v2 b2 C : : : C xn  x1 v11 vn bn : Da der Vektor x 2 V beliebig gewählt war, erzeugt die Menge fv; b2 ; : : : ; bn g also den gesamten Raum V . Außerdem ist die Menge linear unabhängig: Aus cv C c2 b2 C : : : C cn bn D 0 folgt durch Einsetzen der Darstellung von v zunächst cv1 b1 C .cv2 C c2 /b2 C : : : C .cvn C cn /bn D 0: Da fb1 ; : : : ; bn g linear unabhängig ist, bedeutet das cv1 D cv2 C c2 D : : : D cvn C cn D 0: Wegen v1 ¤ 0 ergibt dies c D 0 und damit weiter aus den übrigen Gleichungen c2 D : : : D cn D 0. 

26

2 Basis und Koordinaten

Zwischenfrage (3)

Kann in Satz 2.5 auch v D 0 sein? Und: Warum kann im Beweis „ohne Beschränkung der Allgemeinheit“ k D 1 angenommen werden?

Mit anderen Worten könnte man also sagen: Ein Basisvektor kann ersetzt werden, solange sichergestellt ist, dass der neue Vektor „eine Komponente in Richtung des ursprünglichen Basisvektors“ enthält. Die Aussage des großen Austauschsatzes ist weitreichender: Satz 2.6 (Austauschsatz von Steinitz)2 Es sei fb1 ; : : : ; bn g eine Basis des Vektorraums V und die Vektoren v1 ; : : : ; vk 2 V seien linear unabhängig. Dann ist k  n und bei geeigneter Nummerierung der Vektoren b1 ; : : : ; bn ist auch fv1 ; : : : ; vk ; bkC1 ; : : : ; bn g eine Basis von V .

Lesehilfe

Wie du siehst, ist die Aussage von Satz 2.5 mit k D 1 in Satz 2.6 enthalten. Man „braucht“ daher eigentlich nur Satz 2.6, aber sein Beweis verwendet die Aussage von Satz 2.5.

Beweis durch Induktion über k: Der Induktionsbeginn für k D 0 ist trivial. Für den Induktionsschritt betrachten wir k  1 linear unabhängige Vektoren v1 ; : : : ; vk1 . Nach Induktionsvoraussetzung ist dann k  1  n und bei geeigneter Nummerierung ist fv1 ; : : : ; vk1 ; bk ; : : : ; bn g eine Basis von V . Wäre k  1 D n, so wäre bereits fv1 ; : : : ; vk1 g eine Basis von V und vk müsste sich als Linearkombination von v1 ; : : : ; vk1 darstellen lassen. Dies widerspricht der linearen Unabhängigkeit der Vektoren v1 ; : : : ; vk , so dass k  1 < n und damit k  n sein muss. Da fv1 ; : : : ; vk1 ; bk ; : : : ; bn g eine Basis von V ist, gibt es eine Darstellung vk D c1 v1 C : : : C ck1 vk1 C ck bk : : : C cn bn : Würde hierbei ck D : : : D cn D 0 gelten, widerspräche dies wieder der linearen Unabhängigkeit der Vektoren v1 ; : : : ; vk . Bei geeigneter Nummerierung kann daher ck ¤ 0 angenommen werden und nach Satz 2.5 ist auch fv1 ; : : : ; vk ; bkC1 ; : : : ; bn g eine Basis von V . 

2

Benannt nach dem deutschen Mathematiker Ernst Steinitz, 1871–1928.

2.4 Dimension

27

Antwort auf Zwischenfrage (3)

Gefragt war, ob in Satz 2.5 auch v D 0 sein kann und warum im Beweis ohne Beschränkung der Allgemeinheit k D 1 angenommen werden kann. Nach Voraussetzung ist die Menge fb1 ; : : : ; bn g als Basis linear unabhängig. Der Vektor v D 0 besitzt daher nur die triviale Darstellung v1 b1 C : : : C vn bn D 0 mit v1 D : : : D vn D 0 und es gibt somit kein vk ¤ 0. Somit kann v D 0 (natürlich) keinen Basisvektor ersetzen. Die Voraussetzung des Satzes ist, dass in der Linearkombination v D v1 b1 C : : : C vn bn ein Koeffizient vk ¤ 0 ist. In der zugrunde liegenden Basis fb1 ; : : : ; bn g spielt aber die Reihenfolge bzw. die Nummerierung der Vektoren keine Rolle. Wenn daher der Koeffizient vk (des Vektors bk ) mit irgendeinem k zwischen 1 und n ungleich 0 ist, kann man durch Umnummerieren der Basisvektoren ohne Weiteres dafür sorgen, dass dieser Basisvektor als erster in der Basis steht und damit k D 1 wird. Dies ist immer möglich und es stellt somit keine Beschränkung der Allgemeinheit dar, von k D 1 auszugehen.

Aus Satz 2.6 ergibt sich eine wichtige Folgerung: Wenn fb1 ; : : : ; bn g und fb1 ; : : : ; bk g zwei Basen von V sind, dann sind beide Mengen insbesondere linear unabhängig. Daher muss einerseits k  n gelten und andererseits auch n  k, also ist n D k. Wenn daher ein Vektorraum überhaupt eine endliche Basis besitzt, dann enthalten alle seine Basen gleich viele Vektoren und man setzt: Definition 2.5 Wenn ein Vektorraum V eine endliche Basis besitzt, wird die allen Basen von V gemeinsame Anzahl der Basisvektoren die Dimension von V genannt, in Zeichen dim V . Besitzt V keine endliche Basis, so heißt V unendlichdimensional, in Zeichen dim V D 1. Die Dimension des Nullraums wird gleich 0 gesetzt.

Lesehilfe

Die Dimension 0 des Nullraums f0g ist leicht nachzuvollziehen: Seine Basis, die leere Menge, enthält 0 Vektoren.

Die Frage, ob es sich bei einer linear unabhängigen Menge um eine Basis eines endlichdimensionalen Vektorraums handelt, kann nun auf allein auf die Anzahl der Vektoren zurückgeführt werden: Satz 2.7 In einem Vektorraum V mit dim V D n < 1 ist eine linear unabhängige Menge genau dann eine Basis, wenn sie aus n Vektoren besteht.

28

2 Basis und Koordinaten

Beweis Nach Satz 2.3 kann jede linear unabhängige Menge zu einer Basis erweitert werden, die wegen dim V D n aus genau n Vektoren bestehen muss. Wenn die Menge bereits aus n Vektoren besteht, ist sie somit bereits eine Basis.  Lesehilfe

Im Zusammenhang mit der Anzahl von Basisvektoren muss man sich klarmachen, dass unendlichdimensionale Räume diesbezüglich „anders“ sind. Beispielsweise besitzt der Vektorraum der Polynome die Basis t k , k D 0; 1; 2; : : : und ist unendlichdimensional. Aber auch der echte Unterraum der geraden Polynome, der mit k D 0; 2; 4; : : : erzeugt wird, ist ebenso unendlichdimensional, trotzdem ihm ja „die Hälfte“ der Basisvektoren fehlt. Man kann also nicht mehr einfach mit einer Anzahl von Basisvektoren argumentieren. Will man beispielsweise herausfinden, ob eine gegebene Menge eine Basis des Rn ist, so muss man zunächst zählen, ob die Anzahl ihrer Vektoren gleich n ist. Sofern das der Fall ist, ist nur noch die lineare Unabhängigkeit zu prüfen. Eine zusätzliche Prüfung, ob diese Menge dann auch den ganzen Raum erzeugt, ist nicht notwendig. Lesehilfe

Im R2 siehst du sofort, ob zwei Vektoren eine Basis bilden: Sie dürfen nur keine Vielfachen voneinander sein. Im R3 hat man drei 3-Tupel auf lineare Unabhängigkeit zu prüfen: In einfachen Fällen reicht dafür auch Hinsehen (z. B. wenn schon praktisch ein oberes Dreiecksschema vorliegt) und andernfalls führst du den ersten Schritt des Gauß-Schemas durch und siehst dann, ob die beiden unteren Zeilen Vielfache voneinander sind. Beispiele (1) Der Vektorraum der ebenen Ortsvektoren hat die Dimension 2, der Raum der räumlichen Ortsvektoren die Dimension 3. Die mathematische Dimension entspricht damit dem „Alltagsbegriff“: Die Fläche ist zweidimensional und der Raum dreidimensional. (2) Eine Basis des Raums Kn der n-Tupel wird durch die Vektoren e 1 ; : : : ; e n gegeben, siehe (2.5), und besitzt die Dimension n. Insbesondere ist dim R2 D 2 und dim R3 D 3. (3) Die Vektoren (2.2) bilden eine Basis des R3 , da sie linear unabhängig sind. (4) Der Vektorraum der Polynomfunktionen auf dem Intervall Œa; b besitzt die Basis f1; id; id2 ; id3 ; : : :g und ist unendlichdimensional. Der Vektorraum aller Funktionen f W Œa; b ! R ist damit erst recht unendlichdimensional (er enthält die Polynomfunktionen).

2.5 Koordinaten

29

2.5 Koordinaten In der Geometrie wird die Lage eines Punkts durch seine Koordinaten eindeutig festgelegt, wenn klar ist, auf welches Koordinatensystem sie sich beziehen. Ebenso funktionieren die Koordinaten auch im allgemeinen Fall, wobei ihr „Koordinatensystem“ durch die Basis festgelegt wird: Es sei B D fb1 ; : : : ; bn g eine Basis von V . Dann besitzt jeder Vektor x 2 V nach Satz 2.4 eine eindeutige Darstellung x D x1 b1 C : : : C xn bn D

n X

xi bi :

(2.6)

i D1

Die hier auftretenden, durch x und die Basis B eindeutig bestimmten Koeffizienten xi werden die Koordinaten des Vektors x hinsichtlich der Basis B genannt. Dabei ist zu beachten, dass die Nummerierung der Koordinaten die entsprechende Nummerierung der Basisvektoren voraussetzt. Wir wollen daher hier und im Folgenden Basen als nummerierte Basen, also als geordnete Mengen auf fassen und schreiben sie mit kalligraphischen Buchstaben wie B. So ergibt die Vertauschung zweier Basisvektoren eine neue Basis und andere Koordinaten, die sich nun ebenso in ihrer Reihenfolge unterscheiden.

Lesehilfe

Mengen als solche sind nicht nummeriert, d. h., es ist f1; 2; 3g D f2; 1; 3g D f3; 1; 2g usw. Die Reihenfolge, in der die Elemente angegeben werden, spielt keine Rolle. Ebenso ist bei Mengen von Vektoren fb1 ; b2 ; b3 g D fb2 ; b1 ; b3 g D fb3 ; b1 ; b2 g usw. Für die eindeutige Zuordnung von Koordinaten muss aber klar sein, auf welchen Basisvektor sich die jeweilige Koordinate bezieht. Eine geordnete Menge von Vektoren besitzt einen eindeutigen Vektor auf der 1-Position, einen eindeutigen Vektor auf der 2-Position usw.

Betrachten wir zusätzlich einen zweiten Vektor y D y1 b1 C : : : C yn bn D

n X

yi bi

(2.7)

i D1

und einen Skalar c 2 K, so erhält man x C y D .x1 C y1 /b1 C : : : C .xn C yn /bn D

n X

.xi C yi /bi

(2.8)

i D1

cx D .cx1 /b1 C : : : C .cxn /bn D

n X .cxi /bi : i D1

(2.9)

30

2 Basis und Koordinaten

Es werden also Vektoren addiert bzw. mit einem Skalar multipliziert, indem man ihre Koordinaten addiert bzw. mit dem Skalar multipliziert. Die Koordinaten eines Vektors x 2 V hinsichtlich der Basis B können zu dem Koordinaten-n-Tupel .x1 ; : : : ; xn / DW x B zusammengefasst werden. Dieses n-Tupel ist selbst ein Vektor im Kn und man bezeichnet x B als den Koordinatenvektor von x hinsichtlich der Basis B. Die linearen Operationen in V übertragen sich auf die entsprechenden Operationen im Koordinatenvektorraum Kn , siehe (2.8) und (2.9). Daraus folgt insbesondere Satz 2.8 Vektoren v1 ; : : : ; vk 2 V sind genau dann linear unabhängig, wenn ihre (hinsichtlich einer beliebigen Basis von V gebildeten) Koordinatenvektoren als Vektoren aus Kn linear unabhängig sind. Zusammenfassend kann man also statt mit den Vektoren in V einfach mit ihren Koordinatenvektoren im Kn rechnen.

Lesehilfe

Wir sehen hier die grundlegende Bedeutung des Kn für endlichdimensionale Vektorräume: Mit den Eigenschaften des Kn sind die Eigenschaften sämtlicher n-dimensionaler Vektorräume vollständig erfasst. 0 1 2 Beispiele (1) Wir betrachten im reellen Vektorraum der 3-Tupel den Vektor x D @ 1 A: Wir 0 ermitteln zunächst seine Koordinaten hinsichtlich der kanonischen Basis (011 001 001) E D fe 1 ; e 2 ; e 3 g D @0A; @1A; @0A : 0 0 1 Sie ergeben sich als die Koeffizienten x1E ; x2E ; x3E der Linearkombination 0

0 1 0 1 0 1 1 2 1 0 0 @ 1 A D x1E @0A C x2E @1A C x3E @0A; 0 0 0 1 also als die Lösungen des (abgekürzt geschriebenen) Gleichungssystems 1 0 0 0 1 0 0 0 1

2 1 : 0

2.5 Koordinaten

31

Die Lösungen dieses Gleichungssystems lassen sich für die kanonische Basis einfach ablesen: Es ist x1E D 2, x2E D 1, x3E D 0 und der Koordinatenvektor von x hinsichtlich der Basis E lautet x E D .2; 1; 0/:

(2.10)

Wir betrachten nun eine andere Basis (011 021 011) B D fb1 ; b2 ; b3 g D @2A; @1A; @1A : 1 1 2 Die Koordinaten von x hinsichtlich dieser Basis ergeben sich aus dem Gleichungssystem 1 2 1 2 1 1 1 1 2

2 1 ; 0

(2.11)

dessen Lösung wir wie folgt erhalten: 1 2 1 2 1 1 1 1 2

1 2 1 2 .2/ .1/ , 0 3 1 1 # 0 # 0 1 1

1 2 1 2 5 . 13 / , 0 3 1 4 2 # 0 0 3

2 5 1 3

und rückwärts einsetzen ergibt von unten nach oben x3B D 14 , x2B D  74 , x1B D 54 , also   5 7 1 B ; ; : (2.12) x D 4 4 4 Lesehilfe

Bei den n-Tupeln kann man leicht durcheinander kommen. Im obigen Beispiel haben wir es mit dem 3-Tupel x D .2; 1; 0/ zu tun. Hinsichtlich der kanonischen Basis lauten seine Koordinaten 2, 1, 0, sodass der Koordinatenvektor x E ebenso durch .2; 1; 0/ gegeben wird. Hinsichtlich der kanonischen Basis muss man also gar nicht zwischen dem Vektor selbst und seinem Koordinatenvektor unterscheiden. Das ändert sich, wenn eine andere Basis B verwendet wird. Dann muss man für ein 3-Tupel angeben, ob man das ein Vektor sein soll („x“) oder ein Koordinatenvektor („x B “). Ob man die Vektoren stehend oder liegend schreibt, spielt dabei keine Rolle.

Wir halten noch einmal fest: Hinsichtlich unterschiedlicher Basen besitzt ein gegebener Vektor x i. Allg. unterschiedliche Koordinatenvektoren.

32

2 Basis und Koordinaten

(2) Die Komponenten eines 2-Tupels .x; y/ sind gleich seinen Koordinaten hinsichtlich der kanonischen Basis des R2 , ! ! ! x 1 0 Dx Cy : y 0 1 Fasst man die Komponenten der 2-Tupel als Koordinaten eines kartesischen xy-Koordinatensystems auf, so liegen die kanonischen Basisvektoren auf den rechtwinkligen Koordinatenachsen und ihre Länge entspricht dem Maßstab auf den Achsen, siehe Abb. 2.2. Ein Vektor x kann aber auch durch eine andere Basis dargestellt werden. Betrachten wir als Beispiel den Vektor x D .4; 3/ und die Basis  B D fb1 ; b2 g D

! ! 2 1 ; : 1=2 2

Durch eine kurze Rechnung erhält man ! ! ! ! ! !B 10 2 8 1 4 1 0 10=7 xD D4 C3 D : C D 3 0 1 7 1=2 7 2 8=7

(2.13)

Zwischenfrage (4) B Wie lautet die „kurze Rechnung“, die auf die Koordinaten x1;2 führt?

Diese Situation lässt sich graphisch darstellen, indem die Vektoren b1 ; b2 in das xyKoordinatensystem eingetragen werden. Sie legen ihr eigenes Koordinatensystem und fest: In ihm ist b1 D .1; 0/B und b2 D .0; 1/B und die Koordinaten x1B D 10 7 x2B D 87 ergeben den Vektor x. Siehe Abb. 2.2.

Lesehilfe

Für die graphische Darstellung von 2-Tupeln ist man rechtwinklige Koordinatensysteme gewohnt. Aber „schiefe“ Koordinatensysteme wie in Abb. 2.2 funktionieren genauso: Die Koordinatenlinien verlaufen weiterhin parallel zu ihren Achsen, sie stehen nur nicht mehr senkrecht aufeinander und die Einheit 1 hat auf beiden Achsen einen unterschiedlichen Abstand zum Ursprung.

(3) Im Vektorraum der Polynome maximal zweiten Grads mit der Basis B D f1; t; t 2 g steht das 3-Tupel .2; 1; 3/ für das Polynom 2 C t  3t 2 . Die Addition

2.5 Koordinaten

33

Abb. 2.2 Ein 2-Tupel .x; y/ kann in üblicher Weise in einem xy-Koordinatensystem dargestellt werden. Seine Basisvektoren sind die Vektoren .1; 0/ und .0; 1/. Die Darstellung des Vektors hinsichtlich einer anderen Basis B D fb1 ; b2 g D f.2; 1=2/; .1; 2/g erfolgt analog: Ihre Basisvektoren legen die Koordinatenachsen und Maßstäbe fest, auf die sich ihre Koordinaten beziehen. Der Vektor x entspricht in beiden Fällen den entsprechenden Linearkombinationen der Basisvektoren

mit dem Polynom 1  7t C t 2 kann erfolgen, indem die entsprechenden 3-Tupel addiert werden, 0

1 0 1 0 1 2 1 3 @ 1 A C @7A D @6A D 3  6t  2t 2 ; 3 1 2 und ebenso kann mit dem Skalar 5 Multipliziert werden, 0

1 0 1 2 10 5@ 1 A D @ 5 A D 10  5t  15t 2 : 3 15 In der naheliegenden Basis B D f1; t; t 2 g sind diese Operationen offensichtlich, aber ebenso kann auch in jeder anderen Basis gerechnet werden, beispielsweise in der Basis B D f2  t; t C t 2 ; t 2 g. Dass B tatsächlich linear unabhängig ist, lässt sich nach Satz 2.8 anhand der Koordinatentupel ihrer Vektoren hinsichtlich der Basis B

34

2 Basis und Koordinaten

zeigen: Die 3-Tupel 0

1 0 1 0 1 2 0 0 @1A; @1A; @ 0 A 0 1 1 sind linear unabhängig (hier steht ein „unteres Dreiecksschema“). Nun ist 0 1B  1 2 C t  3t 2 D .2  t/ C 2.t C t 2 / C 5.t 2 / D @2A 5 0 1B  1=2 1 15 13 1  7t C t 2 D .2  t/  .t C t 2 /  .t 2 / D @13=2A 2 2 2 15=2 und 0 1B  0 1B  0 1B  1=2 3=2 1 @2A C @13=2A D @9=2A 15=2 5=2 5 3 5 9 D .2  t/  .t C t 2 /  .t 2 / D 3  6t  2t 2 : 2 2 2 Antwort auf Zwischenfrage (4)

Gefragt war nach der Rechnung, die hinter (2.13) steckt. Es sind die Koordinaten des Vektors .4; 3/ hinsichtlich der Basis B zu berechnen, d. h., es ist das Gleichungssystem B

x1

! ! ! 2 4 B 1 C x2 D 1=2 2 3

zu lösen: 2 1 1=2 2

4 .1=4/ 2 1 , 3 # 0 7=4

4 " 2 0 , 2 .4=7/ 0 7=4

20=7 ; 2

also x1B D .20=7/=2 D 10=7 und x2B D 2=.7=4/ D 8=7. (Wir haben hier anstatt des Rückwärtseinsetzens das Gauss-Schema noch einmal nach oben angewandt.)

2.5 Koordinaten

35

Das Wichtigste in Kürze

 Das Erzeugnis einer Menge ist ein Unterraum. Ist die Menge nichtleer, so ist das Erzeugnis identisch mit der Menge aller Linearkombinationen.  Eine Menge von Vektoren heißt linear unabhängig, wenn sich der Nullvektor nur auf triviale Weise als Linearkombination dieser Menge darstellen lässt.  Eine Basis ist linear unabhängig und spannt den gesamten Raum auf. Die Anzahl der Basisvektoren heißt die Dimension des Vektorraums.  Jeder Vektor kann in eindeutiger Weise als Linearkombination einer Basis dargestellt werden. Die Koeffizienten dieser Linearkombination heißen die Koordinaten des Vektors hinsichtlich dieser Basis; sie können zu einem Koordinatenvektor zusammengefasst werden.  Derselbe Vektor besitzt hinsichtlich unterschiedlicher Basen i. Allg. unterschiedliche Koordinatenvektoren. J Und was bedeuten die Formeln? \ hM i WD fU jM  U; U ist Unterraum von V g; c1 v1 C : : : C cn vn D 0;

1 1 3 2 1 0 1 2 7

0 0 0

,

h;i D f0g D h0i; 1 1 3 0 1 6 0 0 16

0 0; 0

x D x1 b1 C : : : C xn bn D x10 b1 C : : : C xn0 bn ) xk D xk0 .k D 1; : : : ; n/; 0 1 0 1 0 1 1 0 0 B C B C B C B0 C B1 C B0C B C B C B:C B0 C B C 0C e1 D B B : C; e 2 D B : C; : : : ; e n D B :: C; B:C B:C B C @:A @:A @0A 0

0

1

v1 ; : : : ; vk linear unabhängig Ý Basis fv1 ; : : : ; vk ; bkC1 ; : : : ; bn g; dim V D n < 1; 1 2 1 2 1 1 1 1 2

2 1 ; 0

dim R3 D 3;  E

.2; 1; 0/ D

5 7 1 ; ; 4 4 4

B :

36

2 Basis und Koordinaten

Übungsaufgaben A2.1 Gib die Lösungen der folgenden Gleichungssysteme an: a)

x C 2y D 1 4x  8y D 4

1 2x

C 7y C

1 2z

c)

e) x

D2

1 4x

 2z D 7 C 2y C z D

x C 23 y C z D 6

1 x 2

C 2y D 0

3x C 4y D 1

4x  8y D 5

y  2z D 2

d)

x C 2y D 1

b)

f) x

 2z D 7

1 4x

C 2y C z D 0 :

29 4

8y C 2z D 22

8y C 2z D 11

A2.2 Liegt der Vektor .1; 0; 0/ 2 R3 im Erzeugnis der Menge (011 001) M D @1A; @1A ‹ 0 1 A2.3 Gegeben seien die zwei linear unabhängigen Vektoren 0

0 1 1 1 0 v1 D @ 3 A und v2 D @1A: 2 2 Ermittle zwei Vektoren v3 ; v4 2 R3 so, dass die Menge M1 D fv1 ; v2 ; v3 g linear unabhängig ist und die Menge M2 D fv1 ; v2 ; v4 g linear abhängig. A2.4 Wir betrachten die folgenden Mengen von Vektoren des R3 : (011 021 011) M 1 D @2 A; @1 A; @1 A 1 1 2 0 1 0 1 0 1) ( 3 4 2 M2 D @ 1 A; @ 1 A; @ 3 A : 5 0

2

4

1 2 Stelle den Vektor x D @ 1 A als Linearkombinationen dieser Mengen dar. Was fällt 0 bei M2 auf? Warum funktioniert es auch hier?

Übungsaufgaben

37

A2.5 Bilden die folgenden Mengen von Vektoren des R5 jeweils eine Basis ihres Vektorraums? 8 0 1 0 1 0 1 0 1 0 1 0 19 ˆ 7 1 1 > 2 0 1 > ˆ ˆ > ˆB2C B0C B0C B 12 C B0C B2C> ˆ = < B C B C B C Bp C B C B C> B C B C B C B C B C B C M1 D B7C; B0C; B1C; B 2C; B0C; B3C ˆ B C B C B C B C B C B C> ˆ > ˆ @0A @3A @1A @ 1 A @0A @4A> > ˆ > ˆ ; : 1 5 4 1 1 0 8 0 1 0 1 0 1 0 19 ˆ 1 2 1 0 > ˆ > ˆ B2C B0C B0C B0C> ˆ > ˆ < B C B C B C B C> = B C B C B C B C M2 D B7C; B0C; B1C; B0C : ˆ B C B C B C B C> ˆ ˆ@0A @3A @1A @0A> > ˆ > ˆ > : ; 1 4 1 1 Kann die Menge M2 durch Hinzunahme weiterer Vektoren zu einer Basis des R5 ergänzt werden? Warum (nicht)? A2.6 Die Koordinaten des Vektors x 2 R3 hinsichtlich der Basis (011 021 011) A D @2A; @1A; @1A 1 1 2 lauten 1; 2; 3. Welches sind seine Koordinaten hinsichtlich der kanonischen Basis E ? Welche Koordinaten besitzt er hinsichtlich der Basis

(011 011 011) B D @0A; @1A; @1A ‹ 0

0

1

A2.7 Sind die folgenden Aussagen richtig oder falsch? Begründe jeweils deine Antwort. (I) Jeder Unterraum eines Vektorraums besitzt eine Basis. (II) Besitzt ein Unterraum eine Basis, so kann diese Basis zu einer Basis des gesamten Raums ergänzt werden. (III) Die Dimension eines echten Unterraums ist immer kleiner als die Dimension des gesamten Vektorraums. (IV) Der R2 ist ein Unterraum des R3 .

3

Lineare Abbildungen

Lineare Abbildungen sind vektorwertige Abbildungen, die mit den linearen Operationen vertauschbar sind. Solche Abbildungen können in endlichdimensionalen Vektorräumen durch Matrizen beschrieben werden und die Eigenschaften der Abbildungen finden sich in den zugeordneten Matrizen wieder. Mit den Abbildungen lernen wir daher die entsprechenden Rechenoperationen für Matrizen kennen. Matrizen sind neben den n-Tupeln die grundlegenden Objekte der linearen Algebra. Neben ihrer Bedeutung im Zusammenhang mit Abbildungen sind sie nützliche Werkzeuge zur Formulierung und Lösung einer Vielzahl von Fragestellungen der linearen Algebra.

Wozu dieses Kapitel im Einzelnen

 Lineare Abbildungen „vertauschen mit den linearen Operationen“. Wir wollen uns ansehen, was das heißt und welche Eigenschaften daraus folgen.  Die Bilder linearer Abbildungen sind Unterräume und besitzen daher eine Dimension. So kommen wir zum Begriff des Rangs einer Abbildung.  In endlichdimensionalen Vektorräumen können lineare Abbildungen durch Matrizen beschrieben werden. Wir werden sehen, inwiefern sich eine Abbildung in einer Matrix wiederfinden lässt und welche Bedeutung sie hat.  Nicht nur Abbildungen, sondern auch Matrizen besitzen einen Rang. Es wird keine Überraschung sein, dass er den Rang der Abbildungen wiedergibt.  Abbildungen kann man addieren und multiplizieren und dasselbe ist daher auch mit Matrizen möglich. Wir werden merken, dass Multiplizieren schwieriger ist.  Bijektive Abbildungen kann man invertieren und Matrizen somit auch. Bei der Inversion von Matrizen verwenden wir das Gauß-Schema, „runter und wieder rauf“. © Der/die Autor(en), exklusiv lizenziert an Springer-Verlag GmbH, DE, ein Teil von Springer Nature 2023 J. Balla, Lineare Algebra, https://doi.org/10.1007/978-3-662-67667-7_3

39

40

3

Lineare Abbildungen

 Natürlich lernen wir eine Reihe von Beispielen kennen, darunter insbesondere Drehungen, denen wir in den kommenden Kapiteln noch oft begegnen werden.

3.1 Begriff der linearen Abbildung Es seien V und W zwei beliebige Vektorräume mit dem gemeinsamen Skalarenkörper K. Definition 3.1 Eine Abbildung f W V ! W heißt eine lineare Abbildung, wenn sie folgende Eigenschaften besitzt: .1/ f .x 1 C x 2 / D f .x 1 / C f .x 2 / für alle x 1 ; x 2 2 V .2/ f .cx/ D cf .x/ für alle c 2 K; x 2 V:

(3.1)

Wie man sieht, ist eine lineare Abbildung mit den linearen Operationen vertauschbar, d. h., es ist egal, ob man zunächst die Vektoren addiert oder mit einem Skalar multipliziert und anschließend die Abbildung ausführt oder ob man es umgekehrt macht. Die Linearitätsbedingungen (3.1) sind äquivalent mit der Bedingung f .c1 x 1 C c2 x 2 / D c1 f .x 1 / C c2 f .x 2 /

für alle c1 ; c2 2 K; x 1 ; x 2 2 V: (3.2)

Lesehilfe

Eine lineare Abbildung ist vektorwertig, d. h., f .x/ ist ein Vektor aus W . Wir schreiben f daher mit einem fettgedruckten Buchstaben. Und natürlich ist x ebenso ein Vektor, allerdings aus V .

Satz 3.1 Für jede lineare Abbildung f gilt f .0/ D 0 und f .x/ D f .x/. Beweis Aus den Linearitätseigenschaften folgt f .0/ D f .00/ D 0f .0/ D 0 und f .x/ D f ..1/x/ D f .x/:



Es ist eine grundlegende Eigenschaft linearer Abbildungen, die 0 immer auf die 0 abzubilden, wobei bei einer Abbildung f W V ! W genauer gesagt die 0 von V auf die 0 von W abgebildet wird.1 1

Diese Eigenschaft unterscheidet die linearen Abbildungen von den affinen Abbildungen, bei denen auch eine Verschiebung des Nullpunkts enthalten sein kann.

3.1 Begriff der linearen Abbildung

41

Von besonderer Bedeutung für eine Vielzahl von Anwendungen sind bijektive Abbildungen. Eine lineare Abbildung f W V ! W , die bijektiv ist, wird ein Isomorphismus von V auf W genannt. Lesehilfe

Auch bei linearen Abbildungen kann man einfach das Wort „bijektiv“ verwenden, aber hier ist es üblich(er), von Isomorphismen zu sprechen. „Isomorph“ kommt aus dem Griechischen und bedeutet sinngemäß „gleiche Form“ oder „gleiche Gestalt“. Wir werden sehen, dass zwei Vektorräume die gleichen grundlegenden Eigenschaften aufweisen, wenn es einen Isomorphismus zwischen ihnen gibt.

Natürlich sind insbesondere auch lineare Abbildungen eines Vektorraums V auf sich selbst möglich. In der obigen Definition ist dann W D V und man spricht von linearen Selbstabbildungen auf V .2 Beispiele (1) Die Identität id W V ! V mit id.x/ D x ist eine lineare Selbstabbildung und ein Isomorphismus. (2) Die Nullabbildung n W V ! V mit n.x/ D 0 für alle x 2 V ist eine lineare Selbstabbildung, aber kein Isomorphismus. (3) Die Abbildung s W V ! V mit s.x/ D cx mit c ¤ 0 aus K, also eine Streckung bzw. Stauchung um den Faktor c, ist eine lineare Selbstabbildung und ein Isomorphismus. Die Abbildung v W V ! V mit v.x/ D x C a (a ¤ 0) ist eine Verschiebung und keine lineare Abbildung (sondern eine affine Abbildung). Lesehilfe

Affine Abbildungen besprechen wir nicht. Sie hängen aber eng mit linearen Abbildungen zusammen und enthalten lediglich noch eine Nullpunktsverschiebung. Wie du im dem obigen Beispiel siehst, sind lineare Funktionen x 7! y D ax C b nur für b D 0 lineare Selbstabbildungen auf R, denn nur sie bilden die 0 auf die 0 ab. Aber natürlich ist der Fall V D W D R in der linearen Algebra nicht von Interesse, denn dafür benötigt man keine Vektoren. (4) Im reellen Funktionenraum F aller Funktionen f W Œa; b ! R sei Fd die Teilmenge der beliebig oft differenzierbaren Funktionen. Ordnet man jeder Funktion 2

Eine lineare Selbstabbildung nennt man auch Endomorphismus und ein bijektiver Endomorphismus ist ein Automorphismus.

42

3

Lineare Abbildungen

f 2 Fd als Bild ihre Ableitung f 0 zu, so wird dadurch eine lineare Selbstabbildung auf Fd definiert. Dies ergibt sich aus der Tatsache, dass die Ableitung einer Funktion linear ist, dass also gilt .af C bg/0 D af 0 C bg 0 für beliebige f; g 2 Fd und a; b 2 R. Die Abbildung ist nicht bijektiv, da zwei Funktionen, die sich nur um eine Konstante unterschieden, dieselbe Ableitung haben. Es liegt also kein Isomorphismus vor. Zwischenfrage (1)

Müssen in dem obigen Beispiel die Funktionen aus Fd tatsächlich beliebig oft differenzierbar sein? Oder reichte nicht auch einmal differenzierbar? Oder zweimal?

3.2 Grundlegende Eigenschaften Eine lineare Abbildung wird durch die Bilder der Basisvektoren vollständig festgelegt: Satz 3.2 Es sei B eine Basis des Vektorraums V . Jedem Vektor b 2 B sei ein Vektor b aus dem zweiten Vektorraum W zugeordnet. Dann gibt es genau eine lineare Abbildung f W V ! W mit f .b/ D b für alle b 2 B. Beweis Jeder Vektor x 2 V besitzt eine eindeutige Basisdarstellung x D x1 b1 C : : : C xn bn mit endlich vielen Vektoren b1 ; : : : ; bn 2 B. Ist nun f W V ! W eine lineare Abbildung mit f .bi / D bi , i D 1; : : : ; n, so folgt wegen der Linearität f .x/ D x1 f .b1 / C : : : C xn f .bn / D x1 b1 C : : : C xn bn :

(3.3)

Der Bildvektor von x ist somit durch die Koeffizienten xi und die Bilder der Basisvektoren eindeutig bestimmt. Umgekehrt wird durch f .x/ WD x1 b1 C : : : C xn bn eine lineare Abbildung f W V ! W definiert, die die behauptete Eigenschaft besitzt.  Wie sich (3.3) entnehmen lässt, legen die Koeffizienten xi der Basisdarstellung eines Vektors x 2 V mit f .x/ D x1 f .b1 / C : : : C xn f .bn / auch das Bild von x eindeutig fest. Betrachten wir nun den Fall eines endlichdimensionalen Vektorraums V mit dim V D n und es sei B D fb1 ; : : : ; bn g eine Basis von V . Gleichung (3.3) besagt dann, dass der Bildraum von f gleich dem Erzeugnis der Menge ff .b1 /; : : : ; f .bn /g ist, f .V / D hff .b1 /; : : : ; f .bn /gi: Der Bildraum f .V / ist daher höchstens n-dimensional.

(3.4)

3.2 Grundlegende Eigenschaften

43

Lesehilfe

Ist das „Argument“ von f eine Menge, so haben wir es wieder mit einer Menge zu tun: f .V / ist die Menge aller Vektoren f .x/ mit x 2 V und damit der Bildraum von f . Das Erzeugnis hff .b1 /; : : : ; f .bn /gi ist nach Satz 2.1 gleich der Menge aller Linearkombinationen x1 f .b1 / C : : : C xn f .bn / mit x1 ; : : : ; xn 2 K.

Sofern die Vektoren f .b1 /; : : : ; f .bn / linear unabhängig sind, nimmt die Dimension des Bildraums von f den maximal möglichen Wert n an. Aber das muss keineswegs so sein, es hängt vielmehr von der Abbildung f ab, wie viele der Vektoren f .b1 /; : : : ; f .bn / linear unabhängig sind. Man setzt: Definition 3.2 Die Dimension des Bildraums f .V / einer linearen Abbildung f W V ! W heißt der Rang der Abbildung f , also rg f WD dim f .V /.

Lesehilfe

Wir werden noch sehen, dass der Rang einer Abbildung bei endlichdimensionalen Vektorräumen leicht über die zugeordnete Matrix berechnet werden kann. In einfachen Fällen ist der Rang aber auch ohne Rechnung klar: Zum Beispiel hat die Nullabbildung den Rang 0 und die Identität id W Rn ! Rn den Rang n.

Isomorphismen sind von besonderer Bedeutung. Sie lassen sich wie folgt charakterisieren: Satz 3.3 Für eine lineare Abbildung f W V ! W mit dim V D n sind folgende Aussagen gleichwertig: (1) Die Abbildung f ist ein Isomorphismus. (2) Wenn die Menge B D fb1 ; : : : ; bn g eine Basis von V ist, bilden die Vektoren f .b1 /; : : : ; f .bn / eine Basis von W . (3) Es ist rg f D n. Beweis (1),(2) Aus dim f .V /  n folgt, dass W bei einer bijektiven Abbildung höchstens die Dimension n haben kann. Die Menge aller Bildvektoren von f ergibt sich aus (3.3). Ein beliebig vorgegebener Vektor x D x1 b1 C : : : C xn bn 2 V wird genau dann eineindeutig auf den Vektor x1 f .b1 /C: : :Cxn f .bn / abgebildet, wenn die Vektoren f .b1 /; : : : ; f .bn / linear unabhängig und somit eine Basis von W sind.

44

3

Lineare Abbildungen

(2),(3) Aufgrund von f .V / D hff .b1 /; : : : ; f .bn /gi ist rg f D n gleichbedeutend damit, dass die Vektoren f .b1 /; : : : ; f .bn / linear unabhängig sind und eine Basis von W bilden. 

Lesehilfe

Oben steht insbesondere, dass ein Isomorphismus aus einem n-dimensionalen Vektorraum stets wieder in einen n-dimensionalen Vektorraum führt. Man könnte auch sagen: Durch einen Isomorphismus kann „keine Dimension verlorengehen oder hinzugefügt werden“.

Wenn es zwischen zwei endlichdimensionalen Vektorräumen V und W einen Isomorphismus gibt, so bezeichnet man die Räume als isomorph. Ist B D fb1 ; : : : ; bn g eine Basis von V und B D fb1 ; : : : ; bn g eine Basis von W , so wird mit f .bi / D bi , i D 1; : : : ; n, ein Isomorphismus definiert, d. h., zwei Vektorräume mit derselben endlichen Dimension sind stets isomorph zueinander. Insbesondere sind alle ndimensionalen Vektorräume isomorph zum Raum Kn der n-Tupel. Es stellt daher keine Einschränkung dar, bei Abbildungen f W V ! W mit dim V D n nur lineare Selbstabbildungen zu betrachten, also W D V anzunehmen. Alles, was endlichdimensionale lineare Abbildungen letztlich „können“, wird auch bei Selbstabbildungen sichtbar.

Lesehilfe

Wir könnten uns sogar auf den Fall V D Kn beschränken. Da dies aber zu keiner Vereinfachung der Notation führt, wollen wir bei Abbildungen f W V ! V bleiben. In den (Rechen-)Beispielen werden wir aber letztlich immer bei V D Rn sein. Ein Isomorphismus ist eine bijektive Abbildung und daher umkehrbar. Auch die Umkehrabbildung oder inverse Abbildung ist eine lineare Abbildung: Satz 3.4 Die Umkehrabbildung f 1 eines Isomorphismus f von V ist selbst wieder ein Isomorphismus von V . Beweis Es müssen lediglich die nachgewiesen werden.  Linearitätseigenschaften  Wegen f 1 .f .x// D x und f f 1 .x/ D x gilt für x 1 ; x 2 2 V   f 1 .x 1 C x 2 / D f 1 f .f 1 .x 1 // C f .f 1 .x 2 //    f linear D f 1 f f 1 .x 1 / C f 1 .x 2 / D f 1 .x 1 / C f 1 .x 2 / und analog für x 2 V und c 2 K  f linear     f 1 .cx/ D f 1 c f .f 1 .x// D f 1 f c f 1 .x/ D c f 1 .x/:



3.2 Grundlegende Eigenschaften

45

Lesehilfe

„Isomorphismus“ bedeutet ja zweierlei: Ein Isomorphismus ist eine bijektive und lineare Abbildung. Dass ein Isomorphismus umkehrbar ist, ist in der Eigenschaft „bijektiv“ enthalten. Dass diese Umkehrabbildung auch wieder linear ist, steht im obigen Beweis.

Antwort auf Zwischenfrage (1)

Gefragt war, ob im Beispiel der Ableitung als linearer Abbildung die Funktionen aus Fd beliebig oft differenzierbar sein müssen. Ja, sie müssen tatsächlich beliebig oft differenzierbar sein. Bei nur einmal differenzierbaren Funktionen wäre deren Ableitung nicht mehr differenzierbar und man hätte daher keine Abbildung des Raums auf sich selbst (weil die Funktionen ihre Eigenschaft der Differenzierbarkeit verloren hätten). Bei zweimal differenzierbaren Funktionen hätte man dasselbe: Die Ableitung wäre keine Selbstabbildung, weil bei den einmal abgeleiteten Funktionen nur noch die einfache Ableitung garantiert wäre.

Beispiele (1) Wir betrachten eine lineare Selbstabbildung f W R2 ! R2 und die kanonische Basis des R2 . Die Bilder der Basisvektoren seien wie folgt vorgegeben: ! !  1 2 f D ; 0 5

! !  0 1 : f D 4 1

(3.5)

Damit ist die Abbildung f eindeutig festgelegt. Da die Bilder der Basisvektoren linear unabhängig sind, spannen sie den gesamten R2 auf und f ist ein Isomorphismus. Das Bild eines beliebigen Vektors x D .x; y/ ist  f

x y

!

! ! ! !   1 0 1 0 Df x Cy Dxf Cyf 0 1 0 1 ! ! ! 2 1 2x C y Dx Cy D : 5 4 5x  4y 

(2) Das Bild einer linearen Abbildung ist ein Unterraum. Für eine lineare Selbstabbildung f W R3 ! R3 sind daher genau folgende Fälle möglich: (0) f ist die Nullabbildung, d. h. f .x/ D 0 für alle x 2 R3 , gleichbedeutend mit rg f D 0. (1) f bildet den Raum auf eine Ursprungsgerade ab, gleichbedeutend mit rg f D 1.

46

3

Lineare Abbildungen

(2) f bildet den Raum auf eine Ursprungsebene ab, gleichbedeutend mit rg f D 2. (3) f bildet den Raum auf den Raum ab, gleichbedeutend mit rg f D 3 und einem Isomorphismus.

3.3 Matrix einer linearen Selbstabbildung Lineare Abbildungen sind durch die Bilder der Basisvektoren festgelegt. Bei Selbstabbildungen auf einem Vektorraum V mit dim V D n hat man es mit n Bildern von Basisvektoren zu tun, die jeweils durch ihre n Koordinaten festgelegt sind. Somit kann eine Abbildung durch n mal n Zahlen beschrieben werden, die man zu einer Matrix anordnet: Die Menge B D fb1 ; : : : ; bn g sei eine Basis von V . Die Bilder der Basisvektoren unter einer linearen Abbildung f W V ! V lassen sich als Linearkombinationen von B darstellen, f .bj / D a1j b1 C : : : C anj bn D

n X

aij bi ;

j D 1; : : : ; n:

(3.6)

i D1

Die lineare Abbildung f wird durch die Koeffizienten aij vollständig beschrieben. Sie lassen sich als die Elemente einer Matrix A mit n Zeilen und n Spalten, also einer n n-Matrix auffassen: 0 1 a11 a12 a1n Ba21 a22 a2n C   B C A D aij 1i n D B : (3.7) :: :: C: :: 1j n @ :: : : : A an1

an2



ann

Lesehilfe

Eine n n-Matrix ist ein Schema, in dem n2 Zahlen systematisch angeordnet werden. Die Matrix A besitzt die einzelnen Elemente aij , wobei der erste Index der Zeilenindex und der zweite Index der Spaltenindex ist. Das Element a23 steht also in der zweiten Zeile an dritter Stelle. In der obigen Bedeutung der Matrix A gibt der Index j an, in welchen der Gleichungen (3.6) man sich befindet, und der Index i zählt dann die Koeffizenten der jeweiligen Linearkombination durch. Die Matrix A beschreibt die Abbildung f W V ! V hinsichtlich der Basis B von V eindeutig: Die Spalten der Matrix A entsprechen den Koordinaten-n-Tupeln der Vektoren f .bj /, j D 1; : : : ; n, hinsichtlich der Basis B. Die Zuordnung der Matrix A zu einer linearen Selbstabbildung hängt somit von der Basis B ab. Hinsichtlich unterschiedlicher Basen sind einer linearen Abbildung f i. Allg. unterschiedliche Matrizen zugeordnet.

3.3 Matrix einer linearen Selbstabbildung

47

Mit Hilfe der zugeordneten Matrix können die Koordinaten eines Bildvektors P f .x/ in einfacher Weise berechnet werden: Mit x D jnD1 xj bj erhält man 0 f .x/ D f @

n X

1 xj bj A

f linear

D

j D1

0 1 n n X X @ aij xj A bi : D i D1



j D1

ƒ‚

n X

xj f .bj / D

j D1

n X

xj

j D1

n X

! aij bi

i D1



yi

Die Koordinaten yi des Bildvektors y D f .x/ hinsichtlich der Basis B werden also gegeben durch yi D

n X

i D 1; : : : ; n:

aij xj ;

(3.8)

j D1

Lesehilfe

In der obigen Herleitung von (3.8) sind die Reihenfolgen der Summationen vertauscht worden, das ist möglich und ändert nichts an der Summe. Es ist also ! n n n X n X n n X X X X xj aij bi D xj aij bi D aij xj bi j D1

i D1

j D1 i D1

D

n X i D1

0 @

n X

1

i D1 j D1

aij xj Abi :

j D1

Zwischenfrage (2)

Wie lauten die Gleichungen (3.8) für n D 3 explizit ausgeschrieben?

Matrix mal Vektor Die n Koordinatengleichungen (3.8) sind etwas unhandlich aufzuschreiben. Aber sie lassen sich zu der einfachen Vektorgleichung y D Ax

(3.9)

zusammenfassen, wenn man verabredet, dass der Vektor x stehend hinter die Matrix geschrieben wird und die Multiplikation so erfolgt, dass der Vektor der Reihe

48

3

Lineare Abbildungen

nach „auf die einzelnen Zeilen der Matrix gelegt wird“ und die Produkte der dann übereinander liegenden Zahlen summiert werden: 0

a11 B :: @ : an1



:: :



10 1 0 1 0 1 a1n x1 a11 x1 C : : : C a1n xn y1 C B :: C :: CB :: C D B :: A D @ : A: : A@ : A @ : ann

xn

an1 x1 C : : : C ann xn

(3.10)

yn

Zusammenfassend können wir nun formulieren: Ist im Vektorraum V mit der Basis B D fb1 ; : : : ; bn g einer linearen Abbildung f W V ! V gemäß der Vorschrift (3.6) die Matrix A zugeordnet, enthält sie also spaltenweise die Bilder der Basisvektoren, 1 " " " A D @f .b1 / f .b2 / f .bn /A; # # # 0

(3.11)

so ergibt sich das Bild eines beliebigen Vektors x 2 V als f .x/ D Ax:

(3.12)

Die Vektoren x, f .x/, f .bj /, j D 1; : : : ; n, sind dabei als Koordinatenvektoren hinsichtlich der Basis B zu verstehen. Bei vorgegebener Basis sind lineare Selbstabbildungen letztlich synonym zu n n-Matrizen: Jede Abbildung wird durch eine Matrix beschrieben und umgekehrt gibt die Menge aller Matrizen sämtliche Abbildungen wieder.

Antwort auf Zwischenfrage (2)

Gefragt war nach den Gleichungen (3.8) für n D 3. Für n D 3 haben wir die drei Gleichungen y1 D a11 x1 C a12 x2 C a13 x3 y2 D a21 x1 C a22 x2 C a23 x3 y3 D a31 x1 C a32 x2 C a33 x3 :

Beispiele (1) Wir kommen noch einmal auf das Beispiel (3.5) zurück: Hinsichtlich der kanonischen Basis ist der Abbildung f W R2 ! R2 mit ! !  1 2 f D ; 0 5

! !  0 1 f D 1 4

3.3 Matrix einer linearen Selbstabbildung

49

die Matrix 2 1 AD 5 4

!

zugeordnet. Das Bild eines Vektors x ist daher ! ! ! !  x 2 1 x 2x C y f .x/ D f D D ; y 5 4 y 5x  4y also alles wie gehabt, nur kürzer. (2) Für die Identität id W V ! V mit dim V D 3 gilt mit jeder beliebigen Basis B D fb1 ; b2 ; b3 g id.bj / D bj ;

j D 1; 2; 3;

d. h. ausführlich id.b1 / D 1 b1 C 0 b2 C 0 b3 id.b2 / D 0 b1 C 1 b2 C 0 b3 id.b3 / D 0 b1 C 0 b2 C 1 b3

  

1. Spalte von A 2. Spalte von A 3. Spalte von A:

Die Matrix der Identität lautet daher 0

1 1 0 0 A D @0 1 0 A: 0 0 1 Analog verhält es sich im einem beliebigen Vektorraum V mit dim V D n: Die Identität eines n-dimensionalen Vektorraums wird hinsichtlich jeder beliebigen Basis durch die n n-Einheitsmatrix 0

1 0 B0 1 B En D B : : @ :: :: 0 0





:: :

1 0 0C C :: C D diag.1; 1; : : : ; 1/ :A



1

(3.13)

beschrieben, die auf der Hauptdiagonale Einsen und ansonsten nur Nullen besitzt. Die Identität weist also die Besonderheit auf, dass ihre Matrixdarstellung nicht von der gewählten Basis abhängt.

50

3

Lineare Abbildungen

Lesehilfe

Die Bezeichung „diag“ steht für eine Diagonalmatrix, also eine Matrix, die abseits der Diagonale nur Nullen aufweist. In Klammern werden dann die Diagonalelemente angegeben, also ist etwa 0

1 1 0 0 diag.1; 2; 3/ D @0 2 0A: 0 0 3

3.4 Beispiel: Drehungen Wir betrachten eine Drehung d ˛ mit dem Winkel ˛ um den Koordinatenursprung des R2 , siehe Abb. 3.1. Für ˛ > 0 erfolge die Drehung im mathematisch positiven Sinn gegen den Uhrzeigersinn (d. h. auf dem kurzen Weg von der x- zur y-Achse). Die kanonischen Basisvektoren werden somit abgebildet auf ! !  1 cos ˛ D ; d˛ 0 sin ˛

! !  0  sin ˛ d˛ D : 1 cos ˛

(3.14)

Die Matrix der zweidimensionalen Drehung lautet also hinsichtlich der kanonischen Basis ! cos ˛  sin ˛ D˛ D (3.15) sin ˛ cos ˛ und der Bildvektor zu einem beliebigen Vektor x D .x; y/ ist cos ˛ d ˛ .x/ D sin ˛

 sin ˛ cos ˛

!

! x y

! x cos ˛  y sin ˛ D : x sin ˛ C y cos ˛

(3.16)

Lesehilfe

Eine zweidimensionale Drehung erfolgt um den Ursprung und ist allein durch den Drehwinkel festgelegt. Die Gleichungen (3.14) werden sofort klar, wenn man sich die Definitionen von Sinus und Cosinus am Einheitskreis klarmacht. Natürlich kann man sich geometrisch auch Drehungen des R2 um andere Punkte als den Ursprung vorstellen, hat es dann aber nicht mit linearen Abbildungen zu tun, da sie die 0 nicht auf die 0 abbilden.

3.4 Beispiel: Drehungen

51

Abb. 3.1 Ein Vektor x habe in einem kartesischen Koordinatensystem, das die kanonische Basis f.1; 0/; .0; 1/g darstellt, die Koordinaten x; y. Dieser Vektor wird durch die Drehung d ˛ mit dem Winkel ˛ in mathematisch positiver Richtung um den Ursprung des Koordinatensystems gedreht. Als Ergebnis ergibt sich der Vektor d ˛ .x/ mit den Koordinaten x cos ˛  y sin ˛, x sin ˛ C y cos ˛

Eine Drehung ist eine bijektive Abbildung, ein Isomorphismus. Die Inversion der Drehung d ˛ erfolgt durch die entsprechende Rückdrehung, also die Drehung d ˛ mit der Matrix ! ! cos.˛/  sin.˛/ cos ˛ sin ˛ D ; (3.17) D˛ D sin.˛/ cos.˛/  sin ˛ cos ˛ wobei sich das zweite Gleichheitszeichen aus den Symmetrien von Cosinus und Sinus ergibt. Mit Blick auf die Matrix (3.15) erkennt man, dass mit der Umkehrung des Drehsinns nur das Minuszeichen von dem einen Sinusterm zum anderen wandert. Zwischenfrage (3)

Warum „ergibt sich aus den Symmetrien von Cosinus und Sinus“ das zweite Gleichheitszeichen in (3.17)? Drehungen im R3 Im R3 sind Drehungen komplizierter. Zur ihrer Festlegung ist es hier notwendig, neben dem Drehwinkel auch eine Drehachse vorzugeben. Dazu betrachten wir im Folgenden die kanonische Basis des R3 und ein kartesisches xyz-Koordinatensystem.

52

3

Lineare Abbildungen

Abb. 3.2 Für eine Drehung im R3 muss neben dem Drehwinkel auch eine Drehachse angegeben werden. Erfolgt die Drehung um eine Koordinatenachse eines kartesischen xyz-Koordinatensystems, so haben die Drehmatrizen eine einfache Form, siehe (3.18), (3.19) und (3.20). Die Drehung erfolgt jeweils auf dem kurzen Weg von der Achse, die der Spalte ohne Minuszeichen entspricht, zur Achse mit Minuszeichen; die Koordinate, die der Spalte mit der Eins entspricht, bleibt unverändert

Bei Drehungen um die Koordinatenachsen können die Matrizen der Drehungen leicht angegeben werden: Bei einer Drehung um die z-Achse bleiben die zKoordinaten der Vektoren unverändert, während die x- und y-Koordinaten in aus dem R2 bekannter Weise verdreht werden. Ihre Drehmatrix lautet daher 0

cos ˛ Dz D @ sin ˛ 0

 sin ˛ cos ˛ 0

1 0 0 A: 1

(3.18)

Der Drehsinn kann so beschrieben werden, dass die Drehung auf dem kurzen Weg von der x- zur y-Achse erfolgt. Siehe Abb. 3.2. Analog erhält man eine Drehung um die x-Achse durch die Matrix 0

1 0 Dx D @0 cos ˛ 0 sin ˛

1 0  sin ˛ A: cos ˛

(3.19)

Die Drehung erfolgt auf dem kurzen Weg von der y- zur z-Achse. Eine Drehung um die y-Achse schließlich wird beschrieben durch 0 cos ˛ @ Dy D 0 sin ˛

1 0  sin ˛ 1 0 A 0 cos ˛

(3.20)

und sie erfolgt auf dem kurzen Weg von der x- zur z-Achse. Die inversen Drehungen erhält man in gewohnter Weise, indem man ˛ durch ˛ ersetzt (oder das Minuszeichen „von einem Sinus zum anderen schiebt“). Die Form einer Abbildungsmatrix hängt generell von der Wahl der Basis ab. Soll die Drehung in einer Basis beschrieben werden, in der die Drehachse mit keiner Koordinatenachse zusammenfällt, ist mehr Aufwand erforderlich. Wir gehen darauf in Abschn. 4.3 ein.

3.5 Berechnung des Rangs

53

Antwort auf Zwischenfrage (3)

Gefragt war nach dem zweiten Gleichheitszeichen in (3.17). Der Cosinus ist eine gerade Funktion, d. h., für alle ˛ 2 R gilt cos.˛/ D cos ˛. Die Cosinusterme behalten daher beim Wechsel des Drehsinns ihre Form. Der Sinus hingegen ist ungerade, d. h., es ist sin.˛/ D  sin ˛, sodass die Sinusterme beim Wechsel der Drehrichtung ein Minuszeichen erhalten.

Höherdimensionale Drehungen Auch höherdimensionale Drehungen werden in geeignet gewählten Basen durch Matrizen beschrieben, die auf der Hauptdiagonale Einsen und „Drehkästchen“ cos ˛ sin ˛

 sin ˛ cos ˛

aufweisen und ansonsten nur Nullen. So beschreiben etwa die Matrizen 0 1 0 cos ˛  sin ˛ 0 0 1 0 0 B sin ˛ cos ˛ C B 0 0 C 0 cos ˛  sin ˛ B oder B @ 0 @0 sin ˛ cos ˛ 0 cos ˇ  sin ˇ A 0 0 sin ˇ cos ˇ 0 0 0

1 0 0C C 0A 1

zwei Drehungen des R4 : In einem Fall werden die 1- und 2-Komponente und die 3und 4-Komponente untereinander verdreht und im anderen Fall werden die 2- und 3-Komponente verdreht, während die 1- und 4-Komponenten unverändert bleiben.

Lesehilfe

Bei einer Drehung im R3 wäre eine Basis, bei der die Drehung um die yAchse erfolgt, im obigen Sinn keine „geeignet gewählte Basis“, weil hier kein zusammenhängendes Drehkästchen auftaucht. Man kann aber eine Basis wählen, deren x- oder z-Achse der Drehachse entspricht.

3.5 Berechnung des Rangs Der Rang einer linearen Selbstabbildung f W V ! V ist gleich der Dimension ihres Bildraums, der gegeben wird durch f .V / D hff .b1 /; : : : ; f .bn /gi; siehe (3.4). Sofern die Vektoren f .b1 /; : : : ; f .bn / linear unabhängig sind, spannen sie den gesamten Raum V auf und es ist rg f D n. Sind die Vektoren nicht

54

3

Lineare Abbildungen

linear unabhängig, wird nur ein Unterraum von V aufgespannt und seine Dimension ist gleich der Maximalzahl linear unabhängiger Vektoren in der Menge ff .b1 /; : : : ; f .bn /g. Die damit verbundene Fragestellung lässt sich auf die der Abbildung f zugeordnete Matrix A übertragen: Fasst man die Spalten einer Matrix als Vektoren im Kn auf, so ist der Rang von f gleich der Maximalzahl linear unabhängiger Spalten in der Matrix 1 0 " " " A D @f .b1 / f .b2 / f .bn /A: # # # Lesehilfe

Hier wird von der „Maximalzahl linear unabhängiger Spalten“ gesprochen und nicht einfach von der „Anzahl linear unabhängiger Spalten“. Sehen wir uns das am Beispiel der Matrix 0

1 B0 ADB @0 0

2 0 0 0

3 0 0 0

1 0 4C C 0A 0

an. Linear unabhängig oder nicht bezieht sich immer auf eine Menge von Vektoren oder – hier – Spalten der Matrix. Die vier Spalten der Matrix sind linear abhängig. Wählt man drei Spalten aus, sind sie ebenso immer linear abhängig. Wählt man zwei aus, ergibt sich folgendes Bild: Die Spalten 1 und 2 sind linear abhängig, ebenso die Spalten 1 und 3 und auch 2 und 3. Wählt man 1, 2 oder 3 zusammen mit Spalte 4 aus, hat man aber eine linear unabhängige Menge. Die Maximalzahl linear unabhängiger Spalten ist also gleich zwei. Rang einer Matrix Wir wollen uns ein Rechenverfahren ansehen, das die Bestimmung der Maximalzahl linear unabhängiger Spalten (oder Zeilen) einer Matrix erlaubt. Dabei betrachten wir nicht nur quadratische Matrizen, sondern allgemeiner m n-Matrizen, die aus m Zeilen und n Spalten bestehen: 0 1 a11 a12 a1n B a21 a22 a2n C   B C A D aij 1i m D B : :: :: C: :: 1j n @ :: : : : A am1

am2



amn

Die Spaltenvektoren dieser Matrix wollen wir mit a1 ; : : : ; an bezeichnen und die Zeilenvektoren mit aN 1 ; : : : ; aN m .

3.5 Berechnung des Rangs

55

Die wesentliche Methode des Rechenverfahrens besteht darin, dass an der Matrix A die folgenden elementaren Umformungen vorgenommen werden können, durch die sich die Maximalzahl linear unabhängiger Spalten nicht ändert: (1) Vertauschung zweier Spalten der Matrix. (2) Vertauschung zweier Zeilen der Matrix. (3) Für k ¤ l Ersetzung des Spaltenvektors ak durch den Vektor a0k D ak C cal , c 2 K beliebig. (4) Für k ¤ l Ersetzung des Zeilenvektors aN k durch den Vektor aN 0k D aN k C c aN l , c 2 K beliebig. Für diese elementaren Umformungen gilt Satz 3.5 Die Maximalzahl linear unabhängiger Spaltenvektoren einer Matrix wird durch die elementaren Umformungen (1)–(4) nicht geändert. Beweis Bei (1) handelt es sich lediglich um eine Umnummerierung der Spalten und bei (2) um eine Umnummerierung der Komponenten der Spalten. Nun zu Typ (3): Die Spaltenvektoren der Matrix spannen einen Unterraum U von Kn auf und die Maximalzahl linear unabhängiger Spaltenvektoren ist die Dimension von U . Wegen a0k D ak C cal und ak D a0k  cal ist aber klar, dass die Spaltenvektoren der umgeformten Matrix denselben Unterraum U aufspannen. Typ (4) schließlich kann auf einen Basiswechsel zurückgeführt werden: Es sei fe 1 ; : : : ; e n g die kanonische Basis des Kn . Setzt man e l D e l C ce k und e r D e r für r ¤ l, so ist wegen Satz 2.5 („kleiner Austauschsatz“) auch fe 1 ; : : : ; e n g eine Basis des Kn . Die Zeilenumformung (4) führt nun den Spaltenvektor aj D a1j e 1 C : : : C anj e n über in den neuen Spaltenvektor aj D a1j e 1 C : : : C .akj C calj /e k C : : : C alj e l C : : : C anj e n D a1j e 1 C : : : C akj e k C : : : C alj .e l C ce k / C : : : C anj e n D a1j e 1 C : : : C akj e k C : : : C alj e l C : : : C anj e n und dieser besitzt hinsichtlich der neuen Basis fe 1 ; : : : ; e n g dieselben Koordinaten wie aj hinsichtlich der Basis fe 1 ; : : : ; e n g. Umformung (4) bedeutet also nur, dass die Spaltenvektoren hinsichtlich einer anderen Basis beschrieben werden. 

Zwischenfrage (4)

Warum muss in den elementaren Umformungen (3) und (4) k ¤ l sein?

Die elementaren Umformungen (1)–(4) können nun dazu verwendet werden, die Matrix A in eine Form zu überführen, in der sich die Maximalzahl unabhängiger

56

3

Lineare Abbildungen

Spalten oder Zeilen ablesen lässt: 0

b11 B0 B B B0 B elementare B A ! B D B 0 B Umformungen B0 B B :: @ : 0

b12 b22







:: : 0





:: :







0 0 :: :



brr 0 :: :



0

1

b1n

b2n C C :: C



: C C C

brn C: C

0 C C :: :: C : : A

0

(3.21)

Die Matrix B enthält in den letzten m  r Zeilen nur Nullen, während die Elemente b11 , b22 , . . . , brr von 0 verschieden sind. Links von ihnen stehen lauter Nullen, rechts von ihnen beliebige Skalare. Zugelassen ist auch der Fall r D m, bei dem die aus lauter Nullen bestehenden Zeilen nicht auftreten. Eine Überführung der Matrix A in eine Matrix der Form B ist mittels der elementaren Umformungen (1)–(4) stets in endlich vielen Schritten möglich. Dabei geht man zum Beispiel wie folgt vor: (1) Falls nötig, sorgt man zunächst durch Zeilen- oder Spaltenvertauschung dafür, dass das (1,1)-Element ungleich 0 ist. Anschließend addiert man zu den Zeilen 2 bis m passende Vielfache der ersten Zeile so, dass die jeweiligen 1-Elemente der Summenzeilen 0 werden. Im Ergebnis erhält man eine Matrix, deren erste Spalte ein 1-Element ungleich 0 und ansonsten nur Nullen enthält. (2) Erneut sorgt man ggf. durch Zeilen- oder Spaltenvertauschung – allerdings ohne Verwendung der ersten Zeile oder Spalte – dafür, dass das (2,2)-Element ungleich 0 ist. Anschließend addiert man zu den Zeilen 3 bis m passende Vielfache der zweiten Zeile so, dass die jeweiligen 2-Elemente der Summenzeilen 0 werden. Im Ergebnis weist die Matrix (neben der unveränderten ersten Spalte) eine zweite Spalte auf, deren 2-Element ungleich 0 ist, während die weiter unten stehenden Elemente allesamt 0 sind. (3) Analog geht man mit den weiteren Elementen (3,3), (4,4) usw. vor, bis die Matrix die Form B wie in (3.21) aufweist.

Lesehilfe

Du siehst hier letztlich wieder das Gauß-Schema, mit dem jetzt eine Matrix in eine „obere Dreiecksmatrix“ überführt wird. Neben den Zeilenvertauschungen ist bei der Berechnung des Rangs aber auch eine Vertauschung von Spalten ohne Weiteres erlaubt. Das ist übrigens auch beim Lösen von Gleichungssystemen möglich, nur muss dann festgehalten werden, welche Spalte zu welcher Lösungsvariable gehört.

3.5 Berechnung des Rangs

57

Für die Matrix B gilt nun Satz 3.6 In der Matrix B sind die ersten r Zeilen (Spalten) linear unabhängig und r ist die Maximalzahl linear unabhängiger Zeilen (Spalten). Beweis Unter mehr als r Zeilen der Matrix B tritt mindestens eine Nullzeile auf. Diese Zeilen können daher nicht linear unabhängig sein. Es braucht daher nur noch die lineare Unabhängigkeit der ersten r Zeilenvektoren bN 1 ; : : : ; bN r bewiesen zu werden: Aus c1 bN 1 C : : : C cr bN r D 0 folgt das Gleichungssystem c1 b11 D 0 c1 b12 C c2 b22 D 0 :: : c1 b1r C C cr brr D 0: Wegen b11 ¤ 0 folgt aus der ersten Zeile c1 D 0, damit und wegen b22 ¤ 0 aus der zweiten Zeile c2 D 0 usw., sodass man schließlich c1 D c2 D : : : D cr D 0 erhält. Analog ergibt sich die lineare Unabhängigkeit der ersten r Spalten. Da allen Spalten ab der .r C 1/-ten Zeile nur Nullen enthalten, liegen die Spaltenvektoren in einem r-dimensionalen Unterraum des Km . Daher kann es nicht mehr als r linear unabhängige Spalten geben.  Satz 3.6 besagt insbesondere, dass die Maximalzahl linear unabhängiger Zeilen einer Matrix gleich der Maximalzahl linear unabhängiger Spalten ist, und man setzt Definition 3.3 Die gemeinsame Maximalzahl linear unabhängiger Spalten und Zeilen einer Matrix A heißt der Rang von A und wird mit rg A bezeichnet. Lesehilfe

Eine m n-Matrix besitzt m Zeilen und n Spalten. Die kleinere der beiden Zahlen gibt den maximal möglichen Rang der Matrix an: Eine 2 3-Matrix hat höchstens den Rang 2 und eine 8 5-Matrix höchstens 5. Eine n nMatrix hat den maximalen Rang n.

Wir fassen zusammen:  Die elementaren Umformungen ändern den Rang einer Matrix nicht. Darüber hinaus kann eine Spalte oder Zeile einer Matrix auch mit einem Skalar ungleich 0 multipliziert werden, ohne dass sich der Rang der Matrix ändert.  Mit Hilfe der elementaren Umformungen kann eine beliebige Matrix A in eine Matrix der Form B wie in (3.21) überführt werden, aus der sich der Rang ablesen lässt: Er entspricht der Anzahl r der Zeilen, die keine Nullzeilen sind.  „Spaltenrang“ und „Zeilenrang“ einer Matrix sind gleich.

58

3

Lineare Abbildungen

Für den Rang einer linearen Selbstabbildung haben wir nun Satz 3.7 Einer linearen Abbildung f W V ! V sei hinsichtlich der Basis B D fb1 ; : : : ; bn g die Matrix A zugeordnet. Dann gilt rg f D rg A. Beweis Die Spalten von A entsprechen den Koordinaten-n-Tupeln der Vektoren f .bj / hinsichtlich B. Die Maximalzahl linear unabhängiger Spalten, also der Rang von A, ist somit gleich der Dimension des von den Vektoren f .b1 /; : : : ; f .bn / aufgespannten Raums und damit gleich rg f . 

Lesehilfe

Der Rang einer Abbildung entspricht dem Rang der ihr zugeordneten Matrix. Das sollte auch so sein; andernfalls wäre es sehr unschön, dasselbe Wort „Rang“ für Abbildungen und für Matrizen zu verwenden.

Antwort auf Zwischenfrage (4)

Gefragt war, warum in den elementaren Umformungen (3) und (4) k ¤ l sein muss. Würde k D l zugelassen, könnte zu einer Spalte (Zeile) ein Vielfaches von sich selbst addiert werden. Insbesondere könnte eine Spalte (Zeile) daher durch das Addieren des .1/-fachen von sich selbst durch eine Nullspalte (Nullzeile) ersetzt werden. Dadurch kann aber die Maximalzahl linear unabhängiger Spalten offenbar geändert werden – z. B. könnte so jede Matrix in die Nullmatrix überführt werden, die keine linear unabhängigen Spalten besitzt.

Beispiele (1) Bei Matrizen, die nur zwei Zeilen oder Spalten haben, kann der Rang ohne Rechnung abgelesen werden. Es ist hier nur zu prüfen, ob eine Zeile oder Spalte ein Vielfaches der anderen ist: ! ! ! ! 0 0 2 1 2 1 2 1 3 rg D 0; rg D 1; rg D 2 D rg : 0 0 4 2 4 1 4 2 3 cos ˛ (2) Die Drehmatrix sin ˛

!  sin ˛ ist die Matrix einer bijektiven Abbildung und cos ˛

hat daher den Rang 2. Natürlich kann diese Matrix auch auf ein oberes Dreiecksschema wie in (3.21) gebracht werden. Dabei ist allerdings zu beachten, dass sin ˛ oder cos ˛ auch 0 sein können und daher eine Fallunterscheidung notwendig ist.

3.5 Berechnung des Rangs

59

Zwischenfrage (5)

cos ˛  sin ˛ Wie wird die Drehmatrix sin ˛ cos ˛ ein oberes Dreiecksschema gebracht?

! zur Berechnung des Rangs auf

(3) Die Berechnung des Rangs von 3 3-Matrizen erfordert nur den ersten Schritt der elementaren Umformungen, da sich der Rang einer 2 2-Untermatrix ablesen lässt: 0

1 rg@2 3 0 1 rg@2 3

1 0 1 3 .2/ .3/ 1 D rg@0 2 6A # 0 1 # 0 1 0 1 0 .2/ .3/ 1 D rg@0 2 4A # 0 3 # 0

1 1 3 4 0 A D 3 3 10 1 1 3 4 4A D 2: 3 3

Lesehilfe

Beachte generell, dass die oberen Gleichheitszeichen sich auf die Ränge der Matrizen beziehen. Die Matrizen selbst ändern sich natürlich unter den elementaren Umformungen, aber die Folgematrizen haben denselben Rang wie die ursprüngliche. Wenn bei 3 3-Matrizen wie oben die beiden Nullen in der ersten Spalten erzeugt wurden, musst du dir nur noch die zweite und dritte Zeile ansehen: Sind sie Vielfache voneiander, ist der Rang 2 (beim Weiterrechnen würde dann eine Nullzeile entstehen), und falls nicht, ist der Rang 3.

(4) Wir verwenden die elementaren Umformungen, um den Rang einer 4 4-Matrix zu berechnen: 0

1 0 1 0 1 2 3 l 1 1 3 6 .3/ B 0 2 0 4 C B 0 2 0 4 C C B C rgB @1 1 3 6 Al D rg@ 0 1 2 3A 3 2 0 4 3 2 0 4 # 0 0 1 1 1 3 1 1 3 6 B 0 2 0 B 0 2 0 4 C. 1 / . 1 / 2 D rgB C 2 D rgB @0 @0 0 2 1 2 3A # 0

1 9 14

#

0

0

1 6 4C C D 4: 5A 9 12

60

3

Lineare Abbildungen

Antwort auf Zwischenfrage (5)

Die Drehmatrix sollte auf ein oberes Dreiecksschema gebracht werden. ! ! cos ˛  sin ˛  sin ˛= cos ˛ cos ˛  sin ˛ rg D rg : sin ˛ cos ˛ # 0 cos ˛ C sin2 ˛= cos ˛ Das verbleibende .2; 2/-Element ist cos ˛ C

sin2 ˛ cos2 ˛ C sin2 ˛ 1 D D : cos ˛ cos ˛ cos2 ˛

Die obigen Operationen sind nur für cos ˛ ¤ 0 erlaubt. Sie ergeben dann den Rang 2. Für!cos ˛ D 0 ist sin ˛ ¤ 0 und wir haben es mit der Matrix 0  sin ˛ zu tun, die aber ebenso Rang 2 besitzt (mit Vertauschen sin ˛ 0 der Spalten würde daraus eine obere Dreiecksmatrix).

3.6 Lineare Operationen von Abbildungen Eine n n-Matrix enthält n2 Zahlen, die in einem quadratischen Schema aufgeschrieben werden. Man kann sie als spezielle Schreibweise für n2 -Tupel auffassen und schreibt Kn n für die Menge aller n n-Matrizen über K. Für Zahlentupel werden die linearen Operationen komponentenweise ausgeführt (siehe Abschn. 1.3). Für Matrizen A D .aij /; B D .bij / 2 Kn n und c 2 K gilt daher 1 0 1 0 ca11 ca1n a11 C b11 a1n C b1n C B : B :: :: :: C: (3.22) :: :: ACB D@ A; cA D @ :: : : : : : A an1 C bn1



ann C bnn

can1



cann

Vergegenwärtigt man sich nun die Wirkungsweise einer linearen Selbstabbildung und der ihr zugeordneten Matrix, siehe (3.10), so ergibt sich Satz 3.8 Den linearen Selbstabbildungen f und g des Vektorraums V seien hinsichtlich einer Basis die Matrizen A bzw. B zugeordnet. Dann wird die Summenabbildung f C g durch die Summenmatrix A C B und die Abbildung cf durch die Matrix cA beschrieben. Für n n-Matrizen lässt sich darüber hinaus festhalten:  Die Menge Kn n ist bezüglich der Addition eine Gruppe. Ihr neutrales Element ist die aus lauter Nullen bestehende Nullmatrix.  Die Menge Kn n bildet mit den oben angegebenen linearen Operationen einen Vektorraum über K.

3.7 Multiplikation von Abbildungen

61

Lesehilfe

Du hast gesehen, Abbildungen oder Matrizen zu addieren oder mit einer Zahl zu multiplizieren ist einfach und intuitiv. Wir werden nun sehen, dass es mit dem Multiplizieren von Abbildungen nicht mehr ganz so einfach ist.

3.7 Multiplikation von Abbildungen Wir betrachten das Produkt zweier linearer Selbstabbildungen f und g des Vektorraums V , also die Verkettung f ı g W V ! V . Mit f und g ist auch ihre Produktabbildung linear, denn es gilt für beliebige x 1 ; x 2 2 V und c 2 K .f ı g/.x 1 C x 2 / D f .g.x 1 C x 2 // D f .g.x 1 / C g.x 2 // D f .g.x 1 // C f .g.x 2 // D .f ı g/.x 1 / C .f ı g/.x 2 / (3.23) .f ı g/.cx 1 / D f .g.cx 1 // D f .cg.x 1 // D cf .g.x 1 // D c.f ı g/.x 1 /: (3.24)

Lesehilfe

Das „Produkt“ zweier linearer Abbildungen ist also ihre Verkettung f ı g, was man als „f nach g“ ausspricht. Bei gewöhnlichen Funktionen f; g W R ! R wäre die Bezeichnung „Produkt“ irreführend, weil man zwischen dem Produkt der Funktionswerte, f .x/g.x/, und dem Funktionswert der Verkettung, .f ı g/.x/ D f .g.x//, unterscheiden muss. Bei linearen Abbildungen gibt es den Ausdruck f .x/g.x/ aber gar nicht, da man die Vektoren f .x/ und g.x/ nicht im gewöhnlichen Sinn miteinander multiplizieren kann.

Betrachtet man noch eine dritte lineare Selbstabbildung h von V , so lassen sich folgende Rechenregeln ebenso bestätigen: .f ı g/ ı h D f f ı .g C h/ D f .f C g/ ı h D f .cf / ı g D f

ı .g ı h/ ıgCf ıh ıhCgıh ı .cg/ D c.f ı g/:

(Assoziativität) (Distributivität)

(3.25)

Sind f und g Isomorphismen von V , so ist auch ihr Produkt f ı g ein Isomorphismus, denn aufgrund von g.V / D V ist auch .f ı g/.V / D f .g.V // D f .V / D V . Da zu einem Isomorphismus f auch die inverse Abbildung f 1 existiert und sie ebenfalls ein Isomorphismus ist, siehe Satz 3.4, haben wir insgesamt

62

3

Lineare Abbildungen

Satz 3.9 Die Menge aller Isomorphismen eines Vektorraums V bildet bezüglich der Abbildungsmultiplikation eine Gruppe. Beweis Die Menge ist abgeschlossen, da das Produkt zweier Isomorphismen wieder ein Isomorphismus ist. Die Assoziativität ist erfüllt. Das neutrale Element ist die Identität id. Das inverse Element zu einem Isomorphismus f ist die Umkehrabbildung f 1 ; sie existiert, weil f als Isomorphismus umkehrbar ist.  Die Gruppe aller Isomorphismen eines Vektorraums V heißt die lineare Gruppe von V und wird mit GL.V / bezeichnet. Dabei ist zu beachten, dass GL.V / zwar eine Gruppe, aber keine kommutative Gruppe ist: Im Allgemeinen ist f ıg ¤ g ıf .

Zwischenfrage (6)

„Im Allgemeinen“ ist f ı g ¤ f ı g. Für welche Fälle wäre denn f ı g D gıf?

3.7.1 Matrix der Produktabbildung Wir wollen uns nun ansehen, durch welche Matrix das Produkt zweier linearer Selbstabbildungen beschrieben wird: Der Abbildung f sei hinsichtlich der Basis B D fb1 ; : : : ; bn g die Matrix A D .aij / und der Abbildung g die Matrix B D .bij / zugeordnet. Wir haben also f .bj / D

n X

aij bi

g.bj / D

und

i D1

n X

j D 1; : : : ; n:

bkj bk ;

kD1

Auch der Produktabbildung f ı g ist eine n n-Matrix C D .cij / zugeordnet, .f ı g/.bj / D

n X

j D 1; : : : ; n:

cij bi ;

(3.26)

i D1

Nun ist .f ı g/.bj / D f .g.bj // D f

n X

! D

bkj bk

kD1

D

n X kD1

bkj

n X i D1

!

ai k bi

D

n X

bkj f .bk /

kD1 n n X X i D1



kD1

!

ai k bkj ƒ‚

bi ;

j D 1; : : : ; n;



cij

(3.27)

3.7 Multiplikation von Abbildungen

63

und wegen der Eindeutigkeit der Basisdarstellung der Vektoren .f ı g/.bj / müssen die Koeffizienten auf den rechten Seiten der letzten beiden Gleichungen übereinstimmen. Man erhält also die folgende Darstellung der Matrix C durch A und B: cij D

n X

ai k bkj ;

i; j D 1; : : : ; n:

(3.28)

kD1

Die Matrix C wird die Produktmatrix von A und B genannt und man schreibt C D AB.

Antwort auf Zwischenfrage (6)

Gefragt war, für welche Fälle f ı g D g ı f gilt. Das Produkt mit dem neutralen Element ist kommutativ, f ı id D id ı f D f , und ebenso das Produkt mit dem inversen Element, f ı f 1 D f 1 ı f D id. Es ist eine allgemeine Gruppeneigenschaft, dass diese Produkte kommutativ sind. Es gibt durchaus weitere Abbildungen, die kommutativ sind: Beispielsweise sind zwei Drehungen im R2 kommutativ, ebenso zwei Drehungen im R3 um dieselbe Drehachse usw. Auch für das Produkt mit der Nullabbildung n gilt f ı n D n ı f D n, was aber in unserem Zusammenhang keine Rolle spielt, weil die Nullabbildung kein Isomorphismus ist.

3.7.2 Allgemeines Schema der Matrizenmultiplikation Die Matrizenmultiplikation, wie sie durch (3.28) definiert wird, stellt eine wichtige Operation für Matrizen mit einer Vielzahl von Anwendungen dar. Sie ist nicht nur für zwei quadratische Matrizen definiert, sondern allgemeiner für den Fall, dass die Spaltenanzahl der ersten Matrix mit der Zeilenanzahl der zweiten Matrix übereinstimmt. Es sei also A D .aij / eine n l-Matrix, B D .bij / eine l m-Matrix und C D .cij / eine n m-Matrix. Die Aussage C D AB

bedeutet cij D

l X

ai k bkj ;

i D 1; : : : ; nI j D 1; : : : ; m;

kD1

(3.29) also .n l-Matrix/ mal .l m-Matrix/ D .n m-Matrix/: Dies lässt sich schematisch wie folgt darstellen: Das Element cij ergibt sich, indem man die Elemente der i-ten Zeile von A mit denen der j -ten Spalte von B

64

3

multipliziert und die erhaltenen Produkte summiert, 0 10 1 0 :: :: b 1j : : B B CB C :: B cij Bai1 ai l C@ D A @ @ A

:

:: :: b lj : : ai1 b1j C : : : C ai l blj D

l X

Lineare Abbildungen

1 C

C A;

ai k bkj D cij :

kD1

Bildlich gesprochen legt man die j -te Spalte von B auf die i-te Zeile von A und summiert die Produkte der einzelnen dann übereinander liegenden Matrixelemente. „Matrix mal Vektor“ Insbesondere kann eine n n-Matrix mit einer n 1-Matrix multipliziert werden, die einem aufrecht geschriebenen n-Tupel entspricht, 0 10 1 0 1 0 1 a11 a1n x1 a11 x1 C : : : C a1n xn y1 B :: C B C B C B : : : :C : :: :: A@ :: A D @ :: @ : A D @ :: A; an1



ann

xn

an1 x1 C : : : C ann xn

yn

also yi D

n X

aij xj ;

i D 1; : : : ; n:

(3.30)

j D1

Lesehilfe

Die Operation n n-Matrix mal n 1-Matrix entspricht genau der Operation Matrix mal Vektor, die wir in (3.10) vorweggenommen haben. Umgekehrt entspricht eine 1 n-Matrix einem liegend geschriebenen n-Tupel, der von vorne an eine n n-Matrix multipliziert werden kann, 1 0 a11 a1n B :: C D .x a C : : : C x a ; : : : ; x a C : : : C x a / :: .x1 ; : : : ; xn /@ ::: 1 11 n n1 1 1n n nn : : A an1



ann D .y1 ; : : : ; yn /;

also yi D

n X j D1

xj aj i ;

i D 1; : : : ; n:

(3.31)

3.7 Multiplikation von Abbildungen

65

Man sieht an diesen Beispielen besonders deutlich, dass die Matrizenmultiplikation nicht kommutativ ist. Ein aufrecht geschriebener Tupel kann nur hinter die Matrix gestellt werden und ein liegender Tupel nur davor; die umgekehrte Schreibweise wäre im Sinn der Matrizenmultiplikation gar nicht definiert. Aber auch dann, wenn die Vertauschung der Reihenfolge definiert ist, etwa bei der Multiplikation zweier n n-Matrizen A und B, gilt i. Allg. AB ¤ BA.

Lesehilfe

Die Summenformeln, die hinter den Matrizenmultiplikationen stehen, wirken vielleicht unhandlich und man schreibt sicherlich lieber C D AB als cij D P n kD1 ai k bkj . Es lohnt sich aber P ein zweiter Blick: P Die Gleichungen cij D nkD1 ai k bkj , yi D jnD1 aij xj oder yi D Pn j D1 xj aj i summieren jeweils über den doppelt auftretenden Index, der darüber hinaus benachbart liegt. Vereinbart man die Einstein-Summenkonvention3 , mit der über doppelt auftretende Indizes summiert wird, schreiben sich die Gleichungen schlanker, cij D ai k bkj ;

yi D aij xj ;

yi D xj aj i ;

und sind in dieser Komponentenform nicht komplizierter als die Matrixbzw. Vektorgleichungen C D AB;

y D Ax;

y D xA;

zumal bei der letzten Gleichung beachtet werden muss, dass die Vektoren liegend zu verstehen sind. Auch weitere Produkte können leicht in Komponentenform geschrieben werden, z. B. ist zi D aij bj k ckl xl gleichbedeutend mit dem Vektor z D ABC x und s D yi aij bj k ckl xl ergibt den Skalar s D yABC x, wobei y ein liegender Vektor ist.

3

Benannt nach Albert Einstein, 1879–1955. Diese Notation wird insbesondere in der Tensoralgebra der Relativitätstheorie verwendet.

66

3

! Beispiele 2 3 (1) Wir betrachten die 2 2-Matrizen A D und B D 7 1 2 AB D 7 BA D

1 2

2

Lineare Abbildungen

! 1 . Es ist 1

1 2

2

! ! ! 1 1 5 1 3 2 D 11 8 1 2 1 2 ! ! ! 1 2 3 8 12 ¤ AB: D 11 5 1 7 1

Der Abbildung f W R2 ! R2 sei die Matrix A zugeordnet und der Abbildung g W R2 ! R2 die Matrix B. Der Abbildung f ı g ist dann die Matrix AB zugeordnet und der Abbildung g ı f die Matrix BA. Ein Matrizenprodukt mit der Einheitsmatrix ist besonders einfach. Es ist nämlich beispielsweise ! ! ! 2 3 1 0 2 3 AE D D D EA: 7 1 0 1 7 1 Diesem Ergebnis entspricht die Tatsache, dass die Verkettung einer Abbildung mit der Identität die Abbildung nicht verändert, dass also gilt f ı id D id ı f D f . (2) Es ist ! 2 3 .2; 1/ D .11; 5/; 7 1

! ! ! 2 2 3 7 D : 7 1 1 13

(3) Bei der Matrizenmultiplikation, insbesondere von mehr als zwei Matrizen, ist es manchmal hilfreich, die Matrizen nach dem Falk-Schema4 aufzuschreiben, bei dem die zweite Matrix oberhalb hinter die erste geschrieben wird. Die Elemente der Produktmatrix ergeben sich dann in natürlicher Weise aus den jeweiligen Zeilen der ersten und Spalten der zweiten Matrix: Das Produkt ! ! ! 1 0 1 5 1 0 P D 1  10 1 0 1  12 1 berechnet man dann beispielsweise wie folgt:

1 1  10 4

0 1

1 0

5 1

1  12

0 1

1 1  10

5

 32 7  20

5

1 2

;

 32 also P D 7  20

! 5 1 2

:

1 2

Benannt nach dem deutschen Mathematiker und Bauingenieur Sigurd Falk, 1921–2016.

3.8 Umkehrabbildung und inverse Matrix

67

(4) Eine Drehung d ˛ im R2 wird hinsichtlich der kanonischen Basis beschrieben durch die Drehmatrix ! cos ˛  sin ˛ D˛ D : sin ˛ cos ˛ Führen wir sie nach einer zweiten Drehung d ˇ aus, so haben wir es insgesamt mit der Abbildung d ˛ ı d ˇ zu tun, die beschrieben wird durch die Matrix ! ! cos ˛  sin ˛ cos ˇ  sin ˇ D˛ Dˇ D sin ˛ cos ˛ sin ˇ cos ˇ ! cos ˛ cos ˇ  sin ˛ sin ˇ  cos ˛ sin ˇ  sin ˛ cos ˇ D : (3.32) sin ˛ cos ˇ C cos ˛ sin ˇ  sin ˛ sin ˇ C cos ˛ cos ˇ Das Ausführen zweier Drehungen ist gleichbedeutend mit der Addition der Drehwinkel, d. h., es ist d ˛ ı d ˇ D d ˛Cˇ und D˛ Dˇ D D˛Cˇ mit ! cos.˛ C ˇ/  sin.˛ C ˇ/ : (3.33) D˛Cˇ D sin.˛ C ˇ/ cos.˛ C ˇ/ Da Matrizen genau dann gleich sind, wenn alle ihre Elemente gleich sind, haben wir hier einen Beweis der Additionstheoreme für Cosinus und Sinus vor uns: Die Gleichheit der Diagonalelemente entspricht dem Cosinustheorem und die Gleichheit der Nebendiagonalelemente dem Sinustheorem.

3.8 Umkehrabbildung und inverse Matrix Isomorphismen auf einem n-dimensionalen Vektorraum werden durch n nMatrizen beschrieben, die den maximal möglichen Rang n besitzen, siehe Satz 3.3 und 3.7. Man setzt Definition 3.4 Eine n n-Matrix A mit rg A D n heißt regulär und bei rg A < n nennt man sie singulär.

Lesehilfe

Eine reguläre Matrix ist also nichts anderes als eine quadratische Matrix mit Maximalrang.

Eine lineare Selbstabbildung ist somit genau dann bijektiv, wenn die ihr hinsichtlich irgendeiner Basis zugeordnete Matrix regulär ist. Da dem Produkt zweier Isomorphismen umkehrbar eindeutig das Produkt der zugeordneten Matrizen entspricht, lässt sich Satz 3.9 auf reguläre Matrizen übertragen:

68

3

Lineare Abbildungen

Satz 3.10 Die regulären n n-Matrizen bilden bezüglich der Matrizenmultiplikation eine Gruppe. Diese Matrizengruppe, die man als GL.n; K/ bezeichnet, ist wie die ihr entsprechende Gruppe der Isomorphismen GL.V / nicht kommutativ. Das neutrale Element der Matrizengruppe ist die der Identität entsprechende n n-Einheitsmatrix 0

1 0 B0 1 B En D B : : @ :: :: 0 0





:: :



1 0 0C C :: C; :A 1

siehe (3.13). Entspricht einem Isomorphismus f hinsichtlich einer Basis die n n-Matrix A, so entspricht dem inversen Isomorphismus f 1 eine Matrix, die man mit A1 bezeichnet und die zu A inverse Matrix nennt. Es ist somit A1 A D AA1 D En ;

 1 1 A D A:

(3.34)

Für die Inversion eines Matrizenprodukts mit einer zweiten regulären n n-Matrix B gilt .AB/1 D B 1 A1 ;

(3.35)

wie man aus der Bedingung .AB/1 AB D En durch Multiplikation von rechts mit B 1 und anschließend mit A1 leicht folgert. Ferner halten wir fest: Die inverse Matrix A1 existiert genau dann, wenn A eine reguläre Matrix ist.

Zwischenfrage (7)

Beweise die Formel .AB/1 D B 1 A1 .

3.8.1 Rechenschema zur Berechnung der inversen Matrix Wir suchen zu einer regulären n n-Matrix A D .aij / die inverse Matrix A1 , für die gilt AA1 D En . Bezeichnen wir die Spalten der gesuchten Matrix A1 mit sj , j D 1; : : : ; n, muss also die Gleichung 0

a11 B :: @ : an1



:: :



1 a1n 0 " :: C@ : A s1 # ann

1 0 " " A @

sn D e 1 # #

1 "

enA #

(3.36)

3.8 Umkehrabbildung und inverse Matrix

69

erfüllt sein, wobei wir auch En in Form seiner Spalten, den kanonischen Basisvektoren ej , geschrieben haben. Macht man sich nun klar, dass zur Multiplikation der Matrizen die Spalten sj auf die Zeilen der Matrix A gelegt werden, um die Spalten von En zu erhalten, so erkennt man, dass sich die Spalten sj der gesuchten inversen Matrix als Lösungen der Gleichungssysteme Asj D ej ;

j D 1; : : : ; n;

(3.37)

ergeben.

Lesehilfe

Ein lineares Gleichungssysteme von n Gleichungen mit n Unbekannten x1 ; : : : ; xn , d. h. ein Gleichungssystem a11 x1 C : : : C a1n xn D b1 :: :: :: :: : : : : an1 x1 C : : : C ann xn D bn ; kann geschrieben werden als 0

a11 B :: @ : an1



:: :



10 1 0 1 x1 b1 a1n :: CB :: C D B :: C : A@ : A @ : A ann

xn

bn

oder kurz als Ax D b: Genau solche Gleichungssysteme haben wir in (3.37) vor uns: Dort sind die Elemente der gesuchten Spaltenvektoren sj die Unbekannten.

Das Rechenschema zur Berechnung der inversen Matrix besteht nun darin, die Gleichungssysteme (3.37) simultan zu lösen. Dazu schreibt man hinter die zu invertierende n n-Matrix A die Einheitsmatrix En . Auf dieses Schema kann man zur Lösung die elementaren Zeilenumformungen anwenden: (1) Ersetzung einer Zeile durch die Summe dieser Zeile mit dem beliebigen Vielfachen einer anderen Zeile. (2) Vertauschung zweier Zeilen. (3) Multiplikation einer Zeile mit einem Skalar c ¤ 0.

70

3

Lineare Abbildungen

Mit Hilfe dieser Operationen überführt man die Matrix A schrittweise in die Einheitsmatrix, wobei sämtliche Operationen auch im hinteren Teil des Schemas ausgeführt werden. Auf diese Weise entsteht im hinteren Bereich aus der Einheitsmatrix die gesuchte inverse Matrix A1 D .sij /, a11 :: : an1



:: :



a1n :: :

1 :: :

ann

0



:: :



0 :: :

elementare

! Zeilenumformungen

1

1 :: : 0



:: :



0 :: :

s11 :: :

1

sn1



:: :



s1n :: : : snn

Lesehilfe

Bisher haben wir lineare Gleichungssysteme a11 :: : an1



:: :



a1n :: :

b1 :: :

ann

bn

in der Regel durch Überführen in ein oberes Dreiecksschema gelöst, also das Gauß-Verfahren an der Stelle  :: : 0



:: :







 

 

beendet und dann durch Rückwärtseinsetzen die gesuchten Variablen xi berechnet. Man kann das Verfahren aber auch weiter fortsetzen und die Koeffizientenmatrix in die Einheitsmatrix überführen: Dann stehen die Lösungen fertig berechnet im „Ergebnisvektor“, d. h., dann ist 1 :: : 0



:: :



0 :: :

x1 :: : :

1

xn

Genau das wird bei der Berechnung der inversen Matrix simultan für die n Gleichungssysteme (3.37) gemacht.

Dabei geht man analog zum Additionsverfahren nach dem Gauß-Schema vor, im Einzelnen: (1) Falls nötig, sorgt man durch Vertauschen zweier Zeilen dafür, dass das (1,1)Element ungleich 0 ist. Anschließend addiert man zu den Zeilen 2 bis n passen-

3.8 Umkehrabbildung und inverse Matrix

71

de Vielfache der ersten Zeile so, dass die jeweiligen 1-Elemente der Summenzeilen gleich 0 sind. Im Ergebnis erhält man ein Zahlenschema, dessen erste Spalte ein 1-Element ungleich 0 und ansonsten nur Nullen enthält. (2) Erneut sorgt man ggf. durch Zeilenvertauschung – allerdings ohne Verwendung der ersten Zeile – dafür, dass das (2,2)-Element ungleich 0 ist und addiert passende Vielfache zu den Zeilen 3 bis n so, dass die jeweiligen 2-Elemente der Summenzeilen gleich 0 sind. Ebenso verfährt man mit den weiteren Elementen (3,3), (4,4) usw., bis ein oberes Dreiecksschema erreicht ist. Anschließend multipliziert man die Zeilen jeweils so mit einer Zahl, dass in der Hauptdiagonalen Einsen stehen. (3) Nun geht man analog zu den obigen Schritten von unten nach oben vor: Man addiert geeignete Vielfache der letzten Zeile zu den Zeilen 1 bis .n  1/, um deren n-Elemente jeweils 0 werden zu lassen, anschließend verwendet man die vorletzte Zeile für die zweite Spalte von hinten usw., bis in der vorderen Hälfte des Schemas die Einheitsmatrix erscheint. In der hinteren Hälfte, in der alle Zeilenoperationen mitgerechnet wurden, kann nun die inverse Matrix abgelesen werden. Siehe auch Satz 5.5 und Abschn. 5.4.2.

Lesehilfe

Zwar ist das Gauß-Schema und damit auch die Matrixinversion im Prinzip einfach, aber wir haben hier doch seine bisher anspruchvollste Anwendung vor uns. Naturgemäß nimmt der Rechenaufwand mit der Dimension der Matrizen rasch zu: 2 2 ist leicht, 3 3 ist ohne Weiteres möglich, ab 4 4, zumindest wenn die Matrizen voll besetzt sind, kommt man an die Grenze dessen, was handschriftlich sinnvoll ist.

Antwort auf Zwischenfrage (7)

Es sollte die Formel .AB/1 D B 1 A1 bewiesen werden. Zunächst haben wir .AB/1 AB D En , weil .AB/1 die inverse Matrix zu AB ist. Multiplizieren wir von rechts mit B 1 , führt dies auf .AB/1 ABB 1 D En B 1 ;

d. h. .AB/1 A D B 1 ;

da BB 1 D En und En B 1 D B 1 ist. Multiplikation mit A1 von rechts ergibt nun .AB/1 AA1 D B 1 A1 ;

d. h. .AB/1 D B 1 A1 :

72

3

Lineare Abbildungen

Zwischenfrage (8)

Was passiert, wenn man aus Versehen eine Matrix invertiert, die nicht regulär ist?

Beispiele

! 2 3 (1) Wir invertieren die 2 2-Matrix A D : 7 1 2 3 7 1

2 1 0 . 72 / Ý 0 1 # 0 Ý

1

wir haben also A

7 23

1

AA

1 7 2 1  23 7 23

1 0 0 1

1  23

D

3 23 2

3 23 2 23

1  32 0 . 12 / Ý 2 1 . 23 / 0 1 3 23 2 23

 12 7 23

0 2 23

" . 32 /

;

! . Die Probe ergibt tatsächlich

2 3 D 7 1

!

1  23 7 23

3 23 2 23

!

! 1 0 D : 0 1

Ist also einer Abbildung f W R2 ! R2 die Matrix A zugeordnet, so wird die Umkehrabbildung f 1 W R2 ! R2 durch die obige Matrix A1 beschrieben. (2) Eine Drehung im R2 wird invertiert, indem man die entsprechende Gegendrehung ausführt. Daraus lässt sich ohne Rechnung die Inverse einer Drehmatrix angeben: cos ˛ sin ˛

 sin ˛ cos ˛

!1 cos.˛/ D sin.˛/

!  sin.˛/ cos ˛ D cos.˛/  sin ˛

! sin ˛ : cos ˛

(3.38)

Antwort auf Zwischenfrage (8)

Gefragt war nach dem versehentlichen Invertieren einer singulären Matrix. Eine singuläre Matrix lässt sich nicht invertieren. Sie besitzt einen Rang kleiner als n und es ist somit nicht möglich, sie auf ein vollständiges oberes Dreieckschema zu bringen. Stattdessen entsteht mindestens eine Nullzeile, sodass das obige Schema zur Matrixinversion nicht funktioniert. Man merkt also beim Versuch der Inversion „automatisch“, ob die Matrix regulär oder singulär ist.

3.8 Umkehrabbildung und inverse Matrix

73

3.8.2 Eindeutig lösbare Gleichungssysteme Wir haben gesehen, dass die Inversion einer n n-Matrix die (simultane) Lösung von n Gleichungssystemen erfordert. Umgekehrt lassen sich eindeutig lösbare lineare Gleichungssysteme von n Gleichungen mit n Unbekannten x1 ; : : : ; xn , a11 x1 C : : : C a1n xn D b1 :: :: :: :: ; : : : : an1 x1 C : : : C annxn D bn durch die Inversion der Koeffizentenmatrix A D .aij / lösen: Da die Matrix A regulär ist, existiert die inverse Matrix A1 . Multipliziert man nun das Gleichungssystem Ax D b

(3.39)

von links mit A1 , so erhält man A1 A x D A1 b; „ƒ‚…

also

x D A1 b:

(3.40)

En

Lesehilfe

Das sieht zwar schick aus, man darf aber nicht vergessen, dass der Rechenaufwand zur Inversion der Matrix A nicht geringer ist als für das „normale“ Lösen des Gleichungssystems. Des Weiteren ist zu beachten, dass sich mehrdeutig lösbare Gleichungssysteme nicht auf diese Weise behandeln lassen: Sie erfordern weiterhin die normale Anwendung des Gauß-Schemas, das dann auf eine oder mehrere Nullzeilen führt und eine Lösungsmenge ergibt.

Beispiel Das Gleichungssystem 2x1  2x2 C 3x3 D 3 x1  x2  4x3 D 6

(3.41)

2x1 C 2x2 C x3 D 0 schreibt sich mit 0

1 2 2 3 A D @1 1 4A 2 2 1

0

1 3 und b D @ 6 A 0

74

3

Lineare Abbildungen

als Ax D b. Wir invertieren die Matrix A: 2 2 3 1 1 4 2 2 1 1 1 Ý0 1 0 0 1 0 0 Ý0 1 0 0 0 1

2 2 3 1 0 0 . 12 / .1/ Ý 0 2  52 0 1 0 # 0 0 4 0 0 1 #

3 2 5 4

1 2

 14

1

1 4 7  16 9  16 1 4

0  12 0  12  12 0

0 0 . 12 / 1 0 . 12 / 0 1 . 14 /

1 1 2

1

1 1 0 Ý 0 1 0 " 0 0 1 . 54 / . 32 / "

0 0 1 4

1 8 9  16 1 4

0  12 0

 38 " 5  16 .1/ 1 4

 11 16 5 :  16 1 4

Die inverse Matrix lautet demnach 0

A1

 12  12 0

7 B 16 9 D @ 16 1 4

1  11 16 5 C A  16 1 4

und als Lösung des Gleichungssystems (3.41) ergibt sich 0

10 1 0 1  11 3  27 16 16 C B C 5 CB A@ 6 A D @ 21 A;  16 16 1 3 0 4 4

 12  12 0

7  16 B 9 x D A1 b D @ 16 1 4 21 3 also x1 D  27 16 , x2 D  16 , x3 D  4 .

3.9 Transposition von Matrizen Die Transposition ist eine Operation für Matrizen, bei der die Spalten und die Zeilen ihre Rolle tauschen. Betrachten wir den allgemeinen Fall einer n k-Matrix 0

  A D aij 1i n

1j k

a11 Ba21 B DB : @ ::

a12 a22 :: :





:: :

1 a1k a2k C C :: C: : A

an1

an2



ank

(3.42)

3.9 Transposition von Matrizen

75

Schreibt man die Spalten dieser Matrix als Zeilen einer neuen Matrix, so erhält man eine k n-Matrix 0

a11 Ba12 B AT D B : @ ::

a21 a22 :: :





:: :

1 an1 an2 C C :: C; : A

a1k

a2k



ank

(3.43)

die man die zu A transponierte Matrix nennt. Bezeichnet man die Elemente von AT mit aij0 , gilt demnach aij0 D aj i :

(3.44)

Zeilen- und Spaltenindex vertauschen also bei der Transposition ihre Bedeutung. Insbesondere kann auch eine n 1-Matrix, die einem stehenden n-Tupel entspricht, transponiert werden und ergibt dann eine 1 n-Matrix, einen liegenden n-Tupel.

Lesehilfe

Der erste Index von Matrixelementen ist immer der Zeilenindex. Das ist in der Matrix (3.43) „falsch“, weil hier die Zeilen als die Spalten aufgeschrieben sind. Die neuen Matrixelemente aij0 stehen0dann1wieder an den richtigen a11 Positionen. B :: C Eine n 1-Matrix ist eine Matrix A D @ : A und damit ist AT D an1 0 0 ; : : : ; a1n /. Hier ist ein Index immer gleich 1 und wird .a11 ; : : : ; an1 / D .a11 gar nicht benötigt, man kann ihn daher weglassen und hat dann einfach 0 1T a1 B :: C @ : A D .a1 ; : : : ; an /: an

Die Transposition vertauscht in Produktmatrizen die Reihenfolge: Satz 3.11 Für die Transposition einer Produktmatrix gilt .AB/T D B T AT : 0 0 Beweis Es sei A D .aij /, B D .bj k /, AB D .ci k / und aj0 i , bkj , cki seien die Elemente der transponierten Matrizen. Dann haben wir 0 D ci k D cki

X j

aij bj k D

X j

0 bkj aj0 i :



76

3

Lineare Abbildungen

Beispielsweise ist 20 a11 6B :: 4@ : an1



:: :



10 13T 0 1T 0 x1 a11 a1k x1 :: CB :: C7 D B :: C B :: @:A @ : : A@ : A5 ank

xk

xk

an1 0



:: :



a11 B :: D .x1 ; : : : ; xk /@ : a1k

1T a1k :: C : A ank



:: :



1 an1 :: C: : A ank

Lesehilfe

Wie du siehst, ändern rechteckige Matrizen bei der Transposition ihren „Typ“, d. h., aus einer n k-Matrix wird eine k n-Matrix. Eine quadratische n nMatrix bleibt auch nach der Transposition quadratisch. Die Wirkung der Transposition kann auch beschrieben werden als „Spiegelung der Matrixelemente an der Hauptdiagonale“.

„Transponierte Beschreibung“ linearer Abbildungen Bei der Zuordnung einer Matrix A D .aij / zu einer linearen Selbstabbildung f , wie sie in (3.6) hinsichtlich der Basis fb1 ; : : : ; bn g vorgenommen wird, f .bj / D

n X

aij bi ;

j D 1; : : : ; n;

i D1

ist die Reihenfolge der Indizes an aij so gewählt, dass der Summationsindex i an erster Stelle steht und P die Gleichungsnummer j an zweiter Stelle. Dies führt zu y D f .x/ mit yi D j aij xj , was sich als y D Ax mit einem stehenden Vektor x hinter der Matrix A schreiben lässt. Ebenso hätte man aber auch die andere andere Reihenfolge wählen können, also statt der Matrix A eine Matrix A0 D .aj0 i / zuordnen gemäß f .bj / D

n X

aj0 i bi ;

j D 1; : : : ; n:

i D1

der linearen Abbildung f erfolgt Dann ist A0 D AT und die gesamte Beschreibung P transponiert. Man erhält dann yi D j xj aj0 i , was sich zusammenfassen lässt als y T D x T A0

(3.45)

mit einem liegenden Vektor x T vor der Abbildungsmatrix A0 , sodass sich auch der Ergebnisvektor in liegender Form ergibt.

3.9 Transposition von Matrizen

77

Lesehilfe

Wenn man verabredet, dass x ein stehender Vektor ist, ist x T der entsprechende liegende Vektor. Generell sind stehende Vektoren wohl gebräuchlicher als liegende und Ausdrücke Ax sieht man öfter als x T A mit einem liegenden Vektor vor einer Matrix. Dessen ungeachtet hat eine Darstellung ! a .x1 ; x2 / 11 a21

a12 a22

D .y1 ; y2 /

den Vorzug, dass man sie lesen kann als „der Vektor .x1 ; x2 / ergibt nach Durchlaufen der Matrix A den Vektor .y1 ; y2 /“.

Das Wichtigste in Kürze

 Eine lineare Abbildung ist mit den linearen Operationen vertauschbar. Sie bildet den Nullvektor stets auf den Nullvektor ab. Eine bijektive lineare Abbildung heißt Isomorphismus.  Der Rang einer Abbildung ist die Dimension ihres Bildraums.  Eine lineare Selbstabbildung auf einem endlichdimensionalen Vektorraum kann durch eine quadratische Matrix beschrieben werden, die spaltenweise die Bilder der Basisvektoren enthält. Die Zuordnung einer Matrix hängt i. Allg. von der gewählten Basis ab.  Der Rang einer Matrix ist gleich der Maximalzahl ihrer linear unabhängigen Spalten oder Zeilen. Der Rang einer Abbildung ist gleich dem Rang einer ihr zugeordneten Matrix.  Die Addition von Matrizen und die Multiplikation mit einem Skalar erfolgen komponentenweise.  Das Produkt zweier Matrizen ist so definiert, dass die Produktmatrix die Verkettung der entsprechenden Abbildungen beschreibt. Das Matrizenprodukt ist nicht kommutativ.  Zu regulären quadratischen Matrizen existiert die inverse Matrix.  Bei der Transposition einer Matrix vertauschen die Spalten und die Zeilen der Matrix ihre Rollen. J Und was bedeuten die Formeln? f .c1 x 1 C c2 x 2 / D c1 f .x 1 / C c2 f .x 2 /; f .0/ D 0; f .x/ D x1 f .b1 / C : : : C xn f .bn /; f .V / D hff .b1 /; : : : ; f .bn /gi; n X aij bi .j D 1; : : : ; n/; rg f WD dim f .V /; f .bj / D i D1

78

3

0

  A D aij 1i n

1j n

a11 Ba21 B DB : @ ::

a12 a22 :: :





:: :

an1

an2



0

" " A D @f .b1 / f .b2 /

# # ! cos ˛  sin ˛ D˛ D ; sin ˛ cos ˛ 0 b11 B0 B B B0 B elementare B A ! B D B 0 B Umformungen B0 B B :: @ : 0 rg f D rg A;

rg

0

a11 C b11 B :: ACB D@ : an1 C bn1

D˛



:: :



yi D





:: :









:: :

.i D 1; : : : ; n/;

f .x/ D y D Ax;









brr 0 :: :

0 0 :: :

0

aij xj

kD1

cos ˛ D  sin ˛

b12 b22

n X

ann 1

" f .bn /A; #

 sin ˛ cos ˛

cos ˛ sin ˛

1 a1n a2n C C :: C; : A

Lineare Abbildungen



!

0

! sin ˛ ; cos ˛ 1

b1n

b2n C C :: C



: C C C

brn C; C

0 C C :: :: C : : A

0

rg A D r;

D 2;

1 a1n C b1n C :: A; :

0 ca11 B :: cA D @ :

ann C bnn

can1



:: :



1 ca1n :: C; : A cann

.f ı g/.x 1 C x 2 / D f .g.x 1 // C f .g.x 2 //; .f ı g/ ı h D f ı .g ı h/; n X ai k bkj .i; j D 1; : : : ; n/; C D AB bedeutet cij D 0 B Bai1 @

10 :: b1j : CB :: C

a i n A@

: :: b nj :

ai1 b1j C : : : C ai n bnj D

n X

kD1

a11 :: : an1



:: :



a1n :: :

1 :: :

ann

0



:: :





0

:: : C B B cij D A



@ :: : ai k bkj D cij ;

kD1

A1 A D AA1 D En ;

1

A1

1

D A;

0 1 :: ! :: : : 1 0



:: :



1 C

C A;

AE D EA D A;

.AB/1 D B 1 A1 ; 0 :: :

s11 :: :

1

sn1



:: :



s1n :: : snn ;

Übungsaufgaben

cos ˛ sin ˛

 sin ˛ cos ˛

79

!1

! sin ˛ ; cos ˛  AT D aij0 ; aij0 D aj i ;

cos ˛ D  sin ˛

Ax D b , x D A1 b; 0 1T a1 B :: C T T T @ : A D .a1 ; : : : ; an /; .AB/ D B A ;

y T D x T A0 :

an

Übungsaufgaben A3.1 Zeige, dass die Abbildung f W V ! V mit f .x/ D x C a und a ¤ 0 keine der beiden definierenden Linearitätseigenschaften erfüllt. A3.2 Die Abbildung f W R3 ! R3 bilde die kanonischen Basisvektoren e 1 ; e 2 ; e 3 ab auf die Vektoren 0 1 0 1 0 1 1 4 7 @2A; @5A bzw. @8A: 3 6 9 Wie lautet das Bild des Vektors .1; 2; 3/? Ist f ein Isomorphismus? Welchen Bildraum besitzt f ? A3.3 Wir betrachten lineare Selbstabbildungen des Vektorraums R3 mit der kanonischen Basis E3 D fe 1 ; e 2 ; e 3 g. Die zwei Abbildungen f und g bilden die Basisvektoren in folgender Weise ab: f .e 1 / D e 1 C 2e 2 f .e 2 / D e 1 C 2e 3 f .e 3 / D e 1 C e 2 C 2e 3

g.e 1 / D 2e 1 C e 2  3e 3 g.e 2 / D e 1  e 2  e 3 g.e 3 / D 3e 2  e 3 :

a) Wie lauten die den Abbildungen f und g hinsichtlich der kanonischen Basis zugeordneten Matrizen (die Matrizen sollen mit A bzw. B bezeichnet sein)? b) Handelt es sich bei den Abbildungen f und g um Isomorphismen? Welche Dimensionen haben die Bildräume der beiden Abbildungen? c) Gegeben seien die Vektoren x D .2; 1; 0/ und y D .1; 2; 3/. Berechne f .x/, f .y/, g.x/, g.y/ und f .x C y/. A3.4 Der R3 werde durch ein kartesisches Koordinatensystem dargestellt und wir betrachten eine Drehung d W R3 ! R3 , die mit einem Winkel von 45ı um die y-Achse erfolge. Auf welche Vektoren werden die kanonischen Basisvektoren abgebildet? Welchen Bildvektor besitzt der Vektor .1; 1; 1/? Welche Vektoren werden auf die kanonischen Basisvektoren abgebildet?

80

3

Lineare Abbildungen

A3.5 Welchen Rang besitzen jeweils die folgenden Matrizen? ! 1 1 AD 1 1 0p 2 @ DD 0 0 0 4 @ G D 5 1

! ! 1 1 1 1 ; BD ; C D ; 1 1 1 1 p p 1 0 1 0 1 0 1 cos ˛  sin ˛ p2 p2 A @ A @ 3 3 ; E D 0 1 0 ; F D sin ˛ cos ˛ 0 2 1 0 1 0 0 1 0 1 3 2 3 1 2 A @ H D 1 0 2 A: 1 3 ; 1 2 5 2 2

1 0 0 A; 1

A3.6 Sind die folgenden Aussagen richtig oder falsch? Begründe jeweils deine Antwort. (I)

Die Summe zweier endlichdimensionaler Isomorphismen ist wieder ein Isomorphismus. (II) Das Produkt zweier endlichdimensionaler Isomorphismen ist wieder ein Isomorphismus. (III) Die Summe zweier nicht bijektiver Abbildungen kann nicht bijektiv sein. (IV) Das Produkt eines endlichdimensionalen Isomorphismus und einer Abbildung, die nicht bijektiv ist, kann nicht bijektiv sein. A3.7 Wir betrachten die zwei linearen Selbstabbildungen f ; g W R3 ! R3 , die hinsichtlich der kanonischen Basis beschrieben werden durch die Matrizen 0

1 0 1 1 1 1 2 1 0 A D @2 0 1A bzw. B D @ 1 1 3 A: 0 2 2 3 1 1 a) Bestimme die der Summenabbildung f C g hinsichtlich der kanonischen Basis zugeordnete Matrix (bezeichnet mit C ). Handelt es sich bei f C g um eine bijektive Abbildung? b) Auf welche Vektoren werden die Basisvekoren e 1 , e 2 , e 3 durch die inversen Abbildungen f 1 und .f C g/1 abgebildet? c) Wie lauten die Matrizen der folgenden Produktabbildungen hinsichtlich der kanonischen Basis? f ıg

.Matrix P1 /;

gıf

.Matrix P2 /;

f 1 ı f

.Matrix P3 /:

Welche dieser Abbildungen sind Isomorphismen? A3.8 Zeige, dass für drei reguläre Matrizen gilt .ABC /1 D C 1 B 1 A1 .

Übungsaufgaben

81

A3.9 Gegeben seien die folgenden Matrizen: 1 L1 D 1  10 0 1 0 B0 1 E4 D B @0 0 0 0 01p 3 2 B 1 2 D4 D B @ 0 0

! 0 ; 1

! 1 0 L2 D ;  12 1 0 1 1 0 0 0 B C 0 1 0 0C ; F DB @0 0 1 0A 0 0 0 1 1 p12 0 0 1 0 0p C 2 3 C: p 1 1 2  2p 2A 0 2p 1 2 12 2 0 2

Z 0 0 1 1

! 1 5 D ; 0 1 1 0 0C C; 1A 1

a) Bei welchen Matrizen handelt es sich um reguläre Matrizen? Welche Matrizen sind umkehrbar? Welche der Matrizen beschreiben hinsichtlich der kanonischen Basis ihres Vektorraums eine bijektive Abbildung? Welche Matrizen sind invertierbar? 1 1 1 1 b) Gib die inversen Matrizen L1 1 , L2 , Z , E4 und D4 an. c) Berechne die Matrizen L2 ZL1 , .L2 ZL1 /1 , D4 F und .E4 D4 /1 . A3.10 Der Kern einer Abbildung f auf dem Vektorraum V ist definiert als Kern f WD fx 2 V j f .x/ D 0g: Zeige: Eine lineare Abbildung f auf dem n-dimensionalen Vektorraum V ist genau dann bijektiv, wenn Kern f D f0g gilt.

4

Basistransformation

Die Koordinaten eines Vektors und die Zuordnung einer Matrix zu einer linearen Selbstabbildung hängen i. Allg. von der gewählten Basis ab. Es kann verschiedene Gründe geben, für einen gegebenen Vektorraum unterschiedliche Basen zu verwenden. Zum Beispiel können lineare Abbildungen in „zu ihnen passenden“ Basen leichter beschrieben werden, während ansonsten eine andere Basis vorteilhaft ist. Es ist dann notwendig, zwischen den Basen wechseln zu können, also eine Basistranformation durchzuführen. Wir werden im Folgenden sehen, dass sich die Basistransformation eines ndimensionalen Vektorraums durch eine reguläre n n-Matrix beschreiben lässt. Mit dieser Transformationsmatrix können zugehörige Koordinaten- und Abbildungstransformationen auf einfache Weise vorgenommen werden.

Wozu dieses Kapitel im Einzelnen

 Eine Basistransformation wird durch eine reguläre Matrix beschrieben. Solche Matrizen kennen wir schon und sehen hier eine weitere Anwendung.  Ein Wechsel der Basis wirkt sich auf die Koordinaten eines Vektors aus. Die Transformationsmatrix und ihre Inverse spielen dabei die entscheidende Rolle.  Auch Matrizen von Abbildungen hängen von der Basis ab. Mit der Transformationsmatrix kann auch hier der Übergang beschrieben werden, wobei drei Matrizen miteinander zu multiplizieren sind.  Drehungen im R3 können um Koordinatenachsen erfolgen, aber auch um beliebige andere Raumachsen. Der Mechanismus der Basistransformation erlaubt es, auch solche Drehungen in den Griff zu bekommen. Wir sehen uns an, wie das funktioniert.

© Der/die Autor(en), exklusiv lizenziert an Springer-Verlag GmbH, DE, ein Teil von Springer Nature 2023 J. Balla, Lineare Algebra, https://doi.org/10.1007/978-3-662-67667-7_4

83

84

4

Basistransformation

4.1 Transformationsmatrix Wir betrachten einen n-dimensionalen Vektorraum V und zwei Basen B D fb1 ; : : : ; bn g und B D fb1 ; : : : ; bn g. Für einen beliebigen Vektor x 2 V gilt dann xD

n X

und x D

xi bi

i D1

n X

xi bi :

(4.1)

i D1

Insbesondere lassen sich auch die Basisvektoren bj , j D 1; : : : ; n, als Linearkombinationen von B darstellen: bj D t1j b1 C : : : C tnj bn D

n X

j D 1; : : : ; n:

tij bi ;

(4.2)

i D1

Die Koeffizienten dieser n Linearkombinationen haben wir mit der zweifach indizierten Größe tij bezeichnet: Der erste Index i gibt die Position des Koeffizienten in der Linearkombination an und der zweite Index j die Nummer des gerade betrachteten Basisvektors bj . Diese Koeffizienten lassen sich zur n n-Matrix 0

  T D tij 1i n

1j n

t11 Bt21 B DB : @ ::

t12 t22 :: :





:: :

1 t1n t2n C C :: C : A

tn1

tn2



tnn

(4.3)

zusammenfassen. Durch diese Matrix wird die Basistransformation von B zu B vollständig beschrieben und wir wollen den Zusammenhang der Transformationsmatrix T mit dem Basiswechsel symbolisch abgekürzt wiedergeben als T

B ! B :

Wie man sieht, entspricht die j -te Spalte der Transformationsmatrix (4.3) dem Koordinaten-n-Tupel des Vektors bj hinsichtlich der Basis B, es ist also 0

" T D @b1 B #

" b2 B #

1 "

bnB A: #

(4.4)

Da B eine Basis ist, sind die Spalten von T linear unabhängig, d. h., die Transformationsmatrix einer Basistransformation ist eine reguläre Matrix.

4.1 Transformationsmatrix

85

Lesehilfe

Das obige Vorgehen zur Zuordnung einer Matrix zur Basistransformation erfolgt analog zur Matrix einer linearen Selbstabbildung, vergleiche (4.2) mit (3.6). Die Wahl der Indexreihenfolge bei tij bewirkt, dass die Koordinatenvektoren bjB stehend in die Matrix T eingetragen werden.

Zwischenfrage (1)

Jemand sagt: „Wenn eine Basistransformation im Rn stattfindet und ich die neue Basis B kenne, kenne ich auch die Transformationsmatrix T : Ich trage ihre Vektoren einfach als Spalten in T ein.“ Stimmt das?

4.1.1 Koordinatentransformation Wir betrachten nun die Koordinaten eines Vektors x hinsichtlich der beiden Basen B und B : Zunächst gilt xD

n X

xi bi

(4.5)

i D1

und außerdem xD

n X

xj bj D

j D1

n X

xj

j D1

n X

! tij bi

i D1

0 1 n n X X @ tij xj Abi : D i D1

(4.6)

j D1

Aus der Eindeutigkeit der Basisdarstellung von x hinsichtlich B folgt damit xi D

n X

tij xj ;

i D 1; : : : ; n:

(4.7)

j D1

Fassen wir die Koordinaten xi zu einem stehenden Koordinatenvektor x B und die Koordinaten xi zum Vektor x B zusammen, kann (4.7) geschrieben werden als x B D T x B :

(4.8)

Lesehilfe

Wir müssen oben zwischen dem Vektor x und seinen Koordinatenvektoren x B und x B unterscheiden. Wenn man es nur mit Koordinatenvektoren zu tun hat und keine Missverständnisse zu befürchten sind, kann man (4.8) auch einfacher als x D T x  wiedergeben.

86

4

Basistransformation

Mit (4.8) ist werden die „alten“ Koordinaten xi durch die „neuen“ Koordinaten xi ausgedrückt. Oft ist aber der umgekehrte Weg gewünscht, d. h., man möchte die neuen Koordinaten durch die alten ausdrücken. Dazu muss das Gleichungssystem x B D T x B invertiert werden, was mit Hilfe der inversen Matrix T 1 ohne Weiteres möglich ist: x B D T 1 x B ;

(4.9)

vgl. Abschnitt 3.8.2. Wir fassen zusammen: Satz 4.1 Wird in einem n-dimensionalen Vektorraum ein Basiswechsel von B zu B durch die Transformationsmatrix 0

" T D @b1 B #

" b2 B #

1 "

bnB A #

(4.10)

beschrieben, so entspricht dies der Koordinatentransformation x B D T x B

bzw.

x B D T 1 x B :

(4.11)

Antwort auf Zwischenfrage (1)

Gefragt war, ob im Rn mit Kenntnis der Basis B einfach ihre Vektoren als Spalten in T eingetragen werden. Nein, das stimmt nicht. Zunächst benötigt man für einen Basiswechsel zwei Basen, die Ausgangsbasis B und die Endbasis B . Mit B alleine kann daher keine Transformationsmatrix bekannt sein. Die Vorschrift 0

" T D @b1 B #

" b2 B #

1 "

bnB A #

enthält auch nicht einfach die Basisvektoren bj , sondern vielmehr die Koordinatenvektoren der bj hinsichtlich der Basis B, was sich durch das hochgestellte B an bjB ausdrückt. Diese Koordinatenvektoren müssen zur Ermittlung von T berechnet werden, d. h., es sind die n entsprechenden Gleichungssysteme zu lösen.

4.1.2 Berechnung der Transformationsmatrix Die Matrix T der Basistransformation B!B enthält die Darstellungen der Basisvektoren bj , j D 1; : : : ; n, durch die Basis B. Dazu müssen allerdings nicht

4.1 Transformationsmatrix

87

unbedingt die entsprechenden n Gleichungssysteme explizit aufgestellt und gelöst werden. Zunächst halten wir fest, dass mit dem „Hinweg“ B!B auch der „Rückweg“ bekannt ist, d. h. die Transformation B !B: Aus (4.11) folgt, dass diese inverse Transformation durch die inverse Matrix T 1 beschrieben wird. Das heißt T

B ! B

T 1

B ! B:

,

(4.12)

Handelt es sich im Vektorraum Kn bei der Ausgangsbasis B um die kanonische Basis E , haben wir also die Transformation E !B , so müssen zur Ermittlung der Transformationsmatrix die Vektoren bj hinsichtlich der kanonischen Basis E dargestellt werden. Nun ist aber einfach bjE D bj , j D 1; : : : ; n. Bezeichnen wir die Matrix, die spaltenweise die Vektoren bj enthält, mit B  , haben wir somit B

E ! B :

(4.13)

Lesehilfe

Der Fall E !B ist der einfachste Fall einer Basistransformation, da die Darstellung eines Vektors bj 2 Kn durch die kanonische Basis gleich dem Vektor selbst ist. Betrachten wir beispielsweise im R3 die Transformation E !B mit (011 0 2 1 041) B D fb1 ; b2 ; b3 g D @2A; @1A; @ 1 A ; 1 3 2 so lautet die zugehörige Transformationsmatrix 0

1 1 2 4 T D B  D @2 1 1 A: 1 3 2 Findet umgekehrt eine Basistransformation in die kanonische Basis statt, B!E , so ist dies der inverse Fall zu E !B und wir haben B 1

B ! E ;

(4.14)

wobei B für die Matrix steht, die spaltenweise die Vektoren der Basis B enthält. Auch der allgemeine Fall B!B lässt sich nun erhalten, indem man einen Umweg über die kanonische Basis geht, also zunächst in die kanonische Basis transformiert und dann von dort in die Zielbasis B : B 1

B

B ! E ! B :

(4.15)

88

4

Basistransformation

Aufgrund von (4.8) ist dies gleichbedeutend mit x B D B 1 x E



und x E D B  x B ;

1  B d. h. x B D B „ ƒ‚B… x



T

und wir halten fest: Die Basistransformation B!B des Kn wird durch die Transformationsmatrix T D B 1 B  beschrieben. Dabei wird die Matrix B spaltenweise durch die Vektoren von B gegeben und die Matrix B  durch die Vektoren von B .

Lesehilfe

In der Formel T D B 1 B  sind auch die Fälle enthalten, dass es sich bei einer der beiden Basen um die kanonische Basis handelt: Dann ist entweder B D En oder B  D En .

Der Rechenaufwand zum Ermitteln einer Transformationsmatrix hängt natürlich von der Dimension n ab: Für n D 2 ist eine 2 2-Matrix zu invertieren und mit einer anderen zu multiplizieren, für n D 3 sind es 3 3-Matrizen usw. Dabei kommt man mit der Formel T D B 1 B  nicht zwangsläufig schneller zum Ziel als durch die direkte Lösung der Gleichungssysteme (4.2), zumal deren Lösung simultan erfolgen kann, siehe das nachfolgende Beispiel. Beispiel

! ! !  ! 1 3 1 1  ; und B D ; des R2 . Zur Wir betrachten die Basen B D 2 4 1 1 Ermittlung der Transformationsmatrix T berechnen wir die Koordinaten der Vektoren von B hinsichtlich der Basis B, d. h., wir haben die Gleichungssysteme 

1 3 2 4

1 1

1 3 2 4

und

1 1

zu lösen, was wir simultan ausführen können: 1 3 2 4

1 1 .2/ 1 3 Ý 1 1 # 0 2 Ý

1 0 0 1

1 1 1 3 Ý 1 3 . 12 / 0 1  12

 72

1 2

3 2

:

T

1

1

1 2

3 2

" .3/ (4.16)

Die Basistransformation B ! B wird somit beschrieben durch die Matrix !  12  72 T D 1 : (4.17) 3 2

2

4.1 Transformationsmatrix

89

Lesehilfe T

Das obige Vorgehen zur Berechnung der Transformationsmatrix B ! B lässt sich schematisch wie folgt wiedergeben: B j B  ! En j T: Also: Schreib die Basen B und B in Form der entsprechenden Matrizen B und B  in das Gleichungsschema B j B  . Überführe die linke Seite durch elementare Zeilenumformungen in die Einheitsmatrix. Im Ergebnis steht dann auf der rechten Seite die gesuchte Transformationsmatrix T . Zur Überführung eines Koordinatenvektors x B in seine „neuen“ Koordinaten x B mittels x B D T 1 x B wird die inverse Matrix T 1 benötigt. Eine kurze Rechnung ergibt ! T 1 D

3 2

 12

7 2  12

:

Besitzt ein Vektor x hinsichtlich B den Koordinatenvektor x B D ! ! ! 3 7 1 16 B 2 2 D x D  12  12 5 2

(4.18) !

1 , so ist also 5 (4.19)

sein Koordinatenvektor hinsichtlich B . Wir machen die Probe: Einerseits ist ! ! ! 1 3 14 xD C5 D 2 4 18 und andererseits

! ! ! 1 1 14 x D 16 2 D : 1 1 18

Zwischenfrage (2)

Ermittle die obige Transformationsmatrix mithilfe der Formel T D B 1 B  .

4.1.3 Beispiel: Koordinatendrehung Als weiteres Beispiel für eine Basistransformation wollen wir uns eine Koordinatendrehung im R2 ansehen, dessen Vektoren in einem kartesischen Koordinatensys-

90

4

Basistransformation

tem dargestellt werden. Wir starten mit der kanonischen Basis !  ! 1 0 E D fe 1 ; e 2 g D ; : 0 1 Der Vektor x D .x; y/ besitzt hinsichtlich E die Koordinaten x; y, eine Unterscheidung zwischen x und x E ist somit nicht erforderlich. Wir suchen nun die Koordinaten des Vektors x in einem zweiten Koordinatensystem, das gegen das erste um einen Winkel ˛ in mathematisch positiver Richtung gedreht ist. Die Basis dieses gedrehten Koordinatensystems wird gegeben durch ! !  cos ˛  sin ˛ B D fb1 ; b2 g D ; ; (4.20) sin ˛ cos ˛ siehe Abb. 4.1. Die Transformationsmatrix T der Basistransformation E ! B lautet ! ! cos ˛ sin ˛ cos ˛  sin ˛ 1 : (4.21) T D ; d. h. T D  sin ˛ cos ˛ sin ˛ cos ˛ Damit ist auch der Zusammenhang zwischen den Koordinaten gegeben: Es ist x  D T 1 x, also x  D x cos ˛ C y sin ˛ y  D x sin ˛ C y cos ˛:

(4.22)

Natürlich gibt es auch im R3 Koordinatendrehungen, für die neben dem Drehwinkel auch eine Achse festgelegt werden muss, um die das Koordinatensystem gedreht wird. Man bezeichnet Koordinatendrehungen generell auch als passive Drehungen, um sie von den aktiven Drehungen zu unterscheiden, mit denen die Vektoren – und nicht das Koordinatensystem – gedreht werden.

Lesehilfe

Bei einer linearen Abbildung wird der Vektor gedreht, bei einer Koordinatendrehung bleibt der Vektor an seiner Stelle und das Koordinatensystem „unter ihm“ wird gedreht. Beides ist bezüglich des Drehwinkels „invers“ zueinander: Dreht man den Vektor um den Winkel ˛, so ist dies gleichbedeutend mit einer Koordinatendrehung um den Winkel ˛.

4.1 Transformationsmatrix

91

Abb. 4.1 Ein Vektor x hat hinsichtlich eines kartesischen Koordinatensystems, das der kanonischen Basis f.1; 0/; .0; 1/g entspricht, die Koordinaten x; y. Ein weiteres Koordinatensystem ist dagegen um den Winkel ˛ in mathematisch positiver Richtung gedreht. Sämtliche Basisvektoren enden auf dem Einheitskreis und die gedrehte Basis ist daher fb1 ; b2 g D f.cos ˛; sin ˛/; . sin ˛; cos ˛/g. Die Koordinaten des Vektors x im gedrehten System lauten x  D x cos ˛ C y sin ˛, y  D x sin ˛ C y cos ˛

Sehen wir uns die entsprechenden Gleichungen noch einmal diebeszüglich an: Die lineare Abbildung wird durch (3.16) beschrieben, d ˛ .x/ D D˛ x: Mit ihr wird der Vektor x um den Winkel ˛ gedreht. Bei der Koordinatendrehung wird der Koordinatenvektor x in den neuen Vektor x  überführt gemäß der Vorschrift x  D T 1 x D D˛ x: Die Koordinatendrehung wirkt also wie eine Vektordrehung um ˛.

92

4

Basistransformation

Antwort auf Zwischenfrage (2)

Es sollte die Transformationsmatrix über T D B!1 B  berechnet werden. ! 1 3 1 1 Wir haben B D und B  D . Wir invertieren B, 2 4 1 1 1 3 2 4

1 0 .2/ 1 3 Ý 0 1 # 0 2 Ý

1 0 0 1

1 0 1 3 1 Ý 2 1 . 2 / 0 1

1 0 1  12

" .3/

2 32 ; 1  12

und bilden das Matrizenprodukt 2 32 B B D 1  12 1



!

! 1 1 1 D 12 1 1 2

 72 3 2

! :

4.2 Basistransformation für Abbildungen Neben den Koordinaten von Vektoren hängt auch die n n-Matrix, die einer linearen Selbstabbildung f eines n-dimensionalen Vektorraums zugeordnet wird, von der Basis ab: Der Abbildung f sei hinsichtlich der Basis B die Matrix A zugeordnet, d. h., es gelte f .x/ D Ax DW y

(4.23)

mit stehend geschriebenen Koordinatenvektoren x und y. Wir betrachten nun eine T

Basistransformation B ! B in eine zweite Basis B . Für die Koordinatenvektoren gilt damit x D T x  bzw. x  D T 1 x und y D T y  bzw. y  D T 1 y. Multipliziert man nun die Gleichung y D Ax D AT x 

(4.24)

von links mit T 1 , erhält man mit T 1 y D T 1 AT x  ; „ƒ‚… y

also

1 y D T AT… x  „ ƒ‚

(4.25)

A

die vollständig in die neue Basis überführte Abbildungsgleichung und wir haben

4.2 Basistransformation für Abbildungen

93

Satz 4.2 Der linearen Selbstabbildung f eines n-dimensionalen Vektorraums sei hinsichtlich der Basis B die Matrix A und hinsichtlich der Basis B die Matrix A zugeordnet. Der Übergang von B zu B werde durch die Transformationsmatrix 1 0 " " " T D @bB bB bB A 1

#

2

n

#

#

vermittelt. Dann gilt A D T 1 AT . Satz 4.2 lässt sich auch rückwärts lesen: Gibt es für zwei n n-Matrizen A und A eine reguläre Matrix T , sodass gilt A D T 1 AT , so beschreiben diese Matrizen dieselbe lineare Abbildung, nur hinsichtlich unterschiedlicher Basen. Matrizen mit dieser Eigenschaft bezeichnet man als zueinander ähnliche Matrizen.

Zwischenfrage (3)

In Kap. 3 haben wir gesehen, dass die Identität hinsichtlich jeder Basis durch die Einheitsmatrix beschrieben wird, siehe (3.13). Wie lässt sich dies aus Satz 4.2 entnehmen? Gibt es noch andere Abbildungen, die stets dieselbe Abbildungsmatrix aufweisen?

Beispiel Wir greifen noch einmal das obige Beispiel auf, d. h. die Basistransformation ! !  !  ! T 1 3 1 1  BD ; ! B D ; 2 4 1 1 mit T D

 12 1 2

 72 3 2

! und

T

1

D

3 2

 12

7 2

 12

! :

Wir betrachten nun die lineare Abbildung f W R2 ! R2 , die hinsichtlich der Basis B durch die Matrix ! 1 0 AD (4.26) 1 0 ! 1 beschrieben werde. Sie bildet z. B. den Koordinatenvektor x B D ab auf 5 ! ! ! 1 0 1 1 f .x B / D D D y B: 1 0 5 1

94

4

Basistransformation

In der Basis B ergibt sich die Matrix von f als A D T 1 AT :

3 2

7 2

 12

 12

1 0 1 0

 12

 72

1 2

3 2

2 0 0 0

1 0

7 0

;

! 1 7 also A D : 0 0 

(4.27)

! 1 Der Vektor x mit x D besitzt hinsichtlich B den Koordinatenvektor x B D 5 ! 16 und es ist daher 2 B

! ! ! 1 7 16 2 D D y B : f .x B / D 0 0 2 0 Machen wir die Probe: Aus dem Koordinatenvektor y B ergibt sich ! ! ! 1 3 2 yD C D 2 4 2 und aus y B ebenso ! ! ! 1 1 2 yD2 C0 D : 1 1 2

Lesehilfe

Wir haben hier zwar „nur“ ein einfaches 2-dimensionales Beispiel, aber man kann doch leicht den Überblick verlieren: Der Vektor x ist das 2-Tupel .14; 18/, er besitzt die Koordinatenvektoren x B und x B . Die Abbildung f bildet das 2-Tupel x ab auf das 2-Tupel y D .2; 2/, das die Koordinatenvektoren y B und y B besitzt. Die Gleichungen y B D Ax B und y B D A x B beschreiben zweimal dieselbe Sache, nämlich y D f .x/, jeweils aus dem Blickwinkel der Basis B bzw. B . Die Matrix A „bewirkt“ also bei Koordinatenvektoren hinsichtlich B dasselbe wie die Matrix A bei Koordinatenvektoren hinsichtlich B .

4.3 Beispiel: Dreidimensionale Drehungen

95

Antwort auf Zwischenfrage (3)

Gefragt war nach der Identität und Satz 4.2 und nach möglichen anderen Abbildungen, die stets dieselbe Abbildungsmatrix aufweisen. Die Identität werde hinsichtlich einer Basis B durch die Einheitsmatrix En beschrieben. Für ihre Matrix En hinsichtlich einer beliebigen anderen Basis B gilt dann En D T 1 En T D T 1 T D En ; da das Produkt der Einheitsmatrix mit einer Matrix diese Matrix unverändert lässt. Die Einheitsmatrix ist somit nur zu sich selbst ähnlich. Dasselbe gilt für jedes Vielfache der Identität, d. h., für jede Abbildung c id mit c 2 K und der Abbildungsmatrix cEn D diag.c; : : : ; c/ und insbesondere auch für c D 0, also die Nullabbildung.

Zwischenfrage (4)

Wie wird die obige lineare Abbildung, gegeben durch die Matrix (4.26), in der kanonischen Basis des R2 beschrieben, d. h., wie lautet ihre Abbildungsmatrix AE ? Auf welche Vektoren werden die kanonischen Basisvektoren abgebildet?

4.3

Beispiel: Dreidimensionale Drehungen

Der Mechanismus der Basistransformation erlaubt es, dreidimensionale Drehungen um beliebige Raumachsen zu beschreiben.

4.3.1 Drehung um die Raumachse in Richtung .0; 1; 1/ Als ein erstes Beispiel betrachten wir die Drehung d 011 W R3 ! R3 , die mit dem Winkel ˛ um die durch den Vektor r D .0; 1; 1/ festgelegte Raumachse erfolgen soll. Um ihre Abbildungsmatrix zu ermitteln, beschreiben wir die Drehung zunächst in einem günstig gewählten kartesischen Koordinatensystem E  D fe x ; ey ; e z g, in dem e z mit der Drehachse zusammenfällt, siehe Abb. 4.2. Anschließend transformieren wir die Abbildungsmatrix in das Koordinatensystem E D fe x ; e y ; e z g.

96

4

Basistransformation

Abb. 4.2 Das Koordinatensystem E  ist so gewählt, dass seine z  -Achse mit der Drehachse übereinstimmt. Die Drehachse wird im Koordinatensystem E durch den Vektor r D .0; 1; 1/ festgelegt. Der Übergang vom Koordinatensystem E  zu E ergibt sich somit durch eine Koordinatendrehung mit 45ı um die x  -Achse (die mit der x-Achse des Koordinatensystems E zusammenfällt)

Lesehilfe

Die Drehachse wird hier als „durch den Vektor r D .0; 1; 1/ festgelegt“ beschrieben. Damit ist natürlich die Ursprungsgerade gemeint, die diesen Richtungsvektor besitzt. Die genaue Wahl des Richtungsvektors spielt keine Rolle: Ebenso könnte man .0; 7=2; 7=2/ wählen oder .0; 1; 1/. Die Wahl .0; 1; 1/ ist nur die einfachste.

In der Basis E  entspricht die gesuchte Abbildung einer Drehung um die z  -Achse und wird daher beschrieben durch die Matrix 0

 D011

cos ˛ D @ sin ˛ 0

 sin ˛ cos ˛ 0

1 0 0A: 1

Der Übergang von E  zu E erfolgt mit einer durch eine 3 3-Matrix T beschriebenen Basistransformation, T

E  ! E ;

die einer Koordinatendrehung mit 45ı um die x  -Achse entspricht, siehe Abb. 4.2. Zur Bestimmung der Matrix T drücken wir die Basisvektoren von E durch die

4.3 Beispiel: Dreidimensionale Drehungen

97

Vektoren von E  aus: e x D e x 1 1 ey D cos 45ı ey C sin 45ı e z D p e y C p e z 2 2 1 1 e z D  sin 45ı e y C cos 45ı e z D  p ey C p e z : 2 2 Die Transformationsmatrix T lautet daher 1 0 1 0p 0p T D @0 1= 2 1= 2A: p p 0 1= 2 1= 2

(4.28)

(4.29)

Lesehilfe

p Wie du siehst, haben wir hier Sinus- und Cosinuswerte cos 45ı D 1= 2 D sin 45ı verwendet. Mit den Gleichungen (4.28) werden die „neuen“ Basisvektoren durch die „alten“ ausgedrückt und diese Koordinaten sind stehend in die Transformationsmatrix einzutragen. Schreiben wir die Gleichungen als 0 1E  1 @ e x D 0A ; 0

1E  0p ey D @1= 2A ; p 1= 2 0

1E  0p e z D @1= 2A ; p 1= 2 0

steht die Matrix praktisch vor uns.

Die inverse Basistransformation besteht in der entsprechenden Rückdrehung der Koordinaten, sodass wir die inverse Matrix T 1 leicht angeben können: 1 0 1 0p 0p T 1 D @0 1= 2 1= 2A: p p 0 1= 2 1= 2 Die gesuchte Matrix D011 , mit der die Drehung im Koordinatensystem E beschrieben wird, ergibt sich nun wie folgt:  T D011 D T 1 D011 10 0 cos ˛  sin ˛ 1 0p 0p D @0 1= 2 1= 2A@ sin ˛ cos ˛ p p 0 1= 2 1= 2 0 0 1 0 sin p˛ p˛ cos ˛  sin 2 2 C B sin 1 C 12 cos ˛ 12  12 cos ˛ A: D @ p2˛ 2 p˛  sin 2

1 2

 12 cos ˛

1 2

C 12 cos ˛

1 10 0 1 0p 0p 0A@0 1=p2 1=p 2A 0 1= 2 1= 2 1 (4.30)

98

4

Basistransformation

Lesehilfe

Natürlich steckt hinter diesem dreifachen Matrizenprodukt ein wenig Rechenarbeit, die hier nicht im Einzelnen ausgeführt wurde. Rechne es am besten selbst einmal nach, z. B. mit dem Falk-Schema.  D Dz , mit Die Matrix D011 ist erwartungsgemäß komplizierter als die Matrix D011 der die Drehung im geeignet gewählten Koordinatensystem E  beschrieben wird. Als ein Test für ihre korrekte Form kann gelten, dass sie den Vektor .0; 1; 1/ auf sich selbst abbildet, 10 1 0 1 0 sin p˛ p˛ cos ˛  sin 0 0 2 2 C@ A @ A B sin 1 1 1 1 ˛ p C cos ˛  cos ˛ D 1 1 : A @ 2 2 2 2 2 sin ˛ 1 1 1 1 1 1 p 2  2 cos ˛ 2 C 2 cos ˛ 2

Eine Drehung bildet sämtliche Vektoren, die auf der Drehachse liegen, auf sich selbst ab. Antwort auf Zwischenfrage (4)

Gefragt war nach der linearen Abbildung der Matrix (4.26) und ihrer Darstellung in der kanonischen Basis. Die Abbildungsmatrix ! 1 0 AD 1 0 beschreibt die Abbildung f die hinsichtlich der Basis B. Zu ihrer Darstellung T

in der kanonischen Basis ist die Basistransformation B ! E notwendig und es ist T D B 1 , siehe (4.14). Nun ist !1 ! 3 1 3 2 2 B 1 D D 2 4 1  12 und wir berechnen AE D T 1 AT D BAB 1 : 1 0 1 0 1 3 2 4

2 0 2 0

2 32 1  12 4 4

3 3

;

! 4 3 also A D : 4 3 E

Die Matrix AE enthält spaltenweise die Bilder der kanonischen Basisvektoren, d. h., es ist f .e 1 / D .4; 4/ und f .e 2 / D .3; 3/.

4.3 Beispiel: Dreidimensionale Drehungen

99

4.3.2 Allgemeiner Fall dreidimensionaler Drehungen Zunächst halten wir noch einmal fest: Wählt man bei einer Drehung um den Winkel ˛ im R3 ein kartesisches Koordinatensystem so, dass seine z-Achse mit der Drehachse übereinstimmt, wird die Drehung durch die Matrix Dz .˛/ beschrieben. Soll die Drehung in einem anderen, zu diesem Koordinatensystem verdrehten System beschrieben werden, kann dies durch eine entsprechende Koordinatendrehung erreicht werden. Im obigen Beispiel der Drehung d 011 handelt es sich dabei um den einfachen Fall, dass die Drehachse in einer Koordinatenfläche des gewünschten Endsystems liegt. In diesem Fall kann die Transformation in bzw. aus einem geeignet gewählten Koordinatensystem durch eine Koordinatendrehung um eine Koordinatenachse erfolgen. Passive Drehungen und Euler-Winkel Betrachten wir nun den allgemeinen Fall: Eine Koordinatentransformation in ein beliebig anders orientiertes kartesisches Koordinatensystem kann durch drei Koordinatendrehungen um einzelne Koordinatenachsen realisiert werden, beispielsweise wie folgt: (1) Erste Drehung mit einem Winkel  um die z-Achse des Ursprungssystems. (2) Zweite Drehung mit einem Winkel  um die x 0 -Achse des aus der ersten Drehung erhaltenen Systems. (3) Dritte Drehung mit dem Winkel um die z 00 -Achse des aus der zweiten Drehung erhaltenen Systems. Die drei Winkel ; ; bezeichnet man als die Euler-Winkel.1 Die entsprechende Transformationsmatrix ist Tzx 0 z 00 D Dz ./Dx ./Dz . / 0 10 10 1 cos   sin  0 1 0 0 cos  sin 0 D @ sin  cos  0A@0 cos   sin  A@ sin cos 0A 0 0 1 0 sin  cos  0 0 1 1 0 cos  cos  sin  cos  sin cos  sin  sin  cos  cos sin  sin  D @sin  cos C cos  cos  sin sin  sin C cos  cos  cos cos  sin A sin  sin sin  cos cos  (4.31)

1 Benannt nach dem Schweizer Mathematiker Leonhard Euler, 1707–1783. Er wies nach, dass sich auf diese Weise sämtliche Koordinatendrehungen erhalten lassen. Allerdings ist zu beachten, dass es unterschiedliche Festlegungen für Euler-Winkel gibt.

100

4

Basistransformation

mit der Inversen 1 1 Tzx D Dz . /1 Dx ./1 Dz ./1 0 z 00 D .Dz ./Dx ./Dz . // 0 cos  cos  sin  cos  sin sin  cos C cos  cos  sin D @cos  sin  sin  cos  cos sin  sin C cos  cos  cos sin  sin  cos  sin 

1 sin  sin sin  cos A: cos  (4.32)

Lesehilfe

Bei der Inversion haben wir zunächst die Formel .AB/1 D B 1 A1 verwendet, die zur Umkehrung der Matrizenreihenfolge führt. Die Inversion der einzelnen Drehmatrizen ist leicht auszuführen, dabei wandern nur die Minuszeichen von einem Sinus zum anderen. Das Zusammenrechnen der Matrizen ist der aufwändige Teil. Man sieht aber, dass die Matrix (4.32) letztlich einfach der transponierten Matrix (4.31) entspricht. Diese allgemeine Eigenschaft von Drehmatrizen lernen wir in Abschn. 8.5 kennen. Die obigen Euler-Koordinatendrehungen erfolgen nach dem Schema zx 0 z 00 , es wird also zweimal um z-Achsen gedreht und dazwischen um eine x-Achse. Natürlich ist dieses Schema nicht das einzig mögliche, ebenso gut könnte man nach dem Schema xy 0 x 00 vorgehen oder zy 0 z 00 usw. Lage der z-Achse Soll nur die z-Achse eines Koordinatensystems geeignet gelegt werden, werden lediglich die ersten beiden Euler-Drehungen benötigt, da die dritte Drehung die Lage der z 00 -Achse nicht verändert (sondern nur die x 00 - und y 00 -Achse in eine gewünschte Lage bringt). Damit vereinfacht sich die Transformationsmatrix zu 0

Tzx 0

cos  D Dz ./Dx ./ D @ sin  0

 sin  cos  cos  cos  sin 

1 sin  sin   cos  sin  A cos 

(4.33)

und 0

1 1 Dz ./1 Tzx 0 D Dx ./

cos  D @ sin  cos  sin  sin 

sin  cos  cos   cos  sin 

1 0 sin  A: cos 

(4.34)

Wir wollen nun die z 00 -Achse in Richtung des Vektors n D .nx ; ny ; nz / zeigen lassen, der durch eine Drehung aus e z D .0;q 0; 1/ hervorgeht. Da eine Drehung die Länge eines Vektors nicht verändert, gilt n2x C ny2 C n2z D 1 und insbesondere sind jnx j; jny j; jnz j  1.

4.3 Beispiel: Dreidimensionale Drehungen

101

q Die Eigenschaft n2x C ny2 C n2z D 1 ist nichts anderes als der dreidimensionale Satz des Pythagoras. Längen von Vektoren lernen wir in Kap. 7 in allgemeinerem Zusammenhang kennen. Lesehilfe

Die gewünschte Koordinatendrehung erhalten wir, wenn gilt 0 1 0 10 1 0 1 0 cos   sin  cos  sin  sin  0 nx Tzx 0 @0A D @ sin  cos  cos   cos  sin  A@0A D @ny A; nz 1 0 sin  cos  1 d. h., wenn die Winkel  und  die Bedingung 0 1 0 1 sin  sin  nx @ cos  sin  A D @ny A nz cos 

(4.35)

(4.36)

erfüllen.

Lesehilfe

Im obigen Beispiel der Drehung d 011 passiert letztlich genau so etwas.  Bezogenp auf das in Richtung p Koordinatensystem E wird die z-Achse .0; 1= 2; 1= 2/ D .nx ; ny ; nz / gelegt. Dies ergibt  D 45ı und  D 0 und die Transformationsmatrix ist 1 1 0p 0p D @0 1= 2 1= 2A: p p 0 1= 2 1= 2 0

Tzx 0

Die Matrix einer aktiven Drehung mit dem Winkel ˛ um eine beliebige Raumachse n kann mit den durch die Bedingung (4.36) festgelegten Winkeln somit stets in der Form 1 Dn .˛/ D Tzx 0 Dz .˛/Tzx 0

(4.37)

geschrieben werden.

Lesehilfe

Wir haben hier aus dem System mit der passend gelegten z-Achse zurückzutransformieren. Daher ist die Rolle von T und T 1 vertauscht.

102

4

Basistransformation

Das Wichtigste in Kürze

 Die Basistransformation zwischen zwei Basen eines n-dimensionalen Vektorraums wird durch eine reguläre n n-Matrix beschrieben. Die Koeffizienten der Transformationsmatrix ergeben sich aus der Darstellung der „neuen“ Basisvektoren durch die „alten“.  Die Koordinaten eines Vektors transformieren sich beim Wechsel von einer Basis zu einer anderen. Diese Koordinatentransformation kann mithilfe der Transformationsmatrix bzw. ihrer Inversen erfolgen.  Die Zuordnung einer Matrix zu einer linearen Selbstabbildung hängt von der Basis ab. Die Transformation der Abbildungsmatrix von einer Basis zu anderen ist mithilfe der Transformationsmatrix möglich.  Der Wechsel von einem kartesischen Koordinatensystem in ein anderes, dagegen verdrehtes System entspricht einer Koordinatendrehung. Sie kann durch Drehmatrizen beschrieben werden. J Und was bedeuten die Formeln? bj D t1j b1 C : : : C tnj bn D 0

0

t1n " :: C D @ B b A 1 : # tnn

tij xj

.i D 1; : : : ; n/;

tn1 n X

tij bi

i D1



:: :



t11 B :: T D@ :

xi D

1

n X

" b2 B #

.j D 1; : : : ; n/;

T

B ! B ;

1 "

bnB A; #

x D T x ;

x  D T 1 x;

j D1 B

E ! B ;

y  D A x  ;

T

B ! B ;

T D B 1 B  ;

B j B  ! En j T;

A D T 1 AT; 10 1 0 1 sin p˛ p˛  sin 0 0 2 2 C 1 C 12 cos ˛ 12  12 cos ˛ A@1A D @1A; 2 1 1 1  12 cos ˛ 12 C 12 cos ˛ 2 0 1 cos   sin  cos  sin  sin  D Dz ./Dx ./ D @ sin  cos  cos   cos  sin  A: 0 sin  cos 

y D Ax; 0 cos ˛ B sin ˛ @ p2 sin  p2˛ Tzx 0

B 1

B ! E ;

Übungsaufgaben

103

Übungsaufgaben A4.1 Sind die folgenden Aussagen richtig oder falsch? Begründe jeweils deine Antwort. (I)

Wenn bei einer Basistransformation zwischen zwei endlichen Basen ein Vektor dieser Basen identisch ist und an derselben Stelle steht, entspricht die Transformationsmatrix in der entsprechenden Spalte der Einheitsmatrix. (II) Der Tausch von Basisvektoren, also der Wechsel in eine Basis mit anderer Reihenfolge der Vektoren, kann durch eine Transformationsmatrix beschrieben werden. (III) In der Situation von (II) enthält die Transformationsmatrix dieselben Spalten wie die Einheitsmatrix, nur (teilweise) an anderer Position. (IV) Die Inverse einer Matrix T , die nur aus den Spalten der Einheitsmatrix besteht, ist wieder eine solche Matrix. Dabei gilt T 1 D T T . A4.2 Wir betrachten zwei Basen des R2 : ! ! !  !  2 1 1 2 BD und B D : ; ; 1 2 2 1 a) Ein Vektor besitze hinsichtlich B die Koordinaten x; y. Wie lautet sein Koordinatenvektor hinsichtlich B ? b) Eine lineare Abbildung f W R2 ! R2 besitze hinsichtlich B die Abbildungsmatrix ! a b AD : c d Wie lautet ihre Abbildungsmatrix in der Basis B ? Wenn f in der Basis B bijektiv ist, ist das dann zwingend auch in der Basis B der Fall? Warum (nicht)? A4.3 Wir betrachten den Vektorraum R3 und die Basis (021 011 001) B D @1A; @2A; @1A : 0 0 2 Wie lautet die Transformationsmatrix T , die den Übergang von B in die kanonische Basis E beschreibt? Welche Koordinaten besitzt der Vektor .x; y; z/B in der kanonischen Basis? A4.4 Eine Drehung im R2 wird hinsichtlich!der kanonischen Basis beschrieben cos ˛  sin ˛ . Welche Matrix D B beschreibt sie durch die Drehmatrix D˛ D sin ˛ cos ˛

104

4



Basistransformation

! ! 1 1 ; ? Kann auch die Matrix D B wieder in der Form 0 1

in der Basis B D ! cos "  sin " mit einem Drehwinkel " geschrieben werden? sin " cos "

A4.5 Eine Drehung im R3 werde mit einem Drehwinkel von 120ı um die „Raumdiagonale“ ausgeführt, d. h. um die durch den Vektor .1; 1; 1/ festgelegte Ursprungsgerade. Welche Abbildungsmatrix besitzt diese Abbildung in der kanonischen Basis? Ist das Ergebnis plausibel?

5

Determinanten

Der allgemeine Begriff einer Determinante bezieht sich auf lineare Selbstabbildungen. Er kann übertragen werden auf die den Abbildungen zugeordneten Matrizen und diese Matrixdeterminanten besitzen eine Vielzahl von Anwendungen. Die für sich genommen etwas eigenartige Definition der Matrixdeterminante hat ihren Hintergrund in der allgemeinen Determinantentheorie. Ihr Ausgangspunkt sind Determinantenformen, also Linearformen, die für linear abhängige Vektoren verschwinden. Aus dieser einfachen Bedingung ergeben sich die charakteristischen Eigenschaften von Determinanten, die auch auf Matrixebene erhalten bleiben. Für Anwendungen steht die konkrete Berechnung von Matrixdeterminanten im Vordergrund. Dabei ist es wichtig, unterschiedliche Verfahren zu kennen, sodass Determinanten verschiedener Größen und Formen bewältigt werden können.

Wozu dieses Kapitel im Einzelnen

 Die Determinante gründet sich auf den Begriff der Determinantenform. Wir sehen uns an, was es damit auf sich hat.  Bei Determinanten haben wir es mit Vertauschungen und allgemeiner mit Permutationen von Indizes zu tun. Wir müssen uns daher erinnern, wie sie zusammenhängen und in welchem Sinn eine Permutation ein Vorzeichen hat.  Das Berechnen von Determinanten kann für kleine Matrizen leicht erfolgen, dazu gibt es entsprechende Merkregeln. Wir kümmern uns aber auch um „Tricks“ für große Matrizen.  Mit Determinanten können Formeln für die direkte Berechnung inverser Matrizen und Lösungen von Gleichungssystemen entwickelt werden. Diese Formeln sind zwar nicht allzu einfach, aber sie sind oft nützlich.

© Der/die Autor(en), exklusiv lizenziert an Springer-Verlag GmbH, DE, ein Teil von Springer Nature 2023 J. Balla, Lineare Algebra, https://doi.org/10.1007/978-3-662-67667-7_5

105

106

5

5.1

Determinanten

Determinantenformen

Eine Determinantenform ist eine spezielle n-fache Linearform, also eine Abbildung, die ihren n Argumentvektoren eine Zahl zuordnet und bezüglich jeder Argumentposition linear ist: Definition 5.1 Es sei V ein n-dimensionaler Vektorraum. Eine n-fache Linearform  von V heißt eine Determinantenform, wenn sie folgende Eigenschaften besitzt: (1) Es ist .x 1 ; : : : ; x n / D 0 für linear abhängige Vektoren x 1 ; : : : ; x n 2 V . (2) Es gibt Vektoren x 1 ; : : : ; x n 2 V mit .x 1 ; : : : ; x n / ¤ 0.

Lesehilfe

Eine Linearform ordnet mehreren Vektoren eine Zahl zu, bei einer n-fachen Linearform sind es n Argumentvektoren. Diese Zuordnung erfolgt linear, d. h., es ist beispielsweise für n D 3 .x 1 ; 4x 2  x 02 ; x 3 / D 4.x 1 ; x 2 ; x 3 /  .x 1 ; x 02 ; x 3 / wegen der Linearität bezüglich der zweiten Argumentposition. Die wesentliche inhaltliche Eigenschaft, die aus einer n-fachen Linearform eines n-dimensionalen Vektorraums eine Determinantenform macht, ist nun einfach, dass sie linear abhängigen Vektoren die 0 zuordnet.

Aus der Eigenschaft (1) der Determinantenform folgen charakteristische Rechenregeln: Zunächst bleibt der Wert einer Determinantenform unverändert, wenn zu einem Argumentvektor ein beliebiges Vielfaches eines anderen Argumentvektors addiert wird, d. h. .: : : ; x i ; : : : ; xj ; : : :/ D .: : : ; x i C cxj ; : : : ; xj ; : : :/;

(5.1)

wie sich sofort mit der Linearität bezüglich jedes Arguments ergibt. Ferner führt das Vertauschen zweier Argumentvektoren zu einem Vorzeichenwechsel: .: : : ; x i ; : : : ; xj ; : : :/ D .: : : ; x i C xj ; : : : ; xj ; : : :/ D .: : : ; x i C xj ; : : : ; xj  .x i C xj /; : : :/ D .: : : ; x i C xj ; : : : ; x i ; : : :/ D .: : : ; xj ; : : : ; x i ; : : :/:

(5.2)

5.1 Determinantenformen

107

Lesehilfe

Gleichung (5.1) ergibt sich „sofort“, wenn man sich klarmacht, dass .: : : ; x i C cxj ; : : : ; xj ; : : :/ D .: : : ; x i ; : : : ; xj ; : : :/ C c.: : : ; xj ; : : : ; xj ; : : :/ ist und die Menge f: : : ; xj ; : : : ; xj ; : : :g offenbar linear abhängig ist. In (5.2) siehst du den „Trick“, wie man mit der Addition bzw. Subtraktion von Argumentvektoren zu einer Vertauschung gelangt.

Wir wollen (5.2) verallgemeinern: Wenn man nicht nur einmal zwei Vektoren vertauscht, sondern k-mal, entsteht das Vorzeichen .1/k . Solche k Vertauschungen der Indizes 1; : : : ; n führen insgesamt zu einer anderen Reihenfolge der Zahlen. Dies entspricht einer Permutation , d. h. einer bijektiven Abbildung der Menge f1; : : : ; ng auf sich selbst. Dieser Permutation ordnet man das Vorzeichen oder Signum sign  D .1/k zu und wir haben daher .x .1/ ; : : : ; x .n/ / D .sign / .x 1 ; : : : ; x n /:

(5.3)

Die Anzahl der Vertauschungen oder Transpositionen, die notwendig sind, um von der Reihenfolge 1; : : : ; n zur gewünschten Reihenfolge zu gelangen, ist nicht eindeutig, da Vertauschungen sich auch gegenseitig aufheben können. Aber eine gegebene Permutation  wird entweder durch eine gerade oder durch eine ungerade Anzahl von Transpositionen erzeugt und man spricht von geraden (sign  D C1) oder ungeraden (sign  D 1) Permutationen.

Lesehilfe

Machen wir uns Permutationen und Transpositionen noch einmal an Beispielen mit n D 4 klar: Die Reihenfolge h1; 2; 3; 4i entspricht der identischen Permutation. Sie wird durch 0 Vertauschungen erreicht, aber auch 2 sind möglich, oder 4 usw., wenn sie sich gegenseitig aufheben, sie ist somit gerade. Die Permutation  D h4; 3; 1; 2i, gleichbedeutend mit .1/ D 4, .2/ D 3, .3/ D 1, .4/ D 2, benötigt mindestens 3 Vertauschungen, 1$3

2$3

2$4

h1; 2; 3; 4i ! h3; 2; 1; 4i ! h2; 3; 1; 4i ! h4; 3; 1; 2i; und ist daher ungerade. Wie du siehst, sind Permutationen und Transpositionen nicht schwierig, wenn man sich das in Ruhe aufschreibt.

108

5

Determinanten

Wir betrachten nun eine Basis fb1 ; : : : ; bn g von V und berechnen .x 1 ; : : : ; x n / für beliebige Koordinatenvektoren xi D

n X

xij bj ;

i D 1; : : : ; n:

(5.4)

j D1

Aufgrund der Linearität ist zunächst 0 .x 1 ; : : : ; x n / D @ D

X j1

X j1

:::

x1j1 bj1 ; : : : ;

X

X

1 xnjn bjn A

jn

x1j1 xnjn .bj1 ; : : : ; bjn /:

(5.5)

jn

Lesehilfe

P Wenn die Summen der n Vektoren x i D jnD1 xij bj , i D 1; : : : ; n, gemeinsam ausgeführt werden sollen, müssen unterschiedliche Summationsindizes verwendet werden, die wir mit j1 ; : : : ; jn bezeichnen. Mit der Linearität können dann die Summen vor die Determinantenform geschrieben werden und auch die Koordinaten xijk . Wir haben nun ein n-fache Summe, in der j1 von 1 bis n läuft, ebenso wie j2 , j3 , : : :, jn . Den Fall n D 2 können wir noch ausschreiben, XX .x 1 ; x 2 / D x1j1 x2j2 .bj1 ; bj2 / j1

j2

D x11 x21 .b1 ; b1 / C x11 x22 .b1 ; b2 / C x12 x21 .b2 ; b1 / C x12 x22 .b2 ; b2 /; aber für n D 3 sind es bereits 3 3 3 D 27 Summanden.

Wenn in dieser n-fachen Summe zwei der Indizes jk gleich sind, so folgt daraus .bj1 ; : : : ; bjn / D 0. Von den insgesamt nn Summanden bleiben daher nur diejenigen übrig, bei denen die jk , k D 1; : : : ; n, paarweise verschieden sind, d. h., es muss sich bei ihnen um eine Permutation der Zahlen 1; : : : ; n handeln. Die Menge dieser Permutationen besteht aus nŠ Elementen und man bezeichnet sie als die symmetrische Gruppe Sn . Zusammen mit (5.3) erhalten wir daher 0 .x 1 ; : : : ; x n / D @

X 2Sn

1 .sign / x1 .1/ xn .n/ A.b1 ; : : : ; bn /:

(5.6)

5.1 Determinantenformen

109

Lesehilfe

Für n D 2 bleiben also von den ursprünglich vier Summanden zwei übrig, .x 1 ; x 2 / D

XX j1

x1j1 x2j2 .bj1 ; bj2 /

j2

D x11 x21 .b1 ; b1 / C x11 x22 .b1 ; b2 / C x12 x21 .b2 ; b1 / C x12 x22 .b2 ; b2 / „ ƒ‚ … „ ƒ‚ … „ ƒ‚ … D0

0

D .x11 x22  x12 x21 /.b1 ; b2 / D @

D.b1 ;b2 /

X

1

D0

x1 .1/ x2 .2/ A.b1 ; b2 /;

2S2

bei n D 3 bleiben von 27 Summanden 6 übrig usw. Die Anzahl der Permutationen oder Reihenfolgen der Zahlen 1; : : : ; n ist gleich nŠ, weil es für die erste Position n Möglichkeiten gibt, für die zweite Position dann noch .n1/ usw., sodass man insgesamt auf n .n1/ 1 D nŠ mögliche Reihenfolgen kommt.

Aus (5.6) lässt sich eine wichtige Folgerung ziehen: Eigenschaft (1) der Determinantenformen besagt, dass .x 1 ; : : : ; x n / D 0 ist für linear abhängige Vektoren x 1 ; : : : ; x n . Wenn umgekehrt eine Menge von n Vektoren linear unabhängig ist, handelt es sich um eine Basis. Wäre nun .b1 ; : : : ; bn / D 0, so folgte aus (5.6) auch .x 1 ; : : : ; x n / D 0 für alle Vektoren x 1 ; : : : ; x n , im Widerspruch zu Eigenschaft (2), dass es Vektoren mit .x 1 ; : : : ; x n / ¤ 0 geben muss. Also erfüllen Determinantenformen über (1) hinaus die Eigenschaft (10 ) Es ist .x 1 ; : : : ; x n / D 0 genau dann, wenn die Vektoren x 1 ; : : : ; x n 2 V linear abhängig sind. Wie (5.6) zeigt, wird eine Determinantenform  letztlich durch den Wert .b1 ; : : : ; bn / festgelegt, den sie auf den Basisvektoren annimmt. Sie unterscheidet sich somit von einer zweiten Determinantenform  nur durch eine multiplikative Konstante c ¤ 0,  .b1 ; : : : ; bn / DW c; .b1 ; : : : ; bn /

(5.7)

 .x 1 ; : : : ; x n / D c .x 1 ; : : : ; x n /

(5.8)

und damit gilt auch

für beliebige Vektoren x 1 ; : : : ; x n 2 V . Wählt man hier nun speziell eine zweite Basis von V , so wird klar, dass der Quotient (5.7) nicht von der gewählten Basis abhängt.

110

5

Determinanten

5.2 Definition der Determinante Betrachten wir nun zusätzlich einen Isomorphismus f von V . Mit b1 ; : : : ; bn bilden dann auch die Vektoren f .b1 /; : : : ; f .bn / eine Basis von V und mit einer Determinantenform  wird durch f .x 1 ; : : : ; x n / WD .f .x 1 /; : : : ; f .x n //

(5.9)

eine weitere Determinantenform von V definiert. Der Quotient f .b1 ; : : : ; bn / .b1 ; : : : ; bn /

(5.10)

ist unabhängig von der Wahl der Basis und auch unabhängig von der Determinantenform , denn mit einer zweiten Determinantenform  ist f .b1 ; : : : ; bn /  .b1 ; : : : ; bn /

D

c f .b1 ; : : : ; bn / f .b1 ; : : : ; bn / D : c .b1 ; : : : ; bn / .b1 ; : : : ; bn /

Der Quotient (5.10) ist somit eine charakteristische Eigenschaft der linearen Abbildung f und man setzt: Definition 5.2 Es sei f eine lineare Selbstabbildung auf dem Vektorraum V mit der Basis fb1 ; : : : ; bn g. Mit einer beliebigen Determinantenform  heißt det f WD

.f .b1 /; : : : ; f .bn // .b1 ; : : : ; bn /

die Determinante von f . Diese Definition ist nicht auf Isomorphismen beschränkt. Sofern die Abbildung f nicht bijektiv ist, sind die Vektoren f .b1 /; : : : ; f .bn / linear abhängig und es ergibt sich die Determinante 0. Wir berechnen die Determinante einer Produktabbildung: Es sei g eine weitere lineare Selbstabbildung auf V und g sei bijektiv. Mit fb1 ; : : : ; bn g ist dann auch fg.b1 /; : : : ; g.bn /g eine Basis von V und wegen der Unabhängigkeit der Determinante von der gewählten Basis ist ..f ı g/.b1 /; : : : ; .f ı g/.bn // .b1 ; : : : ; bn / .f .g.b1 //; : : : ; f .g.bn /// .g.b1 /; : : : ; g.bn // D .g.b1 /; : : : ; g.bn // .b1 ; : : : ; bn / D .det f /.det g/: (5.11)

det.f ı g/ D

Ist g nicht bijektiv, so auch f ı g nicht; die Gleichung det.f ı g/ D .det f /.det g/ bleibt auch in diesem Fall richtig, weil dann auf beiden Seiten 0 steht.

5.2 Definition der Determinante

111

Lesehilfe

Wie du siehst, besteht der „Trick“ zur Berechnung der Determinante der Produktabbildung in der Erweiterung des Quotienten mit .g.b1 /; : : : ; g.bn //. Dieser Ausdruck ist nur dann ungleich 0, wenn die Vektoren g.b1 /; : : : ; g.bn / linear unabhängig sind, d. h., wenn g bijektiv ist.

Matrixdeterminante Wir kommen noch einmal zurück auf (5.6), die wir wegen .b1 ; : : : ; bn / ¤ 0 schreiben können in der Form X .x 1 ; : : : ; x n / .sign / x1 .1/ xn .n/ : D .b1 ; : : : ; bn / 2S

(5.12)

n

Wir berechnen nun die Determinante einer linearen Selbstabbildung f , indem wir x i D f .bi /, i D 1; : : : ; n, wählen: Ordnen wir der Abbildung f hinsichtlich der Basis fb1 ; : : : ; bn g die Matrix A D .aij / zu gemäß der Vorschrift1 f .bi / D

X

i D 1; : : : ; n;

aij bj ;

(5.13)

j

so haben wir det f D

X .f .b1 /; : : : ; f .bn // .sign / a1 .1/ an .n/ ; D .b1 ; : : : ; bn / 2S

(5.14)

n

vergleiche (5.13) mit (5.4). Der Begriff der Determinante einer linearen Selbstabbildung kann somit auf die ihr zugeordnete Matrix übertragen werden, indem man setzt: Definition 5.3 Als Determinante einer n n-Matrix A D .aij / bezeichnet man die Zahl X det A WD .sign / a1 .1/ an .n/ : 2Sn

1 Die Zuordnung hier ist transponiert im Vergleich mit unserer üblichen Zuordnung einer Matrix zu einer linearen Abbildung. Auf diese Weise entspricht sie (5.4) und führt auf eine MatrixdeP terminante der Form 2Sn .sign / a1 .1/ an .n/ , bei der der erste Index der Matrixelemente fest P ist. Bei anders gewählter Reihenfolge der Indizes würde man zur weniger üblichen Form 2Sn .sign / a.1/ 1 a.n/ n gelangen. Tatsächlich ergeben beide Formen identische Determinanten und die Matrixdeterminante ändert sich nicht bei Transposition der Matrix, siehe Satz 5.2 (1).

112

5

Determinanten

Damit gilt Satz 5.1 Einer linearen Selbstabbildung f des n-dimensionalen Vektorraums V sei hinsichtlich einer Basis die Matrix A zugeordnet ist. Dann gilt det f D det A. Matrizen, die hinsichtlich unterschiedlicher Basen derselben Abbildung f zugeordnet sind, besitzen dieselbe Determinante. Der Beweis folgt aus der Definition der Matrixdeterminante, (5.14) und der Unabhängigkeit der Determinante von der gewählten Basis. 

Lesehilfe

Matrizen, die hinsichtlich unterschiedlicher Basen derselben Abbildung zugeordnet sind, sind zueinander ähnliche Matrizen. Satz 5.1 besagt also: Ähnliche Matrizen besitzen dieselbe Determinante. Determinanten sind nur für quadratische Matrizen definiert. Man schreibt sie auch als ˇ ˇ ˇa11 a1n ˇ ˇ ˇ ˇ :: ˇ; :: det A D det.aij / D jAj D ˇ ::: : : ˇˇ ˇ ˇa

ann ˇ n1 schließt also die Matrix in senkrechte Striche ein. Satz 5.2 Die Determinante einer n n-Matrix A besitzt folgende Eigenschaften: (1) Die Matrix A und ihre Transponierte AT besitzen dieselbe Determinante: det A D det AT . (2) Sind in A zwei Spalten (Zeilen) gleich, so ist det A D 0. (3) Addiert man zu einer Spalte (Zeile) eine Linearkombination der übrigen Spalten (Zeilen), so ändert sich die Determinante nicht. (4) Vertauscht man in A zwei Spalten (Zeilen), so ändert die Determinante ihr Vorzeichen. (5) Multipliziert man die Elemente einer Spalte (Zeile) mit einem Skalar c, so wird die Determinante mit c multipliziert. Daraus folgt insbesondere: det.cA/ D c n det A. (6) Für die Einheitsmatrix En gilt: det En D 1. (7) Mit einer zweiten n n-Matrix B gilt: det.AB/ D .det A/.det B/: (8) Für eine reguläre Matrix A gilt: det.A1 / D .det A/1 . Beweis (1) Es sei  1 die zu  inverse Permutation. Damit gilt für die in Definition (5.3) auftretenden Produkte a1 .1/ an .n/ D a 1 .1/ 1 a 1 .n/ n ;

5.3 Berechnung von Determinanten

113

auch wenn die Faktoren in anderer Reihenfolge auftreten. Da mit  auch  1 alle Permutationen aus Sn durchläuft und sign. 1 / D sign  gilt, erhält man det A D

X

.sign / a.1/ 1 a.n/ n ;

2Sn

also auf der rechten Seite gerade die Determinante von AT . Aus (1) folgt, dass alle Aussagen über Determinanten richtig bleiben, wenn man in ihnen die Begriffe „Spalte“ und „Zeile“ vertauscht. (2) ist unmittelbare Folgerung der Definitionseigenschaften von Determinantenformen. (3) und (4) ergeben sich ebenfalls aus den Eigenschaften der Determinantenformen, siehe (5.1) und (5.2). (5) folgt aus Definition 5.3: Der Faktor c tritt in jedem Summanden einmal auf und kann daher vor die Summe gezogen werden. Die Einheitsmatrix entspricht der Identität, sodass sich (6) sofort aus der Definition der Abbildungsdeterminante ergibt. (7) entspricht (5.11) und (8) schließlich folgt aus (6) und (7). 

Lesehilfe

Die Eigenschaften von Satz 5.2 beziehen sich auf Matrixdeterminanten, ergeben sich aber zum großen Teil auf einfache Weise aus den Eigenschaften der dahinter liegenden Abbildungsdeterminanten. Die Aussagen (7) und (8) sind geradezu erstaunlich „freundlich“: So bedeutet det.A1 / D .det A/1 , dass es dasselbe ist, wenn man erst eine Matrix invertiert und dann die Determinante bildet, oder zunächst die Determinante bildet und anschließend einfach den Kehrwert nimmt.

Zwischenfrage (1)

Warum folgt die Eigenschaft (8) aus Satz 5.2 aus den Eigenschaften (6) und (7)?

5.3

Berechnung von Determinanten

Wir wollen nun Matrixdeterminanten berechnen, also für eine n n-Matrix A D .aij / die Summe det A D

X

.sign / a1 .1/ an .n/

(5.15)

2Sn

aus Definition 5.3 konkret auswerten. Dies kann entweder direkt erfolgen oder durch Überführung in eine obere Dreiecksdeterminante. Schließlich sehen wir uns

114

5

Determinanten

auch den Entwicklungssatz an, der es erlaubt, n-dimensionale Determinanten auf .n  1/-dimensionale zurückzuführen. Sehen wir uns die Summe (5.15) zunächst für verschiedene Werte von n an: n D 1: Die Matrix A besteht nur aus einem Element a und es gilt det A D a.

Lesehilfe

Anders ausgedrückt: Die Determinante einer Zahl ist die Zahl selbst.

n D 2: Für n D 2 haben wir es mit zwei Permutationen zu tun. Die symmetrische Gruppe lautet S2 D f1 ; 2 g mit 1 D h1; 2i; d. h. 1 .1/ D 1; 1 .2/ D 2 2 D h2; 1i; d. h. 2 .1/ D 2; 2 .2/ D 1:

und

Somit ergibt sich det A D

X

.sign / a1 .1/ a2 .2/

2S2

D .sign 1 / a1 1 .1/ a2 1 .2/ C .sign 2 / a1 2 .1/ a2 2 .2/ D a11 a22  a12 a21 ; also ˇ ˇa11 ˇ ˇa 21

ˇ a12 ˇˇ D a11 a22  a12 a21 : a22 ˇ

(5.16)

Diese Formel merkt man sich leicht als „Produkt der Hauptdiagonalelemente minus Produkt der Nebendiagonalelemente“.

Lesehilfe

Wie du siehst, sind 2 2-Determinanten leicht zu berechnen. Wenn die Matrixelemente (teilweise) negativ sind, ist nur etwas Vorsicht mit den Minuszeichen geboten.

n D 3: Für n D 3 haben wir 3Š D 6 Permutationen, d. h., S3 D f1 ; 2 ; 3 ; 4 ; 5 ; 6 g mit 1 D h1; 2; 3i; 2 D h2; 3; 1i; 3 D h3; 1; 2i; 4 D h3; 2; 1i; 5 D h2; 1; 3i; 6 D h1; 3; 2i:

5.3 Berechnung von Determinanten

115

Die Permutationen 1 ; 2 ; 3 sind gerade (sie werden durch 0 oder 2 Transpositionen erzeugt) und die Permutationen 4 ; 5 ; 6 ungerade (1 oder 3 Transpositionen). Das Ausführen der Summe det A D

X

.sign / a1 .1/ a2 .2/ a3 .3/

2S3

ergibt ˇ ˇa11 ˇ ˇa21 ˇ ˇa 31

a12 a22 a32

ˇ a13 ˇˇ a23 ˇˇ D a11 a22 a33 C a12 a23 a31 C a13 a21 a32 a33 ˇ  a13 a22 a31  a12 a21 a33  a11 a23 a32 :

(5.17)

Diesen Ausdruck merkt man sich auf einfache Weise über die SarrusRegel2 : Man schreibt die erste und zweite Spalte der 3 3-Matrix noch einmal als eine vierte und fünfte Spalte hin, a11 a21 a31

a12 a22 a32

a13 a23 a33

a11 a21 a31

a12 a22 ; a32

und bildet die einzelnen in (5.17) auftretenden Produkte nach folgendem Schema: Beginnend bei a11 , a12 , a13 mit Pluszeichen in Diagonalrichtung, beginnend bei a13 und den erneut hingeschriebenen a11 , a12 mit Minuszeichen in Nebendiagonalrichtung.

Lesehilfe

Die Sarrus-Regel ist „nur“ eine Merkregel für die Summanden einer 3 3Determinante. Sie darf keinesfalls auf andere Dimensionen übertragen werden. Das Berechnen einer 3 3-Determinante erfordert spürbar mehr Aufwand als bei einer 2 2-Determinante. Auf die Minuszeichen ist auch hier besonders zu achten. n  4: Für größere n wird die Summe schnell umfangreich: Die Gruppe Sn enthält nŠ Permutationen, für n D 4 also bereits 24 Stück. Für handschriftliche Rechnungen ist das direkte Ausführen der Summe (5.15) daher nicht mehr geeignet. Siehe aber Abschn. 5.3.1.

2

Benannt nach dem französischen Mathematiker Pierre Frédéric Sarrus, 1798-1861.

116

5

Determinanten

Antwort auf Zwischenfrage (1)

Gefragt war nach Eigenschaft (8) aus Satz 5.2 als Folge von (6) und (7). Mit der inversen Matrix A1 zur Matrix A gilt AA1 D En . Wir bilden die Determinante dieser Gleichung: .7/

.6/

det.AA1 / D .det A/.det A1 / D det En D 1; also det.A1 / D 1=.det A/ D .det A/1 .

Beispiele Es ist ˇ ˇ ˇ 2 7ˇ ˇ ˇ ˇ3 3 ˇ D 2 3  .7/ .3/ D 15 und 2 0 3 6 1 1 5 3 0

2 0 6 1 D 2 .1/ 0 C 0 .1/ .5/ C 3 6 .3/ 5 3  3 .1/ .5/  2 .1/ .3/  0 6 0 D 75:

Zwischenfrage (2)

Wie wir wissen, gilt det En D 1. Aus wie vielen nichtverschwindenden Summanden besteht die Summe (5.15) für die Matrix En ?

5.3.1 Obere Dreiecksdeterminante Die Summe (5.15) zur Berechnung einer Determinante enthält nŠ Produkte von jeweils n Matrixelementen. Wenn ein Matrixelement 0 ist, verschwinden alle Produkte, in denen es enthalten ist. Dies kann man zur Berechnung von Determinanten ausnutzen: Aus Satz 5.2 wissen wir, dass die Determinante einer n n-Matrix A ihren Wert nicht ändert, wenn zu einer Spalte (Zeile) das Vielfache einer anderen Spalte (Zeile) addiert wird. Vertauscht man zwei Spalten (Zeilen), so ändert die Determinante nur ihr Vorzeichen. Wir haben im Zusammenhang mit der Berechnung des Rangs gesehen, dass eine Matrix A mit Hilfe dieser elementaren Umformungen

5.3 Berechnung von Determinanten

in eine Matrix B überführt werden kann, 0

b11 B elementare B0 A ! B D B Umformungen @0 0

117

b12 b22











:: :

1 b1n b2n C C :: C; : A

0

bnn

bei der unterhalb der Hauptdiagonalen nur Nullen stehen (vgl. (3.21)), und wir haben det A D .1/k det B;

(5.18)

wobei k für die Anzahl der vorgenommenen Spalten- und Zeilenvertauschungen steht. Die Determinante der oberen Dreiecksmatrix B D .bij / kann leicht berechnet werden: Es ist bij D 0 für i > j . Für jede von der Identität verschiedene Permutation  2 Sn gibt es mindestens einen Wert i mit i > .i/. Wegen bi .i / D 0 verschwindet daher in der Summe (5.15) der zu dieser Permutation gehörende Summand und die Summe reduziert sich auf den Summanden der identischen Permutation, d. h., es ist det B D b11 b22 bnn:

(5.19)

Die Determinante einer oberen Dreiecksmatrix ist gleich dem Produkt der Hauptdiagonalelemente.

Lesehilfe

In einer Matrix B D .bij / gibt der erste Index i die Zeile und der zweite Index j die Spalte an. Auf der Hauptdiagonalen ist i D j , unterhalb der Hauptdiagonalen ist i > j und oberhalb i < j . Eine Permutation  2 Sn bildet die Zahlen f1; : : : ; ng bijektiv auf sich selbst ab. Bei der identischen Permutation id ist id.1/ D 1, : : :, id.n/ D n, was man auch schreiben kann als Reihenfolge h1; : : : ; ni. Bei jeder anderen Reihenfolge ist mindestens einmal i > .i/, d. h., mindestens eine Zahl i muss nach links gerückt werden (es können nicht alle stehenbleiben oder nach rechts rücken).

In Summe haben wir Satz 5.3 Es sei A eine n n-Matrix. Diese werde durch elementare Umformungen, unter denen k Spalten- oder Zeilenvertauschungen vorkommen, in eine Matrix B D .bij / überführt, bei der unterhalb der Hauptdiagonalen nur Nullen stehen. Dann gilt det A D .1/k b11 b22 bnn :

118

5

Determinanten

Die Berechnung von Determinanten ist damit letztlich ebenso leicht möglich wie die Berechnung des Rangs.

Antwort auf Zwischenfrage (2)

Gefragt war nach den nichtverschwindenden Summanden die Summe (5.15) im Fall der Einheitsmatrix En . Bei der Einheitsmatrix A D En sind nur die Hauptdiagonalelemente ungleich 0, d. h., die Elemente aij mit i D j . In der Summe det A D

X

.sign / a1 .1/ an .n/

2Sn

enthalten daher alle Produkte außer a11 ann eine 0. Das Produkt a11 ann entspricht der identischen Permutation  D id mit sign id D C1. Wir haben daher mit det En D C1 1 D 1 das aus Satz 5.2 bekannte Ergebnis.

Beispiel Wir berechnen die Determinante einer 4 4-Matrix: 1 1 3 0 2 0 4 1 .1/ $ .2/ D .1/1 3 0 2 7 1 1 1 0

1 1 3 0 0 2 4 1 0 3 2 7 1 1 1 0

.1/

1 1 3 0 2 4 D .1/1 0 3 2 0 0 2

0 1 7 0

1 1 0 2 D .1/ 0 0 0 0

3 17 4 D .1/2 .1/ .2/

.2/ D 34: 8 2 2

2

0 1 17 2

0

1 1 3 0 2 4 D .1/1 # 0 0 8 0 0 2

#

. 32 /

0 1 17 2

.3/ $ .4/

0

5.3 Berechnung von Determinanten

119

Zwischenfrage (3)

Jemand sagt: „Wenn ich die k-te Spalte einer Matrix an die Position 1 verschiebe und die anderen Spalten ohne Reihenfolgeänderung dahinter schreibe, so entspricht das einer Spaltenvertauschung, ich erhalte also einen Faktor 1 für die Determinante.“ Hat er recht?

5.3.2 Entwicklungssatz Der Entwicklungssatz bietet ein weiteres Verfahren zur Berechnung von Determinanten. Er erlaubt es, die Berechnung von n n-Determinanten auf .n1/ .n1/Determinanten zurückzuführen. Wendet man ihn mehrfach hintereinander an, kann die Dimension der noch zu berechnenden Determinanten daher beliebig verkleinert werden. Zur Formulierung des Entwicklungssatzes benötigen wir zwei Begriffe für eine n n-Matrix A D .aij /:  Das algebraische Komplement von aij ist die .n  1/ .n  1/-Untermatrix Aij , die aus A durch Streichen der i-ten Zeile und der j -ten Spalte entsteht.  Unter der Adjunkten von aij versteht man den Ausdruck adj aij WD .1/i Cj det Aij :

(5.20)

Die Adjunkte besteht also aus der Determinante des algebraischen Komplements und einem Vorzeichenfaktor .1/i Cj , der sich für ein Indexpaar .i; j / nach dem „Schachbrettmuster“ ergibt: 0

C  C B  B C   .1/i Cj D BC  C @ :: :: :: : : :

1



C C :

C A :: :

Lesehilfe

Wie du siehst, ist das algebraische Komplement leicht zu erhalten: Es entsteht einfach durch Streichen einer Zeile und einer Spalte. So sind beispielsweise in einer 3 3-Matrix neun algebraische Komplemente „enthalten“. Der Zahlwert des Elements aij spielt für sein algebraisches Komplement keine Rolle. Relevant ist nur seine Position .i; j / in der Matrix. Die Adjunkte ist eine Zahl und sie ist etwas komplizierter: Hier ist die Determinante des algebraischen Komplements zu bilden und mit einem Faktor ˙1 aus dem Schachbrettmuster zu versehen.

120

5

Determinanten

Satz 5.4 (Entwicklungssatz) Die Determinante der n n-Matrix A D .aij / kann berechnet werden als det A D

n X

.1/i Cj aij det Aij D

j D1

n X

aij adj aij

j D1

„Entwicklung nach der i-ten Zeile“ und analog als det A D

n X

.1/i Cj aij det Aij D

i D1

n X

aij adj aij

i D1

„Entwicklung nach der j -ten Spalte“: Beweis Wir beweisen die Entwicklung nach der i-ten Zeile; die Entwicklung nach einer Spalte ergibt sich daraus durch Transposition. Aus der geordneten Menge f1; : : : ; ng werde das Element i entfernt, sodass die Menge fk1 ; : : : ; kn1 g entsteht, wobei die Reihenfolge ansonsten unverändert sein soll, d. h., es gelte k1 < k2 < : : : < kn1 . Es sei  die Menge aller Permutationen  2 Sn mit .k1 / < .k2 / < : : : < .kn1 /: Die Menge  enthält n Permutationen j , nämlich gerade die Permutationen, bei denen i an die Stellen j D 1; 2; : : : ; n gerückt wird, während die anderen Elemente in der Reihenfolge unverändert bleiben. Man macht sich leicht klar, dass für die Vorzeichen dieser Permutationen gilt sign j D .1/i j D .1/i Cj . Für jedes j sei nun ˘j die Menge aller Permutationen ˛ 2 Sn mit ˛.j .i// D j .i/ D j . Damit lässt sich jede Permutation  2 Sn auf genau eine Weise in der Form mit j 2 f1; 2; : : : ; ng und ˛ 2 ˘j

 D ˛ ı j

darstellen. Für die Determinante der Matrix A folgt hieraus X det A D .sign / a1 .1/ an .n/ 2Sn

D D

X

.sign / ai .i / ak1 .k1 / akn1 .kn1 /

2Sn n X X

.sign .˛ ı j // ai ˛.j .i // ak1 ˛.j .k1 // akn1 ˛.j .kn1 //

j D1 ˛2˘j

D

n X

.sign j / aij

j D1

D

n X j D1

X

.sign ˛/ ak1 ˛.j .k1 // akn1 ˛.j .kn1 //

˛2˘j

.1/i Cj aij

X ˛2˘j

.sign ˛/ ak1 ˛.j .k1 // akn1 ˛.j .kn1 // :

5.3 Berechnung von Determinanten

121

Die zweite Summe ist aber nichts anderes als die Unterdeterminante, die aus jAj durch Streichen der i-ten Zeile und j -ten Spalte entsteht, also gleich det Aij .  Die Zeile oder Spalte, nach der die Determinante entwickelt werden soll, kann beliebig gewählt werden. Für die Entwicklung nach einer Zeile (Spalte) versieht man dann deren Elemente mit den Vorzeichenfaktoren nach dem Schachbrettmuster, bildet die Determinanten der algebraischen Komplemente, also die Unterdeterminanten, und summiert schließlich die Produkte aus den mit Vorzeichenfaktoren versehenen Zeilenelementen (Spaltenelementen) und Unterdeterminanten auf.

Lesehilfe

Die theoretische Formulierung des Entwicklungssatzes ist nicht leicht zu durchschauen. Auch die obige verbale Beschreibung ist nicht viel besser. Seine tatsächliche Anwendung aber ist einfach: Wenn du das ein paar Mal gemacht hast, ist alles klar. Sieh dir dazu die Beispiele an :-)

Der Entwicklungssatz kann ohne Weiteres mehrmals nacheinander angewandt werden. So wird etwa eine 4 4-Determinante zunächst auf vier 3 3-Determinanten zurückgeführt und diese anschließend auf jeweils drei 2 2-Determinanten.

Antwort auf Zwischenfrage (3)

Gefragt war, ob jemand recht hat, der das Schreiben der k-ten Spalte einer Matrix an die Position 1 mit einer Spaltenvertauschung gleichsetzt. Das stimmt im Allgemeinen nicht. Zwar ist es für k D 2 es offenbar richtig. Für k D 3 sind für diese Operation aber zwei Vertauschungen nötig: Zunächst .1/ $ .3/ und zur Wiederherstellung der vorherigen Reihenfolge dann noch .2/ $ .3/. Für k D 4 benötigt man drei Vertauschungen, um auch die ursprünglich erste Zeile an ihre neue Position 2 zu schieben usw. Man erhält allgemein das Vorzeichen .1/k1 .

Zwischenfrage (4)

Prüfe den Entwicklungssatz für n D 3, indem du eine 3 3-Determinante j.aij /j nach der ersten Zeile entwickelst und das Ergebnis mit der Regel von Sarrus vergleichst.

122

5

Determinanten

Beispiele

ˇ ˇ ˇ2 0 3 ˇˇ ˇ (1) Wir entwickeln die Determinante ˇˇ 6 1 1ˇˇ nach der ersten Spalte: ˇ5 3 0 ˇ ˇ˚ ˇ ˇ ˇ 0 3ˇ ˇ2 ˇ ˇ ˇ ˇ ˇ ˇ ˇ ˇ ˇ1 1ˇ ˇ 0 3ˇ ˇ0 3 ˇˇ ˇ ˇ ˇ ˇ ˇ ˇ ˇ ˇ 6 1 1ˇ D C2ˇ3 0 ˇ  6ˇ3 0ˇ  5ˇ1 1ˇ ˇ˚ ˇ ˇ5 3 0 ˇ D 2 .3/  6 9  5 3 D 75: Besonders vorteilhaft ist die Entwicklung nach Zeilen oder Spalten, die Nullen enthalten. Die Entwicklung nach der dritten Zeile, ˇ ˇ ˇ2 0 3 ˇˇ ˇ ˇ ˇ ˇ ˇ ˇ2 3 ˇ ˇ0 3 ˇˇ ˇ 6 1 1ˇ ˇ ˇ ˇ C 3ˇ ˇ D 5ˇ ˇ ˇ˚ 6 1ˇ 1 1ˇ ˚ ˇ ˇ5 3 0 ˇ D 5 3 C 3 .20/ D 75; erfordert nur die Berechnung zweier 2 2-Unterdeterminanten. (2) Die Determinante einer Drehmatrix ist gleich 1: ˇ ˇ ˇcos ˛ ˇ ˇ sin ˛ ˇ ˇ ˇ 0

 sin ˛ cos ˛ 0

ˇ ˇ 0ˇ ˇcos ˛ ˇˇ ˇ D 1 0ˇ ˇ sin ˛ ˚ˇ ˇ 1 ˚ˇ

ˇ  sin ˛ ˇˇ D cos2 ˛ C sin2 ˛ D 1: cos ˛ ˇ

Natürlich kann auch diese Determinante nach jeder anderen Zeile oder Spalte entwickelt werden. Die Entwicklung nach der zweiten Zeile lautet ˇ ˇcos ˛ ˇ ˇ ˇ sin ˛ ˇ ˇ 0

 sin ˛ ˚

cos ˛ 0

ˇ 0 ˇˇ ˇ ˇ sin ˛ ˇ ˇ 0 ˇˇ D  sin ˛ ˇ 0 1ˇ

ˇ ˇ ˇcos ˛ 0ˇˇ C cos ˛ ˇˇ ˇ 1 0

D sin2 ˛ C cos2 ˛ D 1:

ˇ 0ˇˇ 1ˇ

5.3 Berechnung von Determinanten

123

Antwort auf Zwischenfrage (4)

Es sollte eine 3 3-Determinante j.aij /j nach der ersten Zeile entwickelt und mit der Regel von Sarrus verglichen werden. ˇ ˇ˚ ˇa11 ˇ ˇa21 ˇ ˇa31



a12 a22 a32

ˇ ˚ ˇ ˇ a13 ˇ ˇa22 ˇ a23 ˇˇ D a11 ˇˇ a32 a33 ˇ

ˇ ˇ ˇa a23 ˇˇ  a12 ˇˇ 21 ˇ a33 a31

ˇ ˇ ˇa a23 ˇˇ C a13 ˇˇ 21 ˇ a33 a31

ˇ a22 ˇˇ a32 ˇ

D a11 .a22 a33  a23 a32 /  a12 .a21 a33  a23 a31 / C a13 .a21 a32  a22 a31 / D a11 a22 a33  a11 a23 a32  a12 a21 a33 C a12 a23 a31 C a13 a21 a32  a13 a22 a31 : Die Regel von Sarrus ergibt mit ˇ ˇa11 ˇ ˇa21 ˇ ˇa 31

a12 a22 a32

ˇ a13 ˇˇ a23 ˇˇ D a11 a22 a33 C a12 a23 a31 C a13 a21 a32 a33 ˇ  a13 a22 a31  a12 a21 a33  a11 a23 a32

dasselbe Ergebnis.

Zwischenfrage (5)

Jemand sagt: „Wenn eine Matrix nur ganze Zahlen enthält, so ist ihre Determinante stets ganzzahlig, unabhängig von der Dimension der Matrix.“ Hat sie recht? Und können dann nach der Überführung in eine obere Dreiecksdeterminante auf der Hauptdiagonale auch nur ganze Zahlen stehen?

5.3.3 Diagonalblockmatrizen Eine Diagonalblockmatrix weist auf der Hauptdiagonale quadratische „Blöcke“ auf und abseits dieser Blöcke nur Nullen. Eine Zahl ist in diesem Sinn ein 1 1-Block, des Weiteren sind 2 2-Blöcke, 3 3-Blöcke usw. möglich. Die Determinante einer Diagonalblockmatrix kann leicht berechnet werden. Entwickeln wir beispielsweise die folgende 4 4-Determinante mit der Zahl A1 und

124

5

Determinanten

dem 3 3-Block A2 nach der ersten Spalte, so ist ˇ ˇ ˇA1 0 0 0ˇ ˇ ˇ ˇ0 ˇ ˇ ˇ D A1 det A2 D .det A1 /.det A2 /: ˇ0 ˇ A2 ˇ ˇ ˇ0 ˇ ! a b Ebenso erhält man mit einem 2 2-Block A1 D und einem zweiten 2 2c d Block A2 durch Entwicklung nach der ersten Spalte ˇ ˇ ˇ ˇa b 0 0ˇ ˇ ˇ ˇ ˇd 0 0ˇ ˇ ˇ ˇ b 0 0ˇ ˇ ˇ c d 0 0ˇ ˇ ˇ ˇ ˇ ˇ D aˇ 0 ˇ  cˇ0 ˇ ˇ0 0 ˇ ˇ ˇ ˇ A2 ˇ A2 ˇˇ D .ad  bc/ det A2 ˇ ˇ ˇ ˇ A 2 ˇ 0 0 ˇ0 0 D .det A1 /.det A2 /: Tatsächlich gilt allgemein Satz 5.5 Die n n-Matrix A sei eine Diagonalblockmatrix, die auf der Hauptdiagonale die quadratischen Blöcke A1 ; : : : ; Ak aufweise und ansonsten nur Nullen, d. h., es sei A D diag.A1 ; : : : ; Ak /. Dann gilt det A D .det A1 / .det Ak /: Sind darüber hinaus alle Blöcke regulär, so ist A invertierbar und es ist 1 A1 D diag.A1 1 ; : : : ; Ak /

Beweis Die Determinantenformel ist oben letztlich bis n D 5 bewiesen, da hier maximal ein 2 2-Block neben einem 3 3-Block auftreten kann. Für n D 6 sind zwei 3 3-Blöcke möglich und der Nachweis kann wieder über den Entwicklungssatz erfolgen usw. Einen vollständigen Beweis mit einem erweiterten Entwicklungssatz führen wir nicht aus. Die inverse Matrix A1 ergibt sich aus der Tatsache, dass beim Produkt der zwei Blockmatrizen A und A1 letztlich nur die Blöcke „aufeinander treffen“ und miteinander multipliziert werden. ı Beispiel Es ist ˇ ˇcos ˛ ˇ ˇ sin ˛ ˇ ˇ 0 ˇ ˇ 0

 sin ˛ cos ˛ 0 0

0 0 cos ˇ sin ˇ

ˇ 0 ˇˇ 0 ˇˇ D1 1D1  sin ˇ ˇˇ cos ˇ ˇ

5.3 Berechnung von Determinanten

125

und 0

cos ˛ B sin ˛ B @ 0 0

 sin ˛ cos ˛ 0 0

0 0 cos ˇ sin ˇ

11 0 cos ˛ 0 B sin ˛ 0 C C DB @ 0  sin ˇ A 0 cos ˇ

sin ˛ cos ˛ 0 0

0 0 cos ˇ  sin ˇ

1 0 0 C C: sin ˇ A cos ˇ

Antwort auf Zwischenfrage (5)

Gefragt war, ob Matrizen mit ganzzahligen Elementen auch ganzzahlige Determinanten besitzen. Ja, das stimmt. Die Summe X det A D .sign / a1 .1/ an .n/ 2Sn

enthält Produkte von Matrixelementen und Produkte ganzer Zahlen sind wieder ganze Zahlen. Bei der Überführung in eine obere Dreiecksmatrix mithilfe der elementaren Umformungen können aber durchaus Brüche entstehen und schlussendlich auch auf der Hauptdiagonale stehen. Das Produkt der Hauptdiagonalelemente muss dann aber wieder eine ganze Zahl ergeben.

Welches Verfahren zur Berechnung einer Determinante?

Wir haben unterschiedliche Verfahren zur Berechnung von Determinanten kennengelernt und wollen einen zusammenfassenden Blick darauf werfen:  2 2-Determinanten sind einfach und können leicht berechnet werden.  3 3-Determinanten können mit der Sarrus-Regel ermittelt oder mit dem Entwicklungssatz auf 2 2-Determinanten zurückgeführt werden. Der Vorteil des Entwicklungssatzes ist, dass er universell gilt und bei Nullen in der Determinante schnell(er) zum Ergebnis führen kann. Auch die Überführung in eine obere Dreiecksdeterminante ist möglich und abhängig von der Form der Determinante vielleicht ein schneller Weg.  Für 4 4-Determinanten und höher sollte immer erst geprüft werden, ob es sich um einen einfachen Sonderfall handelt oder die Determinante leicht darauf zurückgeführt werden kann. Ansonsten können der Entwicklungssatz und die Überführung in eine obere Dreiecksdeterminante verwendet werden. Für das handschriftliche Berechnen von reinen Zahldeterminanten scheint die obere Dreiecksdeterminante oft der bessere Weg zu sein.

126

5

Determinanten

5.4 Anwendungen Als eine erste Anwendung halten wir fest: Satz 5.6 Eine n n-Matrix A ist genau dann regulär, wenn gilt det A ¤ 0. Beweis Der Beweis ergibt sich beispielsweise aus Satz 5.3. Eine n n-Matrix A ist genau dann regulär, d. h., es gilt rg A D n, wenn sie sich anhand der elementaren Umformungen in eine obere Dreiecksmatrix überführen lässt, bei der auf der Hauptdiagonale keine Nullen stehen. Genau dann aber gilt det A ¤ 0.  Manchmal ist es leichter, anstelle des Rangs die Determinante einer Matrix zu ermitteln. So gilt etwa ! cos ˛  sin ˛ det D cos2 ˛ C sin2 ˛ D 1 sin ˛ cos ˛ für sämtliche Werte von ˛. Soll diese Matrix zur Ermittlung des Rangs auf ein oberes Dreiecksschema gebracht werden, so ist eine Fallunterscheidung und damit etwas mehr Aufwand notwendig.

5.4.1 Cramer-Regel In Abschn. 3.8.2 haben wir gesehen, wie eindeutig lösbare Gleichungssysteme von n Gleichungen mit n Unbekannten mithilfe der Inversion der Koeffizientenmatrix gelöst werden können. Die Cramer-Regel3 erlaubt auch ohne explizite Matrixinversion das direkte Angeben der Lösungen: Satz 5.7 (Cramer-Regel) Gegeben sei ein lineares Gleichungssystem a11 x1 C : : : C a1n xn D b1 :: :: :: :: : : : : an1 x1 C : : : C ann xn D bn ; mit der n n-Koeffizientenmatrix A D .aij /. Dabei gelte det A DW D ¤ 0. Dann besitzt dieses Gleichungssystem genau eine Lösung x1 ; : : : ; xn und für diese gilt ˇ ˇ ˇa11 a1 j 1 b1 a1 j C1 a1n ˇ n ˇ ˇ X 1 1ˇ :: :: :: :: ˇ; bi adj aij D ˇ ::: xj D ˇ



: : :



: ˇ D i D1 Dˇ ˇa

a b a

a ˇ n1

n j 1

n

n j C1

1n

j D 1; : : : ; n. In der Determinante ist also die j -te Spalte der Matrix A durch den Lösungsvektor .bi / ersetzt. 3

Benannt nach dem Schweizer Mathematiker Gabriel Cramer, 1704–1752.

5.4 Anwendungen

127

Beweis Wir setzen die Lösung in das Gleichungssystem ein: ! n n n X X 1 X akj xj D akj bi adj aij D i D1 j D1 j D1 0 1 n n X X 1 bi @ akj adj aij A; k D 1; : : : ; n: D D i D1 j D1 Für i D k gibt der letzte Ausdruck in der Klammer die Entwicklung der Determinante jAj nach der i-ten Zeile wieder; er ist dann also gleich D. Für i ¤ k entspricht er der Determinante einer Matrix, die aus A durch Ersetzung der i-ten Zeile durch die k-te entsteht, also einer Matrix P mit zwei gleichen Zeilen, deren Determinante gleich 0 ist. Wir erhalten somit jnD1 akj xj D bk .  Beispiele (1) Wir betrachten das Gleichungssystem 2x1 C 3x2  2x3 D 1 3x1 C x2 C x3 D 2 4x1  5x2 C x3 D 0: Seine Koeffizientenmatrix hat die Determinante ˇ ˇ ˚ ˇ ˇ˚ ˇ ˇ ˇ ˇ ˇ ˇ ˇ2 ˇ 2 3 ˇ 1 1ˇ ˇ3 1ˇ ˇ3 1 ˇ ˇ ˇ ˇ ˇ ˇ ˇ ˇ ˇ D D ˇ3 1 1 ˇˇ D 2ˇ5 1ˇ  3ˇ 4 1ˇ  2ˇ 4 5ˇ ˇ ˇ 4 5 1 ˇ D 12 C 21  22 D 11 ¤ 0: Die Cramer-Regel ist also anwendbar und ergibt ˇ ˇ˚ ˇ ˇ 3 2ˇ ˇ1 ˇ ˇ ˇ ˇ! ˇ ˇ ˇ 1 1ˇ ˇ 3 2ˇ 1 1ˇ 8 ˇ ˇ ˇ ˇ ˇ x1 D 1 1 ˇ D 11 ˇ5 1ˇ C 2ˇ5 1 ˇ D  11 11 ˇˇ2 ˇ ˇ˚ 0 5 1 ˇ ˇ ˇ ˇ ˇ 2 ˇ ˇ2 ˇ ˇ ˇ ˇ! 1 ˇ ˇ3 1ˇ ˇ2 2ˇ 1 ˇˇ 1 ˚ ˇ ˇ ˇ ˇ ˇ D  13 x2 D ˇ D  2ˇ 2 1 3 ˇ ˇ ˇ 11 ˇ 11 11 4 1 4 1ˇ ˇ ˇ ˇ4 1 0 ˇ ˇ ˚ ˇ ˇ 3 ˇ ˇ2 ˇ ˇ ˇ! 1ˇ ˇ2 3 ˇ 1 ˇˇ 1 ˇˇ3 1 ˇˇ ˇ ˇ ˇ ˇ D  33 D 3: x3 D C 2ˇ D 2 3 1 ˇ ˇ ˇ ˇ 11 ˇ 11 4 5 11 4 5ˇ ˇ ˇ 4 5 ˚ ˇ 0

128

5

Determinanten

Lesehilfe

Im obigen Beispiel haben wir die Determinanten jeweils nach der Spalte entwickelt, die durch den Lösungsvektor ersetzt wurde. Das bietet sich hier an, weil diese Spalte eine 0 enthält. Aber die Determinanten könnten natürlich ebenso mit irgendeiner anderen Methode berechnet werden.

(2) Wir lösen das Gleichungssystem ax C by D e cx C dy D f; dessen Koeffizientendeterminante D D ad  bc ungleich 0 sei: ˇ 1 ˇˇ e xD ˇ D f

ˇ ed  bf b ˇˇ D ; dˇ ad  bc

ˇ 1 ˇˇa yD ˇ D c

ˇ af  ec e ˇˇ D : fˇ ad  bc

Lesehilfe

Löse mal dieses Gleichungssystem mit dem Additionsverfahren. Selbst wenn du a; b; c; d ¤ 0 annimmst (was durchaus nicht sein muss, aber Fallunterscheidungen vermeidet), wirst du merken, wie praktisch die Cramer-Regel hier ist ;-)

5.4.2

Matrixinversion

Aus Abschn. 3.8.2 wissen wir, dass die Lösung eines eindeutig lösbaren Gleichungssystems mit der Koeffizientenmatrix A unmittelbar mit der inversen Matrix A1 zusammenhängt. Aus der Cramer-Regel lässt sich daher auch eine Vorschrift zur Inversion der Matrix A gewinnen: Die Elemente der inversen Matrix wollen wir mit sij bezeichnen. Wegen AA1 D En sind die Elemente s1j ; : : : ; snj der j -ten Spalte von A1 gerade die Lösungen des Gleichungssystems aus Satz 5.7, wenn man dort bj D 1 und bk D 0 für k ¤ j setzt, siehe auch (3.37). Aus der Cramer-Regel folgt daher Satz 5.8 Es sei A D .aij / eine reguläre n n-Matrix. Für die Elemente sij der inversen Matrix A1 gilt dann sij D

1 adj aj i : det A

5.4 Anwendungen

129

Man beachte die Reihenfolge der Indizes in Satz 5.8, den man sich in folgender Weise merken kann: Ersetzt man jedes Element von A durch seine Adjunkte, so erhält man eine neue Matrix AQ und es gilt A1 D

1 QT A : det A

(5.21)

Lesehilfe

Invertiert man eine Matrix mit ganzzahligen Elementen mit dem Verfahren aus Abschn. 3.8.1, so bekommt man es in der Regel mit Brüchen zu tun. Wir sehen hier, dass der Hauptnenner dieser Brüche der Determinante der Matrix entspricht, da die Adjunkten bei ganzzahligen Matrixelementen ebenso ganzzahlig sind.

Beispiele (1) Wir invertieren die Matrix 0

1 3 1 2 A D @1 1 1A 4 2 1 mit Hilfe von (5.21): Die Matrix ist regulär, es ist det A D 14 ¤ 0. Für die Elemente der Matrix AQ D .aQ ij /, die aus den Adjunkten von A besteht, ergibt sich aQ 11 aQ 21 aQ 31

ˇ ˇ1 D Cˇˇ ˇ 2 ˇ1 D ˇˇ ˇ2 ˇ1 D Cˇˇ 1

ˇ 1 ˇˇ D 1; 1ˇˇ 2 ˇˇ ˇ D 5; 1 ˇ 2ˇˇ D 3; 1ˇ

aQ 12 aQ 22 aQ 32

ˇ ˇ1 D ˇˇ ˇ4 ˇ3 D Cˇˇ ˇ4 ˇ3 D ˇˇ 1

ˇ ˇ ˇ1 1 ˇˇ D 5; aQ 13 D Cˇˇ ˇ 1 ˇ ˇ4 ˇ3 ˇ 2ˇ D 11; aQ 23 D ˇˇ ˇ 1 ˇ4 ˇ ˇ3 2ˇˇ D 1; aQ 33 D Cˇˇ ˇ 1 1

ˇ 1 ˇˇ D 6; 2ˇˇ 1ˇˇ D 2; 2ˇˇ 1ˇˇ D 4; 1ˇ

also ist 0 1 1 1 5 3 1 5 6 AQ D @5 11 2 A und AQT D @ 5 11 1A: 6 2 4 3 1 4 0

Die inverse Matrix zu A lautet daher 0

A1

1 0 1 1 5 3  14 1 5 D  @ 5 11 1A D @ 14 14 3 6 2 4 7

5 14 11 14  17

3 1 14 1 A : 14 2 7

130

5

Determinanten

Lesehilfe

Ob man einen Vorfaktor wie 1=14 in die Matrix hineinzieht oder davor stehenlässt, ist Geschmackssache. Hier böte es sich auch an, nur das Minuszeichen in die Matrix hineinzuschreiben. (2) Reguläre  2 2-Matrizen können mit Hilfe von (5.21) leicht invertiert werden: a b Es ist det D ad  bc, adj a D d , adj b D c, adj c D b, adj d D a und c d wir haben    1 1 d b a b D : (5.22) c d ad  bc c a Lesehilfe

2 2-Matrizen können mit dieser Formel „durch Hingucken“ invertiert werden: Die Determinante ist leicht berechnet, dann die Elemente auf der Hauptdiagonale tauschen und die Elemente auf der Nebendiagonale stehenlassen und mit Minuszeichen versehen. Die Inversion von 3 3-Matrizen erfordert die Berechnung der Adjunkten über die jeweiligen 2 2-Unterdeterminanten und das Vorzeichen. Mit etwas Übung und Konzentration geht das recht gut und bei ganzzahligen Matrizen erspart es das Bruchrechnen. Bei 4 4-Matrizen hat man es mit sechzehn 3 3-Unterdeterminanten zu tun. Das ist viel Schreib- und Rechenarbeit und für das handschriftliche Rechnen wäre vermutlich das Verfahren aus Abschn. 3.8.1 vorzuziehen.

Das Wichtigste in Kürze

 Eine Determinantenform ist eine n-fache Linearform auf einem n-dimensionalen Vektorraum, die genau für linear abhängige Vektoren verschwindet.  Eine Determinantenform ändert beim Vertauschen zweier Argumentvektoren ihr Vorzeichen.  Die symmetrische Gruppe enthält alle Permutationen der Zahlen 1 bis n. Sie besitzt nŠ Elemente.  Eine Permutation kann durch k Transpositionen erzeugt werden. Das Vorzeichen der Permutation ist gleich .1/k .  Die Determinante einer Abbildung ist als Quotient von Determinantenformen definiert, dessen Nenner die Basisvektoren und dessen Zähler die Bilder der Basisvektoren enthält.  Die Determinante einer Matrix ist so definiert, dass sie die Abbildungsdeterminante wiedergibt. Sie besteht aus einer speziellen Summe von Produkten der Matrixelemente.  Die Berechnung von Determinanten kann auf unterschiedliche Weisen erfolgen: Für 2- und 3-dimensionale Determinanten kann die Summe leicht

5.4 Anwendungen

131

ausgeführt werden. Darüber hinaus kann die Berechnung durch Überführung in eine obere Dreiecksmatrix oder mit Hilfe des Entwicklungssatzes erfolgen.  Die Adjunkte eines Matrixelements ist die Determinante des algebraischen Komplements mit einem zusätzlichen Vorzeichen nach dem Schachbrettmuster.  Die Determinante einer regulären Matrix ist ungleich 0.  Die Cramer-Regel erlaubt die Lösung von eindeutig lösbaren Gleichungssystemen mit quadratischer Koeffizientenmatrix. Auch die Inversion einer Matrix ist mit ihrer Hilfe möglich. J Und was bedeuten die Formeln? .x 1 ; : : : ; x n / D 0 für linear abhängige Vektoren x 1 ; : : : ; x n 2 V; .: : : ; x i ; : : : ; xj ; : : :/ D .: : : ; xj ; : : : ; x i ; : : :/; .x 1 ; : : : ; x n / D .sign / .x .1/ ; : : : ; x .n/ /; 1 0 n X X .x 1 ; : : : ; x n / .sign / x1 .1/ xn .n/ A; x i D xij bj ; D@ .b1 ; : : : ; bn / 2S j D1 n

.f .b1 /; : : : ; f .bn // ; det.f ı g/ D .det f /.det g/; det f WD .b1 ; : : : ; bn / ˇ ˇ ˇa11 a1n ˇ ˇ ˇ ˇ :: ˇ WD X .sign / a :: det A D ˇ ::: 1 .1/ an .n/ ; : : ˇˇ ˇ 2Sn ˇa ˇ

ann n1 det.cA/ D c n det A; ˇ ˇa11 ˇ ˇa 21

det.AB/ D .det A/.det B/;

ˇ a12 ˇˇ D a11 a22  a12 a21 ; a22 ˇ

det A D .1/k b11 b22 bnn ; det A D

n X j D1

a11 a21 a31

a12 a22 a32

a13 a23 a33

det.A1 / D .det A/1 ; a11 a21 a31

a12 a22 ; a32

adj aij WD .1/i Cj det Aij ;

.1/i Cj aij det Aij D

n X j D1

aij adj aij D

n X

aij adj aij ;

i D1

1 det A D .det A1 / .det Ak /; A1 D diag.A1 1 ; : : : ; Ak /; ˇ ˇa11 a1 j 1 b1 a1 j C1 n X 1 ˇˇ : :: :: :: akj xj D bk ) xj D ˇ ::



: : : ˇ D j D1 ˇa n1 an j 1 bn an j C1 !1 ! 1 1 a b d b AQT ; D : A1 D det A ad  bc c a c d

ˇ

a1n ˇˇ :: ˇ;



: ˇˇ

a1n ˇ

132

5

Determinanten

Übungsaufgaben A5.1 Sind die folgenden Aussagen richtig oder falsch? Begründe jeweils deine Antwort. (I) (II) (III) (IV) (V)

Für eine Determinantenform  auf dem n-dimensionalen Vektorraum V und x 2 V gilt .x; : : : ; x/ D 0. Für eine Determinantenform  auf einem n-dimensionalen Vektorraum und c 2 R gilt .cx 1 ; : : : ; cx n / D c n .x 1 ; : : : ; x n /. Ist b1 ; : : : ; bn eine Basis des Vektorraums V und sind  und  zwei Determinantenformen auf V , so gilt .b1 ; : : : ; bn / D  .b1 ; : : : ; bn /. Werden auf eine Reihenfolge der natürlichen Zahlen 1 bis n, n  2, zwei Transpositionen angewandt, so ändert sich die Reihenfolge. Werden auf eine Reihenfolge der natürlichen Zahlen 1 bis n, n  2, drei Transpositionen angewandt, so ändert sich die Reihenfolge.

A5.2 Jemand sagt: „Zueinander ähnliche Matrizen besitzen stets dieselbe Determinante.“ Hat sie recht? A5.3 Berechne die Determinanten der folgenden Matrizen: ! ! ! cos ˛  sin ˛ a b 2 3 ; BD ; C D ; AD sin ˛ cos ˛ c d 4 5 0 1 0 1 1 2 3 cos ˛  sin ˛ 0 D D @0 1 1A; E D @ sin ˛ cos ˛ 0A; 5 1 8 0 0 1 1 0 sin p˛ p˛ cos ˛  sin 2 2 C B sin 1 1 F D @ p2˛ 2 .1 C cos ˛/ 2 .1  cos ˛/ A; 1 p˛  sin .1  cos ˛/ 12 .1 C cos ˛/ 2 2 0 0 1 1 1 3 4 0 1 2 2 1 B 2 5 7 1C B1 0 2 2 C C C GDB H DB AC; @1 2 3 0A; @1 0 0 0 A; 0 0 1 4 0 0 1 1 Bei welchen Matrizen handelt es sich um reguläre Matrizen?

EF;

GH:

Übungsaufgaben

133

A5.4 Löse die folgenden linearen Gleichungssysteme jeweils vollständig. Verwende nach Möglichkeit die Cramer-Regel. x1 C 2x2 D 3 x1 C 4x2 D 1

b)

d) 3x1  x2 C 2x3 D 0 x1 C x2 C x3 D 1 4x1  2x2  x3 D 0

e)

a)

x1 C 2x2 D 1 4x1  8x2 D 4

c) x1 C 2x2 D 0 3x1  6x2 D 7

3x1  x2 C 2x3 D 0 x1 C 2x2 C 3x3 D 0 x1 C x2  x3 D 0:

A5.5 Prüfe, ob die folgenden Matrizen invertierbar sind, und gib ggf. die Umkehrmatrix an. ! ! ! 1 2 4 2 0 1 AD ; BD ; C D ; 1 2 2 1 2 0 0 1 0 1 2 0 0 0 3 1 2 B0 0 1 0 C C: D D @1 1 EDB 1 A; @0 2 0 0A 4 2 1 0 0 0 3

6

Eigenvektoren und Eigenwerte

Bei linearen Selbstabbildungen kann es Vektoren geben, die auf ein Vielfaches von sich selbst abgebildet werden. Solche Vektoren nennt man Eigenvektoren. Die Kenntnis der Eigenvektoren erlaubt eine Einsicht in das Verhalten einer linearen Abbildung. Beispielsweise zeigen sie bei dreidimenionalen Drehungen die Lage der Drehachse an. Endlichdimensionale Abbildungen werden hinsichtlich unterschiedlicher Basen durch unterschiedliche Matrizen beschrieben. Basen, die Eigenvektoren enthalten, „passen“ zu der Abbildung: Sie führen auf einfache(re) Abbildungsmatrizen.

Wozu dieses Kapitel im Einzelnen

 Wir sehen uns zunächst genau an, was Eigenvektoren und Eigenwerte sind und warum der Nullvektor außen vor bleiben muss.  Eigenwerte sind „charakteristisch“ für eine Abbildung. Passend dazu lernen wir das charakteristische Polynom kennen, das sich aus einer Determinante ergibt.  Die Nullstellenbestimmung von Polynomen ist eine Standardaufgabe der Mathematik. Sie führt uns zu den Eigenwerten.  Eigenvektoren ergeben sich aus der Lösung linearer Gleichungssysteme. Das ist in der linearen Algebra nicht überraschend ;-)  Basen mit Eigenvektoren sind „passend“. Wir wollen uns ansehen, was das heißt.

6.1 Definition von Eigenvektoren Definition 6.1 Es sei f eine lineare Selbstabbildung auf dem Vektorraum V . Ein Vektor x ¤ 0 heißt ein Eigenvektor von f , wenn f .x/ D tx mit einem Skalar t gilt. Dann wird t der zu diesem Eigenvektor gehörende Eigenwert genannt. © Der/die Autor(en), exklusiv lizenziert an Springer-Verlag GmbH, DE, ein Teil von Springer Nature 2023 J. Balla, Lineare Algebra, https://doi.org/10.1007/978-3-662-67667-7_6

135

136

6 Eigenvektoren und Eigenwerte

Lesehilfe

Zu beachten ist, dass der Nullvektor grundsätzlich kein Eigenvektor ist. Für ihn gilt f .0/ D 0 D t0 mit jedem beliebigen Skalar t, d. h., er wäre Eigenvektor zu jedem beliebigen Eigenwert.

Auch der Eigenwert 0 ist möglich. Er tritt auf, wenn neben dem Nullvektor noch andere Vektoren auf 0 abgebildet werden. Bijektive lineare Abbildungen können somit keinesfalls den Eigenwert 0 besitzen.1 Mit einem Vektor x ist wegen der Linearität von f auch jeder Vektor cx mit c ¤ 0 Eigenvektor zum selben Eigenwert. Es gibt also grundsätzlich nicht einzelne Eigenvektoren, sondern immer einen mindestens eindimensionalen Eigenraum.

Zwischenfrage (1)

Warum ist mit einem Vektor x ¤ 0 auch jeder Vektor cx Eigenvektor zum selben Eigenwert?

Beispiele (1) Bei der identischen Abbildung id W V ! V ist jeder Vektor x ¤ 0 Eigenvektor zum Eigenwert 1, denn es gilt id.x/ D 1x. Bei der Nullabbildung n W V ! V gilt n.x/ D 0 für alle x 2 V ; alle Vektoren x ¤ 0 sind daher Eigenvektoren zum Eigenwert 0. (2) Eine zweidimensionale Drehung d ˛ W R2 ! R2 mit einem Drehwinkel ˛, 0 < ˛ < 2, besitzt für ˛ ¤  keine Eigenvektoren. Für ˛ D  hingegen ist jeder Vektor x ¤ 0 Eigenvektor zum Eigenwert 1. (3) Eine dreidimensionale Drehung d ˛ W R3 ! R3 besitzt für alle Drehwinkel 0 < ˛ < 2 Eigenvektoren: Sämtliche Vektoren, die auf der Drehachse liegen, werden auf sich selbst abgebildet, sind also Eigenvektoren zum Eigenwert 1. Für den Drehwinkel ˛ D  besitzt die Abbildung darüber hinaus noch weitere Eigenvektoren zum Eigenwert 1.

Lesehilfe

Wie du siehst, sind Eigenvektoren nichts kompliziertes, sondern es sind einfach Vektoren, die auf Vielfache von sich selbst abgebildet werden. Wenn eine

1

Die Menge aller Vektoren, die auf 0 abgebildet werden, nennt man den Kern einer Abbildung, Kern f WD fx 2 V j f .x/ D 0g. Isomorphismen besitzen den kleinstmöglichen Kern f0g.

6.2 Berechnung von Eigenvektoren

137

Abbildungen Eigenvektoren besitzt, so besitzt sie natürlich auch die entsprechenden Eigenwerte. In den einfachen obigen Beispielen kann man sich die Eigenvektoren überlegen, aber im Allgemeinen wird man Eigenwerte und -vektoren berechnen müssen.

Antwort auf Zwischenfrage (1)

Gefragt war, warum mit x ¤ 0 auch cx Eigenvektor ist. Wenn x Eigenvektor zum Eigenwert t ist, gilt f .x/ D tx. Da f linear ist, folgt daraus f .cx/ D cf .x/ D ctx D t.cx/; d. h., cx ist ebenfalls Eigenvektor zum Eigenwert t.

6.2 Berechnung von Eigenvektoren Wir betrachten eine lineare Selbstabbildung f eines n-dimensionalen Vektorraums V . Sofern die Abbildung einen Eigenvektor x ¤ 0 zum Eigenwert t besitzt, muss gelten f .x/ D tx;

d. h. f .x/  tx D 0:

Mit der identischen Abbildung id W V ! V lässt sich das auch ausdrücken als .f  t id/.x/ D 0:

(6.1)

Diese Gleichung ist genau dann für Vektoren x ¤ 0 erfüllbar, wenn die Abbildung f t id kein Isomorphismus ist, sie also eine verschwindende Determinante besitzt. Notwendig für die Existenz von Eigenvektoren ist daher die Bedingung, dass es Werte t gibt, für die gilt det.f  t id/ D 0:

(6.2)

Zwischenfrage (2)

Warum ist (6.1) genau dann für Vektoren x ¤ 0 erfüllbar, wenn die Abbildung f  t id kein Isomorphismus ist?

138

6 Eigenvektoren und Eigenwerte

6.2.1 Charakteristisches Polynom und Eigenwerte Der Abbildung f sei hinsichtlich einer Basis die n n-Matrix A D .aij / zugeordnet. Dann ist ˇ ˇa11  t ˇ ˇ a21 ˇ det.f  t id/ D det.A  tEn / D ˇ : ˇ :: ˇ ˇ a n1

a12 a22  t :: :





:: :

an2



ˇ ˇ ˇ ˇ ˇ ˇ: ˇ ˇ  tˇ

a1n a2n :: : ann

(6.3)

Diese Determinante ist unabhängig von der gewählten Basis. Sie entspricht einem Polynom n-ten Grads in t, für das man die folgende Bezeichnung verwendet: Definition 6.2 Das Polynom pf .t/ WD det.f t id/ heißt das charakteristische Polynom der linearen Selbstabbildung f von V . Sein Grad ist gleich der Dimension von V .

Lesehilfe

Die Abbildungsdeterminante ist unabhängig von der gewählten Basis, d. h., sie kann mit irgendeiner ihr hinsichtlich einer Basis zugeordneten Matrix berechnet werden. Die Determinante (6.3) enthält neben den Zahlen aij die Variable t. Bei ihrer Berechnung – beispielsweise mit dem Entwicklungssatz – ist die Variable t „einfach“ mitzurechnen. Auf diese Weise erhält man ein Polynom in t.

Gleichung (6.2) ergibt nun Satz 6.1 Ein Skalar t ist genau dann ein Eigenwert von f , wenn t eine Nullstelle des charakteristischen Polynoms von f ist. Die Aufgabe, die Eigenwerte der linearen Abbildung f zu bestimmen, ist somit zurückgeführt auf die Nullstellenbestimmung eines Polynoms n-ten Grads. Wie man sich leicht klarmacht, lautet der Summand mit der höchsten Potenz im charakteristischen Polynom .1/n t n , d. h., das Polynom besitzt stets die Form pf .t/ D .1/n t n C bn1 t n1 C : : : C b1 x C b0 mit Koeffizienten b0 ; b1 ; : : : ; bn1 2 K.

6.2 Berechnung von Eigenvektoren

139

Lesehilfe

Machen wir uns das einmal „leicht klar“: Die Determinante det.A  tEn / DW det P ergibt sich durch Ausführen der Summe (5.15), det P D

X

.sign / p1 .1/ pn .n/ :

2Sn

Die Variable t steht nur auf der Hauptdiagonale, d. h. in den Elementen p11 ; : : : ; pnn , sodass die höchste Ordnung von t dem Summanden der identischen Permutation entspringt, der gleich .a11  t/ .ann  t/ ist. Dies führt beim Ausmultiplizieren auf die höchste Ordnung .1/n t n .

Ein Polynom n-ten Grads kann über dem Skalarenkörper R  für gerade n keine Nullstelle besitzen: Die Abbildung besitzt dann keinen Eigenwert oder Eigenvektoren.  bis zu n verschiedene Nullstellen ti besitzen: Die Abbildung besitzt dann bis zu n Eigenwerte. Jede Nullstelle entspricht einem Linearfaktor .t  ti /, der im charakteristischen Polynom enthalten ist.  mehrfache Nullstellen besitzen: Es gilt dann pf .t/ D .t ti /ki gi .t/ mit gi .ti / ¤ 0 und ki 2 N bezeichnet die Vielfachheit der Nullstelle ti .

Lesehilfe

Nullstellen von Polynomen sind ein kleiner Kosmos für sich. Nur kurz zur Erinnerung: Ein Polynom zweiten Grads kann über R keine Nullstelle haben wie t 2 C 1, eine doppelte Nullstelle (d. h. Vielfachheit 2) wie t 2  2t C 1 D .t  1/2 oder zwei verschiedene Nullstellen wie t 2  3t C 2 D .t  1/.t  2/. Ein Polynom dritten Grads hat mindestens eine Nullstelle und bis zu drei, ein Polynom vierten Grads hat null bis vier Nullstellen usw. Über C sind die Dinge anders: Der Körper C ist im Unterschied zu R algebraisch abgeschlossen, gleichbedeutend damit, dass jedes Polynom in Linearfaktoren zerfällt. Diesen Skalarenkörper lassen wir aber im Folgenden außen vor und beschränken uns auf R.

140

6 Eigenvektoren und Eigenwerte

Antwort auf Zwischenfrage (2)

Gefragt war, warum (6.1) genau dann für Vektoren x ¤ 0 erfüllbar, wenn die Abbildung f  t id kein Isomorphismus ist. Jede lineare Abbildung bildet die 0 auf die 0. Ein Isomorphismus ist bijektiv, d. h., es kann dann nur die 0 auf die 0 abgebildet werden. Soll es daher weitere Vektoren x ¤ 0 geben, die auf die 0 abgebildet werden, für die also gilt .f  t id/.x/ D 0; so ist das nur möglich, wenn f  t id kein Isomorphismus ist. Dies ist dann gleichbedeutend damit, dass die Determinante dieser Abbildung verschwindet.

6.2.2 Eigenvektoren Die Eigenwerte der Abbildung f entsprechen den Nullstellen ihres charakteristischen Polynoms, ergeben sich also als Lösungen der Gleichung pf .t/ D det.A  tEn / D 0:

(6.4)

Ist nun ti eine Nullstelle von pf , so erhält man die zugehörigen Eigenvektoren x als die nichttrivialen Lösungen des homogenen linearen Gleichungssystems .A  ti En /x D 0;

(6.5)

d. h. ausführlich .a11  ti /x1 C

C:::C

a1n xn

D 0

a21 x1 :: :

C .a22  ti /x2 C : : : C :: :

a2n xn :: :

D 0 :: :

an1 x1

C

a12 x2

an2 x2

C : : : C .ann  ti /xn D 0:

Dieses Gleichungssystem ist grundsätzlich nicht eindeutig lösbar. Seine Lösung ergibt die Koordinaten aller Eigenvektoren hinsichtlich der Basis, in der die Abbildung f durch die Matrix A beschrieben wird. Die Lösungsmenge enthält auch den Nullvektor und man spricht vom Eigenraum zum Eigenwert ti . Bei mehreren unterschiedlichen Eigenwerten t1 ; t2 ; : : : ist für jeden Eigenwert jeweils über das Gleichungssystem (6.5) der zugehörige Eigenraum zu ermitteln.

6.2 Berechnung von Eigenvektoren

141

Lesehilfe

Ein Eigenraum ist ein Untervektorraum und ein Untervektorraum enthält stets den Nullvektor. Da der Nullvektor selbst kein Eigenvektor ist, ist der Eigenraum genauer die lineare Hülle der Eigenvektoren, also die um 0 ergänzte Menge aller Eigenvektoren.

Zwischenfrage (3)

Jemand sagt: „Null mal Vektor ergibt für jeden Vektor den Nullvektor, daher ist der Eigenraum zu dem speziellen Eigenwert 0 immer gleich dem gesamten Raum.“ Hat er recht?

6.2.3 Beispiel Die Abbildung f W R3 ! R3 werde hinsichtlich der kanonischen Basis E beschrieben durch die Matrix 0 1 0 4 2 (6.6) A D @2 2 2A D AEf : 3 6 5 Wir berechnen das charakteristische Polynom: ˇ ˇ ˚ ˇ ˇ 4 2 ˇ ˇ0  t ˇ ˇ ˇ pf .t/ D det.A  tE3 / D ˇˇ 2 2  t 2 ˇ ˇ ˇ ˚ ˇ 3 6 5  tˇ ˇ ˇ ˇ ˇ ˇ ˇ2  t ˇ4 ˇ 4 2 ˇˇ 2 ˇˇ ˇ ˇ D t ˇˇ C 2  3 ˇ ˇ ˇ ˇ2  t 6 5t 6 5  t

ˇ 2ˇˇ 2ˇ

D t..2  t/.5  t/ C 12/ C 2.4.5  t/ C 12/  3.8  2.2  t// D t 3 C 3t 2  4:

Lesehilfe

Das charakteristische Polynom wird „ganz normal“ wie jede Determinante berechnet, nur dass jetzt die Variable t mitgerechnet werden muss.

Wir suchen die Nullstellen des charakteristischen Polynoms. Die erste Nullstelle erraten wir: t1 D 1. Zur Berechnung der weiteren Nullstellen spalten wir den Li-

142

6 Eigenvektoren und Eigenwerte

nearfaktor .t C 1/ ab (durch Polynomdivision) und erhalten pf .t/ D .t C 1/.t 2 C 4t  4/ D .t C 1/.t 2  4t C 4/ D .t C 1/.t  2/2 : (6.7) Wir haben somit eine zweite Nullstelle t2 D 2 mit der Vielfachheit 2. Lesehilfe

Das Ermitteln der Nullstellen eines Polynoms ist immer gleichbedeutend mit einer Faktorisierung: Jede Nullstelle entspricht einem Linearfaktor, der im Polynom enthalten ist. Dabei ist auch seine Vielfachheit für uns von Bedeutung, d. h., das Ziel ist eine faktorisierte Darstellung des charakteristischen Polynoms wie in (6.7). In günstigen Fällen, d. h., wenn die Abbildungsmatrix Zeilen oder Spalten enthält, die nur auf der Hauptdiagonale ungleich Null sind, kann nach einer solchen Zeile bzw. Spalte entwickelt werden und das charakteristische Polynom liegt dann bereits in (teilweise) faktorisierter Form vor. Die Abbildung f besitzt also die zwei Eigenwerte t1 D 1 (einfach) und t2 D 2 (zweifach) und wir berechnen jetzt die zugehörigen Eigenvektoren, indem wir die Lösungsmengen der Gleichungssysteme (6.5) ermitteln: Eigenvektoren zu t1 D 1: Zu lösen ist das Gleichungssystem .A  .1/E3 /x D .A C E3 /x D 0; d. h. 10 1 0 1 1 4 2 0 x1 @2 1 2A@x2 A D @0A: x3 3 6 6 0 0

Abgekürzt geschrieben ergibt sich: 1 4 2 2 1 2 3 6 6

1 4 2 0 .2/ .3/ , 0 9 6 0 # 0 # 0 18 12

0 1 4 2 0, 0 3 2 0

0 ; 0

also x2 D 23 x3 und x1 D 4x2  2x3 D 23 x3 , sodass ER1

(0x 1ˇ ) (02s 1ˇ ) ˇ 1 ˇ 2 2 ˇ ˇ D @x2 Aˇ x1 D x3 ; x2 D x3 ; x3 2 R D @2s Aˇ s 2 R ˇ ˇ 3 3 x3 3s

der Eigenraum zum Eigenwert 1 ist.

6.2 Berechnung von Eigenvektoren

143

Lesehilfe

Lösungsmengen von linearen Gleichungssystemen kann man auf viele Weisen aufschreiben: Man hätte auch

ER1

( 0 2 x 1ˇ ) 3 3 ˇ ˇ D @ 23 x3 Aˇ x3 2 R ˇ x3

stehen lassen können. Unsere Variante ohne Brüche und mit s ist nur etwas schlanker. Eigenvektoren zu t2 D 2: Jetzt haben wir das Gleichungssystem .A  2E3 /x D 0; also 2 4 2 2 4 2 3 6 3

0 0 , 1 2 0

1

0;

d. h. x1 D x3  2x2 und damit den Eigenraum ( 0x 1ˇ ) (0u  2s 1ˇ ) ˇ 1 ˇ ˇ ˇ ER2 D @x2 Aˇ x1 D x3  2x2 I x2 ; x3 2 R D @ s Aˇ s; u 2 R : ˇ ˇ x3 u Hier haben wir also einen zweidimensionalen Eigenraum mit zwei freien Parametern. Insgesamt haben wir somit den eindimensionalen Eigenraum ER1 zum einfachen Eigenwert t1 D 1 und den zweidimensionalen Eigenraum ER2 zum zweifachen Eigenwert t2 D 2.

Lesehilfe

Die Gleichungssysteme zur Ermittlung von Eigenräumen müssen auf echte Lösungsmengen führen. Da es sich um homogene Gleichungssysteme handelt, ist 0 natürlich auch immer eine Lösung. Sofern sich aber 0 als einzige Lösung ergibt, stimmt etwas nicht: Entweder ist der vermeintliche Eigenwert gar keiner (Rechenfehler bei den Nullstellen des charakteristischen Polynoms) oder die Lösung des Gleichungssystems ist nicht vollständig.

144

6 Eigenvektoren und Eigenwerte

Anwort auf Zwischenfrage (3)

Gefragt war, ob der Eigenraum zu dem speziellen Eigenwert 0 sei immer gleich dem gesamten Raum ist. Nein, das stimmt nicht. Wenn der Eigenwert 0 vorliegt, bedeutet das nicht, dass f .x/ D 0x D 0 für alle Vektoren gilt. Vielmehr gilt diese Gleichung nur für die Eigenvektoren zu 0, also die Lösungen des Gleichungssystems .A  0 En /x D Ax D 0: Nur im speziellen Fall der Nullabbildung ist tatsächlich der gesamte Raum Eigenraum zu 0. Aber auch andere Abbildungen besitzen den Eigenwert 0, bei! 1 0 2 2 , spielsweise die Abbildung f W R ! R mit der Abbildungsmatrix ! 0 0 0 die nur die Vektoren , s 2 R, auf 0 abbildet. s

Zwischenfrage (4)

Wie lässt sich durch Einsetzen prüfen, ob die oben ermittelten Eigenräume tatsächlich Eigenvektoren zum richtigen Eigenwert enthalten?

Basis aus Eigenvektoren In diesem Beispiel beträgt die Summe der Dimensionen der Eigenräume drei und es ist möglich, eine Basis des R3 anzugeben, die vollständig aus Eigenvektoren der Abbildung f besteht: Wir wählen (021 021 011) B D fv; w1 ; w2 g D @2A; @ 1 A; @0A : (6.8) 3 0 1 Der Vektor v ist Eigenvektor zum Eigenwert 1 und die Vektoren w1 ; w2 sind Eigenvektoren zum Eigenwert 2.

Lesehilfe

Zur Auswahl eines konkreten Eigenvektors aus einem Eigenraum wählst du einfach irgendwelche Parameterwerte aus der Lösungsmenge aus. Hier haben wir in ER1 s D 1 gewählt und in ER2 die zwei Paare .s; u/ D .1; 0/ und .s; u/ D .0; 1/. Zur Zusammenstellung einer Basis haben wir so einen Vektor aus dem eindimensionalen Eigenraum und zwei linear unabhängige Vektoren aus dem zweidimensionalen Eigenraum erhalten.

6.2 Berechnung von Eigenvektoren

145

In der Basis B aus Eigenvektoren nimmt die Matrix zur Beschreibung der Abbildung f eine besonders einfache Form an: Es ist ja f .v/ D v

und f .wi / D 2wi .i D 1; 2/;

sodass die Abbildung f hinsichtlich B beschrieben wird durch die Diagonalmatrix 0 1 1 0 0 @ 0 2 0A; AB (6.9) f D 0 0 2 bei der die Eigenwerte in der Reihenfolge der entsprechenden Basisvektoren auf der Hauptdiagonale stehen. Lesehilfe

Es gibt keineswegs zu jeder Abbildung vollständige Basen aus Eigenvektoren. Hier funktioniert es, weil die Summe der Dimensionen der Eigenräume gleich drei ist. Bei anderen dreidimensionalen Abbildungen kann es beispielsweise auch nur einen eindimensionalen Eigenraum geben, etwa bei Drehungen. Dann kann eine Basis höchstens einen Eigenvektor enthalten. T

Natürlich ließe sich die Matrix AB f auch durch eine Basistransformation E ! B mit der Transformationsmatrix 0 1 2 2 1 T D @2 1 0 A 3 0 1 1 E Af T . gewinnen, d. h., es ist AB f DT

Antwort auf Zwischenfrage (4)

Es sollte geprüft werden, ob die Eigenräume tatsächlich Eigenvektoren zu den richtigen Eigenwerten enthalten. Wir wählen Eigenvektoren aus bilden sie ab. Zunächst ist beispielsweise 0 1 1 @ 1 A 2 ER1 und 3=2 0 1 0 10 1 0 1 0 4 2 1 1  1 f @ 1 A D @2 2 2A@ 1 A D @ 1 A; 3=2 3 6 5 3=2 3=2

146

6 Eigenvektoren und Eigenwerte

der Vektor wird also tatsächlich auf sein .1/-faches abgebildet. Ferner ist 0 1 1 @ 1 A 2 ER2 und 1 0 1 0 0  1 @ A @ f D 2 1 3

1

10 1 0 1 4 2 1 2 A @ A @ 2 2 1 D 2A 6 5 1 2

und damit wieder alles okay.

6.3

Basen mit Eigenvektoren

Nachdem wir im obigen Beispiel gesehen haben, dass Basen mit Eigenvektoren im Hinblick auf die Beschreibung von Abbildungen eine besondere Rolle spielen, wollen wir uns ihre Eigenschaften genauer ansehen. Zunächst gilt für die Eigenvektoren zu verschiedenen Eigenwerten Satz 6.2 Die Vektoren v1 ; : : : ; vk seien Eigenvektoren der linearen Selbstabbildung f zu verschiedenen Eigenwerten t1 ; : : : ; tk . Dann sind die Vektoren v1 ; : : : ; vk linear unabhängig. Beweis Wendet man die Abbildung f  ti id, i D 1; : : : ; k, auf den Eigenvektor vj an, so erhält man .f  ti id/.vj / D .tj  ti /vj : Wendet man sie daher auf die Gleichung c1 v1 C : : : C ck vk D 0 an, so ergibt sich c1 .t1  ti /v1 C : : : C ci .ti  ti /vi C : : : C ck .tk  ti /vk D 0: Die Wirkung besteht also darin, dass der i-te Summand eliminiert wird, während die anderen k  1 Summanden cl vl mit dem Faktor .tl  ti / versehen werden. Wendet man nun der Reihe nach alle Abbildungen f  ti id mit i ¤ j an, so verbleibt nur der j -te Summand mit den entsprechenden Vorfaktoren: cj .t1  tj / .tj 1  tj /.tj C1  tj / .tk  tj /vj D 0: Wegen der Verschiedenheit der Eigenwerte sind in dieser Gleichung sämtliche Klammern ungleich 0, sodass cj D 0 folgt, j D 1; : : : ; k. Also sind die Vektoren v1 ; : : : ; vk linear unabhängig. 

6.3

Basen mit Eigenvektoren

147

Lesehilfe zum Beweis

Wegen f .vj / D tj vj ist .f  ti id/.vj / D .tj  ti /vj . Vektoren v1 ; : : : ; vk sind linear unabhängig, wenn die Gleichung c1 v1 C : : : C ck vk D 0 nur die triviale Lösung zulässt, wenn also c1 D : : : D ck D 0 folgt. Eben das wird im obigen Beweis gezeigt.

Im Hinblick auf die Basis (6.8) des obigen Beispiels besagt Satz 6.2, dass die Mengen fv; w1 g und fv; w2 g linear unabhängig sind. Es muss daher nur noch sichergestellt sein, dass w1 und w2 linear unabhängig sind, also keine Vielfachen voneinander sind. Die Frage, wann eine Abbildung durch eine Diagonalmatrix beschrieben werden kann, beantwortet Satz 6.3 Eine lineare Selbstabbildung f eines n-dimensionalen Vektorraums kann genau dann durch eine Diagonalmatrix beschrieben werden, wenn ihr charakteristisches Polynom in lauter Linearfaktoren zerfällt und wenn sich für jeden Eigenwert t mit der Vielfachheit k ein k-dimensionaler Eigenraum ergibt, d. h., wenn rg.f  t id/ D n  k gilt. Beweis Wir verzichten das Aufschreiben eines formalen Beweises. Der Hinweg ist klar, da die Eigenräume dann durch die entsprechenden Basisvektoren aufgespannt werden. Für den Rückweg bemerken wir, dass mit der Bedingung rg.f  t id/ D n  k sichergestellt ist, dass sich eine genügende Anzahl an linear unabhängigen Eigenvektoren finden lässt. ı

Lesehilfe zum Satz

In Satz 6.3 spielt die Dimension des Lösungsraums eines homogenen Gleichungssystems eine wichtige Rolle. Ein lineares Gleichungssystem mit der n n-Koeffizientenmatrix A, Ax D 0, besitzt für rg A D n nur die triviale Lösung, also ist die Dimension des Lösungsraums 0. Bei rg A D n  1 kann das Gleichungssystem auf n  1 Gleichungen zurückgeführt werden, gleichbedeutend mit einem freien Parameter in der Lösungsmenge und Dimension 1 des Lösungsraums. Bei rg A D n  2 besitzt die Lösungsmenge zwei freie Parameter und die Dimension 2 usw. Besitzt ein Eigenwert die Vielfachheit k, kann er maximal einen kdimensionalen Eigenraum besitzen. Die Dimension k tritt genau dann auf, wenn rg.f  t id/ D n  k gilt. Beispielsweise kann für k D 2 ein Eigenraum mit Dimension 2 oder 1 vorliegen. Ein einfacher Eigenwert besitzt stets einen eindimensionalen Eigenraum. Eigenräume mit der Dimension 0 gibt es nicht.

148

6 Eigenvektoren und Eigenwerte

Zunächst halten wir noch einmal fest, dass das charakteristische Polynom einer Abbildung f über R nicht in Linearfaktoren zerfallen muss. Dann kann f generell nicht durch eine Diagonalmatrix beschrieben werden. Aber selbst dann, wenn das Polynom in lauter Linearfaktoren zerfällt, muss darüber hinaus gewährleistet sein, dass die Dimensionen der Eigenräume gleich den Vielfachheiten der jeweiligen Eigenwerte sind. Nur so lassen sich auch bei mehrfachen Eigenwerten genügend linear unabhängige Eigenvektoren für eine Basis finden. Das war in unserem obigen Beispiel 6.2.3 der Fall. Aber auch wenn es keine vollständige Basis aus Eigenvektoren gibt, kann die Verwendung einer Basis mit den vorhandenen Eigenvektoren zu einer wesentlichen Vereinfachung der zugeordneten Matrix führen.

Zwischenfrage (5)

Welche Eigenwerte und Eigenräume besitzen die Abbildungen f und g, die hinsichtlich der Basis fb1 ; b2 ; b3 g durch die Matrizen 0

1 7 0 0 Af D @0 0 0A 0 0 7

0

bzw.

1 2 0 0 Ag D @ 0 0 3A 0 1 0

beschrieben werden? Kann die Abbildung g in einer anderen Basis auch durch eine Diagonalmatrix dargestellt werden?

Beispiel: Dreidimensionale Drehung Bei einer dreidimensionalen Drehung bleiben die Vektoren auf der Drehachse liegen, d. h., sie besitzt immer den Eigenwert 1 mit der Drehachse als zugehörigem Eigenraum. Sehen wir uns dazu noch einmal das Beispiel der Drehung d 011 W R3 ! R3 aus Abschn. 4.3.1 an: In der kanonischen Basis wird die Abbildung beschrieben durch die Matrix 0 B D011 D @

p˛  sin 2

cos ˛ sin p˛ 2 p˛  sin 2

1 2 1 2

C 12 cos ˛  12 cos ˛

1 2 1 2

1 sin p˛ 2 C  12 cos ˛ A: C 12 cos ˛

Ihr Eigenraum zum Eigenwert 1, d. h. ihre Drehachse, wird gegeben durch ( 001ˇ ) ˇ ˇ @ A ER1 D s 1 ˇ s 2 R : ˇ 1

6.3

Basen mit Eigenvektoren

149

Bei der Basis (011 0 0 1 0 0 1) p p E  D @0A; @ 12 2 A; @ 12 2A p p 1 2  12 2 0 2 ist der dritte Vektor ein Eigenvektor von d 011 , er liegt in der Drehachse. Die Matrix der Abbildung hinsichtlich dieser Basis lautet 0

 D011

cos ˛ D @ sin ˛ 0

 sin ˛ cos ˛ 0

1 0 0A 1

und ist wesentlich einfacher als D011 . Man kann also sagen, dass die Basis E  , die einen Eigenvektor enthält, zur Beschreibung der Abbildung d 011 besser geeignet ist als die kanonische Basis. Siehe Abschn. 8.5.3 für ein weiteres Beispiel einer Drehung.

Antwort auf Zwischenfrage (5)

Gefragt war nach den Eigenwerten und Eigenräumen zweier Abbildungen mit den Abbildungsmatrizen Af und Ag hinsichtlich der Basis fb1 ; b2 ; b3 g und ob auch g durch eine Diagonalmatrix dargestellt werden kann. Die Matrix Af ist eine Diagonalmatrix, sodass man die Eigenwerte einfach auf der Hauptdiagonale ablesen kann: f besitzt die Eigenwerte 0 und 7 mit den Eigenräumen ER0 D fsb2 j s 2 Rg

bzw.

ER7 D fsb1 C ub3 j s; u 2 Rg:

Auch bei der Abbildung g lässt sich ein Eigenwert, 2, aufgrund der einfachen Matrix sofort ablesen. Der verbleibende Teil des charakteristischen Polynoms lautet t 2 C 3, sodass 2 der einzige Eigenwert bleibt mit ER2 D fsb1 j s 2 Rg: Die Abbildung kann somit in keiner Basis durch eine Diagonalmatrix dargestellt werden.

Das Wichtigste in Kürze

 Eigenvektoren einer linearen Selbstabbildung sind Vektoren, die auf ein Vielfaches von sich selbst abgebildet werden. Der entsprechende skalare Faktor ist der Eigenwert. Auch der Eigenwert 0 ist erlaubt.  Nicht jede Abbildung besitzt Eigenvektoren und Eigenwerte.

150

6 Eigenvektoren und Eigenwerte

 Die Eigenwerte einer n-dimensionalen Abbildung entsprechen den Nullstellen ihres charakteristischen Polynoms. Da es sich um ein Polynom vom Grad n handelt, kann eine Abbildung bis zu n verschiedene Eigenwerte aufweisen.  Zu jedem Eigenwert gehört ein Eigenraum, der sich aus einem mehrdeutig lösbaren homogenen Gleichungssystem ergibt. Der Eigenraum ist für jeden Eigenwert separat zu ermitteln.  Die Dimension eines Eigenraums liegt zwischen 1 und der Vielfachheit, mit der der Eigenwert im charakteristischen Polynom auftritt.  Eine Abbildung wird in einer Basis, die Eigenvektoren enthält, durch besonders einfache Matrizen beschrieben.  Bei einer Diagonalmatrix sind die Eigenwerte auf der Hauptdiagonale ablesbar. J Und was bedeuten die Formeln? f .x/ D tx;

.f  t id/.x/ D 0; pf .t/ WD det.f ˇ ˇa11  t a12 ˇ ˇ a21 a 22  t ˇ det.f  t id/ D det.A  tEn / D ˇ : :: ˇ :: : ˇ ˇ a a n1

pf .t/ D .1/ t C bn1 t n n

.A  ti En /x D 0; (02s 1ˇ ˇ ˇ ER1 D @2s Aˇ s ˇ 3s 0 0 4 AEf D @2 2 3 6

n1

a11  ti a21 :: :

n2

 t id/ D 0;





:: :



ann

C : : : C b1 x C b0 ; a12 a22  ti :: :





:: :

a1n a2n :: :

0 0 :: ; :

an2

ann  ti 0 (0u  2s 1ˇ ) ˇ ˇ 2 R ; ER2 D @ s Aˇ s; u 2 R ; ˇ u 0 1 1 2 1 0 0 @ 0 2 0A; 2A; AB f D 5 0 0 2

rg.f  t id/ D n  k:

an1 )

ˇ ˇ ˇ ˇ ˇ ˇ; ˇ ˇ  tˇ

a1n a2n :: :

Übungsaufgaben

151

Übungsaufgaben A6.1 Sind die folgenden Aussagen richtig oder falsch? Begründe jeweils deine Antwort. (I) (II) (III) (IV) (V)

Wenn ein Vektor x Eigenvektor einer linearen Selbstabbildung f ist, so ist auch jedes Vielfache dieses Vektors ein Eigenvektor. Wenn ein Vektor x Eigenvektor einer linearen Selbstabbildung f ist, so ist auch jede Linearkombination, die diesen Vektor enthält, ein Eigenvektor. Ein Vektor kann nicht Eigenvektor zu zwei verschiedenen Eigenwerten sein. Die Abbildungen f , die den gesamten Raum als Eigenraum besitzen, sind genau die Abbildungen f D t id mit t 2 R. Wenn zwei Abbildungen dasselbe charakteristische Polynom besitzen, bedeutet dies, dass die Abbildungen gleich sind.

A6.2 Wir betrachten drei Abbildungen, die hinsichtlich der kanonischen Basis des R2 beschrieben werden durch die Matrizen ! ! ! 1 2 1 2 1 2 AD ; BD ; C D : 2 4 2 4 1 4 Bestimme die Eigenwerte und Eigenräume der Abbildungen. A6.3 Sind die folgenden Aussagen richtig oder falsch? Begründe jeweils deine Antwort. (I) (II) (III) (IV) (V)

Besitzt eine lineare Abbildung f W R2 ! R2 nur einen Eigenwert, so besitzt dieser die Vielfachheit 2. Besitzt eine lineare Abbildung f W R3 ! R3 drei verschiedene Eigenwerte, so ist ihre Abbildungsmatrix ähnlich zu einer Diagonalmatrix. Besitzt eine lineare Abbildung f W R3 ! R3 drei verschiedene Eigenwerte, so ist sie bijektiv. Besitzt eine lineare Abbildung f W R3 ! R3 den Eigenwert 1, so handelt es sich um eine Drehung. Eine lineare Abbildung f W R4 ! R4 kann drei verschiedene Eigenwerte besitzen.

A6.4 a) Die lineare Selbstabbildung f W R3 ! R3 werde hinsichtlich der kanonischen Basis beschrieben durch die Matrix 0 1 3 0 2 A D @ 1 6 1 A: 1 3 0 Ermittle sämtliche Eigenwerte und Eigenräume und gib – sofern möglich – eine Basis des R3 an, die aus Eigenvektoren von f besteht.

152

6 Eigenvektoren und Eigenwerte

b) Die lineare Selbstabbildung g W R4 ! R4 werde hinsichtlich der kanonischen Basis beschrieben durch die Matrix 0

1 3 0 0 5=2 B 5 2 0 5=2C C: BDB @10 10 3 0 A 0 0 0 2 Ermittle sämtliche Eigenwerte und Eigenräume und gib – sofern möglich – eine Basis des R4 an, die aus Eigenvektoren von g besteht.

7

Euklidische Vektorräume

Die grundlegenden Rechenoperationen eines Vektorraums sind die linearen Operationen, d. h. die Addition von Vektoren und ihre Multiplikation mit einer Zahl. Einem euklidischen Vektorraum wird mit einem Skalarprodukt zweier Vektoren eine weitere Struktur hinzugefügt, die dem Vektorraum ein „Maß“ gibt, es also erlaubt, von der Länge eines Vektors oder dem Winkel zwischen zwei Vektoren zu sprechen. Wir beschränken uns in diesem Kapitel auf reelle Vektorräume. Zwar ist auch in komplexen Räumen die Definition eines Skalarprodukts möglich, aber man hat dann etwas andere Zusammenhänge und spricht nicht von euklidischen, sondern von unitären Vektorräumen.

Wozu dieses Kapitel im Einzelnen

 Ein „Skalarprodukt“ ist etwas ganz anderes als das „Produkt mit einem Skalar“. Wir müssen uns also zunächst einmal Skalarprodukte ansehen.  Nicht alle Vektoren kann man zeichnen und Längen und Winkel sind Definitionssache. Wenn eine geometrische Vorstellung vorliegt, kann sie durch das „richtige“ Skalarprodukt wiedergegeben werden. Wir werden sehen, was das heißt.  „Orthogonal“, „normiert“, „orthonormal“ sind wichtige Begriffe für die Anwendung von Vektoren. Wir werden dabei erneut feststellen, dass die kanonische Basis besonders ist.

7.1 Skalarprodukt Ein Skalarprodukt ist ein Produkt zweier Vektoren, das im Ergebnis eine Zahl ergibt, einen Skalar. Es handelt sich um eine Bilinearform mit besonderen Eigenschaften: © Der/die Autor(en), exklusiv lizenziert an Springer-Verlag GmbH, DE, ein Teil von Springer Nature 2023 J. Balla, Lineare Algebra, https://doi.org/10.1007/978-3-662-67667-7_7

153

154

7

Euklidische Vektorräume

Definition 7.1 Eine Bilinearform ˇ des reellen Vektorraums V heißt ein Skalarprodukt von V , wenn sie folgende Eigenschaften besitzt: (1) ˇ ist symmetrisch, d. h., es gilt ˇ.x; y/ D ˇ.y; x/ für alle x; y 2 V . (2) ˇ ist positiv definit, d. h., für jeden Vektor x ¤ 0 gilt ˇ.x; x/ > 0. Ein Skalarprodukt ist also eine symmetrische, positiv definite Bilinearform. Dabei gilt ˇ.x; x/ D 0 genau dann, wenn x D 0 ist.

Lesehilfe

Eine Bilinarform, also eine 2-fache Linearform, ordnet zwei Vektoren eine Zahl zu. Im Allgemeinen ist die Argumentreihenfolge relevant, d. h., normalerweise ist ˇ.x; y/ ¤ ˇ.y; x/. Die Symmetrie des Skalarprodukts besagt nun aber, dass die Reihenfolge keine Rolle spielt, man also eine „kommutative“ Zuordnung hat. Positiv definit bedeutet, dass das Produkt eines Vektors x ¤ 0 mit sich selbst positiv ist. Das kennst du auch vom Produkt reeller Zahlen: x 2 > 0 für x 2 R n f0g.

Ein reeller Vektorraum, in dem ein Skalarprodukt ˇ ausgezeichnet ist, wird ein euklidischer Vektorraum genannt. Da dann das skalare Produkt fest vorgegeben ist, schreibt man statt ˇ.x; y/ kürzer x y oder auch hx; yi. In einem euklidischen Vektorraum ist das Skalarprodukt also durch folgende Eigenschaften gekennzeichnet: .x 1 C x 2 / y .cx/ y x y x x

D x1 y C x2 y D c.x y/ Dy x > 0 für x ¤ 0:

(7.1) (7.2) (7.3) (7.4)

Lesehilfe

Es lassen sich beliebig viele unterschiedliche Skalarprodukte definieren. In einem euklidischen Vektorraum ist also ein bestimmtes Skalarprodukt als das Skalarprodukt des Raums ausgezeichnet. Anders als bei einem Produkt von Zahlen wird der Punkt beim Skalarprodukt nicht weggelassen.

7.1

Skalarprodukt

155

Zwischenfrage (1)

Warum erfüllt ein Skalarprodukt die Eigenschaften (7.1) bis (7.4)? Und fehlt nicht eine Eigenschaft (7.1b) der Form x .y 1 C y 2 / D x y 1 C x y 2 ‹

Beispiele (1) Im reellen Vektorraum Rn wird für zwei Tupel x D .x1 ; : : : ; xn / und y D .y1 ; : : : ; yn / durch x y WD x1 y1 C : : : C xn yn D

n X

xk yk

(7.5)

kD1

ein Skalarprodukt definiert, das als das Standardskalarprodukt bezeichnet wird.1 Insbesondere gilt dann x x D x12 C : : : C xn2 > 0 für x D .x1 ; : : : ; xn / ¤ .0; : : : ; 0/:

Lesehilfe

Das Standardskalarprodukt zweier Tupel ist leicht zu berechnen und besonders leicht, wenn man die Vektoren stehend schreibt. Zum Beispiel ist 0 1 0 1 1 4 @2A @ 5 A D 4 C 10  18 D 12: 3 6 Skalarprodukte wie 0 1 0 1 1 4 @0A @ 5 A D 4 0 6

oder

0 1 0 1 0 4 @0A @ 5 A D 0 1 0

findet man durch bloßes Hinsehen :-)

1

Für stehend geschriebene Vektoren x; y wird das Standardskalarprodukt manchmal auch als x T y geschrieben und entspricht damit der gewöhnlichen Matrizenmultiplikation der 1 n-Matrix x T mit der n 1-Matrix y.

156

7

Euklidische Vektorräume

(2) Wir betrachten den Vektorraum aller stetigen Funktionen f W Œa; b ! R, a < b. Durch Zb hf; gi WD

f .t/g.t/ dt

(7.6)

a

wird in diesem Raum ein skalares Produkt definiert. Linearität und Symmetrie dieses Produkts sind offensichtlich. Außerdem ist es positiv definit, weil das Integral Zb hf; f i D

f 2 .t/ dt

(7.7)

a

einen nichtnegativen Integranden aufweist und aufgrund der Stetigkeit nur für f D 0 den Wert 0 annehmen kann. Lesehilfe

Skalarprodukte sind nicht auf endlichdimensionale Vektorräume beschränkt und es gibt sie auch in Funktionenräumen. Das Skalarprodukt zweier Funktionen wird in der Regel als Integral über ein Funktionenprodukt definiert. Man zieht dann die Schreibweise hf; gi für das Skalarprodukt vor, da der Ausdruck f g leicht mit dem Produkt der Funktionswerte verwechselt werden kann. Funktionenräume sind wichtige Beispiele mit vielen Anwendungen. Zum Verständnis der linearen Algebra im Hinblick auf den Rn sind sie allerdings nicht erforderlich. Wenn du mit der Integration nicht vertraut bist, kannst du die entsprechenden Beispiele einfach überlesen.

Antwort auf Zwischenfrage (1)

Es war gefragt, warum ein Skalarprodukt die Eigenschaften (7.1) bis (7.4) erfüllt und ob sie noch ergänzt werden müssten. Die Eigenschaften (7.1) und (7.2) gelten aufgrund der Linearität der Bilinearform, durch die ein Skalarprodukt definiert wird. Genauer ist hier die Linearität bezüglich der ersten Komponente ausgedrückt. Die Eigenschaft (7.3) gibt die Symmetrie wieder und da „vorne und hinten vertauscht werden können“ ist (7.1) gleichbedeutend mit y .x 1 C x 2 / D y x 1 C y x 2 und (7.2) könnte als .cx/ y D c.x y/ D x .cy/ vervollständigt werden. Die Eigenschaft (7.4) schließlich ist die positive Definitheit des Skalarprodukts.

7.2 Betrag

157

7.2 Betrag Wir betrachten einen euklidischen Vektorraum V , in dem das Skalarprodukt zweier Vektoren als x y geschrieben werde. Für jeden Vektor x 2 V gilt x x  0. Daher ist p (7.8) jxj WD x x eine nichtnegative reelle Zahl, die man den Betrag oder die Länge des Vektors x nennt. Der Betrag eines Vektors hängt somit von dem gewählten Skalarprodukt ab.

Lesehilfe

Vektorpfeile, d. h. Ortsvektoren des Raums oder der Ebene, haben eine geometrische Länge. Wenn man 2- oder 3-Tupel mit einem Koordinatensystem assoziiert, kann man sie mit Ortsvektoren identifizieren und ebenfalls von einer geometrischen Länge reden, die allerdings vom Koordinatensystem abhängt: In einem kartesischen Koordinatensystem sieht ein 3-Tupel anders aus als in einem Koordinatensystem mit „schiefen“ Achsen und unterschiedlichen Maßstäben. Wir werden in Kap. 8 sehen, dass das Standardskalarprodukt in kartesischen Koordinatensystemen die geometrischen Verhältnisse wiedergibt. Andere Vektoren wie n-Tupel mit n  4 oder Funktionen haben keine vorstellbare geometrische Länge. Aber auch ihnen kann mittels (7.8) ein Betrag zugeordnet werden und normierte Vektoren spielen in allen Räumen eine ausgezeichnete Rolle. Für den Betrag eines Vektors x gilt jxj  0 und jxj D 0 ist gleichwertig mit x D 0. Des Weiteren ist für c 2 R jcxj D jcjjxj;

(7.9)

p p p wie aus jcxj D cx .cx/ D c 2 x x D jcjjxj folgt. Ein Vektor x heißt normiert oder ein Einheitsvektor, wenn jxj D 1 gilt. Ist x ¤ 0, so kann mit x 0 WD x=jxj stets ein zu x paralleler normierter Vektor definiert werden.

Lesehilfe

Der normierte Vektor x 0 wird als „x oben 0“ ausgesprochen.

Zwischenfrage (2)

Das Skalarprodukt ist kommutativ. Ist es auch assoziativ?

158

7

Euklidische Vektorräume

Der Betrag von Vektoren erfüllt zwei wichtige Ungleichungen: Satz 7.1 (Schwarz-Ungleichung)2 Für beliebige Vektoren x; y 2 V gilt jx yj2  .x x/.y y/: Das Gleichheitszeichen gilt genau dann, wenn die Vektoren x und y linear abhängig sind. Beweis Für y D 0 ist x y D y y D 0 und die behauptete Beziehung gilt mit dem Gleichheitszeichen. Es kann daher im folgenden y ¤ 0 und damit y y > 0 vorausgesetzt werden. Für einen beliebigen Skalar c gilt 0  .x  cy/ .x  cy/ D x x  c.x y/  c.y x/ C c 2 .y y/ D x x  2c.x y/ C c 2 .y y/: Hierin setzt man nun c D

x y und erhält y y

.x y/2 .x y/2 .x y/2 C Dx x y y y y y y 2 , 0  .x x/.y y/  .x y/ : 0x x2

Das ist die Schwarz-Ungleichung. Das Gleichheitszeichen gilt genau dann, wenn x  cy D 0 ist, wenn also x und y linear abhängig sind. 

Lesehilfe zum Beweis

Es ist .x y/2 D jx yj2 , da x y einfach eine reelle Zahl ist und das Quadrat einer reellen Zahl a gleich dem Quadrat ihres Betrags ist, a2 D jaj2 .

Die Schwarz-Ungleichung kann durch Wurzelziehen in der Form jx yj  jxjjyj

(7.10)

geschrieben werden: Der Betrag des Skalarprodukts zweier Vektoren ist kleiner gleich dem Produkt ihrer Beträge. Die Dreiecksungleichung besagt nun dasselbe für die Summe: Satz 7.2 (Dreiecksungleichung) Für beliebige Vektoren x; y 2 V gilt jx C yj  jxj C jyj: 2

Benannt nach dem deutschen Mathematiker Hermann Amandus Schwarz, 1843–1921.

7.2 Betrag

159

Beweis Es ist jx C yj2 D .x C y/ .x C y/ D jxj2 C 2x y C jyj2 : Mit jx yj  jxjjyj folgt daraus jx C yj2  jxj2 C 2jxjjyj C jyj2 D .jxj C jyj/2 :



Lesehilfe zum Beweis

Das „skalare“ Ausmultiplizieren noch einmal etwas ausführlicher: .x C y/ .x C y/ D x x C x y C y x C y y D jxj2 C 2x y C jyj2 : Letztlich ist das einfach die binomische Formel, nur dass man nicht „x 2 “ schreibt, sondern x x oder jxj2 .

Aus dem Beweis der Dreiecksungleichung folgt, dass das Gleichheitszeichen genau dann gilt, wenn jx yj D jxjjyj ist, wenn also x und y linear abhängig sind.

Antwort auf Zwischenfrage (2)

Gefragt war, ob das Skalarprodukt assoziativ ist. Das Assoziativgesetz lässt sich für das Skalarprodukt gar nicht formulieren. Für drei Zahlen x; y; z lautet es .xy/z D x.yz/ D xyz, d. h., man kann bei einem Produkt aus drei Zahlen die Klammern weglassen, weil es egal ist, in welcher Reihenfolge das Produkt ausgeführt wird. Für drei Vektoren x; y; z ist der Ausdruck x y z aber gar nicht definiert, weil das Skalarprodukt zweier Vektoren einen Skalar ergibt, der nicht wieder in das nächste vektorielle Skalarprodukt einfließen kann. Aus diesem Grund verwendet für Vektoren keine Potenzen. Zwar wäre x 2 D x x D jxj2 noch definiert, aber x 3 und höher ergäbe keinen Sinn. Schließlich bemerken wir, dass i. Allg. .x y/z ¤ x.y z/ ist, d. h., auch bei diesen definierten „Produkten“ aus drei Vektoren ist die Klammerung essenziell.

Beispiele (1) Im Vektorraum R3 betrachten wir das Standardskalarprodukt zweier Vektoren x D .x1 ; x2 ; x3 / und y D .y1 ; y2 ; y3 /, d. h., es gelte x y WD x1 y1 C x2 y2 C x3 y3 :

(7.11)

160

7

Euklidische Vektorräume

q x12 C x22 C x32 :

(7.12)

Ein Vektor x besitzt dann die Länge jxj D

p

x x D

Stellt man den Vektor als Pfeil in einem kartesischen Koordinatensystem dar, so entspricht diese Länge der geometrischen Länge des Vektorpfeils: Wir haben mit (7.12) den dreidimensionalen Satz des Pythagoras vor uns. Beispielsweise besitzt der Vektor .1; 2; 3/ die Länge p p p j.1; 2; 3/j D .1; 2; 3/ .1; 2; 3/ D 12 C 22 C .3/2 D 14 p und der Vektor .1; 2; 3/= 14 ist normiert, p d. h., erphat die Länge 1. Ebenso handelt es sich bei .1; 0; 0/, .0; 1; 0/ oder .0; 1= 2; 1= 2/ um Einheitsvektoren.

Lesehilfe

Bei normierten Vektoren im Rn kann offenbar keine Komponente größer als 1 sein. Der Betrag ist 1, wenn sich die Quadrate der Komponenten zu 1 ergänzen, z. B.      ˇ 1 2 1 ˇˇ2 1 2 1 1 1 ˇ 2 C p D0C C D1 ˇ 0; p ;  p ˇ D 0 C p 2 2 2 2 2 2 oder  ˇ 1 1 1 ˇˇ2 1 1 1 ˇ ˇ  p ; p ;  p ˇ D C C D 1: 3 3 3 3 3 3 Statt des Betrags jxj schreibt man oft einfacher das Quadrat jxj2 , weil es einem die (große) Wurzel erspart. Mit ein wenig Übung „siehst“ du, ob ein Vektor normiert ist oder zumindest sein könnte. (2) Im Vektorraum aller stetigen Funktionen f W Œ1; 1 ! R mit dem Skalarprodukt Z1 hf; gi WD

f .t/g.t/ dt 1

besitzt die identische Funktion id den Betrag v u 1 r ˇ r uZ p t 3 ˇ1 2 1p u 2 hid; idi D t t dt D 6: D ˇ D 3 1 3 3 1

7.3 Orthogonalität

7.3

161

Orthogonalität

Mit einem Skalarprodukt können neben dem Betrag eines Vektors auch Winkel zwischen zwei Vektoren definiert werden: Für zwei Vektoren x; y ¤ 0 gilt aufgrund der Schwarz-Ungleichung (7.10) 1 

x y  C1 jxjjyj

und man definiert den Cosinus des Winkels †.x; y/ zwischen den Vektoren als cos †.x; y/ WD

x y : jxjjyj

(7.13)

Lesehilfe

Es erscheint vielleicht eigenartig, dass ein Winkel zwischen Vektoren „definiert“ wird. Aber auch hier müssen wir uns daran erinnern, dass es einen tatsächlichen geometrischen Winkel nur zwischen Vektorpfeilen, also zwischen Ortsvektoren gibt. Mit dem „richtigen“ Skalarprodukt gibt (7.13) diesen Winkel wieder.

Aus Definition (7.13) folgt unmittelbar die Gleichung x y D jxjjyj cos †.x; y/:

(7.14)

Für x y D 0 ist cos †.x; y/ D 0 und man hat es mit einem rechten Winkel zwischen den Vektoren zu tun. Dieser Fall hat besondere Bedeutung: Definition 7.2 Zwei Vektoren x; y eines euklidischen Vektorraums V heißen orthogonal, wenn gilt x y D 0. Eine nichtleere Teilmenge M von V heißt ein Orthogonalsystem, wenn 0 … M ist und wenn je zwei verschiedene Vektoren aus M orthogonal sind. Ein Orthogonalsystem, das aus lauter normierten Vektoren besteht, wird ein Orthonormalsystem genannt. Eine Orthonormalbasis ist ein Orthonormalsystem, das gleichzeitig eine Basis von V ist.

Lesehilfe

Kurzgefasst also orthonormal D orthogonal C normiert:

162

7

Euklidische Vektorräume

Die Bedingung x y D 0 ist auch erfüllt, wenn einer der beiden Vektoren der Nullvektor ist. In diesem Sinn ist der Nullvektor orthogonal zu jedem Vektor, auch wenn er aus (7.13) ausgeschlossen ist. In einem Orthogonal- oder Orthonormalsystem darf er ebenfalls nicht enthalten sein.

Zwischenfrage (3)

Welche der folgenden Teilmengen des R3 mit dem Standardskalarprodukt sind Orthogonal- oder sogar Orthonormalsysteme? (011 021 001) ( 0 1 1 00 1 0 1 1) M1 D @2A; @ 1 A; @0A ; M2 D @ 1 A; @2A; @ 2 A ; 0 2 0 1 1 4 (011 0 0 1) (011 0 2 1) p M4 D @3A; @4A : M3 D @0A; @1= 2A ; p 1= 2 0 5 2

Satz 7.3 Jedes Orthogonalsystem ist linear unabhängig. Beweis Es seien v1 ; : : : ; vn Vektoren aus einem Orthogonalsystem und es gelte c1 v1 C : : : C cn vn D 0. Für jedes k mit 1  k  n folgt dann c1 v1 vk C : : : C ck vk vk C : : : C cn vn vk D 0 vk D 0: Wegen vi vk D 0 für i ¤ k ergibt dies ck vk vk D 0 und wegen vk ¤ 0 schließlich ck D 0. 

Lesehilfe zum Beweis

Hier wird die Gleichung c1 v1 C : : : C cn vn D 0 skalar mit vk multipliziert und damit ck D 0 gezeigt. Dies gilt für alle k D 1; : : : ; n, sodass alle Koeffizenten c1 ; : : : ; cn gleich 0 und die Vektoren damit linear unabhängig sind. Der Beweis schließt auch unendliche Systeme ein, da eine unendliche Menge von Vektoren linear unabhängig ist, wenn je endlich viele Vektoren aus der Menge linear unabhängig sind, siehe Definition 2.3.

Da in n-dimensionalen Vektorräumen höchstens n Vektoren linear unabhängig sein können, besteht ein Orthogonalsystem hier aus höchstens n Vektoren. In unendlichdimensionalen Vektorräumen können aber durchaus auch unendliche Mengen Orthogonalsysteme sein.

7.3 Orthogonalität

163

Betrachten wir nun ein Orthonormalsystem fe 1 ; : : : ; e n g. Wegen der Orthogonalität gilt e i ej D 0 für i ¤ j und die Normierung ist gleichbedeutend mit e i e i D 1 für i D 1; : : : ; n. Dies lässt sich kompakt ausdrücken durch das Kronecker-Symbol3 ( 1 für i D j ıij WD (7.15) 0 für i ¤ j: Ein Orthonormalsystem fe 1 ; : : : ; e n g wird charakterisiert durch die Bedingung e i ej D ıij :

(7.16)

Lesehilfe

Das Kronecker-Symbol ist sehr nützlich und wird oft benutzt.

Orthonormalsysteme sind von großer praktischer Bedeutung. Insbesondere erlauben sie die einheitliche Berechnung des Skalarprodukts: Satz 7.4 Es sei fe 1 ; : : : ; e n g eine Orthonormalbasis des euklidischen Vektorraums V . Sind x1 ; : : : ; xn und y1 ; : : : ; yn die Koordinaten der Vektoren x bzw. y hinsichtlich dieser Basis, so gilt xk D x e k , k D 1; : : : ; n, und x y D x1 y1 C : : : C xn yn D

n X

xi yi :

i D1

Beweis Wegen e i ej D ıij erhält man ! n n X X x ek D xi e i e k D x i ıi k D x k i D1

i D1

und x y D

n X i D1

1 !0 n n n n X X X X xi e i @ yj ej A D xi yj .e i ej / D xi yj ıij D xi yi :  j D1

i;j D1

i;j D1

i D1

Lesehilfe zum Beweis

Hier tritt das Kronecker-Symbol in typischer Weise in einer Doppelsumme P auf: In der Summe ni;j D1 xi yj ıij bleiben nur die Summanden mit i D j P erhalten und sie ist damit gleich niD1 xi yi . 3

Benannt nach dem deutschen Mathematiker Leopold Kronecker, 1823–1891.

164

7

Euklidische Vektorräume

In einer Orthonormalbasis wird das Skalarprodukt stets in Form des Standardskalarprodukts berechnet. Das kann in verschiedenen Fällen von Nutzen sein:  Im Rn mit dem Standardskalarprodukt ist die kanonische Basis eine Orthonormalbasis. Aber auch, wenn man in einer anderen Orthonormalbasis arbeitet, funktionieren deren Koordinatenvektoren hinsichtlich des Skalarprodukts „wie gewohnt“.  Wird im Rn ein anderes als das Standardskalarprodukt verwendet, so erhält man andere Orthonormalsysteme. Beispielsweise ist die kanonische Basis dann nicht länger ein Orthonormalsystem. Bei Verwendung von Koordinatenvektoren hinsichtlich einer Orthonormalbasis kann das Skalarprodukt aber „wie gewohnt“ berechnet werden.  Funktionenräume sind i. Allg. nicht endlichdimensional, aber sie besitzen endlichdimensionale Unteräume, auf die Satz 7.4 anwendbar ist. Verwendet man darin Koordinatenvektoren hinsichtlich einer Orthonormalbasis, so kann deren Skalarprodukt – das in der Regel einem Integral entspricht – einfach in Form des Standardskalarprodukts berechnet werden. Beispiele (1) Die kanonische Basis En D fe 1 ; : : : ; e n g des Rn mit dem Standardskalarprodukt, siehe (7.5), ist eine Orthonormalbasis. Die Menge B WD f2e 1 ; : : : ; 2e n g ist eine Orthogonalbasis des Rn , aber keine Orthonormalbasis. (2) Wir betrachten im Vektorraum R2 mit der kanonischen Basis die Koordinatenp vektoren x D .1; 0/ und y D .1; 1/. Sie besitzen die Beträge jxj D 1 bzw. jyj D 2 und ihr Skalarprodukt ergibt x y D 1. Der Cosinus des Winkels zwischen ihnen ist somit gleich 1 cos †.x; y/ D p : 2 Ihm entspricht ein Winkel von =4 D O 45ı zwischen den Vektoren. (3) Im Vektorraum aller stetigen Funktionen f W Œ1; 1 ! R mit dem Skalarprodukt Z1 hf; gi WD

f .t/g.t/ dt 1

berechnen wir das Skalarprodukt zwischen den Funktionen 1 und id: Z1 t dt D

h1; idi D 1

t 2 ˇˇ1 ˇ D 0: 2 1

(7.17)

7.4 Schmidt-Orthonormierungsverfahren

165

Die beiden Funktionen sind somit orthogonal und die Menge f1; idg ist ein Orthogonalsystem. Es ist ferner Z1 h1; 1i D

Z1 dt D 2 und hid; idi D

1

t 2 dt D 1

t 3 ˇˇ1 2 ˇ D ; 3 1 3

(7.18)

q sodass die Menge f p12 ; 32 idg ein Orthonormalsystem bildet, das die Menge aller linearen Funktionen aufspannt.

Antwort auf Zwischenfrage (3)

Gefragt war, welche der Teilmengen (011 021 001) ( 0 1 1 00 1 0 1 1) M1 D @2A; @ 1 A; @0A ; M2 D @ 1 A; @2A; @ 2 A ; 0 2 0 1 1 4 1 0 0 1 1 0 0 1 ( 1 ( 1 0p ) 2 ) A @ @ A A @ @ M4 D M3 D 0 ; 1=p2 ; 3 ; 4A 1= 2 0 5 2 mit dem Standardskalarprodukt Orthogonal- oder Orthonormalsysteme sind. M1 ist ein Orthogonalsystem, die Vektoren sind wechselseitig orthogonal, aber die ersten beiden sind nicht normiert. M2 ist kein Orthogonalsystem, da ihr erster und dritter Vektor nicht orthogonal sind. M3 ist ein Orthonormalsystem. M4 ist ein Orthogonalsystem.

7.4 Schmidt-Orthonormierungsverfahren Manchmal wird zu einem vorgegebenen System linear unabhängiger Vektoren fv1 ; v2 ; : : :g eines euklidischen Vektorraums V ein Orthonormalsystem fe 1 ; e 2 ; : : :g mit der Eigenschaft gesucht, dass beide Systeme für k D 1; 2; : : : jeweils denselben Unterraum Uk von V aufspannen. Die Konstruktion eines solchen Orthonormalsystems kann mit Hilfe des Schmidt-Orthonormierungsverfahrens4 erfolgen.

Lesehilfe

Der Unterraum U1 wird von v1 aufgespannt, der Unterraum U2 von fv1 ; v2 g usw. Da die Vektoren vi linear unabhängig sind, sind die Unterräume Uk k4

Benannt nach dem deutschen Mathematiker Erhard Schmidt, 1876–1959.

166

7

Euklidische Vektorräume

dimensional, sie erhalten also mit jedem hinzukommenden Vektor vi „eine weitere Dimension“. Das gesuchte Orthonormalsystem soll dasselbe leisten: e 1 wird einfach parallel zu v1 gewählt, e 2 muss dann so konstruiert werden, dass er in der von fv1 ; v2 g aufgespannten Ebene liegt, aber orthogonal zu e 1 ist usw.

Die gesuchten Vektoren e 1 ; e 2 ; : : : werden induktiv bestimmt. Bei einem endlichen System fv1 ; : : : ; vn g ist das Verfahren nach n Schritten abgeschlossen: Wegen der linearen Unabhängigkeit gilt v1 ¤ 0. Daher ist e 1 WD

1 v1 jv1 j

(7.19)

ein Einheitsvektor und e 1 und v1 spannen denselben Unterraum U1 von V auf. Es seien jetzt die Vektoren e 1 ; : : : ; e k bereits so konstruiert, dass die geforderte Eigenschaft erfüllt ist. Dann setzen wir wkC1 WD vkC1 

k X

.vkC1 e i /e i :

(7.20)

i D1

Die Vektoren e 1 ; : : : ; e k ; wkC1 sind offenbar linear unabhängig und spannen denselben Unterraum UkC1 auf wie die Vektoren v1 ; : : : ; vkC1 . Insbesondere gilt wkC1 ¤ 0.

Zwischenfrage (4)

Warum sind die Vektoren e 1 ; : : : ; e k ; wkC1 „offenbar“ linear unabhängig und spannen den Unterraum UkC1 auf?

Wegen e i ej D ıij ergibt sich außerdem für j D 1; : : : ; k wkC1 ej D vkC1 ej 

k X

.vkC1 e i /ıij D 0;

(7.21)

i D1

sodass wkC1 orthogonal zu allen bisher konstruierten Vektoren e 1 ; : : : ; e k ist. Wir setzen daher e kC1 WD

1 jwkC1 j

wkC1

(7.22)

und erhalten ein Orthonormalsystem e 1 ; : : : ; e kC1 mit der geforderten Eigenschaft.

7.4 Schmidt-Orthonormierungsverfahren

167

Lesehilfe

Die Wirkungsweise des Schmidt-Orthonormierungsverfahrens ist nicht leicht zu durchschauen. Letztlich werden mit der Vorschrift (7.20) die Anteile in Richtung der Vektoren e 1 ; : : : ; e k aus vkC1 herausgenommen. Die Anwendung des Verfahrens ist unproblematisch: Man geht einfach der Reihe nach vor. Im R2 und auch im R3 sind die Verhältnisse noch so übersichtlich, dass man Orthonormalbasen mit bestimmten Eigenschaften auch ohne das Schmidt-Verfahren durch geometrische Überlegungen gewinnen kann.

Beispiele (1) Im Vektorraum R4 mit dem Standardskalarprodukt wenden wir das Orthonormierungsverfahren auf die Vektoren v1 D .4; 2; 2; 1/; v2 D .2; 2; 4; 5/; v3 D .0; 8; 2; 5/ an. Das ergibt mit 1 1 1 .4; 2; 2; 1/ D .4; 2; 2; 1/ v1 D p 2 2 2 2 jv1 j 5 4 C2 C2 C1 1 1 D v2  .v2 e 1 /e 1 D .2; 2; 4; 5/  .8 C 4 C 8 C 5/ .4; 2; 2; 1/ 5 5 D .2; 0; 2; 4/ 1 1 D w2 D p .2; 0; 2; 4/ jw2 j 2 6 D v3  .v3 e 1 /e 1  .v3 e 2 /e 2 D .2; 6; 2; 0/ 1 1 D w3 D p .2; 6; 2; 0/ jw3 j 2 11

e1 D w2

e2 w3 e3

das gewünschte Orthonormalsystem fe 1 ; e 2 ; e 3 g. Lesehilfe

Die obigen Rechnungen sind nicht schwierig. Trotzdem solltest du sie einmal in Ruhe nachvollziehen. (2) Als weiteres Beispiel betrachten wir erneut den Vektorraum der stetigen Funktionen f W Œ1; 1 ! R mit dem Skalarprodukt Z1 hf; gi D

f .t/g.t/ dt 1

(7.23)

168

7

Euklidische Vektorräume

und wollen die Polynomfunktionen „orthonormieren“, also das Schmidt-Verfahren auf die Funktionen id0 D 1; id; id2 ; : : : anwenden. Die Funktionen des Orthonormalsystems bezeichnen wir mit p0 ; p1 ; p2 ; : : : und erhalten: Z1 dt D 2;

h1; 1i D

also

1

Z1 hid; p0 i D 1

1 p0 D p 2

t p dt D 0 2 Z1

w1 D id  hid; p0 ip0 D id; r p1 D

hw1 ; w1 i D

t 2 dt D 1

2 3

3 id 2

(siehe auch (7.17) und (7.18)) Z1 hid ; p0 i D 2

1

p t2 2 p dt D ; 3 2

Z1 r hid ; p1 i D 2

1

3 3 t dt D 0 2

w2 D id2  hid2 ; p0 ip0  hid2 ; p1 ip1 D id2 

1 3

  Z1  Z1  1 2 2 2 1 2 4 2 8 2 4 dt D dt D  C D hw2 ; w2 i D t  t  t C 3 3 9 5 9 9 45 1 1   15 1 p2 D p usw. id2  3 2 10 Die Funktionen p0 ; p1 ; p2 sind bezüglich ihres Skalarprodukts wechselseitig orthogonal und weisen allesamt den Betrag 1 auf. Sie bilden damit eine Orthonormalbasis des Unterraums aller Polynome maximal zweiten Grads. Bei den oben konstruierten Polynomfunktionen p0 ; p1 ; p2 ; : : : handelt sich sich bis auf Vorfaktoren um die Legendre-Polynome, die von großer praktischer Bedeutung sind: Sie bilden ein unendliches Orthogonalsystem aller Polynome auf dem Intervall Œ1; 1. Lesehilfe

„Alle“ Polynome haben einen beliebig großen Grad. Die endlich vielen Polynomfunktionen p0 ; p1 ; : : : ; pk spannen den Unterraum der Polynomfunktionen bis Grad k auf. Um alle Polynome zu erhalten, benötigt man das unendliche Orthonormalsystem p0 ; p1 ; : : :

7.4 Schmidt-Orthonormierungsverfahren

169

Antwort auf Zwischenfrage (4)

Gefragt war nach der linearen Unabhängigkeit der Vektoren e 1 ; : : : ; e k ; wkC1 und warum sie den Unterraum UkC1 aufspannen. Die Vektoren e 1 ; : : : ; e k spannen denselben Unterraum Uk wie die Vektoren v1 ; : : : ; vk auf, der eine echte Teilmenge des Unterraums UkC1 ist, für den zusätzlich der Vektor vkC1 benötigt wird. Daher kann eine Linearkombination der e 1 ; : : : ; e k nicht den Vektor vkC1 ergeben und wkC1 D vkC1 

k X

.vkC1 e i /e i

i D1

ist ungleich 0. Weil mit vkC1 auch wkC1 nicht durch die Vektoren e 1 ; : : : ; e k erzeugt werden kann, ist die Menge fe 1 ; : : : ; e k ; wkC1 g linear unabhängig. Da wkC1 den Vektor vkC1 enthält, wird zusammen mit e 1 ; : : : ; e k der Unterraum UkC1 aufgespannt. Siehe Satz 2.5.

Das Wichtigste in Kürze

 Ein Skalarprodukt ist eine symmetrische, positiv definite Bilinearform auf einem Vektorraum. Es ordnet also zwei Vektoren eine Zahl zu.  Ein reeller Vektorraum mit einem Skalarprodukt heißt ein euklidischer Vektorraum.  Das Skalarprodukt erlaubt die Definition des Betrags eines Vektors und des Winkels zwischen zwei Vektoren. Beide Größen sind auch unabhängig von einer geometrischen Bedeutung definiert.  Ein Vektor mit der Länge 1 heißt normiert oder ein Einheitsvektor.  Zwei Vektoren heißen orthogonal, wenn ihr Skalarprodukt verschwindet. Ein Orthogonalsystem besteht aus lauter wechselseitig orthogonalen Vektoren, bei einem Orthonormalsystem sind sie zusätzlich alle normiert.  In einem Orthonormalsystem wird das Skalarprodukt stets in Form des Standardskalarprodukts gebildet.  Das Schmidt-Orthonormierungsverfahren erlaubt die Konstruktion eines Orthonormalsystems mit bestimmten Eigenschaften. J Und was bedeuten die Formeln? .x 1 C x 2 / y D x 1 y C x 2 y; .cx/ y D c.x y/; x y D y x; x x > 0 für x ¤ 0; x y WD x1 y1 C : : : C xn yn D

n X kD1

Zb xk yk ;

hf; gi WD

f .t/g.t/ dt; a

170

7

jxj WD

p

x x;

jcxj D jcjjxj;

Euklidische Vektorräume

x x D jxj2 ;

q jx C yj  jxj C jyj; jxj D x12 C x22 C x32 ; x y ; x y D jxjjyj cos †.x; y/; x y D 0; cos †.x; y/ WD jxjjyj orthonormal D orthogonal C normiert; e i ej D ıij ; 1 ! 0 n n n n X X X X x y D xi e i @ yj ej A D xi yj .e i ej / D xi yi ; jx yj  jxjjyj;

i D1

e 1 WD

v1 ; jv1 j

j D1

wkC1 WD vkC1 

i;j D1 k X i D1

.vkC1 e i /e i ;

i D1

e kC1 WD

wkC1 : jwkC1 j

Übungsaufgaben A7.1 Sind die folgenden Aussagen richtig oder falsch? Begründe jeweils deine Antwort. Durch die Abbildungsvorschrift ˇ.x; y/ WD x1 C x2 C y1 C y2 wird eine symmetrische Bilinearform ˇ des R2 festgelegt. (II) Ist eine Bilinearform positiv definit, so nimmt sie keine negativen Werte an. (III) Durch die Abbildungsvorschrift .x; y/ WD 4x1 y1  2x1 y2  2x2 y1 C 3x2 y2 wird eine positiv definite Bilinearform  des R2 festgelegt. (IV) Die Bilinearform  ist symmetrisch. (I)

A7.2 a) Gib die Menge aller Vektoren des R3 an, die bezüglich des Standardskalarprodukts orthogonal zum Vektor .1; 2; 3/ sind. b) Gib die Menge aller Vektoren des R3 an, die bezüglich des Standardskalarprodukts orthogonal zu den Vektoren .1; 2; 3/ und .4; 5; 6/ sind. A7.3 Zeige, dass es sich bei 1 0 1 0 1) (0 cos  sin  0 B D fb1 ; b2 ; b3 g D @ sin  cos  A; @ cos  cos  A; @ sin  A sin  sin   cos  sin  cos  bezüglich des Standardskalarprodukts für alle Werte von  und  um eine Orthonormalbasis des R3 handelt.

Übungsaufgaben

171

A7.4 Im euklidischen Vektorraum R3 mit dem Standardskalarprodukt seien die folgenden Vektoren v1 ; : : : ; v7 gegeben: 0 1 0 1 0 1 0 1 0 1 0 1 0 1 1 1 1 0 0 0 0 @0A; @1A; @ 1 A; @1A; @1A; @1A; @0A: 0 0 0 0 1 1 1 Welche Orthogonalsysteme lassen sich aus jeweils drei Vektoren dieser Menge bilden? Besitzen die Vektoren dieser Systeme dann dieselbe Länge? A7.5 Jemand sagt: „Wenn ich kein Orthonormalsystem benötige, sondern nur ein Orthogonalsystem, dann kann ich beim Schmidt-Orthonormierungsverfahren vollständig auf die Normierung von Vektoren verzichten, also statt mit den Vektoren „e i “ einfach mit den „wi “ arbeiten.“ Hat er recht? A7.6 Gegeben sei die Basis (0 2 1 0 0 1 0 1 1) B D fb1 ; b2 ; b3 g D @ 0 A; @1A; @ 3 A 2 2 2 des R3 mit dem Standardskalarprodukt. Konstruiere eine Orthonormalbasis A D fa1 ; a2 ; a3 g

so, dass für k D 1; 2; 3 die ersten k Vektoren von B und A jeweils denselben Unterraum des R3 aufspannen. Ist das Ergebnis eindeutig?

Anwendungen im gewöhnlichen R3

8

In diesem Kapitel besprechen wir geometrische Anwendungen „gewöhnlicher“ dreidimensionaler Vektoren. Wir betrachten also den reellen Vektorraum R3 mit dem Standardskalarprodukt 0 1 0 1 y1 x1 (8.1) x y D @x2 A @y2 A WD x1 y1 C x2 y2 C x3 y3 x3 y3 und identifizieren seine Vektoren mit den räumlichen Ortsvektoren, indem die 3Tupel in einem rechtshändig orientierten kartesischen Koordinatensystem dargestellt werden. Das Koordinatensystem entspricht dann der kanonischen Basis des R3 und die Vektoren sind gleichzeitig die Koordinatenvektoren hinsichtlich der kanonischen Basis. Sind diese Voraussetzungen erfüllt, so wollen wir vom gewöhnlichen R3 sprechen. Wozu dieses Kapitel im Einzelnen

 „Vektoren“ lernt man oft zunächst als Pfeile kennen und versteht sie geometrisch. In diesem Kapitel dürfen wir es tatsächlich dabei belassen und können sie uns vorstellen.  Vektoren haben Richtungen im Raum und sie können auf andere Richtungen projiziert werden. Wir werden sehen, dass das Skalarprodukt hier der Schlüssel ist.  Die Beschreibung von Ebenen ist auf unterschiedliche Weisen möglich. Wir sehen sie uns an und werfen dabei einen neuen Blick auf lineare Gleichungssysteme.  Das Skalarprodukt ist ein Produkt zwischen Vektoren, im gewöhnlichen R3 gibt es aber noch weitere nützliche Produkte zwischen Vektoren.  Drehungen kennen wir bereits aus vielen Beispielen. Wir werden hier sehen, was das besondere an unseren Beispielen war und was genau eine „Drehmatrix“ ist. © Der/die Autor(en), exklusiv lizenziert an Springer-Verlag GmbH, DE, ein Teil von Springer Nature 2023 J. Balla, Lineare Algebra, https://doi.org/10.1007/978-3-662-67667-7_8

173

8 Anwendungen im gewöhnlichen R3

174

8.1 Vektorpfeile Die geometrische Länge eines Vektors x D .x1 ; x2 ; x3 / ergibt sich aus dem dreidimensionalen Satz des Pythagoras zu q x12 C x22 C x32

jxj D und ist damit gleich

(8.2)

p x x. Ferner gilt für das Skalarprodukt zweier Vektoren x y D jxjjyj cos †.x; y/

(8.3)

und der in dieser Beziehung auftretende Winkel zwischen den Vektoren entspricht im gewöhnlichen R3 dem geometrischen Winkel zwischen den Vektorpfeilen, siehe Abb. 8.1.

Lesehilfe

Für die Komponenten von Vektoren des R3 sind verschiedene Bezeichnungen gebräuchlich: 0 1 x1 @x2 A; x3

0 1 x @y A; z

0 1 a1 @a 2 A; a3

0

1 ax @ay A usw. az

Die Nummerierung der Komponenten ist vorteilhaft, wenn man es mit Summationen zu tun bekommt, andererseits spricht man lieber von der x-Achse als von der 1-Achse, Komponenten namens x; y; z sind nicht geeignet, wenn neben einem Vektor x noch andere Vektoren auftauchen usw. Man muss also mit allen Schreibweisen zurechtkommen und das fällt auch nicht schwer :-)

8.2 Projektion Betrachtet man zu einem Vektor a eine Richtung, die durch einen zweiten Vektor e ¤ 0 vorgegeben wird, so kann man a in seine Anteile ak in dieser Richtung und a? senkrecht dazu zerlegen, a D ak C a? ;

(8.4)

siehe Abb. 8.1. Den Vektor e, der die Richtung angibt, wollen wir als normiert annehmen. Die Projektion des Vektors a auf diese Richtung ist dann a e DW ae

(8.5)

8.2 Projektion

175

Abb. 8.1 Für das Skalarprodukt zweier Vektoren gilt x y D jxjjyj cos †.x; y/. Im gewöhnlichen R3 entspricht der darin auftretende Winkel dem geometrischen Winkel zwischen den Vektorpfeilen, während die Beträge der Vektoren ihre geometrischen Längen wiedergeben. Wird ein Vektor a in seine Anteile längs und senkrecht zu einer Richtung e zerlegt, so gilt a D ak C a? und, sofern der Vektor e normiert ist, ak D .a e/e

und seine vektorielle Zerlegung wird gegeben durch ak D .a e/e

und a? D a  ak D a  .a e/e:

(8.6)

Der Vektor a? liegt in der Ebene, die durch a und e aufgespannt wird.

Lesehilfe

Mit dem Wort „Richtung“ muss man ein wenig aufpassen. Die obige Richtung entspricht einer Gerade, auf die der Vektor projiziert wird und deren „Richtung“ durch einen Vektor beliebiger Länge vorgegeben werden kann. Legt man fest, dass der Vektor normiert ist, sind noch zwei entgegengesetzt orientierte Vektoren möglich („Richtung und Gegenrichtung“, wenn man es so bezeichnen mag, oder „dieselbe Richtung, aber entgegengesetzt orientiert“). Dementsprechend besitzt das Skalarprodukt a e ein Vorzeichen: Es ist positiv, wenn die Vektoren a und e einen spitzen Winkel einschließen, und negativ, wenn sie einen stumpfen Winkel einschließen. Für den Vektor ak D .a e/e spielt die Orientierung von e keine Rolle: .a .e//.e/ ergibt denselben Vektor.

Zwischenfrage (1)

Zeigt der Vektor ak D .a e/e noch in die Richtung von e, wenn der Vektor e nicht normiert ist? Und sind die Vektoren ak und a? , wie sie in (8.6) definiert werden, dann noch orthogonal?

Die Zerlegung eines Vektors in seine Anteile parallel und senkrecht zu einer vorgebenen Richtung ist nicht auf den R3 beschränkt, sondern kann vielmehr in beliebigen euklidische Vektorräumen vorgenommen werden. Werfen wir noch einmal

8 Anwendungen im gewöhnlichen R3

176

einen Blick auf das Orthonormierungsverfahren aus Abschn. 7.4, insbesondere auf (7.20), wkC1 WD vkC1 

k X

.vkC1 e i /e i :

i D1

Ein Vergleich mit a? D a  .a e/e erklärt die Orthogonalisierung: Vom Vektor vkC1 werden sämtliche Anteile in Richtung der Vektoren e 1 ; : : : ; e k , also die Projektionen in diese Richtungen, subtrahiert. Der auf diese Weise gebildete Vektor wkC1 ist daher orthogonal zu den e 1 ; : : : ; e k . Beispiel Wir zerlegen den Vektor a D .2; 3; 1/ in seine Anteile längs und senkrecht zu der Richtung, die durch den Vektor r D .1; 1; 1/ vorgeben ist. Dazu ist der Vektor r zunächst zu normieren: Wegen r r D 3 ist 0 1 1 1 e WD r 0 D p @1A 3 1 ein normierter Richtungsvektor. Damit erhalten wir 2 1 a e D p .2  3  1/ D  p 3 3 und weiter 0 1 0 1 1 1 2 1 @ A 2@ A ak D .a e/e D  p p 1 D 1 3 3 3 1 1 0 1 0 1 0 1 2 1 8 2 1 a? D a  .a e/e D @ 3 A  @ 1 A D @ 7 A: 3 3 1 1 1 Der Winkel zwischen den Vektoren a und e bzw. r ergibt sich aus cos †.a; e/ D

 p23 2 a e D p Dp jajjej 4C9C1 42

2 zu †.a; e/ D arccos p 108ı . 42

8.3 Ebene und Normalenvektor

177

Antwort auf Zwischenfrage (1)

Gefragt war, ob der Vektor ak D .a e/e für nicht normiertes e noch in Richtung von e zeigt und ob ak und a? dann noch orthogonal sind. Der Vektor ak D .a e/e zeigt als Vielfaches von e immer in die Richtung von e, hat aber für nicht normiertes e nicht mehr die Länge der Projektion des Vektors a. Daher ist die Zerlegung nicht mehr orthogonal: ak a? D .a e/e .a  .a e/e/ D .a e/.e a/  .a e/2 e e ist nur für e e D 1 gleich 0.

8.3 Ebene und Normalenvektor Zwei linear unabhängige Vektoren a; b spannen eine Ebene auf. Die Vektoren x der Ebene werden gegeben durch x D sa C ub;

s; u 2 R

(8.7)

und man bezeichnet a; b als die Richtungsvektoren der Ebene und (8.7) als ihre Punktrichtungsform. Ebenso kann die Richtung der Ebene aber auch festgelegt werden durch nur einen Vektor, nämlich einen Normalenvektor n ¤ 0, der senkrecht auf der Ebene steht. Für sämtliche Vektoren x der Ebene gilt dann die Gleichung n x D 0:

(8.8)

Wir haben es bisher mit einer Ursprungsebene zu tun, also einer Ebene, die 0 enthält. Zur Beschreibung einer Ebene, die beliebig im Raum liegt, ist zusätzlich ein Stützvektor d erforderlich, also ein Vektor, der einen beliebigen Punkt der Ebene angibt, und ihre Punktrichtungsform lautet nun x D d C sa C ub;

s; u 2 R:

(8.9)

Für einen Vektor x der Ebene ist dann x  d senkrecht zu n und es gilt n .x  d/ D 0;

(8.10)

sodass n x D n d D c;

c 2 R;

(8.11)

8 Anwendungen im gewöhnlichen R3

178

Abb. 8.2 Die Richtung einer Ebene wird durch einen Normalenvektor n festgelegt, der senkrecht auf der Ebene steht. Ist d ein beliebiger Punkt in der Ebene, so ist der Vektor x  d für alle Vektoren x der Ebene senkrecht zu n, d. h., es gilt n .x  d/ D 0

die allgemeine Gleichung einer Ebene in Normalenform darstellt, siehe Abb. 8.2. Ist der Vektor n normiert, so spricht man von der Hesse-Normalenform1 : n0 x D c0

bzw.

n0 x  c0 D 0:

(8.12)

Zwischenfrage (2)

Sind für eine gegebene Ebene der Stützvektor, die Richtungsvektoren oder der Normalenvektor eindeutig festgelegt? Ist der Normalenvektor eindeutig, wenn er normiert wird? Mit n D .n1 ; n2 ; n3 / und x D .x1 ; x2 ; x3 / lautet (8.11) n1 x1 C n2 x2 C n3 x3 D c

(8.13)

und wir haben die Ebenengleichung in Koordinatenform vor uns. Eine lineare Gleichung mit drei Unbekannten entspricht somit einer Ebenengleichung und die Lösungsmenge der Gleichung enthält die Punkte der Ebene. Ein Gleichungssystem von linearen Gleichungen mit drei Unbekannten lässt sich somit geometrisch deuten: Bei der Lösung eines Systems aus zwei Gleichungen handelt es sich um die Schnittmenge zweier Ebenen. Bei nicht parallelen Ebenen, deren Normalenvektoren also keine Vielfachen voneinander sind, erhält man als 1

Benannt nach dem deutschen Mathematiker Otto Hesse, 1811–1874.

8.3 Ebene und Normalenvektor

179

Schnittmenge eine Gerade, d. h. eine Lösungsmenge der Form L D fx j x D c C sr; s 2 Rg

(8.14)

mit einem Stützvektor c und einem Richtungsvektor r der Gerade. Bei parallelen Ebenen ergibt sich die gesamte Ebene (Ebenen identisch) oder die leere Menge (Ebenen punktfremd). Kommt eine dritte Ebene hinzu und sind die drei Normalenvektoren linear unabhängig, so erhält man als Schnittmenge einen Punkt (eindeutig lösbares System) und bei linear abhängigen Normalenvektoren sind eine Ebene, eine Gerade oder die leere Menge als Lösungen möglich (nicht eindeutig lösbare Systeme).

Antwort auf Zwischenfrage (2)

Gefragt war, ob für eine Ebene der Stützvektor, die Richtungsvektoren oder der Normalenvektor eindeutig festgelegt sind. Als Stützvektor kann ein beliebiger Punkt der Ebene gewählt werden, es sind also beliebig viele möglich. Ebenso verhält es sich bei den Richtungsvektoren: Hat man zwei Richtungsvektoren, so funktionieren auch Linearkombinationen dieser Richtungsvektoren als „neue“ Richtungsvektoren, solange man zwei linear unabhängige Vektoren behält. Der Normalenvektor schließlich ist durch seine Richtung ausgezeichnet, jedes Vielfache (¤ 0) eines Normalenvektors ist somit wieder ein Normalenvektor. Soll er normiert sein, sind noch zwei Vektoren möglich: Der Vektor und sein Negatives.

Beispiel Die Gleichung 2x1  3x2 C x3 D 5 ist die Koordinatengleichung einer Ebene im R3 . Ihr Normalenvektor kann abgelesen werden, denn es ist 0 1 0 1 2 x1 2x1  3x2 C x3 D @3A @x2 A D 5: (8.15) x3 1 Ein Stützvektor ist ein beliebiger Punkt der Ebene. Mit Blick auf die Koordinatengleichung wählen wir .0; 0; 5/ und haben mit 0 1 0 1 0 1 0 1 2 0 2 x1 @3A @x2 A D @3A @ 0 A D 5 (8.16) x3 1 5 1 die Normalenform der Ebene und mit 0 p 1 0 1 0 p 1 0 1 x1 0 2= p14 2= p14 @3= 14A @x2 A D @3= 14A @ 0 A D  p5 p p 14 x3 1= 14 1= 14 5

8 Anwendungen im gewöhnlichen R3

180

bzw. p 1 0 1 x1 2= p14 @3= 14A @x2 A C p5 D 0 p 14 x3 1= 14 0

(8.17)

ihre Hesse-Normalenform. Für die Punktrichtungsform benötigen wir zwei linear unabhängige Richtungsvektoren senkrecht zum Normalenvektor: Die Skalarprodukte 0

1 0 1 2 3 @3A @2A 1 0

0 und

1 0 1 2 1 @3A @ 0 A 1 2

sind 0, sodass wir 0

1 0 1 0 1 0 3 1 x D @ 0 A C s @2 A C u @ 0 A 5 0 2

(8.18)

als Punktrichtungsform der Ebene angeben können.

Lesehilfe

Die verschiedenen Formen einer Ebenengleichung haben jeweils ihre Vorteile. Abhängig von der Fragestellung wird man die eine oder die andere vorziehen, daher ist es wichtig, dass du sie ineinander „umrechnen“ kannst. Wie du im obigen Beispiel siehst, ist das leicht möglich.

8.4 Vektorprodukt Mit dem Skalarprodukt wird zwei Vektoren ein Skalar zugeordnet. Im gewöhnlichen R3 , und zwar nur dort, lässt sich darüber hinaus auch ein Vektorprodukt definieren, das zwei Vektoren einen Vektor zuordnet:2 Definition 8.1 Unter dem Vektorprodukt oder Kreuzprodukt zweier Vektoren a; b des gewöhnlichen R3 , geschrieben als a b, versteht man den Vektor v D a b mit den folgenden Eigenschaften: (1) Sein Betrag ist jvj D jajjbjj sin †.a; b/j. (2) Er ist orthogonal zu a und zu b. (3) Die Vektoren a; b; v bilden ein Rechtssystem. 2

Das Skalarprodukt bezeichnet man auch als das innere Produkt und das Vektorprodukt als das äußere Produkt.

8.4 Vektorprodukt

181

Abb. 8.3 Die Länge des Vektors v D a b ist gleich jajjbjj sin †.a; b/j und entspricht dem Flächeninhalt des von a und b aufgespannten Parallelogramms. Der Vektor v steht senkrecht auf dieser Fläche und die Vektoren a; b; v bilden ein Rechtssystem

Lesehilfe

Drei Vektoren bilden ein Rechtssystem, wenn sie wie der Reihe nach wie Daumen, Zeigefinger, Mittelfinger der rechten Hand orientiert sind. Die Reihenfolge der Vektoren ist daher entscheidend: Wenn a; b; v ein Rechtssystem bilden, ist das bei b; a; v nicht der Fall (das wäre vielmehr ein „Linkssystem“, wenn man es so bezeichnen will).

Geometrisch besitzt das Vektorprodukt die folgende Bedeutung: Die Länge von v entspricht dem Flächeninhalt des von a und b aufgespannten Parallelogramms, der Vektor v steht senkrecht auf dieser Fläche und seine Orientierung ergibt sich aus der Forderung, dass a; b; v ein Rechtssystem bilden, siehe Abb. 8.3. Das Vektorprodukt ist nicht kommutativ, vielmehr gilt aufgrund der Eigenschaften des Rechtssystems a b D b a:

(8.19)

Ferner ist zu beachten, dass aus a b D 0 nicht zwingend a D 0 oder b D 0 folgt. Das Vektorprodukt verschwindet nämlich auch dann, wenn die Vektoren a und b parallel sind.

8 Anwendungen im gewöhnlichen R3

182

Lesehilfe

Wie du siehst, weist das Vektorprodukt spezielle Eigenschaften auf. Man muss also beim Rechnen ein wenig aufpassen.

Das Vektorprodukt erfüllt das Distributivgesetz: a .b C c/ D a b C a c

für alle a; b; c 2 R3 :

(8.20)

Für das Vektorprodukt der kanonischen Basisvektoren e i , i D 1; 2; 3, gilt e1 e2 D e3 und analog für jede zyklische Permutation der Indizes 1; 2; 3, also die Permutationen h2; 3; 1i und h3; 1; 2i. Umgekehrt erhält man für jede antizyklische Permutation, also h3; 2; 1i, h1; 3; 2i, h2; 1; 3i, ein Minuszeichen, d. h. beispielsweise e 3 e 2 D e 1 :

Lesehilfe

Zyklisch bedeutet also, dass die Indizes 1; 2; 3 in dieser Reihenfolge auftreten und man bei 3 drei weiterzählt auf 1, also den „Zyklus“ 1; 2; 3 immer in dieser Richtung durchläuft, beginnend bei 1, 2 oder 3. Antizyklisch läuft man anders herum.

Diese Zusammenhänge lassen sich zusammenfassen als 8 0 liegt a auf der Seite der Ebene, in die n0 zeigt, und bei s < 0 auf der anderen Seite.“ Hat sie (mit allem) recht? A8.4 Welchen Flächeninhalt nimmt das Parallelogramm ein, das von den Vektoren .4; 2/ und .1; 5/ aufgespannt wird? A8.5 Im gewöhnlichen R3 seien die beiden folgenden Ebenen gegeben: 0 1 0 1ˇ (011 ) 3 3 ˇ ˇ E1 D @ 2 A C s @ 2 A C u@2Aˇ s; u 2 R ˇ 1 1 1 0 1 0 1ˇ (0 2 1 ) 0 4 ˇ ˇ E2 D @2A C s @0A C u@2Aˇ s; u 2 R : ˇ 0 2 0 a) Berechne den Durchschnitt der Ebenen E1 und E2 . Gib die Punktrichtungsform dieser Gerade an. b) Welchen Abstand hat der Punkt a D .1; 0; 0/ von der Ebene E2 ? A8.6 Für den Abstand s eines Punkts a von einer Gerade mit dem Stützvektor d und dem Richtungsvektor r findest du im Internet die Lösung sD

j.a  d / rj : jrj

Wie(so) funktioniert diese Formel? A8.7 Gegeben seien die Vektoren 0 1 1 a D @1A; 0

0

1 1 b D @ 0 A; 1

0

1 2 c D @2A; 0

0

1 1 d D @ 2 A: 1

Zeige, dass die Ebene E D faCsbCuc j s; u 2 Rg und die Gerade g D fc Csd j s 2 Rg parallel zueinander sind und berechne ihren Abstand.

Übungsaufgaben

199

A8.8 Sind die folgenden Aussagen richtig oder falsch? Begründe jeweils deine Antwort. (I)

Es sei fa1 ; a2 ; a3 g eine Orthogonalbasis des R3 . Dann ist die Matrix 0

" A WD @a1 #

" a2 #

1 " a 3 A; #

die spaltenweise aus den Vektoren ai gebildet wird, eine orthogonale Matrix. p (II) Mit den obigen Bezeichungen gelte det A D c. Setzt man dann B WD A= 3 c, so besitzt B die Determinante C1. (III) Mit den obigen Bezeichnungen ist die Matrix B eine Drehmatrix. A8.9 Zeige, dass die Orthonormalbasis 1 0 1 0 1) (0 cos  sin  0 B D fb1 ; b2 ; b3 g D @ sin  cos  A; @ cos  cos  A; @ sin  A sin  sin   cos  sin  cos  rechtshändig orientiert ist. A8.10 Sind die folgenden Aussagen richtig oder falsch? Begründe jeweils deine Antwort. (I) Eine Spiegelung im R2 kann auch eine Drehung sein. (II) Eine Spiegelung im R3 kann durch geschickt gewählte Drehungen rückgängig gemacht werden. (III) Eine Drehung im R2 ändert jeden Vektor x ¤ 0. (IV) Eine Drehung im R3 ändert jeden Vektor x ¤ 0.

9

Lösungen der Übungsaufgaben

L1.1 Siehe Abb. 9.1.

Abb. 9.1 Die Addition von Ortsvektoren nach der Parallelogrammregel kann erfolgen, indem die Vektoren aneinandergehängt werden

© Der/die Autor(en), exklusiv lizenziert an Springer-Verlag GmbH, DE, ein Teil von Springer Nature 2023 J. Balla, Lineare Algebra, https://doi.org/10.1007/978-3-662-67667-7_9

201

202

9 Lösungen der Übungsaufgaben

L1.2 x C y C z D .1; 0; 2; 3/ C .5; 1; 2; 5/ C .0; 0; 7; 7/ D .6; 1; 7; 9/ x D .1; 0; 2; 3/ x  y D .4; 1; 4; 8/ 3x D .3; 0; 6; 9/   3 13 33 2x  z D 2; 0; ;  : 2 2 2 L1.3 Die Menge U1 D f.0; s 2 / j s 2 Rg ist gegenüber den linearen Operationen nicht abgeschlossen, denn es ist .0; 1/ 2 U1 , aber .1/.0; 1/ D .0; 1/ … U1 . Somit ist U1 kein Unterraum. Die Menge U2 D f.0; s 3 / j s 2 Rg ist gleich f.0; u/ j u 2 Rg. Sie ist abgeschlossen gegenüber den linearen Operationen und bildet einen Unterraum. Die Menge U3 D f.s; s 3 / j s 2 Rg ist nicht abgeschlossen gegenüber den linearen Operationen: Es ist .1; 1/ 2 U3 , aber .1; 1/ C .1; 1/ D .2; 2/ … U3 . L1.4 (I) Richtig. Neben dem Nullraum und dem R2 selbst sind alle Ursprungsgeraden Unterräume, d. h. alle Mengen Um WD f.s; ms/ j s 2 Rg mit m 2 R. (II) Richtig. Da der R2 in Form der Menge f.x; y; 0/ j x; y 2 Rg als Unterraum des R3 aufgefasst werden kann, besitzt der R3 erst recht unendlich viele Unterräume. Neben den Ursprungsgeraden kommen jetzt noch unendlich viele Ursprungsebenen hinzu. (III) Richtig. Ein echter Unterraum ist eine echte Teilmenge, d. h., der R2 selbst ist damit ausgeschlossen. Der Durchschnitt zweier verschiedener Ursprungsgeraden oder einer Ursprungsgerade mit dem Nullraum ergibt der Nullraum. (IV) Falsch. Der Durchschnitt zweier verschiedener Ursprungsebenen ergibt eine Ursprungsgerade. L2.1 a) Man sieht, dass die zweite Gleichung das .4/-fache der ersten Gleichung ist. Das Gleichungssystem enthält also zweimal dieselbe und damit letztlich nur eine Gleichung, die nach x aufgelöst x D 1  2y lautet. Wir haben also die Lösungsmenge L D f.x; y/ j x D 1  2y; y 2 Rg: b) Dieses Gleichungssystem unterscheidet sich nur in einer Ziffer von a). Sie bewirkt, dass die zweite Gleichung kein Vielfaches der ersten Gleichung ist, sondern im Widerspruch zu ihr steht. Das Gleichungssystem besitzt daher keine Lösung, es ist L D ;. c) Wir lösen das Gleichungssystem mit dem Additionsverfahren, das wir abgekürzt schreiben: 1=2 2 3 4

0 .6/ 1 #

,

1=2 2 0 8

0 : 1

Von unten nach oben erhalten wir nun y D 1=8 und x D 4y D 1=2.

9 Lösungen der Übungsaufgaben

203

d) Wir verwenden erneut das Additionsverfahren, wobei wir zunächst die erste und dritte Gleichung tauschen: 1 2=3 1 1=2 7 1=2 0 1 2

6 .1=2/ 2 # 2

,

1 2=3 1 0 22=3 1 0 1 2

,

1 2=3 1 0 22=3 1 0 0 41=22

3 Von unten nach ergibt dies z D 1, y D  22  e) Das Additionsverfahren ergibt

1 0 2 1=4 2 1 0 8 2

7 .1=4/ 29=4 # 22

3 22 z

6 1 .3=22/ 2 # 6 1 : 41=22

D 0, x D 23 y C z C 6 D 5.

,

1 0 2 0 2 1=2 0 8 2

7 22=4 .4/ 22 #

,

1 0 2 0 2 1=2 0 0 0

7 22=4 : 0

Die dritte Zeile ist eine leere Aussage und das Gleichungssystem enthält somit nur zwei linear unabhängige Gleichungen. Es ist y D  14 z C 11 4 und x D 2y C 7 D 1 3 z C und die Lösungsmenge kann geschrieben werden als 2 2 ˇ   ˇ 3 1 11 1 ˇ L D .x; y; z/ ˇ x D z C ^ y D  z C ; z 2 R : 2 2 4 4 f) Das Additionsverfahren ergibt ähnlich wie bei e) 1 0 2 1=4 2 1 0 8 2

7 .1=4/ 0 # 11

,

1 0 2 0 2 1=2 0 8 2

7 7=4 .4/ 11 #

,

1 0 2 0 2 1=2 0 0 0

7 22=4 : 18

Die letzte Gleichung ist nun allerdings nicht erfüllbar, gleichbedeutend damit, dass sich die Gleichungen des Gleichungssystems widersprechen. Es ist daher L D ;. L2.2 Der Vektor .1; 0; 0/ 2 R3 ist im Erzeugnis der Menge M , wenn das Gleichungssystem 1 0 1 1 0 1

1 0 0

204

9 Lösungen der Übungsaufgaben

lösbar ist. Das ist aber offensichtlich nicht der Fall: Die erste Gleichung ergibt c1 D 1 und die dritte c2 D 1, was aber mit der zweiten Gleichung nicht vereinbar ist. Also ist .1; 0; 0/ … hM i. L2.3 Der Vektor v3 darf keine Linearkombination der Vektoren v1 ; v2 sein. Wählt man irgendeinen Vektor mit „krummen“ Zahlen, so hat man wahrscheinlich einen passenden gefunden, muss es aber rechnerisch prüfen. Wählt man beispielsweise 0 1 0 v3 D @0A, sieht man es sofort. 1 Der Nullvektor macht jede Menge linear abhängig. Also kann man einfach v4 D 0 wählen. Ebenso macht jede andere Linearkombination der Vektoren v1 ; v2 als Wahl für v4 die Menge M2 linear abhängig. L2.4 Wir lösen die entsprechenden Gleichungssysteme: 1 2 1 2 1 1 1 1 2

2 .2/ .1/ 1 # 0 #

,

1 2 1 0 3 1 0 1 1

,

1 2 1 0 3 1 0 0 4=3

2 5 .1=3/ 2 # 2 5 1=3

und rückwärts Einsetzen ergibt c3 D 14 , c2 D  13 c3  53 D  74 , c1 D 22c2 c3 D 54 . Nun zu M2 : 3 4 2 1 1 3 5 2 4

2 .1=3/ .5=3/ 1 # 0 #

,

3 4 2 0 7=3 11=3 0 14=3 22=3

,

3 4 2 0 7 11

2 5=3 .2/ 10=3 #

2 : 5

Das Gleichungssystem ist mehrdeutig lösbar. Mit der Wahl von c3 D 0, c2 D 57 und 6 erhalten wir einen „funktionierenden“ Satz von Koeffizienc1 D  23 C 43 c2 D 21 ten einer Linearkombination. Das mehrdeutig lösbare Gleichungssystem bedeutet zweierlei: Einerseits sind die Vektoren von M2 nicht linear unabhängig, sie liegen also in einer Ebene, und außerdem liegt der Vektor x in derselben Ebene. L2.5 Der Vektorraum R5 ist fünfdimensional, jede Basis enthält daher genau fünf Vektoren. Die Menge M1 hat sechs Vektoren und die Menge M2 vier. Beide können daher keine Basen sein.

9 Lösungen der Übungsaufgaben

205

Die Menge M2 kann durch Hinzunahme eines weiteren Vektors zu einer Basis ergänzt werden, wenn sie linear unabhängig ist, d. h., wenn das Gleichungssystem 1 2 7 0 1

2 0 0 3 4

1 0 1 1 1

0 0 0 0 1

0 0 0 0 0

eindeutig lösbar ist. Das lässt sich hier durch Hinsehen entscheiden: Aus der zweiten Gleichung folgt c1 D 0, damit folgt aus der dritten Gleichung c3 D 0, mit der vierten folgt nun c2 D 0 und mit der fünften Gleichung schließlich auch c4 D 0. Als ergänzenden fünften Vektor könnte man beispielsweise .1; 0; 0; 0; 0/ wählen: Mit ihm bleiben die obigen Schlüsse gültig und die ergänzte erste Gleichung führt zu c5 D 0, man hat also insgesamt eine aus fünf Vektoren bestehende linear unabhängige Menge. L2.6 Es ist

0 1 0 1 0 1 0 1 1 2 1 8 x D @2A C 2@1A C 3@1A D @7A 1 1 2 9

und die Koordinaten von x hinsichtlich E lauten somit 8; 7; 9. Die Koordinaten hinsichtlich B ergeben sich als Lösungen des Gleichungssystems 1 1 1 0 1 1 0 0 1

8 7: 9

Also ist x3B D 9, x2B D 7  9 D 2 und x1B D 8  9 C 2 D 1. L2.7 (I) Richtig. Da ein Unterraum insbesondere selbst ein Vektorraum ist, besitzt er auch eine Basis. (II) Richtig. Die Basis des Unterraums ist eine linear unabhängige Menge, die daher zu einer Basis des gesamten Raums ergänzt werden kann. (III) Richtig. Ein echter Unterraum kann nicht dieselbe Dimension wie der Raum selbst haben, weil mit seiner Basis ansonsten notwendigerweise der gesamte Raum aufgespannt würde. (IV) Falsch. 2-Tupel haben nur zwei Komponenten und 3-Tupel drei, es sind also ganz andere „Objekte“. Dessen ungeachtet kann man 2-Tupel in den R3 einbetten, indem man ihnen beispielsweise eine dritte Komponente 0 hinzufügt, also die Menge f.x1 ; x2 ; 0/ j x1 ; x2 2 Rg bildet, die ein Unterraum des R3 ist.

206

9 Lösungen der Übungsaufgaben

L3.1 Es ist f .x 1 / C f .x 2 / D x 1 C a C x 2 C a D x 1 C x 2 C 2a; aber f .x 1 C x 2 / D x 1 C x 2 C a: Ebenso ist f .cx/ D cx C a ¤ cf .x/ D cx C ca

für c ¤ 1:

L3.2 Es ist 0 1  1 f @2A D f .e 1 C 2e 2 C 3e 3 / D f .e 1 / C 2f .e 2 / C 3f .e 3 / 0 1 0 1 0 1 0 1 3 1 4 7 30 D @2A C 2@5A C 3@8A D @36A: 3

6

9

42

Die Abbildung f ist ein Isomrphismus, wenn die Bilder der Basisvektoren linear unabhängig sind. Das entsprechende Gleichungssystem lautet 1 4 7 2 5 8 3 6 9

0 .2/ .3/ 0 # 0 #

,

1 2 3 0 3 6 0 6 12

0 0 0

und ist nicht eindeutig lösbar, sondern es besitzt eine eindimensionale Lösungsmenge. Die Abbildung ist somit nicht bijektiv, sondern sie besitzt den zweidimensionalen Bildraum 0 1 0 1   1 4 ˇˇ 3 f .R / D c1 @2A C c2 @5A ˇˇ c1 ; c2 2 R : 3 6 L3.3 a) Die Aussage f .e i / D ae 1 C be 2 C ce 3 ist gleichbedeutend mit 0 1 a f .e i / D @b A: c Die Abbildungsmatrizen können somit abgelesen werden: 0

1 1 1 1 A D @2 0 1 A; 0 2 2

0

1 2 1 0 B D @ 1 1 3 A: 3 1 1

9 Lösungen der Übungsaufgaben

207

b) Wir prüfen die lineare Unabhängigkeit der Bildvektoren: Für f haben wir 1 1 1 2 0 1 0 2 2

0 .2/ 0 # 0

,

1 1 1 0 2 1 0 2 2

0 0; 0

d. h., die Abbildung ist bijektiv, gleichbedeutend mit rg f D 3. Für g haben wir 2 1 1 1 3 1

0 3 1

0 .1=2/ .3=2/ 0 # 0 #

,

2 1 0 0 3=2 3 0 1=2 1

0 0; 0

d. h., wir erhalten eine eindimensionale Lösungsmenge und damit ist rg g D 2 und g ist kein Isomorphismus. c) 0 10 1 0 1 0 1 0 1 1 1 1 2 1 1 6 f .x/ D @2 0 1A@1A D @ 4 A; f .y/ D A@2A D @ 5 A; 0 2 2 0 2 3 10 0 1 0 1 0 10 1 0 1 1 4 2 1 0 2 3 g.x/ D @ 1 1 3 A@1A D @ 3 A; g.y/ D B @2A D @ 8 A; 3 8 3 1 1 0 5 0 1 0 1 0 1 1 6 7 f .x C y/ D f .x/ C f .y/ D @ 4 A C @ 5 A D @9A: 2 10 8 L3.4 Die Drehung wird beschrieben durch die Matrix p 1 0 1 01p 1 cos 45ı 0  sin 45ı 2 2 0 2 2 AD@ 0 D45ı D @ 0 1 0 0 A: p 1 1p 1 ı ı 2 0 2 2 sin 45 0 cos 45 2 Ihre Spalten entsprechen den Bildern der Basisvektoren. Ferner ist p 10 1 0 1 0 1 01p 2 0  12 2 1 0  1 2 A@1 A D @ 1 A: d @1A D @ 0 1 0 p p p 1 1 2 1 1 2 2 0 2 2 Die Vektoren, die auf die Basisvektoren abgebildet werden, lassen sich durch die Rückdrehung der Basisvektoren ermitteln. Sie wird beschrieben durch p 1 0 1p 2 0 12 2 2 D45ı D @ 0 0 A: p 1 1p 1 2 2 0 2 2

208

9 Lösungen der Übungsaufgaben

Diese Matrix enthält spaltenweise die Urbilder der Basisvektoren, d. h., es ist 0 1 0 1 0 1p 1 0 1 0 1 01p 1 1 0 0  2 2  0  2 2 d @ 0 A D @0A; d @1A D @1A; d @ 0 A D @0A: p p 1 2  12 2 0 1 0 0 2 L3.5 Es ist ! ! ! 1 1 1 1 1 1 rg D 1; rg D 2; rg D 1; 1 1 1 1 1 1 0 1 0p p p 1 2 p2 p2 1 0 1 rg@ 0 3 3A D 3; rg@0 1 0A D 2: 0 0 2 1 0 1 Die Matrix F hängt vom Winkel ˛ ab, aber sie besitzt für alle Werte von ˛ den Rang 3: Zunächst sind sin ˛ und cos ˛ nicht gleichzeitig 0. Für sin ˛ D 0 oder cos ˛ D 0 ist der Rang offensichtlich. Für cos ˛ ¤ 0 haben wir 1 0 0 1 sin ˛ cos ˛  sin ˛ 0 cos ˛  sin ˛ 0  cos ˛ 2˛ C B rg@ sin ˛ cos ˛ 0A # D rg@ 0 0A cos ˛ C sin cos ˛ 0 0 1 0 0 1 mit cos ˛ C

sin2 ˛ cos ˛

D

1 cos2 ˛

¤ 0. Schließlich ist

0 1 4 3 2 l rg@5 1 3 A 1 1 2 l 0 1 0 1 1 1 2 .5/ .4/ 1 1 2 D rg@5 1 3 A # D rg@0 6 7 A D 3; 4 3 2 # 0 7 10 0 1 3 1 2 rg@1 0 2 A.1/ $ .2/ 5 2 2 1 0 1 0 1 3 2 .2/ 1 3 2 D rg@0 1 2 A D rg@0 1 2 A D 2: 2 5 2 # 0 1 2 L3.6 (I) Falsch. Zum Beispiel sind die Abbildungen id und id beide bijektiv, ihre Summe ergibt jedoch die Nullabbildung, die nicht bijektiv ist. (II) Richtig. Der Bildraum der ersten Abbildung ist der gesamte Raum. Er wird durch die zweite Abbildung wieder auf den gesamten Raum abgebildet.

9 Lösungen der Übungsaufgaben

209

(III) Falsch. Beispielsweise ergibt die Summe Abbil! der zwei zweidimensionalen ! 1 0 0 0 dungen, die durch die Matrizen bzw. beschrieben werden, 0 0 0 1 die identische Abbildung. (IV) Richtig. Die nicht bijektive Abbildung besitzt als Bild nur einen echten Unterraum des gesamten Raums. Auch wenn es sich dabei um die erste Abbildung handelt, kann die nachfolgende bijektive Abbildung diesen Unterraum wieder nur auf einen gleichdimensionalen Unterraum abbilden. L3.7 a) Es ist 0

1 1 0 1 C D A C B D @ 3 1 4A 3 1 1 und 0

1 0 1 1 0 1 .3/ .3/ 1 0 1 rg C D rg@ 3 1 4A # D rg@ 0 1 7 A D 3; 3 1 1 # 0 1 2 d. h., f C g ist bijektiv. b) Die gesuchten Bilder der Basisvektoren entsprechen den Spalten der Abbildungsmatrizen. Wir haben also die Matrizen A und C zu invertieren: 1 1 1 2 0 1 0 2 2

1 1 1 1 0 0 .2/ 0 1 0 # Ý 0 2 1 0 0 1 0 2 2

1 1 1 Ý 0 2 1 0 0 1 1 1 0 Ý0 1 0 0 0 1

1 1 1 0 0 2 1 0 . 12 / Ý 0 1 2 1 1 0 0

3 1 1 2 1  12 2 1 1

1 2 0 1 1 2

1

1 0 0 " .1/ Ý 0 1 0 0 0 1

0 0 1 0 .1/ 0 1 # 1 0 1  12 2 1

0 " 0 " 1 . 12 / .1/

1 0  12 2 1  12 ; 2 1 1

d. h. 1 1 0  12 D @ 2 1  12 A 2 1 1 0

A1 0

0 1 0 1 1 1 0 1=2 und f 1 .e 1 / D @ 2 A, f 1 .e 2 / D @1A, f 1 .e 3 / D @1=2A. 2 1 1

210

9 Lösungen der Übungsaufgaben

Die Matrix C ist analog zu invertieren. Die Inversion von 3 3-Matrizen (oder größer) ist etwas mühsam und man wird dazu gerne auf ein Computerprogramm zurückgreifen: In M ATLAB1 beispielsweise führt die Eingabe von clear all C=[-1 0 1; 3 -1 4; -3 1 1] format rat inv(C)

zur Ausgabe der inversen Matrix 0

C 1

1 1 1=5 1=5 D @3 2=5 7=5A; 0 1=5 1=5

wobei „format rat“ bewirkt, dass die Ausgabe in Form von Brüchen und nicht als Dezimalzahlen erfolgt. Mit C 1 haben wir spaltenweise die Vektoren .f C g/1 .e i /, i D 1; 2; 3, vor uns. c) Es ist 0 0 1 1 4 3 2 4 2 3 P1 D AB D @7 3 1A; P2 D BA D @1 7 6A 4 4 4 5 5 6 und P3 D E3 . Mit g sind auch f ı g und g ı f keine Isomorphismen, während f 1 ı f D id ein Isomorphismus ist. L3.8 Es ist .ABC /1 ABC D En , weil .ABC /1 die inverse Matrix zu ABC ist. Wir multiplizieren diese Gleichung von rechts mit C 1 B 1 A1 , .ABC /1 ABC C 1 B 1 A1 D En C 1 B 1 A1 D C 1 B 1 A1 ; und haben darin ABC C 1 B 1 A1 D ABB 1 A1 D AA1 D En und damit die gewünschte Gleichung. L3.9 a) Die Fragen bedeuten alle letztlich dasselbe: Reguläre Matrizen sind umkehrbar, sie beschreiben bijektive Abbildungen und invertierbar ist einfach das lateinische Wort für umkehrbar. Man sieht, dass alle Matrizen bis auf F regulär sind. b) Die Inversion der 2 2-Matrizen fällt leicht und ergibt ! ! ! 1 0 1 0 1 5 1 1 1 : L1 D 1 ; L2 D 1 ; Z D 0 1 1 1 10 2 1

Mit GNU Octave steht alternativ eine kostenlose wissenschaftliche Programmiersprache zur Verfügung, deren Syntax weitgehend mit M ATLAB kompatibel ist.

9 Lösungen der Übungsaufgaben

211

Ferner ist E41 D E4 . Die Inversion von D4 macht etwas Mühe, wenn man sie mit dem üblichen Schema ausführt, und ergibt 01p 2

1 0 2 p 1 3 0 2 p 1 2 0 2 p 0  12 2

3

B 1 2 D41 D B @ 0 0

1 0 0 C C: p 1 A 2 2p 1 2 2

Allerdings handelt es sich bei D4 um eine vierdimensionale Drehmatrix, mit der die 1- und 2-Komponenten um 30ı und die 3- und 4-Komponenten um 45ı verdreht werden. Sie kann daher auch durch Umkehrung des Drehsinns invertiert werden, natürlich mit demselben Ergebnis. c) Für das Produkt L2 ZL1 verwenden wir das Falk-Schema:

1  12

0 1

1 0 1  12

5 1 5  32

1 1  10 1 2

7  20

0 1 ; 5  32

1 2

also L2 ZL1 D

7  20

! 5 :  32

Auch die Inversion könnte man als dreifaches Matrizenprodukt ermitteln, 1 1 .L2 ZL1 /1 D L1 1 Z L2 , invertiert aber einfacher direkt und erhält .L2 ZL1 /1 D

1 2

7  20

!1 5  32

D

 32 7 20

5 1 2

! :

Schließlich ist 01p 2 3 B 1 2 D4 F D B @ 0 0

1 p12 0 0 1 3 0 0 C 2 C und .E4 D4 /1 D D 1 : 4 A 0 0 0 p p 2 2 0

L3.10 Der linearen Abbildung f sei hinsichtlich einer Basis die Matrix A 2 Kn n zugeordnet. Die Gleichung f .x/ D 0, deren Lösungen x den Kern der Abbildung ergeben, ist dann gleichbedeutend mit dem homogenen linearen Gleichungssystem Ax D 0. Dieses Gleichungssystem ist genau dann eindeutig lösbar mit x D 0, wenn die Matrix A regulär ist, und damit genau dann, wenn f bijektiv ist. L4.1 (I) Richtig. Ist bei einem Wechsel von B zu B bk D bk , so wird bk in der Basis B dargestellt durch .0; : : : ; 1; : : : ; 0/, wo die 1 an der k-ten Stelle steht. (II) Richtig. Hier haben wir es mit einer normalen Basistransformation zu tun, die ebenso wie alle anderen durch eine Matrix beschrieben werden kann.

212

9 Lösungen der Übungsaufgaben

(III) Richtig. Befindet sich der k-te Vektor von B an der l-ten Stelle in B , so ist bl B D .0; : : : ; 1; : : : ; 0/, wo die 1 an der k-ten Stelle steht. Da die Transformation eindeutig sein muss, erhält man für l D 1; : : : ; n die n verschiedenen Spalten der Einheitsmatrix. (IV) Richtig. Eine solche Matrix T beschreibt eine Basistransformation wie in (III). Wechselt der k-te Vektor von B an die l-te Stelle von B , so wird dieser Wechsel durch die Rücktransformation, beschrieben durch T 1 , rückgängig gemacht. Somit tauschen k und l ihre Rollen, gleichbedeutend mit einer Transposition der Transformationsmatrizen. L4.2 a) Zur Ermittlung der Transformationsmatrix drücken wir die neuen Basisvektoren durch die alten aus. Es ist offenbar b1 D b2

und b2 D b1 ;

d. h., wir haben ! 0 1 T D : 1 0 Nun ist x y

!

! DT

1

x y

0 1 D 1 0

!

! x y

y D x

!

der gesuchte Koordinatenvektor. b) Die neue Abbildungsmatrix lautet ! ! ! ! 0 1 a b 0 1 0 1 b  1 D A D T AT D 1 0 c d 1 0 1 0 d ! d c D : b a

! a c

Bijektivität ist eine Eigenschaft der Abbildung und sie hängt nicht von der Wahl einer Basis für eine Abbildungsmatrix ab. Auf Matrixebene bedeutet das: Genau dann, wenn die Abbildungsmatrix hinsichtlich einer Basis regulär ist, sind auch alle weiteren Abbildungsmatrizen hinsichtlich anderer Basen regulär. L4.3 Die Transformationsbasis T des Übergangs B ! E ist 0

T D B 1

11 0 1 2 1 0 2=3 1=3 1=6 D @1 2 1A D @1=3 2=3 1=3A: 0 0 2 0 0 1=2

9 Lösungen der Übungsaufgaben

213

Der Koordinatenvektor von .x; y; z/B in der kanonischen Basis lautet 1 0 1 0 1 0 1 0 1 2 xE 1 0 2x C y @y E A D x @1A C y @2A C z @1A D @x C 2y C z A; zE 0 0 2 2z 0

was sich auch als x E D T 1 x B D BxB schreiben bzw. erhalten lässt. ! 1 1 und 0 1

L4.4 Die Transformationsmatrix dieses Basiswechsels lautet T D damit haben wir !1 1 1 D B D T 1 D˛ T D 0 1 ! 1 1 D 0 1

cos ˛ sin ˛

 sin ˛ cos ˛

!

!

1 1 0 1 ! cos ˛ cos ˛  sin ˛ sin ˛ sin ˛ C cos ˛ ! cos ˛  sin ˛ 2 sin ˛ D : sin ˛ sin ˛ C cos ˛

! cos "  sin " Diese Matrix kann offenbar nicht in der Form geschrieben wersin " cos " den. p L4.5 Der Vektor n D .1; 1; 1/= 3 hat die Länge 1 und liegt auf der Drehachse. Wir wählen die Euler-Winkel  und  daher so, dass gilt 1 0 p 1 sin  sin  1=p3 @ cos  sin  A D @1= 3A; p 1= 3 cos  0

d. h., es ist 1 cos  D p ; 3

p sin  D 1  cos2  D

r

2 ; 3

1 cos  D  p ; 2

1 sin  D p : 2

Damit ist

Tzx 0

0 1 p B 12 p DB @ 2 0

 p16  p16 q 2 3

1

p1 3 C p1 C 3A p1 3

0

 p12

B 1 B p1 und Tzx 0 D @ 6 p1 3

p1 2  p16 p1 3

1 0 q C 2 C: 3A p1 3

214

9 Lösungen der Übungsaufgaben

Die Drehung erfolgt mit ˛ D 120ı , d. h., wir haben 0 1 0 1 cos ˛  sin ˛ 0  B p2 Dz .˛/ D @ sin ˛ cos ˛ 0A D @ 3 2 0 0 1 0

p

 23  12 0

1 0 C 0 A: 1

Die gesuchte Abbildungsmatrix erhalten wir nun als 0 1 0 0 1 1 @1 0 0 A: Dn .˛/ D Tzx 0 Dz .˛/Tzx 0 D 0 1 0 Hinweis

Zwar ist hier „nur“ das Produkt dreier Drehmatrizen zu bilden, aber seine Ausführung ist recht aufwändig. Positiv ausgedrückt: Wenn du handschriftlich das obige einfache Ergebnis erhalten hast, bereiten dir Matrizenmultiplikationen oder Wurzeln keine Probleme :-)

Das Ergebnis lässt sich geometrisch verstehen: Die drei kanonischen Basisvektoren liegen allesamt auf demselben Kegel um die Raumdiagonale. Eine Drehung um diese Achse belässt sie auf diesem Kegel, sie werden nur weitergedreht. Bei einer Drehung um 120ı wird e x auf ey gedreht, ey auf e z und e z auf e x . Diese Bilder der Basisvektoren sind in der Abbildungsmatrix Dn .˛/ zu sehen. L5.1 (I) Richtig. Eine Determinantenform wird 0 für linear abhängige Argumentvektoren und das ist bei n-mal demselben Vektor natürlich der Fall. Eine Sonderrolle nimmt allerdings der Fall n D 1 ein: Hier ist .x/ ¤ 0 für x ¤ 0. (II) Richtig. Eine Determinantenform ist linear bezüglich jeder Argumentposition, d. h., es ist .: : : ; cx k ; : : :/ D c.: : : ; x k ; : : :/. Bei n Argumenten ergibt das n-mal den Faktor c vor der Determinantenform. (III) Falsch. Zwar sind beide Determinantenformen auf einer Basis ungleich 0, aber ihr Wert kann sich um eine Konstante c unterscheiden, d. h., es ist .b1 ; : : : ; bn / D c .b1 ; : : : ; bn /. (IV) Falsch. Zwei Transpositionen können sich auch gegenseitig aufheben (Hinund Rücktausch). (V) Richtig. Drei Transpositionen sind wegen .1/3 D 1 insgesamt eine ungerade Permutation und ergeben damit keinesfalls die identische Permutation. L5.2 Ja, das stimmt. Zwei Matrizen A und B sind zueinander ähnlich, wenn es eine reguläre Matrix T gibt, sodass gilt B D T 1 AT . Nun ist det B D det.T 1 AT / D .det T 1 /.det A/.det T / und mit det T 1 D 1= det T folgt det B D det A.

9 Lösungen der Übungsaufgaben

215

L5.3 det A D cos2 ˛ C sin2 ˛ D 1; det B D ad  bc; det C D 22; det D D 2; det E D 1; det F D 1: Für die Determinante von F ist einige Rechenarbeit erforderlich, bevor sich schließlich alles zu 1 ergänzt. Die 4 4-Determinante G kann wohl am einfachsten durch Überführung in eine obere Dreiecksdeterminante berechnet werden, die Determinante von H ist aufgrund der vielen Nullen auch mit dem Entwicklungssatz leicht zu erhalten: det G D 21;

det H D 0:

Die Determinanten der Produkmatrizen ergeben sich aus den Produkten der Einzeldeterminanten: det.AC / D 22;

det.EF / D 1;

det.GH / D 0:

Die Matrizen mit Determinante ungleich 0 sind regulär. L5.4 a) Die Koeffizientendeterminante ist ˇ ˇ ˇ 1 2ˇ ˇ ˇ ˇ1 4ˇ D 6 ¤ 0: Die Cramer-Regel ist daher anwendbar und ergibt x1 D

ˇ ˇ 1 ˇˇ3 2ˇˇ 5 D 6 ˇ1 4ˇ 3

und x2 D

ˇ ˇ 1 ˇˇ 1 3ˇˇ 2 D : 6 ˇ1 1ˇ 3

b) Die Koeffizientendeterminante ist 0 und die Cramer-Regel ist somit nicht anwendbar. Die beiden Gleichungen sind identisch, die Lösung des Systems ist L D f.x1 ; x2 / j x1 D 1  2x2 ; x2 2 Rg: c) Die Koeffizientendeterminante ist 0 und die Gleichungen widersprechen sich. Somit ist L D ;. d) Wir haben die Koeffizientendeterminante ˇ ˇ ˇ3 1 2 ˇ ˇ ˇ ˇ1 1 1 ˇˇ D 14 ¤ 0 ˇ ˇ4 2 1ˇ

216

9 Lösungen der Übungsaufgaben

und damit ist ˇ ˇ0 1 ˇˇ x1 D  ˇ1 14 ˇ 0 ˇ ˇ3 1 ˇˇ x3 D  ˇ1 14 ˇ 4

1 1 2 1 1 2

ˇ 2 ˇˇ 5 ; 1 ˇˇ D 14 1ˇ ˇ 0ˇˇ 1 1ˇˇ D  ; 7 0ˇ

ˇ ˇ ˇ3 0 2 ˇ ˇ ˇ 1 11 x2 D  ˇˇ1 1 1 ˇˇ D ; 14 ˇ 14 4 0 1ˇ

wobei man diese drei Determinanten sicher am einfachsten erhält, indem man jeweils nach der Spalte mit dem Lösungsvektor entwickelt. e) Die Koeffizientendeterminante ist ˇ ˇ ˇ 3 1 2 ˇ ˇ ˇ ˇ1 2 3 ˇˇ D 7 ¤ 0: ˇ ˇ1 1 1ˇ Da es sich um ein homogenes Gleichungssystem handelt, ist seine Lösung x1 D x2 D x3 D 0. L5.5 Eine Matrix ist inververtierbar, wenn ihre Determinante nicht verschwindet. Dann können 2 2-Matrizen mit a c

b d

!1

1 d D ad  bc c

b a

!

praktisch durch Hinsehen invertiert werden: So ist A1

! 1 2 2 D ; 4 1 1

det B D 0;

C 1

! 1 0 1 D : 2 2 0

Ferner haben wir det D D 14 und führen die Inversion mit der Formel D 1 D

1 QT D det A

durch, wo DQ die Matrix ist, die die Adjunkten der Elemente von D enthält. Mit Blick auf die Matrix D erhalten wir 0

1 1 5 6 DQ D @5 11 2 A; 3 1 4

d. h. D 1

0 1 1 5 3 1@ D 5 11 1A: 14 6 2 4

9 Lösungen der Übungsaufgaben

217

Die Matrix E ist eine Diagonalblockmatrix mit einem 2 2-Block, siehe C , und zwei 1 1-Blöcken. Somit ist 0

E 1

1 1=2 0 0 0 B 0 0 1=2 0 C C: DB @ 0 1 0 0 A 0 0 0 1=3

L6.1 (I) Richtig. Wenn x Eigenvektor zum Eigenwert t ist, so gilt wegen der Linearität der Abbildung für ein Vielfaches cx f .cx/ D cf .x/ D c.tx/ D t.cx/:

(II)

(III) (IV) (V)

Streng genommen müsste man allerdings c D 0 ausschließen, weil 0 per Definition kein Eigenvektor ist. Falsch. Beispielsweise sind bei einer dreidimensionalen Drehung genau die Vektoren auf der Drehachse Eigenvektoren zu 1. Eine Linearkombination mit einem solchen Vektor liegt i. Allg. aber abseits der Drehachse. Richtig. Für x ¤ 0 kann nicht gleichzeitig f .x/ D t1 x und f .x/ D t2 x mit t1 ¤ t2 gelten. Richtig. Wenn eine Abbildung den gesamten Raum als Eigenraum zu Eigenwert t besitzt, so gilt f .x/ D tx für alle x 2 V , gleichbedeutend mit f D t id. Falsch. Das gleiche charakteristische Polynom bedeutet zwar dieselben Eigenwerte, aber die Eigenräume und damit die Abbildungen können unterschiedlich sein. Zum Beispiel besitzen Abbildungen mit den ! ! die zweidimensionalen 1 0 1 1 Abbildungsmatrizen bzw. dasselbe charakteristische Poly0 1 0 1 nom, sind aber unterschiedlich.

L6.2 Das charakteristische Polynom der ersten Abbildung ist ˇ ˇ1  t jA  tE2 j D ˇˇ 2

ˇ 2 ˇˇ D .1  t/.4  t/  4 D t 2  5t D t.t  5/ 4  tˇ

und wir haben die Eigenwerte 0 und 5. Der Eigenraum zu 0 ergibt sich aus dem 1 2 0 Gleichungssystem zu 2 4 0 ! ! o n 2s ˇ n x ˇ o ˇ 1 ˇ ER0 D ˇs 2 R : ˇ x1 D 2x2 D s x2

218

9 Lösungen der Übungsaufgaben

Der Eigenraum zu 5 folgt aus

4 2

0 : 0

2 1

! ! o n s ˇ n x ˇ o ˇ 1 ˇ ER5 D ˇs 2 R : ˇ x2 D 2x1 D 2s x2 Für die zweite Abbildung haben wir ˇ ˇ1  t jB  tE2 j D ˇˇ 2

ˇ 2 ˇˇ D .1  t/.4  t/ C 4 D t 2  5t C 8: 4  tˇ

Dieses Polynom besitzt keine reellen Nullstellen und die Abbildung hat somit keine Eigenwerte oder Eigenvektoren. Schließlich ist ˇ ˇ ˇ1  t 2 ˇˇ ˇ D .1  t/.4  t/  2 D t 2  5t C 2 jC  tE2 j D ˇ 1 4  tˇ und wir haben die Nullstellen t1;2 D chungssystem 1

p 5C 17 2

1

p 5˙ 17 . 2

2

4

p 5C 17 2

0 0

Für den Eigenraum zu t1 ist das Glei-

,

p 3 17 2

2

p 3 17 2

1

0 0

zu lösen. Zwar sieht man es diesem Gleichungssystem nicht unmittelbar an, aber seine beiden Gleichungen sind Vielfache voneinander und zu seiner Lösung können wir uns auf eine Gleichung beschränken, z. B. die zweite: ER

p 5C 17 2

! p n x ˇ 17  3 o n 1 ˇ D x2 D ˇ x1 D x2 2

p 173 2

s

! ˇ o s ˇ ˇs 2 R :

Analog haben wir für t2 das Gleichungssystem p 3C 17 2

1

2

p 3C 17 2

0 0

und den Eigenraum ER

p 5 17 2

! p n x ˇ 3 C 17 o n 1 ˇ D x2 D ˇ x1 D  x2 2

p 3C 17 2

s

! ˇ o s ˇ ˇs 2 R :

9 Lösungen der Übungsaufgaben

219

L6.3 (I) Richtig. Das charakteristische Polynom ist ein Polynom zweiten Grads. Ein Eigenwert ist gleichbedeutend mit einem Linearfaktor, den das Polynom enthält. Dann verbleibt noch ein zweiter Linearfaktor. Soll nur ein Eigenwert vorliegen, müssen beide Linearfaktoren identisch sein. (II) Richtig. In diesem Fall besitzt jeder der drei verschiedenen Eigenwerte einen Eigenraum der Dimension 1, sodass es eine Basis aus Eigenvektoren gibt, in der die Abbildungsmatrix eine Diagonalmatrix ist. (III) Falsch. Wenn einer der drei Eigenwerte 0 ist, ist die Abbildung nicht bijektiv. (IV) Falsch. Zum Beispiel besitzt die Abbildung mit der Matrix diag.1; 2; 3/ den Eigenwert 1, sie ist aber keine Drehung. (V) Richtig. Ein Polynom vierten Grads kann drei Nullstellen besitzen, zwei einfache und eine doppelte Nullstelle. L6.4 a) Das charakteristische Polynom von f ist ˇ ˇ3  t ˇ pf .t/ D ˇˇ 1 ˇ 1

0 6  t 3

ˇ 2ˇˇ 1 ˇˇ D .t 3 C 9t 2 C 23t C 15/; t ˇ

wie man nach kurzer Rechnung (beispielsweise durch Entwickeln nach der ersten Zeile) erhält. Eine erste Nullstelle errät man: t1 D 1. Das Abspalten des entsprechenden Linearfaktors ergibt pf .t/ D .t C 1/.t 2 C 8t C 15/: Der quadratische Term besitzt zwei weitere Nullstellen und wir können das charakteristische Polynom vollständig faktorisiert angeben: pf .t/ D .t C 1/.t C 3/.t C 5/; d. h., wir haben drei einfache Eigenwerte: t1 D 1, t2 D 3, t3 D 5. Der Eigenraum zu t1 D 1 ergibt sich aus 2 0 2 1 5 1 1 3 1

0 0 0

,

x1 D x3 ^ x2 D 0;

d. h.

ER1

0 1 n s ˇ o ˇ D @ 0 Aˇ s 2 R : s

220

9 Lösungen der Übungsaufgaben

Für t2 D 3 haben wir 0 0 2 1 3 1 1 3 3

0 0 0

,

x3 D 0 ^ x1 D 3x2 ;

d. h.

ER3

0 1 n 3s ˇ o ˇ D @ s Aˇ s 2 R 0

und für t3 D 5 2 0 2 1 1 1 1 3 5

0 0 0

,

2 0 2 0 1 2 0 3 6

0 0 0

,

x2 D 2x3 ^ x1 D x3 ;

d. h. 0 1 s ˇ o ˇ D @2s Aˇ s 2 R : s n

ER5

Beispielsweise ist 0 1 0 1 0 1 3 1 o n 1 B D @ 0 A; @1A; @2A 1 0 1 eine Basis des R3 , die aus Eigenvektoren von f besteht. b) Aufgrund der vielen Nullen in der Abbildungsmatrix B erhält man das charakteristische Polynom mit dem Entwicklungssatz sofort in faktorisierter Form: ˇ ˇ3  t ˇ ˇ 5 pg .t/ D ˇˇ ˇ 10 ˇ 0

0 2  t 10 0

0 0 3t 0

ˇ 5=2 ˇˇ 5=2 ˇˇ D .2  t/2 .3  t/2 D .t C 2/2 .t  3/2 ; 0 ˇˇ 2  t ˇ

d. h., wir haben die zwei zweifachen Eigenwerte t1 D 2 und t2 D 3.

9 Lösungen der Übungsaufgaben

221

Der Eigenraum zu t1 D 2 ergibt sich aus dem Gleichungssystem 5 0 0 5=2 5 0 0 5=2 10 10 5 0 0 0 0 0

d. h.

ER2

0 0 0 0

,

5 0 0 5=2 10 10 5 0

,

2 0 0 1 2 2 1 0

,

x4 D 2x1 ^ x3 D 2x2  2x1 ;

0 0

0 0

0 1 s ˇ   B u Cˇ B ˇ C D @ s; u 2 R : 2u  2s Aˇ 2s

Für t2 D 3 haben wir 0 0 0 5=2 5 5 0 5=2 10 10 0 0 0 0 0 5 d. h.

0 0 0 0

,

x4 D 0 ^ x3 2 R ^ x1 D x2 ;

0 1 s ˇ  B s Cˇ Cˇ s; u 2 R : ER3 D B @uAˇ 0 

Lesehilfe

Eine Nullzeile in einem Gleichungssystem ist eine leere Aussage und eine Nullspalte besagt, dass die entsprechende Variable frei gewählt werden kann (aufgrund der Vorfaktoren 0 spielt ihr Wert in keiner Gleichung keine Rolle, sie kann daher jeden beliebigen Wert annehmen).

Da sich zu den zwei zweifachen Eigenwerten jeweils zweidimensionale Eigenräume ergeben haben, kann eine Basis aus Eigenvektoren von g angegeben werden, beispielsweise 0 1 0 1 0 1 0 1 0 1 0 ) ( 1 B 0 C B1C B1C B0C C B C B C B C BD B @2A; @2A; @0A; @1A : 2

0

0

0

222

9 Lösungen der Übungsaufgaben

L7.1 (I) Falsch. Zwar ist die Abbildungsvorschrift symmetrisch, aber es handelt es nicht um eine Bilinarform. Für eine Bilinearform müsste beispielsweise ˇ.2x; y/ D 2ˇ.x; y/ gelten, was mit dieser Zuordnung aber nur für y D 0 stimmt und nicht für alle y 2 R2 . (II) Falsch. Eine positiv definite Bilinearform kann durchaus negative Werte annehmen. Sie ist allerdings positiv, wenn zweimal derselbe Argumentvektor x ¤ 0 verwendet wird. (III) Richtig. Zunächst handelt es sich tatsächlich um eine Bilinearform und außerdem ist .x; x/ D 4x12  2x1 x2  2x2 x1 C 3x22 D 4x12  4x1 x2 C 3x22 D .2x1 /2  2.2x1 /x2 C x22 C 2x22 D .2x1  x2 /2 C 2x22 > 0 für x ¤ 0.

Lesehilfe

Man kann zeigen, dass ein Ausdruck nichtnegativ ist, indem man ihn als Summe von Quadraten schreibt. Genau das ist oben passiert: Die ersten zwei Summanden wurden zu diesem Zweck quadratisch ergänzt.

(IV) Richtig. Die Bilinearform  ist symmetrisch. Es ist .x; y/ D .y; x/, weil die gemischten Ausdrücke in der Mitte denselben Vorfaktor 2 haben. L7.2 a) Vektoren x D .x1 ; x2 ; x3 / sind orthogonal zu .1; 2; 3/, wenn ihr Skalarprodukt verschwindet, d. h., wenn gilt 1 0 1 1 x1 @2A @x2 A D x1  2x2 C 3x3 D 0: x3 3 0

Dies ist der Fall für alle Vektoren x mit x1 D 2x2  3x3 , also alle Vektoren der Menge 0 1 0 1 0 1 3 ˇ n 2s  3u ˇ o n 2 o ˇ ˇ @ A @ A @ L1 D s ˇ s; u 2 R D s 1 C u 0 Aˇ s; u 2 R : u 0 1 b) Sollen die Vektoren x zusätzlich zum Vektor .4; 5; 6/ orthogonal sein, müssen sie auch die entsprechende zweite Bedingung erfüllen und wir haben das

9 Lösungen der Übungsaufgaben

223

Gleichungssystem 1 2 3 4 5 6

0 0

1 2 3 0 3 6

,

0 ; 0

d. h. x2 D 2x3 und x1 D 2x2  3x3 D x3 , gleichbedeutend mit 0 1 0 1 s ˇ o n 1 ˇ o ˇ ˇ L2 D @2s Aˇ s 2 R D s @2Aˇ s 2 R : s 1 n

L7.3 Wir prüfen zunächst die Normierung: b1 b1 D cos2  C sin2  cos2  C sin2  sin2  D cos2  C sin2 .cos2  C sin2 / D 1 b2 b2 D sin2  C cos2  cos2  C cos2  sin2  D 1 b3 b3 D sin2  C cos2  D 1; wie man unter wiederholter Verwendung des „trigonometrischen Phythagoras“, d. h. der Formel sin2 x C cos2 x D 1, praktisch sofort sieht. Ferner ist b1 b2 D cos  sin   sin  cos  cos  cos   sin  sin  cos  sin  D cos  sin   cos  sin .cos2  C sin2 / D 0 b2 b3 D 0 C cos  cos  sin   cos  sin  cos  D 0 b3 b1 D 0  sin  sin  cos  C cos  sin  sin  D 0: L7.4 Die Menge fv1 ; v4 ; v7 g ist ein Orthogonalsystem, alle Vektoren mit der Länge 1. Die Menge fv1 ; v5 ; vp 6 g ist ein Orthogonalsystem, ein Vektor mit der Länge 1 und zwei mit der Länge 2. Die Menge fv2 ; v3 ; vp 7 g ist ein Orthogonalsystem, ein Vektor mit der Länge 1 und zwei mit der Länge 2. L7.5 Nein, das stimmt nicht. Die Gleichungen wkC1 WD vkC1 

k X

.vkC1 e i /e i

i D1

funktionieren nur, wenn die Vektoren e i normiert sind. Andernfalls werden nicht die richtigen Anteile aus dem Vektor vkC1 „herausprojiziert“. Zur Durchführung des Verfahrens müssen die Vektoren daher zwingend normiert werden. Dessen ungeachtet können als Ergebnis für ein Orthogonalsystem auch die nicht normierten Vektoren wi angegeben werden.

224

9 Lösungen der Übungsaufgaben

L7.6 Wir verwenden das Schmidt-Orthonormierungsverfahren. Zunächst setzen wir 0 1 0 1 2 1 1 @ A 1 @ A a1 WD p 0 Dp 0 : 2 2 2 2 1 Als nächstes berechnen wir 0

0 1 0 1 1 0 1 1 1 w2 D b2  .b2 a1 /a1 D @1A  .2/@ 0 A D @1A 2 2 1 1 und damit 0 1 1 1 @ A a2 WD p 1 : 3 1 Schließlich bilden wir w3 D b3  .b3 a1 /a1  .b3 a2 /a2 0 1 0 1 0 1 0 0 1 1 1 1 1 1 5=6 1 1 5 @ @ @ @ A A A @ A D 3  .C3/ 0  .4/ 1 D 5=3 D 2A 2 3 6 2 1 1 1 5=6 und 0 1 1 1 a3 WD p @2A: 6 1 Diese Vektoren a1 ; a2 ; a3 sind nicht die einzig möglichen Lösungen. Es könnten jeweils auch ihre Negativen gewählt werden, sodass insgesamt sechs verschiedene Systeme möglich sind. L8.1 a) Es ist 0

0 1 0 1 0 1 1 1 0 1 1 1 1 1 1 a0 D p @ 2 A; b0 D p @3A; c 0 D p @1A; d 0 D p @ 0 A: 6 10 3 2 1 1 1 1

9 Lösungen der Übungsaufgaben

225

b) Die Winkel ergeben sich aus den Skalarprodukten: 5 cos †.a; b/ D a0 b0 D p ; d. h. †.a; b/ 49;8ı 2 15 2 0 0 cos †.c; d / D c d D  p ; d. h. †.c; d/ 144;7ı 6 cos †.a; d / D a0 d 0 D 0; d. h. †.a; d/ D 90ı : Die kanonischen Basisvektoren sind wechselseitig orthogonal zueinander, d. h., sie schließen Winkel von 90ı ein. c) Es ist 0 1 0 1 0 2 1 1 ak D .a b0 /b0 D @3A und a? D a  ak D @ 1 A: 2 2 1 3 Die Projektionen eines Vektors auf die Koordinatenachsen entsprechen seinen Komponenten, d. h., a besitzt die Projektionen 1, 2, 1 auf die x-Achse, y-Achse bzw. z-Achse. L8.2 a) Ein Normalenvektor n D .1; 2; 1/ der Ebene lässt sich ablesen. Als Vektor d ist ein beliebiger Punkt der Ebene geeignet. Beispielsweise erfüllt .0; 2; 0/ die Ebenengleichung, sodass wir insgesamt 0 1 0 1 1 0  @2A x  @2A D 0 1 0 als Normalengleichung angeben können. b) Der Vektor d kann ebenso als Stützvektor der Punktrichtungsform verwendet werden, wir wählen also a D d. Die Richtungsvektoren b und c müssen senkrecht zum Normalenvektor und linear unabhängig sein: Das ist z. B. für b D .2; 1; 0/ und c D .1; 0; 1/ der Fall, d. h., wir haben 0 1 0 1 0 1 2 1 0 @ A @ @ A x D 2 C s 1 C u 0 A: 0 1 0 c) Dass der Punkt .1; 1; 3/ in der Ebene liegt, erkennt man mit der Koordinatengleichung sofort. Die zugehörigen Parameterwerte s und u ergeben sich aus dem Gleichungssystem 0 1 0 1 0 1 0 1 1 1 0 2 1 2 1 @ 1 A D @2A C s @1A C t @ 0 A; d. h. 1 0 1 : 0 1 3 3 0 0 1 Aus der zweiten Gleichung folgt s D 1 und aus der dritten u D 3 (und die erste Gleichung ist ebenso erfüllt).

226

9 Lösungen der Übungsaufgaben

Abb. 9.2 Der „gerichtete“ Abstand s eines Punkts a von einer Ebene mit dem Stützvektor d entspricht der Projektion des Vektors a  d auf die Normalenrichtung der Ebene

L8.3 Ja, das stimmt. Um das zu sehen, ermitteln wir den Abstand eines Punkts a von einer Ebene mit dem Normalenvektor n und dem Stützvektor d: Er entspricht der Projektion des Vektors a  d auf die Richtung von n, siehe Abb. 9.2, d. h., wir haben s D .a  d /

n D .a  d/ n0 jnj

zu berechnen. Die Hesse-Normalenform der Ebene lautet nun aber n0 .x  d/ D n0 x  c0 D 0; sodass sich s tatsächlich „durch Einsetzen von a in die Hesse-Normalenform“ ergibt. Die Projektion s ist positiv, wenn a  d und n0 in dieselbe Richtung zeigen, und andernfalls ist sie negativ. L8.4 Wir verwenden das Vektorprodukt, indem wir die Vektoren um eine dritte Komponente 0 ergänzen: Es ist 0 1 0 1 0 1 4 1 0 @2A @5A D @ 0 A; 0 0 22 gleichbedeutend mit einem Flächeninhalt von 22.

9 Lösungen der Übungsaufgaben

227

L8.5 a) Zur Ermittlung des Durchschnitts wollen wir die Koordinatengleichungen der Ebenen verwenden. Zunächst zur Ebene E1 : Zur Ermittlung eines Normalenvektors bilden wir das Kreuzprodukt 0

1 0 1 0 1 3 3 4 @ 2 A @2A D @6A 1 1 0 und wir verwenden n1 WD .2; 3; 0/. Damit haben wir 0

1 0 1 0 1 0 1 2 x 2 1 @3A @y A D 2x  3y D @3A @ 2 A D 8 0 z 0 1 als Koordinatengleichung. Analog für E2 : 0 1 0 1 0 1 0 4 4 @0A @2A D @8A 2 0 0 und wir wählen n2 WD .1; 2; 0/ und erhalten 0 1 0 1 0 1 0 1 1 x 1 2 @2A @y A D x C 2y D @2A @2A D 2: 0 z 0 0 Der Durchschnitt der beiden Ebenen entspricht der Lösungsmenge des Gleichungssystems 2 3 0 1 2 0

8 2

,

1 2 0 2 3 0

2 8

,

1 2 0 0 1 0

d. h., wir haben y D 4, x D 2y  2 D 10, z 2 R oder mit 0 1 0 1 0 1  10 ˇ   10  0 ˇˇ ˇ ˇ L D @ 4 A ˇ z 2 R D @ 4 A C s @0A ˇˇ s 2 R z 0 1 die Punktrichtungsform der Lösungsgerade. b) Wir berechnen die Projektion s des Vektors 0

1 0 1 0 1 1 2 3 a  d 2 D @ 0 A  @2A D @ 2 A 0 0 0

2 ; 4

228

9 Lösungen der Übungsaufgaben

auf die Richtung von n2 D .1; 2; 0/, 0 1 0 1 1 3 1 @ A @ A 1 sDp 2 2 Dp ; 5 5 0 0 und haben damit den gesuchten Abstand, siehe Abb. 9.2. L8.6 Die Vektoren a  d und r spannen ein Parallelogramm auf, dessen Flächeninhalt F sich als j.a  d/ rj berechnen lässt, siehe Abb. 9.3. Unter einer Scherung geht dieses Parallelogramm über in ein Rechteck mit gleichem Flächeninhalt F D sjrj, dessen Seitenlänge s dem gesuchten Abstand des Punkts a von der Gerade entspricht. Somit ist sD

j.a  d/ rj F D : jrj jrj

L8.7 Wir ermitteln einen Normalenvektor der Ebene E: Es ist 0

1 0 1 0 1 1 2 2 @ A @ A @ b c D 0 2 D 2A 1 0 2 und wir wählen n WD .1; 1; 1/. Die Gerade g ist parallel zur Ebene E, wenn ihr Richtungsvektor d orthogonal zu n ist, und tatsächlich ist d n D 0.

Abb. 9.3 Der Abstand s eines Punkts a von einer Gerade mit dem Stützvektor d und dem Richtungsvektor r entspricht der Höhe des Rechtecks mit der Basis jrj, das denselben Flächeninhalt wie das durch die Vektoren a  d und r aufgespannte Parallelogramm besitzt

9 Lösungen der Übungsaufgaben

229

Für den Abstand betrachten wir einen „Verbindungsvektor“ zwischen Ebene und Gerade, beispielsweise den Vektor 0 1 0 1 0 1 1 2 1 s WD a  c D @1A  @2A D @ 3 A: 0 0 0 Seine Projektion auf die Normalenrichtung n ergibt den gesuchten Abstand: 0 1 0 1 1 1 1 2 n0 s D p @1A @ 3 A D p : 3 3 1 0 L8.8 (I) Falsch. Eine orthogonale Matrix muss normierte Spaltenvektoren besitzen. Die Vektoren einer Orthogonalbasis sind aber i. Allg. nicht normiert. (II) Richtig. Für die 3 3-Matrix B ist  p 3 p det B D det.A= 3 c/ D 1= 3 c det A D .1=c/c D 1: (III) Falsch. Eine Drehmatrix muss orthogonal sein und das ist bei der Matrix B ebenso wie bei A i. Allg. nicht der Fall. Sehen wir uns ein Beispiel an: Die Matrix 0 1 4 0 0 A D @0 1 1A 0 1

1

ist eine Matrix mit wechselseitigporthogonalen Spaltenvektoren. Ihre Determi3 nante ist 8. Die Matrix B D A= 8 D A=2, also die Matrix 0 1 2 0 0 B D @0 1=2 1=2A 0 1=2

1=2

besitzt zwar die Determinante 1, ist aber offenbar weiterhin keine orthogonale Matrix. L8.9 Wir prüfen, ob gilt b2 b3 D b1 (natürlich kann man ebenso b1 b2 D b3 prüfen, aber b2 b3 ist vermutlich leichter zu rechnen als b1 b2 ): Tatsächlich ist 0 1 0 1 0 1 sin  0 cos  b2 b3 D @ cos  cos  A @ sin  A D @ sin  cos  A:  cos  sin  cos  sin  sin  Dabei reicht es aus, nur die erste Komponente des Ergebnisvektors zu ermitteln. Ergibt sich tatsächlich C cos , ist die Orthonormalbasis rechtshändig, ergäbe sich  cos , wäre sie linkshändig.

230

9 Lösungen der Übungsaufgaben

L8.10 (I) Richtig. Eine Drehung um 180ı entspricht einer Punktspiegelung am Ursprung. (II) Falsch. Eine Spiegelung im R3 besitzt die Determinante 1. Jede Umkehrabbildung muss dann ebenso die Determinante 1 besitzen, was mit Drehungen grundsätzlich nicht erreicht werden kann. (III) Richtig. Sofern man von dem trivialen Fall des Drehwinkels 0 absieht, wird jeder Vektor verändert, eben gedreht. (IV) Falsch. Die Vektoren, die auf der Drehachse liegen, bleiben bei einer Drehung unverändert.

Stichwortverzeichnis

A Abbildung affine, 41 bijektive, 41 inverse, 44 lineare, 40 Abgeschlossenheit, 4 Abstand von einer Ebene, 198 von einer Gerade, 198 Additionstheorem, 67 Adjunkte, 119 algebraisches Komplement, 119 Austauschsatz großer, 26 kleiner, 25 von Steinitz, siehe großer Automorphismus, 41

B Basis, 21 kanonische, 24 Basistransformation, 84 für Abbildungen, 92 für Koordinaten, 86 inverse, 87 Betrag, 157 Bildraum, 42 Bilinearfom, 154

C charakteristisches Polynom, 138 Cramer-Regel, 126

D Determinante, 110, 186 einer Matrix, 111 Determinantenform, 106 Diagonalblockmatrix, 123 Diagonalmatrix, 50, 147 Dimension, 27 Drehachse, 51, 136 Drehmatrix, 50, 67, 190 dreidimensionale, 52 höherdimensionale, 53 Drehung, 50, 190 aktive, 90, 101 dreidimensionale, 95 passive, 90, 99 Dreiecksungleichung, 158 Durchschnitt, 9

E Ebene, 177 Hesse-Normalenform, 178 Koordinatenform, 178 Normalenform, 178 Punktrichtungsform, 177 Richtungsvektor, 177 Eigenraum, 140 Eigenvektor, 135 Eigenwert, 135 Einheitsvektor, 24 Einstein-Summenkonvention, 65 elementare Umformungen, 55 Endomorphismus, 41 Entwicklungssatz, 120 Erzeugnis, 14

© Der/die Autor(en), exklusiv lizenziert an Springer-Verlag GmbH, DE, ein Teil von Springer Nature 2023 J. Balla, Lineare Algebra, https://doi.org/10.1007/978-3-662-67667-7

231

232

Stichwortverzeichnis

euklidischer Vektorraum, 154 Euler-Winkel, 99

Linearform, 106 Linearkombination, 14

F Falk-Schema, 66 Funktionenraum, 6

M M ATLAB , 210 Matrix, 46 ähnliche, 93 einer Basistransformation, 84 einer linearen Abbildung, 46 inverse, 68, 128 orthogonale, 191 reguläre, 67, 126 singuläre, 67 transponierte, 75 Matrixdeterminante, 111 Matrizengruppe, 68 Matrizenmultiplikation, 63

G Gauß-Schema, 19, 70 geordnete Menge, 29 Gerade, 179 gewöhnlicher R3 , 173 Gleichungssystem eindeutig lösbar, 73

H Hesse-Normalenform, 178, 198

I Identität, 41, 49 Invarianz der Länge, 190 Invarianz des Rechtsvolumens, 192 inverse Matrix, 68, 128 isomorph, 44 Isomorphismus, 41

K kanonische Basis, 24 Kern, 81, 136 Koordinaten, 29 Koordinatendrehung, 89 Koordinatentransformation, 86 Koordinatenvektor, 30 Kreuzprodukt, 180 Kronecker-Symbol, 163

L Länge, 157, 174 Levi-Civita-Symbol, 182 linear abhängig, 17 linear unabhängig, 17 lineare Abbildung, 40 lineare Gruppe, 62 lineare Operationen, 4 für Matrizen, 60 linearer Raum, 4

N Normalenvektor, 177 n-Tupel, 6 Nullabbildung, 41 Nullraum, 9 Nullstelle, 139 Nullvektor, 2

O obere Dreiecksdeterminante, 117 orthogonal, 161 orthogonale Matrix, 191 Orthogonalsystem, 161 Orthonormalsystem, 161 Ortsvektor, 2

P Paralellogrammregel, 2 Parallelepiped, 184 Permutation, 107 zyklische, 182 Polynome, 25, 28, 32 Produktabbildung, 61 Produktmatrix, 63 Projektion, 174

R Rang einer Abbildung, 43 einer Matrix, 57

Stichwortverzeichnis Rechtsvolumen, 192 reguläre Matrix, 67, 126 Richtungsvektor der Ebene, 177 der Gerade, 179 Rückwärtseinsetzen, 19

S Sarrus-Regel, 115 Schachbrettmuster, 119 Schmidt-Orthonormierungsverfahren, 165 Schwarz-Ungleichung, 158 Selbstabbildung, 41 Signum, 107 singuläre Matrix, 67 Skalar, 3 Skalarprodukt, 154 Spatprodukt, 184 Standardskalarprodukt, 155 Streckung, 41 Stützvektor, 177 symmetrische Gruppe, 108

T Transformationsmatrix, 84 Berechnung, 86

233 Transposition, 74, 107 triviale Darstellung, 17 Tupel, siehe n-Tupel

U Umkehrabbildung, 44 Unterraum, 8 Ursprungsebene, 177

V Vektor Definition, 4 Ortsvektor, 2 Vektorprodukt, 180 Vektorraum, 4 euklidischer, 154 isomorph, 44 reeller, 4 Verkettung, siehe Produktabbildung Vielfachheit, 139

W Winkel zwischen Vektoren, 161, 174

springer-spektrum.de

Jetzt bestellen: link.springer.com/978-3-662-57298-6

springer-spektrum.de

Jetzt bestellen: link.springer.com/978-3-662-64751-6

springer-spektrum.de

Jetzt bestellen: link.springer.com/978-3-662-63585-8