Lineare Algebra: Eine Einführung für Studienanfänger [19. Aufl.] 9783662616444, 9783662616451

Dieses über mehrere Jahrzehnte bewährte und kontinuierlich überarbeitete Lehrbuch eignet sich bestens als Grundlage für

636 49 16MB

German Pages XIII, 422 [433] Year 2020

Report DMCA / Copyright

DOWNLOAD FILE

Polecaj historie

Lineare Algebra: Eine Einführung für Studienanfänger [19. Aufl.]
 9783662616444, 9783662616451

Table of contents :
Front Matter ....Pages I-XIII
Warum Lineare Algebra? (Gerd Fischer, Boris Springborn)....Pages 1-11
Lineare Gleichungssysteme (Gerd Fischer, Boris Springborn)....Pages 13-43
Grundbegriffe (Gerd Fischer, Boris Springborn)....Pages 45-122
Lineare Abbildungen (Gerd Fischer, Boris Springborn)....Pages 123-192
Determinanten (Gerd Fischer, Boris Springborn)....Pages 193-240
Eigenwerte (Gerd Fischer, Boris Springborn)....Pages 241-306
Bilinearformen und Skalarprodukte (Gerd Fischer, Boris Springborn)....Pages 307-370
Dualität und Tensorprodukte (Gerd Fischer, Boris Springborn)....Pages 371-409
Back Matter ....Pages 411-422

Citation preview

Grundkurs Mathematik

Gerd Fischer Boris Springborn

Lineare Algebra Eine Einführung für Studienanfänger 19. Auflage

Grundkurs Mathematik Reihe herausgegeben von Martin Aigner, Berlin, Deutschland Peter Gritzmann, Garching, Deutschland Volker Mehrmann, Berlin, Deutschland Gisbert Wüstholz, Zürich, Schweiz

Die Reihe „Grundkurs Mathematik“ ist die bekannte Lehrbuchreihe im handlichen kleinen Taschenbuch-Format passend zu den mathematischen Grundvorlesungen, vorwiegend im ersten Studienjahr. Die Bücher sind didaktisch gut aufbereitet, kompakt geschrieben und enthalten viele Beispiele und Übungsaufgaben. In der Reihe werden Lehr- und Übungsbücher veröffentlicht, die bei der Klausurvorbereitung unterstützen. Zielgruppe sind Studierende der Mathematik aller Studiengänge, Studierende der Informatik, Naturwissenschaften und Technik, sowie interessierte Schülerinnen und Schüler der Sekundarstufe II. Die Reihe existiert seit 1975 und enthält die klassischen Bestseller von Otto Forster und Gerd Fischer zur Analysis und Linearen Algebra in aktualisierter Neuauflage. Weitere Bände in der Reihe http://www.springer.com/series/12463

Gerd Fischer · Boris Springborn

Lineare Algebra Eine Einführung für Studienanfänger 19., vollständig überarbeitete und ergänzte Auflage

Gerd Fischer Zentrum Mathematik (M10) Technische Universität München Garching, Deutschland

Boris Springborn Institut für Mathematik Technische Universität Berlin Berlin, Deutschland

ISSN 2626-613X ISSN 2626-6148  (electronic) Grundkurs Mathematik ISBN 978-3-662-61644-4 ISBN 978-3-662-61645-1  (eBook) https://doi.org/10.1007/978-3-662-61645-1 Die Deutsche Nationalbibliothek verzeichnet diese Publikation in der Deutschen Nationalbibliografie; detaillierte bibliografische Daten sind im Internet über http://dnb.d-nb.de abrufbar. © Springer-Verlag GmbH Deutschland, ein Teil von Springer Nature 1975, 1976, 1978, 1979, 1980, 1981, 1986, 1985, 1995, 1997, 2000, 2002, 2003, 2005, 2008, 2010, 2014, 2020 Das Werk einschließlich aller seiner Teile ist urheberrechtlich geschützt. Jede Verwertung, die nicht ausdrücklich vom Urheberrechtsgesetz zugelassen ist, bedarf der vorherigen Zustimmung des Verlags. Das gilt insbesondere für Vervielfältigungen, Bearbeitungen, Übersetzungen, Mikroverfilmungen und die Einspeicherung und Verarbeitung in elektronischen Systemen. Die Wiedergabe von allgemein beschreibenden Bezeichnungen, Marken, Unternehmensnamen etc. in diesem Werk bedeutet nicht, dass diese frei durch jedermann benutzt werden dürfen. Die Berechtigung zur Benutzung unterliegt, auch ohne gesonderten Hinweis hierzu, den Regeln des Markenrechts. Die Rechte des jeweiligen Zeicheninhabers sind zu beachten. Der Verlag, die Autoren und die Herausgeber gehen davon aus, dass die Angaben und Informationen in diesem Werk zum Zeitpunkt der Veröffentlichung vollständig und korrekt sind. Weder der Verlag, noch die Autoren oder die Herausgeber übernehmen, ausdrücklich oder implizit, Gewähr für den Inhalt des Werkes, etwaige Fehler oder Äußerungen. Der Verlag bleibt im Hinblick auf geografische Zuordnungen und Gebietsbezeichnungen in veröffentlichten Karten und Institutionsadressen neutral. Springer Spektrum ist ein Imprint der eingetragenen Gesellschaft ­Springer-Verlag GmbH, DE und ist ein Teil von Springer Nature. Die Anschrift der Gesellschaft ist: Heidelberger Platz 3, 14197 Berlin, Germany

We must not accept the old blasphemous nonsense that the ultimate justification of mathematical science is the „glory of the human mind“. Abstraction and generalization are not more vital for mathematics than individuality of phenomena and, before all, not more than inductive intuition. Only the interplay of these forces and their synthesis can keep mathematics alive and prevent its drying out into a dead skeleton. RICHARD COURANT

Vorwort zur 19. Auflage Wir haben die Neuauflage genutzt, um den Text gründlich durchzusehen und zu überarbeiten. Dabei haben wir versucht, die Balance zwischen allgemeiner Theorie und konkreten Anwendungen mit durchgerechneten Beispielen noch zu verstärken. Neben zahlreichen kleineren Verbesserungen hat es folgende größere Veränderungen gegeben: • Kapitel 1 ist gestrafft, die einführenden Beispiele sind besser an das Leitmotiv der Lösung linearer Gleichungssysteme angepasst. • In Kapitel 2 haben wir algebraische Vorbereitungen ergänzt, insbesondere den euklidischen Algorithmus. • Kapitel 3 enthält einen einfachen Beweis für die Gleichheit von Zeilenrang und Spaltenrang, der die Ergebnisse über lineare Gleichungssysteme mit der Dimensionsformel für Kern und Bild kombiniert. • In Kapitel 5 beweisen wir die Jordansche Normalform mit raffinierteren algebraischen Hilfsmitteln. Dabei war es unser Ziel, die Behandlung übersichtlicher und verständlicher zu machen. • In Kapitel 6 haben wir die Themen komplett neu und systematischer angeordnet. Wir hoffen, das bewährte Lehrbuch dadurch kräftig durchgelüftet und an vielen Stellen besser lesbar gemacht zu haben. Zahlreiche weitere Themen werden im Lernbuch Lineare Algebra und Analytische Geometrie des erstgenannten Autors behandelt.

VI

Vorwort zur 19. Auflage

Unser Dank gilt vor allem Ulrike Schmickler-Hirzebruch, die uns lebhaft zur Arbeit an der Neuauflage angespornt hat, sowie Iris Ruhmann für die weitere geduldige Betreuung des relativ aufwändigen Projekts im Verlag, Maja Hermann für ihre engagierte Mitarbeit bei den vielen Änderungen und schließlich Micaela Krieger-Hauwede für die sorgfältige Ausführung der TEX-Arbeiten. Wie immer sind wir dankbar für Hinweise von Leserinnen und Lesern auf Ungenauigkeiten und Fehler jeder Art. München und Berlin, im Mai 2020

Gerd Fischer und Boris Springborn

Vorwort zur 10. Auflage Die erste im Jahr 1975 veröffentlichte Auflage dieses Buches war entstanden aus meiner Vorlesung im Wintersemester 1972/73 an der Universität Regensburg und einer von Richard Schimpl angefertigten Ausarbeitung, die als Band 1 der Reihe „Der Regensburger Trichter“ erschienen war. Es freut mich, dass das Buch in den vergangenen 20 Jahren so viel Anklang gefunden hat. Im Jahr 1994/95 hatte ich an der Universität Düsseldorf wieder einmal Gelegenheit, eine Anfängervorlesung über „Lineare Algebra“ zu halten. Dabei fand ich in dem alten Buch zahllose Dinge, die man wohl besser erklären kann. Dazu kam die Versuchung, die Möglichkeiten von LATEX zu nutzen, was schließlich dazu geführt hat, dass ich fast das ganze Buch neu aufgeschrieben habe. Geblieben ist die Überzeugung, dass am Anfang jeder Theorie Probleme stehen müssen, und dass die entwickelten Methoden danach zu bewerten sind, was sie zur Lösung der Probleme beigetragen haben. Dies deutlich zu machen, ist in der linearen Algebra eine vordringliche Aufgabe, weil hier die axiomatische Methode sehr ausgeprägt ist. Mithilfe eines wohlorganisierten Instrumentariums von Begriffen können Beweise kurz und klar durchgeführt werden, Rechnungen können weitgehend vermieden werden und erhalten – wo sie notwendig sind – eine Interpretation von einem abstrakteren Standpunkt aus. Es hat lange gedauert, bis sich die lineare Algebra von einem Hilfsmittel der sogenannten „analytischen Geometrie“ (das ist die Lehre von den linearen und quadratischen geometrischen Gebilden) zu einer selbständigen Disziplin entwickelt hat. Die größten Veränderungen gab es zu Anfang dieses Jahrhunderts, als die axiomatische Methode durch den Einfluss von D. HILBERT und speziell in der Algebra durch EMMY NOETHER ausgebaut wurde. Das zeigt ganz deutlich ein Blick in Lehrbücher aus dieser Zeit, etwa die „klassische“ Darstellung von KOWALEWSKI [Kow1]* aus dem Jahr 1910 und die 1931 erschienene „moderne“ Version von SCHREIER-SPERNER [S-S]. Dieser Wandel ist vergleichbar mit dem Übergang vom Jugendstil zum Bauhaus. Inzwischen ist die lineare Algebra durchdrungen von einer Ökonomie der Gedanken sowie einer Ästhetik in der Darstellung, und sie ist unentbehrliches Hilfsmittel in vielen anderen Gebieten geworden, etwa der Analysis und der angewandten Mathematik. Dieser eindrucksvolle Fortschritt ist nicht frei von Gefahren. Die Axiomatik beginnt mit den allgemeinsten Situationen und schreitet fort in Richtung zu spezielleren Sachverhalten. Dieser Weg wurde mit letzter Konsequenz in den Werken von N. BOURBAKI beschritten. Er läuft der historischen Entwicklung – die einem „natürlichen Wachstum“ der Mathematik entspricht – jedoch meist entgegen. So 

Eckige Klammern beziehen sich auf das Literaturverzeichnis.

VIII

Vorwort zur 10. Auflage

wurden etwa Determinanten schon von LEIBNIZ urn 1690 benutzt, CAYLEY begann 1850 Matrizen als eigenständige Objekte anzusehen, der allgemeine Begriff des Körpers ist erstmals in dem 1895 bei Vieweg erschienenen „Lehrbuch der Algebra“ von H. WEBER [We] zu finden. Abstrakte Begriffe und ihre Axiome entstehen aus der Entdeckung von Gemeinsamkeiten, sie setzen lange Erfahrung im naiven Umgang und kreative Auseinandersetzung mit den Gegenständen der Mathematik voraus. Eine Darstellung, die mit den Axiomen beginnt, könnte den verhängnisvollen Eindruck erwecken, als seien die aufgestellten Regeln zufällig oder willkürlich. Einer solchen Gefahr entgegenzuwirken, ist das stete Bestreben dieses Buches. Die neue Auflage soll helfen, die abstrakten Begriffe noch mehr zu motivieren und die Beziehungen der linearen Algebra zu ihren Anwendungen deutlicher zu machen. Viele theoretische Überlegungen der linearen Algebra dienen der Rechtfertigung oder der Entwicklung von Rechenverfahren, mit deren Hilfe man schließlich gegebene Probleme durch eine Iteration lösen kann. Dies wird hier in vielen Fällen bis zur Berechnung konkreter Beispiele vorgeführt. In der Praxis lässt man besser einen Computer rechnen, aber die Schwelle zur Beschreibung von Programmen dafür wurde in diesem Buch mit Vorsatz nicht überschritten. Für einen Anfänger erscheint es mir viel wichtiger, zunächst einmal ohne Ablenkung durch Probleme der Programmierung die Struktur des Lösungsweges zu verstehen und mit einfachsten, im Kopf berechenbaren Beispielen die unmittelbare gute Erfahrung zu machen, dass ein Algorithmus funktioniert. Danach kann man getrost die Ausführung der Rechnungen einem fertigen Programmpaket wie Maple oder Mathematica überlassen. Etwa im Rahmen der numerischen Mathematik hat man Gelegenheit, die Rechenverfahren genauer zu studieren und dazu weitere Hilfsmittel der linearen Algebra kennenzulernen (vgl. etwa [St2]). Dieses Buch ist entstanden aus Vorlesungen für Studienanfänger in den Fächern Mathematik, Physik und Informatik; an Vorkenntnissen ist nur das sogenannte „Schulwissen“ (etwa im Umfang von [Sch]) nötig. Es enthält insgesamt genügend viel Material für zwei Semester, dabei gibt es zahlreiche Möglichkeiten für Auswahl und Reihenfolge. Der Text ist meist nach den Regeln der Logik angeordnet, in einer Vorlesung kann es gute Gründe geben, davon abzuweichen. Einige Abschnitte sind durch einen Stern  markiert, als Anregung, sie beim ersten Durchgang zu überspringen und später (etwa im zweiten Semester) darauf zurückzukommen. Die Anwendungen der linearen Algebra auf affine und projektive Geometrie sowie die lineare Optimierung sind in einem eigenen Band [Fi2] enthalten, auch damit kann man den vorliegenden Text nach Belieben mischen. Um Mathematik zu verstehen, genügt es nicht, ein Buch zu lesen oder eine Vorlesung zu hören, man muss selbst an Problemen arbeiten. Als Anregung da-

Vorwort zur 10. Auflage

IX

zu dienen die zahlreichen Aufgaben. Die dort eingestreuten Sterne sind nicht als Warnung, sondern als besonderer Ansporn zu verstehen. Der durch diese Neuauflage abgelöste Text war durch zahllose Hinweise von Lesern fast restlos von Druckfehlern befreit worden. Nun gibt es sicher wieder reichlich Nachschub, ich möchte auch die neuen Leser ermuntern, mir „Ansichtskarten“ zu schreiben. Mein Dank gilt all denen, die bei der Neubearbeitung beteiligt waren: In erster Linie Hannes Stoppel, durch dessen Begeisterung, Bücher zu LATEX-en, ich in dieses Projekt geschlittert bin, Martin Gräf, der mit viel Sorgfalt die Übungsaufgaben zusammengestellt hat, Carsten Töller, dem einfallsreichen Meister der Bilder und dem Verlag für seine stetige Unterstützung. Düsseldorf, im September 1995

Gerd Fischer

X

Vorwort zur 10. Auflage

Diese Blume der Linearen Algebra wurde entworfen von Bettina Meserle, Claudia Jochum und Jonathan Zinsl.

Inhaltsverzeichnis Warum Lineare Algebra?

1

1

Lineare Gleichungssysteme 1.1 Der reelle n-dimensionale Raum . . . . . . . . . . . . . . . . . . . . . . . . . . . 1.2 Geraden in der Ebene . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 1.3 Ebenen und Geraden im Standardraum R3 . . . . . . . . . . . . . . . . . . . 1.4 Das Eliminationsverfahren von GAuss . . . . . . . . . . . . . . . . . . . . . .

13 13 16 22 30

2

Grundbegriffe 2.1 Mengen und Abbildungen . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 2.2 Gruppen . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 2.3 Ringe, Körper und Polynome . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 2.4 Vektorräume . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 2.5 Basis und Dimension . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 2.6 Summen von Vektorräumen . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .

45 45 56 68 94 105 117

3

Lineare Abbildungen 3.1 Beispiele und Definitionen . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 3.2 Bild, Fasern und Kern, Quotientenvektorräume . . . . . . . . . . . . . 3.3 Lineare Gleichungssysteme und der Rang einer Matrix . . . . . . . . 3.4 Lineare Abbildungen und Matrizen . . . . . . . . . . . . . . . . . . . . . . . . . 3.5 Multiplikation von Matrizen . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 3.6 Basiswechsel . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 3.7 Elementarmatrizen und Matrizenumformungen . . . . . . . . . . . . . . .

123 123 131 146 155 161 172 182

4

Determinanten 4.1 Beispiele und Definitionen . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 4.2 Existenz und Eindeutigkeit . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 4.3 Minoren . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 4.4 Determinante eines Endomorphismus und Orientierung . . . . . .

193 193 205 220 231

5

Eigenwerte 5.1 Beispiele und Definitionen . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 5.2 Das charakteristische Polynom . . . . . . . . . . . . . . . . . . . . . . . . . . . . 5.3 Diagonalisierung . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 5.4 Trigonalisierung . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 5.5 Die Jordansche Normalform, Formulierung des Satzes und Anwendungen . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .

241 241 248 254 262 270

XI

XII

Inhaltsverzeichnis

5.6 5.7

Polynome von Endomorphismen . . . . . . . . . . . . . . . . . . . . . . . . . 281 Die Jordansche Normalform, Beweis . . . . . . . . . . . . . . . . . . . . . . 293

6

Bilinearformen und Skalarprodukte 6.1 Das kanonische Skalarprodukt im Rn . . . . . . . . . . . . . . . . . . . . . . . 6.2 Das Vektorprodukt im R3 . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 6.3 Das kanonische Skalarprodukt im Cn . . . . . . . . . . . . . . . . . . . . . . . 6.4 Bilinearformen und quadratische Formen . . . . . . . . . . . . . . . . . . . . 6.5 Skalarprodukte . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 6.6 Orthogonale und unitäre Endomorphismen . . . . . . . . . . . . . . . . . . 6.7 Selbstadjungierte und normale Endomorphismen . . . . . . . . . . . . .

307 307 315 319 321 337 350 360

7

Dualität und Tensorprodukte 7.1 Dualräume . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 7.2 Dualität und Skalarprodukte . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 7.3 Tensorprodukte . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 7.4 Multilineare Algebra . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .

371 371 380 388 404

Literaturverzeichnis

411

Namensverzeichnis

413

Index

415

Symbolverzeichnis

421

Ihre Lösung bei d-fine Mathematiker, Physiker und Informatiker im Consulting (m/w/d) Starten Sie Ihre Karriere bei d-fine. Entscheiden Sie, ob Sie die klassische, internationale Beraterlaufbahn („Blue“) mit flexibler Wohnortwahl oder die regionale Karriere als Analyst („Orange“) im Rhein-Main-Gebiet oder Rhein land einschlagen. Wir freuen uns auf Ihre Bewerbung unter www.d-fine.com/karriere

www.d-fine.com

Berlin, Düsseldorf, Frankfurt, London, München, Wien, Zürich

Warum Lineare Algebra? (von Günter M. Ziegler und Gerd Fischer)

Was ist Lineare Algebra? Die Lineare Algebra gehört neben der reellen Analysis zum Curriculum für Studierende der Mathematik und anderer Fächer, die mathematische Methoden intensiv benutzen. Das liegt daran, dass sie zu den Grundpfeilern der Mathematik zählt, auf denen alles andere aufbaut. Zu den darüberliegenden Gebäudeteilen der Mathematik gehören beispielsweise Algebra, Differentialgleichungen, Numerik, Differentialgeometrie, Funktionalanalysis usw. Die Beziehungen und Verbindungen zwischen all diesen Gebieten sind vielfältig und schwer schematisch zu skizzieren. Aber Konsens besteht, dass Lineare Algebra zur unverzichtbaren Basis gehört. Sie ist entstanden aus der Aufgabe, lineare Gleichungssysteme zu lösen, und solche Aufgaben treten in allen Gebieten der Mathematik und ihren Anwendungen immer wieder auf. Wie schon in der Einleitung erwähnt wurde, hat es lange gedauert, bis die Lineare Algebra als eigenständiges Gebiet in die Lehrpläne aufgenommen wurde. Lange Zeit wurde sie vorwiegend als technisches Hilfsmittel der Geometrie angesehen, zur Beschreibung von linearen Gebilden wie Geraden und Ebenen sowie Kegelschnitten. Eine der ersten zusammenfassenden, aber wenig beachteten Darstellungen war die 1844 in Leipzig erschienene „Ausdehnungslehre“ von H. GRASSMANN. Erst in der Göttinger Schule wurden die abstrakten Hintergründe konsequent herausgearbeitet und Vektorräume als die wesentlichen Objekte der Untersuchung eingeführt. Neben dem Buch von SCHREIER und SPERNER [S-S] ist hierzu auch die 1931 erstmals erschienene „Moderne Algebra“ von B. L. VAN DER WAERDEN [Wa] hervorzuheben. Bis in die 50er Jahre des vorigen Jahrhunderts hatten die entsprechenden Anfängervorlesungen meist noch den Titel „Analytische Geometrie“, erst danach wurde die Geometrie als eine von mehreren möglichen Anwendungen in den Hintergrund gedrängt. Sorgfältige historische Hinweise zu dieser langen Entwicklung findet man bei BRIESKORN [Br]. Seither wird in der Ausbildung in Linearer Algebra neben der Beschäftigung mit linearen Gleichungssystemen auch der Umgang mit abstrakten mathematischen Strukturen, wie Gruppen, Ringen, Körpern, Vektorräumen usw. geübt. Dabei muss man zunächst die mathematische Sprache lernen, d. h. präzise Formulierungen finden, mit denen Strukturen definiert sind, sowie korrekte Behauptungen darüber aufstellen und stichhaltige Begründungen dafür erarbeiten. Die Anschauung kann dabei helfen, Beweise zu finden; aber dann beginnt die Knochenarbeit, sie präzise aufzuschreiben. Das ist erfahrungsgemäß die größte Hürde für Studienanfänger.

© Springer-Verlag GmbH Deutschland, ein Teil von Springer Nature 2020 G. Fischer und B. Springborn, Lineare Algebra, Grundkurs Mathematik, https://doi.org/10.1007/978-3-662-61645-1_1

2

Warum Lineare Algebra?

Anwendungen der Linearen Algebra Man sollte sich nicht der Illusion hingeben, dass ein einzelnes mathematisches Teilgebiet, wie die Lineare Algebra, die Hilfsmittel zur Lösung großer praktischer Probleme liefern könnte. Wenn Mathematik in die Praxis geht, dann gehen da immer verschiedene mathematische Teilgebiete gemeinsam. Aber trotzdem: Es gibt sehr markante Beispiele für Anwendungen der Linearen Algebra – ein paar wollen wir im Folgenden beschreiben. 1 Statik von Gerüsten. Das Problem, Bauwerke und andere Konstruktionen auszuführen, die stabil sind, ist alt und bei weitem nicht trivial. Betrachten wir etwa ein Gerüst, d. h. ein Gebilde, das aus Streben und Knoten besteht (in der Baustatik spricht man von einem Fachwerk). Soll es stabil gebaut werden, so muss man wissen, welche Kräfte auf die Bauteile wirken. Grundlegende Untersuchungen dazu hat u. a. J. C. MAXWELL (1831–1879) geleistet, den man vor allem wegen seiner Beiträge zur Elektrodynamik kennt; dann aber auch C. CULMANN, von dem 1866 das Buch „Die Graphische Statik“ erschien. Die Methode benutzt Lineare Algebra, sein Schüler M. KOECHLIN hat als Ingenieur die Statik des Eiffelturms gerechnet, der seit der Weltausstellung 1889 noch heute steht. Wir wollen die Methode in ihrer graphischen und ihrer rechnerischen Form an einem ganz einfachen, aber doch charakteristischen Beispiel illustrieren. Zur Vereinfachung betrachten wir ein ebenes Problem, nämlich die Aufhängung eines Gewichtes (etwa einer Lampe) an einer Mauer mithilfe eines Gestänges in Form eines rechtwinkligen Dreiecks. Die Stangen und ihre Befestigungen müssen so ausgelegt sein, dass sie den entstehenden Zug- und Druckkräften standhalten. Zunächst wirkt im Punkt 1 eine Kraft K senkrecht nach unten, sie soll groß sein im Vergleich zum Gewicht der Stangen.

1 Statik von Gerüsten

3

Kräfte addieren sich wie Vektoren, im Punkt 1 ist K = K1 die Summe von K2 und K3 ; K2 verursacht einen Zug in Richtung 2 , K3 einen Druck in Richtung 3 . Graphisch kann man K2 und K3 durch eine Parallelogrammkonstruktion ermitteln.

Im Punkt 2 zerfällt die Zugkraft K4 = K2 in K5 = K3 und K6 = K1 , im Punkt 3 ist die Druckkraft K7 = K3 . Der gesamte Fluss von Kräften und Gegenkräften sieht dann so aus:

Gleichgewicht bedeutet, dass in jedem Befestigungspunkt die Summe aller angreifenden Kräfte verschwindet; rechnerisch ergibt sich daraus ein System von linearen Gleichungen. Dazu beschreibt man jede der beteiligten Kräfte Ki als Vektor Ki = (xi ; yi ; zi ) mit reellen Komponenten xi ; yi ; zi . Im obigen ebenen Beispiel sind die zi = 0, das Gleichgewicht im Punkt 1 ergibt folgende Bedingungen: K1 ist vorgegeben, etwa K1 = (0; 1), das bedeutet x1 = 0

und

y1 =

1:

ı

Aus der Geometrie des Dreiecks und tan(15 )  0:268 folgt 0:268x3 + y2 = 0

und

y3 = 0:

Schließlich ergibt die Gleichgewichtsbedingung K1 x1

x2

x3 = 0

und y1

y2

K2

K3 = 0, dass

y3 = 0:

4

Warum Lineare Algebra?

Das sind genau 6 lineare Gleichungen für die 6 Komponenten der drei Kräfte, die Lösung ist K1 = (0; 1); K2 = ( 3:732; 1); K3 = (3:732; 0): Daraus ergeben sich einfach die Kräfte in den Punkten 2 und 3 . Wie man sieht, ist die Zugkraft auf die Befestigung im Punkt 2 fast viermal so groß wie das angehängte Gewicht. In komplizierteren Fällen sind die Gleichungssysteme zu den einzelnen Punkten stärker gekoppelt, man kann sie dann nur gemeinsam lösen. Hat man n Punkte und in jedem Punkt drei räumliche Kräfte, so ergibt das insgesamt 9n zu bestimmende Koordinaten. Wie groß n sein kann, sieht man nicht nur am Eiffelturm, sondern schon an jedem Baukran. Neben den statischen Kräften gibt es aber auch dynamische Effekte, da durch elastische Verformungen Schwingungen ausgelöst werden können. So wird berichtet, dass im Jahr 1850 eine Brücke über den Fluss Maine bei Angers einstürzte, während Soldaten im Gleichschritt darüber marschierten. Seither ist dem Militär verboten, Brücken auf diese Art zu überqueren. Ein aktuelleres Beispiel ist die von SIR NORMAN FOSTER und Partnern entworfene Millenium Bridge über die Themse in London, eine Fußgängerbrücke, die St. Paul’s Cathedral mit der Tate Modern Gallery verbindet. Sie ist konzipiert als „blade of light“, die Tragseile zwischen den 144 m entfernten Pylonen haben einen Durchhang von nur 2.3 m; das Ingenieurbüro ARUP berechnete die diffizile Statik. Nach der Einweihung durch Königin ELISABETH II wurde die Brücke am 10. Juni

2 Linearisierung

5

2000 eröffnet – am 12. Juni 2000 musste sie wieder geschlossen werden, da sie bedrohlich zu wackeln anfing; seither heißt sie „the wobbly bridge“. Nach vielen Experimenten und Rechnungen von ARUP wurde die Ursache gefunden: Die Statik war in Ordnung, aber es entstanden seitliche Schwingungen, die durch die Reaktionen der Fußgänger noch verstärkt wurden: Durch Resonanz schaukelten sich die Schwingungen gefährlich auf. Der Umbau und Einbau von Schwingungsdämpfern kostete 5 Millionen Pfund. Im Februar 2002 wurde das Ergebnis mit bis zu 20 000 Freiwilligen getestet und für gut befunden. Seither ist die Brücke wieder geöffnet.

Was hat das mit Linearer Algebra zu tun? Schwingungen und ihre Dämpfung hängen mit Matrizen und ihren Eigenwerten zusammen. 2 Linearisierung. In der Praxis gibt es kaum eine strikt lineare Beziehung zwischen zwei Größen; selbst für Preise wird bei Abnahme größerer Mengen ein Nachlass gewährt. Aber die Tangente an eine Funktion gibt in einem begrenzten Bereich wenigstens eine brauchbare Näherung. Dieses Prinzip der Analysis heißt lineare Approximation, hier helfen die Methoden der Linearen Algebra. Man kann es ausbauen und eine gegebene oder gesuchte differenzierbare Funktion in ihrem gesamten Definitionsbereich durch eine stückweise lineare Funktion approximieren, etwa bei der Lösung von Differentialgleichungen durch Diskretisierung und stückweise Linearisierung. Als einfaches Beispiel sei die Berechnung einer Wärmeverteilung in der Ebene angegeben. Bezeichnet f (x; y) die Temperatur im Punkt (x; y), so erfüllt die Funktion f bei Temperaturgleichgewicht die partielle Differentialgleichung zweiten Grades  2  @ @2 + f (x; y) = 0; @x 2 @y 2

6

Warum Lineare Algebra?

man nennt sie Laplace-Gleichung, die Lösungen heißen harmonisch. Wir nehmen an, dass die Temperaturverteilung am Rand eines Quadrats vorgegeben ist und unverändert bleibt. Eine übliche Grundlage für die approximative numerische Berechnung der Lösung f ist eine Diskretisierung: Man überzieht den quadratischen Bereich mit einem genügend feinen quadratischen Gitter von Messpunkten (xi ; yj ). Ersetzt man in der Laplace-Gleichung Differentialquotienten durch Differenzenquotienten und schafft man die Nenner weg, so ergibt sich an der Stelle (xi ; yj ) die Bedingung (f (xi+1 ; yj )

f (xi ; yj ))

+ (f (xi ; yj +1 )

(f (xi ; yj )

f (xi ; yj ))

f (xi

(f (xi ; yj )

1 ; yj ))

f (xi ; yj

1 ))

= 0;

das ist gleichbedeutend mit f (xi ; yj ) =

1 (f (xi +1 ; yj ) + f (xi 4

1 ; yj )

+ f (xi ; yj +1 ) + f (xi ; yj

1 )):

()

Physikalisch bedeutet diese Bedingung, dass die Temperatur an jeder Stelle (xi ; yj ) im Inneren gleich dem Mittelwert der Temperaturen an den vier nächstgelegenen Gitterpunkten ist. Insgesamt erhält man mithilfe von () für die Temperaturen f (xi ; yj ) so viele lineare Gleichungen wie man Gitterpunkte hat; dieses Gleichungssystem ist zu lösen. Als Beispiel wählen wir ein relativ grobmaschiges Gitter, mit folgenden Werten von f auf den relevanten Gitterpunkten am Rand:

2 Linearisierung

7

Für die vier gesuchten Werte fij := f (xi ; yj )

mit 1  i; j  2

erhält man daraus die linearen Gleichungen 4f11 f12 f21 f11 + 4f12 f22 f11 + 4f21 f22 f12 f21 + 4f22

= 3 = 10 = 2 = 4

mit den Lösungen f11 =

49 24

 2:042; f12 =

43 12

 3:583; f21 =

19 12

 1:583; f22 =

55 24

 2:292:

Das entstehende stückweise lineare „harmonische“ Funktionsgebirge sieht so aus:

8

Warum Lineare Algebra?

3 Der Page Rank bei Google. Ein aktuelleres Beispiel für eine Anwendung der Linearen Algebra ist die Internet-Suchmaschine Google, die in ihrer ursprünglichen Form in den 90er Jahren von den beiden Studenten S. BRIN und L. PAGE entwickelt und 2001 patentiert wurde. Wichtiger Bestandteil ist eine Methode für die Anordnung der Suchergebnisse im Browser, Grundlage dafür ist der „PageRank“ p(S) für jede Website S . Er ist ein Maß dafür, wie stark die Seite mit anderen vernetzt ist, sagt allerdings nichts über die Qualität des Inhalts der Seite aus. Die Definition des PageRank kann wie folgt motiviert werden. Man stellt sich einen Surfer vor, der einen Weg auf den vorhandenen Seiten S1 ; : : : ; SN des Internets zurücklegt. Er beginnt auf einer zufällig ausgewählten Seite und folgt in der Regel einem der angegebenen Links. Da er aber entmutigt werden kann (etwa weil die Links nicht mehr weiterhelfen), darf er gelegentlich auch einmal auf eine beliebige andere Seite springen. Um das zu präzisieren wird zunächst ein Damping Faktor d mit 0  d  1 festgesetzt (meist wird d = 0:85 gewählt). Er hat folgenden Einfluss: Auf irgendeiner Seite angekommen, folgt der Surfer mit der Wahrscheinlichkeit d einem zufällig ausgewählten Link, mit der Wahrscheinlichkeit 1 d springt er vom Zufall gesteuert auf eine beliebige andere Seite des Netzes. Der PageRank p(S) ist nun erklärt als die Wahrscheinlichkeit dafür, dass sich der Surfer auf einem sehr langen Weg zu einem zufällig gewählten Zeitpunkt auf der Seite S befindet. Da N sehr groß ist, wird p(S) eine sehr kleine Zahl sein, auf jeden Fall gilt 0  p(S )  1: Nach den elementaren Regeln für eine Wahrscheinlichkeitsverteilung ist p(S1 ) + : : : + p(SN ) = 1: Die Wahrscheinlichkeitsrechnung ergibt nun eine Beziehung zwischen den verschiedenen PageRanks. Dazu betrachtet man für eine Seite S alle Seiten, die einen Link auf S enthalten, wir bezeichnen sie mit T1 ; : : : ; Tn , wobei 0  n  N 1. Bezeichnet ci die Anzahl der Links, die von Ti ausgehen, so gilt   p(T1 ) p(Tn ) 1 d p(S ) = d  + ::: + + : c1 cn N Damit könnte man p(S ) nur ausrechnen, wenn die Werte p(Ti ) schon bekannt wären. Aber immerhin erhält man auf diese Weise ein System von N linearen Gleichungen für die N gesuchten Zahlen p(S1 ); : : : ; p(SN ). Nach der Theorie kann man ein solches Gleichungssystem lösen, aber in der Praxis benötigt man bei großem N sehr gute und schnelle numerische Verfahren. In der Gründerzeit des Internets rechnete man noch mit etwa 20 Millionen Seiten,

3 Der Page Rank bei Google

9

inzwischen ist die Gesamtzahl N unüberschaubar geworden. Daher kann der PageRank nur noch für ausgewählte Seiten berechnet werden. Mehr dazu findet man bei [La-M]. Um das Prinzip erläutern zu können, geben wir ein ganz einfaches Beispiel mit N = 3, das schematisch so aussieht:

Wie man daran erkennt, ist c1 = 2

und

c2 = c3 = 1:

Also lauten die drei Gleichungen für pi = p(Si ) mit b := 13 (1 p1 d 2

p1 +

d 2

p1

d ):

dp3 = b p2 dp2 +

= b p3 = b

Für d = 0:85 erhält man die Lösungen p1  0:388; p2  0:215; p3  0:397: Da S2 weniger verlinkt ist als S1 und S3 , ist p2 nur etwa halb so groß wie p1 und p3 . Bei kleinerem d haben die Links weniger Einfluss. Etwa für d = 0:1 wird p1  0:335; p2  0:317; p3  0:348; da sind die PageRanks schon beinahe gleichverteilt. Einen Ersatz für das Gleichungssysten erhält man mithilfe der Linking Matrix L = (lij ). Bezeichnet cj für 1  j  N die Anzahl der Links, die von Sj ausgehen, so ist ( d ; falls i ¤ j und es einen Link von Sj auf Si gibt; lij := cj 0 sonst. Im besonders einfachen Extremfall d = 1 ist dann (p(S1 ); :::; p(SN )) ein Eigenvektor zum Eigenwert 1. Zur Lösung solcher Probleme gibt es sehr schnelle numerische Verfahren.

10

Warum Lineare Algebra?

In unserem obigen Beispiel mit N = 3 ist 0 1 0 0 1 L = @ 12 0 0 A und A := E3 1 1 0 2

0 L=@

1 1 2 1 2

1 0 1 1 0 A: 1 1

Dabei ist (p1 ; p2 ; p3 ) = (0:4; 0:2; 0:4) ein Eigenvektor von L zum Eigenwert 1 und eine Lösung des Gleichungssystems A  x = 0, jeweils mit p1 + p2 + p3 = 1 (vgl. auch Aufgabe 6 zu 5.2). 4 Der Satz vom Politiker. Eine ganz andersartige Fragestellung betrifft Graphen, das sind Konfigurationen, die aus Punkten und Verbindungsgeraden (oder Ecken und Kanten) bestehen. Ein Beispiel ist der Windmühlengraph.

Er hat eine zentrale Ecke und eine gerade Zahl von Ecken am Rand, kann also für jede ungerade Zahl von Ecken konstruiert werden. Interpretiert man die Punkte als Personen und die Kanten als gegenseitige Freundschaften, so stehen am Rand befreundete Paare, und jeder ist mit der Person in der Mitte befreundet. Eine solche Person, die mit jedem befreundet ist, wird als Politiker bezeichnet, seine „Freundschaften“ sind berufsspezifisch. In dieser Interpretation hat der Windmühlengraph dann folgende Eigenschaft: Je zwei beliebige P ersone n habe n immer genau ei ne n ge mei nsame n Freund

()

Der Satz vom Politiker sagt nun aus, dass Bedingung () für n Personen nur dann erfüllt sein kann, wenn n ungerade ist und es einen Politiker gibt. Außerdem muss der entsprechende Graph ein Windmühlengraph sein. Für diesen Satz gibt es elementare Beweise. Aber der klarste und überzeugendste wurde von P. ERDÖS, A. RENYI und V. SÓS mithilfe von Linearer Algebra, genauer

Fazit

11

Eigenwerten symmetrischer Matrizen, gegeben; das findet man bei [A-Z, Kap. 34]. Der Schlüssel dazu ist die Adjazenzmatrix A des Graphen: Sind die Personen mit 1; : : : ; n nummeriert, so sind die Einträge von A gegeben durch  1; wenn i ¤ j und i mit j befreundet; aij := 0 sonst:

Fazit Unsere kleine Liste von Beispielen für Fragen, hinter denen Lineare Algebra steckt, könnte man beliebig erweitern. Etwa in [A-B] kann man nachlesen, was in einer CD versteckt ist, in [A-Z, Kap. 15] findet man Ergebnisse zur berühmten BorsukVermutung über die Zerlegung von Teilmengen des Rn mit beschränktem Durchmesser. Viele weitere Anwendungen findet man bei G. STRANG [St1, St2]. Um eine mathematische Theorie sachgemäß anwenden zu können, muss man sie zunächst sorgfältig studieren und genügend verstehen; das gilt auch für die Lineare Algebra. Daneben kann die Mathematik durch ihren klaren Aufbau und die Schönheit ihrer Strukturen begeistern; das zeigt sich zu Beginn des Studiums besonders in der Linearen Algebra, für die der Leser nun hoffentlich nachhaltig motiviert ist.

Kapitel 1 Lineare Gleichungssysteme Dieses Kapitel dient der Motivation und Vorbereitung der in Kapitel 2 beginnenden systematischen Darstellung. Wir haben dafür das wichtigste Problem der elementaren linearen Algebra gewählt, nämlich lineare Gleichungssysteme. Dabei kann man sehr schön die wesentlichen Aspekte vorführen: den geometrischen Hintergrund und die algorithmische Methode. Was auf die späteren Kapitel verschoben wird, sind einige Beweise mithilfe der üblichen theoretischen Hilfsmittel. Wer mit den verwendeten Notationen von Mengen und Abbildungen nicht vertraut ist, kann bei Bedarf in 2.1 nachsehen.

1.1 Der reelle n-dimensionale Raum Ein großer Fortschritt in der Geometrie gelang durch Einführung von Koordinaten, die man zur Erinnerung an R. DESCARTES auch kartesische Koordinaten nennt. Dadurch kann man Punkte in den Räumen der Geometrie beschreiben durch Systeme von Zahlen, und mit den Zahlen kann man rechnen. Diese Methode zur Behandlung geometrischer Fragen nennt man analytische Geometrie. Die elementarsten Begriffe hierzu seien kurz erklärt. 1.1.1. Wir gehen aus von den reellen Zahlen, deren Gesamtheit wir mit R bezeichnen. Ihre Einführung ist Gegenstand der Analysis, in der Geometrie dienen sie als Zahlengerade, und diese Zahlen kann man nach den üblichen Regeln addieren und multiplizieren. Punkte der Ebene sind festgelegt durch Paare, Punkte des gewöhnlichen Raums durch Tripel von reellen Zahlen. Für die Theorie macht es keine Probleme, gleich n-Tupel zu betrachten, wobei n eine beliebige natürliche Zahl ist. Damit erhält man den reellen Standardraum der Dimension n Rn = fx = (x1 ; : : : ; xn )W x1 ; : : : ; xn 2 Rg; d. h. die Menge der geordneten n-Tupel von reellen Zahlen. Geordnet heißt, dass die Reihenfolge wichtig ist, d. h. zwei n-Tupel (x1 ; : : : ; xn ) und (y1 ; : : : ; yn ) sind genau dann gleich, wenn x1 = y1 ; : : : ; xn = yn . Die Zahlen x1 ; : : : ; xn heißen Komponenten von x. R1 ist die Zahlengerade, R2 entspricht der Ebene und R3 dem „Raum“. Für größere n hat man zunächst keine unmittelbare geometrische Vorstellung mehr, dafür aber eine ganz andere und sehr realistische Interpretation. Hat etwa eine Bank n Kunden, so kann man deren Kontostände zu einem bestimmten Zeitpunkt mit

© Springer-Verlag GmbH Deutschland, ein Teil von Springer Nature 2020 G. Fischer und B. Springborn, Lineare Algebra, Grundkurs Mathematik, https://doi.org/10.1007/978-3-662-61645-1_2

14

1 Lineare Gleichungssysteme

x1 ; : : : ; xn bezeichnen, alle zusammen (und geordnet!) ergeben einen Punkt x = (x1 ; : : : ; xn ) 2 Rn : Die Entwicklung der Kontostände im Laufe der Zeit wird dann durch eine „Kurve“ im Rn beschrieben, ihre Beschreibung geht schon über den Rahmen der linearen Algebra hinaus. Eine lineare Operation ist etwa die Berechnung der augenblicklichen Bilanz. Haben die Einlagen neben dem Nennwert xi einen Börsenkurs ai , so ist das bewertete Kapital gegeben durch a1 x1 + : : : + an xn = b; ein typischer Fall für eine lineare Gleichung. Der Fall n = 0 erscheint zunächst sinnlos, denn in einem „0-Tupel“ ist kein Eintrag möglich. Aber aus der Sicht der Geometrie kommen vor Geraden und Ebenen die Punkte. Somit ist es angemessen R0 = f0g zu setzen, das ist die Menge, die nur aus einem Punkt, dem „Ursprung“ 0, besteht. Aus der Sicht einer Bank hat sie noch keinen Kunden, also kann auch kein Kontostand eingetragen werden. In der Praxis hat man mehrere Bedingungen, und diese sind meist nicht durch Gleichungen, sondern durch Ungleichungen gegeben, von der Art, dass für die obige Summe Begrenzungen vorgegeben sind. Und das Problem besteht darin, einen „Gewinn“ zu optimieren. Zur Lösung solcher Aufgaben in der linearen Optimierung (vgl. etwa [Fi2]) benötigt man genügende Kenntnisse über lineare Gleichungen, was vielleicht auch einen gewinnorientierten Leser eine Zeit lang bei der Stange halten kann. 1.1.2. In der linearen Algebra muss man mit n-Tupeln rechnen. Die grundlegenden Operationen sind eine Addition (x1 ; : : : ; xn ) + (y1 ; : : : ; yn ) := (x1 + y1 ; : : : ; xn + yn ) und eine Multiplikation mit einer Zahl  2 R   (x1 ; : : : ; xn ) := (  x1 ; : : : ;   xn ): Man kann diese Operationen geometrisch deuten, indem man sich die n-Tupel anschaulich als Pfeile vorstellt, die vom Ursprung 0 = (0; : : : ; 0) ausgehen und ihre Spitze im Punkt x = (x1 ; : : : ; xn ) haben. Die Summe von zwei n-Tupeln ist dann der Punkt, auf den der zweite Pfeil zeigt, wenn man ihn so verschiebt, dass sein Anfang bei der Spitze des ersten Pfeils liegt. Bei der Multiplikation mit einer Zahl  ändert sich die Richtung des Pfeils nicht, aber seine Länge wird mit  multipliziert.

1.1 Der reelle n-dimensionale Raum

15

Bild 1.1

Der Ursprung selbst heißt auch Nullvektor, wenn man ihn addiert, hat das keine Wirkung. Multipliziert man mit  = 0, so wird jedes x zum Nullvektor. Das Negative von x ist gegeben durch x := ( x1 ; : : : ; xn ); es gilt x + ( x) = 0. Statt x + ( y) schreibt man kürzer x

x1 x

y.

x

x2 x2

x1

Bild 1.2

Nach diesen wenigen Formalitäten können wir nun die einfachsten Beispiele von linearen Gleichungen behandeln. Um die geometrische Anschauung dabei zu benutzen, betrachten wir zunächst ausführlich die Fälle n = 2 und n = 3.

16

1 Lineare Gleichungssysteme

1.2 Geraden in der Ebene 1.2.1. Durch zwei verschiedene Punkte geht genau eine Gerade, das ist eine der elementarsten Tatsachen der Geometrie. Mithilfe von Vektoren kann man das – zunächst in der Ebene R2 – so beschreiben: Sind v; v 0 2 R2 die beiden verschiedenen Punkte, so wählen wir w := v 0 v. Die Punkte auf der Gerade L durch v und v 0 erhält man dann mithilfe eines Parameters  2 R als L = fx 2 R2 W es gibt eine Zahl  2 R mit x = v + wg =: v + Rw: x2

L

v0

w

v x1 Bild 1.3

Wir können Geraden in der Ebene also so definieren Definition. Eine Teilmenge L  R2 heißt Gerade, wenn es v; w 2 R2 mit w ¤ 0 gibt derart, dass L = v + Rw: Eine so entstandene Abbildung Φ : R ! L;

 7! v + w

wird Parametrisierung von L genannt. Dabei sind v und w nicht eindeutig bestimmt (Aufgabe 1 zu 1.2). Offensichtlich geht L genau dann durch 0, wenn 0 = v + w für ein  2 R, d. h. wenn v ein Vielfaches von w ist. In diesem Fall kann man auch v = 0 wählen. In der Ebene gibt es noch eine andersartige Beschreibung von Geraden: Satz. Eine Teilmenge L  R2 ist genau dann eine Gerade, wenn es a1 ; a2 ; b 2 R mit (a1 ; a2 ) ¤ (0; 0) gibt, sodass L = f(x1 ; x2 ) 2 R2 : a1 x1 + a2 x2 = bg: Dabei sind a1 ; a2 ; b nicht eindeutig bestimmt (Aufgabe 2 zu 1.2).

1.2 Geraden in der Ebene

17

Beweis. Ist L durch die lineare Gleichung a1 x1 + a2 x2 = b gegeben, so müssen wir daraus eine Parametrisierung konstruieren. Es ist ausreichend den Fall a1 ¤ 0 zu behandeln. Denn wenn a1 = 0 ist, dann ist nach Voraussetzung a2 ¤ 0, und dieser Fall geht analog. Setzt man dann x2 = 0, so ergibt sich ein erster Punkt   b v := ; 0 2 L; a1 und wählt man allgemeiner x2 =  als Parameter, so folgt aus der linearen Gleichung, dass für alle  2 R   b a2 ;  2 L: a1 a1 Das ergibt mit w := (

a2 ; 1) a1

die Parametrisierung

Φ : R ! L;

 7! v + w: 0

Die Abbildung Φ ist injektiv, denn für  ¤  ist offensichtlich Φ(0 ) ¤ Φ(), und auch surjektiv, denn ist (x1 ; x2 ) 2 L, so folgt aus a1 x1 + a2 x2 = b, dass (x1 ; x2 ) = Φ(x2 ): x2

L

(0; )

(0; 1)

Φ()

w

v=



b ;0 a1



x1 Bild 1.4

Ist umgekehrt eine Gerade in Parameterdarstellung L = v + Rw mit w ¤ 0 gegeben, so ist dafür eine lineare Gleichung a1 x1 + a2 x2 = b gesucht. Dazu verwenden wir v = (v1 ; v2 )

und

w = (w1 ; w2 );

wobei wir w2 ¤ 0 annehmen können. Aus v 2 L und v + w 2 L folgen dann die Bedingungen I : a1 v 1 + a2 v 2 = b

und II : a1 (v1 + w1 ) + a2 (v2 + w2 ) = b:

18

1 Lineare Gleichungssysteme

Die Differenz II I ergibt a1 w1 + a2 w2 = 0. Setzt man nun a1 := w2 , so folgt a2 = w1 und I ergibt b = w2 v1 w1 v2 . Daraus ergibt sich schließlich eine lineare Gleichung w2 x1 0

w1 x2 = w2 v1

w1 v2 :

()

2

Bezeichnet nun L  R die Menge der durch die Gleichung () beschriebenen Punkte, so bleibt noch L0 = L zu zeigen. Dafür müssen die beiden Inklusionen L  L0 und L0  L bewiesen werden. L  L0 :

Das folgt, indem man einen Punkt (x1 ; x2 ) = v + w = (v1 + w1 ; v2 + w2 ) 2 L

in () einsetzt. L0  L: Sei x = (x1 ; x2 ) 2 L0 . Wir betrachten zunächst den Fall, dass neben w2 ¤ 0 auch w1 ¤ 0 gilt. Dann folgt aus () x2 v2 x1 v1 x 1 = v1 + w1 und x2 = v2 + w2 : w2 w1 Außerdem folgt aus (), dass x2 v2 x1 v1  := = : w2 w1 Somit ist x = (x1 ; x2 ) = v + w 2 L. Im Fall w2 ¤ 0 und w1 = 0 ist L0 bestimmt durch die Gleichung x1 = v1 und L durch die Parametrisierung  7! (v1 ; v2 + w2 ); das ist die gleiche senkrechte Gerade.



Dieses kleine Ergebnis verdient eine Erläuterung. Lineare Gleichungen zur Beschreibung von Geraden sind implizite Bedingungen. Um die Punkte auf einer Geraden ohne weitere Hilfsmittel zu finden, müsste man theoretisch alle Paare (x1 ; x2 ) in die Gleichung einsetzen und prüfen, ob sie erfüllt ist oder nicht. Das wäre eine hoffnungslose Methode. Eine Parametrisierung dagegen ergibt zu jedem Wert des Parameters genau einen Punkt der Geraden. Das ist eine explizite Beschreibung, dadurch kann man die Gleichung als „gelöst“ ansehen. Im Folgenden werden solche Fragen in viel allgemeinerem Rahmen weiter untersucht. 1.2.2. Zwei Geraden in der Ebene schneiden sich in genau einem Punkt, es sei denn, sie sind gleich oder parallel. Sind sie durch Gleichungen gegeben, so stellt sich die Frage, wie man entscheiden kann, welcher Fall vorliegt, und wie man eventuell den eindeutigen Schnittpunkt findet. Dazu einige

1.2 Geraden in der Ebene

19

Beispiele. a) Die Geraden seien gegeben durch x1

x2 = 1; x2 = 2:

Der Schnittpunkt p ist ganz einfach zu finden, indem man x2 = 2 aus der zweiten Gleichung in die erste einsetzt: x1 = 1 + 2 = 3, also p = (3; 2). Eine Variante sind die Gleichungen x1

x2 = 1;

x1 + 3x2 = 9: x2 x2 = 2

2

p

1

x1

x1 + 3x2 = 9

1

x1

3

x2

p 3

x2 = 1

x1

x1

x2 = 1 Bild 1.5

Zieht man die erste Gleichung von der zweiten ab und dividiert die Differenz durch vier, so erhält man wieder die obigen Gleichungen, und man sieht an den Zeichnungen, dass der Schnittpunkt der gleiche ist. b) Die Geraden seien gegeben durch x1 2x1

x2 = 1; 2x2 = b;

x2

b 2

1

x1

Bild 1.6

20

1 Lineare Gleichungssysteme

mit beliebigem b. Man sieht sofort, dass sie für b = 2 gleich und für b ¤ 2 parallel, also ohne Schnittpunkt sind. Darauf kommt man auch durch formales Rechnen, wenn man wieder die 2-fache erste Gleichung von der zweiten abzieht. Das ergibt x1

x2 = 1; 0x2 = b

0x1

2:

Die zweite Gleichung lautet in jedem Fall b = 2. Ist b so gewählt, kann man sie weglassen und es bleibt die erste. Ist b ¤ 2 gewählt, so ist die zweite Gleichung nie erfüllt und man kann die erste weglassen. c) Nun nehmen wir zu den zwei Geraden aus Beispiel a) eine dritte hinzu: x1 x2 = 1; x1 + 3x2 = 9; x1 + x2 = 2:

I II III

x2

x2

˜ II

II x1

I

III

Ie II

x1

I Bild 1.7

Dass sie keinen gemeinsamen Schnittpunkt haben, sieht man an Bild 1.7, wir wollen es auch durch formales Umformen zeigen. Wie umgeformt wurde, ist rechts vermerkt. x1 x2 = 1; I e 4x2 = 8; II = II I 2x2 = 1: Ie II = III I Die Gleichungen e II und Ie II verlangen x2 = 2 und x2 = 12 , das ist ein Widerspruch. Wie man sieht, sind derartige Umformungen von Gleichungssystemen sehr wirksam, wir werden in 1.4.6 eine Rechtfertigung dafür geben. In obigem Beispiel sollte man bemerken, dass die gemeinsamen Schnittpunkte von I mit II und I mit III erhalten bleiben.

1.2 Geraden in der Ebene

21

Aufgaben zu 1.2 1. Zwei Geraden L = v + Rw

und

L0 = v 0 + Rw 0

sind genau dann gleich, wenn v 0 2 L und w 0 =   w mit  ¤ 0. 2. Zwei Geraden mit den Gleichungen a1 x1 + a2 x2 = b

und

a10 x1 + a20 x2 = b 0

sind genau dann gleich, wenn es ein  ¤ 0 gibt, sodass (a10 ; a20 ; b 0 ) =   (a1 ; a2 ; b):

22

1 Lineare Gleichungssysteme

1.3 Ebenen und Geraden im Standardraum R3 1.3.1. Als „Raum“ betrachten wir den dreidimensionalen reellen Raum. Wie in der Ebene geht durch zwei verschiedene Punkte v; v 0 2 R3 genau eine Gerade L. Ist w := v 0 v, so ist wie in 1.2.1 L = fv + w :  2 Rg = v + Rw eine Parameterdarstellung von L. Es gibt jedoch zwei wesentliche Unterschiede zur Ebene: 1) Zwei Geraden sind im Allgemeinen windschief , d. h. ohne Schnittpunkt und nicht parallel. 2) Eine lineare Gleichung im R3 beschreibt eine Ebene, zur Beschreibung einer Geraden benötigt man zwei lineare Gleichungen (d. h. man stellt sie als Schnitt von zwei Ebenen dar, vgl. dazu auch das Beispiel 1 in 7.1.7). Das wird im Folgenden genauer ausgeführt. 1.3.2. Wir betrachten eine lineare Gleichung der Form a1 x 1 + a2 x 2 + a3 x 3 = b und die Lösungsmenge E = f(x1 ; x2 ; x3 ) 2 R3 : a1 x1 + a2 x2 + a3 x3 = bg: Man nennt E  R3 eine Ebene, wenn (a1 ; a2 ; a3 ) ¤ (0; 0; 0) gilt. Im Fall a1 = a2 = a3 = 0 wäre E = ; für b ¤ 0 und E = R3 für b = 0. Analog zum Fall der Geraden in 1.2.1 werden wir für die Menge E eine Parametrisierung angeben, das ist eine bijektive Abbildung Φ : R2 ! E;

(1 ; 2 ) 7! v + 1 w1 + 2 w2 ;

3

wobei v; w1 ; w2 2 R mit linear unabhängigen w1 ; w2 (Aufgabe 1 zu 1.3). In Kurzform schreibt sich die Parametrisierung als E = v + R  w1 + R  w2 : Setzt man a1 ¤ 0 voraus, so ergibt sich ein Punkt   b v := ; 0; 0 2 E; a1 indem man x2 = x3 = 0 setzt. Allgemeiner kann man 1 := x2 und 2 := x3 als Parameter wählen und geometrisch gesehen den Punkt (0; 1 ; 2 ) in Richtung x1 auf die Ebene E projizieren (Bild 1.8).

1.3 Ebenen und Geraden im Standardraum R3

23

x3

E

(0; 1 ; 2 )

Φ(1 ; 2 )

x2

x1

Bild 1.8

In der Rechnung bedeutet das Folgendes: Wegen a1 x1 + a2 1 + a3 2 = b ist x1 =

b a1

a2 1 a1

a3 2 a1

und 

b a1

a2 1 a1

a3 2 ; 1 ; 2 a1

 2 E:

Setzt man  w1 :=

a2 ; 1; 0 a1



 und

w2 :=

 a3 ; 0; 1 ; a1

so ist v+1 w1 +2 w2 2 E für alle (1 ; 2 ) 2 R2 . Das ergibt die Parametrisierung Φ : R2 ! E; (vgl. dazu Aufgabe 1 zu 1.3).

(1 ; 2 ) 7! v + 1 w1 + 2 w2

24

1 Lineare Gleichungssysteme

Analog zum Fall der Geraden in 1.2.1 sieht man, dass die Abbildung Φ bijektiv ist. Sie ist geometrisch gesehen die Umkehrung der Einschränkung der Projektion  : R3 ! R2 ; (x1 ; x2 ; x3 ) 7! (x2 ; x3 ) auf die Ebene E  R3 (Bild 1.8). Umgekehrt kann man aus einer Parametrisierung einer Ebene eine Gleichung berechnen. Wir begnügen uns hier mit einem Beispiel. Sei E = v + R  w1 + R  w2  R3 mit v = (1; 0; 2);

w1 = (2; 1; 0)

w2 = (0; 3; 2):

und

Soll a1 x1 + a2 x2 + a3 x3 = b sein, so folgt v 2 E ) a1 + 2a3 = b v + w1 = (3; 1; 2) 2 E ) 3a1 + a2 + 2a3 = b v + w2 = (1; 3; 4) 2 E ) a1 + 3a2 + 4a3 = b und daraus

I II III

2a1 + a2 =0 3a2 + 2a3 = 0

e II = II I Ie II = III I 2 , und dies in e II eingesetzt ergibt 3

Setzt man nun a3 = 1 in Ie II ein, so folgt a2 = a1 = 13 . In I eingesetzt erhält man schließlich b =

7 3

und somit die Gleichungen

1 2 7 x1 x2 + x3 = oder x1 2x2 + 3x3 = 7: 3 3 3 Eine Rechtfertigung für das benutzte Rechenverfahren folgt in 1.4. Das Wechselspiel zwischen Gleichungen und Parametrisierungen werden wir in 7.1.7 unter dem Thema „Dualität“ wieder aufgreifen. 1.3.3. Nun wollen wir zwei Ebenen schneiden. Dazu zunächst ein Beispiel. Wir betrachten die Gleichungen (Bild 1.9) x1 + x2 + x3 = 6; x1 + 2x2 + 3x3 = 10

I II

()

und formen sie um zu (Bild 1.10) x1 + x2 + x3 = 6; I x2 + 2x3 = 4: e II = II

I

(˜ )

1.3 Ebenen und Geraden im Standardraum R3

25

Bild 1.9

Bild 1.10

Die Systeme () und (˜ ) beschreiben jeweils den Durchschnitt von zwei Ebenen, das sind die Geraden L und e L. Dass wegen der Art der Umformung e L=L gilt, wird in 1.4.6 präzise begründet. Um eine Parametrisierung der Schnittgeraden L zu finden, wählt man einen reellen Parameter , setzt x3 =  und berechnet erst mit e II und dann mit I x2 = x1 = 

2 2:

4

26

1 Lineare Gleichungssysteme

Das ergibt eine Parametrisierung von L Φ : R ! L  R3 ;

 7! (

2; 2

4; ) = ( 2; 4; 0) +   (1; 2; 1):

Hat man allgemein zwei Ebenengleichungen a1 x1 + a2 x2 + a3 x3 = b; a10 x1 + a20 x2 + a30 x3 = b 0 ;

I II

und ist a1 ¤ 0, so führt eine Umformung wie oben zu einem Unglück, wenn es ein % 2 R gibt mit (a10 ; a20 ; a30 ) = (%a1 ; %a2 ; %a3 ):

()

˜ := II %  I gleich Null. Das hat einen Dann wird nämlich die linke Seite von II geometrischen Hintergrund, denn () bedeutet, dass die durch I und II beschriebenen Ebenen parallel oder gleich sind. Ein präziser Beweis davon kann später leicht nachgeholt werden (vgl. Aufgabe 9 zu 3.3). 1.3.4. Nun schneiden wir schließlich drei Ebenen im R3 . Beispiel. Wir nehmen zu den beiden Gleichungen im Beispiel aus 1.3.3 noch eine Gleichung dazu (Bild 1.11): x1 + x2 + x3 = 6; x1 + 2x2 + 3x3 = 10; 2x1 + 3x2 + 6x3 = 18:

I II III

Bild 1.11

1.3 Ebenen und Geraden im Standardraum R3

27

Die drei Ebenen schneiden sich in einem Punkt. Um ihn zu berechnen, formen wir wieder um. Die erste Runde ergibt (Bild 1.12) x1 + x2 + x3 = 6; x2 + 2x3 = 4; x2 + 4x3 = 6:

I

e II = II I Ie II = III 2I

Bild 1.12

Um den Schnittpunkt ganz schematisch ausrechnen zu können, formen wir Ie II noch einmal um zu (Bild 1.13) 2x3 =

2:

e Ie II = Ie II

e II

Bild 1.13

28

1 Lineare Gleichungssysteme

Damit ergibt sich durch Einsetzen von unten nach oben x3 = x2 = x1 =

1 2 3

e nach Ie II; e nach e II; nach I:

Der einzige Schnittpunkt der drei Ebenen ist also ( 3; 2; 1). Ob dieses Verfahren im Allgemeinen einen einzigen Schnittpunkt liefert, hängt ganz von den Koeffizienten der drei Gleichungen ab (vgl. 3.3.4).

1.3 Ebenen und Geraden im Standardraum R3

29

Aufgaben zu 1.3 1. a) Zeigen Sie, dass für zwei Vektoren v; w 2 Rn die folgenden Bedingungen äquivalent sind: i) v ¤ 0, und es gibt kein % 2 R mit w = %  v. ii) w ¤ 0, und es gibt kein % 2 R mit v = %  w. iii) Sind ;  2 R mit v + w = 0, so folgt notwendigerweise  =  = 0. Man nennt v und w linear unabhängig, falls eine der obigen Bedingungen erfüllt ist. Anderenfalls nennt man v und w linear abhängig. In Bild 1.14 sind v und w linear unabhängig, v und w 0 linear abhängig. w v w0

Bild 1.14

b) Zeigen Sie, dass die Vektoren     a2 a3 w1 := ; 1; 0 und w2 := ; 0; 1 a1 a1 aus 1.3.2 linear unabhängig sind. ˚ 2. a) Finden Sie für die Ebene E = (x1 ; x2 ; x3 ) 2 R3 : 3x1 2x2 + x3 = eine Parametrisierung.

1



b) Beschreiben Sie die in Parameterdarstellung gegebene Ebene E = (1; 2; 3) + R  (4; 5; 6) + R  (7; 8; 9) durch eine lineare Gleichung. 3. Zeigen Sie: Sind x; y; z; 2 R3 drei Punkte, die nicht auf einer Geraden liegen, so gibt es genau eine Ebene E  R3 , die x; y und z enthält, nämlich E = x + R  (x

y) + R  (x

z):

30

1 Lineare Gleichungssysteme

1.4 Das Eliminationsverfahren von GAuss 1.4.1. Nach den vielen Spezialfällen und Beispielen ist der Leser hoffentlich gerüstet für den allgemeinen Fall. Die Zahl n 2 N ist die Zahl der Unbestimmten. Davon unabhängig ist m die Anzahl der linearen Gleichungen. Da m die Anzahl der im Alphabet verfügbaren Buchstaben überschreiten kann, verwenden wir für die Koeffizienten aij doppelte Indizes, wobei i die Nummer der Gleichung und j die Nummer der Unbestimmten ist. Das Gleichungssystem lautet also: a11 x1 + : : : +a1n xn = b1 :: :: :: : : : am1 x1 + : : : +amn xn = bm :

()

Gesucht ist die Menge der (x1 ; : : : ; xn ) 2 Rn , die alle Gleichungen erfüllen. Das System () ist mühsam aufzuschreiben. Ein Meister in übersichtlichen Rechenverfahren war A. CAYLEY, der auch erstmals systematisch Matrizen verwendete. Das hilft hier sofort. Die Koeffizienten aij schreibt man, wie sie in () vorkommen, als rechteckiges Schema (Matrix genannt) 0 1 a11    a1n B : :: C A := @ :: : A: am1    amn Nun ist der Kniff, nicht die liegenden Vektoren (oder Zeilen) (x1 ; : : : ; xn ) und (b1 ; : : : ; bn ) zu betrachten, sondern entsprechend der Anordnung der bi in () die stehenden Vektoren (oder Spalten) 0 1 0 1 x1 b1 B : C B : C x := @ :: A und b := @ :: A : xn bm Zwischen der Matrix A und der Spalte x der Höhe n erklärt man ein Produkt, das eine Spalte der Höhe m ergibt: 0 1 a11 x1 + : : : + a1n xn B C :: A  x := @ A: : am1 x1

+ ::: +

amn xn

Dabei ist entscheidend, dass x so viele Zeilen wie A Spalten hat. Das lineare Gleichungssystem () kann man dann in der Form Ax =b

(0 )

1.4 Das Eliminationsverfahren von GAuss

31

schreiben, wobei das eine Gleichheit von zwei stehenden Vektoren mit jeweils m Zeilen bedeutet. Diese geschickte Schreibweise ist gewöhnungsbedürftig und auch etwas gefährlich, weil man leicht vergessen kann, was sie explizit bedeutet. Man nennt A die Koeffizientenmatrix des linearen Gleichungssystems. Hängt man die Spalte b noch an, so erhält man die Matrix 0 1 a11    a1n b1 B : :: :: C (A; b) := @ :: : : A; am1    amn bm sie heißt erweiterte Koeffizientenmatrix. Darin ist alle Information über das Gleichungssystem enthalten. Hat eine Matrix A insgesamt m Zeilen und n Spalten, so spricht man zur Abkürzung von einer (m  n)-Matrix. Man schreibt dafür A = (aij ), die reellen Zahlen aij heißen Einträge von A. Eine andere Methode, P das Gleichungssystem () kürzer aufzuschreiben, benutzt das Summenzeichen . Allgemein ist n X

cj := c1 + : : : + cn :

j =1

Dabei heißt j der Summationsindex, man kann ihn durch jeden anderen Buchstaben ersetzen. In dieser Schreibweise lautet die i-te Gleichung n X

aij xj = bi ;

j =1

das ganze System also n X

aij xj = bi

für i = 1; : : : ; m:

(00 )

j =1

Welche Schreibweise man bevorzugt, ist nebensächlich. Wir werden vorwiegend A  x = b benutzen, weil dabei die geringste Anzahl von Buchstaben erforderlich ist. 1.4.2. Nachdem eine energiesparende Schreibweise für Gleichungssysteme vereinbart ist, können wir das Problem der Lösung in Angriff nehmen. Die Lösungsmenge ist nach Definition gleich Lös (A; b) := fx 2 Rn : A  x = bg ; wobei x als Spaltenvektor geschrieben ist. Das System zu lösen heißt, eine effiziente Methode zur Beschreibung der Menge Lös (A; b) anzugeben. Was wir schließ-

32

1 Lineare Gleichungssysteme

lich erhalten werden, ist eine Zahl k 2 N und eine explizit angebbare bijektive Abbildung Φ : Rk ! Lös (A; b)  Rn ; sie heißt Parametrisierung. Die Berechnung von Φ mithilfe des nach C. F. GAUSS benannten Eliminationsverfahrens ist recht einfach, und das ist Ziel dieses Kapitels. Der Nachweis aller guten Eigenschaften von Φ erfordert etwas Theorie und wird in Kapitel 3 nachgeholt. Der abstrakte Hintergrund von linearen Gleichungssystemen wird schließlich in Kapitel 7 erläutert. 1.4.3. In den Beispielen aus 1.2 und 1.3 hatten wir Gleichungssysteme so lange umgeformt, bis eine Parametrisierung schrittweise „von unten nach oben“ berechnet werden konnte. Beispiele für so umgeformte Koeffizientenmatrizen A waren 0 1     111 1 1 111 @0 1 2A: ; ; 0 1 012 002 Die Nullen zu Beginn der Zeilen haben dabei eine typische Staffelung, die Trennlinie von den anderen Einträgen hat Stufenform. Definition. Eine m  n-Matrix A = (aij ) ist in Zeilenstufenform, wenn sie von der folgenden Form ist:

Dabei müssen die Einträge an den mit ~ markierten Stellen ungleich Null sein, und unterhalb der eingezeichneten „Stufenlinie“ dürfen nur Nullen stehen. Damit auch die Grenzfälle klar geregelt sind, kann man diese Definition noch präziser aufschreiben. A ist in Zeilenstufenform, wenn Folgendes gilt: 1. Es gibt eine Zahl r mit 0  r  m, sodass in den Zeilen mit Index 1 bis r jeweils nicht nur Nullen stehen und in den Zeilen mit Index r + 1 bis m nur Nullen stehen.

1.4 Das Eliminationsverfahren von GAuss

33

2. Für jedes i mit 1  i  r betrachten wir den niedrigsten Index ji der Spalte, in der ein Eintrag ungleich Null steht, in Zeichen ji := minfj : aij ¤ 0g: Offensichtlich ist 1  ji  n, und die zusätzliche Stufenbedingung lautet j1 < j2 < : : : < jr : Man beachte, dass der Fall r = 0 zugelassen ist; dann sind alle Einträge von A gleich Null. Die besonders ausgezeichneten und oben durch ~ gekennzeichneten Einträge a1j1 ; : : : ; arjr heißen Pivots (auf Deutsch Angelpunkte) von A. Sie sind nach Definition von Null verschieden. Beispiel. Für 0

0 B0 A=B @0 0

2 0 0 0

3 1 0 0

4 3 0 0

6 2 0 0

0 1 3 0

1 5 0C C 1A 0

ist m = 4; n = 7; r = 3; j1 = 2; j2 = 3; j3 = 6. Besonders einfach aufzuschreiben ist der Spezialfall, in dem j1 = 1; j2 = 2; : : : ; jr = r: Dann hat A die Form

A=

Durch eine Umordnung der Spalten von A, d. h. eine andere Nummerierung der Unbekannten des entsprechenden Gleichungssystems, kann man das stets erreichen. Für die Praxis ist das nebensächlich, aber für die Theorie kann man sich dadurch die lästigen Doppelindizes ji ersparen. Die Pivots sind dann gleich a11 ; : : : ; arr .

34

1 Lineare Gleichungssysteme

1.4.4. Nun geben wir ein Lösungsverfahren für ein lineares Gleichungssystem an, bei dem die Koeffizientenmatrix A in Zeilenstufenform ist. Zur Vereinfachung nehmen wir an, dass die Pivots in den ersten r Spalten sitzen. Dann hat die erweiterte Koeffizientenmatrix die Gestalt 0 1 b1 C B a11 B C B C a22 :: C B B C : :: B C : B C B C B C (A; b) = B arr br C B C B C B 0 C b r+1 B C B C : B C : : C B @ A bm mit a11 ¤ 0; : : : ; arr ¤ 0. Die Einträge br+1 ; : : : ; bm sind entscheidend für die Frage, ob es überhaupt eine Lösung gibt. Bemerkung. Gibt es ein bi ¤ 0 mit r + 1  i  m, so ist Lös (A; b) leer. Beweis. Die i-te Gleichung lautet 0  x1 + : : : + 0  xn = bi ¤ 0: Diese Bedingung kann kein x erfüllen.



Im gegenteiligen Fall br+1 = : : : = bm = 0 geben wir nun eine Methode an, Lösungen zu konstruieren. Dazu unterscheiden wir zwischen zwei Arten von Variablen: xr+1 ; : : : ; xn sind freie Variablen, sie können alle beliebigen Werte annehmen. x1 ; : : : ; xr , sind gebundene Variablen, sie sind eindeutig dadurch festgelegt, für welche Werte sich die freien Variablen entschieden haben. Das kann man so beschreiben. Man setzt k := n r, das ist die Zahl der freien Variablen, wählt 1 ; : : : ; k 2 R als Parameter und setzt xr+1 = 1 ;

xr+2 = 2 ;

:::;

xr+k = xn = k :

Um daraus x1 ; : : : ; xr zu berechnen, beginnt man mit der r-ten Gleichung ar;r xr + ar;r+1 1 + : : : + ar;r+k k = br :

1.4 Das Eliminationsverfahren von GAuss

35

Wegen ar;r ¤ 0 erhält man daraus eine Darstellung 1 (br ar;r+1 1 : : : ar;r+k k ) xr = ar;r 1 ar;r+1 ar;r+k = br + 1 + : : : + k ar;r ar;r ar;r und daraus die Darstellung xr = crr br + dr1 1 + : : : + drk k : Eingesetzt in die (r xr

1

= cr

1)-te Gleichung ergibt das analog 1;r

1 br

1

+ cr

1;r br

+ dr

1;1 1

+ : : : + dr

1;k k

und schließlich x1 = c11 b1 + c12 b2 + : : : + c1r br + d11 1 + : : : + d1k k : Dabei sind die Zahlen cij und dij nur von den Einträgen aij , nicht aber von b1 ; : : : ; br und 1 ; : : : ; k abhängig. Mithilfe von Matrizen schreibt sich das so: 0 1 0 1 0 1 c11 : : : c1r d11 : : : d1k x1 B : C B B :: C : : :: C B :: C B 0 1 B ::: 0 1 : : C : C B C B C B C b 1 1 B C B 0 C B C crr C B : C Bdr1 : : : drk C B : C B xr C B : B C=B C@:A+B C  @ :: A Bxr+1 C B 0 : : : 0 C B 1 C 0 B C B C B C br k :: C B :: C B :: B C :: @ : A @ : A @ A : : 0 xn 0 ::: 0 1 oder x() = C  b + D  : Dabei ist C eine (n  r)-Matrix und D eine (n  k)-Matrix. An dieser Darstellung lässt sich auch gut die Abhängigkeit der Lösung x von der rechten Seite b überblicken. Da jedes  eine Lösung ergibt, hat man eine Abbildung Φ : Rk ! Lös (A; b);

 7! x():

Die Lösungen können noch etwas anders beschrieben werden, indem man die Spaltenvektoren w1 ; : : : ; wk von D verwendet. Dann ist x() = c + 1 w1 + : : : + k wk

mit

Wie an der Berechnung von x zu sehen ist, gilt c=0

,

b = 0:

c = C  b:

36

1 Lineare Gleichungssysteme

Für b ¤ 0 nennt man c eine spezielle Lösung des inhomogenen Systems, und für b = 0 heißt x() = 1 w1 + : : : + k wk die allgemeine Lösung des zugehörigen homogenen Systems. Die Abbildung Φ wird Parametrisierung der Lösungsmenge genannt. Ihre Eigenschaften werden in 1.4.8 weiter untersucht und schließlich in 3.3 vom Standpunkt der Theorie beleuchtet. Beispiel. Die erweiterte Koeffizientenmatrix 0 2 3 0 0 B0 1 1 0 (A; b) := B @0 0 3 0 0 0 0 0

4 3 0 0

6 2 0 0

5 0 1 0

1 b1 b2 C C b3 A 0

mit n = 7, m = 4, r = 3 und k = 4 ist in der speziellen Zeilenstufenform ji = i, also ist x4 =  1 ;

x 5 = 2 ;

x6 = 3

und

x7 = 4 :

Aus 3x3 + 4 = b3 folgt 1 1 b3 4 : 3 3 Aus x2 + x3 + 32 + 23 = b2 folgt 1 1 x2 = b2 b3 32 23 + 4 : 3 3 Aus 2x1 + 3x2 + 42 + 63 + 54 = b1 folgt 1 3 1 5 x1 = b1 b2 + b3 + 2 34 : 2 2 2 2 In Matrizenschreibweise sieht das übersichtlicher so aus: 0 1 0 1 0 3 1 1 5 x1 0 0 2 2 2 2 1 B x2 C B 0 C B 0 1 3 2 3 C 0 B C B 1 B 1 C B x3 C B 0 B 0 0 b1 0 0 3 C B C B B B x4 C = B 0 C  @ b2 A + B 1 0 0 0 0 B C B C B B x5 C B 0 B 0 0 0C b3 1 0 B C B C B @ x6 A @ 0 @ 0 0 0A 0 1 x7 0 0 0 0 0 0 x3 =

3 1 3 1 3

1

C 0 1 C 1 C C B 2 C C B 0C  @ C : 3 A 0C C 4 0A 1

1.4 Das Eliminationsverfahren von GAuss

37

0 1 1 1C B 0 1 B 32 C 3 B3C B C Für b = @ 1 A erhält man c = B 0 C als die entsprechende spezielle Lösung B C 2 B:C @ :: A 0 des inhomogenen Systems. Die allgemeine Lösung des zugehörigen homogenen Systems mit b = 0 ist gegeben durch 0 1 0 5 1 0 1 0 1 0 0 3 2 1 B0C B 3C B 2C B C B C B C B C B 31 C B0C B 0 C B 0 C B C 3 B C B C B C B C C + 2  B 0 C + 3  B 0 C + 4  B 0 C 1 1  B B C B C B C B C B0C B 1 C B 0 C B 0 C B C B C B C B C @0A @ 0 A @ 1 A @ 0 A 0

0

0

1

mit beliebigen Parametern 1 ; : : : ; 4 . 1.4.5. Einen wichtigen Spezialfall wollen wir noch erwähnen: Ist die Matrix A quadratisch, so hat man ebenso viele Gleichungen wie Unbekannte. Ist speziell A auf Zeilenstufenform mit r = n, so ist 1 0 ~ C B C B C B ~ C B A=B C; :: C B : C B A @ 0 ~ und es gibt wegen k = n r = 0 keinen freien Parameter, also eine einzige Lösung x = (x1 ; : : : ; xn ); die man wieder von unten nach oben berechnet. Ist überdies b1 = : : : = bn = 0;

so ist xn = : : : = x1 = 0;

man erhält also nur die triviale Lösung. Beispiele für eindeutig lösbare Gleichungssysteme findet man in 1.2.2 Beispiel a), 1.3.4 und Aufgabe 2.

38

1 Lineare Gleichungssysteme

1.4.6. Nachdem wir gesehen haben, wie sich ein Gleichungssystem in Zeilenstufenform lösen lässt, versuchen wir nun, ein beliebiges System in diese Form zu bringen. Dazu benutzen wir zwei Typen von elementaren Zeilenumformungen der erweiterten Koeffizientenmatrix: Typ 1) Vertauschung von zwei Zeilen. Typ 2) Addition der -fachen i -ten Zeile zur k-ten Zeile, wobei 0 ¤  2 R und i ¤ k ist. Diese Umformungen sind gerechtfertigt durch den Satz. Sei (A; b) die erweiterte Koeffizientenmatrix eines linearen Gleichungssys˜ aus (A; b) durch endlich viele elementare Zeilenumformungen ˜ b) tems, und sei (A; entstanden. Dann haben die Systeme A  x = b und A˜  x = b˜ gleiche Lösungs˜ ˜ b). mengen, in Zeichen Lös (A; b) = Lös (A; Vorsicht! Man beachte, dass Spaltenumformungen eine völlig andere Wirkung haben, weil dadurch die Unbekannten „gemischt“ werden. Das ist unerwünscht. Nur Vertauschungen in den ersten n Spalten sind ungefährlich, sie bewirken lediglich eine Umnummerierung der Unbekannten. Beweis. Es genügt zu beweisen, dass die Lösungsmenge bei einer einzigen elementaren Zeilenumformung unverändert bleibt, denn dann ändert auch Wiederholung nichts. Typ 1) ist völlig unproblematisch, weil alle Gleichungen simultan erfüllt sein müssen, die Reihenfolge ist gleichgültig. Bei Typ 2) muss man etwas rechnen. Da nur die Zeilen i und k betroffen sind, genügt es zu zeigen, dass die beiden aus jeweils zwei Gleichungen bestehenden Systeme ai 1 x1 + : : : + ai n xn = bi ak1 x1 + : : : + ak n xn = bk

()

und ai1 x1 + : : : + ai n xn = bi (ak1 + ai1 )x1 + : : : + (ak n + ai n )xn = bk + bi

(˜ )

gleiche Lösungsmengen haben. Erfüllt x = (x1 ; : : : ; xn ) die Gleichungen (), so auch die erste von (˜ ), und durch Addition der -fachen ersten Gleichung von () zur zweiten die zweite Gleichung von (˜ ). Umgekehrt folgt durch Subtraktion der -fachen ersten Gleichung aus (˜ ) von der zweiten auch die zweite Gleichung aus (). 

1.4 Das Eliminationsverfahren von GAuss

39

Was bei Umformungen vom Typ 2) geometrisch vorgeht, sieht man am einfachsten in der Ebene. Zwei Gleichungen beschreiben zwei Geraden, die Lösungsmenge besteht aus den Schnittpunkten (keiner, einer, oder eine ganze Gerade, vgl. 1.2). Was verschiedene Faktoren  bewirken, wollen wir am besten an einem Beispiel zeigen: Gegeben seien die Geraden Li

durch x1 = 1 x2

Lk

und

Li

durch x1

x2 = 2:

Lk +i Lk

(2; )

(2; 0) (1;

x1

1)

Bild 1.15

Dann ist Lk+i

gegeben durch (1 + )x1

x2 = 2 + :

Diese Schar von Geraden mit Parameter  geht durch (1; 1), sie enthält alle Geraden durch (1; 1) mit Ausnahme von Li , und die Zahl  ist am Schnittpunkt mit der Geraden x1 = 2 zu sehen. 1.4.7. Der letzte und am schwierigsten in allgemeiner Form aufzuschreibende Schritt ist enthalten in dem Satz. Jede Matrix A kann man durch elementare Zeilenumformungen in eine Matrix A˜ in Zeilenstufenform überführen. Beweis. Wir geben ein konkretes Verfahren an, das schrittweise durchgeführt wird und so aufgebaut ist, dass daraus ohne große Schwierigkeiten ein Computerprogramm gemacht werden kann. Wer durch die vielen Indizes verwirrt ist, möge zunächst das unten angegebene Beispiel studieren, bei dem drei Runden nötig sind. Sei A eine m  n-Matrix. Ist A = 0, so hat A nach Definition schon Zeilenstufenform mit r = 0.

40

1 Lineare Gleichungssysteme

Ist A ¤ 0, so gibt es mindestens einen Eintrag ¤ 0. Also gibt es mindestens eine von Null verschiedene Spalte, wir wählen die mit dem kleinsten Index j1 , in Zeichen j1 = minfj : es gibt ein i mit aij ¤ 0g: Ist a1j1 ; ¤ 0, so können wir es als Pivot wählen. Andernfalls suchen wir uns ein ai1 j1 ¤ 0 und vertauschen die Zeile 1 mit der Zeile i1 . Das ist schon die erste ˜ also gilt für den ersten Pivot Zeile von A, a˜1j1 = ai1 j1 : Durch Umformungen vom Typ 2) kann man alle unterhalb von a˜1j1 stehenden Einträge zu Null machen. Ist a einer davon, so soll a + ˜ a1j1 = 0 werden, also hat man a a˜1j1 zu wählen. Das Ergebnis dieser Umformungen ist von der Gestalt 0 1 0    0 a˜1j1         B: C :: B: C B: C : 0 C; A˜1 = B B: C : : B :: C :: :: A2 @ A 0  0 0 =

()

wobei an den mit  markierten Stellen irgendwelche Einträge stehen. Die Matrix A2 hat m 1 Zeilen und n j1 Spalten. Im zweiten Schritt macht man mit A2 das Gleiche wie oben im ersten Schritt mit A = A1 : Ist A2 = 0, so hat A˜1 schon Zeilenstufenform; andernfalls suche man j2 > j1 und den Pivot a˜2j2 . Die dabei nötigen Zeilenumformungen von A2 kann man auf die Zeilen 2 bis m von A˜1 ausdehnen, ohne dass sich in den Spalten 1 bis j1 etwas ändert, denn dort stehen nur Nullen. Ist A2 umgeformt, so erhält man A3 , usw. Das Verfahren muss abbrechen, weil die Zeilen- und Spaltenzahlen der Matrizen Ak abnehmen, oder weil im Lauf des Verfahrens eine Matrix Ak = 0 entsteht. Das Endergebnis ist 0 1 a˜1j1      B :: C B C B a˜2j2 :C B C :: C : :: A˜ = B  B C : : B C B C 0 a˜rjr     A @

1.4 Das Eliminationsverfahren von GAuss

41

Beispiel. Damit der Gang der Rechnung mit dem bloßen Auge zu erkennen ist, sind die Einträge so gewählt, dass sie ganzzahlig bleiben.

A=

;

0

0

1

2

9

0

3

4

5

9

0

3

4

5

9

0

3

4

5

9

0

0

1

2

9

0

0

1

2

9

0

6

7

8

9

0

6

7

8

9

0

0

1

2

9

0

9

9

9

9

0

9

9

9

9

0

0

3

6

18

0

3

4

5

9

0

3

4

5

9

0

0

1

2

9

0

0

0

0

9

0

0

0

0

0

0

0

1

2

9

0

0

0

0

0

0

0

0

0

9

;

;

;

=e A

Bei dem oben allgemein beschriebenen Verfahren wird aus r verschiedenen Spalten jeweils ein Eintrag als Pivot ausgewählt, Kandidaten sind alle von Null verschiedenen Einträge. Für die Theorie wird sich später zeigen, dass das Ergebnis nicht von der Wahl abhängt. Für die Praxis ist es vorteilhaft, den vom Betrag her größten Eintrag zu wählen, weil entsprechend () durch den Pivot dividiert wird, und kleine Nenner zu großen Schwankungen führen können (vgl. Aufgabe 4). 1.4.8. Nun ist das Eliminationsverfahren von GAUSS für ein System von m linearen Gleichungen und n Unbestimmten mit reellen Koeffizienten komplett, wir fassen die einzelnen Schritte noch einmal zusammen: 1) Man schreibe die erweiterte Koeffizientenmatrix (A; b) auf. 2) Man bringe die Matrix A auf Zeilenstufenform und forme dabei die Spalte ˜ insbesondere die Zahl r. Beachte, dass in der ˜ b), b mit um. Ergebnis ist (A; b-Spalte kein Pivot gesucht wird! 3) Man lese an b˜ ab, ob es Lösungen gibt, und wenn ja, berechne man die Parametrisierung ˜ = Lös (A; b)  Rn ˜ b) Φ : Rk ! Lös (A; der Lösungsmenge mit k = n

r.

42

1 Lineare Gleichungssysteme

Schließlich bleibt noch zu überlegen, welche Eigenschaften die in 1.4.4 konstruierte Parametrisierung Φ : Rk ! Lös (A; b)  Rn  = (1 ; : : : ; k ) 7! (x1 (); : : : ; xr (); 1 ; : : : ; k ) = x hat. Zunächst ist klar, dass verschiedene k-Tupel  auch verschiedene Lösungen x ergeben, denn die 1 ; : : : k sind die letzten k Komponenten von x. Ist andrerseits x˜ := (˜ x1 ; : : : ; x˜r ; x˜r+1 ; : : : ; x˜n ) 2 Lös (A; b) eine beliebige Lösung des gegebenen linearen Gleichungssystems, so ist x˜ = Φ(˜ xr+1 ; : : : ; x˜n ); ˜ := (˜ denn man kann als Parameter  xr+1 ; : : : ; x˜n ) wählen. Dann muss ˜ ˜ x˜1 = x1 (); : : : ; x˜r = xr () sein, weil x1 ; : : : ; xr als Funktionen von  wie in 1.4.4 eindeutig festgelegt sind. Die k-Tupel  und die Lösungs-n-Tupel x entsprechen sich also in eineindeutiger Weise. In der Terminologie von 2.1.4 kann man das so ausdrücken: Satz. Die in Schritt 3 konstruierte Parametrisierung Φ : Rk ! Lös (A; b)  Rn ist eine bijektive Abbildung. Eine delikate Frage bleibt offen: Die kritische Zahl r mit n = k + r wurde mithilfe von Umformungen der Matrix A erhalten, und es bleibt zu zeigen, dass sie unabhängig ist von den bei den Umformungen getroffenen Auswahlen, etwa der Pivots. Das wird sich mithilfe von etwas Theorie in 3.3 recht einfach ergeben: Die Zahl r ist der „Rang“ der Matrix A und k ist die „Dimension“ des „affinen Raums“ Lös (A; b). Aber auch ohne den Beweis dieser Ergebnisse können wir im Folgenden lineare Gleichungssysteme schon lösen, wo immer sie auftreten.

1.4 Das Eliminationsverfahren von GAuss

43

Aufgaben zu 1.4 1. Lösen Sie die folgenden lineare Gleichungssysteme: a) x2 x1 + 2x2 2x1 + 3x2 3x1 + 4x2

+ 2x3 + 3x3 + 4x3 + 5x3

6x1 + 6x2 9x1 + 8x2 3x1 + 2x2 15x1 + 14x2

+ 2x3 + 3x3 + x3 + 5x3

+ 3x4 + 4x4 + 5x4 + 6x4

= = = =

0 0 0 0

b) 2x4 = 2 2x4 = 3 =1 4x4 = 5

2. Geben Sie die Lösung des linearen Gleichungssystems an, das durch die folgende erweiterte Koeffizientenmatrix gegeben ist: 0 1 1 1 2 3 7 B4 0 3 1 9C B C @2 5 1 0 2A 3 1 1 2 2 3. Bestimmen Sie, für welche t 2 R das folgende lineare Gleichungssystem in Matrixdarstellung lösbar ist, und geben Sie gegebenenfalls die Lösung an. 0 1 2 4 2 12t @ 2 12 7 12t + 7 A 1 10 6 7t + 8 4. Lösen Sie das folgende lineare Gleichungssystem auf einem Taschenrechner mit einer Rechengenauigkeit von n Stellen hinter dem Komma (Abschneiden weiterer Stellen ohne Rundung!) für " = 10 k für größer werdendes k  n, und zwar einmal mit dem Pivot " und einmal mit dem „maximalen Zeilenpivot“ 1 der ersten Spalte. x + y = 2; "x + y = 1: Beschreiben Sie den geometrischen Hintergrund dieser Umformungen.

Kapitel 2 Grundbegriffe Zu Beginn dieses Kapitels erklären wir die grundlegenden Begriffe der Algebra, die an den verschiedensten Stellen der Mathematik auftauchen. Wie intensiv man dies bei der ersten Lektüre studieren soll, ist eine Frage des Geschmacks. Wer gar keinen Appetit darauf verspürt, kann sofort bis nach 2.4 weiterblättern, wo die wirkliche lineare Algebra, nämlich die Theorie der Vektorräume, beginnt, und das, was er von den Grundbegriffen später benötigt, bei Bedarf nachschlagen.

2.1 Mengen und Abbildungen Wir wollen hier nicht auf die recht schwierige Frage eingehen, wie der Begriff „Menge“ erklärt werden kann; das ist Gegenstand der mathematischen Grundlagenforschung. Für die Zwecke der linearen Algebra genügt es, einige elementare Regeln und Bezeichnungen zu erläutern. Wer an einer fundierten Darstellung interessiert ist, möge zum Beispiel [F-P] konsultieren. 2.1.1. Die endlichen Mengen kann man im Prinzip durch eine vollständige Liste ihrer Elemente angeben. Man schreibt dafür X := fx1 ; x2 ; : : : ; xn g; wobei der Doppelpunkt neben dem Gleichheitszeichen bedeutet, dass das links stehende Symbol X durch den rechts stehenden Ausdruck definiert wird. Die xi heißen Elemente von X , in Zeichen xi 2 X. Man beachte, dass die Elemente xi nicht notwendig verschieden sein müssen, und dass die Reihenfolge gleichgültig ist. Man nennt die Elemente x1 ; : : : ; xn 2 X paarweise verschieden, wenn xi ¤ xj für i ¤ j . In diesem Fall ist n die Anzahl der Elemente von X . Die leere Menge ; ist dadurch gekennzeichnet, dass sie kein Element enthält. Eine Menge X 0 heißt Teilmenge von X , in Zeichen X 0  X, wenn aus x 2 X 0 immer x 2 X folgt. Es gilt X = Y , X  Y und Y  X: Die einfachste unendliche Menge ist die Menge N := f0; 1; 2; 3; : : :g der natürlichen Zahlen. Man kann sie charakterisieren durch die PEANO-Axiome (vgl. [Z]). Diese enthalten das Prinzip der vollständigen Induktion:

© Springer-Verlag GmbH Deutschland, ein Teil von Springer Nature 2020 G. Fischer und B. Springborn, Lineare Algebra, Grundkurs Mathematik, https://doi.org/10.1007/978-3-662-61645-1_3

46

2 Grundbegriffe

Sei M  N eine Teilmenge mit folgenden Eigenschaften: a) 0 2 M , b) n 2 M ) n + 1 2 M . Dann ist M = N. Mancher Leser wird sich an dieser Stelle zum ersten Mal – aber sicher insgesamt nicht zum letzten Mal – darüber wundern, dass die Bezeichnungen in der Mathematik nicht einheitlich sind. So wird die Null manchmal nicht als natürliche Zahl angesehen. Es gibt Versuche, hier durch DIN-Normen Ordnung zu schaffen (vgl. [DIN]), aber viele Mathematiker lieben mehr ihre Freiheit, als Normblätter. Durch Erweiterungen von Zahlbereichen erhält man ausgehend von N die ganzen Zahlen Z = f0; +1; 1; +2; 2; : : :g; die rationalen Zahlen 

 p : p; q 2 Z; q ¤ 0 ; q und etwa als Dezimalbrüche oder Cauchy-Folgen rationaler Zahlen die reellen Zahlen R. Es ist Q=

N  Z  Q  R  C; wobei die in gewisser Weise abschließende Erweiterung zu den komplexen Zahlen C in 2.3.3 und 2.3.11 behandelt wird. Einem Leser, der mehr über den Aufbau der „Zahlen“ wissen möchte, sei [Fi1] oder [Z] empfohlen. 2.1.2. In der linearen Algebra werden wir mit solchen Mengen auskommen, die sich aus den in 2.1.1 angegebenen Mengen mithilfe einiger elementarer Operationen ableiten lassen. Aus einer gegebenen Menge X kann man Teilmengen auswählen, die durch gewisse Eigenschaften der Elemente charakterisiert sind, in Zeichen X 0 := fx 2 X : x hat die Eigenschaft Eg; zum Beispiel X 0 := fn 2 N : n ist geradeg. Sind X1 ; : : : ; Xn , Mengen, so hat man eine Vereinigung X1 [ : : : [ Xn := fx : es gibt ein i 2 f1; : : : ; ng mit x 2 Xi g und den Durchschnitt X1 \ : : : \ Xn := fx : x 2 Xi für alle i 2 f1; : : : ; ngg: An einigen Stellen wird es nötig sein, Vereinigungen und Durchschnitte von mehr als endlich vielen Mengen zu betrachten. Dazu verwendet man eine Menge I, die

2.1 Mengen und Abbildungen

47

Indexmenge heißt, sodass für jedes i 2 I eine Menge Xi gegeben ist. Dann sind Vereinigung und Durchschnitt erklärt durch [ Xi := fx : es gibt ein i 2 I mit x 2 Xi g; i 2I

\

Xi := fx : x 2 Xi für alle i 2 I g:

i 2I

Ist etwa I = N und Xi := [ i; i ]  R für jedes i 2 N ein Intervall, so ist [ \ Xi = R und Xi = f0g: i2N

i2N

Ist X 0  X eine Teilmenge, so nennt man X r X 0 := fx 2 X : x … X 0 g die Differenzmenge (oder das Komplement). 2.1.3. Zur Beschreibung von Beziehungen zwischen verschiedenen Mengen verwendet man „Abbildungen“. Sind X und Y Mengen, so versteht man unter einer Abbildung von X nach Y eine Vorschrift f , die jedem x 2 X eindeutig ein f (x) 2 Y zuordnet. Man schreibt dafür f : X ! Y;

x 7! f (x):

Man beachte den Unterschied zwischen den beiden Pfeilen: „!“ steht zwischen den Mengen und „7!“ zwischen den Elementen. Zwei Abbildungen f : X ! Y und g : X ! Y heißen gleich, in Zeichen f = g, wenn f (x) = g(x) für alle x 2 X. Mit Abb (X; Y ) bezeichnen wir die Menge aller Abbildungen von X nach Y . Ein Problem bei dieser Definition einer Abbildung ist, dass nicht präzisiert ist, in welcher Form die Abbildungsvorschrift gegeben sein soll (genauso wenig war festgelegt worden, in welcher Form die charakterisierende Eigenschaft einer Teilmenge vorliegen soll). Besonders einfach zu beschreiben sind Abbildungen, bei denen f (x) durch eine explizite Formel angegeben werden kann, etwa im Fall X = Y = R durch p f (x) = ax; f (x) = x 2 ; f (x) = x:

Bild 2.1

48

2 Grundbegriffe

Die letzte Vorschrift ist schon problematisch, weil es für positive reelle Zahlen zwei und für negative keine Quadratwurzel gibt. Eine Abbildung im Sinn der Definition liegt nur vor, wenn man negative x ausschließt und für positive x eine Wurzel (etwa die positive) auswählt. Dann hat man eine Abbildung p f : R+ ! R+ ; x 7! + x; wobei R+ := fx 2 R : x  0g. Mit einer Abbildung kann man nicht nur Elemente, sondern auch Teilmengen bewegen. Sei also f : X ! Y und M  X; N  Y . Dann heißt f (M ) := fy 2 Y : es gibt ein x 2 M mit y = f (x)g  Y das Bild von M (in Y ), insbesondere f (X) das Bild von X in Y , und f

1

(N ) := fx 2 X : f (x) 2 N g  X

das Urbild von N in X. Man beachte, dass für eine einelementige Menge N = fyg das Urbild f

1

(y) := f

1

(fyg)  X

eine Teilmenge ist, die aus mehreren Elementen bestehen, aber auch leer sein kann (etwa bei f (x) = x 2 ). Daher ist f 1 im Allgemeinen keine Abbildung von Y nach X im Sinn der Definition. Noch eine Bezeichnungsweise: Ist f : X ! Y eine Abbildung und M  X eine Teilmenge, so nennt man f jM : M ! Y;

x 7! f (x);

die Beschränkung von f auf M . Sie unterscheidet sich von f nur durch den eingeschränkten Definitionsbereich. Ist Y  Y 0 eine Teilmenge, so ist es üblich, mit f : X ! Y 0 auch die Abbildung mit dem formal ausgedehnten Bildbereich zu bezeichnen. 2.1.4. Besonders wichtige Eigenschaften von Abbildungen haben eigene Namen. Eine Abbildung f : X ! Y heißt injektiv, falls aus x; x 0 2 X und f (x) = f (x 0 ) stets x = x 0 folgt, surjektiv, falls f (X) = Y , d. h. falls es zu jedem y 2 Y ein x 2 X gibt mit y = f (x), bijektiv, falls f injektiv und surjektiv ist. Ist f bijektiv, so gibt es zu jedem y 2 Y genau ein x 2 X mit f (x) = y. In diesem Fall kann man also eine Umkehrabbildung f

1

: Y ! X;

y 7! x = f

1

(y)

mit y = f (x)

2.1 Mengen und Abbildungen

49

erklären. Man beachte, dass das Symbol f kommt:

1

in verschiedenen Bedeutungen vor-

– bei einer beliebigen Abbildung ist für jede Teilmenge N  Y das Urbild f 1 (N )  X eine Teilmenge, – ist f bijektiv, so besteht für die einelementige Teilmenge fyg  Y das Urbild f 1 (fyg) aus einem Element x, in Zeichen f dafür schreibt man dann f

1

1

(fyg) = fxg;

(y) = x.

Durch systematisches Zählen beweist man den folgenden einfachen Satz. Sind X und Y endliche Mengen mit gleich vielen Elementen, so sind für eine Abbildung f : X ! Y folgende Bedingungen äquivalent: i) f ist injektiv, ii) f ist surjektiv, iii) f ist bijektiv. Beweis. X und Y mögen n 2 N Elemente enthalten, es sei X = fx1 ; : : : ; xn g. i) ) ii): Wir zeigen „nicht surjektiv“ ) „nicht injektiv“. Ist f (X ) ¤ Y , so besteht f (X) aus m < n Elementen. Nun besagt das offensichtliche Schubfachprinzip von DIRICHLET: Verteilt man n Objekte irgendwie in m Schubfächer, wobei m < n, so gibt es mindestens ein Schubfach, in der mehr als ein Objekt liegt. Also kann f nicht injektiv sein. ii) ) i): Ist f nicht injektiv, so gibt es xi ; xj mit xi ¤ xj , aber f (xi ) = f (xj ). Dann kann f (X ) höchstens n 1 Elemente enthalten, also ist f nicht surjektiv. Wegen ii ) ) i) folgt auch ii) ) iii), iii) ) i) ist klar. Damit sind alle möglichen Implikationen bewiesen.  2.1.5. Sind X; Y; Z Mengen und f : X ! Y sowie g: Y ! Z Abbildungen, so heißt die Abbildung g ı f : X ! Z;

x 7! g(f (x)) =: (g ı f )(x)

die Komposition (oder Hintereinanderschaltung) von f und g (man sagt g komponiert mit f für g ı f ). Man beachte dabei, dass die zuerst angewandte Abbildung rechts steht, im Gegensatz zum Diagramm f

X !Y

g

! Z:

50

2 Grundbegriffe

Daher könnte man das Diagramm besser umgekehrt schreiben: Z

g

Y

f

X:

Bemerkung. Die Komposition von Abbildungen ist assoziativ, d. h. für Abbildungen f : X ! Y; g : Y ! Z und h: Z ! W ist (h ı g) ı f = h ı (g ı f ) : Beweis. Ist x 2 X, so ist ((h ı g) ı f )(x) = (h ı g)(f (x)) = h(g(f (x))) = h((g ı f )(x)) = (h ı (g ı f ))(x):



Vorsicht! Die Komposition von Abbildungen ist i. A. nicht kommutativ. Ist f : R ! R; x 7! x + 1; g : R ! R; x 7! x 2 ; so ist (f ı g)(x) = x 2 + 1 und (g ı f )(x) = (x + 1)2 , also f ı g ¤ g ı f . Um eine etwas andersartige Charakterisierung von Injektivität und Surjektivität zu erhalten, erklären wir für jede Menge X die identische Abbildung idX : X ! X; x 7! x: Lemma. Sei f : X ! Y eine Abbildung zwischen den nicht leeren Mengen X und Y. Dann gilt: 1) f ist genau dann injektiv, wenn es eine Abbildung g: Y ! X gibt, sodass g ı f = idX . 2) f ist genau dann surjektiv, wenn es eine Abbildung g: Y ! X gibt, sodass f ı g = idY . 3) f ist genau dann bijektiv, wenn es eine Abbildung g: Y ! X gibt, sodass g ı f = idX und f ı g = idY . In diesem Fall ist g = f 1 . Beweis. 1) Sei f injektiv. Dann gibt es zu jedem y 2 f (X ) genau ein x 2 X mit f (x) = y, und wir definieren g(y) := x. Ist x0 2 X beliebig, so definieren wir weiter g(y) = x0 für alle y 2 Y r f (X). Das ergibt eine Abbildung g : Y ! X mit g ı f = idX . Ist umgekehrt g : Y ! X mit g ı f = idX gegeben, und ist f (x) = f (x 0 ) für x; x 0 2 X , so ist x = idX (x) = g(f (x)) = g(f (x 0 )) = idX (x 0 ) = x 0 . Also ist f injektiv. 2) Sei f surjektiv. Zu jedem y 2 Y wählen wir ein festes x 2 X mit f (x) = y und setzen g(y) := x. Die so erklärte Abbildung g: Y ! X hat die Eigenschaft f ı g = idY .

2.1 Mengen und Abbildungen

51

Ist umgekehrt g: Y ! X mit f ı g = idY gegeben, und ist y 2 Y , so ist y = f (g(y)), also Bild von g(y), und f ist surjektiv. 3) Ist f bijektiv, so erfüllt g := f 1 die beiden Gleichungen. Ist umgekehrt g : Y ! X mit g ı f = idX und f ı g = idY gegeben, so ist f nach 1) und 2) bijektiv, und es gilt g = f 1  2.1.6. Schon bei der Einführung des Raums Rn hatten wir ein „direktes Produkt“ betrachtet. Sind allgemeiner X1 ; : : : ; Xn Mengen, so betrachten wir die geordneten n-Tupel x = (x1 ; : : : ; xn )

mit x1 2 X1 ; : : : ; xn 2 Xn :

Genauer kann man x als Abbildung x : f1; : : : ; ng ! X1 [ : : : [ Xn

mit x(i) 2 Xi

ansehen (man nennt x auch Auswahlfunktion), und zur Vereinfachung der Schreibweise xi := x(i) und x := (x1 ; : : : ; xn ) setzen. Im Sinne der Gleichheit von Abbildungen gilt dann (x1 ; : : : ; xn ) = (x10 ; : : : ; xn0 ) , x1 = x10 ; : : : ; xn = xn0 : Nun erklären wir das direkte Produkt X1  : : :  Xn := f(x1 ; : : : ; xn ) : xi 2 Xi g als Menge der geordneten n-Tupel. Offensichtlich ist X1  : : :  Xn ¤ ;, wenn Xi ¤ ; für alle i 2 f1; : : : ; ng. Für jedes i hat man eine Projektion auf die i-te Komponente i : X1  : : :  Xn ! Xi ; (x1 ; : : : ; xi ; : : : ; xn ) 7! xi : Ist speziell X1 = : : : = Xn = X, so schreibt man X n = X  : : :  X: Ein Element von X n ist also eine Abbildung f1, : : : ; ng ! X. Ist allgemeiner I irgendeine Menge (man nennt sie Indexmenge), so nennt man eine Abbildung ' : I ! X; i 7! xi = '(i ) ; eine Familie von Elementen in X . Man beachte den Unterschied zu einer Teilmenge X 0  X, die man mit '(I ) vergleichen kann: die Elemente i 2 I kann man als Etiketten (oder noch näher am Familienleben als Pflichten) ansehen, die unter den Elementen von X verteilt werden. Jedes Etikett i hat einen eindeutigen Empfänger xi , die Elemente von X 0 = '(I ) erhalten mindestens ein Etikett, und es ist möglich, dass manche x 2 X 0 mehrere Etiketten erhalten, falls ' nicht injektiv ist (was zur oft gehörten Klage „immer ich“ führt).

52

2 Grundbegriffe

Zur Abkürzung bezeichnet man eine Familie I ! X oft mit (xi )i2I . Für die Indexmenge I = N der natürlichen Zahlen nennt man (xi )i2N eine Folge, das ist ein grundlegender Begriff der Analysis. Vorsicht! Die Frage der Existenz der oben betrachteten Auswahlfunktion ' für eine beliebige Menge I ist nicht unproblematisch. Das führt zum Auswahlaxiom, vgl. [F-P], das auch im Beweis von Lemma 2.1.5 schon stillschweigend verwendet wurde. 2.1.7. Für eine Abbildung f : X ! Y nennt man die Menge Γf := f(x; f (x)) 2 X  Y g den Graphen von f . Damit kann man oft eine Abbildung durch eine Skizze veranschaulichen.

Bild 2.2

Nach der Definition einer Abbildung ist die Einschränkung der Projektion auf X  : Γf ! X bijektiv. Daraus folgt, dass das „Funktionengebirge“ keine „Überhänge“ hat, wie im folgenden Bild:

Bild 2.3 Gebirge mit Überhängen in der Fränkischen Schweiz

2.1 Mengen und Abbildungen

53

2.1.8. Das direkte Produkt ist auch nützlich, um Beziehungen (oder Relationen) zwischen je zwei Elementen x; y 2 X zu studieren. Man schreibt dafür allgemein x  y. Beispiele. a) X = Menge der Menschen, x  y :, x kennt y. b) X = R; x  y :, x  y. c) X = Rn ; (x1 ; : : : ; xn )  (y1 ; : : : ; yn ) :, x12 + : : : + xn2 = y12 + : : : + yn2 . d) X = Z; 0 ¤ m 2 N; x  y :, y

x durch m teilbar.

Eine Relation ist beschrieben durch ihren Graphen R  X  X, wobei (x; y) 2 R , x  y:

()

Man kann also eine Relation auf X definieren als Teilmenge R  X  X, und das Zeichen  durch () erklären. Definition. Eine Relation  auf X heißt Äquivalenzrelation, wenn für beliebige x; y; z 2 X gilt: A1 x  x, A2 x  y ) y  x, A3 x  y und y  z ) x  z.

(reflexiv) (symmetrisch) (transitiv)

In diesem Fall sagt man x ist äquivalent zu y für x  y. Der Leser möge zur Übung die obigen Beispiele auf diese Eigenschaften überpüfen. Vor allem die Reflexivität in Beispiel a) ist etwas Nachdenken wert. Hat man auf einer Menge eine Äquivalenzrelation eingeführt, so kann man – wie wir sehen werden – zu einer neuen Menge übergehen, in der äquivalente Elemente der ursprünglichen Menge zu „Repräsentanten“ desselben neuen Elementes werden. Dabei wird – mit den Worten von HERMANN WEYL – alles im Sinne des eingenommenen Standpunktes Unwesentliche an den untersuchten Objekten abgestreift. Übersetzt ins Mengen-Latein, liest sich das wie folgt: Ist eine Äquivalenzrelation auf einer Menge X gegeben, so heißt eine Teilmenge A  X Äquivalenzklasse (bezüglich R), falls gilt: 1. A ¤ ;. 2. x; y 2 A ) x  y. 3. x 2 A; y 2 X; x  y ) y 2 A. Man überlege sich, wie die Äquivalenzklassen in obigen Beispielen c) und d) aussehen. Bemerkung. Ist R eine Äquivalenzrelation auf einer Menge X, so gehört jedes Element a 2 X zu genau einer Äquivalenzklasse. Insbesondere gilt für zwei beliebige Äquivalenzklassen A, A0 entweder A=A0 oder A \ A0 = ;.

54

2 Grundbegriffe

Beweis. Für ein fest gegebenes a 2 X definieren wir A := fx 2 X : x  ag: Wir zeigen, dass A eine Äquivalenzklasse ist, die a enthält. Wegen a  a ist a 2 A, und es folgt A ¤ ;. Sind x; y 2 A, so ist x  a und y  a, also x  y nach A2 und A3. Ist x 2 A; y 2 X und x  y, so ist x  a, also nach A2 und A3 auch y  a und daher y 2 A. Damit ist gezeigt, dass a in mindestens einer Äquivalenzklasse enthalten ist. Es bleibt zu zeigen, dass zwei Äquivalenzklassen A und A0 entweder gleich oder disjunkt sind. Angenommen, es ist A \ A0 ¤ ; und a 2 A \ A0 . Ist x 2 A, so ist x  a, und wegen a 2 A0 folgt auch x 2 A0 . Also ist A  A0 . Ebenso beweist man A0  A, woraus A = A0 folgt.  Jede Äquivalenzrelation R auf einer Menge X liefert also eine Zerlegung von X in disjunkte Äquivalenzklassen. Diese Äquivalenzklassen betrachtet man als Elemente einer neuen Menge, die man mit X/R bezeichnet. Man nennt sie die Quotientenmenge von X nach der Äquivalenzrelation R. Die Elemente von X/R sind also spezielle Teilmengen von X. Indem man jedem Element a 2 X die Äquivalenzklasse Aa zuordnet, in der es enthalten ist, erhält man eine kanonische (d. h. in der gegebenen Situation eindeutig festgelegte) Abbildung X ! X /R;

a 7! Aa :

Das Urbild eines Elementes A 2 X /R ist dabei wieder A, aber aufgefasst als Teilmenge von X. Jedes a 2 A heißt ein Repräsentant der Äquivalenzklasse A. Im Allgemeinen gibt es keine Möglichkeit, spezielle Repräsentanten besonders auszuzeichnen. Das wäre auch gar nicht im Sinne der durchgeführten Konstruktion. Als Beispiel aus dem realen Leben kann eine Schule dienen: die Menge der Schüler wird in Klassen eingeteilt, und für manche Fragen, etwa die Gestaltung des Stundenplans, ist nur noch die Menge der Klassen von Bedeutung.

Aufgaben zu 2.1 1. Beweisen Sie die folgenden Rechenregeln für die Operationen mit Mengen: a) X \ Y = Y \ X; X [ Y = Y [ X; b) X \ (Y \ Z) = (X \ Y ) \ Z; X [ (Y [ Z) = (X [ Y ) [ Z, c) X \ (Y [ Z) = (X \ Y ) [ (X \ Z); X [ (Y \ Z) = (X [ Y ) \ (X [ Z); d) X r (M1 \ M2 ) = (X r M1 ) [ (X r M2 ); X r (M1 [ M2 ) = (X r M1 ) \ (X r M2 ):

2.1 Mengen und Abbildungen

55

2. Sei f : X ! Y eine Abbildung. Zeigen Sie: a) Ist M1  M2  X, so folgt f (M1 )  f (M2 ) . Ist N1  N2  Y , so folgt f 1 (N1 )  f 1 (N2 ) . b) M  f c) f

1

1

(f (M )) für M  X; f (f

(Y r N ) = X r f

1

1

(N ))  N für N  Y .

(N ) für N  Y .

d) Für M1 ; M2  X und N1 ; N2  Y gilt: f 1 (N1 \ N2 ) = f 1 (N1 ) \ f 1 (N2 ); f

1

(N1 [ N2 ) = f

1

(N1 ) [ f

1

(N2 );

f (M1 [ M2 ) = f (M1 ) [ f (M2 ); f (M1 \ M2 )  f (M1 ) \ f (M2 ): Finden Sie ein Beispiel, in dem f (M1 \ M2 ) ¤ f (M1 ) \ f (M2 ) gilt! 3. Seien f : X ! Y; g : Y ! Z Abbildungen und g ı f : X ! Z die Komposition von f und g. Dann gilt: a) Sind f und g injektiv (surjektiv), so ist auch g ı f injektiv (surjektiv). b) Ist g ı f injektiv (surjektiv), so ist auch f injektiv (g surjektiv). 4. Untersuchen Sie die folgenden Abbildungen auf Injektivität und Surjektivität: a) f1 : R2 ! R; (x; y) 7! x + y; b) f2 : R2 ! R; (x; y) 7! x 2 + y 2 1; c) f3 : R2 ! R2 ; (x; y) 7! (x + 2y; 2x y). 5. Zwei Mengen X und Y heißen gleichmächtig genau dann, wenn es eine bijektive Abbildung f : X ! Y gibt. Eine Menge X heißt abzählbar unendlich, falls X und N gleichmächtig sind. a) Zeigen Sie, dass Z und Q abzählbar unendlich sind. b) Zeigen Sie, dass R nicht abzählbar unendlich ist. c) Für eine nichtleere Menge M sei Abb (M; f0; 1g) die Menge aller Abbildungen von M nach f0; 1g. Zeigen Sie, dass M und Abb (M; f0; 1g) nicht gleichmächtig sind. 6. Ein Konferenzhotel für Mathematiker hat genau N Betten. Das Hotel ist bereits voll belegt, aber die Mathematiker lassen sich nach Belieben innerhalb des Hotels umquartieren. Das Hotel soll aus wirtschaftlichen Gründen stets voll belegt sein, und wenn möglich, sollen alle neu ankommenden Gäste untergebracht werden. Was macht man in folgenden Fällen? a) Ein weiterer Mathematiker trifft ein. b) Die Insassen eines Kleinbusses mit n Plätzen suchen Unterkunft. c) Ein Großraumbus mit N Personen kommt an. d) n Großraumbusse treffen ein. e) N Großraumbusse fahren vor.

56

2 Grundbegriffe

2.2 Gruppen 2.2.1. Unter einer Verknüpfung (oder Komposition) auf einer Menge G versteht man eine Vorschrift , die zwei gegebenen Elementen a; b 2 G ein neues Element  (a; b) 2 G zuordnet, d. h. eine Abbildung  : G  G ! G; (a; b) 7! (a; b) : Wir geben einige Beispiele für solche Vorschriften  und schreiben dabei zur Abkürzung a  b statt (a; b): a) Ist X eine Menge und G = Abb(X; X ) die Menge aller Abbildungen f : X ! X; so ist für f; g 2 G nach 2.1.5 auch f ı g 2 G, also kann man f  g := f ı g setzen. b) In G = N; Z; Q; R oder R+ hat man Addition und Multiplikation, also kann man für a; b 2 G a  b := a + b oder a  b := a  b setzen. Im Gegensatz zu Beispiel a) ist die Reihenfolge von a und b hier egal. c) In G = Q oder R kann man 1 (a + b) 2 als das arithmetische Mittel von a und b erklären. a  b :=

2.2.2. Verknüpfungen mit besonders guten Eigenschaften haben eigene Namen. Definition. Eine Menge G zusammen mit einer Verknüpfung  heißt Gruppe, wenn folgende Axiome erfüllt sind: G1 (a  b)  c = a  (b  c) für alle a; b; c 2 G (Assoziativgesetz). G2 Es gibt ein e 2 G (neutrales Element genannt) mit den folgenden Eigenschaften: a) e  a = a für alle a 2 G. b) Zu jedem a 2 G gibt es ein a0 2 G (inverses Element von a genannt) mit a0  a = e: Die Gruppe heißt abelsch (oder kommutativ), falls außerdem a  b = b  a für alle a; b 2 G.

2.2 Gruppen

57

Falls das keine Verwirrung stiftet, schreibt man die Verknüpfung zur Vereinfachung meist als Multiplikation, also a  b oder nur ab statt a  b. Ist die Verknüpfung als Addition geschrieben, so setzt man stillschweigend voraus, dass sie kommutativ ist. Das neutrale Element 0 heißt dann Nullelement, das Inverse von a wird mit –a bezeichnet und heißt Negatives. Wenn das Assoziativgesetz erfüllt ist, kann man bei mehrfachen Produkten die Klammern weglassen, also schreiben: abc = (ab)c = a(bc): Zunächst wollen wir die Gruppenaxiome bei den Beispielen aus 2.2.1 nachprüfen. a) In G = Abb (X; X) ist die Komposition nach 2.1.5 assoziativ, die identische Abbildung idX erfüllt G2a, aber aus der Existenz eines g mit g ı f = idX folgt, dass f injektiv sein muss. Also ist G2b im Allgemeinen nicht erfüllt. Das kann man aber reparieren. Die Hintereinanderschaltung ist auch eine Verknüpfung in der Teilmenge S(X) := ff 2 Abb(X; X ) : f bijektivg; und S(X) wird damit zu einer Gruppe. Sie heißt die symmetrische Gruppe der Menge X. Ist X = f1; : : : ; ng, so schreibt man Sn statt S(X). Jedes  2 Sn heißt Permutation der Zahlen 1,…, n, und Sn nennt man auch Permutationsgruppe. In der linearen Algebra ist sie wichtig bei der Berechnung von Determinanten, daher verschieben wir alles Weitere hierüber auf Kapitel 4. Insbesondere werden wir dort sehen, dass Sn für n  3 nicht abelsch ist. b) Hier sind nur Z; Q und R mit der Addition und R+ mit der Multiplikation Gruppen. Der Leser möge zur Übung nachprüfen, welche Axiome in den anderen Fällen verletzt sind. c) Das arithmetische Mittel ist nur kommutativ, aber nicht assoziativ, und es gibt kein neutrales Element. 2.2.3. Bei der Aufstellung von Axiomen versucht man, so wenig wie möglich zu fordern und die weiteren Eigenschaften daraus abzuleiten. Insbesondere haben wir weder bei e noch bei a0 die Eindeutigkeit postuliert. Derartigen Kleinkram kann man nachträglich beweisen. Bemerkung. Ist G eine Gruppe, so gilt: a) Das neutrale Element e 2 G ist eindeutig bestimmt und hat auch die Eigenschaft a  e = a für alle a 2 G. b) Das inverse Element a0 ist für jedes a 2 G eindeutig bestimmt und hat auch die Eigenschaft a  a0 = e für alle a 2 G.

58

2 Grundbegriffe

c) Da das Inverse zu a nach b) eindeutig bestimmt ist, kann man es mit a zeichnen. Es gilt für a; b 2 G: a

1

a =aa

1

= e;

1

(a

1

)

= a;

(ab)

1

=b

1

a

1

1

be-

:

d) Es gelten die folgenden Kürzungsregeln: a  x˜ = a  x ) x = x˜

und

˜ y  a = y˜  a ) y = y:

Beweis. Wir betrachten ein neutrales e und ein a 2 G. Zu a0 gibt es ein a00 mit a00 a0 = e. Daraus folgt aa0 = e(aa0 ) = (a00 a0 )(aa0 ) = a00 (a0 (aa0 )) = a00 ((a0 a)a0 ) = a00 (ea0 ) = a00 a0 = e; und somit ae = a(a0 a) = (aa0 )a = ea = a. Ist e˜ ein eventuelles anderes neutrales Element, so ist e˜ e=e

und

e˜ e = e˜;

also e = e˜:

Damit ist a) und die erste Gleichung von c) bewiesen. Ist a˜0 ein eventuelles anderes Inverses, so folgt a˜0 = a˜0 e = a˜0 (aa0 ) = (˜ a0 a)a0 = ea0 = a0 unter Verwendung der bereits vorher bewiesenen Eigenschaften. Damit ist auch b) bewiesen. Aus aa 1 = e folgt, dass a inverses Element zu a 1 ist, d. h. (a 1 ) 1 = a. Weiter gilt (b

1

a

1

)(ab) = b

1

(a

1

(ab)) = b

1

((a

1

a)b) = b

1

(eb) = b

1

b = e:

Schließlich folgen die Kürzungsregeln durch Multiplikation der jeweils ersten Gleichung von links bzw. rechts mit a 1 .  2.2.4. Auf der Suche nach Beispielen für Gruppen kann es helfen, das Axiom G2 etwas anders zu formulieren. Dazu betrachten wir für ein festes a 2 G die Abbildungen a : G ! G;

x 7! x  a;

(Rechtstranslation), und

: G ! G;

x 7! a  x;

(Linkstranslation).

a

Lemma. Ist G eine Gruppe, so sind für jedes a 2 G die Abbildungen a und a  bijektiv. Ist umgekehrt G eine Menge mit einer assoziativen Verknüpfung, so folgt G2 aus der Surjektivität der Abbildungen a und a  für alle a 2 G.

2.2 Gruppen

59

Beweis. Die Bijektivität von a und a  bedeutet, dass es zu b 2 G genau ein x 2 G und genau ein y 2 G gibt mit xa =b

und

a  y = b;

d. h. dass diese Gleichungen mit x und y als Unbestimmten eindeutig lösbar sind. Die Existenz einer Lösung ist klar, denn es genügt, x =ba

1

und

y=a

1

b

zu setzen. Sind x˜ und y˜ weitere Lösungen, so gilt x  a = x˜  a

und

˜ a  y = a  y;

also x = x˜ und y = y nach der Kürzungsregel in 2.2.3. Seien umgekehrt die Gleichungen xa =b

und

ay =b

für beliebige a; b 2 G lösbar. Dann gibt es zu a ein e mit e  a = a. Ist b 2 G beliebig, so ist e  b = e  (a  y) = (e  a)  y = a  y = b; also existiert ein neutrales Element. Durch Lösen der Gleichung x  a = e erhält man das inverse Element von a.  2.2.5. Eine Verknüpfung auf einer endlichen Menge G = fa1 ; : : : ; an g kann man im Prinzip dadurch angeben, dass man die Werte aller Produkte ai  aj in einem quadratischen Schema ähnlich einer Matrix aufschreibt. Dabei steht ai  aj in der i-ten Zeile und der j -ten Spalte der Verknüpfungstafel (oder im Fall einer Gruppe der Gruppentafel):  ::: :: : ai :: :

aj

:::

ai  aj

Ob das Gruppenaxiom G2 erfüllt ist, kann man dann nach obigem Lemma daran erkennen, ob jede Zeile und jede Spalte der Tafel eine Permutation von a1 ; : : : ; an ist.

60

2 Grundbegriffe

Daraus folgt sofort, dass es nur eine Möglichkeit gibt, die 2-elementige Menge G2 = fa1 ; a2 g zu einer Gruppe zu machen: Ein Element, etwa a1 = e, muss neutral sein, das andere ist a2 = a, und die Gruppentafel ist 

e

a

e

e

a :

a a e Die Kommutativität erkennt man an der Symmetrie der Tafel. Ob das Assoziativgesetz erfüllt ist, kann man der Tafel nicht direkt ansehen, das muss man (leider) für alle möglichen n3 Tripel nachprüfen. Für n = 3 und G = fe; a; bg erhält man ebenfalls nur eine mögliche Gruppentafel, nämlich 

e

a b

e

e

a b

a a b

e

b b

a

e

;

und man stellt fest, dass diese Multiplikation assoziativ ist. Für n = 4 und G = fe; a; b; cg findet man leicht zwei wesentlich verschiedene Möglichkeiten, nämlich 

e

a b

c

e

e

a b

c

a a b

c

e

b b

c

e

a

c

e

a b

c

und

ˇ e

a b

c

e

a b

a a e

e

c

c b :

b b

c

e

a

c

b a e

c

Wieder ist die Kommutativität offensichtlich, die Assoziativität etwas mühsam zu überprüfen. Um diese beiden verschiedenen Multiplikationen unterscheiden zu können, schreiben wir G4 bei der Multiplikation  und G4ı für bei der Multiplikation ˇ. Es ist klar, dass dieses nur auf Ausprobieren beruhende Verfahren für größere n zu kompliziert und unbefriedigend ist. 2.2.6. Um eine bessere Methode zum Studium von Gruppen zu erhalten, benötigt man geeignete Begriffe, die Beziehungen der Gruppen untereinander regeln. Definition. Sei G eine Gruppe mit Verknüpfung und G 0  G eine nichtleere Teilmenge. G 0 heißt Untergruppe, wenn für a; b 2 G 0 auch a  b 2 G 0 und a 1 2 G0.

2.2 Gruppen

61

Sind G und H Gruppen mit Verknüpfungen  und ˇ, so heißt eine Abbildung ' : G ! H Homomorphismus (von Gruppen), wenn '(a  b) = '(a) ˇ '(b)

für alle a; b 2 G:

Ein Homomorphismus heißt Isomorphismus, wenn er bijektiv ist. Zunächst einige unmittelbare Folgerungen aus den Definitionen. Bemerkung 1. Ist G eine Gruppe und G 0  G Untergruppe, so ist G 0 mit der Verknüpfung aus G wieder eine Gruppe. Man nennt diese Verknüpfung in G 0 die von G induzierte Verknüpfung. Beweis. Die induzierte Verknüpfung ist assoziativ, weil sie aus G kommt. Da es ein a 2 G 0 gibt, ist a 1 2 G 0 und a  a 1 = e 2 G 0 .  Bemerkung 2. Sei ' : G ! H ein Homomorphismus von Gruppen. Dann gilt: a) '(e) = e, wenn e 2 G und e 2 H die neutralen Elemente bezeichnen. b) '(a

1

) = '(a)

1

für alle a 2 G.

c) Ist ' Isomorphismus, so ist auch die Umkehrabbildung ' Homomorphismus.

1

: H ! G ein

Beweis. a) folgt aus der Kürzungsregel in H , da e ˇ '(e) = '(e) = '(e  e) = '(e) ˇ '(e) ; und daraus ergibt sich b), weil e = '(e) = '(a

1

 a) = '(a

1

) ˇ '(a):

Zum Beweis von c) nehmen wir c; d 2 H . Ist c = '(a) und d = '(b), so ist Φ(a  b) = '(a) ˇ '(b) = c ˇ d; also '

1

(c ˇ d ) = a  b = '

1

(c)  '

1

(d ): 

Im Folgenden werden wir die Verknüpfung und die neutralen Elemente in G und H nur noch dann verschieden bezeichnen, wenn das erforderlich ist (etwa in dem Beispiel b) weiter unten). Beispiele. a) Zunächst betrachten wir die in 2.2.5 konstruierten Beispiele. Für die Mengen gilt G2  G3 ; G3  G4

und

G2  G4 ;

62

2 Grundbegriffe

aber bei keiner der Teilmengen handelt es sich um eine Untergruppe. Dagegen ist G2  G4ı eine Untergruppe. Die identische Abbildung G4 ! G4ı ist kein Homomorphismus. Beispiele von Homomorphismen ' : G4 ! G4ı sind gegeben durch '(e) = '(a) = '(b) = '(c) = e; '(e) = e;

'(a) = a;

'(b) = e;

'(c) = a;

'(e) = e;

'(a) = b;

'(b) = e;

'(c) = b;

'(e) = e;

'(a) = c;

'(b) = e;

'(c) = c:

Die einfachen Begründungen seien dem Leser zur Übung empfohlen. b) Ist G = R mit der Addition und H = R+ mit der Multiplikation als Verknüpfung, so ist die Exponentialfunktion exp : R ! R+ ;

x 7! e x ;

ein Isomorphismus, da e x+y = e x  e y . c) Wir betrachten die abelsche Gruppe Z mit der Addition als Verknüpfung. Für jedes m 2 Z ist die Abbildung 'm : Z ! Z;

a 7! m  a;

ein Homomorphismus, denn m(a + b) = ma + mb. Sein Bild mZ := fm  a : a 2 Zg  Z ist eine Untergruppe, weil ma + mb = m(a + b) und mb = m( b). 2.2.7. Teilung mit Rest in Z. Teilt man eine ganze Zahl n durch eine andere n n m  1, so entsteht eine rationale Zahl m , in Zeichen n; m 2 Z und m 2 Q. n Der Quotient m ist nur dann wieder ganz, wenn m ein Teiler von n ist. Als Ersatz gibt es eine Teilung mit Rest. Zunächst ein ganz einfaches Beispiel. Ist m = 3 und n = 13, so ist der „gemeine Bruch“ 13 nicht ganz, als 3 „gemischter Bruch“ ist 13 1 1 =4 =4+ : 3 3 3 Das kann man auch ohne Nenner in Z schreiben als 13 = 43+1, d. h. n = qm+r mit 0  r < m. Ist dagegen m = 3 und n = 13, so ist es üblich 13 2 = 5+ oder 13 = 5  3 + 2 3 3 auszudrücken mit 0  r = 2 < m = 3.

2.2 Gruppen

63

Hintergrund ist der folgende höchst plausible Satz. Zu zwei Zahlen m; n 2 Z mit m  1 gibt es eindeutig bestimmte Zahlen q; r 2 Z derart, dass n=qm+r

und

0  r < m:

Man nennt q den Quotienten und r den Rest bei der Division durch m. Beweis. Unter Benutzung der rationalen Zahlen und ihrer Anordnung ist es ganz n einfach. Zu m 2 Q betrachtet man die Menge n no X := x 2 Z : x   Z: m Da X nach oben beschränkt ist, gibt es ein größtes Element q 2 X. In der üblichen Notation ist jnk q= m n n der ganzzahlige Anteil von m . Da q  m < q + 1 folgt mit n r r := n q  m; dass 0  q= < 1; also 0  r < m:  m m Ein Beweis dieses Satzes in Z, ohne Benutzung rationaler Zahlen, erfordert etwas mehr Arbeit (vgl. etwa [Fi1, 1.3.1]). 2.2.8. Restklassen und Kongruenz*. Wir betrachten für m 2 N mit m  1 noch einmal die Untergruppe mZ  Z aus Beispiel c) in 2.2.6. Sie besteht aus all den ganzen Zahlen, die durch m teilbar sind, d. h. bei Teilung durch m den Rest r = 0 ergeben. Allgemeiner besteht für r 2 f0; 1; : : : ; m 1g die Menge r + mZ := fr + k  m : k 2 Zg  Z aus all den Zahlen, die bei Teilung durch m den Rest r ergeben. Man nennt daher r + mZ eine Restklasse modulo m. Offensichtlich ist [ Z= r + mZ 0r 0, so ist die Menge ˚ Z/mZ := 0; 1; : : : ; m

1



der Restklassen modulo m mit der oben erklärten Addition eine abelsche Gruppe, und die Abbildung Z ! Z/mZ; ist ein surjektiver Homomorphismus.

a 7! a + mZ;

2.2 Gruppen

65

Beweis. Die Assoziativität vererbt sich von Z nach Z/mZ: (a + b) + c = a + b + c = (a + b) + c = a + (b + c) = a + b + c = a + (b + c): Neutrales Element ist 0, denn 0+a = 0 + a = a, und Inverses von a ist a. Auch die Kommutativität wird von Z vererbt.  Man nennt Z/mZ für m > 0 die zyklische Gruppe der Ordnung m, für m = 0 ist Z/0Z = Z, diese Gruppe heißt unendlich zyklisch. Das etwas ungewohnt erscheinende Rechnen mit Restklassen ist im täglichen Leben höchst vertraut: Wer um 10 Uhr weggeht und 3 Stunden unterwegs ist, kommt um 1 Uhr zurück. Denn der Stundenzeiger der Uhr rechnet modulo 12. Die Zeitrechnung insgesamt mit ihren durch Sekunden, Minuten, Stunden, Tage Monate und Jahre verursachten Kongruenzen ist weit komplizierter als dieser letzte Abschnitt über Gruppen. Teile der Restklassen modulo 7 findet man auf jedem Blatt eines Monatskalenders. Betrachtet man die Wochentage als Restklassen, so ergibt deren Addition in diesem (aber nicht in jedem) Monat z. B. Mittwoch + Samstag = Donnerstag. Die ebenfalls abgebildete Römerfläche wird in der projektiven Geometrie wieder auftauchen [Fi2].

66

2 Grundbegriffe

Ein Leser, der mit Kongruenzen immer noch Schwierigkeiten hat, ist in guter Gesellschaft mit GOETHES Faust, der zu Mephisto sagt: „Mich dünkt, die Alte spricht im Fieber“, als die Hexe aus ihrem Rechenbuche vorliest: Du musst verstehn! Aus Eins mach Zehn, Und Zwei lass gehn, Und Drei mach gleich, So bist du reich. Verlier die Vier!

Aus Fünf und Sechs, So sagt die Hex’, Mach Sieben und Acht, So ist’s vollbracht: Und Neun ist Eins, Und Zehn ist keins. Das ist das Hexen-Einmaleins.

Alles klar: die Hexe rechnet schließlich modulo 2. Nur am Anfang holperts noch etwas, da scheint der Reim vor der Rechnung zu stehen.

Aufgaben zu 2.2 1. Sei G eine Gruppe mit aa = e für alle a 2 G, wobei e das neutrale Element von G bezeichnet. Zeigen Sie, dass G abelsch ist. 2. Bestimmen Sie (bis auf Isomorphie) alle Gruppen mit höchstens vier Elementen. Welche davon sind abelsch? 3. Welche der folgenden Abbildungen sind Gruppenhomomorphismen? a) f1 : Z ! Z; z 7! 2z; 

2

c) f3 : Z ! Q ; z 7! z + 1; 

e) f5 : C ! R ; z 7! jzj;

b) f2 : Z ! Z; z 7! z + 1; d) f4 : C ! R ; z 7! jzj; f) f6 : Z/pZ ! Z/pZ; z 7! z p :

Dabei ist die Verknüpfung in Z; C und Z/pZ jeweils die Addition, in Q*; R und C jeweils die Multiplikation und p eine Primzahl. 4. Sei G eine Gruppe und A  G. Die von A erzeugte Untergruppe erz(A) ist definiert durch erz(A) = fa1  : : :  an : n 2 N; ai 2 A oder ai

1

2 Ag:

erz(A) ist somit die Menge aller endlichen Produkte von Elementen aus A bzw. deren Inversen. Zeigen Sie, dass erz(A) die „kleinste“ Untergruppe von G ist, die A enthält, d. h. i) erz(A)  G ist eine Untergruppe. ii) Ist U  G eine Untergruppe mit A  U , so folgt erz(A)  U . Wie sieht erz(A) aus für den Fall, dass A einelementig ist?

2.2 Gruppen

67

5. Für eine natürliche Zahl n  3 sei d 2 S(R2 ) die Drehung um den Winkel 2/n und s 2 S(R2 ) die Spiegelung an der x-Achse. Die Diedergruppe Dn ist definiert durch Dn := erz(fs; d g): a) Wie viele Elemente hat Dn ? b) Geben Sie eine Gruppentafel von D3 an. 6. Eine Gruppe G heißt zyklisch, falls es ein g 2 G gibt mit G = erz(fgg). a)

Wie sieht die Gruppentafel einer endlichen zyklischen Gruppe aus?

b)* Zeigen Sie, dass jede zyklische Gruppe entweder isomorph zu Z oder Z/mZ(m 2 N geeignet) ist. 7. Zeigen Sie: Ist G eine abelsche Gruppe und H  G eine Untergruppe, so ist durch x  y , xy

1

2H

eine Äquivalenzrelation auf G erklärt. Sei G/H := G/  die Menge der Äquivalenzklassen, und die zu x 2 G gehörige Äquivalenzklasse sei mit x bezeichnet. Sind x; x 0 ; y; y 0 2 G mit x  x 0 und y  y 0 , so ist xy  x 0 y 0 . Somit kann man auf G/H durch x  y := xy eine Verknüpfung erklären. Zeigen Sie, dass G/H auf diese Weise zu einer abelschen Gruppe wird und für G = Z; H = mZ genau die in 2.2.8 definierten zyklischen Gruppen Z/mZ entstehen. 8. Man gebe ein Beispiel einer nicht assoziativen Verknüpfung auf der Menge G = f1; 2; 3g, sodass für alle a 2 G die Translationen a , und a  aus 2.2.4 surjektiv sind. 9. In einer Gruppe G ist eine endliche Teilmenge G 0  G schon dann eine Untergruppe, wenn für a; b 2 G 0 auch a  b 2 G 0 gilt. Hinweis: Verwenden Sie die Translationen  aus 2.2.4 und den Satz aus 2.1.4.

68

2 Grundbegriffe

2.3 Ringe, Körper und Polynome 2.3.1. Bei Gruppen hat man nur eine einzige Verknüpfung; ob man sie als Addition oder als Multiplikation bezeichnet, ist nebensächlich. In der linearen Algebra braucht man aber mehrere Arten von Verknüpfungen, insbesondere Addition und Multiplikation, also zwei Arten der Verknüpfung, die miteinander in geregelter Beziehung stehen. Damit beschäftigt sich dieser Abschnitt. Definition. Eine Menge R zusammen mit zwei Verknüpfungen + : R  R ! R; (a; b) 7! a + b;  : R  R ! R; (a; b) 7! a  b;

und

heißt Ring, wenn folgendes gilt: R1 R zusammen mit der Addition + ist eine abelsche Gruppe. R2 Die Multiplikation  ist assoziativ. R3 Es gelten die Distributivgesetze, d. h. für alle a; b; c 2 R gilt a  (b + c) = a  b + a  c

und

(a + b)  c = a  c + b  c:

Ein Ring heißt kommutativ, wenn a  b = b  a für alle a; b 2 R. Ein Element 1 2 R heißt Einselement, wenn 1  a = a  1 = a für alle a 2 R. Enthält R mindestens zwei Elemente, d. h. auch ein a ¤ 0, so ist 1 ¤ 0. Wie üblich soll dabei zur Einsparung von Klammern die Multiplikation stärker binden als die Addition. Bemerkung. Ist R ein Ring und 0 2 R das Nullelement, so gilt für alle a 2 R 0  a = a  0 = 0: Beweis. 0  a = (0 + 0)  a = 0  a + 0  a.



Beispiele. a) Die Mengen Z der ganzen Zahlen, Q der rationalen Zahlen und R der reellen Zahlen sind zusammen mit der üblichen Addition und Multiplikation kommutative Ringe. b) Ist I  R ein Intervall und R die Menge der Funktionen f : I ! R, so sind durch (f + g)(x) := f (x) + g(x)

und

(f  g)(x) := f (x)  g(x)

Verknüpfungen erklärt, und R wird damit zu einem kommutativen Ring. Das folgt ganz leicht aus den Ringeigenschaften von R.

2.3 Ringe, Körper und Polynome

69

c) In der Gruppe Z/mZ der Restklassen modulo m aus 2.2.8 kann man durch a  b := a  b auch eine Multiplikation erklären. Denn ist wieder a so folgt

a0 = mk und b

b 0 = ml,

a  b = (a0 + mk)  (b 0 + ml) = a0  b 0 + m(b 0 k + a0 l + mkl): Also ist die Definition der Multiplikation unabhängig von der Auswahl der Repräsentanten. Die Regeln R2 und R3 und die Kommutativität der Multiplikation folgen ganz einfach aus den entsprechenden Regeln in Z. Die Multiplikationstafeln wollen wir für m = 2; 3; 4 explizit aufschreiben. Dabei lassen wir zur Vereinfachung bei den Restklassen die Querstriche weg. 

0 1

0

0 0

1

0 1



0 1

2

0

0 0

0

1

0 1

2

2

0 2

1



0

1

2 3

0 0

0

0 0

1 0

1

2 3 :

2 0

2

0 2

3 0

3

2 1

Die Multiplikation mit 0 ist uninteressant, wir betrachten also in diesen drei Fällen die Menge Rrf0g. Für m = 2 und m = 3 ist sie zusammen mit der Multiplikation wieder eine Gruppe, für m = 4 nicht, denn hier ist 12=32

und

2  2 = 0:

Also ist die Kürzungsregel verletzt, und das Produkt 2  2 liegt nicht in R r f0g. 2.3.2. Das vorangehende Beispiel motiviert die Definition. Ein Ring R heißt nullteilerfrei, wenn für alle a; b 2 R aus a  b = 0 stets a = 0 oder b = 0 folgt. Ist R nullteilerfrei, so gilt für x; y; a 2 R mit a ¤ 0 die Kürzungsregel xa =ya denn dann ist (x

,

x = y;

y)  a = 0.

Bemerkung. Der Restklassenring Z/mZ ist für m  2 genau dann nullteilerfrei, wenn m eine Primzahl ist. Beweis. Ist m keine Primzahl, also m = k  l mit 1 < k; l < m, so ist k; l ¤ 0;

aber 0 = m = k  l:

70

2 Grundbegriffe

Ist umgekehrt m Primzahl und k  l = 0, so ist kl =r m für ein r 2 Z. Also hat entweder k oder l einen Primfaktor m, d. h. k = 0 oder l = 0.  Als Vorsorge für später noch eine Definition. Ist R ein Ring und R0  R eine Teilmenge, so heißt R0 Unterring, wenn R0 bezüglich der Addition Untergruppe ist (also entsprechend 2.2.6 für a; b 2 R0 auch a + b 2 R0 und a 2 R0 ), und bezüglich der Multiplikation für a; b 2 R0 auch a  b 2 R0 . Sind R und S Ringe mit Verknüpfungen +;  und ˚; ˇ, so heißt eine Abbildung ' : R ! S ein Homomorphismus (von Ringen), wenn für alle a; b 2 R gilt: '(a + b) = '(a) ˚ '(b)

und

'(a  b) = '(a) ˇ '(b):

Zum Beispiel ist mZ  Z ein Unterring und Z ! Z/mZ; a 7! a + mZ, ein Homomorphismus. 2.3.3. In einem nullteilerfreien Ring R ist für a; b 2 R r f0g auch das Produkt a  b 2 R r f0g, also induziert die Multiplikation von R eine assoziative Multiplikation in R r f0g. Das Gruppenaxiom G2 braucht jedoch keineswegs erfüllt zu sein: Im Ring Z gibt es außer für 1 und 1 kein multiplikatives Inverses, im Ring 2Z der geraden Zahlen nicht einmal ein Einselement. Ist R r f0g mit der Multiplikation eine Gruppe und darüber hinaus der Ring kommutativ, so nennt man ihn Körper. Das wollen wir noch einmal direkter aufschreiben: Definition. Eine Menge K zusammen mit zwei Verknüpfungen +:  :

K  K ! K; (a; b) 7! a + b; K  K ! K; (a; b) 7! a  b;

und

heißt Körper, wenn Folgendes gilt: K1 K zusammen mit der Addition + ist eine abelsche Gruppe. (Ihr neutrales Element wird mit 0, das zu a 2 K inverse Element mit bezeichnet.)

a

K2 Bezeichnet K  := K r f0g, so gilt für a; b 2 K  auch a  b 2 K  , und K  zusammen mit der so erhaltenen Multiplikation ist eine abelsche Gruppe. (Ihr neutrales Element wird mit 1, das zu a 2 K  inverse Element mit a 1 oder 1/a bezeichnet. Man schreibt b/a = a 1 b = ba 1 :) K3 Es gelten die Distributivgesetze, d. h. für a; b; c 2 K ist a  (b + c) = a  b + a  c

und

(a + b)  c = a  c + b  c:

2.3 Ringe, Körper und Polynome

71

Bemerkung. In einem Körper K gelten die folgenden weiteren Rechenregeln (dabei sind a; b; x; x˜ 2 K beliebig): a) 1 ¤ 0 (also hat ein Körper mindestens zwei Elemente). b) 0  a = a  0 = 0. c) a  b = 0 ) a = 0 oder b = 0. d) a( b) =

(ab) und ( a)( b) = ab.

e) x  a = x˜  a und a ¤ 0 ) x = x˜. Beweis. a) ist ganz klar, denn 1 2 K  , aber 0 62 K  . b) sieht man wie in 2.3.1. Die Nullteilerfreiheit c) ist in K2 enthalten. d) folgt aus ab + ( a)b = (a + ( a))b = 0  b = 0 ( a)( b) =

(( a)b) =

und

( ab) = ab



nach 2.2.3, Bem. c). 

Die Kürzungsregel e) gilt in K , also im Fall x; x˜ 2 K . Ist x = 0, so muss auch x˜ = 0, also x = x˜ sein.  2.3.4. Beispiele für Körper. a) Die rationalen Zahlen Q und die reellen Zahlen R sind Körper. Das lernt man in der Analysis (vgl. etwa [Fo1], §2). b) Zur Konstruktion der komplexen Zahlen C führt man in der reellen Ebene R  R eine Addition und Multiplikation ein. Die naheliegende Frage, warum das im Rn mit n > 2 nicht mehr so geht, wird in [Z] behandelt. Durch einfaches Nachprüfen der Körperaxiome beweist man: R  R = f(a; b) : a; b 2 Rg zusammen mit der durch (a; b) + (a0 ; b 0 ) := (a + a0 ; b + b 0 ) definierten Addition und der durch (a; b)  (a0 ; b 0 ) := (aa0

bb 0 ; ab 0 + a0 b)

definierten Multiplikation ist ein Körper mit (0,0) als neutralem Element der Addition, ( a; b) als Negativem von (a; b); (1; 0) als neutralem Element der Multiplikation und   a b (a; b) 1 := ; a2 + b 2 a2 + b 2 als multiplikativem Inversen. Wir nennen R  R mit diesen Verknüpfungen den Körper der komplexen Zahlen und bezeichnen ihn mit C.

72

2 Grundbegriffe

Die Abbildung R ! R  R = C;

a 7! (a; 0);

ist injektiv. Da (a; 0) + (a0 ; 0) = (a + a0 ; 0) 0

und

0

(a; 0)  (a ; 0) = (a  a ; 0) gilt, braucht man zwischen R und R  f0g = f(a; b) 2 C : b = 0g auch hinsichtlich Addition und Multiplikation nicht zu unterscheiden. Man kann also R mit R  f0g, d. h. a mit (a; 0) „identifizieren“ und R als Teilmenge von C betrachten. Dies wird noch einleuchtender durch folgende übliche Konventionen. Man definiert i := (0; 1) als imaginäre Einheit. Dann ist i2 = 1, und für jedes (a; b) 2 C gilt (a; b) = (a; 0) + (0; b) = a + bi: Für  = (a; b) = a + bi 2 C nennt man re  := a 2 R den Realteil und im  := b 2 R den Imaginärteil,  := a

bi 2 C

heißt die zu  konjugiert komplexe Zahl. Für die komplexe Konjugation gelten folgende, ganz einfach nachzuweisende Regeln: Für alle ;  2 C ist  +  =  + ;    =   ;  2 R ,  = : Da für  = a + bi 2 C    = (a + bi)  (a

bi) = a2 + b 2 2 R+ ;

kann man den Absolutbetrag jj :=

p

=

p

a2 + b 2

definieren. Wie man leicht nachrechnet, ist für alle ;  2 C j + j  jj + jj (Dreiecksungleichung)

und

j  j = jj  jj:

2.3 Ringe, Körper und Polynome

73

Vorsicht! Die in R vorhandene -Relation lässt sich nicht in sinnvoller Weise auf C fortsetzen. Für komplexe Zahlen kann man daher i. A. nur die Absolutbeträge vergleichen, d. h. für ;  2 C ist jj  jj

oder jj  jj:

Bild 2.4

Wir wollen noch eine geometrische Beschreibung von Addition und Multiplikation komplexer Zahlen geben. Die Addition entspricht der Addition von Vektoren im R2 (Bild 2.5, vgl. auch Bild 1.1). Ist  eine von Null verschiedene komplexe Zahl 1 und 0 = jj  , so ist j0 j = 1. Es gibt also ein eindeutig bestimmtes ˛ 2 [0; 2[, sodass 0 = cos ˛ + i  sin ˛ = e i˛ ; wie man in der Analysis lernt. Man nennt arg  := ˛ das Argument von , und es ist  = jj  e i arg  : Ist  = jj  e i arg  eine weitere von Null verschiedene komplexe Zahl, so ist    = jj  jj  e i arg   e i arg  = jj  jj  e i(arg +arg ) : Bei der Multiplikation komplexer Zahlen werden also die Absolutbeträge multipliziert und die Argumente addiert (Bild 2.5).

Bild 2.5

74

2 Grundbegriffe

c) Wie wir gesehen haben, gibt es in jedem Körper zwei verschiedene Elemente 0 und 1. Daraus kann man schon einen Körper machen, indem man in K = f0; 1g Addition und Multiplikation einführt durch die Tafeln + 0 1



0 1

0

0 1

0

0 0 :

1

1 0

1

0 1

Offensichtlich ist das auch die einzige Möglichkeit, als Ring war dieser Körper schon in 2.3.1 in der Form Z/2Z aufgetreten. Diese Verknüpfungen kann man elektronisch leicht realisieren, daher ist dieser Körper der elementare Baustein aller Computer. d) In 2.3.2 hatten wir für jedes m 2 N r f0g den Restklassenring Z/mZ eingeführt und bewiesen, dass er für m  2 genau dann nullteilerfrei ist, wenn m eine Primzahl ist. Dies ist also eine notwendige Bedingung dafür, ein Körper zu sein. Dass es auch hinreichend ist, folgt aus der etwas allgemeineren Bemerkung. Ein nullteilerfreier, kommutativer Ring K mit endlich vielen Elementen und Eins ist ein Körper Beweis. Nach 2.2.4 genügt es, für jedes a 2 K  zu zeigen, dass die Multiplikation K ! K;

x 7! a  x;

eine surjektive Abbildung ist. Wenn K und damit auch K  endlich ist, genügt dafür die Injektivität (vgl. 2.1.4). Die ist aber klar, denn für x ¤ x˜ und a  x = a  x˜ würde a(x

x˜) = 0

und

a ¤ 0;

x

x˜ ¤ 0

gelten.



Im Ring Z gilt für jedes n 2 N mit n  1 n  1 := 1 + : : : + 1 = n ¤ 0: „ ƒ‚ … n-mal

In Z/mZ mit m  2 ist die Restklasse 1 das Einselement, es gilt m  1 := 1 + : : : + 1 = 1 + : : : + 1 = m = 0: „ ƒ‚ … m-mal

Das zeigt einen grundlegenden Unterschied zwischen den beiden Ringen Z und Z/mZ.

2.3 Ringe, Körper und Polynome

75

In einem beliebigen Ring R wollen wir zum besseren Verständnis die neutralen Elemente von Addition und Multiplikation vorübergehend mit 0 und 1 bezeichnen. Für n 2 N sei n  1 := 1 + : : : + 1 : „ ƒ‚ … n-mal

Definition. Ist R ein Ring mit Einselement 1 ¤ 0, so ist seine Charakteristik erklärt durch ( 0; falls n  1 ¤ 0 für alle n  1; char(K) := minfn 2 N r f0g : n  1 = 0g sonst. Lemma. Ist K ein Körper, so ist char(K) entweder Null oder eine Primzahl. Beweis. Angenommen, char(K) = m = k  ` ¤ 0 mit 1 < k; ` < m. Aus 0 = m  1 = (k  `)  1 = (k  1)(`  1) folgt wegen der Nullteilerfreiheit k  1 = 0 oder `  1 = 0, was im Widerspruch zur Minimalität von m steht.  Besonders wichtig ist der Fall p = 2, er regiert die Welt der Bits und Bytes. Hier ist 1 + 1 = 0;

also

1 = +1;

und allgemeiner a = +a für alle a 2 R, denn a + a = 1  a + 1  a = (1 + 1)  a = 0  a = 0: In Charakteristik 2 darf man also Vorzeichen ignorieren. Nach den oben bewiesenen Ergebnissen gibt es also für jede Primzahl p den Körper Fp := Z/pZ der Charakteristik p, er heißt Primkörper. Wie man in der Algebra lernt, gibt es zu jedem n  1 und q = p n einen Körper Fq der Charakteristik p, der Fp enthält (vgl. dazu etwa [Fi3, 3.3.4]). Dazu einige Beispiele für die Additions- und Multiplikationstafeln, wobei wir zur Vereinfachung bei den Restklassen die Querstriche weglassen: F3 : + 0 1

2



0

1

2

0

0 1

2

0 0

0

0

1

1 2

0

1 0

1

2

2

2 0

1

2 0

2

1

76

2 Grundbegriffe

F5 : + 0 1

2 3

4



0 1

2 3

4

0

0 1

2 3

4

0

0 0

0 0

0

1

1 2

3 4

0

1

0 1

2 3

4

2

2 3

4 0

1

2

0 2

4 1

3

3

3 4

0 1

2

3

0 3

1 4

2

4

4 0

1 2

3

4

0 4

3 2

1

Z/4Z hat Nullteiler, für F4 findet man als einzige Möglichkeit + 0 1 a b 0

0 1 a b



0

1 a b

0 0

0 0

1 a b

1 1 a b

0

1 0

a a b

0

1

a 0 a b

b b

1

a

b

0

0 b

0 1

1 a

Die Assoziativität der Multiplikation und die Distributivität sind leicht nachprüfbar. Offensichtlich ist F2 = f0; 1g  F4 und F4 r f0g ist zyklisch. 2.3.5. Spätestens bei der Suche nach Eigenwerten in Kapitel 5 wird es sich nicht mehr vermeiden lassen, Polynome beliebigen Grades zu Hilfe zu nehmen. Weil es von der Systematik passt, wollen wir die dann benötigten Tatsachen schon hier zusammenstellen. Wir nehmen einen Körper K und eine Unbestimmte t . Eine Unbestimmte soll dabei einfach ein Buchstabe sein, für den man alles einsetzen darf, was sinnvoll ist (das kann man präziser formulieren, aber damit wollen wir uns hier nicht aufhalten, vgl. [Fi3]). Ein Polynom mit Koeffizienten in K (oder Polynom über K) ist dann ein formaler Ausdruck der Gestalt f (t ) = a0 + a1 t + : : : + an t n ; wobei a0 ; : : : ; an 2 K. Meist schreibt man statt f (t ) nur f . Mit K[t ] bezeichnen wir die Menge all solcher Polynome. Sind alle Koeffizienten a = 0, so spricht man vom Nullpolynom und schreibt f = 0. Der Grad von f ist erklärt als  1; falls f = 0; deg f := maxf 2 N : a ¤ 0g; sonst: Schließlich heißt f normiert, wenn an = 1. Das Nächstliegende, was man für die Unbestimmte t einsetzen kann, sind Elemente aus K. Ist  2 K, so ist auch f () := a0 + a1  + : : : + an n 2 K;

2.3 Ringe, Körper und Polynome

77

aus dem Polynom f erhält man also eine Abbildung f˜ : K ! K;  7! f (); insgesamt also (mit der Notation aus 2.1.3) eine Abbildung  : K[t ] ! Abb(K; K); f 7! f˜: Die etwas pedantisch wirkende Unterscheidung zwischen dem Polynom f und der Polynomabbildung f˜ ist leider nötig, wenn man sich einmal mit endlichen Körpern eingelassen hat (vgl. dazu Korollar 2 aus 2.3.10). Beispiel. Ist K = f0; 1g der Körper mit zwei Elementen aus 2.3.4 und f = t 2 + t; so ist f˜(0) = 0 + 0 = 0 und f˜(1) = 1 + 1 = 0; also ist f˜ die Nullabbildung, obwohl f ¤ 0, weil a1 = a2 = 1. Die obige Abbildung  ist also nicht injektiv. 2.3.6. Die Menge K[t ] hat viel Struktur, insbesondere eine natürliche Addition und Multiplikation. Dazu nehmen wir f; g 2 K[t]. Ist f = a0 + a1 t + : : : + an t n ;

g = b0 + b1 t + : : : + bm t m ;

so können wir zur Definition der Addition m = n annehmen (ist etwa m < n, so setze man bm+1 = : : : = bn = 0). Dann ist f + g := (a0 + b0 ) + (a1 + b1 )t + : : : + (an + bn )t n : Die Multiplikation ist dadurch erklärt, dass man formal ausmultipliziert, also X f  g := c0 + c1 t + : : : + cn+m t n+m mit ck = ai bj : i +j =k

Insbesondere ist c0 = a0 b0 ; c1 = a0 b1 + a1 b0 ; c2 = a0 b2 + a1 b1 + a2 b0 ; :: : cn+m = an bm : Ist f  g = h, so nennt man f und g Teiler von h. Bemerkung. Ist K ein Körper, so ist die Menge K[t] der Polynome über K zusammen mit den oben definierten Verknüpfungen ein kommutativer Ring ohne Nullteiler. Weiter gilt deg(f  g) = deg f + deg g Dabei soll formal n

1=

1+m=

für f; g 2 K[t ].

1 + ( 1) =

1 sein.

78

2 Grundbegriffe

Man nennt K[t ] den Polynomring über K. Beweis. Der Nachweis der Axiome erfordert nur geduldiges Rechnen. Die Aussage über den Grad folgt aus an bm ¤ 0, falls an ; bm ¤ 0. K[t ] enthält keine Nullteiler, denn ist f ¤ 0 und g ¤ 0, so ist deg f  0 und deg g  0, also deg(f  g) = deg f + deg g  0:



Es sei angemerkt, dass man analog für einen kommutativen Ring R einen kommutativen Polynomring R[t ] erhält. Die Aussage über den Grad des Produktpolynoms gilt nur über einem nullteilerfreien Ring. 2.3.7. Der Mangel eines Ringes gegenüber einem Körper ist der, dass man im Allgemeinen nicht dividieren kann. Bei ganzen Zahlen hat man als Ersatz eine Teilung mit Rest (vgl. 2.2.7), die ganz analog auch für Polynome erklärt werden kann. Satz. Sind f; g 2 K[t ], und ist g ¤ 0, so gibt es dazu eindeutig bestimmte Polynome q; r 2 K[t] derart, dass f =qg+r

und

deg r < deg g:

Man kann die Beziehung auch in der nicht ohne weiteres erlaubten, aber sehr suggestiven Form f r =q+ g g schreiben. Der Buchstabe q steht für „Quotient“, r für „Rest“. Beweis. Wir zeigen zunächst die Eindeutigkeit. Seien q; r; q 0 ; r 0 2 K[t ] mit f = q  g + r = q0  g + r 0;

wobei

deg r; deg r 0 < deg g:

Durch Subtraktion folgt 0 = (q

q 0 )  g + (r

r 0 );

also (q

q0)  g = r 0

r:

()

Da zwei gleiche Polynome gleichen Grad haben, folgt aus q ¤ q 0 wegen g ¤ 0 deg(r 0

q 0 ) + deg g  deg g;

r) = deg(q

was nicht sein kann. Also ist q = q 0 , und aus () folgt auch r = r 0 . Zum Beweis der Existenz von q und r geben wir ein Verfahren an, mit dem man diese Polynome schrittweise berechnen kann. Dazu schreibt man die Polynome am besten nach fallenden Potenzen, also f = an t n + : : : + a1 t + a0 ;

g = bm t m + : : : + b1 t + b0 ;

wobei an ; bm ¤ 0. Ist n < m, so kann man q = 0 und r = f wählen, denn f =0g+f

und

deg f < deg g:

2.3 Ringe, Körper und Polynome

79

Im Fall n  m teilt man zunächst die höchsten Terme von f und g, das ergibt an n m q1 := t bm als höchsten Term von q. Im nächsten Schritt betrachtet man f1 := f

q1  g:

Nach Definition ist deg f1 < deg f . Ist deg f1 < m, so kann man q = q1 und r = f1 setzen. Andernfalls wiederholt man den ersten Schritt mit f1 statt f , d. h. man erhält den nächsten Term q2 von q und f2 := f1

q2  g

deg f2 < deg f1 :

mit

Da die Grade der fi bei jedem Schritt um mindestens eins abnehmen, erhält man schließlich ein k  n m + 1, so dass für fk := fk

1

qk  g

erstmals

deg fk < deg g;

und damit bricht das Verfahren ab: Setzt man die Gleichungen ineinander ein, so ergibt sich f = q1 g + f1 = (q1 + q2 )g + f2 = : : : = (q1 + : : : + qk )g + fk ; also ist eine Lösung unseres Problems gegeben durch q := q1 + : : : + qk

und

r := fk :



Da bei der Konstruktion von q immer nur durch bm dividiert wird, kann man im Fall bm = 1 den Körper K durch einen Ring ersetzen. Beispiel. Sei K = R; f = 3t 3 + 2t + 1; g = t 2 4t . Die Rechnung verläuft nach folgendem Schema: (3t 3 +2t + 1) : (t 2 3t 3 +12t 2 12t 2 +2t + 1 12t 2 +48t 50t + 1

4t ) = 3t + 12 + (50t + 1) : (t 2

4t )

Es ist also q = 3t + 12 und r = 50t + 1. 2.3.8. Bei der Theorie der Eigenwerte in Kapitel 5 werden einige grundlegende Eigenschaften der Teilbarkeit von Polynomen benötigt; dafür soll schon hier vorgesorgt werden. Allgemeiner kann man ausgehen von einem Integritätsring R, das ist ein Ring mit den folgenden Eigenschaften: i) R ist kommutativ mit Einselement 1 ¤ 0 ii) R ist nullteilerfrei (vgl. 2.3.2). Das sei im Folgenden stets vorausgesetzt.

80

2 Grundbegriffe

Die wichtigsten Beispiele für die Teilbarkeitstheorie sind R = Z und der Polynomring R = K[t ] über einem Körper K. Sind nun a; b 2 R, so heißt b Teiler von a (in Zeichen b j a), wenn es ein c 2 R gibt mit a = c  b. a 2 R heißt Einheit, wenn es ein a˜ 2 R gibt mit a  a˜ = 1. Bemerkung 1. a) m 2 Z ist eine Einheit , m 2 f1; 1g. b) Ist K ein Körper, so gilt für a 2 K: a ist eine Einheit , a ¤ 0. c) f 2 K[t ] ist eine Einheit , deg f = 0. Beweis. a) und b) sind klar. Ist f  f˜ = 1 für f; f˜ 2 K[t ], so muss deg f = deg f˜ = 0 sein nach der Bemerkung aus 2.3.6. Ist umgekehrt deg f = 0, so ist f 2 K r f0g und nach b) eine Einheit. Einheiten sind in der Teilbarkeitslehre irrelevant, genauer gilt: Bemerkung 2. Für a; b 2 R sind die folgenden Eigenschaften gleichwertig: i) b j a und a j b ii) b = e  a mit einer Einheit e 2 R. Beweis. i) ) ii): Aus a = c  b und b = d  a mit b; d 2 R folgt b = d  c  b, also d  c = 1. ii) ) i): b j a folgt aus b = e  a, und daraus folgt weiter a = 1  a = e˜  e  a = e˜  b:



Sind a; b 2 R gegeben, so heißt ein c 2 R gemeinsamer Teiler von a und b, wenn cja

und

c j b:

Ein gemeinsamer Teiler d von a und b heißt größter gemeinsamer Teiler (in Zeichen ggT(a; b)), wenn cjd

für jeden gemeinsamen Teiler c:

Ein größter gemeinsamer Teiler ist nach Bemerkung 2 nur bis auf eine Einheit eindeutig bestimmt. Ob in den Ringen Z und K[t ] ein b Teiler von a ist, kann man mithilfe der in 2.2.7 und 2.3.7 behandelten Teilungen mit Rest entscheiden. Zu m; n 2 Z mit n  1 gibt es eindeutig bestimmte q; r 2 Z derart, dass m=qn+r Dann folgt n j m , r = 0.

und

0  r < n:

2.3 Ringe, Körper und Polynome

81

Zu f; g 2 K[t ] mit deg g  0 gibt es eindeutig bestimmte q; r 2 K[t ] derart, dass f =qg+r

und

Dann folgt g j f , r = 0, d. h. deg r =

deg r < deg g: 1.

Diese Art der Division ist die Grundlage für den in R = Z und R = K[t ] gleichermaßen anwendbaren euklidischen Algorithmus zur Bestimmung eines größten gemeinsamen Teilers von a; b 2 R. Genauer gilt: Satz. In den Ringen R = Z und R = K[t ] gibt es zu a; b 2 R r f0g stets einen größten gemeinsamen Teiler d 2 R r f0g. Man kann ihn eindeutig machen durch die folgenden zusätzlichen Festlegungen: i) d > 0 in Z ii) d normiert, d. h. höchster Koeffizient gleich 1, in K[t ]. Beweis. Wir setzen ı(c) :=

( jcj deg c

für c 2 Z; für c 2 K[t ]

sowie a0 = a und a1 = b. Weiter kann man ı(a0 )  ı(a1 ) voraussetzen. Durch wiederholte Teilungen mit Rest ergibt sich nun das folgendes Diagramm: a0 = a1 = :: : a k 2 = qk ak 1 =

q1 a 1 + a 2 q2 a 2 + a 3 1 ak 1

+ ak qk ak + 0

ak j a0 ak j a1 :: : ak j ak ak j ak

d j a0 " d j a1 d j ak

2 1

2

und d j a1 und d j a2 :: : und d j ak

) d j a2 # ) d j a3 # 1

) d j ak

"

Dabei ist ı(a0 )  ı(a1 ) > ı(a2 ) > : : : > ı(ai ) > ı(ai+1 ). Wegen ı(a1 ) > 0 gibt es ein kleinstes k > 0 mit ak+1 = 0. Wir behaupten nun, dass ak ein größter gemeinsamer Teiler von a0 = a und a1 = b ist. Dass ak gemeinsamer Teiler ist, folgt „von unten nach oben“: ak j ak

1;

:::;

a k j a1 ;

a k j a0 :

Ist dagegen d irgendein gemeinsamer Teiler von a0 und a1 , so folgt von „oben nach unten“ d j ak .  Prinzipiell kann ggT(a; b) auch aus den Zerlegungen in Primfaktoren abgelesen werden. Diese ist jedoch für größere a; b nicht so leicht zu bestimmen. Beim

82

2 Grundbegriffe

euklidischen Algorithmus dagegen sind alle Schritte elementar, er ist auch einfach zu programmieren. Um die Rechnungen möglichst durchsichtig zu machen, behandeln wir nur zwei sehr einfache Fälle: Beispiel 1. In R = Z sei a = a0 = 28 und b = a1 = 20. Das ergibt folgendes Schema: 28 = 1  20 + 8 20 = 2  8 + 4 8 = 24 +0 Also ist ggT(28; 20) = 4: Das sieht man natürlich auch sofort an den Zerlegungen 28 = 22 7 und 20 = 22 5. Beispiel 2. In R = Q[t ] sei f = a0 = t 4 3t 3 + 6t 4 und g = a1 = t 3 a 0 = q1 a 1 + a 2 a 1 = q2 a 2 + a 3

mit q1 = t mit q2 = 12 (t

3t 2

2t + 6. Dann folgt

und a2 = 2t 2 und a3 = 0

3)

4

Also ist ggT(f; g) = 12 a2 = t 2

2

der normierte größte gemeinsame Teiler von f und g. In Q[t ] hat man Zerlegungen f = (t 2

2)(t

1)(t

2)

und

g = (t 2

2)(t

3):

2.3.9. In Kapitel 5 wird die Eigenschaft eines größten gemeinsamen Teilers von a und b benötigt, dass er als Linearkombination von a und b dargestellt werden kann. Genauer gilt: Relation von BÉZOUT Sei R = Z oder R = K[t ]. Dann gibt es zu a; b 2 R r f0g Koeffizienten x; y 2 R derart, dass ggT(a; b) = xa + yb: Beweis. Die Existenz von x und y ergibt sich konstruktiv aus dem erweiterten euklidischen Algorithmus. Wie in 2.3.8 betrachten wir dabei die Folge ai

1

= qi ai + ai +1

mit a0 = a; a1 = b

und

Dazu konstruieren wir rekursiv xi ; yi 2 R mit ai = xi a0 + yi a1 : Dann ist durch x := xk und y := yk das Problem gelöst.

ak = ggT(a0 ; a1 ):

2.3 Ringe, Körper und Polynome

ai

83

Die Rekursion startet mit x0 = 1; y0 = 0 und x1 = 0; y1 = 1. Dann folgt aus = qi  ai + ai +1 , dass

1

ai+1 = ai

qi ai = (xi

1

= (xi

+ yi

qi xi )a0 + (yi

1

xi+1 = xi

1 a0

qi x i

1

1 a1 )

qi (xi a0 + yi a1 )

qi yi )a1 ;

1

yi +1 = yi

und

Also sind x und y durch die Quotienten q1 ; : : : ; qk

1

also 1

qi y i :

festgelegt.



Sicherheitshalber sei noch bemerkt, dass x und y keineswegs eindeutig bestimmt sind. So ist etwa in R = Z ggT(3; 2) = 1 = 1  3

12=33

42=53

7  2 = :::

Wir schließen an die Beispiele aus 2.3.8 an: Beispiel 1. R = Z; a = 28; b = 20. a 0 = q1  a 1 + a 2 28 = 1  20 + 8

a0 = x0 a0 + y0 a1 28 = 1  28 + 0  20

x0 = 1 y0 = 0

a 1 = q2  a 2 + a 3 20 = 2  8 + 4

a1 = x1 a0 + y1 a1 20 = 0  28 + 1  20

x1 = 0 y1 = 1

a 2 = q3  a 3 + 0 8 = 24

a2 = x2 a0 + y2 a1 8 = 1  28 1  20

x2 = 1 y2 = 1

a3 4

a3 = x3 a0 + y3 a1 4 = 2  28 + 3  20

x3 = 2 y3 = 3

2  28 + 3  20:

Also ist ggT(28; 20) = 4 = Beispiel 2. R = Q[t ], f = t 4

q1  a 1 t g

a0 = f = a1 = g=

2t 2

1 (t 2

q2  a 2 3)  (2t 2

4, g = t 3

tg = 2t 2

3t 2

2t + 6.

+ 0 = x0 f + y 0 g + 2t 2 4 = 1  f + 0  g + 4) +

0 0

a2 = 4= x2 = x0

Also ist f

3t 3 + 6t

= x1 f + y 1 g = 0f + 1g = x2 f + y 2 g = f tg

q1 x1 = 1;

y2 = y0

q1 y1 =

t:

4 ein größter gemeinsamer Teiler von f und g.

84

2 Grundbegriffe

2.3.10. Nach diesen formalen Vorbereitungen kommen wir nun zum wichtigsten Thema, nämlich der Frage nach der Existenz von Nullstellen (d. h.  2 K mit f () = 0) bei Polynomen. Darauf kann man nämlich viele andere Fragen zurückführen, etwa in Kapitel 5 die Frage nach der Existenz von Eigenwerten. Neben der reinen Existenzfrage ist es für die Praxis wichtig, Verfahren für die näherungsweise Berechnung von Nullstellen zu haben. Das lernt man in der numerischen Mathematik. Beispiele. a) Ist K = R und f = t 2 + 1, so ist f ()  1 für alle  2 R. Also gibt es keine Nullstelle. b) Ist K = fa0 ; a1 ; : : : ; an g ein endlicher Körper und f = (t

a0 )  : : :  (t

an ) + 1;

so ist f () = 1 für alle  2 K, also hat f keine Nullstelle. Zum Glück sind diese beiden Beispiele von ausgewählter Bosheit; im Allgemeinen hat man doch etwas mehr Chancen, eine Nullstelle zu finden. Hat man eine gefunden, so genügt es zur Suche nach weiteren, ein Polynom von kleinerem Grad zu betrachten: Lemma. Ist  2 K eine Nullstelle von f 2 K[t ], so gibt es ein eindeutig bestimmtes g 2 K[t ] mit folgenden Eigenschaften: 1) f = (t

)  g.

2) deg g = (deg f )

1.

Beweis. Wir dividieren f durch (t g; r 2 K[t ] mit f = (t

)g + r

) mit Rest; es gibt also eindeutig bestimmte und

deg r < deg(t

) = 1:

Also ist r = a0 mit a0 2 K. Aus f () = 0 folgt durch Einsetzen von  0 = (

)  g() + r = 0 + a0 ;

also ist a0 = r = 0, und 1) ist bewiesen. Wegen deg f = deg(t

) + deg g = 1 + deg g

folgt 2).



Korollar 1. Sei K ein beliebiger Körper, f 2 K[t ] ein Polynom und k die Anzahl der Nullstellen von f . Ist f vom Nullpolynom verschieden, so gilt k  deg f:

2.3 Ringe, Körper und Polynome

85

Beweis. Wir führen Induktion über den Grad von f . Für deg f = 0 ist f = a0 ¤ 0 ein konstantes Polynom. Dieses hat gar keine Nullstelle, also ist unsere Behauptung richtig. Sei deg f = n  1, und sei die Aussage schon für alle Polynome g 2 K[t ] mit deg g  n 1 bewiesen. Wenn f keine Nullstelle hat, ist die Behauptung richtig. Ist  2 K eine Nullstelle, so gibt es nach dem Lemma ein g 2 K[t ] mit f = (t

)  g

und

deg g = n

1:

Alle von  verschiedenen Nullstellen von f müssen auch Nullstellen von g sein. Ist l die Anzahl der Nullstellen von g, so ist nach Induktionsannahme l n

1;

also k  l + 1  n:



Korollar 2. Ist K unendlich, so ist die Abbildung 

: K[t ] ! Abb(K; K);

f 7! f˜;

injektiv. Beweis. Seien f1 ; f2 2 K[t ] und g := f2 f1 . Ist f˜1 = f˜2 , so folgt g˜ = 0, d. h. g() = 0 für alle  2 K. Also hat g unendlich viele Nullstellen, und aus Korollar 1 folgt g = 0, somit ist f1 = f2 .  Ist  Nullstelle von f , also f = (t )  g, so kann  auch Nullstelle von g sein. Man spricht dann von einer mehrfachen Nullstelle. Definition. Ist f 2 K[t ] vom Nullpolynom verschieden und  2 K, so heißt (f ; ) := maxfr 2 N : f = (t

)r  g

mit g 2 K[t ]g

die Vielfachheit der Nullstelle  von f . Nach dem Lemma gilt (f ; ) = 0 , f () ¤ 0. Ist f = (t

)r  g

mit r = (f ; );

so folgt g() ¤ 0. Die Vielfachheit der Nullstelle  gibt also an, wie oft der Linearfaktor (t ) in f enthalten ist. Ist K = R oder C, so kann man die Vielfachheit der Nullstelle mit den r-ten Ableitungen f (r) von f in Beziehung bringen. Es gilt (f ; ) = maxfr 2 N : f () = f 0 () = : : : = f (r

1)

() = 0g;

wie man leicht nachrechnet. 2.3.11. Sind 1 ; : : : ; k 2 K die verschiedenen Nullstellen eines Polynoms f 2 K[t ], und ist ri = (f ; i ), so ist f = (t

1 )r1  : : :  (t

k )rk  g;

86

2 Grundbegriffe

wobei g ein Polynom vom Grad n (r1 + : : : + rk ) ohne Nullstellen ist. Der schlimmste Fall ist g = f , der beste deg g = 0, d. h. f zerfällt in Linearfaktoren. Die wichtigste Existenzaussage für Nullstellen von Polynomen macht der sogenannte Fundamentalsatz der Algebra. Jedes Polynom f 2 C[t ] mit deg f > 0 hat mindestens eine Nullstelle in C. Dieser Satz wurde von C. F. GAUSS erstmals 1799 bewiesen. Es gibt dafür sehr viele Beweise, die aber alle Hilfsmittel aus der Analysis benutzen, denn C entsteht aus R, und die reellen Zahlen sind ein Produkt der Analysis. Der wohl kürzeste Beweis verwendet Hilfsmittel aus der Theorie der holomorphen Funktionen (vgl. etwa [F-L]). Hat f 2 C[t ] eine Nullstelle , so kann man sie herausdividieren, also f = (t

)  g

schreiben. Ist deg g > 0, so hat auch g eine komplexe Nullstelle, und indem man das Verfahren so lange wiederholt, bis das verbleibende Polynom den Grad Null hat, ergibt sich das Korollar. Jedes Polynom f 2 C[t ] zerfällt in Linearfaktoren, d. h. es gibt a und 1 ; : : : ; n 2 C mit n = deg f , sodass f = a(t

1 )  : : :  (t

n ):

An dieser Stelle scheint eine kleine Vorschau auf die sogenannte „höhere“ Algebra nützlich zu sein: Definition. Ein Körper K heißt algebraisch abgeschlossen, wenn jedes Polynom f 2 K[t ] in Linearfaktoren zerfällt. Der Fundamentalsatz der Algebra lautet dann einfacher: Der Körper C der komplexen Zahlen ist algebraisch abgeschlossen. Sind K und K 0 Körper, so heißt K 0 ein Oberkörper von K, wenn K  K 0 ein Unterring ist (vgl. 2.3.2). Man nennt dann K 0  K auch eine Körpererweiterung. Sie heißt algebraisch, wenn jedes ˛ 2 K 0 Nullstelle eines Polynoms f 2 K[t ] ist. Ein weiteres Beispiel ist C  R: Jedes ˛ = a + ib 2 C mit a; b 2 R ist Nullstelle von f := t 2

2at + (a2 + b 2 ) 2 R[t];

wie man leicht nachrechnet. Schließlich heißt eine Körpererweiterung K  K algebraischer Abschluss, wenn sie algebraisch ist und wenn K algebraisch abgeschlossen ist. Ein gewichtiges Ergebnis der Algebra ist das folgende

2.3 Ringe, Körper und Polynome

87

Satz. Zu jedem Körper K gibt es einen algebraischen Abschluss K  K, er ist bis auf Isomorphie eindeutig bestimmt. Einen Beweis findet man etwa in [Fi3, 3.2.5]. Die einfachsten Beispiele für algebraische Abschlüsse sind R = C und Q = f˛ 2 C : ˛ algebraisch über Qg: Offensichtlich ist Q $ C, denn schon die Erweiterung R  Q ist wegen der Existenz transzendenter (d. h. über Q nicht algebraischer) Zahlen, wie e und  aus R, nicht algebraisch. Wie schon in Beispiel b) aus 2.3.10 bemerkt, kann ein endlicher Körper nicht algebraisch abgeschlossen sein, daher muss Fp unendlich sein (vgl. 2.3.4). Damit soll der kleine Ausflug beendet sein! 2.3.12. Nun wollen wir aus dem Fundamentalsatz der Algebra Aussagen über die Nullstellen reeller Polynome folgern. Dazu betrachten wir R als Teilmenge von C (vgl. 2.3.4). Dann ist auch R[t ] Teilmenge von C[t ]. Lemma. Ist f 2 R[t ] und  2 C eine Nullstelle von f , so ist auch die konjugiert komplexe Zahl  2 C eine Nullstelle von f . Es gilt sogar (f ; ) = (f ; ): Die komplexen Nullstellen eines Polynoms mit reellen Koeffizienten liegen also symmetrisch zur reellen Achse. Beweis. Ist f = a0 + a1 t + : : : + an t n ; so ist wegen a0 = a0 ; : : : ; an = an nach den Rechenregeln für die komplexe Konjugation f () = a0 + a1  + : : : + an ()n = a0 + a1  + : : : + an n = f () = 0 = 0:

Bild 2.6

88

2 Grundbegriffe

Also ist auch  Nullstelle von f . Um die Vielfachheiten von  und  zu vergleichen, genügt es für jedes k 2 N (f ; )  k ) (f ; )  k zu beweisen. Für  =  ist die Aussage trivial. Für  ¤  verwenden wir den folgenden Hilfssatz. Sei f 2 R[t] und  2 C eine nicht reelle Nullstelle von f sowie g := (t )(t ) 2 C[t]. Dann gilt: 1) g 2 R[t ]. 2) Es gibt ein q 2 R[t ] mit f = g  q. Nun genügt es, durch Induktion über k aus (f ; )  k die Existenz eines Polynoms fk 2 R[t ] mit f = g k  fk zu folgern. Dabei ist g wie im Hilfssatz erklärt. Für k = 0 ist nichts zu beweisen. Sei also die Aussage für k  0 bewiesen und (f ; )  k + 1. Dann ist f = g k  fk , und es muss fk () = 0 sein; aus dem Hilfssatz folgt die Existenz eines fk+1 2 R[t ] mit also ist f = g k+1  fk+1 :

fk = g  fk+1 ;

Es bleibt der Hilfssatz zu beweisen. Dazu setzen wir  = ˛ + iˇ

mit ˛; ˇ 2 R:

Dann ist g = (t

)(t

) = (t

˛

iˇ)(t

˛ + iˇ) = t 2

2˛t + ˛ 2 + ˇ 2 2 R[t ]:

Durch Division mit Rest in R[t ] erhält man q; r 2 R[t ] mit f =gq+r

und

deg r  (deg g)

1 = 1:

Diese Gleichung gilt selbstverständlich auch in C[t ]. Durch Einsetzen von  und  folgt r() = r() = 0: Nach Korollar 1 aus 2.3.10 folgt r = 0 wegen  ¤ . Damit ist der Hilfssatz und auch das Lemma bewiesen.  Nun wenden wir auf ein Polynom f 2 R[t ] den Fundamentalsatz der Algebra an. Danach gibt es a; 1 ; : : : ; n 2 C, sodass f = a(t

1 )  : : :  (t

Da a der höchste Koeffizient ist, gilt a 2 R.

n ):

2.3 Ringe, Körper und Polynome

89

Seien 1 ; : : : ; k 2 R und k+1 ; : : : ; n 2 C. Nach dem Lemma ist n k, d. h. die mit Vielfachheit gezählte Anzahl der nicht reellen Nullstellen, gerade, und durch Umnummerierung kann man erreichen, dass k+1 = k+2 ; : : : ; n

1

= n

gilt. Jedes Paar ;  konjugiert komplexer Nullstellen mit  = ˛ + iˇ kann man also (wie wir im Hilfssatz gesehen haben) zu einem normierten quadratischen Faktor g = (t

)(t

) = t 2

2˛t + (˛ 2 + ˇ 2 ) 2 R[t ]

zusammenfassen. g hat keine reelle Nullstelle, was man auch an der Diskriminante ablesen kann: 4˛ 2

4(˛ 2 + ˇ 2 ) =

4ˇ 2 < 0:

Damit ist folgendes Ergebnis bewiesen: Satz. Jedes Polynom f 2 R[t ] mit deg f = n  1 gestattet eine Zerlegung f = a(t

1 )  : : :  (t

r )  g1  : : :  gm ;

wobei a; 1 ; : : : ; r reell sind, mit a ¤ 0, und g1 ; : : : ; gm 2 R[t ] normierte Polynome vom Grad 2 ohne reelle Nullstellen sind. Insbesondere ist n = r + 2m. Korollar. Jedes Polynom f 2 R[t ] von ungeradem Grad hat mindestens eine reelle Nullstelle. Dies folgt sofort aus der Gleichung n = r + 2m. Natürlich kann man die Aussage des Korollars mithilfe des Zwischenwertsatzes viel einfacher direkt beweisen. Es sei erwähnt, dass man den Fundamentalsatz der Algebra ohne weitere Hilfsmittel der Analysis aus diesem Korollar ableiten kann (vgl. etwa [Fi3]). Der Fundamentalsatz der Algebra ist eine reine Existenzaussage, d. h. man erhält daraus kein Verfahren zur praktischen Bestimmung der Nullstellen. Für ein Polynom at 2 + bt + c 2 C[t ] vom Grad 2 kann man die Nullstelle nach der Formel p b ˙ b 2 4ac 2a berechnen. Etwas kompliziertere Formeln dieser Art gibt es auch für die Nullstellen von Polynomen vom Grad 3 und 4. Wie erstmals N. H. ABEL im Jahre 1826 zeigte, kann es solche allgemeine Formeln für Polynome vom Grad größer als 4 aus algebraischen Gründen nicht geben. Man ist daher weitgehend auf Näherungsverfahren zur Approximation der Nullstellen angewiesen.

90

2 Grundbegriffe

2.3.13. Wie gerade erläutert, gibt es keine allgemein gültige Formel zur Berechnung der Nullstellen eines Polynoms aus den Koeffizienten. Die umgekehrte Aufgabe ist jedoch ganz einfach: Ist f 2 K[t ] und f (t ) = t n + ˛n

1t

n 1

+ : : : + ˛1 t + ˛0 = (t

1 )  : : :  (t

n );

d. h. zerfällt f in Linearfaktoren, so folgt durch Ausmultiplizieren der rechten Seite ˛0 = ( 1)n 1  : : :  n ; ˛1 = ( 1)n 1 (2  : : :  n + 1 3  : : :  n + : : : + 1  : : :  n 1 ); :: : ˛n 2 = 1 2 + : : : + 1 n + 2 3 + : : : + 2 n +    + n 1 n ; ˛n 1 = (1 + : : : + n ): Um das formal besser aufschreiben zu können, definieren wir für k = 1; : : : ; n die elementarsymmetrischen Funktionen X sk (1 ; : : : ; n ) := i1  : : :  ik : 1i1 0:

Also sind alle Nullstellen negativ. Sind alle i < 0, so ist sk positiv für gerades k und negativ für ungerades k. Also ist ˛j = ( 1)n

j

 sn

j

>0

für alle j .



Beispiel. Sei f := t 3

5t 2 + 8t

4 = (t

1)(t

2)2 :

Dann ist f ( t) =

t3

5t 2

8t

4 und f = t 3 + 5t 2 + 8t + 4 = (t + 1)(t + 2)2 :

Allgemeiner kann man mit einer nach DESCARTES benannten Zeichenregel für ein beliebiges reelles Polynom die Anzahl der negativen bzw. der positiven Nullstellen abschätzen durch die Anzahl der Zeichenfolgen bzw. der Zeichenwechsel bei den Koeffizienten des Polynoms. Mehr dazu findet man z. B. bei [Wi, §29].

92

2 Grundbegriffe

Aufgaben zu 2.3 1. Bestimmen Sie (bis auf Isomorphie) alle Körper mit 3 bzw. 4 Elementen. 2. K und K 0 seien zwei Körper und ' : K ! K 0 ein Ringhomomorphismus. Zeigen Sie, dass ' entweder injektiv oder der Nullhomomorphismus ist. 3. Ist R ein Ring, M eine beliebige nichtleere Menge und S = Abb (M ; R) die Menge aller Abbildungen von M nach R, so ist auf S durch (f + g)(m) := f (m) + g(m); (f  g)(m) := f (m)  g(m); eine Addition und eine Multiplikation erklärt. a) Zeigen Sie, dass S auf diese Weise zu einem Ring wird. b) Ist S ein Körper, falls R ein Körper ist? 4. Dividieren Sie für beliebiges n das Polynom t n 0

1 durch t

1.

0

5. Sei K ein Körper und K ein Unterkörper von K . Zeigen Sie: Sind f; g 2 K[t ]; q 2 K 0 [t ] mit f = qg, so folgt bereits q 2 K[t ]. 6. Sei K ein Körper und x0 ; : : : ; xn ; y0 ; : : : ; yn 2 K mit xi ¤ xj für alle i ¤ j . Zeigen Sie, dass es genau ein Polynom f 2 K[t] vom Grad  n gibt, sodass f (xi ) = yi für i = 0; : : : ; n. Hinweis: Konstruieren Sie zuerst Polynome gk 2 K[t ] vom Grad  n mit  1 für i = k; gk (xi ) = 0 für i ¤ k: 7. Seien f; g 2 C[t ] Polynome mit (f; )  (g; ) für alle  2 C. Zeigen Sie, dass dann f ein Teiler von g ist. Gilt diese Aussage auch in R[t ]? 8. Sie K ein Körper und  : K[t ] ! Abb (K; K); f 7! f˜, die Abbildung aus 2.3.5, die jedem Polynom f die zugehörige Abbildung f˜ zuordnet. Zeigen Sie, dass  surjektiv, aber nicht injektiv ist, falls der Körper K endlich ist. 9. Analog zu 2.3.5 definiert man ein Polynom mit Koeffizienten über einem Körper K in n Unbestimmten t1 ; : : : ; tn als einen formalen Ausdruck der Gestalt X f (t1 ; : : : ; tn ) = ai1 ;:::in  t1i1  : : :  tnin ; 0i1 ;:::;in k

wobei k 2 N und ai1 :::in 2 K. K[t1 ; : : : ; tn ] bezeichne die Menge all solcher Polynome. Wie für Polynome in einer Unbestimmten kann auch in K[t1 ; : : : ; tn ] eine Addition und eine Multiplikation erklärt werden. Sind f; g 2 K[t1 ; : : : ; tn ], so erfolgt die Addition von f und g koeffizientenweise und die Multiplikation wieder durch formales Ausmultiplizieren.

2.3 Ringe, Körper und Polynome

93

a) Finden Sie Formeln für die Addition und Multiplikation von Polynomen in K[t1 ; : : : ; tn ], und zeigen Sie, dass K[t1 ; : : : ; tn ] auf diese Weise zu einem nullteilerfreien, kommutativen Ring wird. Ein Polynom h 2 K[t1 ; : : : ; tn ] r f0g heißt homogen (vom Grad d ), falls X h= ai1 :::in  t1i1  : : :  tnin : i1 +:::+in =d

b) Für ein homogenes Polynom h 2 K[t1 ; : : : ; tn ] vom Grad d gilt: h(t1 ; : : : ; tn ) = d  h(t1 ; : : : ; tn )

für alle  2 K:

c) Ist K unendlich und f 2 K(t1 ; : : : ; tn ) r f0g, so folgt aus f (t1 ; : : : ; tn ) = d  f (t1 ; : : : ; tn )

für alle  2 K;

dass f homogen vom Grad d ist. d) Ist h1 homogen von Grad d1 und h2 homogen vom Grad d2 , so ist h1  h2 homogen vom Grad d1 + d2 . 10. Sei K ein Körper und K[t ] der Polynomring in einer Unbestimmten. a) Zeigen Sie, dass in der Menge K[t ]  (K[t ] r f0g) durch (g; h)  (g 0 ; h0 ) , gh0 = g 0 h eine Äquivalenzrelation gegeben ist. K(t ) sei die Menge der Äquivalenzklassen. Die zu (g; h) gehörige Äquivalenzg g g0 klasse sei mit bezeichnet. Somit ist = 0 , gh0 = g 0 h. h h h b) Zeigen Sie, dass in K(t ) die Verknüpfungen g g0 gh0 + hg 0 g g 0 gg 0 + 0 := ;  0 := 0 ; 0 h h hh h h h wohl definiert sind (vgl. 2.2.7). c) Zeigen Sie schließlich, dass K(t ) mit diesen Verknüpfungen zu einem Körper wird. Man nennt K(t ) den Körper der rationalen Funktionen. d) Die Abbildung K[t] ! K(t ); f 7! f1 ist ein injektiver Homomorphismus von Ringen. Man kann daher K[t ] als Teil von K(t ) ansehen. p p 11. Sei R := fm + n 2 : m; n 2 Zg  R und " := 1 + 2 2 R. Zeigen Sie: a) R  R ist ein Unterring. b) Für alle k 2 Z sind die Elemente ˙"k Einheiten in R.

94

2 Grundbegriffe

2.4 Vektorräume In diesem ganzen Abschnitt bezeichnet K einen Körper. Wer die vorhergehenden Definitionen übersprungen hat, kann sich zunächst mit dem äußerst wichtigen Spezialfall K = R begnügen. 2.4.1. Bevor wir den allgemeinen Begriff des Vektorraums einführen, einige Beispiele. a) Das Standardbeispiel ist der Standardraum K n = fx = (x1 ; : : : ; xn ) : xi 2 Kg: Mithilfe der Addition und Multiplikation in K erhält man zwei neue Verknüpfungen ˙ : K n  K n ! K n ; (x; y) 7! x +y; ˙ + und  : K  Kn ! Kn; (; x) 7!   x; durch ˙ 1 ; : : : ; yn ) := (x1 + y1 ; : : : ; xn + yn ) (x1 ; : : : ; xn )+(y

und

  (x1 ; : : : ; xn ) := (x1 ; : : : ; xn ): ˙ und  Zur vorübergehenden Unterscheidung sind die neuen Verknüpfungen mit + bezeichnet. In K wird die Addition durch + und die Multiplikation ohne Symbol ˙ eine Verknüpfung im Sinn von 2.2.1 ist (solausgedrückt. Man beachte, dass nur + che Verknüpfungen nennt man manchmal auch innere im Gegensatz zur äußeren Verknüpfung ). b) In der Menge M(mn; K) der Matrizen mit m Zeilen, n Spalten und Einträgen aus K kann man addieren und mit Skalaren multiplizieren: Ist A = (aij ); B = (bij ) 2 M(m  n; K) und  2 K, so sind ˙ := (aij + bij ) A+B

und

  A := (aij ) 2 M(m  n; K):

Bei der Addition werden also die Einträge an den entsprechenden Stellen addiert, bei Multiplikation mit  alle Einträge gleich multipliziert. Bis auf die andere Art, die Einträge aufzuschreiben, ist dieses Beispiel gleich K mn aus a). c) Im Körper C der komplexen Zahlen kann man mit reellen Zahlen multiplizieren, das ergibt eine Abbildung R  C ! C;

(; a + ib) 7! a + ib:

d) Im Polynomring K[t ] kann man neben Addition und Multiplikation von Polynomen eine weitere Multiplikation  : K  K[t ] ! K[t ];

(; f ) 7!   f;

mit Elementen aus K erklären durch   (a0 + a1 t + : : : + an t n ) := a0 + (a1 )t + : : : + (an )t n :

2.4 Vektorräume

95

e) Ist M eine beliebige Menge und V = ff : M ! Kg = Abb(M; K) die Menge aller Abbildungen, so sind für f; g 2 V und  2 K ˙ 2V f +g

und

f 2V

erklärt durch ˙ (f +g)(x) := f (x) + g(x)

und

(  f )(x) := f (x):

Offensichtlich erhält man im Spezialfall M = f1; : : : ; ng wieder das Standardbeispiel a). Als Extrakt aus diesen Beispielen führen wir nun den wichtigsten Begriff der linearen Algebra ein (zur Entstehung vgl. [Fi3, Anhang 2] und [Koe, Kap. 1, §2]): Definition. Sei K ein Körper. Eine Menge V zusammen mit einer inneren Verknüpfung ˙ : V  V ! V; +

˙ (v; w) 7! v +w;

(Addition genannt) und einer äußeren Verknüpfung  : K  V ! V;

(; v) 7!   v;

(Multiplikation mit Skalaren genannt) heißt K-Vektorraum (oder Vektorraum über K), wenn Folgendes gilt: V1 V zusammen mit der Addition ist eine abelsche Gruppe (das neutrale Element heißt Nullvektor, es wird mit 0, und das Negative wird mit v bezeichnet). V2 Die Multiplikation mit Skalaren muss in folgender Weise mit den anderen Verknüpfungen verträglich sein: ˙  v; ( + )  v =   v +

˙ ˙  w;   (v +w) =   v +

  (  v) = ()  v;

1  v = v;

für alle ;  2 K und v; w 2 V . Man beachte, dass, wie in Beispiel a) erläutert, die Verknüpfungen in K und V vorübergehend verschieden bezeichnet werden. Durch Einsetzen der Definitionen und elementarste Rechnungen sieht man, dass in den obigen Beispielen a) bis e) die Vektorraumaxiome erfüllt sind. Dabei ist in Beispiel a) der Nullvektor gegeben durch 0 = (0; : : : ; 0) und das Negative durch (x1 ; : : : ; xn ) = ( x1 ; : : : ; xn ): In Beispiel c) wird C zu einem R-Vektorraum.

96

2 Grundbegriffe

Bemerkung. In einem K-Vektorraum V hat man die weiteren Rechenregeln: a) 0  v = 0. b)  0 = 0. c)   v = 0 )  = 0 oder v = 0. d) ( 1)  v =

v.

˙  v. Beweis. a) 0  v = (0 + 0)  v = 0  v +0 ˙ =   0+ ˙  0. b)   0 =   (0+0) c) Ist   v = 0, aber  ¤ 0, so folgt v = 1  v = (

1

)  v = 

˙ 1)  v = 1  v +( ˙ 1)  v = (1 d) v +(

1

(  v) = 

1

 0 = 0:

1)  v = 0  v = 0.



Die Axiome und die daraus abgeleiteten Regeln zeigen insbesondere, dass es völlig ungefährlich ist, wenn man die Verknüpfungen in K und V gleich bezeichnet und auch den Nullvektor 0 abmagert zu 0. Das wollen wir ab sofort tun. Was gemeint ist, wird jeweils aus dem Zusammenhang klar werden. 2.4.2. In Kapitel 1 hatten wir homogene lineare Gleichungssysteme der Form A  x = 0 mit reellen Koeffizienten betrachtet. Die Lösungen sind Teilmengen W  Rn , ihre präzise Beschreibung ist unser Ziel. Schlüssel dafür ist die Beobachtung, dass W von Rn eine Vektorraumstruktur erbt. Allgemeiner ist die Frage, wann das für eine Teilmenge W  V eines Vektorraums der Fall ist. Definition. Sei V ein K-Vektorraum und W  V eine Teilmenge. W heißt Untervektorraum von V , falls Folgendes gilt: UV1 W ¤ ;. UV2 v; w 2 W ) v + w 2 W (d. h. W ist abgeschlossen gegenüber der Addition). UV3 v 2 W;  2 K ) v 2 W (d. h. W ist abgeschlossen gegenüber der Multiplikation mit Skalaren).

2.4 Vektorräume

97

Beispiele. a) In V = R2 betrachten wir die Teilmengen W1 = f0g; W2 = f(x1 ; x2 ) 2 R2 : a1 x1 + a2 x2 = bg; W3 = f(x1 ; x2 ) 2 R2 : x12 + x22  1g; W4 = f(x1 ; x2 ) 2 R2 : x1  0; x2  0g; W5 = f(x1 ; x2 ) 2 R2 : x1  x2  0g: Der Leser prüfe die Bedingungen UV2 und UV3 nach. Nur für W1 und für W2 mit b = 0 sind beide erfüllt. b) Ist A eine reelle m  n-Matrix, so ist die Lösungsmenge W := fx 2 Rn : Ax = 0g des zugehörigen homogenen linearen Gleichungssystems (vgl. 1.4.2) ein Untervektorraum des Rn . Das rechnet man ganz leicht nach. c) Im Vektorraum V = Abb(R; R) (vgl. 2.4.1, Beispiel e)) hat man die Untervektorräume R[t ]d  R[t ]  D(R; R)  C(R; R)  Abb(R; R) der Polynome vom Grad  d , aller Polynome, der differenzierbaren Funktionen und der stetigen Funktionen. 2.4.3. Aus den Eigenschaften UV2 und UV3 folgt, dass Addition und Multiplikation mit Skalaren von V auf W induziert werden. Satz. Ein Untervektorraum W  V ist zusammen mit der induzierten Addition und Multiplikation mit Skalaren wieder ein Vektorraum. Mithilfe dieses Satzes kann man sich in vielen Fällen (etwa Beispiel b) und c) aus 2.4.2) den langweiligen Nachweis aller Vektorraumaxiome für W sparen, wenn man das ein für alle mal schon in einem größeren V getan hatte. Beweis. Die Eigenschaften V2 sowie Kommutativ- und Assoziativgesetz der Addition gelten in W , da sie in V gelten. Der Nullvektor 0 liegt in W , da wegen UV1 ein v 2 W existiert, woraus 0 = 0  v 2 W mit UV3 folgt. Zu jedem v 2 W ist wegen UV3 auch v = ( 1)  v 2 W . 

98

2 Grundbegriffe

Noch eine kleine Pflichtübung zur Erzeugung neuer Untervektorräume aus alten: Lemma. Sei V ein Vektorraum, I eine beliebige Indexmenge, und für jedes i 2 I sei ein Untervektorraum Wi gegeben. Dann ist der Durchschnitt \ W := Wi  V i 2I

wieder ein Untervektorraum. Beweis. Da 0 in allen Wi enthalten ist, ist auch 0 2 W , also W ¤ ;. Sind v; w 2 W , so sind v; w in allen Wi enthalten. Da dann auch v + w in allen Wi enthalten ist, ist v + w in W enthalten. Ganz analog beweist man, dass mit  2 K und v 2 W auch v 2 W gilt.  Beispiel. Ist V = R[t ] der Vektorraum aller reellen Polynome, I = N und Wd := R[t ]d der Untervektorraum der Polynome vom Grad  d , so ist \ Wd = W0 = R: d 2N

Vorsicht! Die Vereinigung von Untervektorräumen ist im Allgemeinen kein Untervektorraum. Man mache sich das an Beispielen klar (etwa zwei Geraden im R2 ). Es gilt sogar die Bemerkung. Sind W; W 0  V Untervektorräume derart, dass W [ W 0 Untervektorraum ist, so ist W  W 0 oder W 0  W . Beweis. Angenommen, es ist W 6 W 0 . Dann ist W 0  W zu zeigen. Ist w 0 2 W 0 und w 2 W r W 0 , so sind w; w 0 2 W [ W 0 , also auch w + w 0 2 W [ W 0 . w + w 0 kann nicht Element von W 0 sein, denn sonst wäre w = w + w 0 w 0 2 W 0 . Also ist w + w 0 2 W und auch w 0 = w + w 0 w 2 W .  2.4.4. Eine Teilmenge eines Vektorraums, die kein Untervektorraum ist, kann man zu einem solchen abschließen. Wie das geht, wird nun beschrieben. Wir betrachten eine noch etwas allgemeinere Situation, nämlich einen K-Vektorraum V und eine Familie (vi )i 2I , von Vektoren vi 2 V (vgl. 2.1.6). Ist I = f1; : : : ; rg, so hat man Vektoren v1 ; : : : ; vr . Ein v 2 V heißt Linearkombination von v1 ; : : : ; vr , wenn es 1 ; : : : ; r 2 K gibt, sodass v = 1 v1 + : : : + r vr : Für allgemeines I definiert man span K (vi )i2I als die Menge all der v 2 V , die sich aus einer (von v abhängigen) endlichen Teilfamilie von (vi )i2I , linear kombinieren lassen. Um das präzise aufschreiben

2.4 Vektorräume

99

zu können, benötigt man Doppelindizes: Zu v 2 V muss es eine Zahl r 2 N sowie Indizes i1 ; : : : ; ir 2 I und Skalare 1 ; : : : ; r geben, sodass v = 1 vi1 + : : : + r vir : Man nennt span K (vi )i2I , den von der Familie aufgespannten Vektorraum. Ist I = ;, so setzt man span K (vi )i2; := f0g: Für eine endliche Familie (v1 ; : : : ; vr ) verwendet man oft die suggestivere Notation Kv1 + : : : + Kvr := span K (v1 ; : : : ; vr ) = fv 2 V : es gibt 1 ; : : : ; r 2 K mit v = 1 v1 + : : : + r vr g: Falls klar ist, welcher Körper gemeint ist, schreibt man nur span statt span K . Bemerkung. Sei V ein K-Vektorraum und (vi )i2I , eine Familie von Elementen aus V. Dann gilt: a) span(vi )  V ist Untervektorraum. b) Ist W  V Untervektorraum, und gilt vi 2 W für alle i 2 I , so ist span(vi )  W . Kurz ausgedrückt: span(vi ) ist der kleinste Untervektorraum von V , der alle vi enthält. Beweis. a) ist ganz klar. Sind alle vi in W enthalten, so sind auch alle endlichen Linearkombinationen aus den vi in W enthalten, denn W ist Untervektorraum. Daraus folgt b).  Ist M  V eine Teilmenge, so ist entsprechend span(M ) erklärt als die Menge aller endlichen Linearkombinationen von Vektoren aus M , und das ist der kleinste Untervektorraum mit M  span(M )  V: Es mag auf den ersten Blick nicht recht einleuchten, warum man bei der Erzeugung eines Untervektorraums allgemeiner von einer Familie von Vektoren ausgeht. Das hat den Vorteil, dass es bei einer Familie (im Gegensatz zu einer Menge) sinnvoll ist, wenn man sagt „ein Vektor kommt mehrfach vor“. Ist I = f1; : : : ; ng, so haben die Vektoren der Familie außerdem eine natürliche Reihenfolge. Beispiele. a) Sei V = R3 . Sind v1 ; v2 2 R3 , so ist span(v1 ) die Gerade durch 0 und v1 , wenn v1 ¤ 0 gilt. span(v1 ; v2 ) ist die Ebene durch 0; v1 und v2 , falls v2 62 span(v1 ).

100

2 Grundbegriffe

b) Im K n mit I = f1; : : : ; ng erklären wir für i 2 I ei := (0; : : : ; 0; 1; 0; : : : ; 0); wobei die 1 an der i-ten Stelle steht. Dann ist span(ei )i2I = K n . c) Ist V = K[t ] der Polynomring, I = N und vn = t n , so ist span(vn )n2N = K[t ]: d) Betrachten wir in Beispiel a) aus 2.4.2 die Wj mit j = 3; 4; 5, so ist span(Wj ) = R2 . 2.4.5. Ein Untervektorraum kann von sehr vielen verschiedenen Familien erzeugt werden, und das kann mit unterschiedlicher Effizienz geschehen. Dazu betrachten wir die Beispiele aus 2.4.4. Bei b) ist die Situation optimal, denn es folgt für x = (x1 ; : : : ; xn ) 2 K n und x = 1 e1 + : : : + n en ;

dass

1 = x1 ; : : : ; n = xn :

Die Linearkombination ist also für jedes x eindeutig bestimmt, entsprechend in c). In den Beispielen aus d) hat man für jedes x 2 R2 jeweils unendlich viele Möglichkeiten, es linear aus Elementen von Wj zu kombinieren. Die Eindeutigkeit ist besonders einfach beim Nullvektor zu überprüfen. Bei beliebigen v1 ; : : : ; vr hat man die triviale Linearkombination 0 = 0v1 + : : : + 0vr : Gibt es eine andere Linearkombination des Nullvektors, so ist die Eindeutigkeit der Darstellung verletzt. Das motiviert die Definition. Sei V ein K-Vektorraum. Eine endliche Familie (v1 ; : : : ; vr ) von Vektoren aus V heißt linear unabhängig, falls gilt: Sind 1 ; : : : ; r 2 K und ist 1 v1 + : : : + r vr = 0; so folgt 1 = : : : = r = 0: Anders ausgedrückt bedeutet das, dass sich der Nullvektor nur trivial aus den v1 ; : : : ; vr linear kombinieren lässt. Eine beliebige Familie (vi )i 2I von Vektoren aus V heißt linear unabhängig, falls jede endliche Teilfamilie linear unabhängig ist.

2.4 Vektorräume

101

Die Familie (vi )i2I , heißt linear abhängig, falls sie nicht linear unabhängig ist, d. h. falls es eine endliche Teilfamilie (vi1 ; : : : ; vir ) und 1 ; : : : ; r 2 K gibt, die nicht alle gleich Null sind, sodass 1 vi1 + : : : + r vir = 0: Zur Bequemlichkeit sagt man meist anstatt „die Familie (v1 ; : : : ; vr ) von Vektoren aus V ist linear (un-) abhängig“ einfacher „die Vektoren v1 ; : : : ; vr 2 V sind linear (un-)abhängig“ Es ist vorteilhaft, auch die leere Familie, die den Nullvektorraum aufspannt, linear unabhängig zu nennen. Die Definition der linearen Unabhängigkeit ist grundlegend für die ganze lineare Algebra, aber man muss sich etwas daran gewöhnen. Was sie geometrisch bedeutet, sieht man sehr gut an der Bedingung aus Aufgabe 1 zu 1.3 für zwei Vektoren im Rn . In der Definition der linearen Unabhängigkeit spielt der Nullvektor scheinbar eine besondere Rolle. Dass dem nicht so ist, zeigt das Lemma. Für eine Familie (vi )i2I , von Vektoren eines K- Vektorraums sind folgende Bedingungen äquivalent: i) (vi ) ist linear unabhängig. ii) Jeder Vektor v 2 span(vi ) lässt sich in eindeutiger Weise aus Vektoren der Familie (vi ) linear kombinieren. Beweis. ii) ) i) ist klar, denn bei einer linear abhängigen Familie hat der Nullvektor verschiedene Darstellungen. i) ) ii): Sei ein v 2 span(vi ) auf zwei Arten linear kombiniert, also X X v= i vi =  i vi ; () i2I

i2I

wobei in beiden Summen jeweils nur endlich viele der Skalare i und i von Null verschieden sind. Es gibt also eine endliche Teilmenge J  I , sodass für jedes i ¤ 0 oder i ¤ 0 der Index in J enthalten ist. Aus () folgt dann X (i i )vi = 0; i 2I

und wegen der vorausgesetzten linearen Unabhängigkeit folgt i = i für alle i 2 J und somit auch für alle i 2 I , da ja die restlichen i und i ohnehin Null waren. Damit ist die Eindeutigkeit der Linearkombination bewiesen. 

102

2 Grundbegriffe

Beispiele. a) Im K n sind die Vektoren e1 ; : : : ; en linear unabhängig. b) Ist A = (aij ) 2 M(m  n; K) eine Matrix in Zeilenstufenform (vgl. 1.4.3), so sind die ersten r Zeilen v1 ; : : : ; vr von A linear unabhängig. Ist nämlich 1 0 a1j1 C B C B a2j2 C B C B : A=B C; : : 0 C B C B A @ arjr so folgt aus 1 v1 + : : : + r v; = 0 zunächst 1 a1j1 = 0, also ist 1 = 0 wegen a1j1 ¤ 0. Im zweiten Schritt folgt daraus analog 2 = 0 und weiter so 3 = : : : = r = 0. Analog zeigt man, dass die Spalten von A mit den Indizes j1 ; j2 ; : : : ; jr linear unabhängig sind. c) Im Polynomring K[t ] ist die Familie (t n )n2N linear unabhängig. Weitere Beispiele finden sich in den Aufgaben 8 und 9. Noch ein paar weitere Kleinigkeiten: Bemerkung. In jedem K-Vektorraum V gilt: a) Ein einziger Vektor v 2 V ist genau dann linear unabhängig, wenn v ¤ 0. b) Gehört der Nullvektor zu einer Familie, so ist sie linear abhängig. c) Kommt der gleiche Vektor in einer Familie mehrmals vor, so ist die Familie linear abhängig. d) Ist r  2, so sind die Vektoren v1 ; : : : ; vr genau dann linear abhängig, wenn einer davon Linearkombination der anderen ist. Diese letzte Charakterisierung ist plausibler als die Definition, aber formal nicht so bequem zu handhaben. Beweis. a) Ist v linear abhängig, so gibt es ein  2 K  mit v = 0, also ist v = 0 nach Bemerkung c) in 2.4.1. Umgekehrt ist 0 linear abhängig, da 1  0 = 0. b) 1  0 = 0. c) Gibt es i1 ; i2 2 I mit i1 ¤ i2 aber vi1 = vi2 , so ist 1  vi1 + ( 1)vi2 = 0.

2.4 Vektorräume

103

d) Sind die Vektoren v1 ; : : : ; vr linear abhängig, so gibt es 1 ; : : : ; r 2 K mit 1 v1 + : : : + r vr = 0 und ein k 2 f1; : : : ; rg mit k ¤ 0. Dann ist 1 k 1 k+1 r vk = v1 : : : vk 1 vk+1 : : : vr : k k k k Ist umgekehrt vk = 1 v1 + : : : + k 1 vk 1 + k+1 vk+1 + : : : + r vr , so ist 1 v1 + : : : + k

1 vk 1

+ ( 1)vk + k+1 vk+1 + : : : + r vr = 0:



Aufgaben zu 2.4 1. Welche der folgenden Mengen sind Untervektorräume der angegebenen Vektorräume? ˚ a) (x1 ; x2 ; x3 ) 2 R3 : x1 = x2 = 2x3  R3 . ˚ b) (x1 ; x2 ) 2 R2 : x12 + x24 = 0  R2 . ˚ c) ( + ; 2 ) 2 R2 : ;  2 R  R2 . d) ff 2 Abb (R; R) : f (x) = f ( x) für alle x 2 Rg  Abb (R; R). ˚ e) (x1 ; x2 ; x3 ) 2 R3 : x1  x2  R3 . f) fA 2 M(m  n; R) : A ist in Zeilenstufenformg  M(m  n; R). 2. Seien V und W zwei K-Vektorräume. Zeigen Sie, dass das direkte Produkt V  W durch die Verknüpfungen (v; w) + (v 0 ; w 0 ) := (v + v 0 ; w + w 0 );

  (v; w) := (v; w);

ebenfalls zu einem K-Vektorraum wird. 3. Ist X eine nichtleere Menge, V ein K-Vektorraum und Abb (X; V ) die Menge aller Abbildungen von X nach V , so ist auf Abb (X; V ) durch (f + g)(x) := f (x) + g(x);

(  f )(x) := f (x);

eine Addition und eine skalare Multiplikation erklärt. Zeigen Sie, dass Abb (X; V ) mit diesen Verknüpfungen zu einem K-Vektorraum wird. 4. Eine Abbildung f : R ! R heißt 2-periodisch, falls f (x) = f (x + 2) für alle x 2 R. a) Zeigen Sie, dass V = ff 2 Abb (R; R): f ist 2-periodischg  Abb (R; R) ein Untervektorraum ist.

104

2 Grundbegriffe

b) Zeigen Sie, dass W = span(cos nx; sin mx)n;m2N ein Untervektorraum von V ist. (Man nennt W den Vektorraum der trigonometrischen Polynome.) 5. Seien ( 1

` := (xi )i 2N :

1 X

) jxi j < 1  Abb (N; R);

i =0

( 2

` := (xi )i 2N :

1 X

) 2

jxi j < 1  Abb (N; R);

i =0

` := f(xi )i2N : (xi )i 2N konvergiertg  Abb (N; R); `1 := f(xi )i2N : (xi )i 2N beschränktg  Abb (N; R): Zeigen Sie, dass `1  `2  `  `1  Abb (N; R) eine aufsteigende Kette von Untervektorräumen ist. 6. Kann eine aus mehr als einem Element bestehende abzählbar unendliche Menge M eine R-Vektorraumstruktur besitzen? 7. Gibt es eine C-Vektorraumstruktur auf R, sodass die skalare Multiplikation C  R ! R eingeschränkt auf R  R die übliche Multiplikation reeller Zahlen ist? 8. Sind die folgenden Vektoren linear unabhängig? p p a) 1; 2; 3 im Q-Vektorraum R. b) (1; 2; 3); (4; 5; 6); (7; 8; 9) im R3 .   1 c) n+x in Abb (R+ ; R). n2N

d) (cos nx; sin mx)n;m2Nrf0g in Abb (R; R). 9. Für welche t 2 R sind die folgenden Vektoren aus R3 linear abhängig? (1; 3; 4);

(3; t; 11);

( 1;

4; 0):

10.Stellen Sie den Vektor w jeweils als Linearkombination der Vektoren v1 , v2 , v3 dar: a) w = (6; 2; 1); v1 = (1; 0; 1); v2 = (7; 3; 1); v3 = (2; 5; 8). b) w = (2; 1; 1); v1 = (1; 5; 1); v2 = (0; 9; 1); v3 = (3; 3; 1).

2.5 Basis und Dimension

105

2.5 Basis und Dimension Nun muss die erste ernsthafte technische Schwierigkeit überwunden werden, um einem Vektorraum eindeutig eine Zahl (genannt Dimension) als Maß für seine Größe zuordnen zu können. 2.5.1. Zunächst die wichtigste Definition. Eine Familie B = (vi )i 2I , in einem Vektorraum V heißt Erzeugendensystem von V , wenn V = span(vi )i2I ; d. h. wenn jedes v 2 V Linearkombination von endlich vielen vi ist. Eine Familie B = (vi )i2I in V heißt Basis von V , wenn sie ein linear unabhängiges Erzeugendensystem ist. V heißt endlich erzeugt, falls es ein endliches Erzeugendensystem (d. h. eine endliche Familie B = (v1 ; : : : ; vn ) mit V = span(vi )) gibt. Ist B eine endliche Basis, so nennt man die Zahl n die Länge der Basis. Beispiele. a) Die Begriffe sind so erklärt, dass die leere Familie eine Basis des Nullvektorraums ist. Diese kleine Freude kann man ihr gönnen. b) K := (e1 ; : : : ; en ) ist eine Basis des K n , sie heißt die kanonische Basis oder Standardbasis (vgl. Beispiel b) in 2.4.4). c) Im Vektorraum M (m  n; K) hat man die Matrizen 0 0 B :: B : B B 0 B B Eij = B 0 … 0 1 0 … 0 B 0 B B :: B @ : 0

1 C C C C C C C C C C C A

mit einer Eins in der i -ten Zeile und j -ten Spalte und sonst Nullen. Diese m  n-Matrizen bilden eine Basis von M(m  n; K). Das ist wieder nur eine Variante von Beispiel b). d) (1, i) ist eine Basis des R-Vektorraums C. e) (1; t; t 2 ; : : :) ist eine Basis unendlicher Länge des Polynomrings K[t ].

106

2 Grundbegriffe

2.5.2. Das sieht alles recht einfach aus, bis auf eine zunächst spitzfindig erscheinende Frage: Wenn man im K n neben der Standardbasis irgendeine andere Basis findet, ist es gar nicht klar, dass sie die gleiche Länge hat. Im K n wäre das noch zu verschmerzen, aber schon bei Untervektorräumen W  K n gibt es keine Standardbasis mehr. Es ist nicht einmal ohne weiteres klar, dass jedes solche W endlich erzeugt ist (Korollar 3 in 2.5.5). Daher kann man es nicht umgehen, die Längen verschiedener Basen zu vergleichen. Bevor wir das in Angriff nehmen, noch einige oft benutzte Varianten der Definition einer Basis. Zur Vereinfachung der Bezeichnungen betrachten wir dabei nur endliche Familien. Satz. Für eine Familie B = (v1 ; : : : ; vn ) von Vektoren eines K-Vektorraums V ¤ f0g sind folgende Bedingungen gleichwertig: i) B ist eine Basis, d. h. ein linear unabhängiges Erzeugendensystem. ii) B ist ein „unverkürzbares“ Erzeugendensystem, d. h. (v1 ; : : : ; vr

1 ; vr+1 ;

: : : ; vn )

ist für jedes r 2 f1; : : : ; ng kein Erzeugendensystem mehr. iii) Zu jedem v 2 V gibt es eindeutig bestimmte 1 ; : : : ; n 2 K mit v = 1 v1 + : : : + n vn ; d. h. B ist ein Erzeugendensystem mit der zusätzlichen Eindeutigkeitseigenschaft. iv) B ist „unverlängerbar“ linear unabhängig, d. h. B ist linear unabhängig, und für jedes v 2 V wird die Familie (v1 ; : : : ; vn ; v) linear abhängig. Beweis. i) ) ii). Gegeben sei ein Erzeugendensystem B. Ist B verkürzbar, also zur Vereinfachung der Notation mit r = 1 v1 = 2 v2 + : : : + n vn ;

so folgt ( 1)v1 + 2 v2 + : : : + n vn = 0:

Also ist B linear abhängig. ii) ) iii). Sei wieder B ein Erzeugendensystem. Ist die Eindeutigkeitseigenschaft verletzt, so gibt es ein v 2 V mit v = 1 v1 + : : : + n vn = 1 v1 + : : : + n vn ; und o. B. d. A. 1 ¤ 1 . Subtraktion der Linearkombinationen und Division durch 1 1 ergibt 2 2 n n v1 = v2 + : : : + vn ;  1 1  1 1 also ist B verkürzbar.

2.5 Basis und Dimension

107

iii) ) iv). Aus iii) folgt, dass B linear unabhängig ist. (Lemma in 2.4.5). Ist v 2 V , so ist v = 1 v1 + : : : + n vn ;

also 1 v1 + : : : + n vn + ( 1)v = 0;

d. h. (v1 ; : : : ; vn ; v) ist linear abhängig. iv) ) i). Sei B unverlängerbar linear unabhängig. Für jedes v 2 V gibt es 1 ; : : : ; n ;  2 K mit 1 v1 + : : : + n vn + v = 0: Da B linear unabhängig ist, muss  ¤ 0 sein, also ist 1 n v= v1 : : : vn ;   und es ist bewiesen, dass B ein Erzeugendensystem ist.



Der Beweis von iv) ) i) ergibt den Zusatz. Ist V nicht endlich erzeugt, so gibt es eine unendliche linear unabhängige Familie. Beweis. Es genügt zu zeigen, dass es für beliebiges n zu linear unabhängigen Vektoren v1 ; : : : ; vn einen weiteren Vektor v gibt, sodass auch (v1 ; : : : ; vn ; v) linear unabhängig ist. Wäre (v1 ; : : : ; vn ; v) für jedes v 2 V linear abhängig, so wäre nach obigem Argument (v1 ; : : : ; vn ) ein Erzeugendensystem, was der Voraussetzung widerspricht.  2.5.3. Die Bedeutung des obigen Satzes erkennt man schon an seinem gar nicht selbstverständlichen Korollar, dem Basisauswahlsatz. Aus jedem endlichen Erzeugendensystem eines Vektorraums kann man eine Basis auswählen. Insbesondere hat jeder endlich erzeugte Vektorraum eine endliche Basis. Beweis. Von dem gegebenen Erzeugendensystem nehme man so lange einzelne Vektoren weg, bis es unverkürzbar geworden ist. Da am Anfang nur endlich viele da waren, führt das Verfahren zum Ziel.  Allgemeiner gilt der Satz. Jeder Vektorraum besitzt eine Basis. Der Beweis ist wesentlich schwieriger, wenn es kein endliches Erzeugendensystem gibt, weil man möglicherweise unendlich viele Vektoren weglassen muss, bis die Unverkürzbarkeit erreicht ist. Ein Beweis des Satzes erfordert Hilfsmittel aus der Mengenlehre, etwa das ZORNsche Lemma. Darauf gehen wir hier nicht ein (vgl. etwa [Br, I, S. 261]).

108

2 Grundbegriffe

Im Falle nicht endlich erzeugter Vektorräume sind Basen im hier definierten Sinn von geringer Bedeutung. Hier ist es für die Anwendungen in der Analysis wichtiger, konvergente unendliche Linearkombinationen zu untersuchen. Damit beschäftigt sich die Funktionalanalysis (vgl. etwa [M-V]). 2.5.4. Um die Längen verschiedener Basen zu vergleichen, muss man systematisch Vektoren austauschen. Dieses Verfahren wurde schon 1862 von H. GRASSMANN beschrieben und ist später durch E. STEINITZ bekannt geworden. Ein einzelner Schritt des Verfahrens wird geregelt durch das Austauschlemma. Gegeben sei ein K-Vektorraum V mit der Basis B = (v1 ; : : : ; vr )

und

w = 1 v1 + : : : + r vr 2 V:

Ist k 2 f1; : : : ; rg mit k ¤ 0, so ist B0 := (v1 ; : : : ; vk

1 ; w; vk+1 ; : : : ; vr )

wieder eine Basis von V. Man kann also vk gegen w austauschen. Beweis. Zur Vereinfachung der Schreibweise können wir annehmen, dass k = 1 ist (durch Umnummerierung kann man das erreichen). Es ist also zu zeigen, dass B0 = (w; v2 ; : : : ; vr ) eine Basis von V ist. Ist v 2 V , so ist v = 1 v1 + : : : + r vr mit 1 ; : : : ; r 2 K. Wegen 1 ¤ 0 ist 1 2 r v1 = w v2 : : : vr ; also 1 1 1     1 1 2 1 r v= w + 2 v2 + : : : +  r vr ; 1 1 1 womit gezeigt ist, dass B0 ein Erzeugendensystem ist. Zum Nachweis der linearen Unabhängigkeit von B0 sei w + 2 v2 + : : : + r vr = 0; wobei ; 2 ; : : : ; r 2 K. Setzt man w = 1 v1 + : : : + r vr ein, so ergibt sich 1 v1 + (2 + 2 )v2 + : : : + (r + r )vr = 0; also 1 = 2 + 2 = : : : = r + r = 0, da B linear unabhängig war. Wegen 1 ¤ 0 folgt  = 0 und damit 2 = : : : = r = 0. 

2.5 Basis und Dimension

109

Durch Iteration erhält man den Austauschsatz. In einem K-Vektorraum V seien eine Basis B = (v1 ; : : : ; vr ) und eine linear unabhängige Familie (w1 ; : : : ; wn ) gegeben. Dann ist n  r, und es gibt Indizes i1 ; : : : ; in 2 f1; : : : ; rg derart, dass man nach Austausch von vi1 gegen w1 ; : : : ; vin , gegen wn wieder eine Basis von V erhält. Nummeriert man so um, dass i1 = 1; : : : ; in = n ist, so bedeutet das, dass B = (w1 ; : : : ; wn ; vn+1 ; : : : ; vr ) eine Basis von V ist. Vorsicht! Die Ungleichung n  r wird nicht vorausgesetzt, sondern gefolgert. Beweis. Induktion nach n. Für n = 0 ist nichts zu beweisen. Sei also n  1, und sei der Satz schon für n 1 bewiesen (Induktionsannahme). Da auch (w1 ; : : : ; wn 1 ) linear unabhängig ist, ergibt die Induktionsannahme, dass (bei geeigneter Nummerierung) (w1 ; : : : ; wn 1 ; vn ; : : : ; vr ) eine Basis von V ist. Da nach Induktionsannahme n 1  r gilt, muss zum Nachweis von n  r nur noch der Fall n 1 = r ausgeschlossen werden. Dann wäre aber (w1 ; : : : ; wn 1 ) schon eine Basis von V , was Aussage iv) aus Satz 2.5.2 widerspricht. Wir schreiben wn = 1 w1 + : : : + n

1 wn 1

+ n vn + : : : + r vr

mit 1 ; : : : ; r 2 K. Wäre n = : : : = r = 0, so hätte man einen Widerspruch zur linearen Unabhängigkeit von w1 ; : : : ; wn . Bei erneuter geeigneter Nummerierung können wir also n ¤ 0 annehmen, und wie wir im Austauschlemma gesehen haben, lässt sich daher vn gegen wn austauschen. Also ist B eine Basis von V .  2.5.5. Nach Überwindung dieser kleinen technischen Schwierigkeiten läuft die Theorie wieder wie von selbst. Wir notieren die wichtigsten Folgerungen. Korollar 1. Hat ein K-Vektorraum V eine endliche Basis, so ist jede Basis von V endlich. Beweis. Sei (v1 ; : : : ; vr ) eine endliche Basis und (wi )i2I , eine beliebige Basis von V. Wäre I unendlich, so gäbe es i1 ; : : : ; ir+1 2 I derart, dass wi1 ; : : : ; wir +1 linear unabhängig wären. Das widerspricht aber dem Austauschsatz.  Korollar 2. Je zwei endliche Basen eines K-Vektorraums haben gleiche Länge.

110

2 Grundbegriffe

Beweis. Sind (v1 ; : : : ; vr ) und (w1 ; : : : ; wk ) zwei Basen, so kann man den Austauschsatz zweimal anwenden, was k  r und r  k, also r = k ergibt.  Mithilfe dieser Ergebnisse können wir nun in sinnvoller Weise die Dimension eines Vektorraums erklären. Definition. Ist V ein K-Vektorraum, so definieren wir  1; falls V keine endliche Basis besitzt; dimK V := r; falls V eine Basis der Länge r besitzt: dimK V heißt die Dimension von V über K. Falls klar ist, welcher Körper gemeint ist, schreibt man auch dim V . Korollar 3. Ist W  V Untervektorraum eines endlich erzeugten Vektorraums V , so ist auch W endlich erzeugt, und es gilt dim W  dim V . Aus dim W = dim V folgt W = V . Beweis. Wäre W nicht endlich erzeugt, so gäbe es nach dem Zusatz aus 2.5.2 eine unendliche linear unabhängige Familie, was dem Austauschsatz widerspricht. Also hat W eine endliche Basis, und wieder nach dem Austauschsatz ist ihre Länge höchstens gleich dim V . Sei n = dim W = dim V und w1 ; : : : ; wn Basis von W . Ist W ¤ V , so gibt es ein v 2 V r W und w1 ; : : : ; wn ; v sind linear unabhängig im Widerspruch zum Austauschsatz.  In 2.5.3 hatten wir gesehen, dass man aus einem endlichen Erzeugendensystem eine Basis auswählen kann. Manchmal ist die Konstruktion „aus der anderen Richtung“ wichtig: Basisergänzungssatz. In einem endlich erzeugten Vektorraum V seien linear unabhängige Vektoren w1 ; : : : ; wn gegeben. Dann kann man wn+1 ; : : : ; wr finden, sodass B = (w1 ; : : : ; wn ; wn+1 ; : : : ; wr ) eine Basis von V ist. Beweis. Sei (v1 ; : : : ; vm ) ein Erzeugendensystem. Nach 2.5.3 kann man daraus eine Basis auswählen, etwa (v1 ; : : : ; vr ) mit r  m. Nun wendet man den Austauschsatz an und sieht, dass bei geeigneter Nummerierung durch wn+1 := vn+1 ; : : : ; wr := vr die gesuchte Ergänzung gefunden ist.



2.5 Basis und Dimension

111

Beispiele. a) dim K n = n, denn K n hat die kanonische Basis (e1 ; : : : ; en ). Nach Korollar 2 hat auch jede andere Basis von K n die Länge n, was gar nicht selbstverständlich ist. b) Geraden (bzw. Ebenen) durch den Nullpunkt des Rn sind Untervektorräume der Dimension 1 (bzw. 2). c) Für den Polynomring gilt dimK K[t ] = 1. d) dimR C = 2, denn 1 und i bilden eine Basis. Dagegen ist dimC C = 1. e) dimQ R = 1 (vgl. Aufgabe 4). 2.5.6. Bei der Definition eines Vektorraums in 2.4.1 hatten wir einen Körper K zugrunde gelegt. Zur Formulierung der Axiome genügt ein kommutativer Ring R mit Einselement, man spricht dann von einem Modul über R. Die Begriffe wie Linearkombination, Erzeugendensystem und lineare Unabhängigkeit kann man in dieser allgemeineren Situation analog erklären. In den vorangegangenen Beweisen wird immer wieder durch Skalare dividiert, was einen Skalarenkörper voraussetzt. Über einem Ring ist von den erhaltenen Aussagen über Basis und Dimension wenig zu retten. Daher beschränken wir uns auf zwei Aufgaben (8 und 9), die als Warnung vor diesen Gefahren dienen sollen. 2.5.7. Im Basisauswahlsatz 2.5.3 hatten wir bewiesen, dass man aus jedem endlichen Erzeugendensystem eine Basis auswählen kann. Für die Praxis ist das Verfahren des Weglassens (und die Kontrolle, ob ein Erzeugendensystem übrig bleibt) nicht gut geeignet. Weitaus einfacher ist es, aus einem Erzeugendensystem eine Basis linear zu kombinieren. Wir behandeln hier den Spezialfall eines Untervektorraums W  K n ; in 3.4.2 werden wir sehen, dass sich der allgemeine Fall darauf zurückführen lässt. Seien also a1 ; : : : ; am 2 K n gegeben, und sei W = span (a1 ; : : : ; am ). Sind die Vektoren ai Zeilen, so ergeben sie untereinandergeschrieben eine Matrix 0 1 a11    a1n B : :: C A = @ :: : A 2 M(m  n; K); am1    amn d. h. es ist ai = (ai 1 ; : : : ; ai n ). Beispiel. Aus der kanonischen Basis (e1 ; : : : ; en ) von K n erhält man die Matrix 0 1 1 0 B C En := @ : : : A 2 M(n  n; K); 0 1

112

2 Grundbegriffe

man nennt sie die n-reihige Einheitsmatrix. Dieser Name ist durch ihre Wirkung bei der Matrizenmultiplikation erklärt (vgl. 3.5.4). Die Einträge von En = (ıij ) sind die sogenannten KRONECKER-Symbole  0 für i ¤ j; ıij := 1 für i = j: Nun kommen wir zur Lösung der oben gestellten Aufgabe zurück auf die schon in Kapitel 1 benutzten Zeilenumformungen. Anstatt der reellen Zahlen stehen Einträge aus einem beliebigen Körper K, und wir betrachten vier verschiedene Typen von elementaren Zeilenumformungen: Typ I

Multiplikation der i-ten Zeile mit  2 K  : 0:1 0 : 1 :: : B C B : C B C B A = @ai A 7! @ai C A =: AI : :: :: : :

Typ II Addition der j -ten Zeile zur i -ten Zeile: 0 1 0 1 :: :: : : B C B C Ba C Ba + a C jC B iC B i B : C B : C C B C A=B B :: C 7! B :: C =: AII : B C B C Baj˙ C B aj C @ A @ A :: :: : : Typ III Addition der -fachen j -ten Zeile zur i -ten Zeile ( 2 K  ): 0 1 0 1 :: :: : : B C B C Ba C Ba + a C jC B iC B i B:C B C :: C B C =: AIII : A=B B :: C 7! B C : B C B C Baj C B aj C @ A @ A :: :: : : Typ IV Vertauschen der i-ten Zeile mit der j -ten Zeile: 0 1 0 1 :: :: : B C B:C Ba C Ba C B iC B jC B : C B C C 7! B :: C =: AIV : : A=B B : C B:C B C B C Baj˙ C B ai C @ A @ A :: :: : :

2.5 Basis und Dimension

113

Dabei bezeichnen jeweils a1 ; : : : ; am die Zeilen von A, es ist stets i ¤ j vorausgesetzt, und an den mit Punkten markierten Zeilen ändert sich nichts. Die Typen III und IV entsprechen 1) und 2) aus 1.4.6. Die Typen I und II sind noch elementarer, denn man kann III und IV daraus durch Kombination erhalten, und zwar nach folgendem Rezept:         I II I ai ai ai + aj ai + aj 7! 7! 7! bzw: aj aj aj aj       I II III ai ai ai 7! 7! 7! aj aj ai aj       II ai (ai aj ) aj aj = 7! : ai aj ai aj ai Zum Verständnis der Wirkung von Zeilenumformungen hilft ein weiterer Begriff: Definition. Ist A 2 M(m  n; K) mit Zeilen a1 ; : : : ; am , so heißt ZR(A) := span(a1 ; : : : ; am )  K n der Zeilenraum von A. Lemma. Ist B aus A durch elementare Zeilenumformungen entstanden, so ist ZR(B) = ZR(A). Beweis. Nach der obigen Bemerkung genügt es, die Typen I und II zu betrachten. Ist B = AI und v 2 ZR(A), so ist i v = : : : + i ai + : : : = : : : + (ai ) + : : : ;  also auch v 2 ZR(B). Analog folgt v 2 ZR(A) aus v 2 ZR(B). Ist B = AII und v 2 ZR(A), so ist v = : : : + i ai + : : : + j aj + : : : = : : : + i (ai + aj ) + : : : + (j

i )aj + : : : ;

also v 2 ZR(B) und analog umgekehrt.



Wie in 1.4.7 beweist man den Satz. Jede Matrix A 2 M(m  n; K) kann man durch elementare Zeilenumformungen auf Zeilenstufenform bringen.  Damit ist das zu Beginn dieses Abschnitts formulierte Problem gelöst: Hat man aus den gegebenen Vektoren a1 ; : : : ; am die Matrix A aufgestellt und diese zu B in Zeilenstufenform umgeformt, so sind die von Null verschiedenen Zeilen b1 ; : : : ; br von B eine Basis von W = ZR(A) = ZR(B), denn b1 ; : : : ; br sind nach Beispiel b) in 2.4.5 linear unabhängig.

114

2 Grundbegriffe

Beispiel. Im R5 seien die Vektoren a1 = (0; 0; 0; 2; 1); a2 = (0; 1; a3 = (0;

2; 1; 0); 1; 2; 1;

1);

a4 = (0; 0; 0; 1; 2) gegeben. Dann verläuft die Rechnung wie folgt:

A=

;

0

0

0

2

1

0

1

2

1

0

1

2

1

0

0

0

0

2

1

0

1

2

1

1

0

1

2

1

1

0

0

0

1

2

0

0

0

1

2

0

1

2

1

0

0

1

2

1

0

0 0

0

2

1

0 0

0

1

2

0 0

0

2

1

0 0

0

2

1

0 0

0

1

2

0 0

0

2

1

0 ;

;

0

;

1

2

1

0

0

1

2

1

0

0 0

0

1

2

0 0

0

1

2

0 0

0

0

5

0 0

0

0

5

0 0

0

0

5

0 0

0

0

0

;

= B:

Also ist eine Basis von W = span (a1 ; a2 ; a3 ; a4 ) gegeben durch b1 = (0; 1; 2; 1; 0); b2 = (0; 0; 0; 1; 2); b3 = (0; 0; 0; 0; 5):

2.5 Basis und Dimension

115

Aufgaben zu 2.5 1. Gegeben seien im R5 die Vektoren v1 = (4; 1; 1; 0; 2); v2 = (0; 1; 4; 1; 2), v3 = (4; 3; 9; 2; 2); v4 = (1; 1; 1; 1; 1); v5 = (0; 2; 8; 2; 4). a) Bestimmen Sie eine Basis von V = span (v1 ; : : : ; v5 ). b) Wählen Sie alle möglichen Basen von V aus den Vektoren v1 ; : : : ; v5 aus, und kombinieren Sie jeweils v1 ; : : : ; v5 daraus linear. 2. Geben Sie für folgende Vektorräume jeweils eine Basis an: a) f(x1 ; x2 ; x3 ) 2 R3 : x1 = x3 g, b) f(x1 ; x2 ; x3 ; x4 ) 2 R4 : x1 + 3x2 + 2x4 = 0; 2x1 + x2 + x3 = 0g, c) span(t 2 ; t 2 + t; t 2 + 1; t 2 + t + 1; t 7 + t 5 )  R[t ], d) ff 2 Abb (R; R) : f (x) = 0 bis auf endlich viele x 2 Rg. 3. Für d 2 N sei K[t1 ; : : : ; tn ](d ) := fF 2 K[t1 ; : : : ; tn ] : F homogen vom Grad d oder F = 0g (vgl. Aufgabe 9 zu 2.3). Beweisen Sie, dass K[t1 ; : : : ; tn ](d )  K[t1 ; : : : ; tn ] ein Untervektorraum ist und bestimmen Sie dim K[t1 ; : : : ; tn ](d ) . 4. Zeigen Sie, dass C endlich erzeugt über R ist, aber R nicht endlich erzeugt über Q. 5. Ist (vi )i 2I eine Basis des Vektorraums V und (wj )j 2J eine Basis des Vektorraums W , so ist ((vi ; 0))i 2I ; [((0; wj ))j 2J eine Basis von V  W (vgl. Aufgabe 2 zu 2.4). Insbesondere gilt dim V  W = dim V + dim W; falls dim V; dim W < 1. 6. Sei V ein reeller Vektorraum und a; b; c; d; e 2 V . Zeigen Sie, dass die folgenden Vektoren linear abhängig sind: v1 = a + b + c; v4 = 5a + 6b

v2 = 2a + 2b + 2c

c + d + e;

v5 = a

d;

c + 3e;

v3 = a

b

e;

v6 = a + b + d + e:

7. Für einen endlichdimensionalen Vektorraum V definieren wir h(V ) := supfn 2 N : es gibt eine Kette V0  V1  : : :  Vn

1

von Untervektorräumen mit Vi ¤ Vi +1 g: Zeigen Sie h(V ) = dim V .

 Vn

116

2 Grundbegriffe

8. Sei R = C(R; R) der Ring der stetigen Funktionen und W := ff 2 R : es gibt ein % 2 R mit f (x) = 0 für x  %g  R: Für k 2 N definieren wir die Funktion  0 für alle x  k; fk (x) := k x für alle x  k: a) W = span R (fk )k2N . b) W ist über R nicht endlich erzeugt (aber R ist über R endlich erzeugt). c) Ist die Familie (fk )k2N linear abhängig über R ? 9. Zeigen Sie Z = 2Z + 3Z und folgern Sie daraus, dass es in Z unverkürzbare Erzeugendensysteme verschiedener Längen gibt. 10. Wie viele Elemente hat ein endlichdimensionaler Vektorraum über einem endlichen Körper? 11.* a) Ist K ein Körper mit char K = p > 0, so enthält K einen zu Z/pZ isomorphen Körper und kann somit als Z/pZ-Vektorraum aufgefasst werden. b) Zeigen Sie: Ist K ein endlicher Körper mit char K = p, so hat K genau p n Elemente, wobei n = dimZ/pZ K.

2.6 Summen von Vektorräumen

117

2.6 Summen von Vektorräumen Für die Menge der Linearkombinationen aus Vektoren v1 ; : : : ; vr hatten wir in 2.4.4 auch die Schreibweise Kv1 + : : : + Kvr angegeben. Das soll andeuten, dass dies die Menge der Summen von Vektoren aus den für vj ¤ 0 eindimensionalen Räumen Kvj ist. Wir betrachten nun den Fall, dass die Summanden aus beliebigen Untervektorräumen stammen, das wird in Kapitel 5 nützlich sein. Einem eiligen Leser raten wir, dies zunächst zu überblättern. 2.6.1. Ausgangspunkt ist die folgende Definition. Gegeben sei ein K-Vektorraum V W1 ; : : : ; Wr  V . Dann heißt

mit Untervektorräumen

W1 + : : : + Wr := fv 2 V : es gibt vj 2 Wj mit v = v1 + : : : + vr g die Summe von W1 ; : : : ; Wr . Ohne Schwierigkeit beweist man die Bemerkung. Für die oben definierte Summe gilt: a) W1 + : : : + Wr  V ist ein Untervektorraum. b) W1 + : : : + Wr = span (W1 [ : : : [ Wr ) . c) dim (W1 + : : : + Wr )  dimW1 + : : : + dimWr .



Nun ist die Frage naheliegend, wie unscharf die letzte Ungleichung ist. Im Fall r = 2 ist das einfach zu beantworten: Dimensionsformel für Summen. Für endlichdimensionale Untervektorräume W1 ; W2  V gilt dim(W1 + W2 ) = dim W1 + dim W2

dim(W1 \ W2 ):

Beweis. Wir beginnen mit einer Basis (v1 ; : : : ; vm ) von W1 \ W2 und ergänzen sie entsprechend 2.5.5 zu Basen (v1 ; : : : vm ; w1 ; : : : ; wk ) von W1

und (v1 ; : : : ; vm ; w10 ; : : : ; wl0 ) von W2 :

Die Behauptung ist bewiesen, wenn wir gezeigt haben, dass B := (v1 ; : : : ; vm ; w1 ; : : : ; wk ; w10 ; : : : ; wl0 )

118

2 Grundbegriffe

eine Basis von W1 + W2 ist. Dass W1 + W2 von B erzeugt wird, ist klar. Zum Beweis der linearen Unabhängigkeit sei 1 v1 + : : : + m vm + 1 w1 + : : : + k wk + 01 w10 + : : : + 0l wl0 = 0: () Setzen wir v := 1 v1 + : : : + m vm + 1 w1 + : : : + k wk ; so ist v 2 W1 und v = 01 w10 + : : : + 0l wl0 2 W2 , also v 2 W1 \ W2 . Also ist v = 01 v1 + : : : + 0m vm 01 ; : : : ; 0m

mit 2 K, und wegen der Eindeutigkeit der Linearkombinationen folgt insbesondere 1 = : : : = k = 0. Setzt man das in () ein, so folgt auch 1 = : : : = m = 01 = : : : = 0l = 0:



2.6.2. Der Korrekturterm in der Dimensionsformel wird durch die Dimension des Durchschnitts verursacht. Diesen Mangel einer Summendarstellung kann man auch anders charakterisieren. Lemma. Ist V = W1 + W2 , so sind folgende Bedingungen äquivalent: i)

W1 \ W2 = f0g.

ii) Jedes v 2 V ist eindeutig darstellbar als v = w1 + w2 mit w1 2 W1 , w2 2 W2 . iii) Zwei von Null verschiedene Vektoren w1 2 W1 und w2 2 W2 sind linear unabhängig. ˜1 + w ˜ 2 , so folgt Beweis. i) ) ii): Ist v = w1 + w2 = w w1

˜1 = w ˜2 w

w2 2 W1 \ W2 :

ii) ) iii): Sind w1 ; w2 linear abhängig, so erhält man verschiedene Darstellungen des Nullvektors. iii) ) i): Ist 0 ¤ v 2 W1 \ W2 , so erhält man einen Widerspruch zu iii) durch 1v + ( 1)v = 0:



Da Bedingung i) am kürzesten aufzuschreiben ist, die folgende Definition. Ein Vektorraum V heißt direkte Summe von zwei Untervektorräumen W1 und W2 , in Zeichen V = W1 ˚ W2 ;

wenn V = W1 + W2

und

W1 \ W2 = f0g:

2.6 Summen von Vektorräumen

119

2.6.3. Im endlichdimensionalen Fall hat man einfacher nachzuprüfende Bedingungen für die Direktheit einer Summe. Satz. Ist V endlichdimensional mit Untervektorräumen W1 und W2 , so sind folgende Bedingungen gleichwertig: i) V = W1 ˚ W2 . ii) Es gibt Basen (w1 ; : : : ; wk ) von W1 und (w10 ; : : : ; wl0 ) von W2 , sodass (w1 ; : : : ; wk ; w10 ; : : : ; wl0 ) eine Basis von V ist. iii) V = W1 + W2 und dim V = dim W1 + dim W2 . Beweis. i) ) ii) ) iii) folgt aus der Dimensionsformel (einschließlich Beweis) in 2.6.1 im Spezialfall W1 \ W2 = f0g. iii) ) i): Nach der Dimensionsformel ist dim (W1 \ W2 ) = 0, also W1 \ W2 = f0g:



Daraus folgt sofort die Existenz von „direkten Summanden“: Korollar. Ist V endlichdimensional und W  V Untervektorraum, so gibt es dazu einen (im Allgemeinen nicht eindeutig bestimmten) Untervektorraum W 0  V , sodass V = W ˚ W 0: W 0 heißt direkter Summand von V zu W . Beweis. Man nehme eine Basis (v1 ; : : : ; vm ) von W; ergänze sie nach 2.5.4 zu einer Basis (v1 ; : : : ; vm ; vm+1 ; : : : ; vn ) von V und definiere W 0  = span (vm+1 ; : : : ; vn ) :



2.6.4. In Kapitel 5 werden wir direkte Summen von mehreren Unterräumen antreffen. Zur Vorsorge dafür die Definition. Ein Vektorraum V heißt direkte Summe von Untervektorräumen W1 ; : : : ; Wk , in Zeichen V = W1 ˚ : : : ˚ Wk ; wenn folgende Bedingungen erfüllt sind: DS1 V = W1 + : : : + Wk . DS2 Sind w1 2 W1 ; : : : ; wk 2 Wk gegeben mit w1 + : : : + wk = 0, so folgt w1 = : : : = wk = 0.

120

2 Grundbegriffe

Vorsicht! Bedingung DS2 darf man für k > 2 nicht ersetzen durch W1 \ : : : \ Wk = f0g

oder Wi \ Wj = f0g

für alle i ¤ j

(vgl. Aufgabe 1).

Bild 2.7

Beispiel. Ist (v1 ; : : : ; vn ) eine Basis von V , so ist V = Kv1 ˚ : : : ˚ Kvn . Satz. Für Untervektorräume W1 ; : : : ; Wk eines endlichdimensionalen Vektorraums V sind folgende Bedingungen äquivalent: i) V = W1 ˚ : : : ˚ Wk .   (i) (i) ii) Ist für jedes i 2 f1; : : : ; kg eine Basis v1 ; : : : ; vri von Wi gegeben, so ist   (1) (1) (k) (k) B := v1 ; : : : ; vr1 ; : : : ; v1 ; : : : ; vrk eine Basis von V . iii) V = W1 + : : : + Wk

und

dim V = dim W1 + : : : + dim Wk .

Man beachte die Klammern bei den oberen Indizes. Sie dienen zur Unterscheidung von Exponenten, deren Stammplatz an dieser Stelle ist. Beweis. i) ) ii). Offensichtlich ist B ein Erzeugendensystem. Zum Beweis der linearen Unabhängigkeit sei (1) (1)

(1) (1)

(k) (k)

1 v1 + : : : + r1 vr1 + : : : + 1 v1 (i ) (i)

(k) (k)

+ : : : + rk vrk = 0:

(i) (i)

Setzen wir wi := 1 v1 + : : : + ri vri , so bedeutet das w1 + : : : + wk = 0; und wegen DS2 muss w1 = : : : = wk = 0 sein. Also ist (i) (i)

(i ) (i )

1 v1 + : : : + ri vri = 0

für i = 1; : : : ; k;

2.6 Summen von Vektorräumen (i )

121 (i)

und daraus folgt 1 = : : : = ri = 0. ii) , iii) ist klar. ii) ) i): Zum Nachweis von DS2 stellen wir jedes wi 2 Wi durch die gegebene Basis von Wi dar: (i) (i )

(i ) (i)

wi = 1 v1 + : : : + ri vri : Aus der Annahme w1 + : : : + wk = 0 folgt ri k X X

(i) (i )

% v% = 0:

i =1 %=1

Da B eine Basis ist, folgt

(i ) %

= 0 für alle % und i , also ist auch w1 = : : : = wk = 0:



Aufgaben zu 2.6 1. Beweisen Sie, dass für einen Vektorraum V folgende Bedingungen äquivalent sind: i) V = W1 ˚ : : : ˚ Wk . ii) Jedes v 2 V ist eindeutig darstellbar als v = w1 + : : : + wk mit wi 2 Wi . iii) V = W1 + : : : + Wk und Wi \

k P

Wj = f0g für alle i 2 f1; : : : ; kg.

j =1 j ¤i

iv) V = W1 + : : : + Wk und Wi \ (Wi +1 + : : : + Wk ) = f0g für alle i 2 f1; : : : ; k 1g. Zeigen Sie anhand von Gegenbeispielen, dass die obigen Bedingungen für k > 2 im Allgemeinen nicht äquivalent sind zu W1 \ : : : \ Wk = f0g bzw. Wi \ Wj = f0g für alle i ¤ j . 2. Sind V und W Vektorräume, so gilt V  W = (V  f0g) ˚ (f0g  W ):

122

2 Grundbegriffe

3. Eine Matrix A 2 M(n  n; K) heißt symmetrisch, falls A = tA. a) Zeigen Sie, dass die symmetrischen Matrizen einen Untervektorraum Sym (n; K) von M(n  n; K) bilden. Geben Sie die Dimension und eine Basis von Sym (n; K) an. Ist char K ¤ 2, so heißt die Matrix A 2 M(n  n; K) schiefsymmetrisch (oder alternierend), falls tA = A. Im Folgenden sei stets char K ¤ 2. b) Zeigen Sie, dass die alternierenden Matrizen einen Untervektorraum Alt (n; K) von M(n  n; K) bilden. Bestimmen Sie auch für Alt (n; K) die Dimension und eine Basis. c) Für A 2 M(n  n; K) sei As := 12 (A + tA) und Aa := 12 (A tA). Zeigen Sie: As ist symmetrisch, Aa ist alternierend und es gilt A = As + Aa . d) Es gilt: M(n  n; K) = Sym (n; K) ˚ Alt (n; K).

Kapitel 3 Lineare Abbildungen 3.1 Beispiele und Definitionen Nach der Untersuchung von Vektorräumen betrachten wir nun Abbildungen zwischen diesen. Dabei sind besonders solche Abbildungen von Interesse, bei denen die Strukturen, d. h. Addition und Multiplikation mit Skalaren, repsektiert werden. 3.1.1. a) Besonders wichtige Funktionen f : R ! R sind die Polynome mit f (x) = a0 + a1 x + : : : + an x n ; denn die ganze Abbildungsvorschrift ist durch die Angabe der Koeffizienten a0 ; : : : ; an , d. h. von n + 1 Zahlen, festgelegt. Ist an ¤ 0, so ist n der Grad von f . Für Grad 0 hat man die konstanten und für Grad 1 die linearen Funktionen. In der Analysis untersucht man, ob sich eine beliebige Funktion bei kleinen Veränderungen des Arguments x nahezu wie eine lineare Funktion verhält; das führt zum Begriff der Differenzierbarkeit. Daher sind die linearen Funktionen unentbehrliches Hilfsmittel der Analysis. Wir betrachten also ein f : R ! R; x 7! ax + b = f (x);

f (x)

b

a 1

x Bild 3.1

mit a; b 2 R. Ihr Graph ist eine Gerade mit Steigung a, die durch (0; b) geht. Setzt man den konstanten Anteil b = 0, so bleibt eine Funktion f (x) = ax, die durch eine einzige reelle Zahl a festgelegt ist, und offensichtlich die Eigenschaften f (x + x 0 ) = f (x) + f (x 0 )

und

f (x) = f (x)

()

0

für beliebige x; x ;  2 R hat. b) Viel interessanter und anschaulich einfach zu verstehen ist die Situation in der Ebene. Zunächst betrachten wir eine Drehung um den Nullpunkt mit dem Winkel #. Das ist eine Abbildung F : R2 ! R2 ;

© Springer-Verlag GmbH Deutschland, ein Teil von Springer Nature 2020 G. Fischer und B. Springborn, Lineare Algebra, Grundkurs Mathematik, https://doi.org/10.1007/978-3-662-61645-1_4

124

3 Lineare Abbildungen

die sich wie folgt beschreiben lässt. Es ist F (0) = 0;

F (e1 ) = (cos #; sin #);

F (e2 ) = ( sin #; cos #) ;

und für ein beliebiges x = (x1 ; x2 ) = x1 e1 + x2 e2 ist F (x) = x1 F (e1 ) + x2 F (e2 ) = (x1 cos # x

x2 e2 e2

x2 sin #; x1 sin # + x2 cos #):

x2 F (e2 ) e2

F

F (x )

F ( e2 ) F (e1 )

# #

e1

x1 e1

e1

x1 F (e1 )

Bild 3.2

Benutzen wir die Matrix  A=

cos # sin #

sin # cos #

 ;

und schreiben wir x und F (x) als Spaltenvektoren, so ist mit der in 1.4.1 erklärten Multiplikation F (x) = A  x. An dieser Überlegung ist zu sehen, dass man für F (e1 ) und F (e2 ) beliebige Vektoren a = (a1 ; a2 ); b = (b1 ; b2 ) vorschreiben kann. Dann lässt sich F mit der Konstruktion aus Bild 3.3 zu einer Abbildung von R2 auf sich ausdehnen. x

x2 e2 e2

e2

F

x1 F (e1 ) F (x ) x1 e1

e1

e1 F (e2 ) = b F (e1 ) = a

Bild 3.3

Mithilfe der Matrix  A=

a1 b1 a2 b2

ist F wieder beschrieben durch F (x) = A  x.

x2 F (e2 )



3.1 Beispiele und Definitionen

125

c) Betrachtet man nun anstelle von R einen beliebigen Körper K, und nimmt man m und n anstelle von 2, so ist man sofort in einer recht allgemeinen Situation. Ist nämlich A = (aij ) eine m  n-Matrix, so erhält man daraus eine Abbildung 0 1 0 1 0 1 x1 a11 x1 + : : : +a1n xn y1 B : C B C B :: C :: :: F : K n ! K m ; @ :: A 7! @ A = @ : A: : : xn am1 x1 + : : : +amn xn ym Wie man leicht nachrechnet, hat sie wieder die Eigenschaft F (x + x 0 ) = F (x) + F (x 0 ); 0

F (x) = F (x)

()

n

für x; x 2 K und  2 K. Mithilfe der in 1.4.1 erklärten Multiplikation einer Matrix A mit einer Spalte kann man diese Abbildung einfacher beschreiben als F : Kn ! Km; n

x 7! A  x;

m

wenn man die Vektoren von K und K als Spalten entsprechender Höhe schreibt. Setzt man für x die Basisvektoren e1 ; : : : ; en als Spalten ein und rechnet man die Produkte aus, so stellt man fest, dass A  e1 ; : : : ; A  en die Spalten von A in dieser Reihenfolge sind. Diese Beobachtung sollte man sich einprägen: Die Spaltenvektoren der Matrix sind die Bilder der Basisvektoren. d) Die Abbildung M(m  n; K) ! K mn , 0 1 a11 : : : a1n B :: :: C @ : : A 7! (a11 ; : : : ; a1n ; : : : ; am1 ; : : : ; amn ); am1 : : : amn ist offensichtlich bijektiv und hat die zu () analogen Eigenschaften. Die beiden Vektorräume M(m  n; K) und K mn unterscheiden sich daher nur durch die Schreibweise der Vektoren. Macht man in einer Matrix Zeilen zu Spalten, so werden Spalten zu Zeilen, das ergibt die Abbildung M(m  n; K) ! M(n  m; K);

A = (aij ) 7! tA = (taij )

mit taij = aj i ;

die Transposition genannt wird. tA heißt die zu A transponierte Matrix. Das t schreiben wir links oben, damit rechts von A Platz für Exponenten und Indizes bleibt. Für m = 2 und n = 3 ist etwa 0 1   10 t 103 = @0 2A : 021 31

126

3 Lineare Abbildungen

Für die Transposition gelten offensichtlich die folgenden Rechenregeln: t

1) (A + B) = tA + tB, 2) t (  A) =   tA, 3) t ( tA) = A. Aus 1) und 2) folgt, dass die Transposition die Regeln () erfüllt, aus 3) folgt, dass sie bijektiv ist. e) Der Vektorraum V = C(I ; R) der auf einem Intervall I = [a; b] stetigen Funktionen ist unendlichdimensional, und die Abbildung Zb S : C(I ; R) ! R;

f 7!

f (x) dx a

hat nach den Rechenregeln für Integrale die zu () analogen Eigenschaften S (f + g) = S (f ) + S (g);

S (f ) = S (f ):

f) Ist V = D(I ; R) der Vektorraum der beliebig oft differenzierbaren Funktionen, so hat die durch Differentiation erklärte Abbildung D : V ! V;

f 7! f 0 ;

die zu () analoge Eigenschaft. 3.1.2. Die obigen Beispiele motivieren die folgende Definition. Eine Abbildung F : V ! W zwischen zwei K-Vektorräumen V und W heißt linear (genauer K-linear oder Homomorphismus von K-Vektorräumen), wenn L1 F (v + w) = F (v) + F (w), L2 F (v) = F (v) für alle v; w 2 V und alle  2 K. Diese beiden Bedingungen kann man zusammenfassen zu einer: L F (v + w) = F (v) + F (w) für alle v; w 2 V und ;  2 K. Man überlegt sich ganz leicht, dass L1 und L2 zusammen genommen mit L gleichwertig sind. Es ist üblich, den Begriff Homomorphismus weiter zu verschärfen. Man nennt eine lineare Abbildung F : V ! W einen Isomorphismus, wenn F bijektiv ist, Endomorphismus, wenn V = W , Automorphismus, wenn V = W und F bijektiv ist.

3.1 Beispiele und Definitionen

127

Wir notieren einige einfache Folgerungen aus den Axiomen: Bemerkung. Ist F : V ! W linear, so gilt: a) F (0) = 0 und F (v

w) = F (v)

F (w).

b) F (1 v1 + : : : + n vn ) = 1 F (v1 ) + : : : + n F (vn ). c) Ist die Familie (vi )i2I in V linear abhängig, so ist (F (vi ))i 2I in W linear abhängig. d) Eine Familie (vi )i2I in V ist linear unabhängig, wenn (F (vi ))i2I in W linear unabhängig ist. e) Sind V 0  V und W 0  W Untervektorräume, so sind auch F (V 0 )  W und F 1 (W 0 )  V Untervektorräume. f) dim F (V )  dim V . g) Ist F ein Isomorphismus, so ist auch F dim W = dim V .

1

: W ! V linear, und es gilt

Beweis. a) F (0) = F (0  0) = 0  F (0) = 0 und F (v

w) = F (v + ( 1)w) = F (v) + ( 1)F (w) = F (v)

F (w):

b) folgt durch wiederholte Anwendung der Regel L. c) Ist für i1 ; : : : ; in 2 I und 1 ; : : : ; n 2 K 1 vi1 + : : : + n vin = 0; so folgt nach b) 1 F (vi1 ) + : : : + n F (vin ) = 0: d) Wäre (vi )i2I linear abhängig, so müsste (F (vi ))i 2I nach c) linear abhängig sein. e) Wegen 0 2 V 0 ist 0 = F (0) 2 F (V 0 ). Sind w; w 0 2 F (V 0 ), so gibt es v; v 0 2 V 0 mit F (v) = w und F (v 0 ) = w 0 . Also ist w + w 0 = F (v) + F (v 0 ) = F (v + v 0 ) 2 F (V 0 ); denn v + v 0 2 V 0 . Für  2 K gilt wegen v 2 V 0 w = F (v) = F (v) 2 F (V 0 ): Sind v; v 0 2 F

1

(W 0 ), so bedeutet das F (v); F (v 0 ) 2 W 0 . Also ist F (v + v 0 ) = F (v) + F (v 0 ) 2 W 0 ;

also v + v 0 2 F

1

(W 0 ) und analog sieht man v 2 F

1

(W 0 ).

128

3 Lineare Abbildungen

f) Ist (wi )i2I linear unabhängig in F (V ) und wi = F (vi ), so ist (vi )i 2I nach d) linear unabhängig in V . g) Seien w; w 0 2 W und ;  2 K. Ist w = F (v) und w 0 = F (v 0 ), so ist v = F 1 (w); v 0 = F 1 (w 0 ), und es folgt aus F (v + v 0 ) = w + w 0 durch Anwendung von F F

1

1

auf beiden Seiten

(w) + F

1

(w 0 ) = F

1

(w + w 0 ):

dim W = dim V folgt dann nach f).



3.1.3. Lineare Abbildungen kann man in verschiedener Weise miteinander verknüpfen. Zunächst betrachten wir die Hintereinanderschaltung. Bemerkung 1. Sind U; V; W Vektorräume und G : U ! V; F : V ! W lineare Abbildungen, so ist auch F ıG: U ! W

linear.

Man beachte dabei wie immer die Reihenfolge der Abbildungen, was man sich in einem Diagramm aufzeichnen kann: G

U

V F ıG

F

W

Beweis. Für u; u0 2 U ist (F ı G)(u + u0 ) = F (G(u + u0 )) = F (G(u) + G(u0 )) = F (G(u)) + F (G(u0 )) = (F ı G)(u) + (F ı G)(u0 ): Ganz analog zeigt man (F ı G)(u) = (F ı G)(u).



In Aufgabe 3 zu 2.4 hatten wir gesehen, wie man für eine Menge X und einen Vektorraum W die Menge Abb(X; W ) zu einem Vektorraum machen kann. Ist auch X = V ein K-Vektorraum, so definiert man Hom K (V; W ) := fF : V ! W : F ist K-linearg: Falls klar ist, welcher Körper K gemeint ist, schreibt man einfacher Hom(V; W ). Bemerkung 2. Für Vektorräume V und W über demselben Körper K ist Hom K (V; W )  Abb(V; W ) ein Untervektorraum.

3.1 Beispiele und Definitionen

129

Beweis. Für F; G 2 Hom K (V; W ) und  2 K ist zu zeigen, dass F + G und F wieder K-linear sind. Das ist aber klar, denn für alle ;  2 K und v; w 2 V ist (F + G)(v + w) = F (v +  w) + G(v +  w) = F (v) + F (w) + G(v) + G(w) = (F (v) + G(v)) + (F (w) + G(w)) = (F + G)(v) + (F + G)(w) und (  F )(v + w) = F (v +  w) = (F (v) + F (w)) = F (v) +  F (w) = (  F )(v) + (  F )(w): Wir vermerken noch, dass der Nullvektor in Hom K (V; W ) die Nullabbildung 0: V ! W

mit 0(v) := 0

für alle v 2 V

ist, und die zu F : V ! W negative Abbildung gegeben ist durch F: V !W

mit ( F )(v) :=

F (v)

für alle v 2 V:



Die Dimension von Hom(V; W ) werden wir in 3.4.2 berechnen (vgl. auch Aufgabe 6 zu 3.4). 3.1.4. Im Spezialfall V = W setzt man End(V ) := Hom(V; V ); das sind die Endomorphismen von V . Diese Menge wird, wie wir in 3.1.3 gesehen haben, zu einem Vektorraum mit Addition und Multiplikation mit Skalaren. Man kann überdies eine Multiplikation durch die Hintereinanderschaltung erklären, in Zeichen F  G := F ı G

für F; G 2 End(V ):

Satz. Ist V ein K-Vektorraum, so ist End(V ) zusammen mit der oben erklärten Addition und Multiplikation ein Ring. Der einfache Beweis sei dem Leser überlassen. In 3.6.4 werden wir sehen, dass dieser Endomorphismenring für endlichdimensionales V zu einem Matrizenring isomorph ist. Damit erhält man eine Methode, viele der interessanten Unterringe von End(V ) durch die Gestalt der entsprechenden Matrizen zu beschreiben.

130

3 Lineare Abbildungen

Aufgaben zu 3.1 1. Sei X eine Menge und V der R-Vektorraum aller Funktionen f : X ! R. Beweisen Sie: Ist ' : X ! X eine beliebige Abbildung, so ist die Abbildung F' : V ! V;

f 7! f ı '

R-linear. 2. Untersuchen Sie die folgenden Abbildungen auf Linearität: a) R2 ! R2 ; c) Q2 ! R;

(x; y) 7! (3x + 2y; x), b) R ! R; x 7! ax + b, p (x; y) 7! x + 2y (über Q), d) C ! C, z 7! z (über C),

e) Abb(R; R) ! R,

f 7! f (1),

f) C ! C;

z 7! z (über R).

3. Für einen Endomorphismus F : V ! V ist die Menge der Fixpunkte von F definiert durch Fix F := fv 2 V : F (v) = vg. a) Zeigen Sie, dass Fix F  V ein Untervektorraum ist. b) Sei der Endomorphismus F gegeben durch 0 1 1 2 2 3 3 i) F : R ! R ; x 7! @ 0 1 0 A  x, 3 0 1 ii) F : R[t ] ! R[t ]; P 7! P 0 , iii) F : D(R; R) ! D(R; R); f 7! f 0 . Bestimmen Sie jeweils eine Basis von Fix F . 4. Zeigen Sie, dass die Menge Aut (V ) der Automorphismen eines Vektorraums V mit der Komposition von Abbildungen als Verknüpfung eine Gruppe ist. 5. Sei F : V ! V ein Endomorphismus des Vektorraums V und v 2 V , sodass für eine natürliche Zahl n gilt: F n (v) ¤ 0

und

F n+1 (v) = 0:

Beweisen Sie, dass dann v; F (v); : : : ; F n (v) linear unabhängig sind. 6. Ist F : V ! W ein Isomorphismus und V = U1 ˚ U2 , so ist W = F (U1 ) ˚ F (U2 ).

3.2 Bild, Fasern und Kern, Quotientenvektorräume

131

3.2 Bild, Fasern und Kern, Quotientenvektorräume Nachdem wir eine ganze Reihe formaler Eigenschaften von linearen Abbildungen behandelt haben, soll nun versucht werden, die „Geometrie“ solcher Abbildungen etwas besser zu verstehen. 3.2.1. Ist F : V ! W eine lineare Abbildung, so nennen wir Im F := F (V ) F

1

das Bild von F (vgl. 2:1:3);

(w) := fv 2 V : F (v) = wg

Ker F = F

1

die Faser über w 2 W und den Kern von F:

(0)

Bemerkung. Ist F : V ! W linear, so gilt: a) Im F  W und Ker F  V sind Untervektorräume. b) F surjektiv , Im F = W . c) F injektiv , Ker F = f0g. d) Ist F injektiv, und sind v1 ; : : : ; vn 2 V linear unabhängig, so sind auch die Bilder F (v1 ); : : : ; F (v1 ) linear unabhängig. Beweis. a) und b) und die „Hinrichtung“ von c) sind ganz klar. Gibt es umgekehrt zwei verschiedene v; v 0 2 V mit F (v) = F (v 0 ), so folgt F (v v 0 ) = 0, also 0 ¤ v v 0 2 Ker F . Zu d) nehmen wir an, dass 1 F (v1 ) + : : : n F (vn ) = 0: Die linke Seite hat wegen der Linearität das Urbild 1 v1 + : : : + n vn , wegen der Injektivität folgt 1 v1 + : : : + n vn = 0; also 1 = : : : = n = 0.



Eine besonders wichtige Zahl für eine lineare Abbildung ist die Dimension ihres Bildes. Man nennt sie den Rang, in Zeichen rang F := dim Im F:

132

3 Lineare Abbildungen

3.2.2. Die Begriffe Bild und Faser hat man analog für eine beliebige Abbildung F : X ! Y zwischen Mengen, und X wird durch die Fasern in disjunkte Teilmengen zerlegt: [ X= F 1 (y): y2Im F

Wir wollen untersuchen, wie diese Faserung im Fall einer linearen Abbildung aussieht. Dazu zunächst ein einfaches, aber typisches Beispiel. Wir betrachten die Abbildung     x1 2x1 + 2x2 F : R2 ! R2 ; 7! : x2 x1 + x2 Es ist Im F = R  (2; 1); Ker F = R  (1; 1), und für (2b; b) 2 Im F ist die Faser die Gerade mit der Gleichung x2 = x1 + b, also F

1

(2b; b) = (0; b) + R  (1; 1) = f(; b + ) :  2 Rg:

Bild 3.4

Die Fasern sind also parallele Geraden, der Kern ist die einzige Faser durch den Nullpunkt. Allgemein gilt die Bemerkung. Ist F : V ! W linear, w 2 Im F und u 2 F F

1

Beweis. Ist v 0 2 F

1

1

(w) beliebig, so ist

(w) = u + Ker F = fu + v : v 2 Ker F g: (w), so folgt

0

F (v ) = F (u) ) F (v 0

u) = 0 ) v := v 0

u 2 Ker F

0

) v = u + v 2 u + Ker F 0

Ist umgekehrt v = u + v 2 u + Ker F , so ist F (v 0 ) = F (u) = w, also v 0 2 F 1 (w). 

3.2 Bild, Fasern und Kern, Quotientenvektorräume

133

3.2.3. Teilmengen, die durch „Parallelverschiebung“ eines Untervektorraums entstehen, erhalten einen eigenen Namen. Definition. Eine Teilmenge X eines K-Vektorraums V heißt ein affiner Unterraum, falls es ein v 2 V und einen Untervektorraum W  V gibt, sodass X = v + W := fu 2 V : es gibt ein w 2 W mit u = v + wg (Bild 3.5). Es ist vorteilhaft, auch die leere Menge einen affinen Unterraum zu nennen.

Bild 3.5

Ist F : V ! W linear und w 2 W , so ist insbesondere F 1 (w)  V ein affiner Unterraum. Ist w 62 Im F , so ist er leer. Beispiele für affine Unterräume des Rn sind Punkte, Geraden und Ebenen (vgl. Kap. 1). Bemerkung. Sei X = v + W  V ein affiner Unterraum. Dann gilt: a) Für ein beliebiges v 0 2 X ist X = v 0 + W . b) Ist v 0 2 V und W 0  V ein Untervektorraum mit v + W = v 0 + W 0 , so folgt W = W 0 und v 0 v 2 W . Kurz ausgedrückt: Zu einem affinen Unterraum v + W ist der Untervektorraum W eindeutig bestimmt, und der Aufhängepunkt v kann beliebig in X gewählt werden. Beweis. a) Wir schreiben v 0 = v + w 0 . X  v0 + W :

u2X ) ) ) 0 v + W  X : u = v0 + w 2 v0 + W )

u = v + w mit w 2 W 0 u = v + (w w 0 ) 0 u2v +W u = v + (w + w 0 ) 2 v + W:

b) Definiert man X

X := fu

u0 : u; u0 2 Xg

134

3 Lineare Abbildungen

als die Menge der Differenzen (man beachte den Unterschied zu der in 2.1.2 definierten Differenzmenge X r X = ;), so sieht man ganz leicht, dass X

X =W

X

und

X =W0

sein muss. Also ist W = W 0 . Wegen v + W = v 0 + W gibt es ein w 2 W min v 0 = v + w. Also ist 0 v v =w 2W.  Da für einen affinen Unterraum X = v + W  V der Untervektorraum W eindeutig bestimmt ist, können wir durch dim X := dim W die Dimension von X erklären, falls X ¤ ;. Man setzt dim ; =

1.

3.2.4. Wir zeigen nun, wie man Basen wählen kann, die maßgeschneidert sind für eine lineare Abbildung (vgl. 3.4.3). Satz. Sei F : V ! W linear und dim V < 1. Sind Basen (v1 ; : : : ; vk )

von Ker F; 1

sowie beliebige Vektoren u1 2 F

(w1 ; : : : ; wr )

(w1 ); : : : ; ur 2 F

1

von Im F (wr ) gegeben, so ist

A := (u1 ; : : : ; ur ; vl ; : : : ; vk ) eine Basis von V . Insbesondere gilt die Dimensionsformel dim V = dim Im F + dim Ker F: Beweis. Für v 2 V sei F (v) = 1 w1 + : : : + r wr 0

v 0 := 1 u1 + : : : + r ur :

v 2 Ker F , also

Wegen F (v) = F (v ) folgt v v

und

0

0

v = 1 v1 + : : : + k vk

und v = 1 u1 + : : : + r ur + 1 v1 + : : : + k vk : Also wird V durch A erzeugt. Ist 1 u1 + : : : + r ur + 1 v1 + : : : + k vk = 0;

()

so folgt durch Anwendung von F 1 w1 + : : : + r wr = 0;

also 1 = : : : = r = 0;

da w1 ; : : : ; wr linear unabhängig sind. In () eingesetzt ergibt sich 1 v1 + : : : + k vk = 0; da v1 ; : : : ; vk linear unabhängig sind.

also 1 ; : : : ; k = 0 

3.2 Bild, Fasern und Kern, Quotientenvektorräume

135

Als unmittelbare Folgerung aus der Dimensionsformel notieren wir: Korollar 1. Ist V endlichdimensional und F : V ! W linear, so gilt für alle nichtleeren Fasern dim F

1

(w) = dim V

dim Im F:



Korollar 2. Zwischen zwei endlichdimensionalen Vektorräumen V und W gibt es genau dann einen Isomorphismus, wenn dim V = dim W .  Analog zum Satz aus 2.1.4 gilt Korollar 3. Sei dim V = dim W < 1 und F : V ! W linear. Dann sind folgende Bedingungen gleichwertig: i) F injektiv ii) F surjektiv iii) F bijektiv



3.2.5. Durch weiteres Spielen mit den Basen aus Satz 3.2.4 erhält man folgenden Faktorisierungssatz. Sei F : V ! W linear und A = (u1 ; : : : ; ur ; v1 ; : : : ; vk )

eine Basis von V

mit Ker F = span(v1 ; : : : ; vk ). Definieren wir U = span(u1 ; : : : ; ur ), so gilt 1) V = U ˚ Ker F . 2) Die Einschränkung F jU : U ! Im F ist ein Isomorphismus. 3) Bezeichnet P : V = U ˚ Ker F ! U; v = u + v 0 7! u, die Projektion auf den ersten Summanden, so ist F = (F jU ) ı P . In Form eines Diagrammes hat man V F

P

U

Im F  W :

F jU

Insbesondere hat jede nichtleere Faser F und es ist P (v) = F

1

1

(w) mit U genau einen Schnittpunkt,

(F (v)) \ U:

136

3 Lineare Abbildungen

Man kann also F : V ! W zerlegen (oder faktorisieren) in drei Anteile: eine Parallelprojektion, einen Isomorphismus und die Inklusion des Bildes. Der zur Konstruktion erforderliche direkte Summand U ist allerdings nicht eindeutig bestimmt, er hängt ab von der Wahl der Basisvektoren u1 ; : : : ; ur . Wenn in V eine Winkelmessung möglich ist (vgl. Kapitel 6), kann man U eindeutig machen durch die Vorschrift, auf Ker F senkrecht zu stehen. Die Umkehrung Im F ! U von F jU nennt man einen Schnitt, da sie aus jeder Faser genau einen Punkt ausschneidet. Als gute Illustration kann das Beispiel in 3.2.2 mit k = r = 1 dienen.

Bild 3.6

Beweis. 1) folgt aus der Charakterisierung direkter Summen in 2.6.3. Wegen Ker F jU = (Ker F ) \ U = f0g ist F jU auch injektiv, also ein Isomorphismus mit dem Bild Im F . Teil 3) folgt aus der Konstruktion von P . Ist schließlich v 2 V und v = u + v 0 mit u 2 U und v 0 2 Ker F; so ist u = P (v), also F (v) = F (u) = F (P (v)) =: w. Ist überdies w1 ; : : : ; wr eine Basis von Im F mit F (ui ) = wi , w = 1 w1 + : : : + r wr und v 2 F so folgt v = 1 u1 + : : : + r ur .

1

(w) \ U; 

Zur Vorbereitung auf den gleich folgenden Abschnitt über lineare Gleichungssysteme ist es nützlich, die gerade beschriebene allgemeine Situation für eine durch eine Matrix A 2 M(m  n; K) in Zeilenstufenform gegebene Abbildung A : Kn ! Km zu betrachten. Sind (in der Notation von 1.4.3) j1 ; : : : ; jr die Indizes der Pivotspalten, und sind ej1 ; : : : ; ejr die zu diesen Indizes gehörigen Basisvektoren des K n , so sind die Bilder A(ej1 ); : : : ; A(ejr ) 2 K m (das sind gerade die Pivotspalten) eine Basis von Im (A) = span(e10 ; : : : ; er0 ):

3.2 Bild, Fasern und Kern, Quotientenvektorräume

137

Dabei ist mit (e10 ; : : : ; er0 ) die kanonische Basis des K r bezeichnet. Also ist U := span(ej1 ; : : : ; ejr ) in diesem Fall ein direkter Summand zum Kern von A im Sinn von 2.6.3. Der Leser möge das zur Übung präzise begründen. Für die erste Lektüre wird empfohlen, den Rest dieses Abschnittes zu überblättern und bei 3.3 wieder einzusteigen. 3.2.6. Ist F : V ! W eine lineare Abbildung, so sind die Fasern von F nach 3.2.2 die zum Untervektorraum Ker F  V parallelen affinen Räume. Wir wollen nun umgekehrt zu jedem vorgegebenen Untervektorraum U  V eine lineare Abbildung mit Kern U konstruieren. Dazu benötigt man einen Vektorraum W als Bild; wir zeigen, dass es dafür einen kanonischen Kandidaten gibt, den „Quotientenvektorraum“ W = V /U . Da die Konstruktion ziemlich abstrakt ist, wollen wir zunächst etwas inhaltlichen Hintergrund bereitstellen. Beispiel 1. Sei V = R2 und U  V eine Gerade durch den Ursprung. Man nennt zwei Punkte v; v 0 2 R2 äquivalent, wenn die Differenz in U liegt, in Zeichen v  v0 , v0 U

v 2 U:

Geometrisch bedeutet das, dass v und v 0 gleich weit entfernt von U sind, wobei die Entfernung von Punkten links von U negativ und rechts von U positiv gerechnet sein soll (Bild 3.7).

Bild 3.7

Es ist ganz einfach zu sehen, dass dadurch in V eine Äquivalenzrelation im Sinn von 2.1.8 erklärt wird. Die Äquivalenzklassen sind die zu U parallelen Geraden, das sind die affinen Räume aus 3.2.3. Der Leser mache sich auch die Analogie zu den Restklassen modulo m aus 2.2.7 klar: Dort wurde die Gleichheit abgeschwächt zur Kongruenz, hier wird gleich ersetzt durch gleich weit entfernt.

138

3 Lineare Abbildungen

Beispiel 2. a) Wir betrachten den unendlichdimensionalen Vektorraum C(R) = ff : R ! R : f stetigg: Eine beliebige Teilmenge X  R sei vorgegeben, ihr Komplement A := R r X soll die Rolle einer Ausnahmemenge spielen, d. h. die Werte von f auf A werden als unwesentlich angesehen. Damit können wir den Untervektorraum I(X) := ff 2 C(R) : f (x) = 0

für alle x 2 Xg  C(R)

der „unwesentlichen“ Funktionen betrachten und für f; g 2 C(R) f  g :, g

f 2 I(X)

erklären. In Worten bedeutet das, f und g sind im Wesentlichen (d. h. außerhalb A) gleich. Auch diese Äquivalenz ist eine kontrollierte (von A abhängige) Abschwächung der Gleichheit. b) Eine Variante davon ist die folgende: Man benutzt auf R ein Integral (etwa das Riemann- oder besser das Lebesgue-Integral), d. h. ein Integral, mit dem möglichst viele Funktionen integrierbar sind. Sei L(R) := ff : R ! R : f integrierbarg und Z N := ff 2 L(R) :

jf (t )jdt = 0g  L(R): R

Nach den Rechenregeln für ein Integral folgt, dass N  L(R) ein Untervektorraum ist. Man beachte, dass N unendliche Dimension hat, denn etwa die Funktionen fi mit fi (t ) = 0 für t ¤ i und fi (i ) = 1 sind für i 2 N in N linear unabhängig. Für f; g 2 L(R) bedeutet f  g dann N Z jf (t) g(t)jdt = 0: R

Dafür sagt man auch, f und g sind „fast überall“ gleich, denn die Menge ft 2 R : f (t ) ¤ g(t )g muss sehr klein sein. 3.2.7. Sei nun ganz allgemein V ein K-Vektorraum und U  V ein Untervektorraum. Für v; v 0 2 V erklären wir die Äquivalenz modulo U v  v 0 :, v 0 U

v 2 U:

3.2 Bild, Fasern und Kern, Quotientenvektorräume

139

Aus den Eigenschaften eines Untervektorraums folgt ganz einfach, dass die Bedingungen für eine Äquivalenzrelation aus 2.1.8 erfüllt sind. Die Äquivalenzklasse eines v 2 V ist gleich dem affinen Unterraum, also fv 0 2 V : v 0  vg = v + U; U

denn v0  v , v0 U

v 2 U , es gibt ein u 2 U mit v 0 = v + u:

Die Menge der Äquivalenzklassen wird mit V /U bezeichnet, die kanonische Abbildung sei % : V ! V /U = fv + U : v 2 V g;

v 7! %(v) = v + U:

Dabei wird jedem Punkt der ihn enthaltende affine Raum zugeordnet, oder anders ausgedrückt wird jeder Vektor ersetzt durch die Menge all der zu ihm gleichwertigen Vektoren. Im Extremfall U = 0 ist die Äquivalenz die Gleichheit und % wird bijektiv. Für U = V ist alles äquivalent, und V /U besteht nur aus einem Element. Nun kommt der entscheidende Schritt, nämlich die Beobachtung, dass man mit den affinen Räumen rechnen kann wie mit Vektoren. Satz. Sei V ein K-Vektorraum und U  V ein Untervektorraum. Dann kann man die Menge V /U auf genau eine Weise so zu einem K-Vektorraum machen, dass die kanonische Abbildung % : V ! V /U;

v 7! v + U;

linear wird. Weiter gilt: 1) % ist surjektiv. 2) Ker % = U . 3) dim V /U = dim V

dim U , falls dim V < 1.

4) Der Quotientenvektorraum V /U hat die folgende universelle Eigenschaft: Ist F : V ! W eine lineare Abbildung mit U  Ker F , so gibt es genau eine lineare Abbildung F : V /U ! W mit F = F ı %. Das kann man in Form eines kommutativen Diagramms schreiben: V

F

W

% F

V /U Weiter ist Ker F = (Ker F )/U .

140

3 Lineare Abbildungen

Man nennt V /U den Quotientenvektorraum von V nach U . Diese Bezeichnung entspricht der Vorstellung, dass man U aus V „herausdividiert“, weil U in V /U zur Null wird. Beweis. Zur vorübergehenden Unterscheidung werden die neu zu definierenden ˙ und , die alten in V mit + und ohne Symbol beVerknüpfungen in V /U mit + zeichnet. Soll % linear werden, so muss ˙ (v + U )+(w + U ) = %(v) u %(w) = %(v + w) = (v + w) + U;   (v + U ) =   %(v) = %(v) = v + U gelten. Also gibt es nur eine Möglichkeit, die gesuchten Verknüpfungen in V /U zu erklären: ˙ (v + U )+(w + U ) := (v + w) + U;

  (v + U ) := v + U:

Es ist jedoch keineswegs klar, dass diese „Definition“ sinnvoll ist. Man muss noch zeigen, dass sie von der Wahl der Repräsentanten v und w unabhängig ist; dann ˙ und  seien Verknüpfungen in V /U wohldefiniert. sagt man, durch + Seien also weitere Repräsentanten v 0 ; w 0 gegeben, d. h. v + U = v0 + U Dann ist v 0 (Bild 3.8)

v 2 U und w 0

und

w + U = w 0 + U;

w 2 U , also (v 0 + w 0 )

(v + w) 2 U , und somit

(v + w) + U = (v 0 + w 0 ) + U:

Bild 3.8

3.2 Bild, Fasern und Kern, Quotientenvektorräume

141

Analog zeigt man, dass v + U = v 0 + U; d. h. auch die Multiplikation mit Skalaren ist in V /U wohldefiniert. Der Nachweis der Vektorraumaxiome in V /U mithilfe der entsprechenden Rechenregeln in V bereitet keinerlei Probleme, das sei dem Leser zur Übung empfohlen. Nullvektor in V /U ist U , denn ˙ U = (v + U )+(0 ˙ + U ) = (v + 0) + U = v + U; (v + U )+ und der zu v + U negative Vektor ist v + U . Diese Rechnungen zeigen, dass die ˙ überflüssig ist. Unterscheidung von + und + Die zusätzlichen Aussagen sind ganz einfach. 1) folgt aus der Definition von %. Ist v + U = U , so ist v 2 U , also folgt 2). 3) folgt aus der Dimensionsformel in 3.2.4. Zu 4) bemerkt man zunächst, dass wegen der Forderung F = F ı % für alle v2V F (v) = F (%(v)) = F (v + U ) sein muss. Dadurch ist F auch wohldefiniert: denn ist v + U = v 0 + U , so folgt v0

v 2 U  Ker F;

also F (v) = F (v 0 ):

Die Linearität von F ist klar. Die Gleichung Ker F = Ker F /U folgt aus v + U 2 Ker F , v 2 Ker F , v + U 2 Ker F /U; wobei zu bedenken ist, dass Ker F /U  V /U ein Untervektorraum ist.



Eine Schwierigkeit beim Verständnis der Quotientenstruktur besteht wohl darin, dass Mengen von Vektoren (in diesem Fall affine Räume) zu neuen Vektoren werden. Aber Vektor zu sein hat keine individuelle Bedeutung; ein Vektor muss sich nur innerhalb einer Gesamtheit von Vektoren (d. h. in einem Vektorraum) nach den dort geltenden Spielregeln (den Axiomen) verhalten. In diesem Sinne ist z. B. auch eine Funktion ein Vektor, d. h. ein Element oder „Punkt“ eines Vektorraums (vgl. 2.4.1, Beispiel e). 3.2.8. Manchmal mag es beruhigend sein, wenn man einen abstrakten Quotientenvektorraum durch etwas Konkreteres ersetzen kann. Dazu betrachten wir noch einmal die Beispiele aus 3.2.6. Beispiel 1. Für eine Gerade U  V = R2 ist der Quotient V /U eindimensional. Jeder affine Raum v+U 2 V /U kann durch einen Repräsentanten v 2 V gegeben werden, und man kann die Repräsentanten alle auf einen Streich in folgender Weise erhalten: Ist V 0  V eine von U verschiedene Gerade durch 0, so schneidet V 0 jeden affinen Raum v + U in genau einem Punkt (Bild 3.9). Bezeichnet man mit %0 : V 0 ! V /U;

v 7! v + U;

142

3 Lineare Abbildungen

Bild 3.9

die Beschränkung der kanonischen Abbildung %, so wird %0 zu einem Isomorphismus. Man kann also in gewisser Weise den abstrakten Quotientenvektorraum V /U durch einen konkreten Untervektorraum V 0 ersetzen. V 0 ist direkter Summand im Sinne von 2.6.3, d. h. es ist V = U ˚ V 0; und die Umkehrung von %0 ist ein Schnitt im Sinn von 3.2.5. Aber V 0 hat den Nachteil, nicht eindeutig zu sein. Ein besonders ausgezeichneter direkter Summand ist die zu U senkrechte Gerade U ? (vgl. dazu 6.5.4). Dass die elementargeometrische Vorstellung hier nicht immer hilfreich ist, sieht man wie in 3.2.6 an Beispiel 2. a) Die Elemente aus C(R)/I(X) sind Klassen auf R stetiger Funktionen, die auf X gleich sind. Eine solche Klasse kann man stetige Funktion auf X nennen, damit hat man Stetigkeit auch auf nicht-offenen Teilmengen X  R erklärt. Das geht zum Glück auch etwas weniger abstrakt. Sei F (X) = f' : X ! Rg der Vektorraum aller auf X definierten Funktionen und  : C(R) ! F (X);

f 7! f jX;

der Einschränkungshomomorphismus. Wir definieren C(X ) := Im  = fΦ 2 F (X) : es gibt ein f 2 C(R) mit Φ = f jXg  F (X )

3.2 Bild, Fasern und Kern, Quotientenvektorräume

143

als den Vektorraum der auf X stetigen, d. h. auf R stetig fortsetzbaren Funktionen. Offenbar ist Ker  = I(X ), also hat man nach der universellen Eigenschaft des Quotientenvektorraums ein Diagramm C(R) %



F (X) 

C(R)/I(X) wobei  wegen Ker  = Ker  /I(X) = 0 injektiv ist. Der abstrakte Quotientenvektorraum C(R)/I(X ) kann also als Untervektorraum des konkreteren Vektorraums F (X ) aufgefasst werden. b) Der Quotientenvektorraum L(R) := L(R)/N besteht aus den Klassen fast überall gleicher Funktionen. Im Gegensatz zu a) ist es gar nicht klar, wie man ihn als Untervektorraum von L(R) realisieren könnte. In Aufgabe 6 zu 6.1 wird er mit einer Norm versehen. Das ergibt einen brauchbaren Begriff der Konvergenz; der Preis dafür ist, dass man Funktionen durch Äquivalenzklassen ersetzen muss. 3.2.9. Nach diesen Beispielen kehren wir wieder zurück zur allgemeinen Theorie. Wir zeigen, dass man den Quotientenvektorraum weitgehend durch einen direkten Summanden ersetzen kann. Dessen Existenz war im endlichdimensionalen Fall in 2.6.3 gezeigt worden. Im allgemeinen Fall ist das zwar auch noch richtig, aber für die Praxis nutzlos. Satz. Sei V = V1 ˚ V2 und % : V ! V /V2 die kanonische Abbildung. Dann ist %0 := jV1 : V1 ! V /V2 ein Isomorphismus. Beweis. Jedes v 2 V hat eine eindeutige Darstellung v = v1 + v2 mit v1 2 V1 und v2 2 V2 . Weiter ist %(v) = %(v1 + v2 ) = v1 + v2 + V2 = v1 + V2 = %0 (v1 ): Daraus folgt sofort, dass %0 bijektiv ist.



144

3 Lineare Abbildungen

Aufgaben zu 3.2 1. Sei F : Rn ! Rm gegeben durch die folgenden Matrizen: 0 1 1 1 0 1 0   B0 1 1 0 0C 1 2 3 C ; B @1 1 0 0 1A: 4 5 6 0 1 1 0 0 Bestimmen Sie jeweils Basen von Ker F und Im F . 2. Sei I  R ein Intervall und d : D(I ; R) ! D(I ; R);

f 7! f 0 :

Zeigen Sie, dass d eine R-lineare Abbildung ist, und geben Sie eine Basis von Ker d an. Wie sieht Ker d aus im Fall, dass I disjunkte Vereinigung von Intervallen ist? 3. Sei V ein endlichdimensionaler Vektorraum und F : V ! V ein Endomorphismus. Es sei definiert: W0 := V und Wi +1 := F (Wi ) für i 2 N. Dann gilt: Es gibt ein m 2 N mit Wm+i = Wm für alle i 2 N. 4. Sei F : V ! V linear mit F 2 = F . Zeigen Sie, dass es Untervektorräume U; W von V gibt mit V = U ˚ W und F (W ) = 0; F (u) = u für alle u 2 U . 5. Sei F : R3 ! R2 gegeben durch die Matrix   2 1 3 : 4 2 6 a) Bestimmen Sie Basen A = (u; v1 ; v2 ) des R3 und B = (w; w 0 ) des R2 , sodass Ker F = span(v1 ; v2 ); Im F = span(w) und F (u) = w: b) Geben Sie für x 2 Im F eine Parametrisierung der Faser F 1 (x) an und zeigen Sie, dass jede nichtleere Faser F 1 (x) genau einen Schnittpunkt mit U = span(u) hat (vgl. 3.2.5). 6. Sei F : V ! W linear und U  W ein Untervektorraum. Zeigen Sie, dass dann dim F

1

(U ) = dim(U \ Im F ) + dim Ker F:

7. Geben Sie einen neuen Beweis von Teil a) der Bemerkung aus 3.2.3 unter Benutzung der Äquivalenzrelation  in V . W

3.2 Bild, Fasern und Kern, Quotientenvektorräume

145

8. Zeigen Sie mithilfe der universellen Eigenschaft des Quotientenvektorraums, dass für Vektorräume V; W sowie einen Untervektorraum U  V die lineare Abbildung fF 2 Hom(V; W ) : F jU = 0g ! Hom(V /U; W ) mit F 7! F¯ (vgl. Satz 3.2.7) ein Isomorphismus von Vektorräumen ist.

146

3 Lineare Abbildungen

3.3 Lineare Gleichungssysteme und der Rang einer Matrix Mithilfe der bisher entwickelten Techniken von Vektorräumen und linearen Abbildungen können wir nun lineare Gleichungssysteme noch einmal von einem etwas abstrakteren Standpunkt aus behandeln und dabei auch die in Kapitel 1 versprochenen Begründungen nachliefern. Entscheidend dabei ist der Begriff des Rangs einer Matrix. 3.3.1. In Kapitel 1 hatten wir nur den reellen Vektorraum Rn betrachtet. Man kann ihn für einen beliebigen Körper K durch K n ersetzen, da bei der Behandlung von linearen Gleichungssystemen nur die Körpereigenschaften der reellen Zahlen verwendet wurden. Wir betrachten jetzt allgemein eine Matrix A = (aij ) 2 M(m  n; K) mit m; n  1 und eine Spalte b = t(b1 ; : : : ; bm ) 2 M(m  1; K). Daraus ergibt sich das Gleichungssystem A  x = b;

d. h.

n X

aij xj = bi

für i = 1; : : : ; m:

()

aij xj = 0

für i = 1; : : : ; m;

()

j =1

Man nennt A  x = 0;

d. h.

n X j =1

das zu () gehörige homogene System; ist b ¤ 0, so nennt man das System () inhomogen. Die Mengen Lös (A; b) := fx 2 K n : A  x = bg  K n nennt man Lösungsräume. Ihre Struktur ist klar, wenn man die durch A erklärte lineare Abbildung FA : K n ! K m ;

x 7! A  x

betrachtet. Dann ist für b 2 K m Lös(A; b) = FA 1 (b)  K n also nach 3.2.3 ein affiner Unterraum und im homogenen Fall wegen b = 0 sogar ein Untervektorraum. Ist A in Zeilenstufenform mit Parameterpositionen j1 = 1; : : : ; jr = r und k = n r, so kann man wie in 1.4.4 eine Parametrisierung Φ : K k ! Lös(A; b);

 7! x() = Φ()

konstruieren. Dabei ist 1 0 1 1 c1  0 D B :: C B :: C mit  = @ : A ; c = @ : A ; D = 2 M(n  k; K): Ek k cn 0

Φ() = c + D  

3.3 Lineare Gleichungssysteme und der Rang einer Matrix

147

Da c ¤ 0 , b ¤ 0 ist Φ im homogenen Fall eine lineare Abbildung. Nach 1.4.8 ist sie auch bijektiv, also ein Isomorphismus. Schon in 1.4.8 war die Frage aufgetaucht, ob die nach der Elimination erhaltene entscheidende Zahl r und damit auch k = n r nur von der ursprünglichen Koeffizientenmatrix und nicht von den bei der Elimination getroffenen Auswahlen abhängen. Im folgenden Abschnitt zeigen wir, dass dies zutrifft und r gleich dem Rang der Matrix A ist. 3.3.2. Schon in 2.5.7 hatten wir den Zeilenraum einer Matrix eingeführt und gezeigt, dass er sich bei elementaren Zeilenumformungen nicht ändert. Daran schließen wir jetzt an. Sei also A = (aij ) 2 M(m  n; K) mit den Zeilenvektoren vi := (ai1 ; : : : ; ai n ) für i = 1; : : : ; m und den 0 1 a1j B : C Spaltenvektoren wj := @ :: A für j = 1; : : : ; n. amj Dann nennen wir ZR(A) := span(v1 ; : : : ; vm )  K n den Zeilenraum von A, SR(A) := span(w1 ; : : : ; wn )  K m den Spaltenraum von A, zr(A) := dim ZR(A) den Zeilenrang von A und sr(A) := dim SR(A) den Spaltenrang von A. Offensichtlich gilt ZR(tA) = SR(A), also zr(tA) = sr(A) und SR(tA) = ZR(A), also sr(tA) = zr(A). Nicht nur auf den ersten Blick erstaunlich ist der Rang-Satz. Für jede Matrix A 2 M(m  n; K) mit m; n  1 ist zr(A) = sr(A); kurz:

Zeilenrang = Spaltenrang.

Damit können wir den Rang einer Matrix A erklären als rang A := sr(A) = zr(A): Insbesondere folgt aus dem Rang-Satz, dass rang tA = rang A:

148

3 Lineare Abbildungen

Ist FA : K n ! K m die durch A erklärte lineare Abbildung, so ist offensichtlich rang A = rang FA : Beweis. Wir betrachten die homogenen linearen Gleichungssysteme A  x = 0 und A˜  x = 0; wobei A˜ eine auf Zeilenstufenform gebrachte Matrix A mit r Pivotpositionen bezeichnet. Nach dem Lemma aus 2.5.7 und Beispiel b) aus 2.4.5 ist ˜ = zr(A): r = zr(A) Daraus folgt insbesondere die Unabhängigkeit der Zahl r von den getroffenen Wahlen bei der Elimination. Die mit k := n r in 3.3.1 beschriebene Parametrisierung ˜ 0) = Lös(A; 0)  K n Φ : K k ! Lös(A; ist nach 3.3.1 ein Isomorphismus, also folgt dim Lös(A; 0) = k: Betrachten wir schließlich A : K n ! K m als eine lineare Abbildung, so ist Lös(A; 0) = Ker(A), und die Dimensionsformel aus 3.2.4 ergibt n = dim Im(A) + dim Ker(A) = sr(A) + k = sr(A) + n also zr(A) = sr(A).

zr(A); 

Wir empfehlen dem Leser in einfachen Spezialfällen einen direkten Beweis des Rang-Satzes zu versuchen (Aufgabe 3 zu 3.3). Andere Beweise für den allgemeinen Fall folgen in 3.6.6 und 7.1.5. 3.3.3. Nun können wir die in 1.4 sowie in den beiden vorhergehenden Abschnitten 3.3.1 und 3.3.2 erhaltenen Ergebnisse über lineare Gleichungssysteme mithilfe des Rangbegriffs noch einmal zusammenfassen: Hauptsatz. Gegeben sei ein lineares Gleichungssystem A  x = b, wobei K ein Körper, A 2 M(mn; K) mit m; n  1 sowie x 2 K n und b 2 K m Zeilenvektoren sind. Mit (A; b) 2 M(m  (n + 1); K) bezeichnen wir die erweiterte Koeffizientenmatrix und mit Lös(A; b) = fx 2 K n : A  x = bg  K n den Lösungsraum. Dann gilt: 1) Lös(A; b)  K n ist ein affiner Unterraum und ein Untervektorraum genau dann, wenn b = 0.

3.3 Lineare Gleichungssysteme und der Rang einer Matrix

2) dim Lös(A; 0) = n

149

rang A.

3) Lös(A; b) ¤ ; , rang(A; b) = rang A und dim Lös(A; b) = n

rang A,

falls Lös(A; b) ¤ ;.

4) Ist (A; b) in Zeilenstufenform, also 0 B B B B B B (A; b) = B B B B B @

1

~ ~

0

b1 C C :: C : C C C ~ br C ; C br+1 C C :: C : A bm

so ist rang(A; b) = rang A , br+1 = : : : = bm = 0. 5) Jede Koeffizientenmatrix (A; b) lässt sich durch Elimination mithilfe von ˜ bringen. Dabei bleibt ˜ b) Zeilenumformungen auf Zeilenstufenform (A; ˜ = rang(A; b): ˜ b) rang A˜ = rang A und rang(A; 6) Mithilfe einer Zeilenstufenform (A; b) ergibt sich im Fall Lös(A; b) ¤ ; eine Parametrisierung Φ : K k ! Lös(A; b);

 7! C  b + D  :

k

Dabei ist k = n rang A,  2 K , b 2 K r , C 2 M(n  r; K) und D 2 M(n  k; K) mit rang D = k. Die Matrizen C und D sind abhängig von den bei der Elimination getroffenen Auswahlen. Ist v := C  b bei festem b und bezeichnen w1 ; : : : ; wk die Spalten von D, so lässt sich jede Lösung in eindeutiger Form als x = v + 1 w1 + : : : + k wk schreiben. Eine derartige Behandlung linearer Gleichungssysteme mit beliebigem m und n wurde erstmals um 1875 von G. FONTENÉ, E. ROUCHÉ und F.G. FROBENIUS gestartet (vgl. [Fr]). Beweis. 1) und 2) wurde schon in 3.3.1 und 3.3.2 gezeigt. 3) Zum Beweis der ersten Aussage benutzen wir die lineare Abbildung FA : K n ! K m

und die Spaltenvektoren a1 ; : : : ; an ; b 2 K m von (A; b):

150

3 Lineare Abbildungen

Nun gilt Lös(A; b) ¤ ; , b 2 Im FA = span(a1 ; : : : ; an ) , span(a1 ; : : : ; an ; b) = span(a1 ; : : : ; an ) , dim span(a1 ; : : : ; an ; b) = dim span(a1 ; : : : ; an ) , rang(A; b) = rang A: Ist Lös(A; b) ¤ ;, so ist dim Lös(A; b) = dim Lös(A; 0) = n

rang A.

4) Das ist ganz offensichtlich, denn rang A = zr(A) = r. 5) Folgt wie in 1.4.7 und nach dem Lemma aus 2.5.7. 6) Folgt wie in 1.4.4.



Falls die Pivots nicht in den Spalten 1; : : : ; r stehen, sehen die Matrizen C und D etwas anders aus als in 1.4.4 und 3.3.1. Dazu ein Beispiel. Wir betrachten das liebiger rechter Seite: 0 0 B B 0 B B 0 B B @ 0 0

Gleichungssystem in Zeilenstufenform und mit be1 0 0 0 0

0 1 0 0 0

2 1 0 0 0

1 1 1 0 0

4 2 1 1 0

0 1 0 2 0

1 b1 C b2 C C b3 C C C b4 A 0

mit n = 7; m = 5; r = 4; j1 = 2; j2 = 3; j3 = 5; j4 = 6 und k = 3. Dann ist x1 = 1 ; x4 = 2 ; x7 = 3 , und daraus ergibt sich x6 = b4

2x7 = b4

x5 = b3

x6 = b3

x3 = b2 + x4 + x5 x2 = b1

23 ; b4 + 23 ; 2x6

x7 = b2 + b3

2x4 + x5 + 4x6 = b1 + b3 + 3b4

3b4 + 2 + 53 ; 22

63 :

3.3 Lineare Gleichungssysteme und der Rang einer Matrix

151

Trägt man die erhaltenen Koeffizienten in die entsprechenden Matrizen ein, so wird 0 1 0 1 0 0 0 0 1 0 0 B1 0 1 3C B0 2 6C B C B C B0 1 1 3C B0 1 5C B C B C C B C C =B B0 0 0 0C; D = B0 1 0C: B0 0 1 1C B0 0 2C B C B C @0 0 0 1A @0 0 2A 0

0

0

0

0

0

1

3.3.4. Zwei wichtige Spezialfälle linearer Gleichungssysteme haben eigene Namen. Besteht der Lösungsraum aus genau einem Element, so nennt man das System eindeutig lösbar. Aus dem bisher Bewiesenen folgt sofort die Bemerkung. Für A 2 M(m  n; K) und b 2 K m sind folgende Bedingungen gleichwertig: i) Das lineare Gleichungssystem A  x = b ist eindeutig lösbar. ii) rang A = rang(A; b) = n.



In diesem Fall besitzt das zugehörige homogene Gleichungssystem A  x = 0 nur die triviale Lösung 0. Ist m = n, so kann man ii) ersetzen durch rang A = n. Dies bedeutet, dass die lineare Abbildung A : K n ! K n surjektiv, also nach Korollar 3 aus 3.2.4 sogar bijektiv ist. Bezeichnet A 1 die inverse Abbildung, so ist die eindeutige Lösung x gegeben durch x=A 1

1

(b):

Nach 3.5.5 ist A beschrieben durch die inverse Matrix. Ist die Matrix A 2 M(m  n; K) vom Rang m, so ist die lineare Abbildung A : K n ! K m surjektiv, also ist der Lösungsraum von Ax = b für jedes b 2 K m nicht leer. Ein solches Gleichungssystem nennt man universell lösbar. Ist der Rang von A kleiner als m, so ist das System nur für spezielle b lösbar. Ein Rechenverfahren, dies bei festem A für ein gegebenes b zu entscheiden, leiten wir in 3.7.7 ab.

152

3 Lineare Abbildungen

Aufgaben zu 3.3 1. Beweisen Sie den Rang-Satz für eine Matrix A in den folgenden Spezialfällen ohne Benutzung linearer Gleichungssysteme: a) A 2 M(1  n; K) für beliebiges n. b) A 2 M(2  2; K). c) A 2 M(m  n; K) in Zeilenstufenform. 2. Lösen Sie das Gleichungssystem 3x1 + 2x2 = 4 4x1 + 3x2 = 1 über dem Körper F5 (vgl. 2.3.4). 3. Ein Nahrungsmittel enthält Schadstoffe S1 ; : : : ; S5 , die bei der Produktion und Lagerung als Bestandteile von Pflanzenschutzmitteln auftreten. Auf den einzelnen Stationen werden die folgenden Pflanzenschutzmittel benutzt: Station Mittel 1. Landwirt A 2. Rohproduktlagerung B 3. Veredelungsbetrieb C 4. Grossist und Transport D 5. Einzelhändler E Die folgende Tabelle gibt die prozentuale Zusammensetzung der Mittel A; : : : ; E wieder: S1 S 2 S 3 S4 S 5 A 0:2 0:5 0 0:3 0 B 0:1 0:6 0:3 0 0 C 0:1 0:2 0:2 0:3 0:2 D 0 0 0:1 0:4 0:5 E 0 0:1 0:3 0:3 0:3 Für das fertige Produkt ergibt die Nahrungmittelanalyse die folgenden Werte (in Gewichtseinheiten): S1 S 2 S 3 S4 S5 0:75 2:25 0:65 1:60 0:75 Ermitteln Sie, wie viel (in Gewichtseinheiten) die einzelnen Stationen zur Schadstoffbelastung beitragen.

3.3 Lineare Gleichungssysteme und der Rang einer Matrix

153

4. Es seien Metall-Legierungen M1 ; M2 und M3 gegeben, die alle Kupfer, Silber und Gold enthalten, und zwar in folgenden Prozentsätzen: M1 M2 M3

Kupfer Silber Gold 20 60 20 70 10 20 50 50 0

Kann man diese Legierungen so mischen, dass eine Legierung entsteht, die 40% Kupfer, 50% Silber und 10% Gold enthält? 5. Zeigen Sie: Ist die Matrix A 2 M(m  n; K) in Zeilenstufenform und r der Rang von A, so ist (e1 ; : : : ; er ) eine Basis von Im A  K m . 6. Bestimmen Sie für das folgende Gleichungssystem in Zeilenstufenform mit beliebiger rechter Seite Matrizen C und D wie in 3.3.4 so, dass die Spalten von D ein Fundamentalsystem bilden und C  b für jedes b 2 R5 eine spezielle Lösung ist. 0 1 0 1 1 2 0 3 0 b1 B 0 0 2 1 2 0 1 b2 C B C B 0 0 0 1 4 0 3 b3 C B C B 0 0 0 0 0 7 1 b4 C B C @ 0 0 0 0 0 0 4 b5 A 0 0

0

7. Gegeben seien die Matrizen 0 1 3 5 7 A = @4 6 8A; 1 3 4

0 0

0

0

0

0

1 3 2 6 3 B = @2 1 3 2A: 2 3 1 4

a) Untersuchen Sie die folgenden Gleichungssysteme darauf, ob sie eindeutig lösbar sind: 0 1 0 1 2 4 Ax = @ 4 A ; Bx = @ 1 A : 9 7 b) Untersuchen Sie die Gleichungssysteme Ax = b und Bx = b für beliebige b 2 R3 darauf, ob sie universell lösbar sind. 8. Sei der Untervektorraum W  Rn gegeben durch m lineare Gleichungen '1 ; : : : ; 'm , d. h. W = fx 2 Rn : '1 (x) = : : : = 'm (x) = 0g:

154

3 Lineare Abbildungen

Zeigen Sie, dass dann W bereits durch eine einzige (nicht notwendig lineare) Gleichung beschrieben werden kann. Genauer gilt: Es existiert ein Polynom f 2 R[t1 ; : : : ; tn ] mit W = f(x1 ; : : : ; xn ) 2 Rn : f (x1 ; : : : ; xn ) = 0g: 9. Zeigen Sie, dass eine Teilmenge L des R3 eine Gerade ist (d. h. es existieren v; w 2 R3 ; w ¤ 0, mit L = v + Rw) genau dann, wenn es eine Matrix A 2 M(2  3; R) mit rang A = 2 und ein b 2 R2 gibt, sodass L = fx 2 R3 : Ax = bg. Was bedeutet das geometrisch? 10. Zeigen Sie für eine Matrix A 2 M(m  n; K): a) A  tA ist symmetrisch. b) rang(A  tA) = rang A für K = R. c) Aussage b) ist falsch für K = F2 oder K = C. Hinweis zu a): Benutzen Sie 3.5.4. Hinweis zu b) und c): Behandeln Sie zunächst den Fall m = 1.

3.4 Lineare Abbildungen und Matrizen

155

3.4 Lineare Abbildungen und Matrizen Eine Abbildung F : X ! Y von Mengen ist nach Definition eine Vorschrift, die jedem Argument x 2 X einen Wert F (x) 2 Y zuordnet. Dabei ist im Allgemeinen nichts darüber ausgesagt, wie die Vorschrift auszusehen hat, also kann man die Bilder verschiedener Argumente völlig unabhängig voneinander wählen. Ganz anders ist die Situation für eine lineare Abbildung F : V ! W zwischen Vektorräumen. Kennt man einen Wert F (v), so ist F auf der ganzen Geraden Kv festgelegt. Will man für einen weiteren Vektor v 0 2 V den Wert beliebig vorschreiben, so darf also v 0 nicht auf der Geraden Kv liegen. Durch F (v) und F (v 0 ) ist dann F auf der ganzen Ebene Kv + Kv 0 festgelegt, usw. 3.4.1. Die Frage, durch wie viele Vorgaben eine lineare Abbildung festgelegt ist, hat eine einfache Antwort: Satz über die Erzeugung linearer Abbildungen. Gegeben seien die endlichdimensionalen Vektorräume V und W sowie die Vektoren v1 ; : : : ; vr 2 V und w1 ; : : : ; wr 2 W . Dann gilt 1) Sind die Vektoren v1 ; : : : ; vr linear unabhängig, so gibt es mindestens eine lineare Abbildung F: V !W

mit F (vi ) = wi

für i = 1; : : : ; r:

2) Ist (v1 ; : : : ; vr ) eine Basis, so gibt es genau eine lineare Abbildung F: V !W

mit F (vi ) = wi

für i = 1; : : : ; r:

Dieses F hat folgende Eigenschaften: a) Im F = span(w1 ; : : : ; wr ). b) F injektiv , w1 ; : : : ; wr linear unabhängig. Beweis. Wir beginnen mit Teil 2). Jedes v 2 V hat eine eindeutige Darstellung v = 1 v1 + : : : + r vr ; wegen F (vi ) = wi und der Linearität von F muss also F (v) = 1 w1 + : : : + r wr

()

sein. Also gibt es höchstens ein solches F , nämlich das durch () erklärte. Man darf nun allerdings nicht versäumen zu zeigen, dass die durch () erklärte Abbildung wirklich linear ist. Das folgt aus den Rechnungen

156

3 Lineare Abbildungen

F (v + v 0 ) = F (1 v1 + : : : + r vr + 01 v1 + : : : + 0r vr ) = F ((1 + 01 )v1 + : : : + (r + 0r )vr ) = (1 + 01 )w1 + : : : + (r + 0r )wr = 1 w1 + : : : + r wr + 01 w1 + : : : 0r wr = F (v) + F (v 0 ) und F (v) = F (1 v1 + : : : + r vr ) = 1 w1 + : : : + r wr = F (v): Die Inklusion Im F  span(w1 ; : : : ; wr ) ist klar. Ist umgekehrt w = 1 w1 + : : : + r wr ;

so folgt w = F (1 v1 + : : : + r vr ):

Zu b) nehmen wir an, w1 ; : : : ; wr sei linear abhängig. Dann gibt es ein r-Tupel (1 ; : : : ; r ) ¤ (0; : : : ; 0) mit 1 w1 + : : : + r wr = 0; und es folgt F (1 v1 + : : : + r vr ) = 0; also ist F nicht injektiv. Umgekehrt sei F (v) = 0. Wir schreiben v = 1 v1 + : : : + r vr ;

dann ist 1 w1 + : : : + r wr = 0:

Wegen der linearen Unabhängigkeit von w1 ; : : : ; wr folgt 1 = : : : = r = 0, also v = 0. Damit ist 2) bewiesen. Ist v1 ; : : : ; vr nun linear unabhängig, so können wir diese Familie zu einer Basis (v1 ; : : : ; vr ; vr+1 ; : : : ; vn ) ergänzen und durch Vorgabe beliebiger weiterer Werte wr+1 ; : : : ; wn entsprechend 2) ein F mit F (vi ) = wi

für i = 1; : : : ; n

finden. An dieser Konstruktion kann man erkennen, wie weit F von der Eindeutigkeit entfernt ist: Ein Maß dafür ist die Zahl n r.  3.4.2. Der Satz aus 3.4.1 hat zahlreiche Folgerungen. Korollar 1. Ist V ein Vektorraum mit einer Basis B = (v1 ; : : : ; vn ), so gibt es dazu genau einen Isomorphismus ΦB : K n ! V

mit ΦB (ej ) = vj

für j = 1; : : : ; n;

wobei (e1 ; : : : ; en ) die kanonische Basis von K n bezeichnet.



ΦB heißt Koordinatensystem, damit werden wir uns in 3.6.1 weiter beschäftigen.

3.4 Lineare Abbildungen und Matrizen

157

Korollar 2. Zu jeder linearen Abbildung F : K n ! K m gibt es genau eine Matrix A 2 M(m  n; K), sodass F (x) = A  x n

für alle Spaltenvektoren x 2 K . Man braucht also in diesem Fall zwischen linearen Abbildungen und Matrizen nicht mehr zu unterscheiden. Beweis. Man schreibe F (e1 ); : : : ; F (en ) als Spaltenvektoren nebeneinander, das ergibt A.  Einen solchen Zusammenhang zwischen linearen Abbildungen und Matrizen gibt es nicht nur in den Standardräumen: Satz. Gegeben seien K-Vektorräume V mit Basis A = (v1 ; : : : ; vn )

und

W mit Basis B = (w1 ; : : : ; wm ):

Dann gibt es zu jeder linearen Abbildung F : V ! W genau eine Matrix A = (aij ) 2 M(m  n; K), sodass F (vj ) =

m X

aij wi

für j = 1; : : : ; n;

()

i=1

und die so erhaltene Abbildung MBA : Hom (V; W ) ! M(m  n; K);

F 7! A = MBA (F );

ist ein Isomorphismus von K-Vektorräumen. Insbesondere gilt MBA (F + G) = MBA (F ) + MBA (G) und MBA (F ) = MBA (F ): Kurz gesagt: Nach Wahl fester Basen kann man lineare Abbildungen durch Matrizen (d. h. relativ abstrakte durch konkrete Objekte) ersetzen. Man bezeichnet MBA (F ) als die Matrix, die F bezüglich der Basen A und B darstellt. Beweis. Da B Basis ist, sind die Linearkombinationen aus () und somit auch die Spalten der Matrix A eindeutig bestimmt. Gehört zur Abbildung G die Matrix B = (bij ), so ist (F + G)(vj ) = F (vj ) + G(vj ) =

m X

aij wi +

i =1

m X

bij wi =

i =1

m X (aij + bij )wj ; i =1

und für  2 K ist (F )(vj ) =   F (vj ) = 

m X i=1

aij wi =

m X (aij )wi : i =i

158

3 Lineare Abbildungen

Daher ist die Abbildung MBA linear. Da A eine Basis ist, gibt es nach 3.4.1 genau ein F , das darauf die durch Bedingung () festgelegten Werte annimmt. Also ist MBA bijektiv.  Zusatz. Im Spezialfall V = K n und W = K m mit den kanonischen Basen K und K0 ist der kanonische Isomorphismus MKK0 : Hom (K n ; K m ) ! M(m  n; K);

F 7! A;

die in Korollar 2 beschriebene Beziehung.



Mithilfe einer Basis kann man Vektoren eindeutig als Linearkombinationen darstellen. Der obige Satz zeigt, wie man Abbildungen als Vektoren betrachten und mithilfe zweier Basen analog verfahren kann. Dazu sei  wi für k = j; Fij : V ! W erklärt durch Fij (vk ) := 0 sonst: Dann ist also MBA (Fij ) = Eji (mit der Bezeichnung aus 2.5.1), und die mn Abbildungen Fij bilden eine Basis von Hom(V; W ). Die zur Linearkombination eines beliebigen F nötigen Skalare stehen an passender Stelle in MBA (F ). Die naheliegende Frage, wie sich die Matrix A ändert, wenn man in V und W neue Basen einführt, wird in 3.6.5 beantwortet. 3.4.3. Als Folgerung aus 3.2.4 erhält man, dass bei Benutzung der dort konstruierten Basen auch die darstellende Matrix besonders einfach wird. Korollar. Sei F : V ! W linear, n = dim V , m = dim W und r = dim Im F . Dann gibt es Basen A von V und B von W , sodass   Er 0 MBA (F ) = : 0 0 Dabei bezeichnet Er die in 2.5.7 eingeführte r-reihige Einheitsmatrix. Beweis. Es genügt, die in 3.2.4 gewählte Basis von Im F durch Ker F zu einer Basis B = (w1 ; : : : ; wr ; wr+1 ; : : : ; wm ) von W zu ergänzen.



3.4.4. Ist der Bildraum W gleich dem Urbildraum V (d. h. hat man einen Endomorphismus), so setzt man am besten auch A = B und zur Vereinfachung der Notation MB := MBB sowie End(V ) = Hom(V; V ).

3.4 Lineare Abbildungen und Matrizen

159

Der Vektorraumisomorphismus MB : End(V ) ! M(n  n; K) ist dann charakterisiert durch die Gleichungen F (vj ) =

n X

aij vi

für j = 1; : : : ; n;

i=1

wenn B = (v1 ; : : : ; vn ) und A = (aij ) = MB (F ). Die n-reihige Einheitsmatrix En = (ıij ) beschreibt dabei die identische Abbildung, in Zeichen MB (idV ) = En : Die zu 3.4.3 analoge Frage, für einen Endomorphismus eine besonders einfache Basis zu finden, ist weit schwieriger zu beantworten. Sie ist Gegenstand von Kapitel 5.

Aufgaben zu 3.4 1. Gibt es eine lineare Abbildung F : R2 ! R2 mit F (2; 0) = (0; 1); F (1; 1) = (5; 2); F (1; 2) = (2; 3)? 2. Sei B = (sin; cos; sin  cos; sin2 ; cos2 ) und V = span B  Abb (R; R). Betrachten Sie den Endomorphismus F : V ! V; f 7! f 0 , wobei f 0 die erste Ableitung von f bezeichnet. a) Zeigen Sie, dass B eine Basis von V ist. b) Bestimmen Sie die Matrix MB (F ). c) Bestimmen Sie Basen von Ker F und Im F . 3. Für n 2 N sei Vn = span(1; : : : ; t n )  R[t] mit der Basis Bn = (1; : : : ; t n ) und Dn : Vn ! Vn

1;

f 7! f 0

der Ableitungshomomorphismus. a) Bestimmen Sie die Matrix MBBnn 1 (Dn ). b) Zeigen Sie, dass es eine lineare Abbildung In : Vn Dn ı In = id, und bestimmen Sie MBBnn 1 (In ).

1

! Vn gibt mit

4. Sei V = ff 2 R[t] : deg f  3g mit der Basis B = (1; t; t 2 ; t 3 ). Wir betrachten die linearen Abbildungen Z1 F : V ! R; f 7! 1

f (t) dt und G : V ! R3 ; f 7! (f ( 1); f (0); f (1)):

160

3 Lineare Abbildungen

a) Es seien K und K0 die kanonischen Basen von R und R3 . Bestimmen Sie die Matrizen MKB (F ) und MKB0 (G): b) Zeigen Sie: Ker G  Ker F . c) Es gibt eine lineare Abbildung H : R3 ! R mit H ı G = F . 5. Seien V und W endlichdimensionale Vektorräume mit V = V1 ˚ V2 , W = W1 ˚ W2 sowie F : V ! W linear mit F (Vi )  Wi für i = 1; 2. Zeigen Sie, dass es Basen A von V und B von W gibt mit   A 0 MBA (F ) = ; 0 B wobei A 2 M(dim W1  dim V1 ; K); B 2 M(dim W2  dim V2 ; K). 6. Zeigen Sie ohne Verwendung von Matrizen, dass die in 3.4.2 definierten Abbildungen Fij : V ! W eine Basis von Hom(V; W ) bilden. 0 1 7. Sei 2 3 2 3 A = @ 3 5 0 1A 1 2 2 2 und F : R4 ! R3 die durch F (x) = Ax definierte lineare Abbildung. Bestimmen Sie Basen A von R4 und B von R3 mit 0 1 1 0 0 0 MBA (F ) = @ 0 1 0 0 A : 0 0 0 0 8. Sei V ein endlichdimensionaler Vektorraum und F : V ! V linear mit F 2 = F . Zeigen Sie, dass es eine Basis B von V gibt mit   Er 0 MB (F ) = : 0 0 Hinweis: Aufgabe 5 und Aufgabe 4 zu 3.2. 9. Zeigen Sie: Ist F : V ! V ein Endomorphismus des endlichdimensionalen Vektorraums V mit dim Fix F = r (vgl. Aufgabe 3 zu 3.1), so existiert eine Basis B von V mit   Er  MB (F ) = : 0 

3.5 Multiplikation von Matrizen

161

3.5 Multiplikation von Matrizen 3.5.1. In 3.1.3 hatten wir gesehen, dass für lineare Abbildungen G : U ! V und F : V ! W die Komposition F ı G : U ! W wieder linear ist. Im Spezialfall U = K r ; V = K n ; W = K m sind F und G entsprechend 3.4.2 durch Matrizen A und B gegeben, und wir wollen ausrechnen, welche Matrix C die lineare Abbildung F ı G beschreibt. Das folgende Diagramm soll die Übersicht erleichtern: B

Kr 1 x1 B :: C B : C C x=B B : C @ :: A

A

Kn

!

!

0

1 y1 B :: C y=@ : A yn 0

7!

7!

xr

Km; 0 1 z1 B : C B :: C B C B : C B z = B :: C C: B C B :: C @ : A zm

Ist B = (bj k ) 2 M(n  r; K) und y = B(x), so folgt yj = bj 1 x1 + : : : + bjr xr

für j = 1; : : : ; n;

(b)

A = (aij ) 2 M(m  n; K) und z = A(y) bedeutet zi = ai1 y1 + : : : + ai n yn

für i = 1; : : : ; m;

(a)

und schließlich C = (cik ) 2 M(m  r; K); z = A(B(x)) bedeutet zi = ci1 x1 + : : : + cir xr

für i = 1; : : : ; m:

(c)

Setzt man (b) in (a) ein, so erhält man zi = ai 1 (b11 x1 + : : : + b1r xr ) + : : : + ai n (bn1 x1 + : : : + bnr xr ) = (ai 1 b11 + : : : + ai n bn1 )x1 + : : : + (ai 1 b1r + : : : + ai n bnr )xr : Vergleich von (c) und (c0 ) ergibt ci 1 = ai1 b11 + : : : + ai n bn1 ; : : : ; cir = ai1 b1r + : : : + ai n bnr : Unter Verwendung von Summenzeichen schreibt sich das so: ! ! n n r n r X X X X X zi = aij yj = aij bj k xk = aij bj k xk j =1

=

r X

n X

@ k=1

k=1

j =1

0

j =1

1 aij bj k A xk =

r X k=1

j =1

cik xk ;

k=1

(c 0 )

162

3 Lineare Abbildungen

also ist cik =

n X

aij bj k

für i = 1; : : : ; m und k = 1; : : : ; r:

j =1

Diese kleine Rechnung, die nur auf der Umordnung einer Summe beruht, hat wichtige Konsequenzen. Man kann damit eine Multiplikation von Matrizen passender Größe erklären. 3.5.2. Zur Definition der Multiplikation von Matrizen nehmen wir A = (aij ) 2 M(m  n; K)

und

B = (bj k ) 2 M(n  r; K);

d. h. die Spaltenzahl von A muss mit der Zeilenzahl von B übereinstimmen. Dann ist das Produkt n X A  B = (ci k ) 2 M(m  r; K) erklärt durch cik := aij bj k : j =1

Die Matrix A  B hat also so viele Zeilen wie A und so viele Spalten wie B, die gemeinsame Zahl n verschwindet bei der Multiplikation. Diese Größenverhältnisse kann man durch folgendes Schema zum Ausdruck bringen: 19 0 b11    b1k    b1r > = B :: :: :: C n A @ : : : > ; bn1    bnk    bnr 9 > > 1> 0 10 > a11    a1n c11  c1r > > > C> > B :: :: C B > C > B : C B > : CB C> B C= B CB : : C m: B CB : : : C> cik B ai1    ai n C B : C> B CB C> > B : CB : :: A @ > A> @ :: > > > > cm1  cmr > am1    amn > ƒ‚ …> ; „ ƒ‚ …„ r

n

Hieran sieht man auch gut, wie cik = ai 1 b1k + : : : + ai n bnk

3.5 Multiplikation von Matrizen

163

aus der i -ten Zeile von A und der k-ten Spalte von B entsteht. Ansonsten ist es aber recht unpraktisch, Matrizen bei der Multiplikation so anzuschreiben. Ein Beispiel der üblichen Schreibweise ist 0 1 0 1 0 1 1 2 1 2 1 1 1 5 B0 1C C @ 0 1A: @0 1 2 2A:B @1 1A = 2 1 0 3 1 3 1 0 Ist speziell m = r = 1 und n beliebig, so ist 0 1 b1 B :: C A  B = (a1 : : : an )  @ : A = a1 b1 + : : : + an bn 2 K = M(1  1; K): bn Man beachte, dass dagegen 0 1 0 1 a1 a1 b1    a1 bn B :: C B : ::: C @ : A  (b1 : : : bn ) = @ :: A 2 M(n  n; K) an an b1    an bn gilt. Ist speziell m = n = r, so kann man für A; B 2 M(m  m; K) sowohl A  B als auch B  A bilden, im Allgemeinen ist aber A  B ¤ B  A. Zum Beispiel ist       1 0 0 1 0 1 : = ; 0 0 0 0 0 0 aber 

0 1 0 0

     1 0 0 0 : = : 0 0 0 0

Daran sieht man außerdem, dass das Produkt von zwei Matrizen die Nullmatrix ergeben kann, obwohl beide Matrizen von der Nullmatrix verschieden waren. Beispiel. Ist f = (f1 ; : : : ; fm ) : Rn ! Rm eine differenzierbare Abbildung (das heißt f1 ; : : : ; fm : Rn ! R sind differenzierbare Funktionen) mit f (0) = 0 (diese Annahme dient nur zur Vereinfachung der Bezeichnungen), und sind y1 ; : : : ; yn die Koordinaten im Rn , so sei 0 @f 1 @f1 1 (0)    (0) @y1 @yn B C :: :: C A := B : : @ A @fm @fm (0)    (0) @y1 @yn die sogenannte JACOBI-Matrix von f im Punkte Null.

164

3 Lineare Abbildungen

Ist g = (g1 ; : : : ; gn ) : Rr ! Rn eine weitere differenzierbare Abbildung mit g(0) = 0 und sind x1 ; : : : ; xr Koordinaten im Rr , so bezeichnen wir mit 0 @g 1 1 1 (0)    @g (0) @x @xr B 1: C :: C :: B := B : @ A @gn @gn (0)    (0) @x1 @xr die Jacobi-Matrix von g im Punkte Null. Ist h := f ı g : Rr ! Rm und h = (h1 ; : : : ; hm ), so gilt für die Jacobi-Matrix von h im Punkt Null 0 @h 1 @h1 1 (0)    (0) @x1 @xr B C :: :: B C = A  B: : : @ A @hm @hm (0)    (0) @x1 @xr Das folgt sofort aus den Rechenregeln für die partiellen Ableitungen. Diese Verknüpfungseigenschaft der Systeme partieller Ableitungen war im 19. Jahrhundert einer der Ausgangspunkte für die Entwicklung des Matrizenkalküls gewesen. 3.5.3. Zwei Spezialfälle der Matrizenmultiplikation sollen besonders erwähnt werden. a) Drehungen des R2 um die Winkel ˛ und ˇ werden nach 3.1.1 beschrieben durch     cos ˛ sin ˛ cos ˇ sin ˇ A= und B = : sin ˛ cos ˛ sin ˇ cos ˇ Die Hintereinanderausführung ist eine Drehung um den Winkel ˛ + ˇ, und sie wird beschrieben durch B  A, das bedeutet   cos(˛ + ˇ) sin(˛ + ˇ) = sin(˛ + ˇ) cos(˛ + ˇ) 

cos ˛ cos ˇ sin ˛ sin ˇ cos ˛ sin ˇ + sin ˛ cos ˇ

(sin ˛ cos ˇ + cos ˛ sin ˇ) cos ˛ cos ˇ sin ˛ sin ˇ

 :

Dass die Einträge auf beiden Seiten gleich sind, ist die Aussage der sogenannten Additionstheoreme für Sinus und Cosinus. Dem Leser sei empfohlen, in diesem Fall die Gleichheit A  B = B  A nachzuweisen, denn das ist bei Matrizen ein bemerkenswertes Ereignis. b) Die Multiplikation einer m  n-Matrix A mit einer n  1-Matrix, d. h. einer Spalte x haben wir schon lange benutzt zur Beschreibung der linearen Abbildung A : Kn ! Km;

x 7! A  x:

3.5 Multiplikation von Matrizen

165

Mithilfe der Matrizenmultiplikation geschrieben bedeutet die in 3.5.1 durchgeführte Rechnung dann A  (B  x) = (A  B)  x für jede (r  1)-Matrix x. Das ist ein Spezialfall des Assoziativgesetzes für die Matrizenmultiplikation, das in der folgenden Sammlung von Regeln enthalten ist. 3.5.4. Rechenregeln für Matrizen. Sind Matrizen A; A0 2 M(m  n; K) und B; B 0 2 M(n  r; K), C 2 M(r  s; K) und  2 K gegeben, so gilt: 1) A  (B + B 0 ) = A  B + A  B 0 und (A + A0 )  B = A  B + A0  B.

(Distributivgesetze)

2) A  (B) = (A)  B = (A  B). 3) (A  B)  C = A  (B  C ) t

t

(Assoziativgesetz)

t

4) (A  B) = B  A. 5) Em  A = A  En = A.

(Neutralität der Einheitsmatrix)

Beweis. 1), 2) und 5) sind ganz einfach und erfordern höchstens etwas Schreibarbeit. Für den Beweis von 4) muss man sorgfältig mit den Buchstaben umgehen: Ist A = (aij ) und B = (bj k ), so ist A  B = (ci k ) mit ci k =

n X

aij bj k ;

0 0 (A  B) = (cki ) mit cki = cik :

t

also

j =1

Weiter ist 0 B = (bkj )

t

0 mit bkj = bj k

und

A = (aj0 i )

t

mit aj0 i = aij ;

also t

B  tA = (dki )

mit dki =

n X

0 bkj aj0 i =

j =1

n X

bj k aij =

j =1

n X

aij bj k :

j =1

0 Also ist cki = dki . Bleibt der Beweis des Assoziativgesetzes 3). Dazu betrachten wir die beteiligten Matrizen als lineare Abbildungen C

B

A

Ks ! Kr ! Kn ! Km: Nach 2.1.5 gilt das Assoziativgesetz für die Hintereinanderschaltung von Abbildungen, also ist (A ı B) ı C = A ı (B ı C ):

166

3 Lineare Abbildungen

In 3.5.1 haben wir gezeigt, dass die Hintereinanderschaltung der Abbildungen durch das Produkt der Matrizen ausgedrückt wird. Das liefert die Behauptung. Wer bei diesem Kniff Unwohlsein empfindet, möge zur Linderung noch einmal Summen umordnen: Sei A = (aij ); B = (bj k ) und C = (ckl ). Dann ist A  B = (˛ik )

mit ˛ik =

n X

aij bj k ;

j =1

also (A  B)  C = (dil )

mit dil =

r X

0

n X

@ k=1

1 aij bj k A clk :

j =1

Weiter ist B  C = (ˇj l )

mit ˇj l =

r X

bj k ckl ;

k=1

also A  (B  C ) =

0 (dil )

mit

0 dil

=

n X

aij 

j =1

r X

! bj k ckl :

k=1

0 Die beiden Summen für dil und dil enthalten genau die gleichen Summanden, 0 also ist di l = dil . 

Anstelle von A  B schreibt man für das Produkt von Matrizen meist nur AB. Nach den Regeln 2) und 3) kann man auch Klammern weglassen und einfach AB

bzw.

ABC

schreiben. Vorsicht! In der Rechenregel 4) steht auf der rechten Seite der Gleichung nicht t A  tB. In dieser Reihenfolge könnte man die Matrizen im Allgemeinen nicht einmal miteinander multiplizieren. Aber selbst wenn A; B 2 M(n  n; K) gilt, ist im Allgemeinen t

(A  B) ¤ tA  tB:

Man kontrolliere das an Beispielen nach. Auch von der Richtigkeit des Assoziativgesetzes sollte man sich anhand von einigen Beispielen überzeugen, denn es ist gar nicht selbstverständlich (und eine gute Kontrollmöglichkeit für die Rechnung). Im Spezialfall quadratischer Matrizen folgt aus diesen Regeln das Korollar. Die Menge M(n  n; K) mit der Addition aus 2.4.1 und der Multiplikation aus 3.5.2 ist ein Ring. 

3.5 Multiplikation von Matrizen

167

3.5.5. Es ist eine naheliegende Frage, wie der Rang der Produktmatrix von den Rängen der Faktoren abhängt. Man hat folgende Abschätzungen: Lemma. Ist A 2 M(m  n; K) und B 2 M(n  r; K), so gilt rang A + rang B

n  rang(A  B)  minfrang A; rang Bg:

Beweis. Wir betrachten die Matrizen als lineare Abbildungen, das ergibt ein Diagramm: AB

Kr B

Kn

Km A

Weiter definieren wir F 0 := AjIm B. Dann ist Im F 0 = Im (A  B)

und Ker F 0 = Ker A \ Im B:

Die Dimensionsformel aus 3.2.4 angewandt auf F 0 ergibt rang(A  B) = rang F 0 = dim Im B

dim Ker F 0 = rang B

dim Ker F 0 : ()

Daraus folgt rang (A  B)  rang B. Da Im (A  B)  Im A, folgt die Abschätzung nach oben. Wegen Ker F 0  Ker A folgt aus () weiter rang(A  B)  rang B

dim Ker A = rang B + rang A

n;

wobei die letzte Gleichung nach der Dimensionsformel für die Abbildung A gilt. Das ergibt die Abschätzung nach unten. Sie ist scharf, wenn Ker F 0 = Ker A, also wenn Ker A  Im B.  Vergleiche hierzu auch Aufgabe 10 zu 3.3. 3.5.6. Wir betrachten den kanonischen Isomorphismus aus 3.4.2 im Fall m = n, also Hom(K n ; K n ) ! M(n  n; K) und fragen, welche quadratischen Matrizen die Isomorphismen F : Kn ! Kn beschreiben. Ein Isomorphismus hat eine Umkehrung F F ıF

1

=F

1

1

mit

ı F = idK n :

Übersetzt in die entsprechenden Matrizen ergibt das die Definition. Eine Matrix A 2 M(n  n; K) heißt invertierbar, wenn es ein A0 2 M(n  n; K) gibt mit A  A0 = A0  A = En :

168

3 Lineare Abbildungen

Bemerkung 1. Die Menge GL(n; K) = fA 2 M(n  n; K) : A invertierbarg mit der Multiplikation von Matrizen als Verknüpfung ist eine Gruppe mit neutralem Element En . Sie heißt die allgemeine lineare Gruppe (general linear). Beweis. Zunächst ist zu zeigen, dass die Matrizenmultiplikation tatsächlich eine Multiplikation in GL(n; K) induziert, d. h. dass für A; B 2 GL(n; K) auch A  B 2 GL(n; K) gilt. Seien A0 und B 0 so gewählt, dass AA0 = A0 A = En = BB 0 = B 0 B gilt. Dann ist (B 0 A0 )(AB) = En = (AB)(B 0 A0 ) nach dem Assoziativgesetz für die Matrizenmultiplikation, also ist AB invertierbar. Es bleiben die Gruppenaxiome G1 und G2 nachzuweisen (vgl. 2.2.2). Das Assoziativgesetz gilt in GL(n; K), denn die Multiplikation ist sogar in M(n  n; K) assoziativ. Die n-reihige Einheitsmatrix hat die Eigenschaft eines neutralen Elementes, und zu A 2 GL(n; K) gibt es nach Definition ein Inverses A0 .  Wie wir in Abschnitt 2.2.3 gesehen haben, ist das Inverse A0 eindeutig bestimmt, und wie üblich schreibt man dafür A 1 . Es gilt dann 1

(A

)

1

= A und

(AB)

1

=B

1

A

1

:

Bemerkung 2. Für eine Matrix A 2 M(n  n; K) sind folgende Bedingungen gleichwertig: i) A ist invertierbar. ii) tA ist invertierbar. iii) Spaltenrang A = n. iv) Zeilenrang A = n. Außerdem ist (t A)

1

= t (A

1

).

Beweis. i) ) ii) folgt aus t(A 1 ) tA = t(AA 1 ) = tEn = En , und ii) ) i) ergibt sich daraus durch Transposition. i) , iii) ist eine Folgerung aus 3.2.4, und ii) , iv) ergibt sich wieder durch Transposition. 

3.5 Multiplikation von Matrizen

169

Aufgaben zu 3.5 1. Gegeben seien die Matrizen 0

1 A := @ 0 1

1 3 8

1 2 5A; 7

0

1 0 B := @ 0 1 1 0

1 0 1

1 0 1A; 0

0

1 1 B 0C C C := B @ 8A; 7

0

D :=



1 2 0 8 ;

1 1 4 E := @ 0 5 A : 6 8

Berechnen Sie alle möglichen Produkte. 2. In dieser Aufgabe betrachten wir Eigenschaften „dünn besetzter“ Matrizen, in denen viele Einträge null sind. a) Sei n 2 N r f0g und I = f1; : : : ; ng. Wir betrachten hier die Menge I  I  N  N. Finden Sie für k 2 N Gleichungen für die „Gerade“ L in I  I durch (1; k) und (2; k + 1) sowie für die Gerade L0 durch (k; 1) und (k + 1; 2). Finden Sie weiter Ungleichungen für den Halbraum H in I  I , der oberhalb von L liegt und den Halbraum H 0 , der unterhalb von L0 liegt.

b) Formulieren und beweisen Sie folgende Aussagen:

170

3 Lineare Abbildungen

c) Eine Matrix A = (aij ) 2 M(n  n; K) heißt echte obere Dreiecksmatrix, falls aij = 0 für i  j . Zeigen Sie, dass eine echte obere Dreiecksmatrix A nilpotent ist, d. h. es existiert ein m 2 N mit Am = 0. 3. Sind die folgenden Teilmengen Unterringe? a) f(aij ) 2 M(n  n; K) : aij = 0 für i  j g  M(n  n; K) b) f(aij ) 2 M(n  n; K) : aij = 0 für i  j + k oder j  i + kg  M(n  n; K), wobei k 2 N    ab c) 2 M(2  2; R) : a 2 Q; b; c 2 R  M(2  2; R) 0c    0a d) 2 M(2  2; K) : a; b 2 K  M(2  2; K) 0b e) f(aij ) 2 M(n  n; K) : aij = 0 für i ¤ j oder i  kg  M(n  n; K), wobei k 2 N. 4. Sei K ein Körper und n 2 N r f0g. a) Für  2 K gilt: ( En )B = B(En ) für alle B 2 M(n  n; K). b) Zeigen Sie: Ist A 2 M(n  n; K) mit AB = BA für alle B 2 M(n  n; K), so existiert ein  2 K mit A = En .    a b 5. Sei C = : a; b 2 R  M(2  2; R). b a a) Zeigen Sie, dass C ein Körper ist. b) In C ist die Gleichung X 2 + 1 = 0 lösbar. c) C ist als Körper isomorph zu C. 6. Zeigen Sie, dass für eine Matrix B 2 M(n  k; R) die Abbildung Φ : M(m  n; R) ! M(m  k; R);

A 7! A  B;

stetig ist. 7. Zeigen Sie, dass die Abschätzung rang A + rang B

n  rang(AB)  minfrang A; rang Bg

3.5 Multiplikation von Matrizen

171

aus 3.5.5 für den Rang der Produktmatrix in beide Richtungen scharf ist, d. h. finden Sie Beispiele für rang A + rang B

n = rang(AB) und rang(AB) = min frang A; rang Bg:

8. Wir wollen eine Methode angeben, um die Inverse einer Matrix auszurechnen: Sei dazu A 2 M(n  n; K) invertierbar, d. h. rang A = n. Zeigen Sie: Ist 0 1 x1i B : C x i = @ :: A xni die Lösung des Gleichungssystems Ax = ei , so ist 0 1 x11    x1n B : :: C A 1 = @ :: : A: xn1    xnn Berechnen Sie auf diese Weise die inverse Matrix von 0 1 1 1 2 4 B1 3 4 2C C A=B @0 1 3 6A: 1 3 5 3 9. Für eine differenzierbare Abbildung f : R n ! Rm ;

x 7! (f1 (x); : : : ; fm (x));

ist die Jacobi-Matrix von f im Punkt x definiert durch   @fi Jacx f := (x) : @xj Ist m = 1 und f zweimal stetig partiell differenzierbar, so versteht man unter der HESSE-Matrix von f im Punkt x die Matrix  2  @ f Hessx f := (x) : @xi @xj a) Berechnen Sie die Jacobi-Matrix einer linearen Abbildung F : Rn ! Rm , x 7! Ax, wobei A 2 M(m  n; R). b) Sei P : Rn ! R;

(x1 ; : : : ; xn ) 7!

X ij

aij xi xj +

n X

bj xi ;

i =1

wobei aij ; bi 2 R. Berechnen Sie die Jacobi-Matrix und die Hesse-Matrix von P .

172

3 Lineare Abbildungen

3.6 Basiswechsel Etwa bei der rechnerischen Behandlung geometrischer Probleme ist es hilfreich, ein angepasstes Koordinatensystem zu wählen. Auch bei der Beschreibung linearer Abbildungen durch Matrizen können diese durch die Wahl geeigneter Basen stark vereinfacht werden. Dieser Abschnitt behandelt Fragen, die beim Übergang zwischen zwei Basen auftreten. 3.6.1. Ist V ein K-Vektorraum mit zwei Basen A = (v1 ; : : : ; vn )

und

B = (w1 ; : : : ; wn );

so hat jeder Vektor wj eine eindeutige Darstellung wj =

n X

sij vi

mit sij 2 K;

i=1

und die Matrix SBA := (sij ) ist invertierbar. Sie heißt Transformationsmatrix des Basiswechsels von A nach B. Offensichtlich ist  1 B SA = SBA : Ist insbesondere V = K n , A = K = (e1 ; : : : ; en ) die kanonische Basis und B = (w1 ; : : : ; wn ) eine neue Basis des K n , so ist 0 1 j j SBK = @ w1 : : : wn A ; j j das ist die Matrix mit den neuen Basisvektoren als Spalten. 3.6.2. In 3.4.2 hatten wir zu jedem K-Vektorraum V mit einer Basis A = (v1 ; : : : vn ) einen Isomorphismus ΦA : K n ! V

mit ΦA (ej ) = vj ; also

ΦA (x1 ; : : : ; xn ) = x1 v1 + : : : + xn vn angegeben. Man nennt ΦA das durch A bestimmte Koordinatensystem in V und x = (x1 ; : : : ; xn ) = ΦA1 (v) 2 K n den Koordinatenvektor von v = x1 v1 + : : : + xn vn bezüglich A. Ist nun in V eine weitere Basis B = (w1 ; : : : ; wn ) gegeben, so hat man ein Diagramm von Isomorphismen:

3.6 Basiswechsel

173

Kn ΦA

TBA := ΦB 1 ı ΦA

V ΦB

Kn Man nennt die als lineare Abbildung angesehene Matrix TBA 2 GL(n; K) die Transformationsmatrix der Koordinaten. Sie hat nach Definition die folgende Eigenschaft: Ist v = x1 v1 + : : : + xn vn = y1 w1 + : : : + yn wn 2 V; 0 1 0 1 y1 x1 B :: C AB : C @ : A = TB @ :: A : yn xn

so ist

Kennt man die Matrix TBA , so kann man also die „neuen“ Koordinaten y aus den „alten“ x berechnen. Das wichtigste Beispiel ist V = K n . Sind A und B die Matrizen mit den Vektoren aus A und B als Spalten, so wird obiges Diagramm zu Kn A

Kn;

T B

Kn also T = B

1

 A. Ist insbesondere A die kanonische Basis, so folgt T = B

Zur Frage nach dem Zusammenhang zwischen

SBA

und

TBA

1

.

zunächst ein

Beispiel 1. Für einen Euro erhält man etwa zehn Schwedische Kronen, also kurz: 1 1 SEK = e: 10 Kostet ein Gegenstand 1 e, so kostet er in Schweden 10 SEK. Für die Preisschilder P gilt also PSEK = 10  Pe :

174

3 Lineare Abbildungen

Etwas allgemeiner gilt für V = K: Aus w = s  v; x  v = yw

und

y = tx

1 = ts

und

v

w

folgt x  v = txsv, also

t =s

1

: xv =yw Bild 3.10

Ganz allgemein gilt der folgende Satz. Sind A und B zwei endliche Basen eines Vektorraums, so gilt für die oben erklärten Transformationsmatrizen  1 B TBA = SBA = SA : Beweis. Da TBA = ΦB 1 ı ΦA gilt, genügt es, ΦA ı SBA = ΦB zu zeigen. Für die Gleichheit dieser beiden Abbildungen von K n nach V genügt es zu zeigen, dass sie auf den Basisvektoren ej die gleichen Werte haben. Das folgt aus n   X ΦA ı SBA (ej ) = ΦA t(s1j ; : : : ; snj ) = sij vi = wj = ΦB (ej ):



i=1

Damit ist das Problem der Bestimmung von TBA aus SBA auf die Berechnung einer inversen Matrix zurückgeführt. Ein allgemeines Verfahren dafür wird in 3.7.4 angegeben. Wenigstens ein ganz einfaches Beispiel rechnen wir direkt aus. Beispiel 2. Im R2 betrachten wir neben der kanonischen Basis K = (e1 ; e2 ) die Basis mit w1 = t(2; 1); w2 = t(1; 3):   21 In diesem Fall ist B := SBK = , und wir müssen TBK = B 1 berechnen. 13 Dazu betrachten wir die Einträge von B 1 als Unbekannte, das ergibt die Bedingung      2 1 x1 x3 1 0 = : 1 3 x2 x4 0 1 B = (w1 ; w2 )

Sie ist gleichwertig mit den linearen Gleichungssystemen 2x1 + x2 = 1 x1 + 3x2 = 0

und

2x3 + x4 = 0 x3 + 3x4 = 1:

3.6 Basiswechsel

175

Die eindeutigen Lösungen sind x1 = 35 ; x2 = 15 ;

x3 = 15 ; x4 = 25 ;

also ist B

1

=

Für v = e1 e2 ist x = t( 1; 1), also y = B v = 25 w1 15 w2 .

1 5



1

x =

3 1

1 2



t

: 2 ; 5

1 5

 , d. h.

3.6.3. Der Zusammenhang zwischen Koordinatensystemen und darstellenden Matrizen ergibt sich aus der Bemerkung. Sei F : V ! W eine lineare Abbildung, und seien A und B Basen von V und W. Dann hat man ein Diagramm linearer Abbildungen ΦA

Kn

V

MBA (F )

F

Km

ΦB

W

und es gilt ΦB ı MBA (F ) = F ı ΦA ;

also

MBA (F ) = ΦB 1 ı F ı ΦA :

Die darstellenden Matrizen sind offenbar eine Verallgemeinerung der Transformationsmatrizen, denn für V = W und F = idV gilt MBA (idV ) = TBA : Beweis. Es genügt zu zeigen, dass die beiden Abbildungen auf der kanonischen Basis (e1 ; : : : ; en ) übereinstimmen. Ist MBA (F ) = A = (aij ), so ist ΦB (MBA (F )(ej )) = ΦB (a1j ; : : : ; amj ) =

m X

aij wi ;

i=1

F (ΦA (ej )) = F (vj ) =

m X

aij wi :

i =1

Die zweite Gleichung folgt aus der ersten durch Multiplikation von links mit ΦB 1 . 3.6.4. Im Diagramm aus 3.6.3 hat man zwei verschiedene Wege, mithilfe der Abbildungen in Pfeilrichtung von K n nach W zu gelangen, und die Aussage ist, dass auf den verschiedenen Wegen die gleiche Abbildung herauskommt. Ein Diagramm mit dieser Eigenschaft heißt kommutativ. Wie nützlich dieser Begriff ist, werden wir gleich sehen:

176

3 Lineare Abbildungen

Satz. Gegeben seien die Vektorräume U; V und W mit den Basen A; B und C sowie die linearen Abbildungen G : U ! V und F : V ! W . Dann gilt: MCA (F ı G) = MCB (F )  MBA (G): Kurz ausgedrückt: Der Hintereinanderschaltung von linearen Abbildungen entspricht das Produkt der darstellenden Matrizen. Beweis. Für die Standardräume mit den kanonischen Basen wurde das schon in 3.5.1 ausgerechnet. Der allgemeine Fall folgt daraus durch Betrachtung des Diagramms ΦA

Kr B AB

ΦB

Km A

Kn

U G

ΦC

V

F ıG

F

W;

wobei A = MCB (F ) und B = MBA (G). Alle Teildiagramme sind kommutativ (man mache sich klar warum), daher ist das ganze Diagramm kommutativ, und insbesondere folgt die Behauptung. Wer lieber etwas rechnet, betrachte einen Vektor u 2 U und seine Koordinaten x = ΦA1 (u). Wegen 3.5.4 ist ΦB 1 (G(u)) = B  x;

ΦC 1 (F (G(u))) = A  (B  x) = (A  B)  ΦA1 (u);

also ΦC 1 ı (F ı G) ı ΦA = A  B. Auch daraus folgt die Behauptung.



Für den Spezialfall von Endomorphismen (vgl. 3.4.4) ergibt sich das Korollar. In V seien eine Basis B sowie Endomorphismen F; G gegeben. Dann ist MB (F ı G) = MB (F )  MB (G):



Insbesondere folgt daraus, dass MB : End(V ) ! M(n  n; K) ein Ringisomorphismus ist (vgl. 2.3.2, 3.1.4, 3.4.4 und 3.5.4). 3.6.5. Nun kommen wir zum wichtigsten Ergebnis dieses Abschnittes, nämlich der Antwort auf die Frage, wie sich die darstellende Matrix bei Einführung neuer Basen ändert.

3.6 Basiswechsel

177

Transformationsformel. Ist F : V ! W eine lineare Abbildung, sind A; A0 Basen von V und B; B0 Basen von W , so ist das Diagramm MBA (F )

Kn

ΦA A TA 0

ΦB F

V

Km

ΦA 0

TBB0

W ΦB 0

0

MBA0 (F )

Kn

Km

kommutativ. Insbesondere gilt für die beteiligten Matrizen 0

MBA0 (F ) = TBB0  MBA (F )  (TAA0 )

1

:

Anders ausgedrückt: Sind A = MBA (F )

und

0

B = MBA0 (F )

die beiden Matrizen, die F bezüglich verschiedener Paare von Basen darstellen, und sind T = TAA0 ;

S = TBB0

die Transformationsmatrizen zwischen den verschiedenen Basen, so gilt B =S AT

1

:

Das kann man durch das folgende vereinfachte Diagramm beschreiben: Kn

A

T

Kn

Km S

B

Km:

Zum Beweis genügt es zu bemerken, dass nach 3.6.2 und 3.6.3 die dreieckigen und viereckigen Teile des Diagramms kommutativ sind. Also ist das Gesamtdiagramm kommutativ.  Wer diesen Beweis als Hokuspokus ansieht, möge die Formel B = SAT 1 direkt durch Multiplikation der drei Matrizen nachrechnen (Viel Spaß mit den Indizes!). Dabei wird sich zeigen, dass nur Rechnungen wiederholt und ineinander eingesetzt werden, die vorher schon einmal ausgeführt worden waren. Der Trick besteht also darin, sich dieses zu ersparen.

178

3 Lineare Abbildungen

Für den Spezialfall eines Endomorphismus ergibt sich mit der Notation aus 3.4.4 das Korollar. Sind in V zwei Basen A und B sowie ein Endomorphismus F gegeben, so ist MB (F ) = TBA  MA (F )  TAB ; oder anders ausgedrückt B = TAT wenn A = MA (F ); B = MB (F ) und T =

1

;

TBA .



Die Wirkung der Matrizen kann man in einem Diagramm beschreiben: Kn

A

Kn T,

T

Kn

B

also B = TAT

1

mit T = TBA .

Kn

Besonders wichtig ist der Spezialfall der kanonischen Basis A = K = (e1 ; : : : ; en ) und einer neuen Basis B = (w1 ; : : : ; wn ) von K n . In diesem Fall ist nach 3.6.1 0 1 j j 1 B K T = TK = SB = @ w1 : : : wn A 2 GL(n; K); j j das ist wegen SBK (ei ) = wi die Matrix mit den neuen Basisvektoren als Spalten. Die Wirkung der Matrizen A, B kann man dann so beschreiben: wi

A

Awi S,

S

ei

B

also B = S

1

AS mit S = SBK .

Bei

Dieser Zusammenhang wird in der Theorie der Eigenwerte wichtig sein, denn ist Awi = wi , so folgt Bei = ei (vgl. Aufgabe 5 in 3.6).

3.6 Basiswechsel

179

3.6.6. Nun können wir noch einmal (vgl. auch 3.3.2) die Gleichheit von Zeilenrang und Spaltenrang beweisen, ohne die Ergebnisse über lineare Gleichungssysteme zu benutzen. Rang-Satz. Für jede Matrix A 2 M(m  n; K) gilt Zeilenrang A = Spaltenrang A: Diese Zahl ist nach 3.2.1 gleich rang A. Beweis. Wir betrachten A : K n ! K m als lineare Abbildung und wählen in K n und K m Basen A und B entsprechend 3.4.3, d. h. mit   Er 0 MBA (A) = B = : 0 0 Für B ist offensichtlich Zeilenrang B = r = Spaltenrang B: Um zu zeigen, dass sich diese Gleichheit auf A überträgt, wählen wir entsprechend 3.6.5 invertierbare Matrizen S und T mit B = SAT: Es genügt also der Beweis von folgendem Hilfssatz. Für A 2 M(m  n; K); S 2 GL(m; K) und T 2 GL(n; K) gilt 1) Spaltenrang SAT = Spaltenrang A, 2) Zeilenrang SAT = Zeilenrang A. Beweis des Hilfssatzes. Zu den gegebenen Matrizen gehört ein kommutatives Diagramm linearer Abbildungen Kn

A

Km

T

Kn

S SAT

Km:

Da S und T Isomorphismen sind, haben die linearen Abbildungen A und SAT gleichen Rang, d. h. es gilt 1). Daraus folgt 2) durch Transposition, denn Zeilenrang A = Spaltenrang tA und

t

(SAT ) = tT  tA  tS:

Man beachte, dass bei Multiplikation von A von rechts sogar der Spaltenraum, bei Multiplikation von links nur seine Dimension erhalten bleibt.  Wie man die Matrizen S und T aus A berechnen kann, werden wir in 3.7.6 sehen.

180

3 Lineare Abbildungen

3.6.7. Die Transformationsformel aus 3.6.5 ergibt in die Sprache der Matrizen übersetzt die folgende Definition. Zwei Matrizen A; B 2 M(m  n; K) heißen äquivalent, wenn es S 2 GL (m; K) und T 2 GL (n; K) gibt mit B = SAT

1

:

Im Spezialfall m = n nennen wir A; B 2 M(n  n; K) ähnlich, wenn es ein T 2 GL (n; K) gibt mit B = TAT

1

:

Aus 3.6.5 folgt sofort die Bemerkung. Zwei Matrizen sind genau dann äquivalent, wenn sie bezüglich verschiedener Paare von Basen die gleiche lineare Abbildung beschreiben. Zwei quadratische Matrizen sind genau dann ähnlich, wenn sie bezüglich verschiedener Basen den gleichen Endomorphismus beschreiben.  Dass dieser Begriff der Äquivalenz nichts Neues liefert, zeigt das Lemma. Zwei Matrizen sind genau dann äquivalent, wenn sie den gleichen Rang haben. Insbesondere ist jede Matrix vom Rang r äquivalent zu   Er 0 : 0 0 Diese speziellen Matrizen repräsentieren die Äquivalenzklassen und heißen Normalformen. Zum Beweis genügt es, die Argumente aus 3.6.6 zu wiederholen. Dass äquivalente Matrizen gleichen Rang haben, folgt aus dem dort bewiesenen Hilfssatz. Ist A vom Rang r, so sieht man durch entsprechende Wahl von Basen in K m und K n , dass A äquivalent zu der obigen Normalform ist. Also ist A äquivalent zu jeder anderen Matrix B vom Rang r (benutze Aufgabe 4).  Viel schwieriger ist die Frage nach Normalformen für Klassen ähnlicher Matrizen. Das ist Thema von Kapitel 5.

Aufgaben zu 3.6 1. Gegeben sei ein endlichdimensionaler Vektorraum V mit Basen A; B und C. Beweisen Sie die „Kürzungsregel“ TCA = TCB  TBA :

3.6 Basiswechsel

181

2. Im R3 seien die Basen A = ((1; 1; 2); (2; 3; 7); (2; 3; 6)) und B = ((1; 2; 2); ( 1; 3; 3); ( 2; 7; 6)) gegeben. a) Berechnen Sie die Transformationsmatrix TBA . b) Bestimmen Sie die Koordinaten des Vektors v = 2  (1; 1; 2) + 9  (2; 3; 7)

8  (2; 3; 6)

bezüglich der Basis B. 3. V sei ein R-Vektorraum mit Basis A = (v1 ; : : : ; v4 ); W sei ein R-Vektorraum mit Basis B = (w1 ; : : : ; w5 ). F : V ! W sei die lineare Abbildung, die gegeben ist durch 0 1 3 1 2 2 B 2 2 7 3C B C 4 0 3 1C MBA (F ) = B B C: @ 1 3 12 4 A 0 4 17 5 Schließlich seien A0 = (v10 ; : : : ; v40 ) mit v10 = v1 + v2 ; v20 = v2 + v3 , v30 = v3 + v4 , v40 = v4 und B0 = (w10 ; : : : ; w50 ) mit w10 = w1 , w20 = w1 + w2 ; w30 = w1 + w3 , w40 = w1 + w4 ; w50 = w1 + w5 . a) Zeigen Sie, dass A0 eine Basis von V und B0 eine Basis von W ist. 0

0

b) Berechnen Sie MBA (F ); MBA0 (F ) und MBA0 (F ). c) Bestimmen Sie F

1

(span(w1 ; w2 ; w3 )).

4. Zeigen Sie, dass durch A  B , A und B sind äquivalent (vgl. 3.6.7) tatsächlich eine Äquivalenzrelation auf der Menge M(m  n; K) gegeben ist und durch A  B , A und B sind ähnlich (vgl. 3.6.7) eine Äquivalenzrelation auf M(n  n; K) erklärt ist. 5. Sei       14 1 2 A := 2 M(2  2; R) und B := ; 21 1 1 eine neue Basis von R2 . Bestimmen Sie entsprechend 3.6.5 die Matrizen TBK ; TKB und B := MB (A).

182

3 Lineare Abbildungen

3.7 Elementarmatrizen und Matrizenumformungen Die Bedeutung von Matrizenumformungen sieht man schon am Eliminationsverfahren von GAUSS. Es gestattet die Lösung durch wiederholte Anwendung elementarer Schritte. Auf diese Weise kann man in der linearen Algebra viele Probleme lösen. In diesem Abschnitt geben wir weitere Beispiele dafür: die Inversion einer quadratischen Matrix und die explizite Bestimmung der Transformationsmatrizen, die eine gegebene Matrix auf Normalform bringen. Zur theoretischen Begründung ist es dabei sehr hilfreich, Matrizenumformungen zu interpretieren als Multiplikation mit speziellen invertierbaren Matrizen, die ihrerseits die gesamte allgemeine lineare Gruppe erzeugen. Diese sogenannten „Elementarmatrizen“ kann man als die Heinzelmännchen der linearen Algebra bezeichnen: Sie erledigen geräuschlos und zuverlässig die kleinen Schmutzarbeiten. 3.7.1. Ist m eine beliebige natürliche Zahl, 1  i; j  m mit i ¤ j und  2 K  , so nennt man die quadratischen Matrizen i-te Spalte # 0 B B B B B B B B B B Si () := B B B B B B B B B B @

j -te Spalte #

j

1 ::

j

1 C C C C C C C C C C C C C C C C C C C C A

: 1 j  j 1

j 0 j ::

j 0 j

: 1 j 1 j 1 ::

j

j

: 1

i-te Zeile

j -te Zeile

3.7 Elementarmatrizen und Matrizenumformungen

0

::

B B B B B B B B B B Qij := B B B B B B B B B B @ 0

Pij

B B B B B B B B B B := B B B B B B B B B B @

j

1

j 1 j ::

:

j 0 j

1 j 1 j 1 ::

1 ::

j

j

j

j

:

C C C C C C C C C C C C C C C C C C C C A

:

j 0 j

1 j 1 j 1 ::

1

j

j

j

j

:

j 1 j

C C C C C C C C C C C C C C C C C C C C A

: 1 j 0 j 1 ::

j

j

j -te Zeile

1

j 1 j ::

i-te Zeile

1

: 1 j 0 j 1

j -te Zeile

1

j  j ::

i-te Zeile

1

: 1 j 1 j 1

::

C C C C C C C C C C C C C C C C C C C C A

: 1 j 1 j 1

B B B B B B B B B B Qij () := B B B B B B B B B B @ 0

j

1

183

: 1

i-te Zeile

j -te Zeile

184

3 Lineare Abbildungen

aus M(mm; K) Elementarmatrizen. Außer den eingetragenen oder durch Punkte angedeuteten Komponenten sind dabei alle Komponenten gleich Null. Sind Eij die in 2.5.1 definierten Matrizen und ist E die m-reihige Einheitsmatrix, so ist Qij = E + Eij ;

Qij () = E + Ei0

und

Si () = E + (

1)Eii :

Weiter ist selbstverständlich Qij = Qij (1)

und

Pij = Pji :

Grundlegend ist der Zusammenhang mit den elementaren Umformungen von Matrizen. Ist A 2 M(m  n; K) und  2 K  gegeben, so hatten wir in 2.5.7 umgeformte Matrizen betrachtet, die wie folgt aus A entstanden waren: AI

durch Multiplikation der i-ten Zeile mit ,

AII

durch Addition der j -ten Zeile zur i-ten Zeile,

AIII

durch Addition der -fachen j -ten Zeile zur i-ten Zeile,

AIV

durch Vertauschen der i-ten und der j -ten Zeile.

Wie man sofort sieht, gilt AI = Si ()  A; AII = Qij  A; j AIII = Qi ()  A; AIV = Pij  A: Man sollte sich davon auch anhand von Beispielen überzeugen, um mehr Zutrauen zu den eigenartigen Elementarmatrizen zu gewinnen. Ganz Entsprechendes gilt, wenn man anstatt Zeilen immer Spalten umformt. Wir wollen es sicherheitshalber notieren. Ist A 2 M(m  n; K) und  2 K  , so betrachten wir wieder die wie folgt aus A entstandenen Matrizen: AI

durch Multiplikation der i-ten Spalte mit ,

A

II

durch Addition der i-ten Spalte zur j -ten Spalte,

A

III

durch Addition der -fachen i-ten Spalte zur j -ten Spalte,

AIV

durch Vertauschen der j -ten und der i-ten Spalte.

Verwenden wir die entsprechenden n-reihigen Elementarmatrizen, so gilt AI = A  Si (); AII = A  Qij ; j AIII = A  Qi (); AIV = A  Pji : Kurz ausgedrückt: Multiplikation von links mit den Elementarmatrizen bewirkt Zeilenumformungen, und Multiplikation von rechts mit den Elementarmatrizen bewirkt Spaltenumformungen. Man beachte dabei die Vertauschung von i und j beim Übergang von links nach rechts.

3.7 Elementarmatrizen und Matrizenumformungen

185

Bemerkung. Die Elementarmatrizen Qij () und Pij sind Produkte von Elementarmatrizen vom Typ Sj () und Qij . Genauer gilt  Qij () = Sj 1  Qij  Sj (); Pij = Qji  Qij ( 1)  Qji  Sj ( 1): Dies entspricht dem in 2.5.7 bemerkten Sachverhalt, dass sich Matrizenumformungen vom Typ III und IV aus Umformungen vom Typ I und II kombinieren lassen. Der Beweis der Bemerkung ist ganz einfach, wenn man die Multiplikation als Zeilen- oder Spaltenumformung interpretiert. Wir wollen dies dem Leser überlassen.  3.7.2. Lemma. Die Elementarmatrizen sind invertierbar und ihre Inversen sind wieder Elementarmatrizen. Genauer gilt:   1 (Si ()) 1 = Si ( 1 ); Qij = Qij ( 1);   1   1 Qij () = Qij ( ); Pij = Pij : Zum Beweis genügt es, die rechten Seiten der Gleichungen mit den linken zu multiplizieren und festzustellen, dass die Einheitsmatrix herauskommt.  3.7.3. Satz. Jede invertierbare Matrix A 2 M(n  n; K) ist (endliches) Produkt von Elementarmatrizen. Man sagt dafür auch, dass die Gruppe GL(n; K) von den Elementarmatrizen erzeugt wird. Beweis. Nach 3.5.6 ist der Zeilenrang von A gleich n. Wie in 1.4.7 ausgeführt ist, kann man A durch elementare Zeilenumformungen zu einer Matrix der Form 0 1 b11    b1n B : : :: C B=@ : : A 0

bnn

mit von Null verschiedenen Diagonalelementen b11 ; : : : ; bnn machen. Nach 3.7.1 gibt es Elementarmatrizen B1 ; : : : ; Br , sodass B = Br  : : :  B1  A: Man kann nun B durch weitere Zeilenumformungen zur Einheitsmatrix En machen. Dazu beseitigt man zunächst b1n ; : : : ; bn 1;n mithilfe der letzten Zeile, dann b1;n 1 ; : : : ; bn 2;n 1 mithilfe der vorletzten Zeile, usw. Schließlich normiert man

186

3 Lineare Abbildungen

die Komponenten in der Diagonalen auf 1. Es gibt also nach 3.7.1 weitere Elementarmatrizen Br+1 ; : : : ; Bs , sodass En = Bs  : : :  Br+1 B = Bs  : : :  B1  A: Daraus folgt A

1

= Bs  : : :  B1 ;

also A = B1 1  : : :  Bs 1 ;

und die Behauptung folgt aus 3.7.2.



3.7.4. Der Beweis von Satz 3.7.3 gestattet nun, ein einfaches Rechenverfahren für die Bestimmung der inversen Matrix anzugeben. Es hat die angenehme zusätzliche Eigenschaft, dass man von der gegebenen quadratischen Matrix im Voraus gar nicht zu wissen braucht, ob sie invertierbar ist. Das stellt sich im Laufe der Rechnung heraus. Sei also A 2 M(n  n; K) gegeben. Man schreibt die Matrizen A und En nebeneinander. Alle Umformungen, die im Folgenden an A vorgenommen werden, führt man parallel an En durch. Zunächst bringt man A durch Zeilenumformungen auf Zeilenstufenform. Dabei stellt sich heraus, ob Zeilenrang A = n; d. h. ob A invertierbar ist (vgl. 3.5.6). Ist der Zeilenrang von A kleiner als n, so kann man aufhören; die Umformungen En waren dann umsonst. Ist der Zeilenrang von A gleich n, so führt man weitere Zeilenumformungen durch, bis aus A die Matrix En geworden ist. Schematisch sieht das so aus (die Umformungen sind als Multiplikation mit Elementarmatrizen beschrieben): A En B1  A B 1  En :: :: : : Bs  : : :  B1  A Bs : ˙: :  B1  En Ist nun links aus A die Einheitsmatrix En entstanden, so hat sich rechts aus En die inverse Matrix A 1 aufgebaut, denn aus Bs  : : :  B1  A = En folgt Bs  : : :  B1  En = Bs  : : :  B1 = A

1

:

Diese erste schöne Anwendung wird den Leser hoffentlich schon vom Wert der Elementarmatrizen überzeugen.

3.7 Elementarmatrizen und Matrizenumformungen

187

Vorsicht! Anstelle von Zeilenumformungen kann man auch ausschließlich Spaltenumformungen anwenden. Aber bei abwechselnder Anwendung von Zeilen- und Spaltenumformungen funktioniert das Verfahren im Allgemeinen nicht. Die Elementarmatrizen sind hilfreich für die theoretischen Begründungen. Bei der praktischen Berechnung führt man einfacher die entsprechenden Umformungen durch. 3.7.5. Beispiele. a) 0 A= 1 1 P21 1 0 1 Q31 ( 1) 1 0 0 Q32 1 0 0 S3 ( 1) 1 0 0 Q12 ( 2) 1 0 0 Q13 ( 7) 1 0 0 Q23 (4) 1 E3 = 0 0

1 2 1

4 1 2

1 0 0

0 1 0

0 0 = E3 1

2 1 1

1 4 2

0 1 0

1 0 0

0 0 1

2 1 1

1 4 3

0 1 0

1 0 1

0 0 1

2 1 0

1 4 1

0 1 1

1 0 1

0 0 1

2 1 0

1 4 1

0 1 1

1 0 1

0 0 1

0 1 0

7 4 1

2 1 1

1 0 1

0 0 1

0 1 0

0 4 1

5 1 1

6 0 1

7 0 1

0 1 0

0 0 1

5 3 1

6 4 1

7 4 =A 1

Man berechne zur Kontrolle A  A

1

!

1

:

188

3 Lineare Abbildungen

b) 1 0 1 A= 0 1 0 1 1 1 Q31 ( 1) 1 0 1 0 1 0 0 1 0 Q32 1 0 1 0 1 0 0 0 0

1 0 0 0 1 0 = E3 0 0 1 1 0 0 0 1 0 1 0 1 1 0 0 0 1 0 1 1 1

A ist nicht invertierbar, denn Zeilenrang A = 2. 3.7.6. Ist A 2 M(m  n; K) und A : Kn ! Km;

x 7! Ax;

die zugehörige lineare Abbildung, so gibt es nach 3.6.5 Transformationsmatrizen S 2 GL(m; K) und T 2 GL(n; K) mit   Er 0 1 SAT = ; 0 0 wobei r = rang A. Wir leiten nun ein Rechenverfahren für die Bestimmung von S und T ab. Dazu betrachten wir folgendes Schema: Em B1  E m :: : Bk  : : :  B1  Em

A B1  A :: : Bk  : : :  B1  A En Bk  : : :  B1  A  C1 En  C1 :: :: :: : : : Bk  : : :  B1  A  C1  : : : Cl En  C1  : : :  Cl

Zunächst wird A durch Zeilenumformungen auf Zeilenstufenform gebracht. Die Zeilenumformungen entsprechen der Multiplikation von links mit m-reihigen

3.7 Elementarmatrizen und Matrizenumformungen

189

Elementarmatrizen B1 ; : : : ; Bk . Diese Umformungen führt man parallel an Em durch. Da die Matrix Bk  : : :  B1  A Zeilenstufenform hat, kann man sie durch Spaltenumformungen auf die Form   Er 0 0 0 mit r = rang A bringen. Dies entspricht Multiplikation von rechts mit n-reihigen Elementarmatrizen C1 ; : : : ; Cl . Diese Spaltenumformungen führt man parallel an En durch. Wegen   Er 0 Bk  : : :  B1  A  C1  : : :  Cl = 0 0 sind durch S = Bk  : : :  B1 = Bk  : : :  B1 Em

und

T

1

= C1  : : :  Cl = En C1 : : :  Cl

Transformationsmatrizen der gewünschten Art gefunden.   120 Beispiel. Sei K = R und A = . 221 E2 = S=

SAT

1

1 0 1 2

=

0 1 0 1

1 2 1 0

2 2 2 2

1 0

0 1

1 0

0 1

1 0

0 1

0 1= A 0 1 0 1 0 1 0 0 2 1 0 2 0 0 0 1 0 1 0 2 0 0 0 1 0 1 0 0 0 0 0 1

0 0 = E3 1 0 1 0 2 1 0 2 1 = T 1: 2

190

3 Lineare Abbildungen

Ist  D=

Er 0 0 0

 ;

so erhält man auch Basen A und B von K n und K m , bezüglich derer A durch D beschrieben wird. Dazu betrachten wir das Diagramm Kn

D

T

Kn

Km S

A

Km

das wegen D = SAT 1 kommutativ ist. A und B sind die Bilder der kanonischen Basen K und K0 von K n und K m unter den Isomorphismen T 1 und S 1 . Also erhält man A und B als Spaltenvektoren von T 1 und S 1 Dazu muss man S noch invertieren. In unserem Beispiel ist   10 S 1= ; 21 also sind ((1; 0; 0); (0; 0; 1); ( 2; 1; 2))

und

((1; 2); (0; 1))

Basen der gesuchten Art. Zur Kontrolle prüft man nach: 0 1 0 1 0 1       1 0 2 1 0 0 A  @0A = ; A  @0A = und A  @ 1 A = : 2 1 0 0 1 2 3.7.7. Natürlich kann man auch das Gaußsche Eliminationsverfahren mithilfe von Elementarmatrizen beschreiben. Sei das System Ax =b gegeben. Die elementaren Zeilenumformungen von A und (A; b) werden bewirkt durch Multiplikation von links mit Elementarmatrizen aus GL(m; K). Ihr Produkt ergibt eine Matrix ˜ = S  (A; b) = (SA; Sb); ˜ b) S 2 GL(m; K) mit (A; ˜ die auf Zeilenstufenform gebrachte erweiterte Koeffizientenmatrix ˜ b) wobei (A; ist. Man beachte, dass S allein durch A bestimmt ist. Die Berechnung von S kann man wieder schematisch durchführen, indem man die Zeilenumformungen von A parallel an Em durchführt.

3.7 Elementarmatrizen und Matrizenumformungen

191

Em A B 1  Em B1  A :: :: : : B s  : : :  B 1  Em B s  : : :  B 1  A Ist nun aus A die Matrix A˜ = Bs  : : :  B1  A in Zeilenstufenform entstanden, so hat sich links die Matrix S = Bs  : : :  B1 aufgebaut. Damit kann man sofort entscheiden, ob für ein b 2 K m Lösungen von Ax = b existieren. Man berechnet 0 ˜ 1 b1 B : C B :: C B C B ˜ C B br C ˜ S b =b =B˜ C B br+1 C B C B :: C @ : A b˜m und sieht nach, ob b˜r+1 = : : : = b˜m = 0 gilt, wobei r = rang A = rang A˜ ist (vgl. Aufgabe 5).

Aufgaben zu 3.7 1. Stellen Sie die folgende Matrix A als Produkt von Elementarmatrizen dar: 0 1 1 1 1 A = @1 2 2A: 1 2 3 2. Sind die folgenden Matrizen invertierbar? Wenn ja, dann geben die inverse Matrix an. 0 1 0 1 0 0 0 1 6 3 4 5 B0 0 1 0C B1 2 2 1C B C B C @ 0 1 0 0 A 2 M(4  4; R); @ 2 4 3 2 A 2 M(4  4; R); 1 0 0 0 3 3 4 2 0 1 0 1 1 2 0 1 2 0 @ 1 1 1 A 2 M(3  3; R); @ 1 1 1 A 2 M(3  3; Z/3Z): 2 0 1 2 0 1

192

3 Lineare Abbildungen

3. Zeigen Sie:  A=

ab c d

 2 M(2  2; K) ist invertierbar , ad

bc ¤ 0:

Berechnen Sie in diesem Fall die Inverse von A. 4. Modifizieren Sie das Rechenverfahren aus 3.7.6 so, dass man statt S die inverse Matrix S 1 erhält (benutzen Sie dabei die Inversen der Elementarmatrizen aus 3.7.2). 5. Finden Sie für die Gleichungssysteme Ax = b aus 1.3.4 sowie aus Aufgabe 2 in 1.4 jeweils eine Matrix S , sodass A˜ = SA in Zeilenstufenform ist, und berechnen Sie b˜ = S b. 6. Beweisen Sie: a) Für A 2 M(n  n; K) und m 2 N gilt: En

A

m

= (En

A)

m X1 i =0

! A

i

=

m X1

! A

i

(En

A) :

i =0

(Dabei sei A0 := En .) b) Ist A 2 M(n  n; K) eine Matrix, für die ein m 2 N existiert mit Am = 0, so ist En A invertierbar. Wie sieht die inverse Matrix aus?

Kapitel 4 Determinanten In den vorhergehenden Kapiteln wurde laufend mit Linearkombinationen gerechnet, das gilt als der „elementare“ Teil der linearen Algebra. Nun steigen wir eine Stufe höher zur Determinante, das ist eine Zahl, die man einer quadratischen Matrix zuordnet. LEIBNIZ gab schon um 1690 eine Formel zur Berechnung dieser Zahl an ([Kow2], §1). WEIERSTRASS benutzte in seinen Vorlesungen eine andere Methode: Er führte die Determinante mit axiomatisch angegebenen Eigenschaften ein. Dadurch kann man die chronischen Vorzeichenprobleme erst einmal im Hintergrund halten und all das bereitstellen, was man zur praktischen Berechnung der Determinanten benötigt. Es zeigt sich, dass auch hier das Verfahren aus Kapitel 1 zur Überführung einer Matrix in Zeilenstufenform zum Ziel führt. Diesen Weg haben wir mit Rücksicht auf eilige Leser in 4.1 beschritten. Die Vorzeichenspiele werden systematisch in 4.2 vorgeführt. Für genauere historische Hinweise seien die entsprechenden Exkurse in [Br], [Fr], [Koe] und [Kow2] zur Lektüre empfohlen.

4.1 Beispiele und Definitionen 4.1.1. Zunächst geben wir zwei charakteristische Beispiele für das Auftreten von Determinanten. 1) Gegeben sei ein lineares Gleichungssystem a11 x1 + a12 x2 = b1 ;

I

a21 x1 + a22 x2 = b2 :

II

Wir suchen eine Formel für die Lösung, die man bei beliebigen Werten der Koeffizienten anwenden kann. Umformungen ergeben die Gleichungen (a11 a22

a12 a21 )x1 = a22 b1

a12 b2 ;

a22 I

a12 II

(a11 a22

a12 a21 )x2 = a11 b2

a21 b1 :

a11 II

a21 I

Definieren wir allgemein für eine (2  2)-Matrix eine Determinante durch   a b det = ad bc; c d

© Springer-Verlag GmbH Deutschland, ein Teil von Springer Nature 2020 G. Fischer und B. Springborn, Lineare Algebra, Grundkurs Mathematik, https://doi.org/10.1007/978-3-662-61645-1_5

194

4 Determinanten

so erhält man für die Lösungen des obigen Systems     b a a b det 1 12 det 11 1 b2 a22 a21 b2 x1 =   ; x2 =  : a a a a det 11 12 det 11 12 a21 a22 a21 a22 Das ist der einfachste Fall der CRAMERschen Regel. Sie versagt, wenn a11 a22

a12 a21 = 0;

also a22 (a11 ; a12 )

a12 (a21 ; a22 ) = (0; 0):

Das bedeutet, dass der Rang der Koeffizientenmatrix kleiner als 2 ist. Entsprechend 3.3 gibt es hier keine eindeutige Lösung. 2) Die Fläche eines Dreiecks ist gegeben durch 1 (Grundlinie 2

mal Höhe):

Das zeigt man mithilfe des CAVALIERIschen Prinzips, indem man zuerst das Dreieck verdoppelt zu einem Parallelogramm, und dieses dann verschiebt zu einem Rechteck.

Bild 4.1

Zur Berechnung der Fläche eines Parallelogramms in der Ebene nehmen wir an, dieses sei durch zwei Vektoren v = (a; b)

und

w = (c; d )

gegeben.

Bild 4.2

4.1 Beispiele und Definitionen

195

Wie in der Zeichnung angedeutet, ist v = %  v 0 = %  (cos ˛; sin ˛);

w =   w 0 =   (cos ˇ; sin ˇ);

wobei %;  > 0. Bezeichnet F bzw. F 0 die Fläche des von v und w bzw. v 0 und w 0 aufgespannten Parallelogramms, so verläuft die Rechnung für 0  ˇ ˛   wie folgt:   cos ˛ sin ˛ h0 = sin(ˇ ˛) = cos ˛ sin ˇ cos ˇ sin ˛ = det  0; cos ˇ sin ˇ also F = %    F 0 = %    h0 = det



   %  cos ˛ %  sin ˛ a b = det  0:   cos ˇ   sin ˇ c d

Die Fläche ist also im Fall sin(ˇ ˛)  0 gleich der Determinante, im allgemeinen Fall gleich ihrem Betrag. Daher kann man einige Eigenschaften der Abbildung   ab det: M(2  2; R) ! R; A = 7! ad bc = det A c d geometrisch illustrieren. Dazu die folgende Notation: Sind v = (a; b)

w = (c; d )   v die Zeilenvektoren von A, so schreiben wir det A = det . w und

a) Für ;  2 R ist     v v det =   det ; w w

 det

v w



 =   det

v w

 :

Bild 4.3

Das bedeutet, dass die Fläche so gestreckt wird wie einzelne Seiten. b) Für  2 R ist  det

v w



 = det

v w + v

 ;

196

4 Determinanten

Bild 4.4

was die Invarianz der Fläche unter Scherungen nach dem Cavalierischen Prinzip bedeutet. c)  det

e1 e2

 = 1:

Das bedeutet, das Einheitsquadrat hat die Fläche 1. d)  det

w v



 =

det

v w

 :

Daran sieht man, dass nicht nur der Betrag, sondern auch das Vorzeichen der Determinante eine geometrische Bedeutung hat. Es hängt von der Orientierung des Paares v; w ab, darauf kommen wir in 4.4 zurück. e)  det

v w

 =0

ist gleichbedeutend mit der linearen Abhängigkeit von v und w, d. h. das Parallelogramm hat die Fläche Null. 4.1.2. Zur Erklärung der Determinante einer n  n-Matrix gibt es mehrere Möglichkeiten, zwei davon sind: 1) Eine Formel, in der die Einträge vorkommen, so wie das weiter oben bei (2  2)-Matrizen angegeben war. Das hatte schon LEIBNIZ bei größeren Matrizen ausgeführt, das Ergebnis – die allgemeine Leibniz-Formel in 4.2.5 – ist leider ziemlich umständlich.

4.1 Beispiele und Definitionen

197

2) Eine Charakterisierung der Determinante durch Axiome, die auf WEIERSTRASS zurückgeht (vgl. [Fr]). Das ist nicht nur eleganter, sondern ergibt auch einfachere Methoden zur Berechnung als die Leibniz-Formel. Nun zur axiomatischen Einführung der Determinante, wir benutzen dabei die folgende Notation: Ist A eine n-reihige quadratische Matrix, so bezeichnen wir stets mit a1 ; : : : ; an die Zeilenvektoren von A. Dann schreiben wir 0 1 a1 B :: C A = @ : A: an Definition. Sei K ein Körper und n eine von Null verschiedene natürliche Zahl. Eine Abbildung det : M(n  n; K) ! K;

A 7! det A;

heißt Determinante, falls Folgendes gilt: D1 det ist linear in jeder Zeile. Genauer heißt das Folgendes. Für jeden Index i 2 f1; : : : ; ng gilt: a) Ist ai = ai0 + ai00 , so ist 0 : 1 0 : 1 0 : 1 :: :: : B C B 0C B :00 C C B C B C a a a det B = det + det @ iA @ iA @ i A: :: :: :: : : : b) Ist ai = ai0 , so ist 0 : 1 0 : 1 :: : B C B :0 C C B C det B @ ai A =   det @ ai A : :: :: : : An den mit Punkten bezeichneten Stellen stehen dabei jeweils unverändert die Zeilenvektoren a1 ; : : : ; ai 1 ; ai+1 ; : : : ; an . D2 det ist alternierend, d. h. hat A zwei gleiche Zeilen, so ist det A = 0. D3 det ist normiert, d. h. det En = 1.

198

4 Determinanten

4.1.3. Diese Definition ist sehr einfach, aber es bleibt die Existenz und Eindeutigkeit zu zeigen, und das wird etwas Mühe machen. Zunächst spielen wir mit den Axiomen und leiten daraus weitere Regeln ab. Satz. Eine Determinante det : M(n  n; K) ! K hat die folgenden weiteren Eigenschaften: D4 Für jedes  2 K ist det (  A) = n  det A. D5 Ist eine Zeile von A gleich Null, so ist det A = 0. D6 Entsteht B aus A durch eine Zeilenvertauschung, so ist det B =

det A:

Die Determinante ändert also bei Zeilenumformungen vom Typ IV ihr Vorzeichen. D7 Ist  2 K, und entsteht B aus A durch Addition der -fachen j -ten Zeile zur i-ten Zeile (i ¤ j ), so ist det B = det A: Die Determinante bleibt also bei Zeilenumformungen vom Typ III unverändert. D8 Ist A eine obere Dreiecksmatrix, also 0 1    B :: A=@ : 0

1 :: C : A; n

so ist det A = 1  : : :  n . D9 Sei n  2 und A 2 M(n  n; K) von der Gestalt   A1 C A= ; 0 A2 wobei A1 und A2 quadratisch sind. Dann gilt det A = (det A1 )  (det A2 ): D10 det A = 0 ist gleichbedeutend mit rang A < n. D11 Es gilt der Determinanten-Multiplikationssatz det (A  B) = det A  det B für alle A; B 2 M(n  n; K). Insbesondere gilt für A 2 GL(n; K) det A

1

= (det A)

1

:

4.1 Beispiele und Definitionen

199

D12 det tA = det A. Insbesondere gelten alle Regeln für Zeilen auch für Spalten. Vorsicht: D13 Im Allgemeinen ist det(A + B) ¤ det A + det B. Beweis. D4 und D5 folgen sofort aus D1 b). Zum Beweis von D6 nehmen wir an, dass die Zeilen i < j vertauscht werden. Dann ist wegen D1 a) und D2     ai a det A + det B = det + det j aj ai         ai ai a a = det + det + det j + det j ai aj ai aj   ai + aj = det = 0: ai + aj Dabei sind zur Vereinfachung der Schreibweise nur die Einträge der Zeilen i und j angegeben, in den restlichen Zeilen ändert sich nichts. Es sei bemerkt, dass D2 aus D6 folgt, wenn char (K) ¤ 2, denn hat A zwei gleiche Zeilen, so ist nach D6 det A =

det A;

also 2 det A = 0:

Das erklärt die Bezeichnung alternierend für D2. Ist char K = 2 und entsteht B aus A durch Vertauschung von zwei Zeilen, so folgt det B = det A aus D6, denn det A = det A (vgl. 2.3.4). D7: Wegen D1 und D2 ist     ai + aj a det B = det = det A +  det j = det A: aj aj D8: Sind alle i ¤ 0, so folgt durch wiederholte Anwendung von D7 0 1 1 0 B C :: det A = det @ A = 1  : : :  n  det En = 1  : : :  n : : 0 n Gibt es ein i mit i = 0, so wählen wir i maximal, d. h. i+1 ; : : : ; n ¤ 0. Mithilfe von i +1 ; : : : ; n räumt man den Rest der i-ten Zeile aus, und mit D7 und D5 folgt det A = 0. D9: Durch Zeilenumformungen vom Typ III und IV an A mache man A1 zu einer oberen Dreiecksmatrix B1 . Dabei bleibt A2 unverändert, aus C werde C 0 . Ist k die Anzahl der ausgeführten Zeilenvertauschungen, so ist det A1 = ( 1)k  det B1 :

200

4 Determinanten

Dann mache man A2 durch Zeilenumformungen vom Typ III und IV an A zu einer oberen Dreiecksmatrix. Dabei bleiben B1 und C 0 unverändert. Ist l die Anzahl der ausgeführten Zeilenvertauschungen, so ist det A2 = ( 1)l  det B2 : Ist B1 C 0 0 B2

 B :=

 ;

so sind B; B1 und B2 obere Dreiecksmatrizen, es ist also nach D8 offensichtlich det B = (det B1 )  (det B2 ): Wegen det A = ( 1)k+l  det B folgt die Behauptung. D10: Durch Zeilenumformungen vom Typ III und IV bringen wir A auf Zeilenstufenform B. Dann ist B obere Dreiecksmatrix, also 0 1 1    B : : :: C B=@ : : A; 0

n

und nach D6 und D7 ist det B = ˙ det A. Weiter ist rang A = rang B und wegen D8 rang B = n , det B = 1  : : :  n ¤ 0: D11: Ist rang A < n, so ist rang (A  B) < n, und die Gleichung lautet 0 = 0 nach D10. Andernfalls können wir A 2 GL(n; K) annehmen. Nach 3.7.3 gibt es Elementarmatrizen C1 ; : : : ; Cs , sodass A = C1  : : :  Cs : Es genügt also zu zeigen, dass für jede Elementarmatrix C vom Typ Si () oder Qij (vgl. 3.7.1) det(C  B) = det C  det B gilt. Nach Eigenschaft D8 (die natürlich auch für untere Dreiecksmatrizen gilt) ist det Si () = 

und

det Qij = 1:

Multiplizieren von links mit Si () multipliziert die i-te Zeile von B mit , also ist det (Si ()  B) =   det B

4.1 Beispiele und Definitionen

201

nach D1. Multiplizieren von links mit Qij bewirkt die Addition der j -ten zur i-ten Zeile, also ist det (Qij  B) = 1  det B: D12: Ist rang A < n, so ist nach 3.3.2 auch rang tA < n, also det tA = 0 = det A nach D10. Im Fall rang A = n können wir wie im Beweis von D11 Elementarmatrizen C1 ; : : : ; Cs vom Typ Si () oder Qij wählen, sodass A = C1  : : :  Cs : Nun folgt mithilfe von D8 C = tC und det C =  für C = Si () sowie det C = det tC = 1 für C = Qij : Also folgt mithilfe von D11 det tA = det (tCs  : : :  tC1 ) = (det Cs )  : : :  (det C1 ) = (det C1 )  : : :  (det Cs ) = det A: D13: Ist etwa A = E2 und B = det (E2

E2 , so gilt bei char K ¤ 2

E2 ) = det 0 = 0 ¤ 2 = det E2 + det ( E2 ):



4.1.4. Für die Praxis der Berechnung von Determinanten hat man nun alle erforderlichen Hilfsmittel zur Verfügung. Man bringt A durch Zeilenumformungen vom Typ III und IV auf obere Dreiecksgestalt B. Ist k die Anzahl der dabei durchgeführten Zeilenvertauschungen, so gilt det A = ( 1)k  det B = ( 1)k  1  : : :  n : Ist char K = 2, so sind die Faktoren ( 1)k überflüssig. Beispiele. a) 0 1 012 det @3 2 1A = 110

0

1 110 det @3 2 1A = 012

0 1 1 1 0 det @0 1 1A = 0 1 2

0 1 1 1 0 det @0 1 1A = 3: 0 0 3

b) Die Berechnung von Determinanten wird interessanter, wenn man die Einträge aij der Matrix als Unbestimmte auffasst, das sind Zahlen, für die man beliebige Elemente des Körpers einsetzen kann, und zwar unabhängig voneinander. Es ist üblich, das dadurch anzudeuten, dass man statt a den Buchstaben x verwendet. Auf diese Weise berechnet man mithilfe von D7 und D8     x11 x12 x x det 11 12 = det = x11 x22 x21 x12 : () x21 0 x22 x11 x12 x21 x22

202

4 Determinanten

Man beachte, dass x11 während der Rechnung vorübergehend im Nenner steht, nicht aber am Anfang und am Ende. Mithilfe von D6 kann man noch einmal direkt überprüfen, dass die Formel () auch für x11 = 0 gilt. c) Eine Matrix A = (aij ) 2 M(n  n; K) heißt schiefsymmetrisch, wenn aij = aj i und ai i = 0 (im Fall char K ¤ 2 folgt die zweite Bedingung aus der ersten). Die Berechnung solcher Determinanten ist besonders interessant, wir betrachten die Einträge wieder als Unbestimmte. Für n = 2 und 3 ist     0 x12 x12 0 2 det = det = x12 ; x12 0 0 x12 0 1 0 1 0 x12 x13 0 x12 x13 det @ x12 0 x23 A = det @ x12 0 x23 A = 0: x13 x23 0 0 0 0 Dabei wurde zu Zeile III die Kombination xx23 I xx13 II addiert. Das ist ungefähr12 12 lich, denn für x12 = 0 ist das Ergebnis ohnehin klar. Nun zum Fall n = 4: 0 1 0 1 0 x12 x13 x14 0 x12 x13 x14 B x12 0 B x12 0 x23 x24 C x23 x24 C C B C det A = det B @ x13 x23 0 x34 A = det @ 0 0 0 Q(x)A x14 x24 x34 0 0 0 Q(x) 0 durch geeignete Umformungen der Zeilen III und IV, wobei P (x) x12 Aus D9 folgt schließlich Q(x) =

mit P (x) := x12 x34

x13 x24 + x14 x23 :

det A = (P (x))2 : Man nennt P (x) ein PFAFFsches Polynom (vgl. Aufgabe 7 zu 4.2).

Aufgaben zu 4.1 1. Berechnen Sie die Determinanten von 0 1 0 1 1 1 1 B1 0 1 1 1C B C B1 1 0 1 1C B C @1 1 1 0 1A 1 1 1 1 0

0 und

1 123 @2 5 1A: 279

4.1 Beispiele und Definitionen

203

2. Zeigen Sie: 0

1 x 1 1 det @ 1 x 1 A = (x 1)2 (x + 2); 1 1x 0 2 1 a + 1 ab ac det @ ab b 2 + 1 bc A = a2 + b 2 + c 2 + 1: ac bc c 2 + 1 3. Berechnen Sie: 0

sin ˛ cos ˛ 0 0 0

B B det B B @

cos ˛ sin ˛ 0 0 0

a sin ˛ a2 sin ˛ 1 0 0

b cos ˛ b 2 cos ˛ a2 a b

1 ab 2 2C a b C b2 C C: b A a

4. Zeigen Sie, dass für eine Matrix A = (aij ) 2 M(n  n; K) gilt: det(aij ) = det(( 1)i+j  aij ): 5. Ein Dreieck im R2 sei gegeben durch die Eckpunkte u = (u1 ; u2 );

v = (v1 ; v2 )

und w = (w1 ; w2 ):

Zeigen Sie: Die Fläche des Dreiecks ist gleich ˇ 0 1ˇ ˇ 1 u1 u2 ˇˇ 1 ˇˇ @ det 1 v1 v2 Aˇˇ : 2 ˇˇ 1 w1 w2 ˇ 6.* Sind f = am t m + : : : + a0 ; g = bn t n + : : : + b0 2 K[t ] Polynome mit deg f = m, deg g = n, so ist die Resultante von f und g definiert durch 0 1 9 a0   am B C = :: :: B C : : n Zeilen B C B C ; a0   am C 9 B Resf;g := det B : C B b0       bn C = B C B C m Zeilen :: :: @ A ; : : b0       bn Zeigen Sie die Äquivalenz der folgenden Aussagen: i) Resf;g = 0. ii) f; tf; : : : ; t n

1

f; g; tg; : : : ; t m

1

g sind linear abhängig.

204

iii) Es existieren p; q 2 K[t ]; p; q ¤ 0, mit deg p  n und pf = qg.

4 Determinanten

1; deg q  m

1

Mit etwas Teilbarkeitstheorie von Polynomen kann man zeigen, dass i) bis iii) äquivalent sind zu iv) f und g haben einen gemeinsamen nichtkonstanten Teiler h 2 K[t ]. Insbesondere ist also Resf;g = 0, falls f und g eine gemeinsame Nullstelle haben, und im Fall K = C gilt: Resf;g = 0 , f und g haben eine gemeinsame Nullstelle.

4.2 Existenz und Eindeutigkeit

205

4.2 Existenz und Eindeutigkeit Bei der Berechnung der Determinante nach der Methode aus 4.1.4 bleibt eine kleine, wieder spitzfindig erscheinende Frage: Die durchzuführenden Zeilenvertauschungen sind nicht eindeutig bestimmt, man hat Wahlmöglichkeiten. Aber das Ergebnis ( 1)k 1  : : :  n muss unabhängig von allen Auswahlen sein, insbesondere muss klar sein, ob k gerade oder ungerade ist. Das wird besonders deutlich an dem charakteristischen Beispiel einer Einheitsmatrix mit veränderter Reihenfolge der Zeilen: Deshalb kommen wir zurück auf die schon in 2.2.2 betrachteten Permutationen. Ist  eine bijektive Abbildung von f1; : : : ; ng auf sich, und bezeichnen e1 ; : : : ; en die kanonischen Basisvektoren, so betrachten wir die Matrix 0 1 e(1) B : C E := @ :: A e(n) mit den Basisvektoren in permutierter Reihenfolge als Zeilen, und die VorzeichenFrage spitzt sich zu zur Alternative det E = ˙1? Vorzeichen sind eine Art von Butterbroten – sie haben zwei Möglichkeiten zu fallen ([E]). Zur Beantwortung der Vorzeichenfrage benötigen wir eine zuverlässige Methode, an der Permutation zu erkennen, auf welche Arten sie durch wiederholte Vertauschungen rückgängig gemacht werden kann. 4.2.1. Wie wir gerade gesehen haben, ist zunächst ein kleiner Exkurs über Permutationen unvermeidlich. Wie in 2.2.2 bezeichnen wir für jede natürliche Zahl n > 0 mit Sn die symmetrische Gruppe von f1; : : : ; ng, d. h. die Gruppe aller bijektiven Abbildungen  : f1; : : : ; ng ! f1; : : : ; ng: Die Elemente von Sn nennen wir Permutationen. Das neutrale Element von Sn ist die identische Abbildung, die wir mit id bezeichnen. Wie üblich schreiben wir  2 Sn explizit in der Form einer Wertetabelle:   1 2 ::: n = (1)  (2) : : :  (n)

206

4 Determinanten

Für ;  2 S n ist dann 

   1 ::: n 1 ::: n  (1) : : :  (n) (1) : : :  (n)   1 ::: n = ; ( (1)) : : :  ((n))

  =

zum Beispiel 

     123 123 123  = ; 231 132 213



     123 123 123  = : 132 231 321

aber

Man beachte dabei, dass die rechts stehende Permutation zuerst angewandt wird, wie das bei Abbildungen üblich ist. Bemerkung. Die Gruppe Sn enthält n! := n  (n

1)  : : :  2  1

(sprich: n-Fakultät) Elemente. Für n  3 ist Sn nicht abelsch. Beweis. Wir überlegen, wie viele Möglichkeiten es gibt, Elemente  2 Sn aufzubauen. Zunächst hat man für die Auswahl von  (1)

genau n Möglichkeiten:

Da  injektiv sein soll, muss  (2) ¤ (1) sein. Es verbleiben für die Auswahl von (2)

genau n

1 Möglichkeiten:

Sind schließlich (1); : : : ;  (n 1) gewählt, so ist (n) festgelegt, es gibt also für (n)

nur eine Möglichkeit:

Insgesamt gibt es daher n  (n

1)  : : :  2  1 = n!

verschiedene Permutationen in Sn . Ist für n  3     1 2 3 4 ::: n 1 2 3 4 ::: n = und  = ; 1 3 2 4 ::: n 2 3 1 4 ::: n so folgt wie oben    ¤   . Die Gruppen S1 und S2 sind abelsch, wie man sofort sieht. 

4.2 Existenz und Eindeutigkeit

207

Das exponentielle Wachstum der Fakultäten erkennt man an der Stirlingschen Formel (vgl. etwa [Fo1, § 20]) sowie an den folgenden gerundeten Werten: n

10

20

30

40

50

60

n! 4  106 2  1018 3  1032 8  1047 3  1063 8  1081 Diese Werte haben kaum noch Bezug zur Realität, denn in der Physik wird die Zahl der Nukleonen des Universums auf etwa 1082 geschätzt. 4.2.2. Um die Veränderung des Vorzeichens der Determinante bei Umordnung der Zeilen zu kontrollieren, vertauscht man mehrfach jeweils zwei Zeilen. Solche Permutationen haben einen eigenen Namen. Eine Permutation  2 Sn heißt Transposition, falls  zwei Elemente aus f1; : : : ; ng vertauscht und alle übrigen fest lässt, d. h. wenn es k; l 2 f1; : : : ; ng mit k ¤ l gibt, sodass gilt: (k) = l; (l) = k

und

(i) = i

für i 2 f1; : : : ; ng r fk; lg:

Offensichtlich gilt  1 =  für jede Transposition  2 Sn . Dass man allein mit Vertauschungen von Zeilen auskommt, zeigt das Lemma. Ist n  2, so gibt es zu jedem  2 Sn (keineswegs eindeutig bestimmte) Transpositionen 1 ; : : : ; k 2 Sn mit  = 1  : : :  k : Beweis. Ist  = id und  2 Sn irgendeine Transposition, so ist id =   

1

=   :

Andernfalls gibt es ein i1 2 f1; : : : ; ng mit  (i ) = i für i = 1; : : : ; i1

1 und  (i1 ) ¤ i1 ;

also sogar  (i1 ) > i1 :

Sei 1 die Transposition, die i1 mit  (i1 ) vertauscht, und 1 := 1   . Dann ist 1 (i) = i

für i = 1; : : : ; i1 :

Entweder ist nun 1 = id, oder es gibt ein i2 mit i2 > i1 und 1 (i) = i

für i = 1; : : : ; i2

1

und

1 (i2 ) > i2 :

Analog erhält man 2 und 2 und schließlich ein k  n sowie Transpositionen 1 ; : : : ; k mit k = k  : : :  1   = id. Daraus folgt  = (k  : : :  1 )

1

= 1

1

 : : :  k 1 = 1  : : :  k :



208

4 Determinanten

Zur Vorsorge noch eine kleine technische Bemerkung. Sei n  2 und  0 :=

 1 2 3  n 2 Sn 2 1 3  n

die Transposition, die 1 und 2 vertauscht. Dann gibt es zu jeder beliebigen Transposition  2 Sn ein  2 Sn mit  =   0  

1

:

Beweis. Seien k und l die von  vertauschten Elemente. Wir behaupten, dass jedes  2 Sn mit  (1) = k

und

 (2) = l

0

1

die verlangte Eigenschaft hat. Sei  :=   0    1 (l) = 2 ist  0 (k) =  (0 (1)) =  (2) = l 1

Für i 62 fk; lg ist 

und

. Wegen 

1

(k) = 1 und

 0 (l) =  (0 (2)) = (1) = k:

(i ) 62 f1; 2g, also

0

1

 (i) =  (0 (

(i ))) = (

1

(i )) = i:

0

Daraus folgt  = .



4.2.3. Die Zerlegung einer Permutation in Transpositionen ist nicht eindeutig. Wir müssen aber beweisen, dass die Anzahl der nötigen Transpositionen entweder immer gerade oder immer ungerade ist. Zu diesem Zweck ordnen wir jeder Permutation ein Vorzeichen zu. Elementar kann man es so beschreiben: Ist  2 Sn , so nennt man jedes Paar i; j 2 f1; : : : ; ng mit i < j;

aber  (i) >  (j );

einen Fehlstand von  . Zum Beispiel hat   123 = 231 insgesamt 2 Fehlstände, nämlich 1 < 3;

aber 2 > 1;

und 2 < 3;

aber 3 > 1:

Wir definieren das Signum (d. h. „Vorzeichen“) von  durch  +1; falls  eine gerade Anzahl von Fehlständen hat; sign  := 1; falls  eine ungerade Anzahl von Fehlständen hat:

4.2 Existenz und Eindeutigkeit

209

Man nennt  2 Sn gerade, falls sign  = +1; ungerade, falls sign  =

und

1:

Diese Definition ist recht gut geeignet, um das Signum durch systematisches Zählen zu berechnen, aber zu schwerfällig für theoretische Überlegungen. Daher ist es hilfreich, das Zählen der Fehlstände und das Berechnen des Signums in einer Formel zusammenzufassen. In den folgenden Produkten sollen i und j stets die Menge f1; : : : ; ng durchlaufen, und zwar mit den unter dem Produktsymbol vermerkten Nebenbedingungen. Lemma. Für jedes  2 Sn gilt sign  =

Y (j ) j

i