Mathematik verstehen und anwenden: Differenzial- und Integralrechnung, Lineare Algebra [4 ed.] 3662683660, 9783662683668, 9783662683675

Gegen Angst vor Mathematik hilft Verstehen. Dieses Buch setzt nur elementare Schulkenntnisse voraus und entwickelt die M

131 71 8MB

German Pages xiv, 690 [687] Year 2023

Report DMCA / Copyright

DOWNLOAD FILE

Polecaj historie

Mathematik verstehen und anwenden: Differenzial- und Integralrechnung, Lineare Algebra [4 ed.]
 3662683660, 9783662683668, 9783662683675

  • Commentary
  • Publisher PDF | Published: 21 November 2023

Table of contents :
Vorwort
Dank
Inhaltsverzeichnis
Teil I Grundlagen
Kapitel 1 Mengenlehre und Logik
1.1 Mengenbegriff
1.2 Mengenoperationen
1.3 Abbildungen
1.4 Aussagenlogik
1.5
Prädikatenlogik
1.6
Beweise
Literaturverzeichnis
Kapitel 2
Reelle Zahlen
2.1
Natürliche und ganze Zahlen
2.1.1
Ordnung
2.1.2
Zahlendarstellung
2.1.3
Primzahlen
2.1.4
Fakultät und Binomialkoeffizient
2.2
Rationale Zahlen
2.2.1
Rechnen mit rationalen Zahlen (Bruchrechnung)
2.2.2
Dezimalbruchdarstellung rationaler Zahlen
2.2.3
Abzählbarkeit
2.2.4
Vollständige Induktion
2.3
Reelle Zahlen
2.3.1
Von den rationalen zu den reellen Zahlen
2.3.2
Vollständigkeit und Einführung der reellen Zahlen
2.3.3
Variablennamen
2.3.4
Intervalle
2.3.5 Die Zahlen e und π
2.3.6
Überabzählbarkeit der reellen Zahlen
Literaturverzeichnis
Kapitel 3
Rechnen mit reellen Zahlen
3.1
Potenzen und Wurzeln
3.2
Summen und Produkte, Binomischer Lehrsatz
3.2.1
Summenzeichen und Produktzeichen
3.2.2
Geometrische Summenformel und Anwendungen
3.2.3
Binomischer Lehrsatz
3.3
Beträge und Ungleichungen
3.3.1
Beträge
3.3.2
Ungleichungen
3.4
Über das Lösen von Gleichungen und Ungleichungen
3.4.1
Rationale Gleichungen, Wurzel-, Betragsgleichungen
3.4.2
Rationale Ungleichungen und Betragsungleichungen
3.4.2.1 Lineare Ungleichungen
3.4.2.2 Quadratische Ungleichungen
3.4.2.3 Gebrochen-rationale Ungleichungen
3.4.2.4 Betragsungleichungen
3.4.2.5 Allgemeine Ungleichungen
Literaturverzeichnis
Kapitel 4
Reelle Funktionen
4.1
Notation reeller Funktionen
4.2
Eigenschaften von reellen Funktionen
4.3
Umkehrfunktion
4.4
Verkettung von Funktionen
4.5
Signum- und Betragsfunktion
4.6
Polynome und gebrochen-rationale Funktionen
4.6.1
Polynome
4.6.2
Interpolation
4.6.3
Faktorzerlegung und Polynomdivision
4.6.4 Horner-Schema
4.6.5
Gebrochen-rationale Funktionen
4.7
Potenz- und Wurzelfunktionen
4.8
Exponentialfunktionen und Logarithmen
4.8.1
Exponentialfunktion und natürlicher Logarithmus
4.8.2
Allgemeine Exponentialfunktionen und Logarithmen
4.8.3
Exponential- und Logarithmusgleichungen
4.8.4
Logarithmische Darstellungen
4.9
Trigonometrische Funktionen
4.9.1
Winkel und Bogenmaß
4.9.2
Sinus, Kosinus und Tangens
4.9.3
Trigonometrische Funktionen in der Geometrie
4.9.4
Additionstheoreme
4.9.5
Harmonische Schwingungen und Zeigerdiagramme
4.9.6
Arkus-Funktionen
4.9.7
Trigonometrische Gleichungen
4.10
Hyperbel- und Areafunktionen
4.10.1
Hyperbelfunktionen
4.10.2
Areafunktionen
Kapitel 5
Komplexe Zahlen
5.1
Erweiterung der reellen Zahlen um eine imaginäre Einheit
5.2
Komplexe Arithmetik
5.3
Die Gauß'sche Zahlenebene
5.3.1
Betrag
5.3.2
Rechnen mit Beträgen komplexer Zahlen
5.3.3
Euler'sche Gleichung, Polarform und Eulerform
5.3.4
Komplexe Potenzen und komplexe Wurzeln
5.4 Komplexe Wechselstromrechnung ∗
5.5
Fundamentalsatz der Algebra
Literaturverzeichnis
Kapitel 6
Lineare Gleichungssysteme und
Matrizen
6.1
Lineare Gleichungssysteme
6.2
Matrizen, Zeilen- und Spaltenvektoren
6.3
Lösen linearer Gleichungssysteme
6.3.1
Gauß-Algorithmus
6.3.2
Lösungstheorie linearer Gleichungssysteme
6.4
Inverse Matrix und transponierte Matrix
6.5
Symmetrische und orthogonale Matrizen
6.6
Dreiecksmatrizen, Bandmatrizen und LR-Zerlegung
6.6.1
Dreiecksmatrizen und Bandmatrizen
6.6.2
LR-Zerlegung
Literaturverzeichnis
Kapitel 7
Determinanten
7.1
Definition und elementare Eigenschaften von Determinanten
7.2
Determinanten und lineare Gleichungssysteme
Kapitel 8
Aufgaben zu Teil I
8.1
Rechnen, Mengen und Logik
8.2
Vollständige Induktion und Binomischer Lehrsatz
8.3
Gleichungen und Funktionen
8.4
Komplexe Zahlen
8.5
Lineare Gleichungssysteme und Matrizen
8.6
Determinanten
Literaturverzeichnis
Teil II Differenzial- und Integralrechnung
Kapitel 9
Folgen
9.1
Definition und Grundbegriffe von Folgen
9.2
Konvergenz und Divergenz von Folgen
9.3
Rechnen mit konvergenten Folgen
9.4
Konvergenzkriterien
9.5
Die Euler'sche Zahl e als Grenzwert von Folgen
9.6
Approximation reeller Potenzen
9.7 Bestimmte Divergenz
9.8
Häufungspunkte einer Folge
9.9
Folgenkompaktheit und Cauchy-Folgen
Literaturverzeichnis
Kapitel 10
Zahlen-Reihen
10.1
Definition und Konvergenz einer Reihe
10.2
Rechnen mit konvergenten Reihen
10.3
Alternativen zur Definition der Reihenkonvergenz
10.4
Absolute Konvergenz
10.5
Konvergenzkriterien für Reihen
Literaturverzeichnis
Kapitel 11
Grenzwerte von Funktionen und
Stetigkeit
11.1
Umgebungen und Überdeckungen
11.2
Grenzwerte von Funktionen
11.3
Stetigkeit
11.4
Eigenschaften stetiger Funktionen
11.5
Unstetigkeitsstelln
Kapitel 12
Differenzierbarkeit und
Ableitungen
12.1
Ableitung als Grenzwert des Differenzenquotienten
12.2
Ableitungsregeln
12.3
Newton-Verfahren
12.4
Das Differenzial
12.5
Höhere Ableitungen
Literaturverzeichnis
Kapitel 13 Zentrale Sätze der Differenzialrechnung
13.1
Satz von Fermat: notwendige Bedingung für lokale Extrema
13.2
Mittelwertsätze der Differenzialrechnung
13.3
Regeln von L'Hospital
Literaturverzeichnis
Kapitel 14
Integralrechnung
14.1
Definition des Integrals
14.2
Eigenschaften des Integrals
14.3
Hauptsatz der Differenzial- und Integralrechnung
14.4
Rechenregeln zur Integration
14.4.1
Partielle Integration
14.4.2
Integralsubstitution
14.4.3 Integration gebrochen-rationaler Funktionen
14.5
Numerische Integration
14.6
Uneigentliche Integrale
14.6.1
Unbeschränkter Integrand
14.6.2
Unbeschränkter Integrationsbereich
14.7
Volumen und Flächen
14.7.1
Flächenberechnung in der Ebene
14.7.2
Volumen eines Rotationskörpers
14.7.3
Oberflächeninhalt eines Rotationskörpers
14.8 Lebesgue-Integral ∗
14.8.1
Messbare Mengen
14.8.2
Messbare Funktionen
14.8.3
Definition des Lebesgue-Integrals
14.8.4
Eigenschaften des Lebesgue-Integrals
Literaturverzeichnis
Kapitel 15
Satz von Taylor, Kurvendiskussion
und Extremalprobleme
15.1
Taylor-Summen
15.2
Kurvendiskussion und Extremalprobleme
Literaturverzeichnis
Kapitel 16
Potenzreihen
16.1
Unendliche Taylor-Summen und Potenzreihen
16.2 Einschub: Funktionenfolgen ∗
16.3
Konvergenz von Potenzreihen
16.4
Differenziation und Integration von Potenzreihen
16.5
Der Zusammenhang zwischen Potenzreihen und Taylor-Reihen
16.6
Die komplexe Exponentialfunktion
Literaturverzeichnis
Kapitel 17
Aufgaben zu Teil II
17.1
Folgen
17.2
Reihen
17.3
Funktionengrenzwerte und Stetigkeit
17.4
Ableitungen
17.5
Integrale
17.6
Satz von Taylor und Kurvendiskussion
17.7
Potenzreihen
Teil III Lineare Algebra
Kapitel 18
Vektoren in der Ebene und im
Raum
18.1 Vektoren: Grundbegriffe und elementare Rechenregeln
18.1.1
Vektorarithmetik
18.1.2
Koordinaten und Komponenten
18.2
Skalarprodukt und Orthogonalität
18.2.1
Definition des Skalarprodukts
18.2.2
Rechenregeln, Koordinatenform und Winkelberechnung
18.2.3
Anwendungen des Skalarprodukts in der Geometrie
18.2.4
Orthogonale Projektion und Lot
18.3
Vektorprodukt und Spatprodukt
18.3.1
Vektorprodukt
18.3.2
Spatprodukt
18.4
Anwendungen des Skalar-, Vektor- und Spatprodukts
18.5
Geraden in der Ebene und im Raum
18.5.1
Darstellungsformen von Geraden
18.5.2
Typische Aufgabenstellungen für Geraden
18.6
Ebenen im Raum
18.6.1
Darstellungsformen von Ebenen im Raum
18.6.2
Typische Aufgabenstellungen für Ebenen
Literaturverzeichnis
Kapitel 19
Vektorräume
19.1
Definition des Vektorraums
19.1.1
Vektorraumaxiome
19.1.2
Linearkombinationen und Erzeugendensysteme
19.1.3
Unterräume
19.2
Lineare Unabhängigkeit, Basis und Dimension
19.2.1
Lineare Unabhängigkeit und lineare Abhängigkeit
19.2.2
Basis und Dimension
19.3
Skalarprodukt und Norm
19.3.1
Euklid'scher Raum und Skalarprodukt
19.3.2
Betrag, Norm und Abstand
19.4 Orthogonalität, Orthogonal- und Orthonormalsysteme
19.4.1
Winkel und Orthogonalität
19.4.2
Orthogonal- und Orthonormalsysteme
19.4.3
Euklid'sche Räume endlicher Dimension
19.4.4
Gram-Schmidt'sches Orthonormierungsverfahren
19.4.5
Orthogonale Projektion
19.4.6
Orthogonale Matrizen
Kapitel 20
Lineare Abbildungen
20.1
Lineare Abbildungen und Matrizen
20.2
Linearkombination und Verkettung linearer Abbildungen
20.3
Kern und Bild einer linearen Abbildung, Dimensionssatz
20.4
Umkehrabbildung und inverse Matrix
20.5
Koordinaten- und Basistransformationen
Kapitel 21
Lösungstheorie linearer Gleichungssysteme
21.1
Lösungsraum eines linearen Gleichungssystems
21.2
Berechnung von linearen elektrischen Netzwerken
21.2.1
Elektrische Netzwerke und Graphen
21.2.2
Maschengleichungen
21.2.3
Knotengleichungen
21.2.4
Gleichungen zwischen Spannungen und Strömen
Literaturverzeichnis
Kapitel 22
Eigenwerte und Eigenvektoren
22.1
Eigenwerte und Eigenvektoren
22.2 Diagonalisierung von Matrizen ∗
22.3 Hauptvektoren und Jordan-Normalform∗
Literaturverzeichnis
Kapitel 23 Normierte Vektorräume: Lineare Algebra trifft Analysis∗
23.1
Norm
23.2
Banach- und Hilbert-Räume
23.3
Lp-Räume
23.4
Stetige Abbildungen zwischen normierten Vektorräumen
23.4.1
Stetigkeit und Operatornormen
23.4.2
Matrix-Normen
23.4.3
Kondition, Stabilität und Konsistenz
23.4.4
Fixpunktverfahren für lineare Gleichungssysteme
23.5
Einige zentrale Sätze der Funktionalanalysis
23.6
Sobolev-Räume
Literaturverzeichnis
Kapitel 24
Aufgaben zu Teil III
24.1
Rechnen mit Vektoren im Anschauungsraum
24.2
Vektorräume
24.3
Matrizen und lineare Abbildungen
Kleine Formelsammlung
Index

Citation preview

Steffen Goebbels Stefan Ritter

Mathematik verstehen und anwenden: Differenzial- und Integralrechnung, Lineare Algebra 4. Auflage

Mathematik verstehen und anwenden: Differenzial- und Integralrechnung, Lineare Algebra

Steffen Goebbels · Stefan Ritter

Mathematik verstehen und anwenden: Differenzial- und Integralrechnung, Lineare Algebra 4. Auflage

Steffen Goebbels Fachbereich Elektrotechnik und Informatik Hochschule Niederrhein Krefeld, Deutschland

Stefan Ritter Fakultät für Elektro- und Informationstechnik Hochschule Karlsruhe Karlsruhe, Deutschland

ISBN 978-3-662-68366-8 ISBN 978-3-662-68367-5 (eBook) https://doi.org/10.1007/978-3-662-68367-5 Die Deutsche Nationalbibliothek verzeichnet diese Publikation in der Deutschen Nationalbibliografie; detaillierte bibliografische Daten sind im Internet über http://dnb.d-nb.de abrufbar. Ursprünglich erschienen bei Spektrum Akademischer Verlag in einem Band unter dem Titel: Mathematik verstehen und anwenden – von den Grundlagen bis zu Fourier-Reihen und Laplace-Transformation © Der/die Herausgeber bzw. der/die Autor(en), exklusiv lizenziert an Springer-Verlag GmbH, DE, ein Teil von Springer Nature 2011, 2013, 2018, 2023 Das Werk einschließlich aller seiner Teile ist urheberrechtlich geschützt. Jede Verwertung, die nicht ausdrücklich vom Urheberrechtsgesetz zugelassen ist, bedarf der vorherigen Zustimmung des Verlags. Das gilt insbesondere für Vervielfältigungen, Bearbeitungen, Übersetzungen, Mikroverfilmungen und die Einspeicherung und Verarbeitung in elektronischen Systemen. Die Wiedergabe von allgemein beschreibenden Bezeichnungen, Marken, Unternehmensnamen etc. in diesem Werk bedeutet nicht, dass diese frei durch jedermann benutzt werden dürfen. Die Berechtigung zur Benutzung unterliegt, auch ohne gesonderten Hinweis hierzu, den Regeln des Markenrechts. Die Rechte des jeweiligen Zeicheninhabers sind zu beachten. Der Verlag, die Autoren und die Herausgeber gehen davon aus, dass die Angaben und Informationen in diesem Werk zum Zeitpunkt der Veröffentlichung vollständig und korrekt sind. Weder der Verlag noch die Autoren oder die Herausgeber übernehmen, ausdrücklich oder implizit, Gewähr für den Inhalt des Werkes, etwaige Fehler oder Äußerungen. Der Verlag bleibt im Hinblick auf geografische Zuordnungen und Gebietsbezeichnungen in veröffentlichten Karten und Institutionsadressen neutral. Planung/Lektorat: Andreas Rüdinger Springer Spektrum ist ein Imprint der eingetragenen Gesellschaft Springer-Verlag GmbH, DE und ist ein Teil von Springer Nature. Die Anschrift der Gesellschaft ist: Heidelberger Platz 3, 14197 Berlin, Germany Das Papier dieses Produkts ist recyclebar.

Vorwort Nach dem Erfolg der ersten drei Auflagen des Buchs Mathematik verstehen ” und anwenden“ und dem Anwachsen des Umfangs haben wir uns dazu entschlossen, den Inhalt auf zwei B¨ande zu verteilen. In diesem ersten Band werden die Teilgebiete der H¨oheren Mathematik behandelt, die vermutlich in den Grundz¨ ugen bereits von der Schule bekannt sind. Hier werden sie allerdings systematisch und aufeinander aufbauend entwickelt. Das Buch ist aus dem Unterricht in den Bachelor-Studieng¨angen Maschinenbau, Elektrotechnik und Mechatronik sowie Informatik an der Hochschule Karlsruhe und der Hochschule Niederrhein entstanden. Es ber¨ ucksichtigt die Einstiegsschwierigkeiten von Studierenden mit l¨ uckenhaften Vorkenntnissen und motiviert die Inhalte mit praktischen Beispielen aus den Ingenieurf¨achern. Geh¨ oren Sie zu dieser Gruppe, dann lassen Sie beim Lesen die ausf¨ uhrlichen Beweise zun¨ achst aus. Wenn Sie tiefer in die Mathematik einsteigen wollen (oder m¨ ussen) und Sie die Verfahren wirklich verstehen wollen, finden Sie u ¨ber die kommentierten Beweise hinaus ein reichhaltiges Angebot. Themen, die u ¨ber ein Minimalpro¨ gramm (das das Uberleben im Studium sicherstellt) hinausgehen, sind mit einem Stern ( ∗ ) gekennzeichnet. Einige dieser Inhalte sind mathematischer Natur, andere stellen einen Bezug zu Anwendungen aus der Technik her. Studieren Sie eine Naturwissenschaft, so sehen Sie hier, wof¨ ur man die Mathematik praktisch ben¨otigt. Dar¨ uber hinaus werden Hintergrundinformationen und weiteres Material zur Vertiefung des Stoffs angeboten. Im ersten Teil des Buchs werden Grundlagen wie Logik, Mengenlehre und Zahlen auf dem Niveau eines Mathematik-Vorkurses behandelt. Auch wenn Sie gute Vorkenntnisse haben, sollten Sie diesen Teil als Erstes durchbl¨ attern. Auf der Schule werden einige elementare Dinge, ohne die man Mathematik gar nicht aufschreiben kann, oft nicht mehr behandelt. Dazu geh¨ oren beispielsweise die Mengen. Vielleicht sind auch komplexe Zahlen oder Determinanten neu f¨ ur Sie. Danach k¨onnen Sie entweder mit der Analysis in Teil II oder mit der Linearen Algebra in Teil III weitermachen. Die Analysis besch¨ aftigt sich mit Grenzwerten, k¨ ummert sich also um das unendlich Kleine und Große. Dazu geh¨ort insbesondere die Differenzial- und Integralrechnung (Umgang mit mo¨ mentanen Anderungen). Die Lineare Algebra ben¨ otigt man z. B. beim L¨ osen von linearen Gleichungssystemen, wie sie beispielsweise bei der Berechnung von Spannungen und Str¨omen in elektrischen Netzwerken auftreten, und bei der Berechnung von 3D-Modellen. Mit einem kurzen Einblick in die Funktionalanalysis, die Verbindung zwischen Linearer Algebra und Analysis, schließt der erste Band. Die weiteren Buchteile in Band 2 Mathematik verstehen und anwenden: ” Differenzialgleichungen, Fourier- und Vektoranalysis, Laplace-Transformation und Stochastik“ sind u ¨berwiegend unabh¨angig voneinander lesbar, setzen aber Grundkenntnisse der Analysis und Linearen Algebra voraus, die beispielsweise in diesem ersten Band vermittelt werden. Im zweiten Band wird

vi

Vorwort

die Analysis aus Teil II auf Funktionen mit mehreren Variablen ausgedehnt, wie sie in unserer dreidimensionalen Welt auftreten. Viele Zusammenh¨ ange in der Natur beschreiben Ver¨anderungen und lassen sich als Differenzialgleichungen modellieren. Dazu werden einige ausgew¨ ahlte L¨ osungsverfahren beschrieben. Die Fourier-Analysis nimmt aufgrund ihrer praktischen Bedeutung einen breiten Raum ein. Hier zerlegt man eine Schwingung in die einzelnen Frequenzen, aus denen sie zusammengesetzt ist. Von hier ist es nur ein kurzer Weg bis zu den Integraltransformationen, die beispielsweise in der Regelungstechnik und Systemtheorie verwendet werden (Fourier- und LaplaceTransformation) sowie den Abtasts¨atzen der digitalen Signalverarbeitung. Der zweite Band schließt mit einer kurzen Einf¨ uhrung in die Wahrscheinlichkeitsrechnung und Statistik, die man beispielsweise bei Simulationen, in der digitalen Signalverarbeitung und im Qualit¨atsmanagement ben¨ otigt.

Dank Wir m¨ochten unseren Mitarbeitern und Kollegen in Karlsruhe und Krefeld danken, die uns bei der Erstellung des Buchs unterst¨ utzt haben. Ebenso bedanken wir uns bei vielen Lesern, Studierenden und Tutoren f¨ ur ihre Anregungen und konstruktive Kritik. Besonderer Dank gilt Prof. Dr. Michael Gref, Prof. Dr. Knut Schumacher, Prof. Dr. Roland Hoffmann, Prof. Dr. Johannes Blanke-Bohne, Prof. Dr. Pohle-Fr¨ohlich, Prof. Dr. Christoph Dalitz, Prof. Dr. Jochen Rethmann, Prof. Dr. Peer Ueberholz, Prof. Dr. Karlheinz Sch¨ uffler, Dipl.-Ing. Ralph Radmacher, Dipl.-Ing. Guido Janßen sowie Prof. Dr. Lorens Imhof und nicht zuletzt unseren Lehrern Prof. Dr. Rolf Joachim Nessel und Prof. Dr. Erich Martensen. Wir haben eine F¨ ulle von Beispielen verwendet, die sich im Laufe der Jahre angesammelt haben und deren Ursprung nicht immer nachvollziehbar war. Sollten wir hier Autoren unwissentlich nicht zitieren, m¨ ochten wir uns daf¨ ur entschuldigen. F¨ ur einige Beispiele haben wir Geodaten verwendet, die uns freundlicherweise von den Kataster¨amtern der St¨ adte Dortmund, Krefeld und Leverkusen sowie von GeoBasis NRW zur Verf¨ ugung gestellt wurden. Zum Schluss m¨ochten wir uns noch ganz besonders bei Herrn Dr. R¨ udinger und Frau L¨ uhker vom Springer-Verlag f¨ ur die engagierte Unterst¨ utzung des Buchprojekts bedanken.

Inhaltsverzeichnis Vorwort . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .

v

Teil I Grundlagen

1

1

Mengenlehre und Logik . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 1.1 Mengenbegriff . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 1.2 Mengenoperationen . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 1.3 Abbildungen . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 1.4 Aussagenlogik . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 1.5 Pr¨adikatenlogik . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 1.6 Beweise . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . Literaturverzeichnis . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .

3 3 6 9 14 20 26 28

2

Reelle Zahlen . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 2.1 Nat¨ urliche und ganze Zahlen . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 2.1.1 Ordnung . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 2.1.2 Zahlendarstellung . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 2.1.3 Primzahlen . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 2.1.4 Fakult¨at und Binomialkoeffizient . . . . . . . . . . . . . . . . . . . 2.2 Rationale Zahlen . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 2.2.1 Rechnen mit rationalen Zahlen (Bruchrechnung) . . . . . 2.2.2 Dezimalbruchdarstellung rationaler Zahlen . . . . . . . . . . . 2.2.3 Abz¨ahlbarkeit ∗ . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 2.2.4 Vollst¨andige Induktion . . . . . . . . . . . . . . . . . . . . . . . . . . . . 2.3 Reelle Zahlen . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 2.3.1 Von den rationalen zu den reellen Zahlen . . . . . . . . . . . . 2.3.2 Vollst¨andigkeit und Einf¨ uhrung der reellen Zahlen . . . . 2.3.3 Variablennamen . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 2.3.4 Intervalle . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 2.3.5 Die Zahlen e und π . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . ¨ 2.3.6 Uberabz¨ ahlbarkeit der reellen Zahlen ∗ . . . . . . . . . . . . . .

29 30 31 32 34 37 39 40 43 45 47 49 49 53 57 58 58 60 vii

viii

Inhaltsverzeichnis

Literaturverzeichnis . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 61 3

Rechnen mit reellen Zahlen . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 3.1 Potenzen und Wurzeln . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 3.2 Summen und Produkte, Binomischer Lehrsatz . . . . . . . . . . . . . . 3.2.1 Summenzeichen und Produktzeichen . . . . . . . . . . . . . . . . 3.2.2 Geometrische Summenformel und Anwendungen . . . . . 3.2.3 Binomischer Lehrsatz . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 3.3 Betr¨age und Ungleichungen . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 3.3.1 Betr¨age . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 3.3.2 Ungleichungen . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . ¨ 3.4 Uber das L¨osen von Gleichungen und Ungleichungen . . . . . . . . 3.4.1 Rationale Gleichungen, Wurzel-, Betragsgleichungen . . 3.4.2 Rationale Ungleichungen und Betragsungleichungen . . Literaturverzeichnis . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .

63 63 66 66 69 72 74 75 75 81 81 84 88

4

Reelle Funktionen . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 4.1 Notation reeller Funktionen . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 4.2 Eigenschaften von reellen Funktionen . . . . . . . . . . . . . . . . . . . . . 4.3 Umkehrfunktion . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 4.4 Verkettung von Funktionen . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 4.5 Signum- und Betragsfunktion . . . . . . . . . . . . . . . . . . . . . . . . . . . . 4.6 Polynome und gebrochen-rationale Funktionen . . . . . . . . . . . . . 4.6.1 Polynome . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 4.6.2 Interpolation . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 4.6.3 Faktorzerlegung und Polynomdivision . . . . . . . . . . . . . . . 4.6.4 Horner-Schema . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 4.6.5 Gebrochen-rationale Funktionen . . . . . . . . . . . . . . . . . . . . 4.7 Potenz- und Wurzelfunktionen . . . . . . . . . . . . . . . . . . . . . . . . . . . 4.8 Exponentialfunktionen und Logarithmen . . . . . . . . . . . . . . . . . . 4.8.1 Exponentialfunktion und nat¨ urlicher Logarithmus . . . . 4.8.2 Allgemeine Exponentialfunktionen und Logarithmen . . 4.8.3 Exponential- und Logarithmusgleichungen . . . . . . . . . . . 4.8.4 Logarithmische Darstellungen . . . . . . . . . . . . . . . . . . . . . . 4.9 Trigonometrische Funktionen . . . . . . . . . . . . . . . . . . . . . . . . . . . . 4.9.1 Winkel und Bogenmaß . . . . . . . . . . . . . . . . . . . . . . . . . . . . 4.9.2 Sinus, Kosinus und Tangens . . . . . . . . . . . . . . . . . . . . . . . 4.9.3 Trigonometrische Funktionen in der Geometrie . . . . . . . 4.9.4 Additionstheoreme . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 4.9.5 Harmonische Schwingungen und Zeigerdiagramme . . . . 4.9.6 Arkus-Funktionen . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 4.9.7 Trigonometrische Gleichungen . . . . . . . . . . . . . . . . . . . . . . 4.10 Hyperbel- und Areafunktionen . . . . . . . . . . . . . . . . . . . . . . . . . . . 4.10.1 Hyperbelfunktionen . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 4.10.2 Areafunktionen . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .

89 89 93 98 100 102 103 103 105 107 111 113 114 116 116 119 120 124 127 127 127 132 134 137 140 143 144 144 146

Inhaltsverzeichnis

ix

5

Komplexe Zahlen . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 5.1 Erweiterung der reellen Zahlen um eine imagin¨ are Einheit . . . 5.2 Komplexe Arithmetik . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 5.3 Die Gauß’sche Zahlenebene . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 5.3.1 Betrag . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 5.3.2 Rechnen mit Betr¨agen komplexer Zahlen . . . . . . . . . . . . 5.3.3 Euler’sche Gleichung, Polarform und Eulerform . . . . . . 5.3.4 Komplexe Potenzen und komplexe Wurzeln . . . . . . . . . . 5.4 Komplexe Wechselstromrechnung ∗ . . . . . . . . . . . . . . . . . . . . . . . 5.5 Fundamentalsatz der Algebra . . . . . . . . . . . . . . . . . . . . . . . . . . . . Literaturverzeichnis . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .

149 150 151 153 153 154 156 160 165 168 174

6

Lineare Gleichungssysteme und Matrizen . . . . . . . . . . . . . . . . . 6.1 Lineare Gleichungssysteme . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 6.2 Matrizen, Zeilen- und Spaltenvektoren . . . . . . . . . . . . . . . . . . . . 6.3 L¨osen linearer Gleichungssysteme . . . . . . . . . . . . . . . . . . . . . . . . . 6.3.1 Gauß-Algorithmus . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 6.3.2 L¨osungstheorie linearer Gleichungssysteme . . . . . . . . . . . 6.4 Inverse Matrix und transponierte Matrix . . . . . . . . . . . . . . . . . . 6.5 Symmetrische und orthogonale Matrizen . . . . . . . . . . . . . . . . . . 6.6 Dreiecksmatrizen, Bandmatrizen und LR-Zerlegung ∗ . . . . . . . . 6.6.1 Dreiecksmatrizen und Bandmatrizen . . . . . . . . . . . . . . . . 6.6.2 LR-Zerlegung . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . Literaturverzeichnis . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .

175 176 177 185 185 190 193 199 201 201 202 207

7

Determinanten . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 209 7.1 Definition und elementare Eigenschaften von Determinanten . 209 7.2 Determinanten und lineare Gleichungssysteme . . . . . . . . . . . . . . 221

8

Aufgaben zu Teil I . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 8.1 Rechnen, Mengen und Logik . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 8.2 Vollst¨andige Induktion und Binomischer Lehrsatz . . . . . . . . . . . 8.3 Gleichungen und Funktionen . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 8.4 Komplexe Zahlen . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 8.5 Lineare Gleichungssysteme und Matrizen . . . . . . . . . . . . . . . . . . 8.6 Determinanten . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . Literaturverzeichnis . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .

229 229 231 231 235 236 240 241

x

Inhaltsverzeichnis

Teil II Differenzial- und Integralrechnung

243

Folgen . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 9.1 Definition und Grundbegriffe von Folgen . . . . . . . . . . . . . . . . . . 9.2 Konvergenz und Divergenz von Folgen . . . . . . . . . . . . . . . . . . . . 9.3 Rechnen mit konvergenten Folgen . . . . . . . . . . . . . . . . . . . . . . . . 9.4 Konvergenzkriterien . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 9.5 Die Euler’sche Zahl e als Grenzwert von Folgen . . . . . . . . . . . . 9.6 Approximation reeller Potenzen . . . . . . . . . . . . . . . . . . . . . . . . . . 9.7 Bestimmte Divergenz . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 9.8 H¨aufungspunkte einer Folge ∗ . . . . . . . . . . . . . . . . . . . . . . . . . . . . 9.9 Folgenkompaktheit und Cauchy-Folgen ∗ . . . . . . . . . . . . . . . . . . . Literaturverzeichnis . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .

245 245 250 253 257 260 263 263 266 267 271

10 Zahlen-Reihen . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 10.1 Definition und Konvergenz einer Reihe . . . . . . . . . . . . . . . . . . . . 10.2 Rechnen mit konvergenten Reihen . . . . . . . . . . . . . . . . . . . . . . . . 10.3 Alternativen zur Definition der Reihenkonvergenz . . . . . . . . . . . 10.4 Absolute Konvergenz . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 10.5 Konvergenzkriterien f¨ ur Reihen . . . . . . . . . . . . . . . . . . . . . . . . . . . Literaturverzeichnis . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .

273 273 278 279 281 283 294

11 Grenzwerte von Funktionen und Stetigkeit . . . . . . . . . . . . . . . ¨ 11.1 Umgebungen und Uberdeckungen ........................ 11.2 Grenzwerte von Funktionen . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 11.3 Stetigkeit . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 11.4 Eigenschaften stetiger Funktionen . . . . . . . . . . . . . . . . . . . . . . . . 11.5 Unstetigkeitsstellen . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .

295 295 298 311 319 326

12 Differenzierbarkeit und Ableitungen . . . . . . . . . . . . . . . . . . . . . . 12.1 Ableitung als Grenzwert des Differenzenquotienten . . . . . . . . . 12.2 Ableitungsregeln . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 12.3 Newton-Verfahren . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 12.4 Das Differenzial . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 12.5 H¨ohere Ableitungen . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . Literaturverzeichnis . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .

331 331 338 349 351 353 357

13 Zentrale S¨ atze der Differenzialrechnung . . . . . . . . . . . . . . . . . . . 13.1 Satz von Fermat: notwendige Bedingung f¨ ur lokale Extrema . . 13.2 Mittelwerts¨atze der Differenzialrechnung . . . . . . . . . . . . . . . . . . 13.3 Regeln von L’Hospital . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . Literaturverzeichnis . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .

359 359 360 368 375

9

Inhaltsverzeichnis

xi

14 Integralrechnung . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 14.1 Definition des Integrals . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 14.2 Eigenschaften des Integrals . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 14.3 Hauptsatz der Differenzial- und Integralrechnung . . . . . . . . . . . 14.4 Rechenregeln zur Integration . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 14.4.1 Partielle Integration . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 14.4.2 Integralsubstitution . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 14.4.3 Integration gebrochen-rationaler Funktionen . . . . . . . . . 14.5 Numerische Integration . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 14.6 Uneigentliche Integrale . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 14.6.1 Unbeschr¨ankter Integrand . . . . . . . . . . . . . . . . . . . . . . . . . 14.6.2 Unbeschr¨ankter Integrationsbereich . . . . . . . . . . . . . . . . . 14.7 Volumen und Fl¨achen . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 14.7.1 Fl¨achenberechnung in der Ebene . . . . . . . . . . . . . . . . . . . 14.7.2 Volumen eines Rotationsk¨orpers . . . . . . . . . . . . . . . . . . . . 14.7.3 Oberfl¨acheninhalt eines Rotationsk¨ orpers . . . . . . . . . . . . 14.8 Lebesgue-Integral ∗ . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 14.8.1 Messbare Mengen . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 14.8.2 Messbare Funktionen . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 14.8.3 Definition des Lebesgue-Integrals . . . . . . . . . . . . . . . . . . . 14.8.4 Eigenschaften des Lebesgue-Integrals . . . . . . . . . . . . . . . . Literaturverzeichnis . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .

377 378 383 388 393 395 397 405 413 416 417 418 424 424 426 427 428 431 433 433 435 438

15 Satz von Taylor, Kurvendiskussion und Extremalprobleme 15.1 Taylor-Summen . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 15.2 Kurvendiskussion und Extremalprobleme . . . . . . . . . . . . . . . . . . Literaturverzeichnis . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .

439 439 444 456

16 Potenzreihen . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 457 16.1 Unendliche Taylor-Summen und Potenzreihen . . . . . . . . . . . . . . 457 16.2 Einschub: Funktionenfolgen ∗ . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 461 16.3 Konvergenz von Potenzreihen . . . . . . . . . . . . . . . . . . . . . . . . . . . . 471 16.4 Differenziation und Integration von Potenzreihen . . . . . . . . . . . 475 16.5 Der Zusammenhang zwischen Potenzreihen und Taylor-Reihen 477 16.6 Die komplexe Exponentialfunktion . . . . . . . . . . . . . . . . . . . . . . . . 479 Literaturverzeichnis . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 480 17 Aufgaben zu Teil II . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 17.1 Folgen . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 17.2 Reihen . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 17.3 Funktionengrenzwerte und Stetigkeit . . . . . . . . . . . . . . . . . . . . . . 17.4 Ableitungen . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 17.5 Integrale . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 17.6 Satz von Taylor und Kurvendiskussion . . . . . . . . . . . . . . . . . . . . 17.7 Potenzreihen . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .

481 481 482 483 484 485 487 489

xii

Inhaltsverzeichnis

Teil III Lineare Algebra

491

18 Vektoren in der Ebene und im Raum . . . . . . . . . . . . . . . . . . . . . 493 18.1 Vektoren: Grundbegriffe und elementare Rechenregeln . . . . . . . 494 18.1.1 Vektorarithmetik . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 495 18.1.2 Koordinaten und Komponenten . . . . . . . . . . . . . . . . . . . . 497 18.2 Skalarprodukt und Orthogonalit¨at . . . . . . . . . . . . . . . . . . . . . . . . 502 18.2.1 Definition des Skalarprodukts . . . . . . . . . . . . . . . . . . . . . . 503 18.2.2 Rechenregeln, Koordinatenform und Winkelberechnung 504 18.2.3 Anwendungen des Skalarprodukts in der Geometrie . . . 507 18.2.4 Orthogonale Projektion und Lot . . . . . . . . . . . . . . . . . . . 509 18.3 Vektorprodukt und Spatprodukt . . . . . . . . . . . . . . . . . . . . . . . . . 511 18.3.1 Vektorprodukt . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 511 18.3.2 Spatprodukt . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 516 18.4 Anwendungen des Skalar-, Vektor- und Spatprodukts . . . . . . . 518 18.5 Geraden in der Ebene und im Raum . . . . . . . . . . . . . . . . . . . . . . 521 18.5.1 Darstellungsformen von Geraden . . . . . . . . . . . . . . . . . . . 521 18.5.2 Typische Aufgabenstellungen f¨ ur Geraden . . . . . . . . . . . 524 18.6 Ebenen im Raum . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 528 18.6.1 Darstellungsformen von Ebenen im Raum . . . . . . . . . . . 528 18.6.2 Typische Aufgabenstellungen f¨ ur Ebenen . . . . . . . . . . . . 533 Literaturverzeichnis . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 535 19 Vektorr¨ aume . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 19.1 Definition des Vektorraums . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 19.1.1 Vektorraumaxiome . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 19.1.2 Linearkombinationen und Erzeugendensysteme . . . . . . . 19.1.3 Unterr¨aume . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 19.2 Lineare Unabh¨angigkeit, Basis und Dimension . . . . . . . . . . . . . 19.2.1 Lineare Unabh¨angigkeit und lineare Abh¨ angigkeit . . . . 19.2.2 Basis und Dimension . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 19.3 Skalarprodukt und Norm . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 19.3.1 Euklid’scher Raum und Skalarprodukt . . . . . . . . . . . . . . 19.3.2 Betrag, Norm und Abstand . . . . . . . . . . . . . . . . . . . . . . . . 19.4 Orthogonalit¨at, Orthogonal- und Orthonormalsysteme . . . . . . 19.4.1 Winkel und Orthogonalit¨at . . . . . . . . . . . . . . . . . . . . . . . . 19.4.2 Orthogonal- und Orthonormalsysteme . . . . . . . . . . . . . . 19.4.3 Euklid’sche R¨aume endlicher Dimension . . . . . . . . . . . . . 19.4.4 Gram-Schmidt’sches Orthonormierungsverfahren . . . . . 19.4.5 Orthogonale Projektion . . . . . . . . . . . . . . . . . . . . . . . . . . . 19.4.6 Orthogonale Matrizen . . . . . . . . . . . . . . . . . . . . . . . . . . . . .

537 538 538 542 544 546 546 550 556 556 559 561 561 563 564 566 568 571

Inhaltsverzeichnis

xiii

20 Lineare Abbildungen . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 20.1 Lineare Abbildungen und Matrizen . . . . . . . . . . . . . . . . . . . . . . . 20.2 Linearkombination und Verkettung linearer Abbildungen . . . . 20.3 Kern und Bild einer linearen Abbildung, Dimensionssatz . . . . 20.4 Umkehrabbildung und inverse Matrix . . . . . . . . . . . . . . . . . . . . . 20.5 Koordinaten- und Basistransformationen ∗ . . . . . . . . . . . . . . . . .

575 576 580 584 591 594

21 L¨ osungstheorie linearer Gleichungssysteme . . . . . . . . . . . . . . . 21.1 L¨osungsraum eines linearen Gleichungssystems . . . . . . . . . . . . . 21.2 Berechnung von linearen elektrischen Netzwerken ∗ . . . . . . . . . . 21.2.1 Elektrische Netzwerke und Graphen . . . . . . . . . . . . . . . . 21.2.2 Maschengleichungen . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 21.2.3 Knotengleichungen . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 21.2.4 Gleichungen zwischen Spannungen und Str¨ omen . . . . . . Literaturverzeichnis . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .

599 599 605 605 609 611 612 613

22 Eigenwerte und Eigenvektoren . . . . . . . . . . . . . . . . . . . . . . . . . . . . 22.1 Eigenwerte und Eigenvektoren . . . . . . . . . . . . . . . . . . . . . . . . . . . 22.2 Diagonalisierung von Matrizen ∗ . . . . . . . . . . . . . . . . . . . . . . . . . . 22.3 Hauptvektoren und Jordan-Normalform ∗ . . . . . . . . . . . . . . . . . . Literaturverzeichnis . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .

615 615 626 631 635

23 Normierte Vektorr¨ aume: Lineare Algebra trifft Analysis ∗ . 23.1 Norm . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 23.2 Banach- und Hilbert-R¨aume . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 23.3 Lp -R¨aume . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 23.4 Stetige Abbildungen zwischen normierten Vektorr¨ aumen . . . . . 23.4.1 Stetigkeit und Operatornormen . . . . . . . . . . . . . . . . . . . . 23.4.2 Matrix-Normen . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 23.4.3 Kondition, Stabilit¨at und Konsistenz . . . . . . . . . . . . . . . . 23.4.4 Fixpunktverfahren f¨ ur lineare Gleichungssysteme . . . . . 23.5 Einige zentrale S¨atze der Funktionalanalysis . . . . . . . . . . . . . . . 23.6 Sobolev-R¨aume . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . Literaturverzeichnis . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .

637 637 640 643 648 648 653 655 658 660 668 669

24 Aufgaben zu Teil III . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 24.1 Rechnen mit Vektoren im Anschauungsraum . . . . . . . . . . . . . . . 24.2 Vektorr¨aume . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 24.3 Matrizen und lineare Abbildungen . . . . . . . . . . . . . . . . . . . . . . . .

671 671 672 674

xiv

Inhaltsverzeichnis

Kleine Formelsammlung . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 675 Index . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 681



! Hinweis

Einige Aspekte der numerischen Mathematik sind u ¨ber den Band verteilt: • Grundlegende Begriffe: Kondition, Stabilit¨at und Konsistenz 655 • Direktes L¨osen linearer Gleichungssysteme: Gauß-Algorithmus 185; Cramer’sche Regel 225; LR-Zerlegung 201 • Iteratives L¨osen linearer Gleichungssysteme: Fixpunktiterationen, Jacobi-, Gauß-Seidel-, Richardson-Verfahren 204, 658 • Nullstellen: Intervallschachtelung (Bisektion) 320; Newton-Verfahren 349 • Interpolation: algebraische Interpolation 105; Splines 355 • Quadraturverfahren: summierte Mittelpunkts-, Trapez- und Simpson-Regel 413

Teil I Grundlagen Im ersten Teil des Buchs wiederholen wir den Schulstoff bis zum Beginn der Oberstufe. Das w¨are allerdings langweilig, wenn wir nicht schon vor dem Hintergrund der sp¨ateren Anwendungen dar¨ uber hinausgehende Inhalte einflechten w¨ urden (z. B. das Rechnen mit komplexen Zahlen). Außerdem wird in eine korrekte mathematische Schreibweise eingef¨ uhrt. Vielfach herrscht Verwirrung, wann man ein Gleichheitszeichen, wann ein Folgerungszeichen ¨ und wann ein Aquivalenzzeichen benutzt. Deshalb beginnen wir mit Grundbegriffen aus Mengenlehre und Logik. Mit der Vollst¨ andigen Induktion lernen wir ein Beweisverfahren kennen, das auch beim Programmieren hilfreich sein kann. Dann kommen wir zu Zahlen und zum Rechnen. Hier sehen wir beispielsweise, dass es in einem gewissen Sinn nicht mehr Br¨ uche als nat¨ urliche Zahlen 1, 2, 3, . . . gibt, da die Br¨ uche in eine Reihenfolge gebracht werden k¨onnen, so dass ihre Position genau einer nat¨ urlichen Zahl entspricht. Damit sind die Br¨ uche abz¨ahlbar. F¨ ur die reellen Zahlen funktioniert das nicht mehr. Daf¨ ur haben sie mit der Vollst¨andigkeit eine Eigenschaft, die die Berechnung von Grenzwerten m¨oglich macht. Wir sehen uns systematisch die elementaren reellen Funktionen an. Mit Hilfe der trigonometrischen Funktionen erweitern wir dann die reellen zu den komplexen Zahlen, mit denen sich z. B. einfacher rechnen l¨asst, wenn es um Nullstellen von Polynomen geht. Zum Abschluss dieses Grundlagenteils machen wir dann einen kleinen Exkurs in die Lineare Algebra und l¨ osen lineare Gleichungssysteme. In diesem Zusammenhang werden Matrizen und ihre Determinanten eingef¨ uhrt, die beim L¨ osen der Gleichungssysteme helfen.

Kapitel 1

Mengenlehre und Logik Beim Beschreiben der Objekte, mit denen wir uns besch¨ aftigen werden, helfen Mengennotationen. Sie bilden die Basis der in der Mathematik verwendeten Sprache. Die Beziehungen zwischen Mengen werden u ¨ber Abbildungen (Funktionen) ausgedr¨ uckt, die hier ebenfalls in einem allgemeinen Kontext eingef¨ uhrt werden. Danach werden wir Aussagen formulieren und deren Wahrheitsgehalt untersuchen. Das schließt die Einf¨ uhrung in die grundlegenden Elemente der Sprache der Mathematik ab. Wir beginnen mit der Aussagenlogik, in der wir mit Wahrheitswerten rechnen. Dann behandeln wir kurz die Pr¨adikatenlogik. Diese erweitert die Aussagenlogik so, dass Aussagen nun, wie in der Realit¨at, von vielen Parametern abh¨ angig sein k¨ onnen. Schließlich gehen wir kurz auf den Aufbau der Mathematik u ¨ber Axiome, Definitionen und S¨atze ein.

1.1 Mengenbegriff

Definition 1.1 (Mengenbegriff von Cantor, 1845–1918, hier 1895) Eine Menge M ist eine gedankliche Zusammenfassung von unterscheidbaren Objekten. Diese Objekte nennt man Elemente von M . Eine Menge M kann beschrieben werden durch Auflistung der Elemente. Diese Auflistung wird in geschweifte Klammern gesetzt. Die Menge, die aus den Zahlen 1, 2 und 3 gebildet wird, ist {1, 2, 3}. Die Menge B aller Buchstaben lautet {a, b, c, . . . , z}. © Der/die Autor(en), exklusiv lizenziert an Springer-Verlag GmbH, DE, ein Teil von Springer Nature 2023 S. Goebbels und S. Ritter, Mathematik verstehen und anwenden: Differenzial- und Integralrechnung, Lineare Algebra, https://doi.org/10.1007/978-3-662-68367-5_1

3

4

Kapitel 1. Mengenlehre und Logik

Definition 1.2 (Mengenschreibweisen) • Wir schreiben x ∈ M , um auszudr¨ ucken, dass x ein Element der Menge M ist und x ∈ M , um zu sagen, dass x nicht in M liegt, d. h. kein Element der Menge M ist. • Eine Menge, die kein Element besitzt, heißt leere Menge und wird mit ∅ oder {} notiert. • Zwei Mengen M und N heißen gleich (M = N ) genau dann, wenn sie die gleichen Elemente besitzen. Das Symbol =“ wird generell in der ” Mathematik f¨ ur Gleichheit, =“ f¨ ur Ungleichheit verwendet. ” • M heißt (echte oder unechte) Teilmenge von N , M ⊆ N , genau dann, wenn jedes Element von M auch Element von N ist. Ist M nicht Teilmenge von N , so schreibt man M ⊆ N . • F¨ ur M ⊆ N ist das Komplement von M bez¨ uglich N definiert als Menge aller Elemente aus N , die nicht in M enthalten sind. Diese Menge wird mit M oder alternativ mit CN M bezeichnet. Wenn aus dem Zusammenandlich. hang die Menge N bekannt ist, ist die Kurzschreibweise M verst¨ Anderenfalls ist es besser, die Menge N explizit mit CN M anzugeben. • M und N heißen disjunkt (elementfremd) genau dann, wenn sie keine gemeinsamen Elemente besitzen. • Die Potenzmenge P(M ) einer Menge M ist die Menge, die alle Teilmengen von M enth¨alt. Sie ist also insbesondere eine Menge, deren Elemente selbst wieder Mengen sind. Gem¨aß dieser Definition ist auch N ⊆ N . Die erlaubte Gleichheit wird durch den einzelnen Strich wie bei ≤“ angedeutet (unechte Teilmenge). Leider ” hat sich hier in der Mathematik keine einheitliche Schreibweise durchgesetzt. So wie wir in den Vorg¨angerauflagen des Buchs statt ⊆“ das Symbol ⊂“ ” ” verwendet haben, benutzen viele Mathematiker beide Zeichen austauschbar. Dagegen schließen aber viele andere Autoren mit ⊂“ die Gleichheit aus. In ” diesem Buch wird ⊂“ nur verwendet, wenn keine Gleichheit vorliegen soll ” (echte Teilmenge). Beispiel 1.1 Wir betrachten die Menge aller Vokale V = {a, e, i, o, u} und die Menge aller Buchstaben des Alphabets B = {a, b, c, . . . , z}:

• Das Element a ∈ V ist ein Vokal, aber b ∈ V ist ein Konsonant. • Es ist V ⊆ B, denn jeder Vokal ist gleichzeitig auch ein Buchstabe. Da es mehr Buchstaben als Vokale gibt, gilt auch V ⊂ B. • Dagegen ist B ⊆ V , denn es gibt Buchstaben, die keine Vokale sind. uglich B ist die Menge aller Buchstaben, die • Das Komplement von V bez¨ nicht Vokale sind. V = CB V besteht aus den Konsonanten.

Aufgrund der Definition der Gleichheit spielt die Reihenfolge, in der Elemente angegeben werden, keine Rolle. Es reicht, jedes Element genau einmal anzugeben.

5

1.1. Mengenbegriff

Satz 1.1 (Potenzmenge) Eine Menge M mit n Elementen besitzt 2n verschiedene Teilmengen, d. h., die Potenzmenge P(M ) besitzt 2n Elemente. Beweis F¨ ur jedes Element von M kann man entscheiden, ob das Element in eine Teilmenge aufgenommen werden soll. Diese n Entscheidungen zwischen zwei Alternativen f¨ uhren zu den 2n verschiedenen Teilmengen, siehe Abbildung 1.1.  Beispiel 1.2 P({a, b, c}) = {∅, {a}, {b}, {c}, {a, b}, {b, c}, {a, c}, {a, b, c}} hat amlich eine Teilmen23 = 8 Elemente. Jedes Element ist selbst eine Menge, n¨ ge von {a, b, c}.

Abb. 1.1 Entscheidungsbaum zum Auffinden aller 23 Teilmengen von {a, b, c}

Oft kann man nicht jedes Element einer Menge M explizit hinschreiben. Man verwendet dann die Schreibweise M = {x ∈ G : x erf¨ ullt eine Bedingung}.

(1.1)

Der Doppelpunkt wird als wof¨ ur gilt“ gesprochen. Dabei ist G eine be” reits definierte Grundmenge. Zum Beispiel ist {x ∈ {1, 2, 3, 4, 5} : x2 ∈ {4, 9, 25, 36}} = {2, 3, 5}. Durch diese Schreibweise vermeidet man m¨ ogliche Widerspr¨ uche, siehe dazu die Hintergrundinformation zur Allmenge auf Seite 7.

6

Kapitel 1. Mengenlehre und Logik

1.2 Mengenoperationen

Definition 1.3 (Mengenoperationen) Es seien M, N Mengen. • Der Durchschnitt von M und N (M geschnitten mit N ) ist die Menge aller Elemente, die sowohl in M als auch in N enthalten sind: M ∩ N = {x : x ∈ M und x ∈ N }. • In der Vereinigung von M und N (M vereinigt mit N ) sind genau alle Elemente beider Mengen enthalten: M ∪ N = {x : x ∈ M oder x ∈ N }. • Die Differenz von M und N (M ohne N ) entsteht, indem man aus M alle Elemente entfernt, die in N enthalten sind. M \ N = {x : x ∈ M und x ∈ N }. • Das Kreuzprodukt von M und N (M Kreuz N ) ist die Menge M × N = {(x, y) : x ∈ M und y ∈ N }. Die Elemente (x, y) von M × N sind Paare von Elementen x ∈ M und y ∈ N. • Das n-fache Kreuzprodukt von M (M hoch n) ist M n = {(x1 , x2 , . . . , xn ) : x1 , x2 , . . . , xn ∈ M }. Die Elemente von M n sind n-Tupel von Elementen aus M . Diese Operationen kann man durch Venn-Diagramme veranschaulichen. Die Mengen werden dabei mit Hilfe von Kreisen, Ellipsen oder Rechtecken dargestellt, siehe Abbildung 1.2. Die Punkte innerhalb eines Kreises sind die Elemente der durch ihn repr¨asentierten Menge. Eine Schnittmenge A ∩ B ¨ besteht z. B. aus den Punkten der Uberlappung der Kreisfl¨ achen der Mengen A und B. Beispiel 1.3 F¨ ur M = {1, 2, 3} und N = {2, 3, 4} erhalten wir: a) M ∩ N = {2, 3} und M ∪ N = {1, 2, 3, 4}, b) M \ N = {1} und N \ M = {4}, c) M × N = {(x, y) : x ∈ M und y ∈ N } bzw. M × N = {(1, 2), (1, 3), (1, 4), (2, 2), (2, 3), (2, 4), (3, 2), (3, 3), (3,4)},

7

1.2. Mengenoperationen

B

A

A∩B

B

A

A∪B B

A

B

A Abb. 1.2 Mengenoperationen, dargestellt als VennDiagramme

A∖B

𝒞B A

d) P(M ) = {∅, {1}, {2}, {3}, {1, 2}, {2, 3}, {1, 3}, M } . Hintergrund: Die Allmenge Die Angabe einer existierenden Grundmenge bei der Definition einer neuen Menge wie in (1.1) verhindert ein schwerwiegendes Problem der Mengenlehre: Ohne Grundmenge k¨onnte man auf die Idee kommen, die Menge aller Mengen, die sogenannte Allmenge zu definieren. Die Existenz der Allmenge f¨ uhrt aber zu unl¨osbaren Widerspr¨ uchen, so dass diese Menge nicht existieren kann. Wir nehmen an, die Allmenge A w¨ urde existieren. Die Elemente der Allmenge sind wie bei der Potenzmenge Mengen. Deren Elemente k¨ onnen auch wieder Mengen sein usw. Wir k¨onnen damit A in zwei Teilmengen A1 und A2 zerlegen, wobei A1 die Menge aller Mengen ist, die sich selbst nicht enthalten. A2 ist die Menge aller Mengen, die sich selbst enthalten: / x}, A2 = {x ∈ A : x ∈ x}. A = A1 ∪ A2 mit A1 = {x ∈ A : x ∈ A1 und A2 sind disjunkt, da sich eine Menge nicht gleichzeitig selbst enthalten und nicht selbst enthalten kann. In welcher der beiden Mengen ist nun A1 ? / A1 . Also muss Falls A1 ∈ A1 , dann ist laut Definition dieser Menge A1 ∈ / A1 und A1 ∈ A2 sein. Nach Definition von A2 ist aber dann A1 ∈ A1 A1 ∈ im Widerspruch zu A1 ∈ / A1 . Die Annahme, dass A existiert, hat zu diesem Widerspruch gef¨ uhrt. A kann daher nicht existieren. Wir haben den Mengenbegriff ohne ein Axiomensystem kennengelernt. Durch die fehlende mathematische Pr¨azisierung k¨ onnen solche Probleme dann auftreten. Die Axiome von Zermelo-Fraenkel beheben diesen Missstand, aber auch hier st¨oßt die Mathematik an ihre Grenzen, da man die Widerspruchsfreiheit der Axiome nicht beweisen kann.

8

Kapitel 1. Mengenlehre und Logik

Satz 1.2 (Eigenschaften von Mengen) Es seien M, N und K Mengen. Dann gilt: • Aus M ⊆ N und N ⊆ K folgt M ⊆ K. • Aus M ⊆ N und N ⊆ M folgt M = N . • Kommutativgesetze (Vertauschung der Reihenfolge): M ∪ N = N ∪ M,

M ∩ N = N ∩ M.

• Assoziativgesetze (andere Klammerung): M ∪ (N ∪ K) = (M ∪ N ) ∪ K,

M ∩ (N ∩ K) = (M ∩ N ) ∩ K.

• Distributivgesetze (Ausmultiplikation): M ∩(N ∪K) = (M ∩N )∪(M ∩K),

M ∪(N ∩K) = (M ∪N )∩(M ∪K).

• F¨ ur M, N ⊆ K gelten die De Morgan’schen Regeln: CK (M ∪ N ) = CK M ∩ CK N,

CK (M ∩ N ) = CK M ∪ CK N.

In diesem Sinne wird unter der Bildung des Komplements aus der Vereinigung ein Durchschnitt und umgekehrt. Auf den rechten Seiten der De Morgan’schen Regeln haben wir auf Klammern verzichtet. Dabei verwenden wir die Konvention, dass das Komplement am st¨arksten bindet, außerdem bindet der Schnitt enger als die Vereinigung: CK A ∪ B ∩ C = (CK A) ∪ (B ∩ C).

Beweis Wir zeigen exemplarisch das erste Distributivgesetz. Ist x ein Element von M ∩ (N ∪ K), dann liegt x sowohl in M als auch in mindestens einer der beiden Mengen N oder K. Falls x Element von N ist, dann ist es auch Element von M ∩ N . Anderenfalls muss es in M ∩ K liegen. In jedem Fall ist x also in (M ∩ N ) ∪ (M ∩ K). Wir haben damit gezeigt, dass M ∩ (N ∪ K) ⊆ (M ∩ N ) ∪ (M ∩ K). Ist umgekehrt x ein Element der rechten Menge, so liegt es in M ∩ N oder in M ∩K (oder in beiden Mengen). In jedem Fall liegt x in M und in mindestens einer der beiden Mengen N oder K, also in M ∩ (N ∪ K), so dass auch (M ∩ N ) ∪ (M ∩ K) ⊆ M ∩ (N ∪ K) und damit die Gleichheit gezeigt ist.



Mit den Distributivgesetzen kann man unter Zuhilfenahme der anderen Regeln Mengenoperationen durch Ausmultiplizieren“ umformen, z. B. so: ”

9

1.3. Abbildungen

(A ∪ B) ∩ (C ∪ D) = [(A ∪ B) ∩ C] ∪ [(A ∪ B) ∩ D]

= (A ∩ C) ∪ (B ∩ C) ∪ (A ∩ D) ∪ (B ∩ D),

(A ∩ B) ∪ (C ∩ D) = (A ∪ C) ∩ (B ∪ C) ∩ (A ∪ D) ∩ (B ∪ D). Dies entspricht dem Ausmultiplizieren von reellen Zahlen (a + b) · (c + d) = a · c + b · c + a · d + b · d, wobei man + durch ∪ bzw. ∩ und · durch ∩ bzw. ∪ ersetzt. Erstaunlich ist, dass man sowohl mit ∪ als auch mit ∩ ausmultiplizieren darf. Denn das ist beim Rechnen mit Zahlen anders: 3 · (4 + 5) = 3 · 4 + 3 · 5,

3 + (4 · 5) = (3 + 4) · (3 + 5).

Beispiel 1.4 Wir vereinfachen den Mengenausdruck (X ∩ ((CM X) ∪ Y )) ∪ (Z ∩ (Y ∪ Z)) f¨ ur Mengen X, Y, Z ⊆ M mit den Distributivgesetzen: (X ∩ ((CM X) ∪ Y )) ∪ (Z ∩ (Y ∪ Z)) = ((X ∩ (CM X)) ∪ (X ∩ Y )) ∪ ((Z ∩ Y ) ∪ (Z ∩ Z)) = ∅ ∪ (X ∩ Y ) ∪ (Y ∩ Z) ∪ Z = (X ∩ Y ) ∪ Z.

1.3 Abbildungen Vom Zeitpunkt t = 0 bis t = t1 f¨ahrt ein Zug mit zun¨ achst konstanter Geschwindigkeit (gleichf¨ormige Bewegung), bremst dann aber und kommt geateren nau zum Zeitpunkt t1 im Bahnhof zum Stehen. Die Abfahrt ist zum sp¨ Zeitpunkt t = t2 . Ab diesem Moment beschleunigt der Zug wieder. Jedem Zeitpunkt t kann man nun eine zur¨ uckgelegte Wegstrecke s(t) zuordnen. So kann die Position des Zugs zu jedem Zeitpunkt bestimmt werden. Die Zeitpunkte werden auf Wegstrecken abgebildet. In Abbildung 1.3 ist diese Abbildung der Zeitpunkte auf Wegstrecken s(t) als Funktionsgraph dargestellt. Tats¨achlich werden bei der Fahrplanerstellung und der Zug¨ uberwachung u uge in einem Streckenbereich ¨berlagerte Weg-Zeit-Diagramme aller Z¨ verwendet. Daran kann man Zugabst¨ande und Kreuzungspunkte erkennen. Durch Anpassung der Diagramme werden bei Versp¨ atungen neue Planungen vorgenommen. Definition 1.4 (Abbildungen) Seien E und F nicht-leere Mengen. Eine Abbildung (oder Funktion) f von E in F (Schreibweise: f : E → F ) ist eine Vorschrift, die jedem Element x ∈ E eindeutig ein Element y ∈ F zuordnet (Schreibweisen: y = f (x), f : x → y). Dabei heißt y das Bild von

10

Kapitel 1. Mengenlehre und Logik

Abb. 1.3 Weg-ZeitDiagramm

x unter f , man bezeichnet y auch als den Funktionswert von f im Punkt (oder an der Stelle) x. Man nennt dabei x das Argument der Funktion, das ist der Wert, den man in die Funktion einsetzt“. E heißt der Defini” tionsbereich von f . Man schreibt daf¨ ur h¨aufig E = D(f ). Ist E0 ⊆ E, so heißt die Menge f (E0 ) = {f (x) : x ∈ E0 } ⊆ F das Bild von E0 unter der Abbildung f . Das Bild der Menge E heißt die Wertemenge, der Wertebereich oder die Bildmenge von f . Man schreibt daf¨ ur h¨aufig W (f ).

Mit anderen Worten: f ordnet jedem Element des Definitionsbereichs genau ein Element des Wertebereichs zu. Wendet man f auf eine Teilmenge E0 des Definitionsbereichs an, so erh¨alt man die Teilmenge des Wertebereichs, die alt. die Funktionswerte zu allen Elementen von E0 enth¨ Leider werden die Begriffe Wertemenge“ und Wertebereich“ in der Lite” ” ratur nicht einheitlich verwendet. Bisweilen wird mit ihnen die Zielmenge F gemeint. Das ist hier nicht so: Jedes Element der Wertemenge kommt auch als Funktionswert vor, was bei der Zielmenge nicht der Fall sein muss. Beim Weg-Zeit-Diagramm ist E eine Menge von Zeitpunkten und F eine Menge von Streckenl¨angen. Die Abbildung s : E → F ordnet jedem Zeitpunkt eine Streckenl¨ange zu. Umgekehrt kann man fragen, welche Zeitpunkte zu vorgegebenen Streckenl¨angen geh¨oren: Definition 1.5 (Urbild einer Abbildung) Seien E und F nicht-leere Mengen und f : E → F eine Abbildung. Ist F0 ⊆ F , so heißt die Menge f −1 (F0 ) := {x ∈ E : f (x) ∈ F0 } ⊆ E das Urbild von F0 . Insbesondere ist f −1 (F ) = E.

11

1.3. Abbildungen

f −1 (F0 ) ist also die Menge aller Elemente von E, die von f auf ein Element von F0 abgebildet werden. Beispiel 1.5 Sei f : {1, 2, 3, 4} → {3, 4, 5, 6, 7} mit f (1) = 5, f (2) = 5, f (3) = 4, f (4) = 7 (siehe Abbildung 1.4). Dann ist f ({1, 2, 3, 4}) = {4, 5, 7} der Wertebereich von f und f −1 ({3, 5, 7}) = f −1 ({5, 7}) = {1, 2, 4}, f −1 ({3, 6}) = ∅, f (f −1 ({3, 5, 7})) = f ({1, 2, 4}) = {5, 7}. f:E→F

f −1(F0) := {1, 2, 4}

F0 := {3, 5, 7} 

   

E := {1, 2, 3, 4}    



f (1) = f (2) = 5



f (4) = 7



f (3) = 4

 f (E ) := {5, 7, 4}

   

F

Abb. 1.4 Beispiel zur Definition der Abbildung

Definition 1.6 (Gleichheit) Zwei Abbildungen f, g : E → F heißen gleich (f = g) genau dann, wenn sie f¨ ur jedes Element von E das gleiche Bild in F liefern: f (x) = g(x) f¨ ur alle x ∈ E. Gleiche Abbildungen haben insbesondere den gleichen Definitions- und damit den gleichen Wertebereich. Zus¨atzlich m¨ ussen gleiche Abbildungen in die gleiche Zielmenge F abbilden. Beispiel 1.6 f : {1, 2, 3} → {1, 4, 9} mit f (1) = 1, f (2) = 4 und f (3) = 9 sowie g : {1, 2, 3} → {1, 4, 9} mit g(x) := x2 sind gleiche Abbildungen. Dagegen ist h : {1, 2, 3, 4} → {1, 4, 9, 16} mit h(x) = x2 nicht gleich f oder g. ˜ : {1, 2, 3} → {1, 4, 9, 16} mit h(x) ˜ are eine andere Abbildung. Auch h = x2 w¨ Wir werden sp¨ater allerdings meist die Zielmenge als Wertebereich w¨ ahlen, so dass diese Pingeligkeit keine Rolle spielt. Wir besch¨aftigen uns nun mit Abbildungseigenschaften, die ben¨ otigt werden, wenn zu einem Funktionswert das zugeh¨orige Argument gesucht ist.

12

Kapitel 1. Mengenlehre und Logik

Definition 1.7 (Eigenschaften von Abbildungen) Sei f : E → F . • f heißt injektiv (oder eineindeutig) genau dann, wenn f¨ ur je zwei Elemente x1 , x2 ∈ E mit x1 = x2 gilt: f (x1 ) = f (x2 ). • f heißt surjektiv oder Abbildung von E auf F genau dann, wenn zu jedem y ∈ F mindestens ein x ∈ E existiert mit f (x) = y, d. h. f (E) = F . • f heißt bijektiv genau dann, wenn f injektiv und surjektiv ist. Injektivit¨at der Abbildung f : E → F bedeutet, dass jedes Element von F h¨ochstens einmal als Bild auftritt. Surjektivit¨at bedeutet, dass jedes Element von F mindestens einmal als Bild auftritt. Bei der Bijektivit¨ at erscheint jedes Element von F genau einmal als Bild. Beispiel 1.7 a) f aus Beispiel 1.5 ist weder injektiv noch surjektiv. b) f : {1, 2} → {3, 4, 5} mit f : 1 → 3, 2 → 4, ist injektiv, aber nicht surjektiv. c) f : {1, 2} → {3} mit f : 1 → 3, 2 → 3, ist surjektiv, aber nicht injektiv.

Nach Definition einer Abbildung f : E → F gibt es zu jedem x ∈ E genau ein y ∈ F mit y = f (x), zu jedem Urbild x ∈ E gibt es genau ein Bild. Injektivit¨at ist quasi die umgekehrte Eigenschaft: Zu jedem Bild existiert genau ein Urbild. Eine nicht-injektive Abbildung kann man zu einer injektiven machen, indem man den Definitionsbereich einschr¨ ankt. Ob dieser Schritt sinnvoll ist, h¨angt oft vom Zusammenhang ab. Man kann leicht eine Abbildung in eine surjektive Abbildung u uhren, ¨berf¨ indem man F auf die Wertemenge f (E) reduziert. Satz 1.3 (Existenz der Umkehrabbildung) Ist f : E → F bijektiv, so existiert eine eindeutige Abbildung f −1 : F → E, die jedem y ∈ F ein x ∈ E zuordnet mit f (x) = y. Diese heißt die Umkehrabbildung (oder Umkehrfunktion) f −1 : F → E von f . Beweis Zu jedem y ∈ F gibt es mindestens ein x ∈ E mit f (x) = y, da f surjektiv ist (F ist also der Wertebereich von f ). Da f zudem injektiv ist, kann es nicht mehr als ein x ∈ E mit f (x) = y geben. Zu jedem y ∈ F gibt es also genau ein x ∈ E mit f (x) = y. Dar¨ uber ist eine eindeutige Abbildung (n¨amlich die Umkehrabbildung) erkl¨art. 

Beispiel 1.8 a) f : {1, 2} → {3,4} mit f : 1 → 3, 2 → 4, ist injektiv und surjektiv, also bijektiv. Damit existiert die Umkehrabbildung f −1 : {3, 4} → {1, 2} mit f −1 : 3 → 1, 4 → 2. b) Die Abbildung s aus dem Weg-Zeit-Diagramm Abbildung 1.3 ist nicht injektiv (und damit nicht bijektiv), da das Fahrzeug h¨ alt und damit vielen Zeitpunkten die gleiche Strecke zugeordnet wird. Kennt man also eine

1.3. Abbildungen

13

zur¨ uckgelegte Strecke, so weiß man nicht in jedem Fall, zu welchem Zeitpunkt sie geh¨ort. Es gibt keine Umkehrabbildung.



! Achtung

Die Schreibweise f −1 kann irref¨ uhrend sein. f −1 (x) ist das Element, das die Umkehrfunktion dem Element x zuordnet. Ist f (x) = 0 eine Zahl, so schreibt 1 = f (x)−1 . Der Kehrwert ist aber etwas v¨ ollig man f¨ ur deren Kehrwert f (x) anderes als der Wert der Umkehrabbildung. Leider kennzeichnet man beide Werte mit dem Exponenten −1.

Beispiel 1.9 (Caesar-Code) Vor 2 000 Jahren verschickte bereits Julius Caesar verschl¨ usselte Nachrichten. Dabei verwendete er einen sehr einfachen Code: Zu einer festzulegenden Zahl n ∈ {1, 2, . . . , 25} (bei 26 Buchstaben) wurde jeder Buchstabe eines Textes (nur Buchstaben, keine Leerzeichen oder sonstige Sonderzeichen) durch einen Buchstaben ersetzt, der zyklisch n Stellen im Alphabet sp¨ater steht. Man muss also den Schl¨ ussel n kennen, um einen Text zu entschl¨ usseln (oder maximal 25 M¨oglichkeiten durchprobieren). Sei M die Menge aller Texte und fn : M → M die Abbildung, die alle Buchstaben eines Textes um n nach rechts verschiebt. Dann ist f bijektiv. Die Umkehrabbildung verschiebt die Buchstaben um n zyklisch im Alphabet nach links. F¨ ur n = 3 ist f ( DIESISTEINTEXT“) = GLHVLVWHLQWHAW“. ” ” M¨ochte man einen Text mit Leerzeichen verschl¨ usseln, so werden diese im ersten Schritt entfernt. Da man damit eine Information verliert, wird die Verschl¨ usselungsabbildung nicht injektiv: DIE SEE“ und DIESE E“ werden ” ” identisch verschl¨ usselt. Der Caesar-Code ist sehr einfach und nicht sicher. Heute sind Verfahren wie die RSA-Verschl¨ usselung etabliert, siehe Beispiel 2.13 auf Seite 52. Beispiel 1.10 (Codierung einer Achs- und Radfolge) Die Bauart von Lokomotiven wird wesentlich durch die Folge angetriebener und mitlaufender Achsen (in der Reihenfolge von vorne nach hinten) bestimmt. Die Anzahlen von mitlaufenden Achsen werden international durch Ziffern angegeben, die Anzahlen von gemeinsam angetriebenen Achsen durch Großbuchstaben, wobei A f¨ ur eine, B f¨ ur zwei Achsen, usw. steht. Eine Dampflok mit einer Vorlaufachse und drei durch ein Gest¨ange verbundene Treibachsen hat demnach die Achsfolge 1C. In Großbritannien und den USA ist bei Dampfloks abweichend die Whyte-Notation g¨angig. Dabei werden aber nicht die Achsen sondern die R¨ader gez¨ahlt. Das Basis-Schema lautet: Anzahl der Vorlaufr¨ ader – Anzahl der angetriebenen R¨ader – [optional: Anzahl der R¨ ader einer zweiten Antriebsgruppe –] Anzahl der Nachlaufr¨ader. Unsere Dampflok hat also die Radfolge 2 − 6 − 0. K¨onnen beide Kodierungen bijektiv aufeinander abgebildet werden?

14

Kapitel 1. Mengenlehre und Logik

Aus der Whyte-Angabe kann offensichtlich sofort eine internationale berechnet werden, indem die Zahlen durch zwei geteilt und die mittlere(n) dann durch Buchstaben ersetzt wird/werden. Es gibt also eine Abbildung von der Whyte- in die internationale Darstellung. Diese ist injektiv, da verschiedene Radfolgen auch auf verschiedene Achsfolgen abgebildet werden. Die Abbildung ist aber nicht surjektiv (und damit nicht bijektiv), da im internationalen System mitlaufende Achsen zwischen angetriebenen (in einem Rahmen) zul¨assig sind, z. B. w¨are 1A1A1 zul¨assig. Direkt aus der Definition der Umkehrfunktion erh¨ alt man: Lemma 1.1 (Umkehrfunktion) Es sei f : E → F bijektiv mit Umkehrullen die Beziehungen funktion f −1 : F → E. Die Funktionen erf¨ ur alle x ∈ E, f −1 (f (x)) = x f¨ ur alle y ∈ F. f (f −1 (y)) = y f¨ Die Umkehrung der Umkehrfunktion ist wieder die Ausgangsfunktion. Umkehrabbildungen werden wir sp¨ater z. B. beim L¨ osen von Gleichungen verwenden. Ist der Wert von x gesucht u ¨ber die Gleichung f (x) = y, so ist osen der Gleix = f −1 (y), d. h., man erh¨alt die Umkehrabbildung durch Aufl¨ chung nach x. Wenn das funktioniert, dann ist f automatisch auch bijektiv. Beispielsweise erhalten wir zu f : R → R mit f (x) = x3 durch Umstellen √ von y = x3 nach x die Umkehrabbildung x = f −1 (y) = 3 y. In Kapitel 4.3 sehen wir uns (nach der Einf¨ uhrung der reellen Zahlen) Umkehrfunktionen zu reellwertigen Funktionen etwas genauer an.

1.4 Aussagenlogik ¨ Uberall im t¨aglichen Leben, insbesondere in der Mathematik, wird man mit Aussagen konfrontiert, die entweder wahr oder falsch sein k¨ onnen. Eine Aussage kann nicht zugleich wahr und falsch sein. Definition 1.8 (Aussage) Unter einer Aussage A versteht man ein sprachliches Gebilde, welches einen der beiden Wahrheitswerte wahr“ ” oder falsch“ hat. ” Alternativ verwendet man auch die Zahl 1 statt wahr“ sowie 0 f¨ ur falsch“. ” ” Wahre Aussagen sind:

1.4. Aussagenlogik

15

• Krefeld liegt am Rhein. • Es gibt unendlich viele Primzahlen. • 3 + 4 = 7. Falsche Aussagen sind: • Die Erde ist eine Scheibe. • 3 + 4 = 8. Es gibt aber auch Aussagen, von denen wir (zum Zeitpunkt, an dem wir dies schreiben) nicht sicher wissen, ob sie wahr oder falsch sind: • Es gibt außerirdisches Leben. • P = N P (eines der im Internet zu findenden Millennium-Probleme, deren L¨osung mit einem sehr hohen Preisgeld belohnt wird). Das kann sich aber ¨andern, so war bis vor wenigen Jahren nicht bekannt, ob die Fermat’sche Vermutung wahr ist. Die Aussage lautet: Die Gleichung ” ur nat¨ urliche Zahlen n > 2 keine ganzzahligen L¨ osungen an + bn = cn hat f¨ a, b, c.“. 1995 wurde von Andrew Wiles der Nachweis ver¨ offentlicht, dass die Aussage wahr ist. Folgende Formulierungen sind keine Aussagen im mathematischen Sinn, da sie nicht eindeutig wahr oder falsch sind: • Krefeld ist sch¨on. • Mathe ist schwierig. Wir bezeichnen Aussagen mit Variablen (Platzhaltern) wie A bzw. B, die die Werte wahr“ oder falsch“ annehmen k¨onnen, und verkn¨ upfen sie mit ” ” sogenannten logischen Operatoren, die wir im Folgenden definieren. Einzelne Variablen, aber auch durch Verkn¨ upfung mit logischen Operatoren gebildete Ausdr¨ ucke heißen aussagenlogische Formeln, die wir wiederum mit Variablennamen abk¨ urzen und mit logischen Operatoren verkn¨ upfen k¨ onnen. Abh¨angig von den Wahrheitswerten der Variablen nehmen aussagenlogische Formeln dann ebenfalls entweder den Wert wahr“ oder den Wert falsch“ ” ” an. Wir unterscheiden sp¨ater in diesem Text im Sprachgebrauch nicht mehr zwischen Aussagen und aussagenlogischen Formeln.

Abb. 1.5 Darstellung logischer Verkn¨ upfungen als Gatter gem¨ aß IEC 60617-12

16

Kapitel 1. Mengenlehre und Logik

Definition 1.9 (Verkn¨ upfungen/Operatoren) • Die Formel A ∨ B (sprich: A oder B) ist (f¨ ur eine konkrete Belegung der Variablen) wahr genau dann, wenn (bei dieser Belegung) die Formeln A oder B (oder beide) wahr sind, also f¨ ur wahre Aussagen stehen. Ist weder A noch B wahr, so ist die Formel falsch. A ∨ B ist eine Disjunktion. • Die Formel A ∧ B (sprich: A und B) ist wahr genau dann, wenn A und B beide wahr sind. Ist mindestens eine der Formeln A oder B falsch, so ist A ∧ B falsch. A ∧ B ist eine Konjunktion. • Die Formel ¬A (sprich: nicht A) ist wahr genau dann, wenn A falsch ist, auchlich, sonst ist sie falsch. Statt ¬A ist auch die Schreibweise A gebr¨ die auch f¨ ur das Komplement von Mengen verwendet wird. ¬A ist eine Negation.

Diese Verkn¨ upfungen sind als integrierte Schaltkreise preiswert erh¨ altlich. In Abbildung 1.5 sind die dabei verwendeten Symbole angegeben. Verkn¨ upfungen von aussagenlogischen Formeln kann man u ¨ber Wahrheitswertetabellen darstellen. Hier verwenden wir 0 f¨ ur falsch und 1 f¨ ur wahr. Negation, Konjunktion und Disjunktion sind so in Tabelle 1.1 angegeben. Tabelle 1.1 Wertetabelle der aussagenlogischen Verkn¨ upfungen A

B

¬A

A∧B

A∨B

0 0 1 1

0 1 0 1

1 1 0 0

0 0 0 1

0 1 1 1

Zwei aussagenlogische Formeln sind gleich =“ genau dann, wenn sie bei ” jeder Belegung der Variablen mit Wahrheitswerten den gleichen Wahrheitswert annehmen. Verwenden wir ab jetzt statt =“ das Symbol :=“, so han” ” delt es sich um eine definierende Gleichheit. Hier weist man einem Ausdruck links vom Zeichen den Wert der rechten Seite zu. H¨ aufig sieht man auch ein ! mit einem Ausrufungszeichen gekennzeichnetes Gleichheitszeichen = oder ein anderes so markiertes Symbol. Das Ausrufungszeichen bedeutet soll sein“. ” Man verlangt also die Gleichheit und berechnet dann, was n¨ otig ist, um die Gleichheit zu erhalten. Eine aussagenlogische Formel heißt erf¨ ullbar genau dann, wenn es eine Belegung der Variablen gibt, die die Formel wahr werden l¨ asst. Sie heißt unerf¨ ullbar genau dann, wenn die Formel bei jeder Belegung der Variablen falsch ist, z. B. ist A ∧ ¬A unerf¨ ullbar. Umgekehrt heißt eine Formel, die bei jeder Variablenbelegung wahr ist, eine Tautologie (bzw. allgemeing¨ ultig). Beispielsweise ist A ∨ ¬A eine Tautologie.

17

1.4. Aussagenlogik

Die Logik-Verkn¨ upfungen weisen große Parallelen zu den Mengenoperationen auf. Der Negation ¬ entspricht bei Mengen das Komplement, der OderVerkn¨ upfung ∨ die Vereinigung ∪ und der Und-Verkn¨ upfung ∧ der Schnitt ∩. Man kann die Aussagenlogik nachbilden, indem man die Wahrheitswerte falsch“ durch die leere Menge ∅ und wahr“ durch eine nicht-leere Men” ” ge, z. B. {1}, ausdr¨ uckt. Statt der Logik-Verkn¨ upfungen kann man nun die Mengen-Verkn¨ upfungen verwenden. Das Komplement (als Negation) ist dann bez¨ uglich {1} zu berechnen. Es verwundert daher nicht, dass die Rechenregeln der Logik, die man u ¨ber Wahrheitswertetabellen nachweist, aussehen wie die der Mengenlehre: Satz 1.4 (Rechenregeln f¨ ur Logik-Verkn¨ upfungen) Seien A, B und C aussagenlogische Formeln. Dann gilt: • Kommutativgesetze: A ∧ B = B ∧ A,

A ∨ B = B ∨ A,

• Assoziativgesetze: (A ∧ B) ∧ C = A ∧ (B ∧ C),

(A ∨ B) ∨ C = A ∨ (B ∨ C),

• Distributivgesetze: A ∧ (B ∨ C) = (A ∧ B) ∨ (A ∧ C),

A ∨ (B ∧ C) = (A ∨ B) ∧ (A ∨ C).

Die Klammern geben die Reihenfolge der Operationen vor. Da sie umst¨ andlich sind, legen wir fest, dass ¬ enger bindet als ∧ und ∧ enger bindet als ∨. Dies entspricht der Regel Punkt- vor Strichrechnung“, wobei ∧ mit der ” Multiplikation und ∨ mit der Addition verglichen wird. Diese Priorit¨ aten entsprechen genau denen f¨ ur Mengenoperationen und auch denen in vielen Programmiersprachen. Allerdings gibt es auch Autoren, die die Priorit¨ aten anders definieren. Wegen des Assoziativgesetzes spielt die Reihenfolge bei der Auswertung des gleichen Operators keine Rolle. Damit k¨ onnen wir in vielen F¨allen auf Klammern verzichten. Zum Beispiel ist ¬A∨B∧C = (¬A)∨(B∧C). In der Digitaltechnik wird h¨aufig ein exklusives Oder xor“ bzw. ⊕ ver” wendet: A ⊕ B := A ∧ ¬B ∨ ¬A ∧ B. Diese Formel ist nur dann wahr, wenn entweder A oder B, aber nicht beide wahr sind. Mittels xor l¨asst sich ein bin¨ar als Liste von Nullen und Einsen gespeichertes Dokument verschl¨ usseln. Als Schl¨ ussel dient ein weiteres Do-

18

Kapitel 1. Mengenlehre und Logik

kument, das stellenweise mit dem ersten xor-verkn¨ upft wird. Dieser Vorgang ist bijektiv. Die Umkehrabbildung besteht in der erneuten Verkn¨ upfung. Viele Fehler geschehen durch falsche Negation. Hier sind die bereits von der Komplementbildung bei Mengen bekannten De Morgan’schen Regeln hilfreich, die man ebenfalls durch Aufstellen der Wahrheitswertetabelle nachrechnet: Satz 1.5 (De Morgan’sche Regeln) Seien A und B aussagenlogische Formeln. Dann gilt: ¬(A ∧ B) = ¬A ∨ ¬B

¬(A ∨ B) = ¬A ∧ ¬B. Die Negation der Aussage Sie ist jung und sch¨ on.“ ist daher Sie ist alt oder ” ” h¨asslich.“. Beispiel 1.11 (Addierwerk) In einem Computer werden Zahlen im Dualsystem (Zweiersystem) dargestellt (vgl. Seite 32). Dabei gibt es nur die Ziffern 0 und 1 (falsch und wahr), statt Zehnerpotenzen werden Potenzen von 2 verwendet. Die Zahl 10110101 im Zweiersystem entspricht der Dezimalzahl 1 · 1 + 0 · 2 + 1 · 4 + 0 · 8 + 1 · 16 + 1 · 32 + 0 · 64 + 1 · 128 = 181. Zwei Dual¨ zahlen werden addiert wie Dezimalzahlen, allerdings findet ein Ubertrag zur n¨ achsten Stelle schon dann statt, wenn die Summe gr¨ oßer als 1 ist: +

1010 111 1 1

10001 ¨ Wir betrachten die Summe zweier Ziffern A und B und eines Ubertrags Cin . ¨ Das Ergebnis ist eine Ziffer S und der n¨achste Ubertrag Cout . Die folgenden Formeln k¨onnen in der Wertetabelle (siehe Tabelle 1.2) abgelesen werden, indem man Terme f¨ ur die Spalten erstellt, in denen S bzw. Cout den Wert 1 annimmt. Diese Terme werden dann mit Oder verkn¨ upft. S = (¬A ∧ ¬B ∧ Cin ) ∨ (¬A ∧ B ∧ ¬Cin ) ∨ (A ∧ ¬B ∧ ¬Cin ) ∨(A ∧ B ∧ Cin ),

Cout = (¬A ∧ B ∧ Cin ) ∨ (A ∧ ¬B ∧ Cin ) ∨ (A ∧ B ∧ ¬Cin ) ∨ (A ∧ B ∧ Cin ) = (A ∧ B) ∨ (B ∧ Cin ) ∨ (A ∧ Cin ).

Eine Schaltung, die diese Logik realisiert, heißt Volladdierer. Zwei Zahlen werden addiert, indem man die Ziffernaddition f¨ ur jede Stelle von rechts ¨ ¨ Cin nach links durchf¨ uhrt und den Ubertrag Cout einer Stelle als Ubertrag der n¨achsten Stelle verwendet (siehe Abbildung 1.6).

19

1.4. Aussagenlogik Tabelle 1.2 Wertetabelle eines Volladdierers 0 0 0

0 0 1

0 1 0

0 1 1

1 0 0

1 0 1

1 1 1 1 0 1

S 0 Cout 0

1 0

1 0

0 1

1 0

0 1

0 1 1 1

A B Cin

Abb. 1.6 Additionswerk mittels Volladdierer

Hintergrund: Normalformen ¨ Die aussagenlogischen Formeln f¨ ur die Summe und den Ubertrag im Beispiel sind in disjunktiver Normalform. Dabei werden die Klammerterme oder-verkn¨ upft (also mit Disjunktionen verbunden). Innerhalb jedes Klammerterms gibt es nur aussagenlogische Variablen, die entweder negiert oder nicht-negiert vorkommen und und-verkn¨ upft sind. Jede Formel l¨ asst sich wie im Beispiel beschrieben durch Ablesen der Wertetabelle in eine disjunktive ¨ Normalform bringen. Ahnlich kann man jede Formel als konjunktive Normalform schreiben. Beim Addierwerk ergeben sich die konjunktiven Normalformen S = ¬(¬A ∧ ¬B ∧ ¬Cin ) ∧ ¬(¬A ∧ B ∧ Cin ) ∧ ¬(A ∧ ¬B ∧ Cin ) ∧ ¬(A ∧ B ∧ ¬Cin ) = (A ∨ B ∨ Cin ) ∧ (A ∨ ¬B ∨ ¬Cin ) ∧ (¬A ∨ B ∨ ¬Cin ) ∧ (¬A ∨ ¬B ∨ Cin ),

Cout = (A ∨ B ∨ Cin ) ∧ (A ∨ B ∨ ¬Cin ) ∧ (A ∨ ¬B ∨ Cin ) ∧ (¬A ∨ B ∨ Cin ). Hier haben wir in der Wertetabelle die Variablenwerte gesucht, die eine Null liefern sollen, und haben wie bei der disjunktiven Normalform dazu Klammer-

20

Kapitel 1. Mengenlehre und Logik

terme aus und-verkn¨ upften negierten und nicht-negierten Variablen erstellt. Negieren wir nun diese Klammerterme, so liefern die De Morgan’schen Regeln Terme mit Oder-Verkn¨ upfungen. Jeder dieser Terme generiert die Null zu den Variablenwerten, zu denen er erstellt wurde. F¨ ur alle anderen Werte liefert er eine Eins. Verbinden wir die so gewonnenen Terme mit Konjunktionen, so werden alle gew¨ unschten Nullen (und keine weiteren) erzeugt. Diese Normalformen eignen sich, um systematisch Formeln zu vereinfachen. Die konjunktive Normalform ist der Ausgangspunkt des Resolutionskalk¨ uls. Das ist ein Verfahren zur Pr¨ ufung auf Unerf¨ ullbarkeit, vgl. [Goebbels und Rethmann(2014), Kap. 1.2.6]. Eine m¨ oglichst kurze disjunktive Normalform erh¨alt man mittels eines Karnaugh-Veitch-Diagramms. Bei einem solchen Diagramm wird die Wertetabelle geschickt aufgeschrieben, damit man Terme ablesen kann, die m¨oglichst große Rechtecke von Einsen ¨ generieren. F¨ ur den Ubertrag im Beispiel ergibt sich aus der Wertetabelle: B = ¬Cin = 1 B = Cin = 1 ¬B = Cin = 1 ¬B = ¬Cin = 1 A=1 ¬A = 1

1 0

1 1

1 0

0 0

Die Variablen benachbarter Spalten (und Zeilen) unterscheiden sich durch genau eine Negation. Das gilt auch f¨ ur die erste und letzte Spalte (Zeile). F¨ ur das Rechteck aus den fett gedruckten Werten und das aus den unterstrichenen Werten lesen wir die Formeln A ∧ B sowie B ∧ Cin ab. Die noch fehlende Eins ergibt sich u ¨ber den Block A ∧ Cin , und wir erhalten insgesamt wie zuvor: Cout = (A ∧ B) ∨ (A ∧ Cin ) ∨ (B ∧ Cin ). Allgemein sucht man nach besonders großen Rechtecken, die eine oder mehrere Zeilen und Spalten umfassen und auch R¨ander u urfen. ¨berschreiten d¨

1.5 Pr¨adikatenlogik Zur Vereinfachung haben wir in der Aussagenlogik Aussagen durch Variablen ersetzt, die f¨ ur den Wahrheitswert der Aussagen stehen. In der Pr¨ adikatenlogik kommt nun ein anderer Typ von Variablen hinzu: Die Aussagen d¨ urfen selbst noch von Parametern abh¨angen. Man nennt eine Aussage, die von den Werten einer oder mehrerer Variablen abh¨angt, die Werte aus einer gewissen Grundmenge annehmen d¨ urfen, eine Aussageform. Eine Aussageform hat im Allgemeinen keinen bestimmten Wahrheitswert. Erst wenn die Variablen (z. B. x1 , x2 , . . . , xn ) durch feste Werte ersetzt werden, entsteht eine Aussage, von der feststeht, ob sie wahr oder falsch ist.

21

1.5. Pr¨ adikatenlogik

Ersetzt man nur einen Teil der Variablen, hat man eine Aussageform mit den restlichen Variablen. ur x1 und x2 Beispielsweise ist x1 = x2 eine Aussageform, in der wir f¨ Zahlen einsetzen k¨onnen. Die Aussageform wird zu einer wahren Aussage, ur x1 die wenn wir f¨ ur x1 und x2 die gleiche Zahl einsetzen. Wenn wir nur f¨ Zahl 4711 einsetzen, dann erhalten wir die neue Aussageform 4711 = x2 . Wie bei Aussagen, die wir durch aussagenlogische Variablen ersetzt haben, ersetzen wir auch Aussageformen ihrerseits durch Variablen A, B usw., die nun aber in Abh¨angigkeit der Variablen, die innerhalb der Aussageform vorkommen, mit Werten wahr und falsch belegt werden. Wir schreiben dann adikat A. beispielsweise A(x1 , x2 , . . . , xn ) und sprechen vom Pr¨ Wir k¨onnen z. B. die Aussageform x1 = x2 mit A(x1 , x2 ) bezeichnen, wobei A genau dann den Wert wahr“ annimmt, wenn man f¨ ur x1 und x2 die gleiche ” Zahl einsetzt. Unterscheidet sich also mindestens einer der Werte x1 , x2 , . . . , xn von den Werten y1 , y2 , . . . , yn , so kann auch A(x1 , x2 , . . . , xn ) einen anderen Wahrheitswert als A(y1 , y2 , . . . , yn ) haben. Aus der Aussagenlogik wird so die Pr¨ adikatenlogik. Pr¨ adikat und Aussageform sind f¨ ur uns Synonyme. Beispiel 1.12 a) A(x) := x2 > 30 ist eine Aussageform. ¬A(x) lautet x2 ≤ 30. A(x) wird zur wahren Aussage, wenn man x = 6 einsetzt. F¨ ur x = 5 ist A(x) falsch. b) F¨ ur x ∈ { rot“, gelb“, gr¨ un“} wird die Aussageform A(x) := x ist eine ” ” ” ” Ampelfarbe.“ zu einer wahren Aussage. F¨ ur x = blau“ wird sie zu einer ” falschen Aussage. Wie aussagenlogische Variablen kann man Pr¨ adikate mittels der LogikVern¨ upfungen zu pr¨adikatenlogischen Formeln verkn¨ upfen. Insbesondere sind ¨ aus wahren Folgerungen und Aquivalenzen alle Berechnungen und Beweise zusammengesetzt, siehe Tabelle 1.3. ¨ Tabelle 1.3 Wertetabelle der Folgerung und Aquivalenz A

B

A −→ B

A ←→ B

0 0 1 1

0 1 0 1

1 1 0 1

1 0 0 1

Definition 1.10 (Implikation) Seien A und B aussagen- oder pr¨ adikatenlogische Formeln. Die Folgerung bzw. Implikation A −→ B ist definiert als ¬A ∨ B und wird als Aus A folgt B.“ gesprochen. ”

22

Kapitel 1. Mengenlehre und Logik

M¨ochte man in einer Rechnung oder in einem Beweis ausdr¨ ucken, dass eine Folgerung stets wahr ist, so schreibt man statt −→ den Folgerungspfeil =⇒. Die Formel A −→ B sei f¨ ur jeden m¨oglichen Wert der Variablen der Aussageformen wahr, also A =⇒ B. Dann gilt: • Wenn A wahr ist, dann muss auch B wahr sein. Man nennt A eine hinreichende Bedingung f¨ ur B. Kann man zeigen, dass A wahr ist, dann hat man auch B gezeigt.



! Achtung

Bestimmt man alle Variablenwerte, f¨ ur die eine hinreichende Bedingung A wahr ist, so erh¨alt man in der Regel nur einige und nicht alle Werte, f¨ ur die die gefolgerte Aussageform B wahr wird.

• Umgekehrt muss B wahr sein, damit A u ¨berhaupt wahr werden kann. Daher bezeichnet man B als notwendige Bedingung f¨ ur A. Ist eine notwendige Bedingung B f¨ ur gewisse Variablenwerte erf¨ ullt, so weiß man noch nicht, ob die zu untersuchende Aussage A f¨ ur entsprechende Werte auch wahr ist. Nur wenn eine notwendige Bedingung B nicht erf¨ ullt ist, weiß man, dass die zu untersuchende Aussage A falsch ist. Sucht man alle Werte x ∈ M , f¨ ur die eine Aussageform A(x) wahr wird, so kann man mit der notwendigen Bedingung B(x) die Kandidaten f¨ ur x einschr¨anken. • Schließen kann man aus einer falschen Aussage mittels einer wahren Folgerung alles. Beispiel 1.13 Mit dem Satz von Fermat (Satz 13.1) und Folgerung 15.3 auf Seite 359 werden wir prominente Bedingungen f¨ ur die Existenz von Extremwerten kennenlernen, die Sie vermutlich bereits aus der Schulzeit kennen: • Eine notwendige Bedingung f¨ ur die Existenz eines lokalen Extremums einer Funktion f an einer Stelle x0 , an der f differenzierbar ist, ist f  (x0 ) = 0. Nur falls f  (x0 ) = 0 ist, kann in x0 ein Extremum vorliegen. Die Bedingung kann aber auch erf¨ ullt sein, wenn x0 keine Extremstelle ist. Mit dem Folgerungspfeil geschrieben lautet der Satz von Fermat: f hat ein lokales Extremum in x0 .“ ”

=⇒

f  (x0 ) = 0.

• Eine hinreichende Bedingung f¨ ur die Existenz eines lokalen Extremums einer Funktion f an einer Stelle x0 (wobei f in einer Umgebung von x0 zweimal stetig differenzierbar ist) ist f  (x0 ) = 0 und f  (x0 ) = 0. Ist diese Bedingung erf¨ ullt, weiß man, dass in x0 ein Extremum vorliegt. Die Bedingung muss aber nicht f¨ ur alle Extremstellen erf¨ ullt sein. f  (x0 ) = 0 ∧ f  (x0 ) = 0

=⇒

f hat ein lokales Extremum in x0 .“ ”

23

1.5. Pr¨ adikatenlogik

Beispiel 1.14 Sei x eine beliebige (reelle) Zahl. Dann wird die Aussageform onnen x = 2 =⇒ x2 = 4 x = 2 −→ x2 = 4 zu einer wahren Aussage, und wir k¨ schreiben: • Ist n¨amlich x = 2, so ist die Aussage x = 2 falsch und die Folgerung wahr. • Ist x = 2, so ist auch die Aussage x2 = 4 wahr, und die Folgerung ist ebenfalls wahr. Man beachte, dass f¨ ur x := −2 dagegen die Aussageform x2 = 4 −→ x = 2 amlich wahr, aber x = 2 ist zu einer falschen Aussage wird. x2 = 4 ist n¨ falsch. Damit ist die Folgerung falsch. In diesem Fall schreibt man nicht x2 = 4 =⇒ x = 2. Die Implikation ist transitiv, d. h., es gilt (es ist stets wahr): [(A −→ B) ∧ (B −→ C)] −→ [A −→ C], ist also (A −→ B) ∧ (B −→ C) wahr, so ist auch A −→ C wahr, d. h. [(A −→ B) ∧ (B −→ C)] =⇒ (A −→ C). Statt (A −→ B) ∧ (B −→ C) schreibt man auch kurz A −→ B −→ C. ¨ Definition 1.11 (Aquivalenz) Seien A und B aussagen- oder pr¨ adikaten¨ logische Formeln. Die Aquivalenz A ←→ B ist erkl¨ art als (A −→ B) ∧ (B −→ A). ¨ Die Aquivalenz ist also nur wahr, wenn A und B entweder beide wahr oder beide falsch sind. ¨ Wie bei der Folgerung schreiben wir auch das Aquivalenzzeichen mit einem ¨ doppelten Strich ⇐⇒“, wenn wir auf eine stets wahre Aquivalenz hinweisen ” m¨ochten. Gleichheit von Formeln A und B liegt genau dann vor, wenn A ←→ B f¨ ur jede Belegung der Variablen wahr ist. Gleichheit von Aussagen und Aus¨ sageformen entspricht also einer stets wahren Aquivalenz A ⇐⇒ B der Formeln. Da beim konkreten Rechnen die Aussageformen h¨ aufig Gleichungen (z. B. zwischen Zahlen oder Funktionen) sind, schreibt man aber zwischen ¨ gleiche Aussageformen das Aquivalenzzeichen und nicht das Gleichheitszeichen, damit es zu keinen Verwechselungen der Gleichheitszeichen kommt. F¨ ur ¨ eine auch historische Diskussion der Gleichheit und der Aquivalenz verweisen wir auf [Felgner(2020)]. ¨ Auch die Aquivalenz ist transitiv, d. h., es gilt [(A ←→ B) ∧ (B ←→ osungen einer Gleichung C)] =⇒ (A ←→ C). Sucht man beispielsweise nach L¨ A(x) (z. B. A(x) := [x − 2 = 1]), d. h. nach Werten x, f¨ ur die die Aussageform

24

Kapitel 1. Mengenlehre und Logik

¨ A(x) wahr wird, so macht man h¨aufig Aquivalenzumformungen A(x) ⇐⇒ B(x) ⇐⇒ C(x) ⇐⇒ · · · ⇐⇒ D(x), die f¨ ur jeden Wert x wahr sind. So stellt man sicher, dass man bei Betrachtung von D(x) statt A(x) tats¨achlich richtige L¨osungen findet (ist D(x) wahr, so auch A(x), D(x) =⇒ A(x)) und keine L¨osungen u ¨bersieht (ist A(x) wahr, so auch D(x), A(x) =⇒ D(x)). ¨ Beispiel 1.15 F¨ ur jeden Zahlenwert von x liegen hier wahre Aquivalenzen und Folgerungen vor: x − 2 = 1 ⇐⇒ x = 3,

x − 2 = 1 =⇒ x = 3 ∨ x = 1,

x2 = 4 ⇐⇒ x = 2 ∨ x = −2,

x = 2 =⇒ x2 = 4.

¨ Im Gegensatz zur Aquivalenz ist eine Folgerung auch dann noch wahr, wenn man zus¨atzliche L¨osungen dazu bekommt, z. B. gilt x = 2 =⇒ x2 = 4, aber x = 2 ←→ x2 = 4 ist nicht f¨ ur alle Werte von x wahr (s. o.). F¨ ur x = −2 kommt man nicht mehr von rechts nach links. An dieser Stelle ist eine Bemerkung zum Aufschreiben l¨ anglicher Rechnungen n¨otig. Ein Leser muss verstehen, wie Rechenschritte zusammenh¨ angen. Den Zusammenhang dr¨ uckt man u ¨ber die Symbole ⇐⇒“, =⇒“ sowie =“ ” ” ” aus: 2 2 2 2 (x + 1)(x − 1) = x − x + x − 1 = x − 1 = x − 1 . Das ist eine Aussageform. Da f¨ ur jeden Zahlenwert von x alle vier Terme den gleichen Wert haben, wird die Aussageform f¨ ur jede Zahl x zu einer wahren Aussage. Dagegen macht die Schreibweise (x + 1)(x − 1) ⇐⇒ x2 − x + x − 1 ⇐⇒ x2 − 1 ⇐⇒ x2 − 12 keinen Sinn, da die Terme (x + 1)(x − 1), x2 − x + x − 1, x2 − 1 und x2 − 12 keine Aussagen mit einem Wahrheitswert sind. Sinnvoll ist dagegen die Schreibweise (x + 1)(x − 1) = 0 ⇐⇒ x2 − x + x − 1 = 0 ⇐⇒ x2 = 1 ⇐⇒ x = 1 ∨ x = −1, wobei man statt ⇐⇒ die Implikation =⇒ benutzt, falls bei einer Umformung weitere L¨osungen hinzukommen (s. o.): x + 1 = 0 =⇒ x2 = 1. Schreibt man bei einer Rechnung =⇒“ oder ⇐⇒“, so dr¨ uckt man damit ” ” aus, dass diese logischen Verkn¨ upfungen f¨ ur alle relevanten Werte der Aussageformen wahr werden. Um die Formulierung f¨ ur alle relevanten Werte“ ” eleganter und explizit auszudr¨ ucken, bietet die Sprache der Mathematik mit Quantoren eine Formulierung: • Der Allquantor ∀ steht f¨ ur den Text f¨ ur alle“. ∀x ∈ E : A(x) ist die ” Aussage, die in Textform lautet: F¨ ur alle Elemente x von E ist A(x) eine ”

1.5. Pr¨ adikatenlogik

25

wahre Aussage.“ Oder anders formuliert: A(x) ist f¨ ur jedes x ∈ E wahr“. ” Wahre Aussagen sind beispielsweise: – ∀x ∈ { rot“, gelb“, gr¨ un“} : x ist eine Ampelfarbe.“, ” ” ” ” – ∀x ∈ {−3, −2, −1, 0, 1, 2, 3} : (x2 = 4 ←→ x = 2 ∨ x = −2). • Der Existenzquantor ∃ steht f¨ ur den Text es existiert“. ∃x ∈ E : A(x) ” ist die Aussage, die in Textform lautet: Es existiert (mindestens) ein Ele” ment von E, so dass, ersetzt man x durch dieses Element, A(x) wahr wird.“ Anders formuliert: A(x) wird f¨ ur ein x ∈ E wahr“. Wahre Aussagen sind: ” – ∃x ∈ { blau“, gelb“, gr¨ un“} : x ist eine Ampelfarbe“, ” ” ” ” – ∃x ∈ {1, 2, 3} : x2 = 4.  Der Allquantor wird oft auch miteinem großen Und ( ), und der Existenzquantor mit einem großen Oder ( ) geschrieben, da z. B.   ∀x∈{1,2,3} A(x) ⇐⇒ [A(1) ∧ A(2) ∧ A(3)],   ∃x∈{1,2,3} A(x) ⇐⇒ [A(1) ∨ A(2) ∨ A(3)]. Quantoren darf man hintereinander schalten: ∀x ∈ E ∃y ∈ F : A(x, y) ist die Aussage: Zu jedem x ∈ E existiert ein y ∈ F (das f¨ ur jedes x ein anderes ” Element sein kann), so dass A(x, y) wahr ist“. Im Umgang mit Quantoren sind einige Regeln zu beachten: • Die Reihenfolge verschiedener Quantoren darf nicht vertauscht werden. Es ist ein Unterschied, ob man sagt Zu jedem x ∈ E existiert ein y ∈ F , das ” von x abh¨angig sein darf, so dass ...“ oder Es existiert ein y ∈ F (das ” nicht von x abh¨angt), so dass f¨ ur alle x ∈ E gilt: ...“. • Bei Negation muss man die Quantoren austauschen. Wenn etwas nicht f¨ ur alle x ∈ E gilt, dann gibt es ein x ∈ E, f¨ ur das es nicht gilt. Wenn kein ur x ∈ E existiert, so dass eine Aussageform wahr wird, dann wird sie f¨ alle x ∈ E falsch: ¬[∀x ∈ E ∃y ∈ F : A(x, y)] = ∃x ∈ E : ¬[∃y ∈ F : A(x, y)] = ∃x ∈ E ∀y ∈ F : ¬A(x, y). Dahinter stecken die De Morgan’schen Regeln. Damit die Aussagen besser lesbar sind, werden wir in diesem Buch statt der Quantoren Text verwenden. Beispiel 1.16 a) Wie lautet die Negation der Aussage Alle Wege f¨ uhren ” nach Rom.“? Antwort: Es gibt einen Weg, der nicht nach Rom f¨ uhrt.“ ” b) Wie lautet die Negation der Aussage Es gibt eine Straße mit Schlagl¨ o” chern.“? Antwort: Alle Straßen sind frei von Schlagl¨ ochern.“ ”

26

Kapitel 1. Mengenlehre und Logik

Beispiel 1.17 Mit Pr¨adikatenlogik kann man programmieren. Aus Pro” grammieren in Logik“ ist der Name der Programmiersprache Prolog abgek¨ urzt. Zun¨achst definiert man in Prolog eine Datenbasis, die aus wahren Aussagen besteht. Zus¨atzlich werden Regeln (wahre Folgerungen) aufgestellt. Kann eine Aussage aus den Fakten mittels der Regeln abgeleitet werden, ist sie auch wahr, anderenfalls gilt sie als falsch. Damit hat man ein Expertensystem (wissensbasiertes System), das auf Fragen antworten kann, vgl. [Goebbels und Rethmann(2014), Kap. 1.2.6].

1.6 Beweise In der Mathematik werden wahre Aussagen als S¨ atze und Hilfss¨ atze formuliert und sind zu beweisen. Ein Hilfssatz wird auch mit Lemma bezeichnet. Ein Beweis ist eine wahre logische Folgerung (Implikation) der zu zeigenden Aussage aus bereits bewiesenen Aussagen (bekannten S¨ atzen) unter Verwendung von Begriffsbildungen (Definitionen). Da man mit den Folgerungen irgendwo beginnen muss, ergibt sich die Notwendigkeit, gewisse grundlegende Aussagen als Axiome einer Theorie zu akzeptieren (als wahr anzusehen), ohne sie zu beweisen. Im vorangehenden Beispiel u ¨bernehmen die Fakten des Prolog-Programms die Rolle von Axiomen. Wir gehen im Folgenden aus von einem zu beweisenden Satz B (Behauptung) und bezeichnen die Bedingungen, unter denen er gilt, mit A (Annahme). Zu A geh¨oren nat¨ urlich alle bisherigen Folgerungen aus den Axiomen. Dar¨ uber hinaus k¨onnen aber auch weitere Aussagen bei der Formulierung eines Satzes gefordert werden. Zu zeigen ist also die Implikation: A =⇒ B. Dazu gibt es zwei Ans¨atze: • Man zeigt mittels Zwischenaussagen, dass wenn A wahr ist, auch B wahr ist: A =⇒ C1 =⇒ C2 =⇒ · · · =⇒ B. Dies ist ein direkter Beweis. Dahinter steckt der Modus Ponens: Ist A eine wahre Aussage, und gilt A =⇒ B, dann ist auch B eine wahre Aussage. • Man nimmt an, dass B falsch ist und zeigt (mittels wahrer Folgerungen), dass dann auch A falsch ist. Unter der Voraussetzung, dass A wahr ist, ist das ein Widerspruch, und die Annahme muss falsch sein: B ist wahr. ¬B =⇒ C1 =⇒ C2 =⇒ · · · =⇒ ¬A.

27

1.6. Beweise

Dies ist ein indirekter Beweis oder ein Beweis durch Widerspruch, da man das Gegenteil der zu zeigenden Aussage zum Widerspruch f¨ uhrt. Beispiel 1.18 Wir beweisen direkt die Aussage: F¨ ur alle a, b ≥ 0 gilt: a+b 2 ≥ √ ” ab“. Auf die hier verwendeten Rechenregeln gehen wir im Detail in Kapitel 2 ein. Wir betrachten Aussageformen f¨ ur alle Zahlen a, b ≥ 0 und beginnen (unter Auslassung der Quantoren) mit einer Aussageform, die f¨ ur alle diese Zahlen wahr ist: (a − b)2 ≥ 0 =⇒ a2 − 2ab + b2 ≥ 0 =⇒ (a + b)2 ≥ 4ab



...

=⇒

+4ab

=⇒ a2 + 2ab + b2 ≥ 4ab √ a+b √ /2 ≥ ab, a + b ≥ 2 ab =⇒ 2

wobei im vorletzten Schritt die Einschr¨ankung a, b ≥ 0 verwendet wurde. Wir haben damit einen Spezialfall von Satz 3.7 auf Seite 79 gezeigt. Bei einem indirekten Beweis erh¨alt man durch die Negation der zu zeigenden Aussage eine zus¨atzliche Information, die man im Beweis benutzen kann. Beispiel 1.19 Wir beweisen die Aussage Ist n2 gerade (d. h. durch 2 teil” bar), dann ist n gerade“ durch indirekte Schlussweise. Zun¨ achst ist A := n2 ” ist gerade“ und B := n ist gerade“. Um A =⇒ B indirekt zu beweisen, zei” gen wir ¬B =⇒ ¬A, d. h. die Implikation Ist n ungerade (d. h. nicht durch ” 2 teilbar), dann ist n2 ungerade“. Sei nun n ungerade, d. h. n = 2k + 1 mit einer nicht-negativen ganzen Zahl k. Dann folgt n = 2k + 1 =⇒ n2 = 4k 2 + 4k + 1 = 2(2k 2 + 2k) + 1, wobei 2(2k 2 + 2k) offensichtlich eine gerade Zahl ist, die durch die Addition von eins ungerade wird. n2 ist also ungerade, d. h., es gilt ¬B =⇒ ¬A, und hiermit ist A =⇒ B gezeigt. Beispiel 1.20 (Halteproblem ∗ ) Wir beweisen, dass es kein Computerprogramm A gibt, das in endlicher Zeit entscheiden kann, ob ein beliebiges weiteres Computerprogramm seinerseits nach endlicher Zeit h¨ alt, d. h. zu einem Ergebnis kommt. Dieses unentscheidbare Halteproblem spielt in der Informatik eine große Rolle, da es zeigt, dass nicht alles programmierbar ist. Der Trick des hier gef¨ uhrten indirekten Beweises besteht darin anzunehmen, dass es das Programm A gibt. Damit k¨onnen wir ein Programm B konstruieren, das als Eingabe ebenfalls ein Programm erwartet. Wir wenden dann B auf sich selbst an, um einen Widerspruch zu erhalten. Die Anwendung auf sich selbst ist ein ganz typisches Vorgehen in der theoretischen Informatik und Logik. Einen ¨ahnlichen Trick haben wir auch schon bei der Betrachtung der Allmenge auf Seite 7 benutzt. Das Programm B sei (ohne formale Programmiersprache) wie folgt aufgebaut:

28

Kapitel 1. Mengenlehre und Logik

• B wendet A auf das Eingabeprogramm an. • Falls A feststellt, dass das Eingabeprogramm nicht h¨ alt, dann endet die Ausf¨ uhrung von B. • Falls A feststellt, dass das Eingabeprogramm h¨ alt, dann geht B in eine Endlosschleife, d. h., B f¨ uhrt eine Anweisung unendlich oft aus und endet nie. Jetzt starten wir das Programm B mit sich selbst als Eingabe. Falls B nach endlicher Zeit h¨alt, so kann B nicht in die Endlosschleife gehen und A muss feststellen, dass B nicht h¨alt – wir haben einen Widerspruch. Also kann B nicht nach endlicher Zeit halten. Da A wegen der Annahme nach endlicher Zeit zu einem Ergebnis kommt, geht das nur, wenn A feststellt, dass B nach endlicher Zeit fertig wird und man damit in die Endlosschleife gelangt. Damit haben wir auch in dieser Situation einen Widerspruch zum Ergebnis von A. Die Widerspr¨ uche zeigen, dass es das Programm A entgegen der Annahme nicht geben kann. H¨aufig erkennt man, dass verschiedene Aussagen v¨ ollig gleich bewiesen werden k¨onnen und beschr¨ankt sich auf eine dieser Aussagen. Es kann auch vorkommen, dass eine Einschr¨ankung f¨ ur den Beweis keine Rolle spielt, aber viel Schreibarbeit erspart. In diesen Situationen findet man h¨ aufig die Abk¨ urzung o. B. d. A., die f¨ ur ohne Beschr¨ankung der Allgemeinheit“ steht. ” Am Ende von Beweisen findet man bisweilen auch die Abk¨ urzung q. e. d.“, ” die quod erat demonstrandum“ bedeutet: was zu beweisen war“. Wir be” ” nutzen hier dagegen ein leeres K¨astchen.

Literaturverzeichnis ¨ Felgner(2020). Felgner, U.: Die Begriffe der Aquivalenz, der Gleichheit und der Identit¨ at. Jahresber. Dtsch. Math. Ver. 122, 2020, S. 109–129, https://doi.org/10.1365/ s13291-020-00214-0. Goebbels und Rethmann(2014). Goebbels, St. und Rethmann, J.: Mathematik f¨ ur Informatiker. Springer Vieweg, Heidelberg, 2014.

Kapitel 2

Reelle Zahlen In der Umgangssprache unterscheidet man h¨aufig nicht zwischen Zahlen mit und ohne Nachkommateil, Zahlen, die man als Br¨ uche schreiben kann und Zahlen, die unendlich viele Nachkommastellen ohne regelm¨ aßige Wiederholung besitzen. In der Mathematik beginnt man dagegen systematisch mit einer einfachen Zahlenmenge und erweitert diese sukzessive so, dass die g¨ angigen Rechenarten m¨oglich werden. Dabei findet man die unterschiedlichen Zahlentypen. So ben¨otigt man Br¨ uche, wenn man dividieren m¨ ochte, reelle Zahlen, wenn die Quadratwurzel aus nicht-negativen Zahlen erkl¨ art sein soll, und komplexe Zahlen, wenn die Quadratwurzel auch aus negativen Zahlen ben¨otigt wird. Wir beginnen mit den nat¨ urlichen Zahlen und erweitern diese Zahlenmenge sukzessive zu den reellen Zahlen. Im Kapitel 5 folgt dann der ¨ Ubergang zu komplexen Zahlen. Im Rahmen der nat¨ urlichen Zahlen besch¨aftigen wir uns mit Primzahlen und betrachten als Anwendung die RSA-Public-Key-Verschl¨ usselung. Die Zahlenmengen f¨ uhren uns kurz zu den Grundstrukturen der Algebra: Gruppen, Ringe und K¨orper. Wir lernen den Begriff der Abz¨ ahlbarkeit von Mengen kennen und das damit verbundene Beweisverfahren der Vollst¨ andigen Induktion, das nicht nur zum Beweis mathematischer S¨ atze sondern z. B. auch zum Korrektheitsbeweis von Computerprogrammen eingesetzt werden kann. Zentral in der Definition der reellen Zahlen ist schließlich das Vollst¨ andigkeitsaxiom, das in der Analysis die Betrachtung von Grenzwerten erm¨ oglicht.

© Der/die Autor(en), exklusiv lizenziert an Springer-Verlag GmbH, DE, ein Teil von Springer Nature 2023 S. Goebbels und S. Ritter, Mathematik verstehen und anwenden: Differenzial- und Integralrechnung, Lineare Algebra, https://doi.org/10.1007/978-3-662-68367-5_2

29

30

Kapitel 2. Reelle Zahlen

2.1 Nat¨urliche und ganze Zahlen Man erh¨alt die nat¨ urlichen Zahlen, indem man eine erste nat¨ urliche Zahl als Zeichen 1“ definiert und dann festlegt, dass mit jeder nat¨ urlichen Zahl n ” auch die Zeichenkette, die entsteht, wenn man an n die Zeichen +1“ anh¨ angt, ” eine nat¨ urliche Zahl repr¨asentiert. Diese verstehen wir als Nachfolger von n. Damit ist { 1“, 1 + 1“, 1 + 1 + 1“, 1 + 1 + 1 + 1“, . . . } die Menge der ” ” ” ” nat¨ urlichen Zahlen. Als Abk¨ urzung ersetzen wir die Zeichenketten durch die bekannten Zahlen im Zehnersystem: N := {1, 2, 3, . . . , 9, 10, 11, . . . }. urlichen Zahlen mit 0. In N0 kenN0 := {0, 1,2, 3, . . . } ist die Menge der nat¨ nen wir die u ¨bliche Addition und Multiplikation. Subtraktion und Divisioren. Man kann die on k¨onnen Ergebnisse haben, die nicht mehr zu N0 geh¨ nat¨ urlichen Zahlen mathematisch sauber mittels der Peano-Axiome einf¨ uhren, die die vorangehende Konstruktion formalisieren. uhrt Man erweitert nun N0 so, dass die Subtraktion nicht aus N0 hinausf¨ und erh¨alt Z := {0, 1, −1, 2, −2, 3, −3 . . . }, die Menge der ganzen Zahlen. Die Einf¨ uhrung negativer Zahlen war ein Meilenstein in der Mathematik. Erst seit dem 16. Jahrhundert werden sie systematisch verwendet. F¨ ur ganze Zahlen verwendet man haupts¨ achlich die Variablennamen i und j (sofern diese im jeweiligen Zusammenhang nicht durch die imagin¨are Einheit der komplexen Zahlen belegt sind) sowie k, l, m, n, aber auch weitere wie p und q, wenn aus dem Zusammenhang die Bedeutung klar ist. H¨aufig werden Teilmengen definiert, indem Elemente ausgew¨ ahlt werden, die bestimmten Bedingungen gen¨ ugen. Die Menge der geraden Zahlen ist die Menge aller ganzen Zahlen, die das Doppelte einer anderen ganzen Zahl sind. Dies schreibt man knapp Zg = {m ∈ Z : m = 2 · n, n ∈ Z} . Analog sind die ungeraden Zahlen definiert durch Zu = {m ∈ Z : m = 2 · n + 1, n ∈ Z} .



! Achtung

Die folgenden Fehler im Umgang mit negativen Zahlen fallen in Klausuren immer wieder auf:

2.1. Nat¨ urliche und ganze Zahlen

31

• Multipliziert man mit einer negativen Zahl, so sollte man das Produkt nicht angeben als n · −m, da man das Multiplikationszeichen leicht u ¨bersieht und dann eine Subtraktion vornimmt. Es ist auch u ¨blich, einen Malpunkt ganz wegzulassen. Schreiben Sie daher n · (−m) oder kurz n(−m), also z. B. 3 · (−4) statt 3 · −4. • Punktrechnung geht vor Strichrechnung: 21 = (1 + 2) · (3 + 4) = 1 + 2 · (3 + 4) = 15. Die Klammer darf nicht weggelassen werden. • Minus mal Minus ist Plus: (−n) · (−m) = (−1) · (−1) · n · m = n · m. • Subtraktion negativer Zahlen: −4 − (−3) = −4 + 3 = −1 = −7.

Dass solche Fehler nicht nur in Klausuren geschehen, sieht man am Bilanzierungsfehler der Bad Bank der Hypo Real Estate, der im Oktober 2011 bekannt wurde. Die Rheinische Post vom 31.10.2011 berichtete auf Seite A7, dass gut 55 Milliarden Euro (55 000 000 000 Euro) auf der falschen Seite der Bilanz eingetragen wurden (Vorzeichenfehler). Zieht man sie dort ab und addiert sie zur anderen Seite, dann entsteht allerdings eine Differenz von 110 Milliarden Euro. Hier stimmt vermutlich auch mit dem Zeitungsbericht etwas nicht, da diese Summe nie genannt wurde.

2.1.1 Ordnung Die nat¨ urlichen Zahlen sind total geordnet, d. h., f¨ ur zwei nat¨ urliche Zahlen m und n ist mindestens eine der beiden folgenden Aussagen wahr: • m ist kleiner oder gleich n, d. h. m ≤ n (d. h., n ist direkter oder indirekter Nachfolger von m) oder • n ist kleiner oder gleich m, d. h. n ≤ m (d. h., n ist direkter oder indirekter Vorg¨anger von m). Definition 2.1 (Ordnungsrelation) Eine Ordnungsrelation ≤“ auf ” einer beliebigen Menge E muss genau die folgenden Axiome f¨ ur alle m, n, r ∈ E erf¨ ullen: • Reflexivit¨ at: n ≤ n, • Transitivit¨ at: (n ≤ m) ∧ (m ≤ r) =⇒ n ≤ r, • Antisymmetrie: (n ≤ m) ∧ (m ≤ n) =⇒ n = m. E heißt total geordnet genau dann, wenn f¨ ur jedes Paar von Elementen n, m ∈ E gilt: (m ≤ n) ∨ (n ≤ m).

32

Kapitel 2. Reelle Zahlen

Diese Bedingungen sind offensichtlich f¨ ur den bekannten Vergleich ≤“ auf ” N erf¨ ullt. Zus¨atzlich zu ≤ werden wir die Zeichen ≥ f¨ ur gr¨ oßer oder gleich, < f¨ ur echt kleiner und > f¨ ur echt gr¨oßer verwenden, also n ≥ m := m ≤ n,

n < m := (n ≤ m) ∧ (n = m),

n > m := (n ≥ m) ∧ (n = m).

Beispiel 2.1 (Lexikographische Ordnung) Die Eintr¨ age im Index des Buchs oder in einem Lexikon sind lexikographisch geordnet. Ausgehend von der Reihenfolge A ≤ B ≤ C ≤ · · · ≤ Z der Buchstaben des Alphabets werden dabei die W¨orter zun¨achst nach dem ersten Buchstaben sortiert. Innerhalb der Gruppen mit gleichem ersten Buchstaben wird dann nach dem zweiten sortiert usw. So ist Adam ≤ Eva“ wegen A ≤ E und Fahrrad ≤ Fahrzeug“ ” ” uft wegen R ≤ Z. Die Reflexivit¨at, Transitivit¨at und die Antisymmetrie pr¨ man hier leicht nach.

2.1.2 Zahlendarstellung Wir sind es gewohnt, dass nat¨ urliche Zahlen im Dezimalsystem mit der Ziffernmenge {0, 1, . . . , 9} angegeben werden. Der Wert, f¨ ur den eine Ziffer steht, h¨ angt von der Position innerhalb der Ziffernfolge ab. Im Dezimalsystem gilt beispielsweise 123 = 1 · 102 + 2 · 101 + 3 · 100 .

Dabei geben die einzelnen Stellen Faktoren zu den Potenzen 100 = 1, 101 = 10, 102 = 100, . . . , 10n = 10  · 10 · · · 10 . Allgemeiner kann man statt n-mal

der (wegen unserer zehn Finger willk¨ urlich gew¨ ahlten) Basis 10 auch eine andere nat¨ urliche Zahl b > 1 als Basis des Zahlensystems benutzen: a = (an an−1 . . . a0 )b := an · bn + an−1 · bn−1 + · · · + a0 · b0 ,

ak ∈ {0, 1, . . . , b − 1},

wobei b0 := 1 und bk := b · bk−1 , k ∈ N (siehe Seite 42). Wie im Dezimalsystem steht links die h¨ochstwertige Stelle, w¨ ahrend man ganz rechts die Einer schreibt. In der Digitaltechnik werden Zahlendarstellungen zu Basen verwendet, die eine Zweierpotenz sind (siehe Tabelle 2.1). Beispiel 2.2 Wir stellen die Hexadezimalzahl (4e20b)16 im Dezimalsystem dar: 11·160 +0·161 +2·162 +14·163 +4·164 = 11+512+57 344+262 144 = 320 011.

33

2.1. Nat¨ urliche und ganze Zahlen Tabelle 2.1 Zahlendarstellungen mit Zweierpotenzen Basis b

Name

Ziffern

2 8 16

Dual- oder Bin¨ arsystem Oktalsystem Hexadezimalsystem

{0, 1} {0, 1, . . . , 7} {0, 1, . . . , 9, a, b, c, d, e, f }

Die Umwandlung einer Zahl aus der Darstellung zur Basis b ins Dezimalsystem kann durch geschickte Klammerung effizient mit dem HornerSchema erfolgen, das wir in Kapitel 4.6.4 behandeln. Beispiel 2.3 (Subtraktion auf dem Computer ∗ ) Die Subtraktion ganzer Zahlen wird im Computer auf die Addition zur¨ uckgef¨ uhrt, indem man negative Zahlen geschickt darstellt. Das funktioniert aber nur bei einer festen Stellenzahl, wobei die h¨ochste Stelle das Vorzeichen angibt (1 bei einer negativen Zahl). Bei einer negativen Zahl ver¨ andert man aber auch die anderen Stellen, damit die Addition m¨oglichst einfach wird. • Einerkomplement: Bei einer Dualzahl werden alle Nullen durch Einsen alt und Einsen durch Nullen ersetzt. Durch die Subtraktion 11112 − y erh¨ man das Einerkomplement der vierstelligen Dualzahl y. F¨ ur y = 10112 ist 11112 − y = 01002 das Einerkomplement. Stellt man negative Zahlen als Einerkomplement der entsprechenden positiven Zahl dar, so kann man die Subtraktion wie folgt auf die Addition zur¨ uckf¨ uhren. Dazu sehen wir uns die Differenz zweier vierstelliger Dualzahlen x und y an: x − y = x + (11112 − y) − 11112 = x + (11112 − y) − 100002 + 00012 . ¨ – Ist die f¨ unfte (h¨ochste) Stelle von x + (11112 − y) durch einen Ubertrag gesetzt (gleich eins), so ist x − y positiv. Um in diesem Fall aus x + ussen wir 11112 abziehen. Das (11112 − y) wieder x − y zu erhalten, m¨ uhrende machen wir aber in zwei Schritten: Mit −100002 lassen wir die f¨ Stelle weg und m¨ ussen schließlich noch 1 addieren. – Ist die f¨ unfte (h¨ochste) Stelle von x + (11112 − y) nicht gesetzt (gleich null), so ist x − y negativ oder null. Das Ergebnis im Einerkomplement erhalten wir u ¨ber 11112 − (−1) · [x + (11112 − y) − 11112 ] = x + (11112 − y). Nach dem Addieren von Einerkomplementen muss man also einen evtl. ¨ auftretenden Ubertrag an der h¨ochsten Stelle als 1 zum bisherigen Ergebnis ¨ addieren. Gibt es keinen Ubertrag, so entf¨allt diese Addition, und der Wert von x − y liegt bereits als Einerkomplement vor. Ein Nachteil des Einerkomplements ist, dass die Null zwei Darstellungen asst sich vermeiden: besitzt, z. B. bei vier Stellen 00002 und 11112 . Das l¨

34

Kapitel 2. Reelle Zahlen

• Das Zweierkomplement einer n-stelligen Dualzahl erh¨ alt man, indem ¨ zum Einerkomplement eins addiert wird. Sollte es einen Ubertrag an der h¨ochsten Stelle geben, so l¨asst man diesen weg. F¨ ur y = 0 ist Einerkomplement

   x−y = x−y+11112 +00012 −100002 = x+[ (11112 − y) +00012 ] −100002 .   Zweierkomplement

Addiert man zu x das Zweierkomplement von y, so kann es an der h¨ ochsten ¨ Stelle einen Ubertrag geben. Gibt es ihn, so kann man 100002 abziehen und erh¨alt ein nicht-negatives Ergebnis, z. B. 11102 − 10112 = 11102 + 01012 − 100002 = 00112 . ¨ Hat man jedoch keinen Ubertrag, so ist x − y negativ, und die Darstellung als Zweierkomplement ist bereits berechnet: 11112 − (−1) · [x + (11112 − y) + 00012 − 100002 ] + 00012 = x + (11112 − y) + 00012 .

¨ W¨ahrend man beim Einerkomplement einen Ubertrag an der h¨ ochsten Stelle ber¨ ucksichtigen muss, kann man ihn beim Rechnen mit dem Zweierkomplement einfach weglassen. Stellt man allgemeiner n-stellige Zahlen in einem Zahlensystem zur Basis b dar, so funktioniert der gleiche Trick: x − y = x + (bn − 1 − y) + 1 − bn .

2.1.3 Primzahlen In der Kryptographie spielen Verschl¨ usselungen mit Primzahlen eine wichtige Rolle (RSA-Verfahren, siehe Seite 52). Definition 2.2 (Primzahl) Eine nat¨ urliche Zahl mit Ausnahme der Eins, die nur durch sich selbst und durch die Eins ohne Rest teilbar ist, heißt Primzahl. Die ersten Primzahlen lauten: 2, 3, 5, 7, 11, 13, 17, 19, 23, 29, . . . Satz 2.1 (Primfaktorzerlegung) Jede nat¨ urliche Zahl a > 1 l¨ asst sich als endliches Produkt von Primzahlen (Primfaktoren) pk schreiben: a = p1 · p 2 · · · p n .

35

2.1. Nat¨ urliche und ganze Zahlen

Dabei sind die verwendeten Primzahlen und ihre Anzahl eindeutig bestimmt. Die Primfaktorzerlegung ist der Grund, warum die Eins keine Primzahl ist. Denn in der Zerlegung k¨onnte sonst eine beliebige Anzahl von Einsen multipliziert werden, und es g¨abe keine Eindeutigkeit mehr. Beweis (Skizze) Es ist sowohl die Existenz einer Primfaktorzerlegung als auch deren Eindeutigkeit zu zeigen. Beides l¨asst sich mit einem (indirekten) Beweis durch Widerspruch bewerkstelligen. Wir beschr¨ anken uns auf den Nachweis der Existenz, der etwas einfacher als der Beweis der Eindeutigkeit ist: Wir nehmen an, dass es nat¨ urliche Zahlen ohne eine Zerlegung gibt. Dann gibt es eine kleinste unter diesen Zahlen, die wir mit n bezeichnen. n ist keine Primzahl (sonst h¨atten wir die Primfaktorzerlegung), l¨ asst sich also durch eine Zahl m mit 1 < m < n teilen. Nun besitzen aber die kleineren n n und m eine Primfaktorzerlegung, also auch n = m · m. Damit Zahlen m haben wir einen Widerspruch zur Annahme, die falsch ist.  Wir erhalten beispielsweise die Primfaktorzerlegungen 10 = 2 · 5, 6 = 2 · 3, 18 = 2 · 3 · 3, 13 = 13

und

252 = 2 · 2 · 3 · 3 · 7.

Satz 2.2 (Gr¨ oßte Primzahl) Es gibt unendlich viele Primzahlen. Damit kann es keine gr¨oßte Primzahl geben. Beweis Wir f¨ uhren wieder einen (indirekten) Beweis mittels Widerspruch. Dazu nehmen wir an, dass es nur endlich viele Primzahlen gibt. Diese Annahme gibt uns eine Zusatzinformation, die wir im Beweis verwenden k¨ onnen. Denn nun existiert eine gr¨oßte Primzahl p. Da jede nat¨ urliche Zahl gr¨ oßer eins als Produkt der endlich vielen Primzahlen p1 , p2 , . . . , pn = p geschrieben werden kann, ist auch die Zahl q := p1 · p2 · p3 · . . . · pn + 1 als ein solches Produkt darstellbar. Dies ist aber falsch, da wegen der +1 keine der Primzahlen p1 , . . . , pn die Zahl q teilt. Damit kann die Annahme es gibt nur ” endlich viele Primzahlen“ nicht stimmen.  Definition 2.3 (Gr¨ oßter gemeinsamer Teiler) Der gr¨ oßte gemeinsame Teiler ggT(n, m) zweier nat¨ urlicher Zahlen n und m ist die gr¨ oßte nat¨ urliche Zahl, die sowohl n als auch m teilt.

36

Kapitel 2. Reelle Zahlen

Zum Beispiel ist ggT(15, 10) = 5. Man erh¨alt den gr¨ oßten gemeinsamen Teiler, indem man alle gemeinsamen Primfaktoren beider Zahlen (gem¨ aß ihrer gemeinsamen Vielfachheit) miteinander multipliziert. Statt vorhandene Primfaktorzerlegungen zu nutzen, kann man auch den Euklid’schen Divisionsalgorithmus verwenden. Um den gr¨ oßten gemeinsamen Teiler zu berechnen, dividiert man dabei die gr¨ oßere Zahl (diese sei n) durch die kleinere (diese sei m). Entsteht dabei ein Rest 0 < r < m, so wiederholt man die Division mit den neuen Zahlen n := m und m := r. Entsteht dabei wieder ein Rest r , so setzt sich das Verfahren fort mit den Zahlen n := m und m := r . Man dividiert sukzessive so lange, bis schließlich ein Rest 0 auftritt. Der zuletzt verwendete Divisor (Nenner) ist der gr¨ oßte gemeinsame Teiler. Durch den Algorithmus werden mit jeder Division die beiden Zahlen kleiner, bis schließlich der Rest der Division 0 ist (sp¨ atestens, wenn durch 1 geteilt wird). Um den Algorithmus zu beweisen, kann man zeigen, dass ggT(n, m) = ggT(n , m ) = ggT(n , m ) = . . . ist. Man nennt diese Eigenschaft eine Invariante. Das ist eine Eigenschaft, die bei jedem Durchlauf eines Algorithmus erhalten bleibt. In der Informatik beweist man u ¨ber Invarianten die Korrektheit von Programmen (vgl. Beispiel 2.11 auf Seite 48). Beispiel 2.4 Zu n = 18 und m = 12 liefert der erste Schritt des Algorithmus 18 : 12 = 1 Rest 6. Mit dem Nenner und dem Rest geht es in den zweiten Schritt: 12 : 6 = 2 Rest 0. Damit ist ggT(18, 12) = 6. Beispiel 2.5 Der rechteckige Boden eines Raums soll mit m¨ oglichst großen quadratischen Teppichplatten (keine Fugen) ausgelegt werden. Wie groß ist die maximale Kantenl¨ange der Platten bei einer Grundfl¨ ache von 2,10 m · 1,80 m, wenn keine Platten geschnitten werden sollen? Die maximale Kantenl¨ ange in cm ist ggT(210, 180) = 30. Es werden dann je 7 Platten in 6 Reihen verlegt. Definition 2.4 (Kleinstes gemeinsames Vielfaches) Das kleinste gemeinsame Vielfache kgV(n, m) von zwei nat¨ urlichen Zahlen n und m ist die kleinste nat¨ urliche Zahl, die sowohl von n als auch von m geteilt wird. Es gilt: kgV(n, m) =

n·m . ggT(n, m)

Das kleinste gemeinsame Vielfache ist genau das Produkt aller Primfaktoren der beiden Zahlen, wobei jeweils die maximale Vielfachheit eines Faktors aus beiden Primfaktorzerlegungen gew¨ahlt ist. Beispiel 2.6 kgV(18, 12) =

18 · 12 = 36. 6

37

2.1. Nat¨ urliche und ganze Zahlen

2.1.4 Fakult¨at und Binomialkoeffizient Die nat¨ urlichen Zahlen werden zum Abz¨ahlen von Mengen ben¨ otigt. Wichtige Begriffe in diesem Zusammenhang sind Fakult¨ aten und Binomialkoeffizienten. Definition 2.5 (Fakult¨ at) Die Fakult¨ at einer nat¨ urlichen Zahl n ist erkl¨art durch das Produkt n! := n · (n − 1) · (n − 2) · · · 2 · 1. Zus¨atzlich setzt man 0! := 1. Man erh¨alt beispielsweise 3! = 3 · 2 · 1 = 6 und 5! = 5 · 4 · 3 · 2 · 1 = 120. n! w¨achst sehr schnell mit n: 5! = 120, 10! = 3 628 800, 20! ≈ 2,432902008· ur ungef¨ahr (n¨ aherungsweise) gleich“. 1018 . Dabei verwenden wir ≈ f¨ ” H¨aufig ben¨otigt man die rekursive Darstellung f¨ ur n > 0: n! = n · (n − 1)!,

0! = 1.

Hier wird die Fakult¨at quasi u ¨ber sich selbst (d. h. rekursiv) definiert. Das ist so, als w¨ urde man sich am eigenen Schopf aus dem Sumpf ziehen. Im Gegensatz zu diesem Bild macht aber diese Darstellung der Fakult¨ at Sinn, da man sich damit sukzessive bis zum bekannten Startwert 0! = 1 vorarbeiten kann. Die Zahl n! gibt an, auf wie viele verschiedene Weisen man n Objekte in einer Liste anordnen kann: F¨ ur den ersten Listenplatz gibt es n M¨ oglichkeiten, f¨ ur den zweiten bleiben dann noch n − 1, bis schließlich nur eine M¨ oglichkeit f¨ ur den letzten Listenplatz u alt man also n · (n − 1) · ¨brig ist. Insgesamt erh¨ (n − 2) · · · 2 · 1 = n! M¨oglichkeiten. Jede Anordnung heißt eine Permutation der n Objekte. Mit Potenzen kann man oft leichter Rechnen als mit Fakult¨ aten. Veratgr¨oßern wir in n! jeden Faktor zu n, so erhalten wir die ganz grobe Absch¨ at ¨ ahnlich wie nn . Dieser zung n! ≤ nn . Tats¨achlich verh¨alt sich die Fakult¨ Zusammenhang heißt Stirling’sche Formel und wird sp¨ ater auf Seite 423 behandelt. In der Kombinatorik – aber auch im Umgang mit Polynomen – sind Ausdr¨ ucke wichtig, die sich aus mehreren Fakult¨aten zusammensetzen. Definition 2.6 (Binomialkoeffizient) Es seien n ∈ N0 und m ∈ Z.

n! n , falls n ≥ m ≥ 0, := (n−m)!·m! m 0, falls m < 0 oder m > n,

38

Kapitel 2. Reelle Zahlen

heißt der Binomialkoeffizient von n und m und wird n u ¨ber m“ gespro” chen. n dr¨ uckt aus, wie viele verschiedene genau m-elementige TeilDie Zahl m mengen man aus einer Menge mit n Elementen bilden kann. Statt von melementigen Teilmengen spricht man auch von Kombinationen von m verschiedenen Elementen aus einer Menge von n Elementen. Da eine Kombination eine Menge ist, spielt die Reihenfolge ihrer Elemente keine Rolle. Beispielsweise betrachten wir Kombinationen von drei Elementen aus der Menge {1, 2, 3, 4, 5}. Eine Kombination ist z. B. {1, 3, 4}. {3, 1, 4} ist keine weitere Kombination, sie stimmt mit {1, 3, 4} u ¨berein. Die Anzahl der Kombinationen erh¨alt man nun so: Zun¨achst z¨ahlen wir auch unterschiedliche Reihenfolgen als unterschiedliche Kombinationen. Dann ergeben sich f¨ ur das erste Element der Kombination n M¨oglichkeiten, f¨ ur das zweite n − 1, bis schließlich f¨ ur das m-te noch n − m + 1 Elemente zur Verf¨ ugung stehen. Die Anzahl ist also n!/(n − m)!. Beim Lotto bildet man Teilmengen von m = 6 Elementen aus einer Menge mit n = 49 Elementen. W¨ urde die Reihenfolge der Zahlen eine Rolle spielen, so h¨atte man 49 · 48 · 47 · 46 · 45 · 44 =

49! 49 · 48 · · · 1 = 43 · 42 · · · 1 (49 − 6)!

verschiedene m¨ogliche Ziehungsergebnisse. Nun m¨ ussen wir noch ermitteln, wie oft wir die gleiche Kombination gez¨ahlt haben. m Zahlen kann man aber gerade auf m! Weisen anordnen: F¨ ur die erste Position gibt es m M¨ oglichkeiten, f¨ ur die zweite m − 1 usw. Dividieren wir durch die Anzahl der Mehrfachz¨ahlungen, ergibt sich genau der Binomialkoeffizient, der aufgrund dieser ¨ Uberlegung eine nat¨ urliche Zahl ist. Beim Lotto gibt es also  insbesondere 49 49! = 13 983 816 verschiedene Zahlenkombinationen aus sechs = (49−6)!·6! 6 Zahlen. Satz 2.3 (Rechenregeln f¨ ur Binomialkoeffizienten) F¨ ur n, m ∈ N0 gilt:



n n , = a)

m n − m n n n n = n. = = 1 und = b) 1 n−1 n 0 c) Eine wichtige Beziehung, mit der man die Binomialkoeffizienten sukzessive berechnen kann, ist f¨ ur 1 ≤ m ≤ n:

n+1 n n . (2.1) = + m m m−1

2.2. Rationale Zahlen

39

Beweis Die Regeln folgen direkt aus der Definition des Binomialkoeffizienten. a) F¨ ur n < m sind beide Seiten null, sonst gilt:

n! n! n! n = = = m (n − m)! · m! m! · (n − m)! (n − (n − m))! · (n − m)!

n . = n−m b) Wir erhalten mit der Definition



n! n! n n = = = 1 und =1 0 n (n − 0)! · 0! (n − n)! · n! sowie f¨ ur n ≥ 1:

n! n! n n = = = n und = n. n−1 1 1! · (n − 1)! (n − 1)! · 1! F¨ ur n = 0 sind nach Definition auch die beiden Binomialkoeffizienten gleich null. c) Die Additionsregel (2.1) ergibt sich auch direkt aus der Definition:

n! n n! n = + + m m−1 (n − m + 1)! (m − 1)! (n − m)! m! n! · (n − m + 1) n! · m + = (n − m + 1)! m! (n − m + 1)! m!

n! m + n! (n − m + 1) n! (n + 1) n+1 . = = = m (n − m + 1)! m! (n − m + 1)! m!  Die Binomialkoeffizienten k¨onnen mittels (2.1) u ¨ber das Pascal’sche Dreieck, siehe Abbildung 2.1, berechnet werden, wobei am Rand stets der Wert 1 steht. Im Inneren des Dreiecks erh¨alt man den Wert eines Binomialkoeffizienten durch Addition der beiden Vorg¨anger. Da sich die Binomialkoeffizienten hier als Summe nat¨ urlicher Zahlen ergeben, sind sie insbesondere selbst nat¨ urliche Zahlen. Das war aber schon klar, da sie Anzahlen von Kombinationen beschreiben.

2.2 Rationale Zahlen Als N¨achstes soll auch jede Division mit einer Zahl aus Z \ {0} erkl¨ art sein. Dazu erweitert man Z zu

40

Kapitel 2. Reelle Zahlen

0 0

1 0

2  0

3 0

4 0

=1

@ @ 

=1

3 1

@ @  4 1

=1

=4

=1

@ @  2 1

=3 @ @  4 2

=1 @ @  1 1

=2 @ @  3 2

=6

=1 @ @  2 2

=3 @ @  4 3

=1 @ @  3 3

=4

=1 @ @  4 4

=1

Abb. 2.1 Pascal’sches Dreieck zur Berechnung der Binomialkoeffizienten

Q :=

p : p ∈ Z, q ∈ Z \ {0} , q

die Menge der rationalen Zahlen (Br¨ uche). Die rationalen Zahlen Q sind also Br¨ uche ganzer Zahlen. Ein und dieselbe rationale Zahl x = pq kann in verschiedener Weise als Bruch dargestellt werden, z. B. 23 = 46 = 20 30 . Die Darstellung wird eindeutig, wenn verlangt wird, dass p und q teilerfremd sind, d. h. eine weitere K¨ urzung des Bruchs nicht mehr m¨ oglich ist, und dass der Nenner positiv ist. In der Schule benutzt man eine Darstellung von Br¨ uchen als gemischte 1 1 = 3 + wird geschrieben als 3 . Hier besteht die Gefahr der Zahlen: 10 3 3 3 Verwechselung mit 3 · 13 . Da es u ¨blich ist, den Multiplikationspunkt ganz wegzulassen, weiß man nicht, ob 3 13 = 3 + 13 oder 3 13 = 3 · 13 gemeint ist. Daher raten wir von der Verwendung gemischter Zahlen ab. Die ganzen und die rationalen Zahlen sind total geordnet. Wir benutzen die u ¨blichen Symbole ≥, >, ≤ und m und x ≥ m f¨ • m heißt ein Minimum von E (Notation: m = min E) genau dann, wenn m eine gr¨oßte untere Schranke ist und zus¨ atzlich m ∈ E gilt. Beispiel 2.15 a) E := {3, 5, 7} ⊂ N ist nach unten beschr¨ ankt mit dem Infimum und Minimum 3. b) Die Menge {x ∈ Q : x < 2} ⊂ Q ist zwar durch 2 nach oben beschr¨ ankt, und 2 ist auch die kleinste obere Schranke (das Supremum), aber 2 geh¨ ort nicht zur Menge, so dass es kein Maximum gibt. c) Michael Ende beschreibt in einem Abenteuer von Jim Knopf und Lukas dem Lokomotivf¨ uhrer die Einwohner von Mandala so, dass jeder einen kleineren an der Hand h¨alt. Damit gibt es keinen oder unendlich viele Einwohner. Die Menge der Gr¨oßen der Einwohner ist nach unten beschr¨ ankt mit 0. Es gibt aber kein Minimum, denn ein Einwohner, der so groß w¨ are wie das Minimum, m¨ usste wieder einen kleineren an der Hand halten. Die Existenz eines Minimums oder Maximums ist also nicht selbstverst¨ andlich. Eine kleinste obere Schranke ist eindeutig, d. h., man kann von der kleinsten oberen Schranke und damit von dem Supremum reden, analog: das Infimum. Dies folgt direkt aus der Eigenschaft der Ordnungsrelation: Sind M

55

2.3. Reelle Zahlen

und M  kleinste obere Schranken, dann gilt nach Definition weder M < M  noch M  < M . Damit bleibt nur M  = M . Definition 2.10 (Ordnungsvollst¨ andiger geordneter K¨ orper ∗ ) Ein K¨orper K, der als Menge total geordnet ist und f¨ ur den die Ordnung vertr¨aglich mit Addition und Multiplikation ist, d. h., f¨ ur alle a, b, c ∈ K gilt a > b =⇒ a + c > b + c, a > 0 ∧ b > 0 =⇒ a · b > 0, und f¨ ur den das sogenannte Vollst¨ andigkeitsaxiom gilt, heißt ein ordnungsvollst¨ andiger geordneter K¨ orper. Das Vollst¨ andigkeitsaxiom lautet: Jede nach oben beschr¨ankte, nicht-leere Teilmenge E ⊆ K hat ein Supremum in K.

(2.4)

Man kann zeigen, dass es (bis auf Umbenennung der Zahlen) genau einen ordnungsvollst¨andigen geordneten K¨orper gibt und dass dieser den K¨ orper Q umfasst, siehe [Ebbinghaus et al.(1992), S. 42]. Damit k¨ onnen wir f¨ ur den ordnungsvollst¨andigen geordneten K¨orper den Namen reelle Zahlen R vergeben, R ist durch das vorangehende Axiomensystem festgelegt. Zugegeben, das Vollst¨andigkeitsaxiom wirkt zun¨ achst unnat¨ urlich kompliziert. Die hier gew¨ahlte Formulierung eignet sich aber sehr f¨ ur alle Beweise, in denen man die Existenz einer reellen Zahl √ zeigen m¨ ochte (z. B. sp¨ ater ange in eibei Grenzwerten). Anschaulich ist klar, dass 2 als Streckenl¨ nem rechtwinkligen Dreieck existiert, siehe Abbildung 2.4. Diese Anschauung muss man mit einem Axiom formulieren, damit man sich f¨ ur weitere Rechnungen von der Anschauung l¨ o sen kann. Das Axiom erf¨ u llt seinen Zweck: √ 2 := sup{x ∈ Q : x2 ≤ 2} ∈ R existiert. In Q hat diese Menge dagegen kein Supremum. Hintergrund: Alternativen zum Vollst¨ andigkeitsaxiom Die antiken Griechen haben sich auf rationale Zahlen beschr¨ ankt, die aber f¨ ur ihre Geometrie nicht ausreichten. Eudoxos (4. Jh. v. Chr.) hat die L¨ ucke mit einer Proportionenlehre geschlossen. Bis zur Arbeit von Richard Dedekind (1831–1916) gab es aber außer diesem geometrischen Verst¨ andnis keine saubere Definition einer entsprechenden Zahlenmenge R, was insbesondere beim Umgang mit Grenzwerten problematisch war. Ein Dedekind’scher Schnitt besteht aus zwei nicht-leeren Teilmengen A, B ⊂ Q mit A ∪ B = Q, so dass jedes Element von A kleiner als alle Elemente von B ist. Jedes Paar (A, B), das diese Bedingung erf¨ ullt, entspricht einer reellen Zahl (die an der Nahtstelle der Mengen A und B liegt und gleich

56

Kapitel 2. Reelle Zahlen

sup A = inf B ist). Man kann die reelle Zahl auch als (A, B) schreiben. Das war zuvor damit gemeint, dass die reellen Zahlen nur bis auf Umbenennung der Zahlen eindeutig festgelegt sind. Im Gegensatz zum Zugang u ¨ber das Vollst¨andigkeitsaxiom hat man hier eine konkrete, wenn auch ungewohnte Darstellung der Zahlen. Sie ist gleichwertig mit der u ¨blichen Dezimalbruchdarstellung, auf die wir noch genauer eingehen. Statt des Vollst¨andigkeitsaxioms kann man auch direkt die Existenz von ¨ Grenzwerten fordern. Aquivalent zu (2.4) ist, dass jede Cauchy-Folge (siehe Definition 9.8 auf Seite 269) von reellen Zahlen einen Grenzwert in R besitzt. Da wir im Buch die Zugeh¨origkeit des Supremums zu R verlangen, ergibt sich diese Alternative als Satz 9.8, Seite 270.

Man erh¨alt durch Multiplikation der Elemente einer nicht-leeren, nach unten beschr¨ankten Menge reeller Zahlen mit −1 eine nicht-leere, nach oben beschr¨ankte Menge. Mit dem Vollst¨andigkeitsaxiom ergibt sich damit auch, dass jede nicht-leere, nach unten beschr¨ankte Menge reeller Zahlen ein Infimum besitzt. Sollte Mandala Bewohner haben (siehe Beispiel 2.15), so existiert das Infimum ihrer Gr¨oßen. Lemma 2.2 (Eigenschaft eines Supremums ∗ ) Eine wichtige Eigenschaft des Supremums s ∈ R einer nicht-leeren, nach oben beschr¨ ankten Menge E ⊂ R ist, dass es zu jeder noch so kleinen Zahl ε > 0 ein x ∈ E gibt mit s − x < ε. (2.5) Man kann dem Supremum mit Elementen der Menge E ⊂ R also beliebig nahekommen. Dabei ist nat¨ urlich nicht ausgeschlossen, dass x = s gew¨ ahlt werden kann, falls s ∈ E. Der griechische Buchstabe ε (epsilon) wird in der Mathematik immer dann verwendet, wenn es um kleine positive Zahlen geht. Daher lautet der k¨ urzeste Mathematiker-Witz: ε < 0“. ” Beweis Wir beweisen (2.5) indirekt: W¨ urde die Eigenschaft (2.5) n¨ amlich nicht gelten, g¨abe es zu einem ε > 0 kein x ∈ E mit s − x < ε, d. h., f¨ ur alle x ∈ E gilt s − x ≥ ε, also x ≤ s − ε. Dann ist aber auch bereits s − ε eine obere Schranke – im Widerspruch dazu, dass s die kleinste obere Schranke ist.  Immer wenn es um grundlegende Aussagen zu Grenzwerten geht, steckt sp¨ater in letzter Konsequenz das Vollst¨andigkeitsaxiom dahinter. Allerdings ben¨otigt man es nur f¨ ur Beweise der mathematischen S¨ atze und nicht f¨ ur die Anwendung der Mathematik in den Ingenieurwissenschaften. Anschaulicher ist eine Charakterisierung der reellen Zahlen als Dezimalbr¨ uche. Wir

57

2.3. Reelle Zahlen

haben eingangs gesehen, dass die rationalen Zahlen u ¨ber endliche oder pe¨ riodische Dezimalbr¨ uche dargestellt werden k¨ onnen. Der Ubergang von Q zu R besteht nun genau darin, dass man auch alle unendlichen, nichtperiodischen Dezimalbr¨ uche als Zahlen √ zul¨asst. Diese heißen irrational, da sie keine rationalen Zahlen sind. 2 ist eine irrationale Zahl, die als √ unendlicher, nicht-periodischer Dezimalbruch geschrieben werden kann: 2 = 1,4142135623730950.... Hat man einen positiven Dezimalbruch mit unendlich vielen Nachkommastellen, so ist dar¨ uber eindeutig eine reelle Zahl festgelegt: Zu jedem n ∈ N schneiden wir die Zahlendarstellung hinter der n-ten Nachkommastelle ab und bilden aus den sich ergebenden rationalen Zahlen eine Menge M , also beispielsweise M = {1, 1,4, 1,41, 1,414, 1,4142, . . . }. Diese ist nicht-leer und z. B. nach oben beschr¨ankt durch den Vorkommateil +1, also im Beispiel nach oben beschr¨ankt durch die Zahl 2. Die beschriebene reelle Zahl ist dann sup M . Bei einem negativen Dezimalbruch f¨ uhrt das Bilden des Infimums zur zugeh¨origen reellen Zahl. Hat man umgekehrt eine reelle Zahl, so kann man aus dieser durch Einschachteln eine Dezimalbruchdarstellung gewinnen. Im Rahmen von Reihen besch¨aftigen wir uns auf Seite 286 noch einmal genauer mit der Dezimalbruchdarstellung.

2.3.3 Variablennamen Beliebte Variablennamen f¨ ur reelle Zahlen sind x, y, u, v, s, t. Da sehr schnell die f¨ ur Variablen zur Verf¨ ugung stehenden Buchstaben ersch¨ opft sind, unterscheidet man Variablen oft durch einen Index. Dabei schreibt man eine Zusatzinformation etwas kleiner unten rechts an die Variable (und nicht rechts daneben, da dies wie eine Multiplikation aussieht). So haben wir bereits x1 , x2 und x3 benutzt. Der Index kann auch durch eine andere Variable bestimmt werden: xk . Mit k = 2 ist dann xk = x2 . Auch das reicht noch nicht aus, so dass z. B. f¨ ur Winkelangaben zus¨atzlich griechische Buchstaben zum Einsatz kommen (siehe Tabelle 2.2). Abst¨ande werden h¨ aufig mit δ und sehr kleine positive Zahlen mit ε bezeichnet. Tabelle 2.2 Ausgew¨ ahlte griechische Buchstaben α η ξ ϕ Γ

alpha eta xi phi Gamma

β ϑ π χ Π

beta theta pi chi Pi

γ κ

ψ Σ

gamma kappa rho psi Sigma

δ λ σ ω Φ

delta lambda sigma omega Phi

ε μ τ Δ Ω

epsilon m¨ u tau Delta Omega

58

Kapitel 2. Reelle Zahlen

2.3.4 Intervalle Wichtige Teilmengen der reellen Zahlen sind die Intervalle. Definition 2.11 (Intervalle) Es seien a, b ∈ R mit a ≤ b. Dann unterscheiden wir folgende endliche Intervalle: • [a, b] := {x ∈ R : a ≤ x ≤ b} heißt abgeschlossenes Intervall. ¨ • ]a, b[:= {x ∈ R : a < x < b} heißt offenes Intervall. Ublich ist auch die Schreibweise (a, b) :=]a, b[. • [a, b[:= {x ∈ R : a ≤ x < b} und ]a, b] := {x ∈ R : a < x ≤ b} heißen halboffene Intervalle. Alternative Schreibweisen sind [a, b) := [a, b[ und (a, b] :=]a, b]. Unendliche Intervalle sind von der Bauart • [a, ∞[:= {x ∈ R : x ≥ a} und ] − ∞, a] := {x ∈ R : x ≤ a} • ]a, ∞[:= {x ∈ R : x > a} und ] − ∞, a[:= {x ∈ R : x < a}. Das Symbol ∞ bedeutet unendlich“, ∞ und −∞ sind keine reellen Zahlen, ” sondern stets im Zusammenhang mit den entsprechenden Intervallen (und sp¨ater mit Grenzwerten) zu verstehen. d. h., Mengen der Bauart [−∞, a[, [−∞, a], ]a, ∞], [a, ∞] sind nicht definiert, da ∞ oder −∞ zur Menge geh¨ oren w¨ urde. Der Begriff abgeschlossen“ deutet darauf hin, dass Supremum und In” fimum jeder nicht-leeren Teilmenge E ⊆ [a, b] im Intervall enthalten sind. sup E ∈ [a, b],

inf E ∈ [a, b].

(2.6)

Eine Abfolge von Intervallen mit reellen Intervallgrenzen nennt man eine Intervallschachtelung, wenn jedes Intervall ganz im vorhergehenden Intervall enthalten ist und wenn die Intervalll¨angen gegen 0 gehen. Aufgrund der Vollst¨andigkeit von R f¨ uhrt eine Intervallschachtelung auf ein Element aus R (siehe √Satz 9.6 auf Seite 267, dort wird mittels Intervallschachtelung als Beispiel 2 n¨aherungsweise berechnet).

2.3.5 Die Zahlen e und π Die beiden wichtigsten irrationalen Zahlen (unendliche, nicht-periodische Dezimalbr¨ uche) sind die Euler’sche Zahl (Leonhard Euler, 1707–1783) e=

1 1 1 1 1 1 + + + + + + · · · = 2,7182818..., 0! 1! 2! 3! 4! 5!

(2.7)

59

2.3. Reelle Zahlen

R(n)

D(n)

r d(n) Abb. 2.6 Zur Berechnung des Kreisumfangs

die f¨ ur die Differenzialrechnung wichtig ist (sp¨ater mehr, siehe Beispiele 9.12 und 9.13 auf Seite 260), und die Kreiszahl π = 3,14159265..., die den F¨ acheninhalt eines Kreises mit Radius 1 angibt. F¨ ur einen Kreis mit Radius r ist der Fl¨acheninhalt πr2 (vgl. Beispiel 9.6 auf Seite 250). Beispiel 2.16 Aus dem Fl¨acheninhalt kann man den Kreisumfang 2πr ableiten (siehe Abbildung 2.6): • Berechnet man ann¨ahernd den Fl¨acheninhalt eines Kreises mit Radius r mittels eines n-Ecks In mit Umfang nd(n), das innerhalb des Kreises liegt, so ist  2 r2 − d(n) d(n) 4 2 . πr ≥ n 2 Der Bruch auf der rechten Seite ist der Fl¨ acheninhalt eines Dreiecks. Er entsprichtdem Fl¨acheninhalt eines Rechtecks mit den Kantenl¨ angen d(n)/2 und r2 − (d(n)/2)2 (Satz des Pythagoras, siehe Abbildung 2.3 auf Seite 50). In der Mathematik nennt man eine ann¨ ahernde Berechnung eine Approximation. Durch geeignet große Wahl von n kann man den Umfang u des Kreises beliebig genau durch nd(n) ann¨ ahern. F¨ ur große n  2

gegen r. Damit ist πr2 ≥ u 2r , also u ≤ 2πr. strebt der Term r2 − d(n) 4 • Approximiert man den Fl¨acheninhalt mittels eines n-Ecks An mit dem Umfang nD(n), das außerhalb des Kreises liegt, so ist  2 D(n) R(n)2 − D(n) 4 2 . πr ≤ n 2 Durch geeignet große Wahl von n kann man den Umfang u des Kreises beliebig genau durch nD(n) und  den Radius r beliebig genau durch R(n) 2 gegen r. Damit ist πr2 ≤ ann¨ahern. F¨ ur große n strebt R(n)2 − D(n) 4 r u 2 , also u ≥ 2πr.

Zusammen erhalten wir aus a) und b) den Kreisumfang u = 2πr.

60

Kapitel 2. Reelle Zahlen

¨ 2.3.6 Uberabz¨ ahlbarkeit der reellen Zahlen ∗ Wer den Abschnitt u ¨ber die Abz¨ahlbarkeit der Mengen N, Z und Q (siehe Kapitel 2.2.3) gelesen hat, sieht hier, dass die Elemente von R nicht mehr abz¨ahlbar sind. Die Abz¨ahlbarkeit von Q haben wir mit der Cantor-Diagonalisierung bewiesen. Auf Cantor geht ein zweites Diagonalargument zur¨ uck, mit dem gezeigt wird, dass bereits die reellen Zahlen zwischen 0 und 1 nicht abz¨ ahlbar sind. Dazu nehmen wir das Gegenteil an, d. h., es gibt eine Abz¨ ahlreihenfolge von reellen Zahlen x1 = 0, x1,1 x1,2 x1,3 . . . x2 = 0, x2,1 x2,2 x2,3 . . . x3 = 0, x3,1 x3,2 x3,3 . . . .. . xk = 0, xk,1 xk,2 xk,3 . . . xk,k . . . , .. . wobei xk,i die i-te Nachkommastelle einer Dezimalbruchdarstellung der kten reellen Zahl ist, also xk,i ∈ {0, 1, . . . ,9}. Damit konstruieren wir eine neue Zahl, die sogenannte Diagonalzahl y = 0, y1 y2 y3 . . . , deren i-te Nachkommastelle definiert ist u ¨ber die Hauptdiagonale der obigen Auflistung der Nachkommastellen als 1, falls xi,i = 1, yi := 2, falls xi,i = 1. F¨ ur die Konstruktion von y muss man wieder wissen, dass tats¨ achlich jeder Dezimalbruch mit beliebigen Nachkommastellen eine reelle Zahl ist (siehe Seite 274). Jetzt unterscheidet sich aber 0 < y < 1 von der Darstellung jeder Zahl xi , i ∈ N, mindestens an der i-ten Nachkommastelle. Sie ist damit andlich ist das nicht, auch eine von allen xi verschiedene Zahl. So selbstverst¨ da z. B. 0,1 = 0,09 zwei verschiedene Dezimalbruchdarstellungen hat. Diese Mehrdeutigkeiten treten aber nur bei endlich vielen Nachkommastellen und Neunerperioden auf, die bei unserer Konstruktion nicht auftreten. (Man kann zeigen, dass die Dezimalbruchdarstellung eindeutig wird, wenn man nur unendlich viele Nachkommastellen zul¨asst). Damit haben wir einen Widerspruch dazu, dass {x1 , x2 , . . . } bereits alle reellen Zahlen zwischen 0 und 1 umfasst. R ist nicht abz¨ahlbar. Daher nennt man R u ahlbar. R ist also deutlich m¨ achtiger als Q. ¨ berabz¨ Das wird uns bei Grenzwertbetrachtungen helfen.

Literaturverzeichnis

61

In der Vorlesung eines Kollegen gab es an dieser Stelle den Einwand, dass ¨ man mit der Diagonalisierung auch die Uberabz¨ ahlbarkeit von N beweisen k¨onne: Man schreibe die nat¨ urlichen Zahlen in einer unendlich langen Liste untereinander und konstruiere eine weitere Zahlendarstellung, die sich an der Einerstelle von der ersten Zahl, an der Zehnerstelle von der zweiten Zahl, usw. unterscheidet. Die entstehende Zahlendarstellung hat dann aber unendlich viele Dezimalstellen. Es kann sich dabei nicht um eine nat¨ urliche Zahl handeln, da es zwar unendlich viele nat¨ urliche Zahlen gibt, jede einzelne aber nur endlich viele Stellen hat. Schließlich ergibt sie sich durch endlich viele Additionen der Eins. Daran sieht man, dass es durchaus wichtig ist, dar¨ uber nachzudenken, dass das konstruierte Gegenbeispiel tats¨ achlich in der betrachteten Zahlenmenge enthalten ist. Eine wichtige Fragestellung in der Entwicklung der Mathematik im 20. Jahrhundert war, ob es unendliche Teilmengen von R gibt, die mehr Elemente als Q, aber weniger Elemente als R enthalten. Dabei sagt man, dass zwei Mengen genau dann die gleiche Anzahl von Elementen haben, wenn sie durch eine bijektive Abbildung ineinander u uhrt werden k¨ onnen. Die von Can¨berf¨ tor formulierte Kontinuumshypothese besagt, dass jede unendliche Teilmenge von R entweder mit einer bijektiven Abbildung auf N oder auf R u uhrt ¨berf¨ werden kann. Cantor ist beim Versuch, diese Hypothese zu beweisen oder zu widerlegen, psychisch und k¨orperlich zu Grunde gegangen. Tats¨achlich haben Kurt G¨odel 1938 und Paul Cohen 1963 zusammen gezeigt, dass die Hypothese auf Basis der Axiome der Mengenlehre weder bewiesen noch verworfen werden kann. Nimmt man realistischerweise an, dass die u ¨blichen Axiome der Mengenlehre widerspruchsfrei sind, so gilt: • Die Axiome der Mengenlehre zusammen mit der Hypothese sind widerspruchsfrei. • Die Axiome der Mengenlehre zusammen mit der negierten Hypothese sind ebenfalls widerspruchsfrei. Das bedeutet: Man kann weder beweisen, dass die Kontinuumshypothese gilt, noch kann man das Gegenteil zeigen. Das ist vergleichbar mit der Unentscheidbarkeit des Halteproblems, die in Beispiel 1.20 auf Seite 27 gezeigt wird. Die Mathematik hat hier ihre Grenzen.

Literaturverzeichnis Ebbinghaus et al.(1992). Ebbinghaus, H.-D. et al.: Zahlen. Springer, Berlin Heidelberg, 1992. Goebbels und Rethmann(2014). Goebbels, St. und Rethmann, J. Mathematik f¨ ur Informatiker. Springer Vieweg, Heidelberg, 2014. Hachenberger(2005). Hachenberger, D.: Mathematik f¨ ur Informatiker. Pearson, M¨ unchen, 2005.

Kapitel 3

Rechnen mit reellen Zahlen In diesem Kapitel geht es um das elementare Rechnen mit reellen Zahlen. So werden beispielsweise Gleichungen und Ungleichungen gel¨ ost. F¨ ur quadratische Gleichungen wird die p-q-Formel verwendet, und allgemein wird mit Wurzeln und Betr¨agen gerechnet. Der Umgang mit dem Summen-Zeichen wird ge¨ ubt, und mit Vollst¨andiger Induktion werden wichtige Summenformeln wie der Binomische Lehrsatz bewiesen.

3.1 Potenzen und Wurzeln F¨ ur die reellen Zahlen k¨onnen wir nun die Rechenregeln f¨ ur Potenzen, die wir f¨ ur Br¨ uche kennengelernt haben und die auch f¨ ur reelle Zahlen gelten, um die Wurzeln erweitern. √ osung der Gleichung x2 = a, Eine zweite Wurzel a als nicht-negative L¨ a ≥ 0 ben¨otigt man auch zur L¨osung allgemeiner quadratischer Gleichungen der Form x2 + px + q = 0. Satz 3.1 (p-q-Formel) Die Gleichung x2 + px + q = 0 hat genau die reellen L¨osungen     p p 2 p p 2 − q und x2 = − 2 − − q, x1 = − 2 + 2 2

 2 sofern die Diskriminante D := p2 − q nicht-negativ ist. Ist hingegen D < 0, so existiert keine reelle L¨osung.

© Der/die Autor(en), exklusiv lizenziert an Springer-Verlag GmbH, DE, ein Teil von Springer Nature 2023 S. Goebbels und S. Ritter, Mathematik verstehen und anwenden: Differenzial- und Integralrechnung, Lineare Algebra, https://doi.org/10.1007/978-3-662-68367-5_3

63

64

Kapitel 3. Rechnen mit reellen Zahlen

Beweis Wir beweisen die Formel mittels quadratischer Erg¨ anzung:  p 2  p 2 +q = x+ − + q. 2 2 2 2 2  2  Zu x2 + px + q = 0 ist damit x + p2 = p2 − q ¨ aquivalent. Die p-qFormel ergibt sich nun durch Ziehen der Wurzel, sofern die Diskriminante dies zul¨asst.  x2 + px + q = x2 + px +

 p 2



 p 2



! Achtung

Ein beliebter Fehler im Umgang mit der p-q-Formel ist das Weglassen des Minuszeichens von − p2 . Die Diskriminante bestimmt die Anzahl der L¨ osungen. Bei D = 0 gibt es nur eine, bei D > 0 gibt es zwei. Bei mehreren L¨ osungen kann man diese uhrt auf x1 = 1 und x2 = −1. Als durch Indizes unterscheiden: x2 = 1 f¨ auchlich. Man kann abk¨ urzende Schreibweise ist daf¨ ur auch x1,2 = ±1 gebr¨ nat¨ urlich auch die L¨osungen als Menge schreiben: x2 = 1 ⇐⇒ x = 1 ∨ x = −1 ⇐⇒ x ∈ {1, −1}.

Beispiel 3.1 Zwei Strecken mit L¨angen a und b, 0 < a < b stehen im Verh¨ altnis des goldenen Schnitts, wenn das Verh¨altnis der gr¨ oßeren b zur kleineren a dem Verh¨altnis der Gesamtl¨ange beider Strecken zur gr¨ oßeren entspricht, also

2 a+b b a 1 b b b = ⇐⇒ = 1 + = 1 + b ⇐⇒ − − 1 = 0. a b a b a a a √

Die p-q-Formel liefert nun die beiden L¨osungen ab = 1±2 5 . Da die Stre√ ckenl¨angen a und b positiv sind, muss ab = 1+2 5 sein. Die Zahl heißt der goldene Schnitt. Dieses Streckenverh¨altnis wird als sch¨ on empfunden und in der Architektur und Kunst verwendet. Außerdem findet man den goldenen Schnitt an vielen Stellen in der Natur (siehe Abbildung 3.1) und auch in der Mathematik. Er wird uns bei Zahlenfolgen (siehe Seite 265) und Eigenwerten (siehe Seite 630) wiederbegegnen. Analog zur zweiten Wurzel von x ≥ 0 existieren auch n-te Wurzeln: Definition 3.1 (Reelle Wurzeln) Die n-te Wurzel (n ∈ N) von x ∈ R mit x√≥ 0 ist die eindeutige Zahl y ∈ R, y ≥ 0, mit y n = x. Schreibweise: y = n x = x1/n .

65

3.1. Potenzen und Wurzeln

Abb. 3.1 Der √goldene Schnitt b = a+b = 1+2 5 a b

Einige Bemerkungen zur Definition: 1, falls n gerade ist, n • Wegen (−1) = gilt: −1, falls n ungerade ist, – Ist x ≥ 0, so gilt f¨ ur gerades n mit y n =√x auch (−y)n = x. Die n Gleichung y = x hat dann die L¨osungen ± n x. – Ist x negativ und n ungerade, so ist y n = x ⇐⇒ (−1) · y n = −x ⇐⇒ (−y)n = −x, √ √ so dass −y = n −x bzw. y = − n −x. Bei ungeradem √n benutzt man √ daher auch f¨ ur negatives x die Schreibweise n x := − n −x. – Ist x negativ und n gerade, so hat die Gleichung y n = x aber keine √ n L¨osung, so dass daf¨ ur x nicht definiert ist. √ Beispiel 3.2 a) 3 −27 = −3. √ 4 b) −16 existiert nicht als reelle Zahl (aber als komplexe, siehe Kapitel 5). • Die Schreibweise x1/n passt f¨ ur x ≥ 0 zu den Rechenregeln f¨ ur Potenzen, denn n  1 x1/n = x n · n = x. • Wir k¨onnen nun auch mit rationalen Exponenten p/q, p ∈ Z, q ∈ N, rechnen: xp/q = [xp ]

1/q

=

√ q

xp f¨ ur x ≥ 0.

Vorsicht: So darf nicht f¨ ur Basen x < 0 gerechnet werden:  √ 2 −1 = (−1) 2 = (−1)2 = 1 = 1.

66

Kapitel 3. Rechnen mit reellen Zahlen

Exponenten, die bislang nur f¨ ur Br¨ uche definiert sind, k¨ onnen sogar beliebige reelle Zahlen sein. Dabei nutzt man aus, dass die rationalen Zahlen in R dicht liegen. Das bedeutet, dass man (z. B. durch Abschneiden von Nachkommastellen) zu einer Zahl y ∈ R rationale Zahlen y1 , y2 , y3 , . . . ∈ Q finden kann, die gegen“ y streben, d. h., deren Abstand zu y immer kleiner wird ” und sich null ann¨ahert (eine exakte Formulierung holen wir nach, wenn wir Folgenkonvergenz eingef¨ uhrt haben, siehe Satz 9.4 auf Seite 263). F¨ ur x > 0 streben die Zahlen xy1 , xy2 , xy3 , . . . gegen eine Zahl, die wir xy nennen. Die Rechenregeln f¨ ur Potenzen gelten unver¨ andert auch f¨ ur reelle Exponenten.

3.2 Summen und Produkte, Binomischer Lehrsatz 3.2.1 Summenzeichen und Produktzeichen  Das Summen-Symbol (großes Sigma) wird verwendet, um kurz eine Summe mit vielen gleichartigen Summanden hinzuschreiben. n  k=1

ak := a1 + a2 + · · · + an .

Dabei verwendet man eine Laufvariable (Index), die die ganzen Zahlen von einem Startwert (hier 1) bis zu einem Zielwert (hier n) durchl¨ anuft. Wenn die Laufvariable k von m bis n laufen soll, dann schreibt man k=m . Unter dem Summenzeichen steht also u ur die Lauf¨blicherweise der Startwert f¨ variable (hier k = m) und dar¨ uber der Zielwert (hier n). F¨ ur jeden Wert der Laufvariable wird ein Summand berechnet und zur Summe addiert. Die Summanden d¨ urfen damit von der Laufvariablen abh¨ angen. In Kapitel 10 werden wir u ¨ber die hier vorgestellten endlichen Summen hinausgehen und unendliche Summen (Reihen) einf¨ uhren. Diese werden helfen, Funktionen als Summen einfacherer Funktionen darzustellen, mit denen man besser rechnen kann. 5 Beispiel 3.3 a) k=1 k 2 = 1 + 4 + 9 + 16 + 25. 1 001 b) k=−1 000 k = 1 001 + 1 000 − 1 000 + 999 − 999 + · · · + 1 − 1 + 0 = 1 001. n c) k=−n a = (2n + 1)a, wobei a eine Konstante ist. Man beachte, dass es hier 2n+1 Summanden gibt, da auch der Index 0 mitgez¨ ahlt werden muss. Eine Summe kann in einer Programmiersprache mit ahlschleife beneiner Z¨ rechnet werden. Die Berechnung der Summe s := k=m ak der Zahlen ak mit einem C-Programm sieht z. B. so aus: s =0; f o r ( k=m; k n setzen wir also k=m ak = 0. Beispiel 3.5 a) Wir betrachten eine Teleskopsumme, in der sich aufeinander folgende Summanden paarweise aufheben: n  k=1

  n  n

 k 1 k+1 1 1 = − − = k(k + 1) k(k + 1) k(k + 1) k k+1 k=1

k=1

68

Kapitel 3. Rechnen mit reellen Zahlen n n+1  1 1 1 − =1− . = k k n+1 k=1

(3.1)

k=2

Es bleiben nur der erste und letzte Summand u ¨brig. Man zieht bildlich diese Summe aus zwei Summanden durch Einf¨ ugen konstruktiver Nullen“ ” wie ein Teleskop auseinander. Das gilt auch f¨ ur die n¨ achste Summe: 5  (−1)k = −1 + 1 − 1 + 1 − 1 = −1. b) k=1

Beispiel 3.6 (Gauß’sche Summenformel) F¨ ur alle n ∈ N gilt n 

k=

k=1

n(n + 1) . 2

Diese Formel hat der Legende nach der wohl bedeutendste deutsche Mathematiker Carl Friedrich Gauß (1777–1855) im Schulunterricht gefunden, als er die Zahlen von 1 bis n := 100 addieren sollte. Er bemerkte, dass 1 + 100 = 101, 2 + 99 = 101, . . . . Jede der n2 = 50 Additionen liefert also den Wert n + 1 = 101, und die Summe ist 5 050. Wir zeigen nun die Formel f¨ ur allgemeines n mittels Vollst¨andiger Induktion: • Induktionsanfang:

1 

k=1=

k=1

1·2 2

ist wahr.

• Induktionsannahme: F¨ ur ein n ∈ N gelte

n 

k=

k=1

n(n+1) . 2

• Induktionsschluss: Mit der Induktionsannahme ist n+1  k=1

k=

(n + 1)(n + 2) 2

zu zeigen. Dazu spalten wir den letzten Summanden (f¨ ur k = n + 1) ab. Die Induktionsannahme kann dann f¨ ur die Darstellung der verbleibenden Summe genutzt werden. Das ist ganz typisch f¨ ur den Beweis von Summenformeln:  n  n+1   Induktionsannahme n(n + 1) + (n + 1) k= k + (n + 1) = 2 k=1 k=1 n  (n + 1)(n + 2) = (n + 1) · +1 = , 2 2 d. h., die Aussage ist auch f¨ ur n+1 wahr. Damit ist die Identit¨ at mittels Induktion f¨ ur alle n ∈ N gezeigt, und wir k¨onnen sie k¨ unftig benutzen. Auch der Name Gauß wird uns noch in verschiedenen anderen Zusammenh¨ angen wiederbegegnen.

69

3.2. Summen und Produkte, Binomischer Lehrsatz

Analog zum Summen-Symbol gibt es eine Kurzschreibweise f¨ ur das Pro dukt vieler gleichartiger Faktoren, bei der ein großes Pi ( ) als Produktzeichen verwendet wird: n  k=1

ak := a1 · a2 · · · an .

Eine leere Summe ist zu null definiert, man verwendet also das neutrale Element der Addition. F¨ ur ein leeres Produkt, bei dem die obere Indexgrenze kleiner als die untere ist, wird der Wert eins verwendet – passend zum neutralen Element der Multiplikation. Beispiel 3.7 a)

c)

3  k=1 n  k=1

k = 1 · 2 · 3,

b)

m 

a = an+m+1 ,

k=−n

1 2 3 n 1 k = · · · ··· · = . k+1 2 3 4 n+1 n+1

Analog zur Teleskopsumme nennt man ein Produkt wie unter c) ein Teleskopprodukt.

3.2.2 Geometrische Summenformel und Anwendungen Mittels Vollst¨andiger Induktion k¨onnen wir nun eine Formel beweisen, auf der die Finanzmathematik beruht und die wir zudem sp¨ ater im Umgang mit Reihen ben¨otigen. Lemma 3.1 (Geometrische Summe) Sei q eine reelle Zahl mit 0 = q = 1. F¨ ur alle n ∈ N0 gilt: n  k=0

qk = q0 + q1 + q2 + q3 + · · · + qn =

1 − q n+1 . 1−q

(3.2)

F¨ ur die konkreten Zahlenwerte q = 12 (vgl. Abbildung 10.1 auf Seite 275) und n = 3 verifizieren wir die Formel (3.2). Einsetzen liefert f¨ ur die linke bzw. die rechte Seite in (3.2): 3 k  1 k=0

2

=1+

1 1 − 23+1 15 1 1 1 + + = bzw. = 2 4 8 8 1 − 21

15 16 1 2

=

15 . 8

70

Kapitel 3. Rechnen mit reellen Zahlen

Wir beweisen nun auch (3.2) mittels Vollst¨andiger Induktion nach n. Beweis • Induktionsanfang f¨ ur n = 0: 0 

qk = q0 = 1 =

k=0

1 − q 0+1 1−q = . 1−q 1−q

• Induktionsannahme: F¨ ur ein n ∈ N gelte • Induktionsschluss: Zu zeigen ist n+1 

q k = q n+1 +

k=0

n 

qk

k=0 n+1

=

(1 − q)q

n+1 

qk =

k=0

Induktionsannahme

=

n 

qk =

k=0

1−q n+1 1−q .

1−q n+2 1−q .

q n+1 +

1 − q n+1 1−q

q n+1 − q n+2 + 1 − q n+1 1 − q n+2 + 1 − q n+1 = = . 1−q 1−q 1−q 

Anwendungen der geometrischen Summenformel findet man in vielf¨ altiger Art im Bereich der Finanz- und Versicherungsmathematik. Wir betrachten Beispiele zur Aufzinsung und zur Rentenrechnung. ur n Jahre mit einer j¨ ahrlichen VerBeispiel 3.8 Eine Geldsumme K0 wird f¨ zinsung von p% angelegt. Statt Jahre k¨onnen im Folgenden auch beliebige andere Zeitspannen gew¨ahlt werden. Wir berechnen das Gesamtkapital Kn nach Ende des Anlagezeitraums. p , Am Ende des ersten Jahres erh¨alt man zu K0 einen Zinsgewinn von K0 · 100 p = K + · K = so dass zu Beginn des zweiten Jahres ein Kapital K 1 0 0 100   p p als neues Anfangskapital vorliegt. Mit dem Zinsgewinn K1 · 100 K0 1 + 100  p = beginnt dann das dritte Jahr mit dem Kapital K2 = K1 1 + 100   p 2 K0 1 + 100 . Schließlich erh¨alt man am Ende des n-ten Jahres den Geldbetrag  p n , n = 0, 1, 2, . . . K n = K0 1 + 100 Diese Gleichung heißt in der Finanzmathematik die Leibniz’sche Zinseszinsformel. Im konkreten Fall der Verzinsung eines Anfangskapitals K0 = 5 000 Euro mit einem j¨ahrlichen Zins p von 4,5% erh¨ alt man am Ende von n = 15 Jahresperioden ein Endkapital K15 = 5 000 · (1 + 0,045)15 = 9676,41 Euro. In diesem Beispiel haben wir noch keine Summen ben¨ otigt. Das ¨ andert sich aber bei Ein- oder Auszahlungen. Beispiel 3.9 Wird im Rahmen eines Sparplans regelm¨ aßig zu Beginn oder alternativ zum Ende einer Zinsperiode eine feste Einzahlung E geleistet, so

3.2. Summen und Produkte, Binomischer Lehrsatz

71

spricht man von einer vorsch¨ ussigen bzw. nachsch¨ ussigen Rentenzahlung. Der Name deutet an, dass es sich statt einer Einzahlung auch um eine Auszahlung (negative Einzahlung) handeln kann. Der Gesamtbetrag inklusive der Zahlungen und Zinsen wird als Rentenendwert bezeichnet. Wir berechnen den vorsch¨ ussigen Rentenendwert Rn nach n Zinsperioden bei einem Zinssatz von p > 0 Prozent. Im konkreten Fall sollen zu Beginn jedes Monats 100 Euro eingezahlt werden, die am Monatsende verzinst werden. Der monatliche Zinssatz betrage 0,5%, und wir berechnen den vorsch¨ ussigen Rentenendwert nach 5 Jahren. Die erste Einzahlung K0 = E ist das zu verzinsende Anfangskapital f¨ ur die erste Periode, so   dass vor der zweiten Einzahlung dieses Kapital p p = E 1 + 100 angewachsen ist. Zusammen mit auf R1 = K0 1 + 100 der zweiten Einzahlung E wird in der zweiten Periode ein Kapital K1 =  p + E verzinst. Das ergibt am Ende der zweiten Periode einen E 1 + 100       p p 2 p Betrag von R2 = K1 1 + 100 = E 1 + 100 . Fortgesetzte + E 1 + 100 Rechnung ergibt am Ende der n-ten Periode den Rentenendwert    p n  p n−1 p  + 1+ + ··· + 1 + Rn = E 1 + 100 100 100 n    k p =E 1+ . 100 k=1

Setzt man q = 1 + Rn = E

p 100 ,

n  

so ist q = 1, und mit der Formel (3.2) folgt

1+

k=0

=E·

p k 1 − q n+1 −E −E =E· 100 1−q

(1 − q n+1 ) − (1 − q) q − q n+1 qn − 1 =E· = Eq · . 1−q 1−q q−1

p p Bei einem monatlichen Zinssatz 100 = 0,005, d. h. q = 1 + 100 = 1,005 erfolgen die Einzahlungen u ¨ber n = 60 Monate. Damit ist bei Einzahlungen von E = 100 Euro nach 60 Monaten ein Rentenendwert angespart von

R60 = 100 · 1,005 ·

1,00560 − 1 = 7 011,89 Euro . 1,005 − 1

Beispiel 3.10 Die Berechnung des Rentenendwerts aus dem vorangehenden Beispiel ist auch f¨ ur Kredite u aufig vereinbart man f¨ ur ¨ber x Euro wichtig. H¨ einen festen Zeitraum (z. B. 10 Jahre) einen festen Zinssatz p%, p > 0. Zum Zeitpunkt der Drucklegung war ca. p = 3,5% realisierbar. Man muss dann p + T Euro bezahlen, wobei T ein fester Tilgungsin jeder Zinsperiode x · 100 betrag ist. Bei einer von den Banken angebotenen minimalen Tilgung von 1% ist T = 0,01 · x. Die H¨ohe der Zahlung orientiert sich also stets an der urspr¨ unglichen Kredith¨ohe. Tats¨achlich reduzieren sich aber durch die Til-

72

Kapitel 3. Rechnen mit reellen Zahlen

gung mit der Zeit die Schulden. Die Bank verlangt als Geb¨ uhr nur p% der tats¨achlichen Restschuld. p% der Differenz der Restschuld zur urspr¨ unglichen Kredith¨ohe gehen damit zus¨atzlich in die Tilgung. Die H¨ ohe der ersten Tilp · T usw. Die Summe der Tilgungen gung ist T , die der zweiten ist T + 100 ist identisch mit dem zuvor betrachteten Rentenendwert und betr¨ agt nach n Zahlungsperioden T

 1+ p k 1+ =T 100

n−1  k=0

 p n 100 p 100

−1

.

Die Restschuld nach n Zahlungsperioden ist die Differenz aus x und diesem Wert. Die H¨ohe der festen Tilgung T ergibt sich damit im Allgemeinen aus einer geplanten Kreditlaufzeit von N Zahlungsperioden zu T =

p 100  p N 100

x· 1+

. −1

Je h¨oher der Zins p ist, desto niedriger kann die Tilgung gew¨ ahlt werden, da die Zinsen f¨ ur die Differenz zwischen Kredith¨ ohe und Restschuld in die Tilgung fließen.

3.2.3 Binomischer Lehrsatz Die Binomische Formel (vgl. Abbildung 3.2) (a + b)2 = a2 + 2ab + b2 l¨ asst sich mit Binomialkoeffizienten etwas komplizierter schreiben:





2 0 2 2 1 1 2 2 0 2 0 2 1 1 2 0 a b + a b + a b (a + b) = a b + 2a b + a b = 0 1 2 2  2 k 2−k a b = . k k=0

Allerdings erm¨oglicht die Schreibweise, die Formel allgemeiner zu fassen. Satz 3.3 (Binomischer Satz) F¨ ur n ∈ N gilt: n

(a + b) =

n  n

k=0

k

ak bn−k .

(3.3)

73

3.2. Summen und Produkte, Binomischer Lehrsatz a2

a·b

 ⎫ ⎪ ⎪ ⎪ a⎪ ⎬

a·b

b2

⎪  ⎪ ⎪ ⎪ b⎭

a+b

Abb. 3.2 Interpretation der Binomischen Formel (a + b)2 = a2 + 2ab + b2 als Summe von vier Teilfl¨ achen eines Quadrats mit Kantenl¨ ange a + b und Fl¨ acheninhalt (a + b)2

F¨ ur gr¨oßere Werte von n rechnet man mit dieser Formel viel schneller als bei sukzessivem Ausmultiplizieren. Beweis • Induktionsanfang f¨ ur n = 1: 1  1

k=0

k

ak b1−k =



1 1 a = a + b. b+ 1 0

n   • Induktionsannahme: F¨ ur ein n ∈ N gelte (a + b)n = k=0 nk ak bn−k .  k n+1−k n+1  . • Induktionsschluss: Zu zeigen ist (a + b)n+1 = k=0 n+1 k a b (a + b)n+1 = (a + b)(a + b)n = (a + b) =

= = (2.1)

= =

=

n  n

k k=0

n+1 

ak+1 bn−k +

k=0

n  n k=0

k

n  n

k

ak bn−k

ak bn+1−k

n  n n k n+1−k k n+1−k a b a b + k−1 k k=1 k=0 



n 

n n n n+1  n n+1 k n+1−k a b + a b + + k k−1 n 0 k=1



n

n n+1  n + 1 k n+1−k n n+1 a b a b + + k n 0 k=1



n

n + 1 n+1 0  n + 1 k n+1−k n + 1 0 n+1 a b a a b b + + k n+1 0 k=1 n+1  n + 1 ak bn+1−k . k k=0

 ur −b und n = 2 Neben (a + b)2 = a2 + 2ab + b2 wird auch der Spezialfall f¨ als Binomische Formel bezeichnet:

74

Kapitel 3. Rechnen mit reellen Zahlen

(a − b)2 = a2 − 2ab + b2 . Setzen wir im Binomischen Satz n = 3, so erhalten wir (a + b)3 =







3 3 3 3 · a3 + · a2 b + · ab2 + · b3 0 1 2 3

= a3 + 3a2 b + 3ab2 + b3 . Der Binomische Satz wird h¨aufig nicht oder falsch angewendet: 625 = (2 + 3)4 = 24 + 34 = 97. Statt die Potenzen einzeln auszurechnen, muss man (a + b)4 = 1 · a4 + 4 · a3 b + 6 · a2 b2 + 4 · a · b3 + 1 · b4 benutzen. Mit dem Binomischen Satz ist n n  n k n−k  n 1 ·1 . = 2n = (1 + 1)n = k k k=0

k=0

n

Interpretation: k ist die Anzahl der k-elementigen Teilmengen einer Menge  n n mit n Elementen. k=0 k ist daher die Gesamtanzahl aller Teilmengen einer Menge mit n Elementen. Sie ist 2n . Das hatten wir uns auch schon in Kapitel 1 anhand eines Entscheidungsbaums u ¨berlegt (siehe Abbildung 1.1). Die folgende Regel wird als dritte Binomische Formel bezeichnet: (a − b)(a + b) = a2 + ab − ba − b2 = a2 − b2 . Bis auf den Namen hat diese Formel nicht viel mit dem Binomischen Satz gemein. Allerdings ist Sie beim Rechnen mit Wurzeln und komplexen Zahlen sehr hilfreich, wie wir noch sehen werden.

3.3 Betr¨age und Ungleichungen Um den Abstand zweier reeller Zahlen anzugeben, ben¨ otigen wir den Betrag. Vielfach sind wir aber gar nicht am exakten Abstand interessiert und m¨ ochten nur eine mehr oder weniger grobe Absch¨atzung machen. Dazu rechnen wir dann mit mit Ungleichungen. Das ist z. B. typisch f¨ ur Grenzwertuntersuchungen in Buchteil II.

75

3.3. Betr¨ age und Ungleichungen

3.3.1 Betr¨age

Definition 3.2 (Betrag) Mit | · | bezeichnet man den Absolut-Betrag (oder kurz: Betrag) einer reellen Zahl: x, f¨ ur x ≥ 0, |x| := (3.4) −x, f¨ ur x < 0. Der Betrag ist also nicht-negativ, ein negatives Vorzeichen wird durch den Betrag entfernt. |x| entspricht dem Abstand von x zum Nullpunkt auf der Zahlengerade: | − 4| = 4, |3| = 3. |x − y| ist der Abstand zweier reeller Zahlen x und y. Satz 3.4 (Rechenregeln f¨ ur den Betrag) Es seien a, b, c ∈ R. Dann gilt • |x| ≤ c ist gleichbedeutend mit −c ≤ x ≤ c. • Der Betrag eines Produkts ist gleich dem Produkt der Betr¨ age: |a · b| = |a| · |b|,

 a  |a|   , falls b = 0.  = b |b|

Da der Betrag u uhrt die Aufl¨ osung ¨ber eine Fallunterscheidung definiert ist, f¨ eines Betrags automatisch zur Untersuchung von F¨ allen. Beispiel 3.11 a) F¨ ur x = −4 ist ⎧ x−3 ur x < −4,  ⎪  x+4 , f¨  x − 3  ⎨ x−3 = −  ur − 4 < x < 3,  x + 4  ⎪ x+4 , f¨ ⎩ x−3 , f¨ ur x ≥ 3. x+4 Hier wurde die Variable x in (3.4) durch x−3 uft, wo ¨berpr¨ x+4 ersetzt und u dieser Bruch negativ und wo positiv oder 0 ist. b) |x − 2| ≤ 3 ⇐⇒ −3 ≤ x − 2 ≤ 3 ⇐⇒ −3 + 2 ≤ x ≤ 3 + 2 ⇐⇒ −1 ≤ x ≤ 5.

3.3.2 Ungleichungen Ungleichungen mit Zahlen k¨onnen ¨aquivalent umgeformt werden, indem zu beiden Seiten ein gleicher Wert addiert wird oder beide Seiten mit einer positiven Zahl multipliziert werden. Die folgenden Ungleichungen sind f¨ ur

76

Kapitel 3. Rechnen mit reellen Zahlen

die gleichen Zahlen erf¨ ullt und damit ¨aquivalent: 1 5x + 1 > 2x ⇐⇒ 3x + 1 > 0 ⇐⇒ 3x > −1 ⇐⇒ x > − . 3



! Achtung

Ein Fehler wird jedoch h¨aufig bei der Multiplikation einer Ungleichung mit einer negativen Zahl gemacht: Hier wird aus >“ n¨ amlich −1 und 5x + 1 > 2x ⇐⇒ 1 > −3x ⇐⇒ −

1 < x. 3

Ungleichungen treten bei praktischen Problemstellungen im Alltag h¨ aufig auf, wie das folgende Beispiel zeigt. Beispiel 3.12 Der Preis f¨ ur den bezogenen elektrischen Strom besteht aus einer monatlichen Grundgeb¨ uhr und einem variablen Verbrauchsanteil. Die Stadtwerke bieten folgende (monatliche) Tarife an: • Tarif A: Grundgeb¨ uhr 6 Euro, Preis pro 1 kWh: 0,25 Euro, • Tarif B: Grundgeb¨ uhr 8 Euro, Preis pro 1 kWh: 0,21 Euro. F¨ ur welche monatlichen Verbrauchsmengen ist Tarif A g¨ unstiger als Tarif B? Zur L¨osung bezeichne x den Verbrauch in kWh pro Monat. Dann erhalten wir die Kostenfunktionen tA (x) = 6 + 0,25 · x,

tB (x) = 8 + 0,21 · x.

F¨ ur einen Verbrauch x ist Tarif A g¨ unstiger als B genau dann wenn tA (x) < tB (x): 6 + 0,25 · x < 8 + 0,21 · x ⇐⇒ 0,04 · x < 2 ⇐⇒ x < 50. Da der Stromverbrauch nie negativ werden kann, lautet die L¨ osungsmenge {x ∈ R : 0 ≤ x < 50}. Bei einem Monatsverbrauch bis 50 kWh ist Tarif A g¨ unstiger B. Satz 3.5 (Rechenregeln f¨ ur Ungleichungen) F¨ ur Zahlen a, b, c gilt (vgl. Definition 2.10 auf Seite 55): a) Aus a < b und b < c folgt a < c (Transitivit¨ at der Ordnungsrelation).

77

3.3. Betr¨ age und Ungleichungen

b) Die Addition einer Zahl auf beiden Seiten ¨ andert eine Ungleichung nicht: a b · c. • Sind a > 0 und b > 0, dann folgt aus a < b, dass ab < 1 und 1b < a1 , also 1 1 ¨ a > b . Beim Ubergang zu Kehrwerten kehrt sich die Ungleichung um.

H¨aufig interessieren nicht tats¨achliche Gr¨oßen, sondern man ist nur an einer Absch¨atzung nach oben interessiert. Bei der Untersuchung von Grenzwerten in Buchteil II muss man z. B. komplizierte Ausdr¨ ucke so vergr¨ oßern, dass man sieht, dass sie unter einer vorgegebenen Schranke bleiben. Dabei hilft h¨ aufig die Regel: Ein Bruch positiver Zahlen wird vergr¨ oßert, indem der Z¨ ahler vergr¨oßert wird und/oder der Nenner verkleinert wird. Teilt man durch weniger, so wird der Betrag einer Zahl gr¨oßer. Beispiel 3.13 a) 1 < 2 =⇒ 1 · 3 < 2 · 3 =⇒ 3 < 6 und 1 < 2 =⇒ 1 · (−4) > 2 · (−4) =⇒ −4 > −8. b) (2 > 0) ∧ (9 > 0) =⇒ 2 · 9 = 18 > 0, (−2 < 0) ∧ (−9 < 0) =⇒ (−2) · (−9) = 18 > 0, (−2 < 0) ∧ (9 > 0) =⇒ (−2) · 9 = −18 < 0. c) 0 < 2 < 8 =⇒ 12 > 18 . Die vielleicht wichtigste Beziehung der Analysis (das ist das Teilgebiet der Mathematik, mit dem wir uns in Buchteil II besch¨ aftigen) ist die Dreiecksungleichung. Sie ist das elementare Werkzeug, das z. B. bei Stetigkeits- und Differenzierbarkeitsfragen verwendet wird. Im Gegensatz zur Algebra, bei der die Gleichheit beim Rechnen im Mittelpunkt steht, basiert die Analysis auf Absch¨atzungen.

78

Kapitel 3. Rechnen mit reellen Zahlen

Lemma 3.2 (Dreiecksungleichung) F¨ ur a, b ∈ R gilt: |a + b| ≤ |a| + |b|,

(3.5)

    |a| − |b| ≤ |a − b|.

(3.6)

Die Absch¨atzung (3.5) ist die eigentliche Dreiecksungleichung. Ihr Name wird verst¨andlich, wenn wir diese Gleichungen f¨ ur komplexe Zahlen u angen ¨ber L¨ im Dreieck erl¨autern (siehe Lemma 5.2 auf Seite 155). Sie wird bewiesen, indem man die beiden Kombinationen aus a · b < 0 und a · b ≥ 0 diskutiert. Haben a und b das gleiche Vorzeichen (einschließlich null), also a · b ≥ 0, so sind beide Seiten gleich: |a + b| = |a| + |b|. Sind die Vorzeichen dagegen verschieden, d. h. a · b < 0, so ist die linke Seite echt kleiner als die rechte. Die Absch¨atzung (3.6) heißt Dreiecksungleichung nach unten. Sie folgt aus der Dreiecksungleichung: |a| − |b| = |a − b + b| − |b| ≤ |a − b| + |b| − |b| = |a − b|, −(|a| − |b|) = |b| − |a| = |b − a + a| − |a| ≤ |b − a| + |a| − |a| = |b − a| = |a − b|. Da | |a| − |b| | gleich |a| − |b| oder gleich −(|a| − |b|) ist, haben wir in beiden F¨allen die Dreiecksungleichung nach unten bewiesen. Beispiel 3.14 a) 11 = |4 − (−7)| ≥ ||4| − | − 7|| = |4 − 7| = 3 (Dreiecksungleichung nach unten), b) 9 = |3 + 6| ≤ |3| + |6| = 9, 3 = |3 − 6| ≤ |3| + | − 6| = 9 (Dreiecksungleichung). Bei der Absch¨atzung der Gr¨oße von Potenzen hilft der folgende Satz. Satz 3.6 (Bernoulli’sche Ungleichung) F¨ ur jede Zahl x > −1 und jedes n ∈ N0 gilt die Bernoulli’sche Ungleichung (1 + x)n ≥ 1 + n · x.

(3.7)

Beweis Wir f¨ uhren eine Vollst¨andige Induktion nach der Variablen n ∈ N0 durch. Ungewohnt ist vielleicht, dass mit x > −1 eine weitere Variable vorkommt. Da x u ¨berabz¨ahlbar viele reelle Zahlen annehmen kann, ist eine Induktion nach x nicht m¨oglich. Zu einem Wert von x gibt es nicht den Nachfolgewert, denn dazu m¨ usste man eine beliebig kleine Zahl zu x addieren: x+0,1 ist nicht der Nachfolger, x + 0,0001 schon eher, aber was ist mit x + 0,000001?

79

3.3. Betr¨ age und Ungleichungen

F¨ ur einen bestimmten Wert von n lautet die zu beweisende Aussage: F¨ ur ” ussen in jedem Schritt alle x ∈ R mit x > −1 gilt: (1 + x)n ≥ 1 + n · x“. Wir m¨ der Induktion alle m¨oglichen Werte von x bedenken. • Induktionsanfang: F¨ ur n = 0 ist (1 + x)0 = 1 = 1 + 0 · x. Ist also n = 0, so gilt die Ungleichung f¨ ur jeden Wert x > −1. • Induktionsannahme: F¨ ur ein n ∈ N0 gelte die Ungleichung (1 + x)n ≥ 1 + n · x f¨ ur jedes x > −1. • Induktionsschluss: Zu zeigen ist, dass unter der Induktionsannahme auch ur jedes x > −1 gilt: (1 + x)n+1 ≥ 1 + (n + 1) · x f¨ (1 + x)n+1 = (1 + x)n · (1 + x) ≥ (1 + n · x) · (1 + x) nach Annahme und 1 + x > 0 = 1 + n · x + x + n · x2 ≥ 1 + (n + 1) · x,

wobei wir die nicht-negative Zahl nx2 weggelassen haben. Wenn Sie bislang u ¨berwiegend mit Gleichungen gearbeitet haben, dann ist das Weglassen (oder Hinzuf¨ ugen) eines Terms sehr ungewohnt. Aber es steht ja auch nicht =“ zwischen den Rechenschritten.  ” Wenn wir uns den Induktionsschluss im vorangehenden Beweis anschauen, dann sehen wir dort eine Kette von Gleichungen und Ungleichungen, die man von links nach rechts lesen und dann zu (1 + x)n+1 ≥ 1 + (n + 1) · x zusammenfassen kann. Denn in der Kette finden sich nur die Vergleiche =“ ” und ≥“, die zusammen ≥“ ergeben. Vielfach ist das Hinschreiben solcher ” ” Ungleichungsketten einfacher als das Arbeiten mit ¨ aquivalenten Umformungen einer Ungleichung. An dieser Stelle machen wir einen Vorgriff auf zwei Begriffe der beschreibenden Statistik (vgl. Kapitel 17.3.1 in Band 2). Satz 3.7 (Ungleichung vom arithmetischen und geometrischen Mittel) Es seien x1 , x2 , . . . , xn ≥ 0. Dann gilt √ 1 n x1 x2 · · · x n ≤ xk . n n

k=1

Die linke Seite der Ungleichung ist das geometrische Mittel und die rechte Seite das arithmetische Mittel der Zahlen x1 , x2 , . . . , xn . Beweis Wir verwenden wieder die Vollst¨andige Induktion. • Induktionsanfang f¨ ur n = 1: x1 = x1 ist wahr. n  n • Induktionsannahme: F¨ ur ein n ∈ N gelte x1 x2 · · · xn ≤ n1 k=1 xk . • Induktionsschluss: Zu zeigen ist

80

Kapitel 3. Rechnen mit reellen Zahlen



x1 x2 · · · xn+1

n+1 1  ≤ xk n+1

n+1 ,

k=1

o.  B. d. A. sei xn+1 das maximale Element von {x1 , . . . , xn+1 } und x := n 1 k=1 xk das arithmetische Mittel der n Zahlen x1 , . . . , xn . Dann gilt n xn+1 − x ≥ 0, und mit der Bernoulli’schen Ungleichung folgt

n+1

n+1 x1 + · · · + xn+1 n · x + xn+1 = (n + 1)x (n + 1)x n+1

n+1

(n + 1) · x + xn+1 − x xn+1 − x = = 1+ (n + 1)x (n + 1)x (3.7)

≥ 1 + (n + 1)

xn+1 xn+1 − x = . (n + 1)x x

Mit der Induktionsannahme folgt dann

x1 + · · · + xn+1 n+1

n+1 ≥ xn+1

xn+1 = xn xn+1 ≥ x1 · · · xn · xn+1 , x

also genau die Behauptung.



F¨ ur x1 = x2 = · · · = xn sind beide Mittelwerte gleich. Das arithmetische Mittel ist der g¨angigste Mittelwert. Ein Durchschnittspreis eines Produkts entsteht, indem die Einzelpreise addiert werden und durch die Anzahl der Angebote geteilt wird. Die Durchschnittsgeschwindigkeit eines Fahrzeugs, das z. B. eine Stunde mit 100 km / h, danach 0,5 Stunden mit 90 km / h und anschließend eine Stunde mit 80 km / h f¨ ahrt, hat bei einer Fahrtdauer von f¨ unf halben Stunden eine Durchschnittsgeschwindigkeit von 1 (100 + 100 + 90 + 80 + 80) = 90 km / h . 5 Das geometrische Mittel benutzt man im Zusammenhang mit Wachstumsprozessen, um eine mittlere Wachstumsrate zu berechnen. Verzinst sich beispielsweise ein Kapital im Rahmen eines Zuwachssparvertrags im ersten Jahr mit 5% (Wachstumsfaktor 1,05), im zweiten und dritten Jahr mit 7% und im vierten und f¨ unften Jahr mit 10%, so lautet der u ¨ber das geometrische Mittel berechnete mittlere Wachstumsfaktor  5 1,05 · 1,072 · 1,12 = 1,0778. Dies entspricht einem durchschnittlichen Zinssatz von 7,78%. Man bekommt den gleichen Zinsgewinn, wenn man das Kapital zu einem festen Zinssatz von 7,78% f¨ ur f¨ unf Jahre anlegt, da man die f¨ unf j¨ ahrlichen Verzinsungen durch uhrt. Multiplikation mit (1,0778)5 = 1,05 · 1,072 · 1,12 durchf¨

¨ 3.4. Uber das L¨ osen von Gleichungen und Ungleichungen

81

¨ 3.4 Uber das L¨osen von Gleichungen und Ungleichungen Neben dem Ausrechnen von exakten Werten reicht es h¨ aufig bereits aus, Absch¨atzungen f¨ ur die exakten Werte zu ermitteln. Geht es beispielsweise um Toleranzen in technischen Systemen, so stellt sich die Aufgabe direkt als Ungleichung. W¨ahrend das L¨osen von Gleichungen in der Regel gut beherrscht wird, bereiten Ungleichungen unseren Studierenden h¨ aufig Schwierigkeiten. In diesem Abschnitt stellen wir daher einige typische Aufgabenstellungen zusammen und u alt keine neuen Begriffe ¨ben das Rechnen. Das Kapitel enth¨ oder S¨atze und soll als Training dienen, bevor wir anschließend mit reellen Funktionen weitermachen. Weitere Beispiele f¨ ur das L¨osen von Gleichungen mit Bezug zu Ingenieuranwendungen findet man z. B. in [Ritter und Voß(2015), S.79 ff]. In sp¨ateren Kapiteln gehen wir auf das L¨osen speziellerer Probleme mit Logarithmen und trigonometrischen Gleichungen ein.

3.4.1 Rationale Gleichungen, Wurzel-, Betragsgleichungen ¨ Mit Hilfe von Aquivalenzumformungen versucht man, die Ganzrationale Gleichung der Form an xn + an−1 xn−1 + · · · + a1 x + a0 = 0 zu vereinfachen und nach der Unbekannten x aufzul¨osen. Das gelingt gut f¨ ur lineare (n = 1) und quadratische (n = 2) Gleichungen sowie mit Einschr¨ ankungen auch f¨ ur Gleichungen h¨oherer Ordnung. Das L¨osen von ganzrationalen Gleichungen entspricht der Nullstellensuche von Polynomen, auf die wir noch detaillierter in Kapitel 4.6.1 eingehen werden. Im Folgenden seien a, b, c ∈ R, a = 0, feste Zahlen. Lineare Gleichungen a · x + b = 0 sind unproblematisch. Die L¨ osung ist x = − ab . Bei der quadratischen Gleichung ax2 + bx + c = 0 betrachtet man die Normalform x2 + px + q = 0 mit p =

c b , q= a a

und erh¨alt die L¨osungen mit der p-q-Formel Satz 3.1 (Seite 63). Beispiel 3.15 a) Die Gleichung −2x2 − 4x + 6 = 0 wird durch −2 dividiert und geht u ¨ber in die quadratische Gleichung in Normalform x2 +2x−3 = 0. osungen, und zwar Wegen der Diskriminante D = 44 + 3 > 0 gibt es zwei L¨  4 x1,2 = −1 ± 4 + 3 bzw. x1 = 1 und x2 = −3. Also ist die L¨ osungsmenge L = {1, −3}. b) Die Gleichung x2 − 4x + 13 = 0 besitzt die Diskriminante D = 16 4 − 13 < 0 und ist deshalb reell nicht l¨osbar, L = ∅.

82

Kapitel 3. Rechnen mit reellen Zahlen

Die L¨osung von ganzrationalen Gleichungen h¨ oherer Ordnung gelingt in der Regel h¨ochstens bis zur Ordnung 4. H¨ aufig kann man aber eine L¨osung raten und den Grad der Gleichung durch Polynomdivision reduzieren. Das lernen wir in Kapitel 4.6.3. Ein weiterer Spezialfall ist die biquadratische Gleichung: a · x4 + b · 2 x + c = 0. Die Substitution z = x2 liefert eine quadratische Gleichung in z: a · z 2 + b · z + c = 0. asst sich durch die SubBeispiel 3.16 Die Gleichung x4 − 12x2 + 11 = 0 l¨ uhren, also in eine quadratische stitution z = x2 in z 2 − 12z + 11 = 0 u ¨berf¨ Gleichung  mit der Variable z. Diese l¨asst sich direkt mit der p-q-Formel l¨ osen: 144 4

− 11 = 6 ± 5, also z1 = 11 und z2 = 1. F¨ ur die urspr¨ ungliche √ 2 2 11 und x = 1 =⇒ x3,4 = ±1. Gleichung ergibt sich x = 11 =⇒ x1,2√= ± √ Wir erhalten die L¨osungsmenge L = { 11, − 11, 1, −1}.

z1,2 = 6 ±

Alle Gleichungen, die man (bis auf Einschr¨ankungen im Definitionsbereich) in eine ganzrationale Gleichung umformen kann, heißen algebraische Gleichungen. Dazu geh¨oren auch gebrochen-rationale Gleichungen und Wurzelgleichungen. ax2 +bx+c Bei den gebrochen-rationalen Gleichungen, z. B. dx 3 +ex2 +f = g, ist zun¨achst zu beachten, dass nicht durch null dividiert wird. Anschließend formt man in eine ganzrationale Gleichung um. Beispiel 3.17 Wir bestimmen die L¨osungsmenge der Gleichung 4x + 1 2x2 − x − 5 − 2 =2 x+2 x + 4x + 4

⇐⇒

4x + 1 2x2 − x − 5 − = 2. x+2 (x + 2)2

Die Gleichung ist definiert f¨ ur x = −2. Multiplikation mit dem Hauptnenner (x + 2)2 liefert eine ganzrationale Gleichung: (4x + 1) · (x + 2) − (2x2 − x − 5) = 2(x + 2)2

⇐⇒

4x2 + 9x + 2 − 2x2 + x + 5 = 2x2 + 8x + 8 ⇐⇒ 2x = 1 1 ⇐⇒ x = . 2

Wurzelgleichungen: M¨ochte man Gleichungen, in denen eine zweite Wurzel vorkommt, l¨osen, so versucht man, die Wurzel auf eine Seite der Gleichung zu isolieren. Danach muss man quadrieren, d. h. nicht-¨ aquivalent umformen (siehe Beispiel 1.15 auf Seite 24), und nach der Variable aufl¨ osen. Deshalb sind die erhaltenen L¨osungen immer durch Einsetzen in die Ausgangsgleichung zu kontrollieren. √ alt man Beispiel 3.18 Wir l¨osen 2x + 3 = x. Durch Quadrieren erh¨ √ 2x + 3 = x =⇒ 2x + 3 = x2 =⇒ x2 − 2x − 3 = 0.

¨ 3.4. Uber das L¨ osen von Gleichungen und Ungleichungen

83

√ Die quadratische Gleichung hat die L¨osungen x = 1 ± 1 + 3 = 1 ± 2, also 3 und −1. Da quadriert wurde, k¨onnen gegen¨ uber der Ausgangsgleichung L¨osungen hinzugekommen sein. Daher m¨ u ssen wir die L¨ osungen durch Ein√ 6 + 3 = 3 eine wahre Aussage. Aber f¨ ur setzen verifizieren: F¨ u r x = 3 ist √ osung der Wurzelgleix = −1 ergibt sich: −2 + 3 = 1 = −1, −1 ist keine L¨ chung. Diese hat nur die L¨osung 3. Wir betrachten nochmals die Problematik beim Quadrieren: Die Gleichung x − 2 = 1 besitzt die eindeutige L¨osung x = 3. Durch Quadrieren der Gleiosungen x = 1 chung folgt (x − 2)2 = 1, und diese Gleichung besitzt zwei L¨ und x = 3. Jedoch ist 1 keine L¨osung der Ausgangsgleichung! √ Beispiel 3.19 Wir l¨osen 2x − 3 + 5 − 3x = 0. Isolieren der Wurzel liefert: √ 2x − 3 = 3x − 5. Quadrieren ergibt 2x − 3 = 9x2 − 30x + 25 bzw. x2 −

28 32 x+ =0 9 9

mit L¨osungen #

#

16 2 256 − 252 = ± , 81 9 9 √ also x = 2 oder x = 14 ur x = 2 : 2 · 2 − 3 + 5 − 3 · 2 = 0, 9 . Die Probe liefert f¨ also ist 2 L¨osung der Ausgangsgleichung. F¨ ur x = 14/9 ergibt sich # 14 1 14 28 −3+5− = +5− = 0, 9 3 3 3 16 ± x= 9

also ist

14 9

16 256 28 − = ± 81 9 9

keine L¨osung der Ausgangsgleichung.

Betragsgleichungen l¨ost man zumeist durch Fallunterscheidung (siehe Kapitel 1.15): Beispiel 3.20 Wir bestimmen die L¨osungsmenge von |3x − 1| = −2x + 2. • Fall 1: 3x − 1 ≥ 0 bzw. x ≥ 13 : In diesem Fall ist |3x − 1| = 3x − 1:

|3x − 1| = −2x + 2 ⇐⇒ 3x − 1 = −2x + 2 ⇐⇒ 5x = 3 ⇐⇒ x =

3 . 5

achlich um eine Wegen 35 ≥ 13 handelt es sich dabei in diesem Fall tats¨ L¨osung. • Fall 2: 3x − 1 < 0 bzw. x < 31 : In diesem Fall ist |3x − 1| = −3x + 1: |3x − 1| = −2x + 2 ⇐⇒ −3x + 1 = −2x + 2 ⇐⇒ x = −1. Auch diese L¨ osung passt zum Fall, daher ist die L¨ osungsmenge L = % $ 3 , −1 . 5

84

Kapitel 3. Rechnen mit reellen Zahlen

Mitunter kann man die L¨osung grafisch durch Zeichnen der Funktionsgraphen bestimmen oder durch Quadrieren die L¨ osung berechnen: Beispiel 3.21 |3x − 1| = −2x + 2

Quadrieren

=⇒

=⇒ =⇒

9x2 − 6x + 1 = 4x2 − 8x + 4 3 2 5x2 + 2x − 3 = 0 =⇒ x2 + x − = 0 5 5 # 15 1 3 1 x1,2 = − ± + =⇒ x1 = −1, x2 = . 5 25 25 5

Einsetzen best¨atigt, dass beide Kandidaten L¨ osungen sind.

3.4.2 Rationale Ungleichungen und Betragsungleichungen Ungleichungen lassen sich wie Gleichungen ¨aquivalent umformen. Dabei sind aber die Rechenregeln f¨ ur Ungleichungen aus Satz 3.5 auf Seite 76 zu beachten. H¨aufige ¨aquivalente Umformungen sind: • Addition/Subtraktion einer Zahl c auf beiden Seiten der Gleichung, • Multiplikation der Ungleichung mit einem Faktor c = 0: c > 0: Ungleichungszeichen bleibt bestehen, c < 0: Ungleichungszeichen dreht sich herum. Zus¨atzlich kann man Folgerungen benutzen, indem man Terme unter Beachtung des Ungleichungszeichens vergr¨oßert oder verkleinert. Zum Beispiel gilt: x2 − 1 > x =⇒ x2 > x. So kann man mit Gleichungen nicht verfahren.

3.4.2.1 Lineare Ungleichungen Beispiel 3.22 Wir bestimmen die L¨osungsmenge der Ungleichung x + 3 ≤ 7 − x. Elementare Umformungen ergeben: x+3≤7−x

+x−7

⇐⇒

2x − 4 ≤ 0

+4

⇐⇒

2x ≤ 4

Damit haben wir die L¨osungsmenge L = {x ∈ R : bestimmt.

/2

⇐⇒

x ≤ 2.

x ≤ 2} =] − ∞,2]

3.4.2.2 Quadratische Ungleichungen Hier betrachten wir Ungleichungen der Form x2 + a · x + b < 0 (> 0). Die L¨osungsmenge kann bestehen aus

¨ 3.4. Uber das L¨ osen von Gleichungen und Ungleichungen

• • • •

85

der leeren Menge, allen reellen Zahlen, einem beschr¨ankten Intervall, der Vereinigung zweier einseitig unbeschr¨ankter Intervalle wie beispielsweise ] − ∞, c] ∪ [d, ∞[.

Beispiel 3.23 Wir l¨osen quadratische Ungleichungen mittels quadratischer Erg¨anzung. Alternativ kann man mit der p-q-Formel Nullstellen bestimmen. Nur dort kann sich das Vorzeichen der betrachteten Terme ¨ andern. anzung a) Wir bestimmen alle L¨osungen von x2 +4x−5 < 0. Quadratische Erg¨ liefert: x2 + 4x + 4 − 9 < 0 ⇐⇒ (x + 2)2 < 9 ⇐⇒ |x + 2| < 3 ⇐⇒ −3 < x + 2 < 3 ⇐⇒ −5 < x < 1, also ist die L¨ osungsmenge {x ∈ R : −5 < x < 1}. Da x2 + 4x − 5 das Vorzeichen nur an den Nullstellen −5 und 1 ¨ andert, erh¨ alt man diese L¨ osungsmenge auch durch Einsetzen von Zahlen, die zwischen den Nullstellen liegen. anzung b) Wir suchen alle L¨osungen von x2 + 4x − 5 ≥ 0. Quadratische Erg¨ liefert: x2 + 4x + 4 − 9 ≥ 0 ⇐⇒ (x + 2)2 ≥ 9 ⇐⇒ x ≤ −5



⇐⇒

x ≥ 1,

also ist die L¨osungsmenge ] − ∞, −5] ∪ [1, ∞[. c) F¨ ur die Ungleichung x2 − 3x − 4 > 0 erhalten wir

x2 − 3x − 4 > 0 ⇐⇒

x2 − 3x +

9 4





25 > 0 ⇐⇒ 4

|x + 2| ≥ 3

x−

3 2

2 >

25 . 4

• Fall 1: x ≥ 23 : Ziehen der Quadratwurzel ergibt x − 32 > 25 ⇐⇒ x > 4. ucksichtigung des Vorzeichens erhalten wir • Fall 2: 32 > x: Unter Ber¨ x−

5 3 0 ist f¨ ur kein x ∈ R erf¨ ullt, also ist L = ∅. e) Die Ungleichung x2 + 1 < 0 ist f¨ 3.4.2.3 Gebrochen-rationale Ungleichungen Bei gebrochen-rationalen Ungleichungen sind die interessanten Stellen die Nullstellen des Z¨ahlers und des Nenners. Hier kann sich das Vorzeichen der

86

Kapitel 3. Rechnen mit reellen Zahlen

Funktionswerte ¨andern. Das muss bedacht werden, wenn man die Ungleichung mit Z¨ahler oder Nenner multipliziert, so dass man es wieder mit Fallunterscheidungen zu tun hat. Beispiel 3.24 Wir bestimmen die L¨osungen von

x+7 ≤ 4, x ∈ R \ {−1}. x+1

• Fall 1: x+1 > 0, d. h. x > −1 und x+7 ≤ 4·(x+1) ⇐⇒ 3 ≤ 3x ⇐⇒ x ≥ 1. Damit spielt die Einschr¨ankung x > −1 keine Rolle, und wir erhalten den Anteil L1 = [1, ∞[ der gesamten L¨osungsmenge. • Fall 2: x+1 < 0, d. h. x < −1 und x+7 ≥ 4·(x+1) ⇐⇒ 3 ≥ 3x ⇐⇒ x ≤ 1. Hier m¨ ussen wir ber¨ ucksichtigen, dass wir uns im Fall x < −1 befinden und erhalten damit den L¨osungsmengenanteil L2 =] − ∞, −1[. Insgesamt lautet die L¨osungsmenge L = L1 ∪ L2 =] − ∞, −1[ ∪ [1, ∞[. 3.4.2.4 Betragsungleichungen Auch zur Aufl¨osung des Betrags sind Fallunterscheidungen durchzuf¨ uhren. Beispiel 3.25 a) Wir bestimmen die Menge L aller L¨ osungen der Ungleichung |x − 1| > 3. • Fall 1: • Fall 2:

x − 1 ≥ 0, d. h. x ≥ 1: x − 1 < 0, d. h. x < 1:

x − 1 > 3 ⇐⇒ x > 4. −x + 1 > 3 ⇐⇒ −2 > x.

Insgesamt ist die L¨osungsmenge L =] − ∞, −2[∪]4, ∞[. < 12 f¨ ur x = 3. Die b) Wir suchen die L¨osungen der Ungleichung 1−|x−2| |x−3| Aufl¨osung des Betrags ergibt: x − 3, x≥3 x − 2, x≥2 . , |x − 3| = |x − 2| = −(x − 3), x < 3 −(x − 2), x < 2 Wir erhalten drei F¨alle: • Fall 1: x > 3: Hier ist 1−|x−2| = 1−(x−2) = −x+3 |x−3| x−3 x−3 = −1, d. h., die Ungleichung ist erf¨ ullt. 1−(x−2) −x+3 • Fall 2: 2 ≤ x < 3: Hier ist 1−|x−2| |x−3| = −(x−3) = −x+3 = 1, d. h., die Ungleichung ist nicht erf¨ ullt. 1−(−(x−2)) x−1 • Fall 3: x < 2: Hier ist 1−|x−2| = −x+3 . Die Ungleichung |x−3| = −(x−3) lautet 1 x−1 < −x + 3 2

2·(3−x)>0

⇐⇒

2(x − 1) < 3 − x ⇐⇒ 3x < 5 ⇐⇒ x
0, y > 0} (oben rechts). Der zweite Quadrant ist {(x, y) : x < 0, y > 0} (oben links), der dritte ist {(x, y) : x < 0, y < 0} (unten links) und der vierte ist {(x, y) : x > 0, y < 0} (unten rechts).

II I III IV

Abb. 4.2 Quadranten des Koordinatensystems

Beispiel 4.1 a) Eine affin-lineare Funktion ist gegeben durch (a, b ∈ R) y = f (x) = a · x + b. Der Definitionsbereich ist D(f ) = R, und der Wertebereich ist W (f ) = R. Der Funktionsgraph ist eine Gerade. Etwas ungenau bezeichnet man diese Funktionen in vielen Zusammenh¨angen auch als linear, obwohl sie das nicht sind. Lineare Abbildungen werden in Kapitel 20.1 besprochen. Nur Funktionen f (x) = a · x, deren Graphen durch den Nullpunkt gehen, erf¨ ullen die Linearit¨atseigenschaft f (c · x + d · y) = c · f (x) + d · f (y). Addiert man b = 0 zu den Funktionswerten, wird die Eigenschaft verletzt. Daher ist der Zusatz affin“ streng genommen erforderlich. ” b) Die Normalparabel besitzt die Funktionsgleichung y = g(x) = x2 mit Definitionsbereich D(g) = R und Wertebereich W (g) = [0, ∞[. Affinlineare Funktionen und Parabeln sind Spezialf¨ alle von Polynomen. Mit dieser Klasse von elementaren Funktionen werden wir uns noch eingehend in Kapitel 4.6.1 besch¨aftigen.

91

4.1. Notation reeller Funktionen

c) Die st¨ uckweise (affin) lineare Funktion ⎧ ⎨ 1, x ≤ 1, y = h(x) = 2, 1 < x ≤ 2, ⎩ x, x > 2, hat den Definitionsbereich D(h) = R und den Wertebereich W (h) = {1} ∪ [2, ∞[. Die Funktionsgraphen zu f , g und h sind in Abbildung 4.3 dargestellt. f (x) a b

x2

 h(x)

x







 

h(x)



Abb. 4.3 Funktionsgraphen zu Beispiel 4.1

Bis jetzt √ kennen wir Funktionen in expliziter Darstellung y = f (x), wie z. B. y = 1 − x2 , x ∈ [−1, 1]. Ist die Funktion in der Form F (x, y) = 0, wie z. B. x2 + y 2 − 1 = 0, x ∈ [−1, 1], y ∈ [0, 1] gegeben, so spricht man von impliziter Darstellung. In der Ingenieurpraxis sind Funktionen h¨aufig nur unvollst¨ andig als Messreihen der Form (xi , yi = f (xi )), i = 1, . . . , n, d. h.als endliche Menge von Zahlenpaaren, gegeben. Es ist durchaus u ¨blich, dass der Definitionsbereich D(f ) (und damit der Wertebereich W (f )) einer Funktion nicht angegeben werden, obwohl die Angabe wichtig ist. √ ahlen, dass x2 −2x Beispiel 4.2 a) F¨ ur y = f (x) = x2 − 2x ist D(f ) so zu w¨ 2 nicht-negativ ist, d. h. x ≥ 2x. Im Fall x ≥ 0 heißt dies x ≥ 2, und im Fall x ≤ 0 bedeutet dies x ≤ 2. Also ist der maximale Definitionsbereich D(f ) =] − ∞,0] ∪ [2, ∞[. 2x ist nur dann definiert, wenn der Nenner b) Die Funktion y = f (x) = x(x−3) ungleich 0 ist, d. h., der maximale Definitionsbereich ist D(f ) = R \ {0, 3}. c) Durch die Gleichung x2 +y 2 = 1 wird der Einheitskreis beschrieben, wobei nur x ∈ [−1, 1] und y ∈ [−1, 1] sinnvoll ist. Durch die Gleichung wird aber kein funktionaler Zusammenhang y = f (x) erkl¨ art. Beispielsweise sind dem Wert x = 0 die beiden y-Werte ±1 zugeordnet. Schr¨ ankt man allerdings die y-Werte auf [0, 1] ein, wird jedem x ∈ [−1,1] durch x2 +y 2 = 1

92

Kapitel 4. Reelle Funktionen

√ genau ein y-Wert y√= f1 (x) = 1 − x2 zugeordnet. Entsprechend erh¨ alt man y = f2 (x) = − 1 − x2 , wenn man y aus [−1,0] nimmt. Somit werden durch die Kreisgleichung implizit zwei Funktionen definiert: √ • y = f1 (x) = 1 − x2 mit x ∈ [−1,1] und y ∈ [0,1] beschreibt den oberen Halbkreis und √ • y = f2 (x) = − 1 − x2 mit x ∈ [−1,1] und y ∈ [−1,0] beschreibt den unteren Halbkreis. Sind f und g reelle Funktionen mit gleichem Definitionsbereich D, so kann man auf D die neuen Funktionen f + g, f · g und fg definieren u ¨ber f + g : x → f (x) + g(x),

f · g : x → f (x) · g(x)

und

f¨ ur g(x) = 0, oder mit anderen Worten (f + g)(x) := f (x) + g(x),

(f · g)(x) := f (x) · g(x),

f (x) f : x → g g(x)

f (x) f (x) := . g g(x)

Die Verkn¨ upfung der Funktionen ist also definiert u ¨ber die entsprechende Verkn¨ upfung der Funktionswerte. Mit f (x) bezeichnet man streng genommen einen Funktionswert von f an der Stelle x und mit f (ohne Argument) die Funktion. So streng wird das aber nicht unterschieden. Im Gegenteil: H¨ aufig meint man mit f (x) die Funktion und m¨ochte ausdr¨ ucken, dass man f¨ ur diese Funktion die Variable x verwendet. Wenn wir sp¨ ater betonen wollen, dass es sich um einen konkreten Funktionswert an einer Stelle handelt, so f¨ ugen wir dem Variablennamen einen Index hinzu. f (x0 ) ist demnach der Funktionswert an der Stelle x0 . Besonders ausgezeichnet sind Stellen x0 , an denen der Funktionswert null ist, sie heißen Nullstellen der Funktion. Zum Abschluss des Abschnitts sehen wir uns an, wie man eine Funktion erh¨alt, die einen gegen¨ uber dem Graphen der Ausgangsfunktion verschobenen Funktionsgraphen besitzt. Eine Verschiebung in x-Richtung kann man durch die Addition eines konstanten Werts (eines Offsets) zum Argument x einer Funktion erreichen, eine Verschiebung in y-Richtung gewinnt man durch Addition einer Konstante zum Funktionswert: • Der Graph von f (x+c) ist um c gegen¨ uber dem Graphen von f in Richtung der x-Achse verschoben. Ist c > 0, so liegt eine Verschiebung nach links vor, bei c < 0 handelt es sich um eine Verschiebung nach rechts. • Der Graph von f (x)+c ist um c gegen¨ uber dem Graphen von f in Richtung der y-Achse verschoben. Ist c > 0, so handelt es sich um eine Verschiebung nach oben, ist c < 0, so ist der Graph nach unten verschoben. uber der NormalBeispiel 4.3 a) Die Funktion f˜(x) = (x − 2)2 ist gegen¨ parabel f (x) = x2 um c = 2 nach rechts verschoben (siehe Abbildung 4.4).

93

4.2. Eigenschaften von reellen Funktionen

(x + 1)2 + 3 x2

x2

(x − 2)2

Abb. 4.4 Verschiebungen von Funktionsgraphen

b) Die Funktion f˜(x) = x2 + 2x + 4 = x + 2x + 1 + 3 = (x + 1)2 + 3 ist gegen¨ uber der Normalparabel f (x) = x2 um 3 nach oben und um 1 nach links verschoben.

4.2 Eigenschaften von reellen Funktionen F¨ ur die Beschreibung von Funktionen sind einige qualitative Eigenschaften von Bedeutung, die wir bereits hier einf¨ uhren und mit denen wir intensiv in Buchteil II arbeiten. Definition 4.1 (Monotonie) Eine Funktion f : D ⊆ R → R heißt auf dem Intervall I ⊆ D genau dann • monoton wachsend (monoton steigend), wenn f (x) ≤ f (y) f¨ ur alle x, y ∈ I mit x < y (vgl. Abbildung 4.5). • streng monoton wachsend (streng monoton steigend), wenn f (x) < f (y) f¨ ur alle x, y ∈ I mit x < y. • monoton fallend, wenn f (x) ≥ f (y) f¨ ur alle x, y ∈ I mit x < y. • streng monoton fallend, wenn f (x) > f (y) f¨ ur alle x, y ∈ I mit x < y. achst f heißt (streng) monoton auf I, sofern f auf I (streng) monoton w¨ oder f¨allt.

Abb. 4.5 Monoton wachsende und streng monoton fallende Funktion

f (y)

f (x)

f (x)

f (y) x

y

x

y

Bislang haben Sie vermutlich nur Graphen zu Funktionen gezeichnet, die auf Teilintervallen des Definitionsbereichs monoton sind. Wenn man sich aber et-

94

Kapitel 4. Reelle Funktionen

was anstrengt, dann findet man auch Funktionen, die auf keinem Teilintervall monoton steigend oder fallend sind. Neben dem Monotonieverhalten ist die Symmetrie ein wichtiges Merkmal einer Funktion (siehe Abbildung 4.6). Definition 4.2 (Symmetrie) Eine Funktion f : D ⊆ R → R mit einem um Null symmetrischen“ Definitionsbereich D = R, D = [−a, a] oder ” D =] − a, a[ f¨ ur ein a > 0 heißt genau dann • symmetrisch zur y-Achse oder gerade, wenn f¨ ur jedes x ∈ D gilt f (−x) = f (x), • punktsymmetrisch zum Ursprung oder ungerade, wenn f¨ ur jedes x ∈ D gilt f (−x) = −f (x). Der Graph einer geraden Funktion ist an der y-Achse gespiegelt. Der Graph einer ungeraden Funktion geht bei Drehung um 180◦ um den Koordinatenursprung in sich selbst u ¨ber (siehe Abbildung 4.6). Beispiel 4.4 Ist f : R → R, dann ist g(x) := f (x) + f (−x) eine gerade und h(x) := f (x) − f (−x) eine ungerade Funktion. Damit ist f Summe einer geraden und einer ungeraden Funktion: f (x) = 21 g(x) + 12 h(x).

Abb. 4.6 Eine gerade und eine ungerade Funktion

Bei der Multiplikation symmetrischer Funktionen vererben“ sich Sym” metrien: Lemma 4.1 (Produkt gerader und ungerader Funktionen) a) Das Produkt zweier gerader Funktionen ist gerade. b) Das Produkt zweier ungerader Funktionen ist gerade. c) Das Produkt einer geraden und einer ungeraden Funktion ist ungerade.

95

4.2. Eigenschaften von reellen Funktionen



! Achtung

Im Gegensatz zu b) und c) ist das Produkt zweier ungerader Zahlen ungerade und das Produkt einer geraden mit einer ungeraden Zahl gerade. Die Begriffe f¨ ur Funktionen unterscheiden sich also von den entsprechenden Begriffen f¨ ur Zahlen.

Beweis a) Seien f und g gerade, dann ist (f · g)(−x) = f (−x)g(−x) = f (x)g(x) = (f · g)(x), d. h., f · g ist gerade. b) Seien f und g ungerade, dann ist (f · g)(−x) = f (−x)g(−x) = [−f (x)] · [−g(x)] = (f · g)(x), d. h., f · g ist gerade. c) Ist f gerade und g ungerade, dann ist (f · g)(−x) = f (−x)g(−x) =  f (x)[−g(x)] = −(f · g)(x), d. h., f · g ist ungerade. Definition 4.3 (Beschr¨ anktheit) Eine Funktion f : D ⊆ R → R heißt auf E ⊆ D genau dann

• beschr¨ ankt nach unten, wenn es eine Konstante m ∈ R gibt mit f (x) ≥ m f¨ ur alle x ∈ E und • beschr¨ ankt nach oben, wenn es eine Konstante M gibt mit f (x) ≤ M f¨ ur alle x ∈ E bzw. • beschr¨ ankt, wenn es eine Konstante M gibt mit |f (x)| ≤ M f¨ ur alle x ∈ E (vgl. Abbildung 4.7).

m

M

M m

Abb. 4.7 Beschr¨ ankte Funktionen, von links nach rechts: beschr¨ ankt nach unten, nach oben und beides

Eine Funktion ist beschr¨ankt auf ihrem Definitionsbereich genau dann, wenn ihr Wertebereich (als Menge reeller Zahlen) beschr¨ ankt ist. Sie ist auf ihrem Definitionsbereich nach oben (unten) beschr¨ ankt genau dann, wenn ihr Wertebereich nach oben (unten) beschr¨ankt ist (siehe Definition 2.8 auf Seite 53).

96

Kapitel 4. Reelle Funktionen

In der Technik spielen periodische Funktionen bei der Beschreibung von Schwingungsvorg¨angen (mechanische und elektrische Schwingungen) eine zentrale Rolle. Definition 4.4 (Periodizit¨ at) Eine Funktion y = f (x) mit Definitionsbereich D = R heißt genau dann periodische Funktion mit der Periode p > 0, wenn f¨ ur jedes x ∈ R gilt (vgl. Abbildung 4.8) f (x + p) = f (x). Besitzt f die Periode p, dann ist auch k · p mit k ∈ N eine Periode von f . Die kleinste Periode von f heißt primitive Periode von f . Bei einer periodischen Funktion wiederholen sich die Funktionswerte immer wieder. Jede Zahl des Wertebereichs wird unendlich oft angenommen.

Abb. 4.8 Periodische Funktion mit Periode p

x

p

x+p

Beispiel 4.5 a) F¨ ur die Funktion f (x) = x2 − 1 mit D(f ) := [0, 1] und W (f ) = [−1, 0] gilt: • f ist streng monoton steigend auf D(f ): F¨ ur 0 ≤ x1 < x2 folgt x1 · x1 ≤ x2 · x1 < x2 · x2 , d. h. x21 < x22 . Subtraktion von −1 auf beiden Seiten liefert x21 − 1 < x22 − 1, d. h., es gilt: x1 < x2 =⇒ f (x1 ) < f (x2 ). • f ist beschr¨ankt auf D(f ): F¨ ur x ∈ [0, 1] folgt −1 ≤ x2 − 1 ≤ 0. 2 • f besitzt die Nullstellen: x − 1 = 0 ⇐⇒ x2 = 1 ⇐⇒ x = ±1, aber −1 ∈ D(f ). Also ist x = 1 die einzige Nullstelle von f .

b) Die Funktion f (x) = a · x + b mit a, b ∈ R beschreibt eine Gerade (vgl. Kapitel 4.6.1). Es sei D(f ) = R, und f¨ ur a = 0 ist W (f ) = R. • Monotonie: F¨ ur a > 0 ist f streng monoton steigend auf R:

x1 < x2 =⇒ a · x1 < a · x2 =⇒ a · x1 + b < a · x2 + b. F¨ ur a < 0 ist f ist streng monoton fallend auf R: x1 < x2 =⇒ a · x1 > a · x2 =⇒ a · x1 + b > a · x2 + b.

97

4.2. Eigenschaften von reellen Funktionen

Abb. 4.9 S¨ agezahnfunktion

Im Fall a = 0 ist f die konstante Funktion f (x) = b. • Symmetrie: Eine Gerade kann nur dann achsensymmetrisch sein, wenn sie parallel zur x-Achse verl¨auft, also die Steigung a = 0 hat. Punktsymmetrie liegt genau dann vor, wenn die Gerade durch den Koordinatenursprung geht, also bei b = 0. • Beschr¨anktheit: f (x) = a · x + b ist nur f¨ ur a = 0 auf R beschr¨ ankt. • Achsenschnittpunkte: f (0) = a · 0 + b = b und f (x) = 0 ⇐⇒ a · x + b = ur a = 0. f besitzt f¨ ur a = 0 genau eine Nullstelle. F¨ ur 0 ⇐⇒ x = − ab f¨ a = 0 besitzt f nur f¨ ur b = 0 (unendlich viele) Nullstellen. • Periodizit¨at mit Periode p > 0: f (x + p) = f (x) ⇐⇒ a(x + p) + b = ax+b ⇐⇒ ap = 0 ⇐⇒ a = 0. f ist nur f¨ ur a = 0 als konstante Funktion periodisch im Sinne der Definition. c) Die Funktion f : [−2, 2] → R mit W (f ) = [−4, 4] sei definiert durch −x2 , −2 ≤ x < 0, f (x) = x2 , 0 ≤ x ≤ 2. • Monotonie: Wir untersuchen jeden Zweig der Funktion separat: – F¨ ur x1 < x2 < 0 folgt −x21 < −x22 , d. h. f (x1 ) < f (x2 ). – F¨ ur x1 < 0 ≤ x2 folgt −x21 < x22 , d. h. f (x1 ) < f (x2 ). – F¨ ur 0 ≤ x1 < x2 folgt x21 < x22 , d. h. f (x1 ) < f (x2 ). Also ist f streng monoton steigend auf [−2, 2]. • Nullstellen: f (x) = 0. Die einzige Nullstelle ist x = 0. • Symmetrien: Es ist f (−x) = −f (x), denn – f¨ ur x ≤ 0 gilt: f (−x) = (−x)2 = x2 = −f (x) und – f¨ ur x ≥ 0 gilt: f (−x) = −(−x)2 = −x2 = −f (x). Also ist f punktsymmetrisch zum Ursprung. d) Eine S¨ agezahnfunktion wird in R¨ohrenfernsehern als Zeilenkipp“ ver” wendet, und wir werden uns im zweiten Band im Rahmen der FourierAnalysis noch intensiv mit entsprechenden Wechselspannungen besch¨ aftigen. Ein Vertreter dieser Funktionsklasse ist f : R → R mit (siehe Abbildung 4.9) f (x) := x + k, f¨ ur − k < x ≤ −k + 1,

k ∈ Z.

Liegt beispielsweise x im Intervall ]4, 5], so ist der zugeh¨ orige Funktionswert f (x) = x − 4. Die Funktion f ist periodisch mit Periode p = 1, denn wir zeigen f (x + 1) = f (x) f¨ ur alle x: F¨ ur beliebiges x ∈ R gibt es ein

98

Kapitel 4. Reelle Funktionen

k ∈ Z mit x ∈] − k, −k + 1]. Dort ist f (x) = x + k. Das Argument x + 1 liegt in ] − k + 1, −k + 2] =] − (k − 1), −(k − 1) + 1], und folglich ist f (x + 1) = x + 1 + k − 1 = x − k.

4.3 Umkehrfunktion Die Umkehrfunktion f −1 einer Funktion f wurde bereits mit Satz 1.3 auf Seite 12 eingef¨ uhrt. W¨ahrend wir es dort noch mit Abbildungen zwischen beliebigen Mengen zu tun hatten, gehen wir nun auf den wichtigen Spezialfall reeller Funktionen ein. y = f (x),

x = f −1(y)

y

x = f (y), y = f −1(x) x

Abb. 4.10 Die Umkehrfunktion entsteht durch Spiegelung an der Diagonalen

Beispiel 4.6 Das Weg-Zeit-Gesetz des freien Falls eines Steins lautet s(t) =

1 2 gt 2

mit der Erdbeschleunigung g = 9,81 sm2 . Wir berechnen die Zeitspanne, bis der Stein aus 10 m H¨ohe auf dem Boden aufschl¨ agt. Gegeben ist also der Funktionswert s(t) = 10 m, wir fragen nach dem zugeh¨origen Argument t. Wir haben die Gleichung 10 m = 12 gt2 nach t aufzul¨osen: & # 2 · 10 m 2 · 10 m −1 = t = s (10 m) = ≈ 1,43 s . g 9,81 sm2 Im Beispiel suchen wir zum Bild der Funktion s(t) das zugeh¨ orige Urbild. Das ist nur m¨oglich, wenn es zum Bild keine zwei unterschiedlichen Urbilder gibt, d. h., wenn die Funktion injektiv ist. Damit zu einer Funktion f eine Umkehrfunktion existiert, muss f sowohl injektiv als auch surjektiv sein. Die Surjektivit¨ at erh¨ alt man aber stets dadurch, dass man den Wertebereich W (f ) als Zielmenge der Abbildung ver-

99

4.3. Umkehrfunktion

wendet: Statt f : D → E betrachten wir f : D → W (f ) ⊆ E. Dieser Wertebereich wird zum Definitionsbereich von f −1 , also D(f −1 ) = W (f ). Beispiel 4.7 Die Funktion f (x) = x2 , f : [0, ∞[→ R ist nicht surjektiv, da keine negativen Zahlen angenommen werden. Dagegen ist f : [0, ∞[→ [0, ∞[ mit der gleichen Abbildungsvorschrift surjektiv. Die Umkehrung der Umkehrfunktion ergibt die Ausgangsfunktion: f −1 (f (x)) = x,

x ∈ D(f ),

f (f −1 (y)) = y,

y ∈ W (f ).

• Ist f streng monoton, so ist f injektiv und umkehrbar. Zur Bestimmung der Umkehrfunktion f¨ ur nicht-monotone Funktionen muss gegebenenfalls der Definitionsbereich der Funktion eingeschr¨ ankt werden. Die Existenz einer Umkehrfunktion ist bez¨ uglich jedes Intervalls I ⊆ D(f ) gesichert, in welchem die Ausgangsfunktion f streng monoton und damit injektiv ist. • Die Funktion y = f (x) und ihre Umkehrfunktion x = f −1 (y) besitzen bei dieser Bezeichnung der Variablen in einem Koordinatensystem den gleichen Funktionsgraphen (siehe Abbildung 4.10). Durch die Aufl¨ osung alt man die Umkehrx = f −1 (y) nach x und Vertauschen von x und y erh¨ funktion y = f −1 (x) mit x als der unabh¨angigen Variablen: – 1. Schritt: L¨ose y = f (x) nach x auf: x = f −1 (y). – 2. Schritt: Vertausche die Variablennamen x und y. • Die Funktionsgraphen von y = f (x) und y = f −1 (x) liegen im kartesischen Koordinatensystem spiegelbildlich zur Achse y = x. Das liegt am Vertauschen der Variablennamen im zweiten Schritt. Denn wenn man die Zeichenebene um die Achse y = x um 180◦ dreht, vertauschen sich beide Koordinatenachsen. • An der Spiegelung der Graphen kann man z. B. ablesen, dass f −1 die gleichen Monotonieeigenschaften wie f hat: Lemma 4.2 (Monotonie der Umkehrfunktion) Ist eine Funktion f : D → R streng monoton wachsend (fallend) auf D, so ist die auf dem Wertebereich W (f ) existierende Umkehrfunktion f −1 : W (f ) → D ebenfalls streng monoton wachsend (fallend) auf W (f ). Beispiel 4.8 a) Die Funktion y = f (x) = 2x + 1 mit D(f ) = W (f ) = R ist streng monoton steigend und damit umkehrbar. Wir berechnen die Umkehrfunktion: • 1. Aufl¨osung nach x: y = 2x + 1 ⇐⇒ x = y−1 2 . mit D(f −1 ) = W (f ) = R und • 2. Umbenennung: y = f −1 (x) = x−1 2 −1 W (f ) = D(f ) = R.

100

Kapitel 4. Reelle Funktionen

b) Die Funktion y = f (x) = 1 + x2 mit D(f ) = [0, ∞[ und W (f ) = [1, ∞[ ist streng monoton steigend. √ • 1. Aufl¨osung nach x: y = 1 + x2 ⇐⇒ x = y − 1, da die Einschr¨ ankung x ≥ 0 f¨ ur x ∈ D(f ) gilt. √ • 2. Umbenennung: y = f −1 (x) = x − 1 mit D(f −1 ) = [1, ∞[ und W (f −1 ) = [0, ∞[. c) Die Funktion y = f (x) = x2 mit D(f ) = R und W (f ) = [0, ∞[ ist nicht streng monoton, sie ist wegen f (−1) = f (1) = 1 auch nicht injektiv und somit nicht umkehrbar. Die Einschr¨ ankung des Definitionsbereichs auf [0, ∞[ f¨ uhrt auf die bereits oben betrachtete Funktion y = f˜(x) = x2 mit D(f˜) = W (f˜) = [0, ∞[, die streng monoton steigend √ und somit umkehrbar ist. Die Umkehrfunktion lautet y = f˜−1 (x) = x mit D(f˜−1 ) = W (f˜−1 ) = [0, ∞[.

4.4 Verkettung von Funktionen H¨ aufig wendet man zwei Funktionen nacheinander an. Dabei setzt man das Ergebnis der ersten Funktion als Argument in die zweite ein. Beispielsweise kann man bei einem festen Stundenlohn S > 0 ein Bruttogehalt als Funktion g(x) = S · x der geleisteten Arbeitsstunden x berechnen. Das zugeh¨orige Nettogehalt ergibt sich nun u ¨ber eine Funktion des Bruttogehalts, die vom Bruttogehalt z. B. einen festen Abgabenbetrag a abzieht und den Rest durch Multiplikation mit einem Faktor 0 < b < 1 versteuert. Dabei handelt es sich um die Funktion f (u) = (u − a) · b des Bruttogehalts u. Es entsteht eine Verkettung zweier Funktionen: g

f

Arbeitsstunden −→ Bruttogehalt −→ Nettogehalt. Zun¨achst wird x ∈ D(g) durch g auf u ∈ D(f ) abgebildet. Dieses Element wird dann durch die zweite Funktion f auf ein weiteres Element y ∈ W (f ) abgebildet. Durch die Hintereinanderausf¨ uhrung beider Funktionen ergibt sich eine neue Funktion f verkettet mit g“ als ” f ◦ g : D(f ◦ g) → W (f ),

y = (f ◦ g)(x) := f (g(x))

mit Definitionsbereich D(f ◦g) = {x ∈ D(g) : g(x) ∈ D(f )} (siehe Abbildung 4.11). Beispiel 4.9 a) Die Berechnung des Nettogehalts geschieht u ¨ber f (g(x)) = (g(x) − a) · b = (S · x − a) · b. Damit das Gehalt nicht negtiv wird, w¨ ahlen  wir D(f ) = [a, ∞[ und D(f ◦ g) = Sa , ∞ ⊆ D(g) = [0, ∞[. √ b) Die Funktion y = f (x) = 2x + 4 mit D(f ) = [−2, ∞[, W (f ) = [0, ∞[ soll mit der Funktion y = g(x) = x2 − 1 mit D(g) = R, W (g) = [−1, ∞[

101

4.4. Verkettung von Funktionen

verkettet werden. Wegen W (g) ⊆ D(f ) ist die Verkettung f¨ ur alle x ∈ D(g) erkl¨art. Es ergibt sich (f ◦ g) u ¨ber   (f ◦ g)(x) = f (g(x)) = f (x2 − 1) = 2(x2 − 1) + 4 = 2x2 + 2 √ mit D(f ◦ g) = D(g) = R und W (f ◦ g) = [ 2, ∞[⊆ W (f ). c) Zur Temperaturmessung verwendet man neben der Celsius-Skala die (wissenschaftliche) Kelvin-Skala, und in angels¨achsischen L¨ andern ist die Fahrenheit-Skala u ¨blich. Bezeichnet man die Temperaturen auf der KelvinSkala mit x, die der Celsius-Skala mit u und die der Fahrenheit-Skala mit y, dann gelten folgende Umrechnungen: u = x − 273,15

und

y = 32 + 1,8 · u.

Die Fahrenheit-Werte lassen sich durch Einsetzen auch unmittelbar aus den Kelvin-Graden gewinnen: y = 32 + 1,8 · (x − 273,15) = 1,8 · x − 459,67. Betrachtet man die Gleichungen als Definitionen von Funktionen, so wird daraus g(x) = x−273,15;

f (u) = 32+1,8·u;

h(x) = f (g(x)) = 1,8·x−459,67.

1+x mit D(f ) = R \ {1} und d) Die Verkettung der Funktionen f (x) = 1−x 2 g(x) = x + 2 mit D(g) = R und W (g) = [2, ∞[ ist gegeben durch

y = (f ◦ g)(x) = f (g(x)) = f (x2 + 2) =

3 + x2 1 + (x2 + 2) =− 2 1 − (x + 2) 1 + x2

mit D(f ◦ g) = R und W (f ◦ g) = [−3, −1[. D(g)

g

D( f )

W( f )

f (g(x))

x g(x)

Abb. 4.11 Verkettung der Funktionen f und g

f

f∘g

102

Kapitel 4. Reelle Funktionen

Abb. 4.12 Signum- und Betragsfunktion

4.5 Signum- und Betragsfunktion Mittels Signum- und Betragsfunktion k¨onnen wir explizite Fallunterscheidungen vermeiden. Definition 4.5 (Signumfunktion) Die Funktion sign : R → {−1, 0, 1}, die jeder reellen Zahl x ihr Vorzeichen zuordnet, heißt Signumfunktion oder Vorzeichenfunktion (siehe Abbildung 4.12). ⎧ ur x > 0, ⎨ +1, f¨ 0, f¨ ur x = 0, sign(x) := ⎩ −1, f¨ ur x < 0. Schon bei den reellen Zahlen haben wir den Betrag (3.4) auf Seite 75 eingef¨ uhrt. Definition 4.6 (Betragsfunktion) Die Funktion f : R → [0, ∞[ mit f (x) = |x|, die jeder reellen Zahl x ihren Betrag zuordnet, heißt Betragsfunktion. ⎧ ur x > 0, ⎨ x, f¨ 0, f¨ ur x = 0, |x| := ⎩ −x, f¨ ur x < 0. Unter Verwendung der Signumfunktion l¨asst sich die Betragsfunktion schreiben in der Form |x| = x · sign(x). Beispiel 4.10 Die Funktion f (x) = |x2 − 4| besitze den Definitionsbereich D(f ) = R und hat damit den Wertebereich W (f ) = [0, ∞[. Zur Darstellung der Funktion betrachten wir zwei F¨alle: • Fall 1: x2 − 4 ≥ 0, d. h. x2 ≥ 4, also x ∈] − ∞, −2] ∪ [2, ∞[. Dort ist f (x) = x2 − 4.

103

4.6. Polynome und gebrochen-rationale Funktionen

• Fall 2: x2 − 4 < 0, d. h. x2 < 4, also x ∈] − 2, 2[. Dort ist f (x) = −x2 + 4. Insgesamt gilt f (x) =

x2 − 4, x ∈] − ∞, −2] ∪ [2, ∞[, 4 − x2 , x ∈] − 2, 2[.

4.6 Polynome und gebrochen-rationale Funktionen Polynome und gebrochen-rationale Funktionen kennen Sie sicher schon aus der Schule. Funktionen dieses Typs lassen sich mit Hilfe endlich vieler rationaler Operationen (Addition, Subtraktion, Multiplikation und Division) berechnen und bilden damit die Klasse der rationalen Funktionen.

4.6.1 Polynome Bei der Betrachtung von (Un-) Gleichungen haben wir bereits mit Polynomen gerechnet – auch wenn wir sie dort noch nicht so genannt haben. Sp¨ ater werden wir sehen, dass sich viele Funktionen durch Polynome approximieren lassen (vgl. Satz von Taylor auf Seite 441). Definition 4.7 (Polynome) Funktionen f : R → R mit f (x) = xn f¨ ur ur ein n ∈ N0 nennt man Monome. Dabei verwenden wir x0 = 1 (auch f¨ x = 0). Aus Monomen durch Addition und Multiplikation mit Zahlen (Linearkombinationen) zusammengesetzte und auf R definierte Funktionen heißen Polynome oder ganzrationale Funktionen. Der h¨ ochste tats¨ achlich auftretende Exponent heißt Grad des Polynoms. Die Menge aller Polynome mit Grad kleiner oder gleich n bezeichnen wir mit Pn . Ein Polynom pn (x) vom Grad n hat die allgemeine Darstellung pn (x) = a0 + a1 x + a2 x2 + · · · + an xn =

n 

ak x k .

k=0

Dabei nennt man die Zahlen ak ∈ R Koeffizienten. Ist der Leitkoeffizient an = 1, so spricht man von einem normierten Polynom. Ganzrationale Gleichungen haben die Gestalt pn (x) = 0 (vgl. Kapitel 3.4.1). Beispiel 4.11 f (x) = x2 + 1 hat Grad 2, f (x) = x3 + 2x2 + 7x + 4 hat Grad 3, f (x) = 17 hat Grad 0, f (x) = (x + 2)2 hat Grad 2.

104

Kapitel 4. Reelle Funktionen 8 6 4

x2

2 0

x3 +1

-2

−1 + x + x2 + x3

-4 -6 -8

-2

-1.5

-1

-0.5

0

0.5

1

1.5

2

Abb. 4.13 Polynome x2 , x3 + 1, −1 + x + x2 + x3

Addiert man zwei Polynome vom Grad kleiner oder gleich n, so entsteht wieder ein Polynom vom Grad kleiner oder gleich n. Multipliziert man zwei Polynome vom Grad n und m, so entsteht ein Polynom vom Grad n + m. Die Menge aller Polynome bildet einen Ring (siehe die Hintergrundinformationen auf Seite 52). Ein wichtiger Spezialfall sind Polynome vom Grad 1: p(x) = mx + b. Der Funktionsgraph ist eine Gerade, die die y-Achse im Punkt (0, b) und die x-Achse in (−b/m,0) schneidet (falls m = 0). Die Steigung (= H¨ ohenzuwachs durch Horizontaldifferenz) der Gerade ist m (siehe Abbildung 4.14). Beispiel 4.12 Wird an einer Straße eine Steigung von 30% angegeben, dann steigt die Straße 30 Meter auf 100 Meter. Hier ist m = 0,3. Eine Steigung von 100% entspricht m = 1 und einem Anstiegswinkel von 45 Grad. Berechnung einer Geradengleichung: • Hat man zwei verschiedene Punkte (x1 , y1 ) und (x2 , y2 ), so gibt es genau eine Gerade, die durch diese beiden Punkte geht. Falls x1 = x2 , ist diese Gerade u ¨ber eine Funktion darstellbar: y=

y2 − y1 y2 − y1 x + y1 − x 1 . x2 − x1 x2 − x1     m

b

Diese Darstellung nennt man die Zwei-Punkte-Form der Geradengleichung. Dass die damit beschriebene Gerade tats¨ achlich durch die Punkte (x1 , y1 ) und (x2 , y2 ) geht, sieht man, indem man x1 und x2 einsetzt. • Hat man einen Punkt (x1 , y1 ) und eine Steigung m, so gibt es genau eine Gerade mit dieser Steigung durch den Punkt:

105

4.6. Polynome und gebrochen-rationale Funktionen

y = mx + y1 − x1 m .   b

Diese Darstellung nennt man die Punkt-Steigungsform der Geradengleichung. Der Wert f¨ ur b ergibt sich aus der Gleichung y1 = mx1 + b.

y2 y2 − y1 y1 x2 − x1 b x2

x1 b = y1 − x1

Abb. 4.14 Gerade mit Stei1 gung m = xy2 −y −x 2

y2 − y1 x2 − x1

1

4.6.2 Interpolation Gibt man zwei Punkte mit unterschiedlichem x-Wert vor, so findet man genau eine Gerade, also ein Polynom vom maximalen Grad 2 − 1 = 1, dessen Graph durch beide Punkte geht. Das l¨asst sich verallgemeinern: In der Ingenieurpraxis sind h¨aufig Datenpaare (xk , yk ) durch Messungen gegeben. Gibt man so n Punkte mit unterschiedlicher erster Koordinate xk vor, so gibt es genau ein Polynom mit maximalem Grad n − 1, dessen Graph durch alle Punkte geht. Man spricht von einem Interpolationspolynom. Die Existenz des Interpolationspolynoms kann wie im folgenden Beispiel 4.13 gezeigt werden. Die Eindeutigkeit dieses Polynoms ist eine Konsequenz der Folgerung 5.1 auf Seite 169, die wir u ¨ber den Fundamentalsatz der Algebra gewinnen werden. Beispiel 4.13 Wir betrachten die vier Datenpaare (xk , yk ): k xk yk

0 1 2 3 0 2 3 4 48 0 3 8

Gesucht ist das eindeutige Interpolationspolynom p3 (x) vom Grad h¨ ochstens 3, das an den Stellen x0 , x1 , x2 und x3 die Werte y0 , y1 , y2 und y3 annimmt

106

Kapitel 4. Reelle Funktionen

(also p3 (xk ) = yk , f¨ ur k ∈ {0, 1, 2, 3}). Der Graph von p3 soll also durch die vorgegebenen vier Punkte verlaufen. Zur L¨osung der Aufgabe konstruieren wir zu den Stellen x0 , . . . , x3 spezielle Knotenpolynome, die an jeweils genau einer der Stellen den Wert 1 und an den anderen den Wert 0 annehmen: (x − 2) · (x − 3) · (x − 4) , (0 − 2) · (0 − 3) · (0 − 4) (x − 0) · (x − 3) · (x − 4) , q1 (x) = (2 − 0) · (2 − 3) · (2 − 4) (x − 0) · (x − 2) · (x − 4) , q2 (x) = (3 − 0) · (3 − 2) · (3 − 4) (x − 0) · (x − 2) · (x − 3) , q3 (x) = (4 − 0) · (4 − 2) · (4 − 3) q0 (x) =

so dass q0 (0) = 1, q0 (xk ) = 0, k = 0, so dass q1 (2) = 1, q1 (xk ) = 0, k = 1, so dass q2 (3) = 1, q2 (xk ) = 0, k = 2, so dass q3 (4) = 1, q3 (xk ) = 0, k = 3,

oder kurz qi (xk ) = δik

mit

δik :=

1, k = i, 0, k =  i.

Das Polynom qi (x) heißt i-tes Lagrange’sches Knotenpolynom, es nimmt in xi den Wert 1 und an den anderen Stellen den Wert 0 an. Mit den Knotenpolynomen bilden wir das Lagrange’sche Interpolationspolynom p3 (x) =

3  i=0

yi · qi (x).

Es gilt p3 (xk ) =

3  i=0

yi · qi (xk ) = yk ,  

k ∈ {0, 1, 2, 3},

=δik

d. h., p3 (x) interpoliert die gegebenen Daten. Speziell f¨ ur die angegebenen Werte erh¨alt man x(x − 2)(x − 4) (x − 2)(x − 3)(x − 4) +0+3· −24 −3 x(x − 2)(x − 3) +8 · 8   = (x − 2) (−2x2 + 14x − 24) − (x2 − 4x) + (x2 − 3x)

p3 (x) = 48 ·

= (x − 2)[−2x2 + 15x − 24] = −2x3 + 19x2 − 54x + 48.

Mittels Differenzialrechnung werden wir auf Seite 368 (Satz 13.6) sp¨ ater die Abweichungen zwischen Interpolationspolynom pn und gegebener Funktion f analysieren.

4.6. Polynome und gebrochen-rationale Funktionen

107

Zur Interpolation großer Datenmengen teilt man die Daten in kleine Einheiten, die man jeweils mit einem Polynom niedrigen Grades n (n ≤ 3) interpoliert. Diese Polynome setzt man dann zu einem st¨ uckweise definierten Interpolationspolynom (Spline) zusammen, siehe Beispiel 12.17 auf Seite 355.

4.6.3 Faktorzerlegung und Polynomdivision Polynome lassen sich als Produkt einfacher Faktoren schreiben, so dass man an dieser Darstellung sofort ihre Nullstellen ablesen kann. Satz 4.1 (Faktorzerlegung reeller Polynome) Ein normiertes Polynom pn (z) mit reellen Koeffizienten kann stets in ein Produkt aus Linearfaktoren (x − xk ) und/oder quadratischen Faktoren (x − α)2 + β mit β > 0 zerlegt werden. Die Faktoren sind bis auf ihre Reihenfolge eindeutig. Die Zahlen xk sind genau die maximal n reellen Nullstellen des Polynoms. Haben genau m Linearfaktoren den gleichen Zahlenwert xk , so nennt man xk eine m-fache Nullstelle von pn . Dieser Satz ist eine direkte Folgerung aus einer allgemeineren Aussage f¨ ur komplexe Polynome und wird mit dieser sp¨ater auf Seite 171 bewiesen. Die hier etwas unsch¨ onen quadratischen Faktoren werden unter Verwendung komplexer Zahlen ebenfalls zu Produkten von Linearfaktoren. In dieser Form heißt der Satz der Fundamentalsatz der Algebra (siehe Satz 5.1 auf Seite 168). Dieser Name unterstreicht die ganz außergew¨ ohnliche Bedeutung des Satzes, den wir vielf¨altig anwenden werden, z. B. direkt f¨ ur die n¨ achste Aussage: Satz 4.2 (Gleichheit von Polynomen) Seien f (x) und g(x) Polynome (mit D(f ) = D(g) = R). Diese sind gleich genau dann, wenn ihr Grad gleich ist und alle Koeffizienten u ¨bereinstimmen. Beweis Bei gleichem Grad und gleichen Koeffizienten stimmen nat¨ urlich die Funktionswerte u ¨berein. Umgekehrt nehmen wir an, dass f (x) und g(x) gleiche Polynome mit unterschiedlichem Grad oder unterschiedlichen Koeffizienten sind. Gleichheit bedeutet, dass alle Funktionswerte f (x) = g(x) f¨ ur x ∈ R gleich sind. f (x)−g(x) ist nun ein Polynom, das Koeffizienten ungleich null und damit einen Grad gr¨oßer 0 hat. Zugleich sind alle Funktionswerte null. Daran a¨ndert sich durch Multiplikation mit dem Kehrwert des von null ¨ verschiedenen Leitkoeffizienten und dem daraus resultierenden Ubergang zu

108

Kapitel 4. Reelle Funktionen

einem normierten Polynom nichts. Aber wegen des Satzes 4.1 hat dieses Polynom nur endlich viele Nullstellen xk , wird also nicht u ¨berall 0. Aufgrund des Widerspruchs muss der Satz gelten.  Statt unendlich viele Funktionswerte auf Gleichheit untersuchen zu m¨ ussen, k¨onnen wir nun wenige Koeffizienten vergleichen. Man nutzt dies h¨ aufig aus, um unbekannte Parameter zu bestimmen (Koeffizientenvergleich). Weiß man z. B., dass ax2 + bx + c = 4x2 + 2x, dann ist a = 4, b = 2 und c = 0. Bei Polynomen bis zum Grad 2 kann man Nullstellen (z. B. mittels p-qFormel) ohne Probleme berechnen. F¨ ur den Grad 3 und 4 ist das mit komplizierteren Formeln auch noch m¨oglich. F¨ ur einen Grad ab 5 ist im Allgemeinen eine exakte Berechnung gar nicht mehr m¨oglich. Wie man Nullstellen bei Polynomen dritten Grades berechnen kann, finden Sie nach der Einf¨ uhrung der komplexen Zahlen als Hintergrundinformation auf Seite 172. In Klausuren ist die Welt oft einfacher. Im Gegensatz zu realen Anwendungen haben hier die Polynome ganzzahlige Koeffizienten und meist auch ganzzahlige Nullstellen. Diese kann man gezielt durch Ausprobieren ermitteln: Sei x0 ∈ Z eine ganzzahlige Nullstelle des Polynoms p(x), also 0 = p(x0 ) = a0 + a1 x0 + a2 x20 + · · · + an xn0 , ). Damit ist bei ganzzahligen dann ist a0 = x0 (−a1 − a2 x0 − · · · − an xn−1 0 Koeffizienten a0 , a1 , . . . , an−1 ∈ Z eine ganzzahlige Nullstelle x0 ein Teiler des Koeffizienten a0 . Beispiel 4.14 Falls das Polynom p(x) = x3 + 2x2 − 5x − 6 eine ganzzahlige Nullstelle hat, dann muss sie als Teiler von −6 aus der Menge {−6, −3, −2, −1, 1, 2, 3, 6} stammen. Tats¨achlich sind die Nullstellen −3, −1 und 2. In Anwendungssituationen kann man sich bei Polynomen p(x) h¨ oherer Ordnung n damit behelfen, zun¨achst eine Nullstelle x0 am Funktionsgraphen abzulesen oder u ¨ber ein N¨aherungsverfahren (siehe Anmerkung zu Satz 11.6 auf Seite 320 und das Newton-Verfahren (12.5) auf Seite 349) auszurechnen. Hat man eine Nullstelle x0 gefunden, so l¨asst sich das Polynom wegen Satz 4.1 schreiben als p(x) = (x−x0 )s(x), wobei s(x) ein Polynom vom Grad n−1 ist. Die restlichen Nullstellen geh¨oren nun zum Polynom s(x). Ist beispielsweise n = 3, so hat s(x) den Grad 2, und man kann die weiteren Nullstellen mittels p-q-Formel bestimmen. p(x) berechnet. Dazu wendet man die PolyMan erh¨alt s(x), indem man x−x 0 nomdivision an. Allgemein betrachtet man dabei gebrochen-rationale Funktionen p(x)/q(x) (siehe Seite 113), wobei der Grad des Z¨ ahlerpolynoms p gr¨oßer oder gleich dem Grad des Nennerpolynoms ist. Gesucht ist eine Darstellung r(x) p(x) = s(x) + , (4.1) q(x) q(x)

109

4.6. Polynome und gebrochen-rationale Funktionen

wobei s und r Polynome sind, r ist der Rest der Division, dessen Grad kleiner ur eine Nullstelle x0 als der Grad von q(x) ist. Ist speziell q(x) = (x − x0 ) f¨ von p(x), so ist r(x) = 0. Man erh¨alt (4.1), indem man die Polynome nach absteigenden Potenzen sortiert und darauf den von der schriftlichen Division von Zahlen bekannten Algorithmus anwendet. Beispiel 4.15 ( x3 +2x2 −[ x3 −x2 3x2 −[ 3x2 −3x 3x −[ 3x

−2 ) ] −2 ] −2 −3 ] 1

:

(x − 1) = x2 + 3x + 3 +

1 x−1

Im ersten Schritt fragt man sich, womit man x multiplizieren muss, um x3 3 zu erhalten. Das ist xx = x2 . Damit: x3 + 2x2 − 2 = x2 (x − 1) + Rest, Rest = x3 + 2x2 − 2 − [x3 − x2 ] = 3x2 − 2. 2

Im zweiten Schritt teilt man nun den Rest durch (x − 1), erh¨ alt 3xx = 3x 3x und den neuen Rest (3x − 2). Division durch (x − 1) liefert x = 3 und den Rest 1. Wir benutzen jetzt die Polynomdivision, um bei einer gegebenen Nullstelle weitere zu finden. asst sich mit Beispiel 4.16 a) Das Polynom 4. Grades p4 (x) = x4 − 16 l¨ der Substitution u = x2 in das quadratische Polynom u2 − 16 mit den Nullstellen 4 und −4 u uhren. Damit hat das Ausgangspolynom die ¨berf¨ Nullstellen x = ±2. Polynomdivision liefert: (x4 − 16) : ((x − 2)(x + 2)) = (x4 − 16) : (x2 − 4) = x2 + 4. Die Zerlegung von p4 (x) lautet p4 (x) = (x − 2) · (x + 2) · (x2 + 4). b) Das kubische (Grad n = 3) Polynom p3 (x) = x3 − 8 hat die reelle Nullstelle x = 2. Abspalten des Linearfaktors (x − 2) durch Polynomdivision liefert: −8 ) : (x − 2) = x2 + 2x + 4. ( x3 3 2 ] −[ x −2x 2x2 −8 ] −[ 2x2 −4x 4x −8 −[ 4x −8 ] 0 Der Term x2 + 2x + 4 besitzt keine (reelle) Nullstelle, denn es gilt

110

Kapitel 4. Reelle Funktionen

x2 + 2x + 4 = (x + 1)2 + 3 = 0,

x ∈ R.

Wir erhalten die reelle Zerlegung p3 (x) = (x − 2) · ((x + 1)2 + 3). c) Das Polynom p3 (x) = x3 − 6x2 + 11x − 6 hat die Nullstelle x1 = 1. Polynomdivision ergibt (x3 − 6x2 + 11x − 6) : (x − 1) = x2 − 5x + 6, und man erh¨alt die Faktordarstellung p3 (x) = (x − 1) · (x2 − 5x + 6). Das Polynom s2 (x) = x2 − 5x + 6 hat die Nullstellen # 5 1 5 25 − 6 = ± , x2 = 3, x3 = 2. x2,3 = ± 2 4 2 2 Also lautet die Faktorzerlegung: p3 (x) = x3 − 6x2 + 11x − 6 = (x − 1) · (x − 2) · (x − 3). Die Nullstellen sind eindeutig durch die Koeffizienten des Polynoms bestimmt. Umgekehrt lassen sich die Koeffizienten aus den Nullstellen berechnen. Das ist der Satz von Vieta, f¨ ur den wir ein normiertes Polynom p(x) = xn + an−1 xn−1 + · · · + a1 x + a0 ,

ak ∈ R,

mit den Nullstellen x1 , x2 , . . . , xn ∈ R betrachten. Nach Satz 4.1 gilt: p(x) = xn + an−1 xn−1 + · · · + a1 x + a0 = (x − x1 )(x − x2 ) · · · (x − xn ). (4.2)

Satz 4.3 (Wurzelsatz von Vieta (1540–1603)) Es seien xk , k ∈ {1, 2, . . . , n}, die n Nullstellen des normierten Polynoms pn (x) = xn + an−1 xn−1 + an−2 xn−2 + · · · + a1 x + a0 . Dann gelten die Gleichungen x1 + x2 + · · · + xn = (−1)1 an−1 x1 x2 + x1 x3 + · · · + x 1 xn + x2 x3 + . . . +x2 xn + · · · + xn−1 xn = (−1)2 an−2 .. .  xi1 xi2 · · · xik = (−1)k an−k 1≤i1 0 nach x aufl¨osen. Damit hat die Exponentialfunktion eine Umkehrfunktion, die nach Lemma 4.2 ebenfalls streng monoton wachsend ist: Definition 4.11 (Nat¨ urlicher Logarithmus) Die Umkehrfunktion der Exponentialfunktion ist der nat¨ urliche Logarithmus ln :]0, ∞[→ R. Es gilt ln(exp(x)) = x, f¨ ur x ∈ R, exp(ln(x)) = x, f¨ ur x ∈]0, ∞[. Statt mit ln wird der nat¨ urliche Logarithmus auch mit log benannt. Die Funktion f (x) := exp(x) hat die Umkehrfunktion f −1 (x) = ln(x). Der 1 = e−x ist. Dem ist Exponent −1 k¨onnte suggerieren, dass dies gleich exp(x) aber nicht so: ln(x) und e−x sind grundverschiedene Funktionen. f −1 ist, wie bereits bei der Definition der Umkehrabbildung bemerkt, lediglich eine Schreibweise f¨ ur die Umkehrfunktion und hat in der Regel nichts mit einem Kehrwert zu tun.

118

Kapitel 4. Reelle Funktionen

Zum Abschluss des Abschnitts besch¨aftigen wir uns mit Rechenregeln f¨ ur den nat¨ urlichen Logarithmus. Seien x > 0 und y > 0: ln(x) + ln(y) = ln(xy),

x . ln(x) − ln(y) = ln y

Zum Nachweis der Regeln nutzen wir aus, dass die Exponentialfunktion bijektiv und damit injektiv ist. Sind also zwei Funktionswerte exp(a) und exp(b) der Exponentialfunktion gleich, so m¨ ussen auch die zugeh¨ origen Argumente a und b gleich sein. Es gen¨ ugt also, die beiden Gleichungen in einer Form nachzurechnen, bei der auf beiden Seiten die Exponentialfunktion angewendet ist: exp(ln(x) + ln(y)) = exp(ln(x)) exp(ln(y)) = xy = exp(ln(xy)),

x x exp(ln(x)) = = exp ln . exp(ln(x) − ln(y)) = exp(ln(y)) y y Weitere Eigenschaften des nat¨ urlichen Logarithmus f¨ ur x > 0 und y ∈ R: ln(1) = 0,

ln(e) = 1,

1 , − ln(x) = ln x

ln (xy ) = y ln(x),

  denn − ln(x) = ln(1)−ln(x) = ln x1 und exp(ln(xy )) = xy = [exp(ln(x))]y = exp(y ln(x)). In Abbildung 4.18 sind exp(x) und ln(x) eingezeichnet. Man erkennt, dass der Funktionsgraph der Umkehrfunktion durch Spiegelung an der Hauptdiagonalen (Punkte mit x = y) entsteht (vgl. auch Abbildung 4.10 auf Seite 98).

4

2 exp(x) 0 ln(x) -2

-4 -4

-2

0

Abb. 4.18 exp(x) auf ] − ∞, ∞[ und ln(x) auf ]0, ∞[

2

4

119

4.8. Exponentialfunktionen und Logarithmen

4.8.2 Allgemeine Exponentialfunktionen und Logarithmen F¨ ur jedes a > 0, a = 1, kann man eine Exponentialfunktion zur Basis a f : R →]0, ∞[,

f (x) := ax ,

definieren, deren Umkehrfunktion man als Logarithmus zur Basis a bezeichnet: f −1 :]0, ∞[→ R,

f −1 (x) := loga (x).

Wichtig sind die Werte a = 10, a = e und a = 2: lg(x) := log10 (x)

dekadischer Logarithmus,

ln(x) = loge (x)

nat¨ urlicher Logarithmus, dualer Logarithmus.

ld(x) := log2 (x)

uhrt man diese Funktion auf ex zur¨ uck: Um mit ax zu rechnen, f¨ ax = exp(x · ln(a)),

loga (x) =

ln(x) , ln(a)

denn es ist ax = [eln(a) ]x = ex ln(a) = exp(x ln(a)). F¨ ur y = loga (x) gilt nach urlichen der Definition des Logarithmus ay = x, und Anwendung des nat¨ Logarithmus auf beide Seiten liefert ln(ay ) = y ln(a) = ln(x) und somit die zweite Beziehung. Beispiel 4.23 (Rechnen mit verschiedenen Basen) a) lg(27) = ln(27)/ ln(10) = 3,2958.../2,3025... = 1,43136...; Probe: 101,4136... = 27. b) log27 (123) = ln(123)/ ln(27) = 1,46007...; Probe: 271,46007... = 123. c) log17 (13) = ln(13)/ ln(17) = 0,9053...; Probe: 170,9053... = 13. Durch die R¨ uckf¨ uhrung auf die e-Funktion bzw. den nat¨ urlichen Logarithmus u ur x > 0 und y > 0: ¨bertragen sich deren Rechengesetze, z. B. f¨ loga (x) + loga (y) = loga (xy), denn loga (x) + loga (y) =

1 ln(a) [ln(x)

+ ln(y)] =

ln(xy) ln(a)

= loga (xy).

Beispiel 4.24 a) log10 (100 000) = 5, denn 105 = 100 000, b) log5 (125) = 3, denn 53 = 125,

120

Kapitel 4. Reelle Funktionen

c) loga (ax ) = x, denn ax = ax , d) loga (a) = 1, denn a1 = a; loga (1) = 0, denn a0 = 1,  2  2  2 e) · loga (u) + loga (v) = loga u 5 + loga (v) = loga u 5 · v , 5 √ √  a·b·c = loga f) loga a · b · c − loga (a) √ a a + loga (b) + loga (c) − 1 = loga 1 1 = · loga (a) + loga (b) + loga (c) − 1 = loga (b) + loga (c) − , 2 2     81 = log3 (81) − log3 (27) = log3 34 − log3 33 = 4 − 3 = 1. g) log3 27

4.8.3 Exponential- und Logarithmusgleichungen Beispiel 4.25 Unter Verwendung von Exponentialfunktionen und Logarithmen l¨osen wir beispielhaft einige Gleichungen. Wenn eine exakte L¨ osung zu schwierig wird, kann man das Finden von L¨osungen auch als Suche von Nullstellen auffassen und dazu mit N¨aherungsverfahren arbeiten (vgl. Seite 349). a) Wir l¨osen 2x = 64. Anwendung des Logarithmus zur Basis 2 auf beide Seiten der Gleichung liefert 2x = 64 ⇐⇒ ld(2x ) = ld(64) ⇐⇒ x · ld(2) = ld(64) ⇐⇒ x =

6 ld(64) = = 6. ld(2) 1

b) Zu bestimmen ist die L¨osung x > 1 von

1 = −1. logx 4 Mit der Definition des Logarithmus ergibt sich sofort

1 1 = −1 ⇐⇒ x−1 = ⇐⇒ logx 4 4

x = 4.

c) Zu l¨osen ist 1 . 4 Anwendung der Exponentialfunktion auf beide Seiten f¨ uhrt zu ln(2x + 1) =

ln(2x + 1) =

1 1 1 ⇐⇒ eln(2x+1) = e 4 ⇐⇒ 2x + 1 = e 4 4 1 e4 − 1 . ⇐⇒ x = 2

121

4.8. Exponentialfunktionen und Logarithmen

d) Gesucht sind die L¨osungen von −8e−x + 2 · e−2x = −8. Substitution u = e−x liefert die quadratische Gleichung −8u + 2u2 = −8 osung u = 2. Wegen u = e−x bzw. in Normalform u2 − 4u + 4 = 0 mit der L¨ ist ln(u) = −x und damit x = − ln (2) . e) F¨ ur x > 1 ist

2 x −1 x2 − 1 2 = 0 ⇐⇒ = e0 = 1 ln(x − 1) − ln(x) = 0 ⇐⇒ ln x x ⇐⇒ x2 − 1 = x

x2 − x − 1 = 0.  Die Quadratische Gleichung hat die L¨osungen x = 12 ± 54 , aber wegen  der Einschr¨ankung x > 1 gibt es hier nur die L¨ osung x = 21 + 54 . ⇐⇒

Beispiel 4.26 (Wachstums- und Zerfallsprozesse) Die Exponentialfunktion beschreibt Wachstums- und Zerfallsprozesse. Bezeichnet N (t) eine Population zum Zeitpunkt t, so gilt bei exponentiellem Wachstum/Zerfall die Gleichung N (t) = N0 · eλ t mit der Anfangspopulation N0 und der Wachstumsrate λ > 0 oder der Zerfallsrate λ < 0. • Wir kommen zum Eingangsbeispiel zur¨ uck. Ausgehend von N0 = 240 000 Einwohnern zum Zeitpunkt t = 0 m¨oge die Einwohnerzahl Krefelds (N ) j¨ahrlich um 1,5% sinken. Mit der Beziehung f¨ ur exponentiellen Zerfall erhalten wir 0,985 N0 · eλ (t+1) N (t + 1) = = = eλ =⇒ λ = ln (0,985) ≈ −0,0151. N (t) 1 N0 · e λ t Die Population nach t Jahren l¨asst sich direkt oder u ur ¨ber die Beziehung f¨ den Zerfall angeben: N (t) = 240 000 · 0,985t = 240 000 · eln(0,985)t ≈ 240 000 · e−0,0151·t . Nach wie vielen Jahren T wird 200 000 unterschritten? 5 240 000 · e−0,0151·T ≤ 200 000 ⇐⇒ e−0,0151·T ≤ 6  

ln 56 5 ⇐⇒ T ≥ ≈ 12,07 ⇐⇒ − 0,0151 · T ≤ ln 6 −0,0151 Nach ungef¨ahr 12 Jahren wird die Stadt unter 200 000 Einwohner geschrumpft sein.

122

Kapitel 4. Reelle Funktionen

• Die aus der Corona-Pandemie bekannte Basisreproduktionszahl r0 > 0 gibt an, wie viele Personen ein Infizierter im Mittel ansteckt. Wir betrachten ein stark vereinfachtes Modell mit konstantem r0 , bei dem wir mit einer festen Zeitperiode rechnen, in der die Ansteckungen geschehen. Sei yk die Anzahl der Neuinfizierten in der Epoche k ∈ N0 . Der Anfangswert y0 ist die initiale Zahl der Infizierten. Diese infizieren dann y1 = r0 · y0 Personen in Epoche 1, die wiederum y2 = r0 · y1 = r02 · y0 Personen in Epoche 2 infizieren. In der n-ten Epoche gibt es damit yn = y0 · r0n = y0 exp(n ln(r0 )) Neuinfizierte. Damit ist klar, dass die Infektionswelle nur bei r0 < 1 und damit bei ln(r0 ) < 0 enden kann, w¨ahrend bei r0 > 1 und damit ln(r0 ) > 0 exponentielles Wachstum vorliegt. • Das Radon-Isotop 222 Rn hat eine Halbwertszeit von 3,8 Tagen. Wir ermitteln die Zeitspanne, nach der von 50 g Rn noch 0,5 g (also ein Prozent) u ¨brig ist. Mit dem Zerfallsgesetz N (t) = N0 · eλ t , N0 > 0, und den angegebenen Werten erhalten wir:

1 1 λ·3,8 = N0 ⇐⇒ 3,8 · λ = ln N (3,8) = N0 · e 2 2 − ln(2) ≈ −0,182. ⇐⇒ λ = 3,8 Damit lautet f¨ ur dieses Radon-Isotop das Zerfallsgesetz N (t) = 50 · e−0,182 t , mit dem wir die gesuchte Zeitspanne berechnen: 50 · e−0,182 T = 0,5 ⇐⇒ e−0,182 T = 0,01 ⇐⇒ T =

ln(0,01) ≈ 25,3 −0,182

Tage. Die Rechnung ist unabh¨angig von der konkreten Startmasse: Nach 25,3 Tagen sind von einer beliebigen Ausgangsmenge des Isotops nur noch ein Prozent u ¨brig. Der Rest ist durch Strahlung verloren gegangen. Beispiel 4.27 (Barometrische H¨ ohenformel) Die barometrische H¨ ohenformel beschreibt den Luftdruck p (gemessen in bar) in Abh¨ angigkeit der H¨ohe h (gemessen in Meter u ¨ber Meeresniveau): h

p = p0 · e− 7 991 ,

p0 = 1,013.

Der Luftdruck nimmt also mit zunehmender H¨ ohe exponentiell ab. Das kann man sich bei der Konstruktion eines H¨ohenmessers zunutze machen:

h h h p p =− = e− 7 991 ⇐⇒ ln p = p0 · e− 7 991 ⇐⇒ p0 p0 7 991

123

4.8. Exponentialfunktionen und Logarithmen

⇐⇒ h = −7 991 · ln

p p0

.

Mit einem Wetterballon wird ein Luftdruck von p = 0,65 bar gemessen. Wie hoch schwebt der Ballon in diesem Moment?

0,65 ≈ 3 546. h = −7 991 · ln 1,013 Der Ballon befindet sich in einer H¨ohe von 3 546 m. Wie hoch ist der Ballon, wenn nur noch die H¨alfte des Luftdrucks p0 gemessen wird, also p = p0 /2.



1 p0 ≈ 5 538,9. = −7 991 · ln h = −7 991 · ln 2p0 2 Nun ist der Ballon 5 538,9 m hoch. Beispiel 4.28 (Mindestlaufzeit eines Sortierverfahrens ∗ ) Bei Algorithmen interessieren die Laufzeiten in Abh¨angigkeit der Gr¨ oße bzw. Menge der zu verarbeitenden Daten. Als Beispiel sollen n verschiedene Zahlen aufsteigend sortiert werden. Die Sortierung soll durch paarweisen Vergleich geschehen. Es werden also sukzessive Zahlen an zwei Stellen in einem n-Tupel verglichen und in Abh¨angigkeit des Ergebnisses die Positionen der Zahlen ge¨andert. Dann findet der n¨achste Vergleich und die n¨ achste Umsortierung statt usw. Wir beginnen mit der unsortierten Auflistung und verfolgen einen Sortieralgorithmus bis zum sortierten Ergebnis. Bei jedem Vergleich k¨ onnen maximal zwei unterschiedliche Positionsreihenfolgen entstehen, wobei der Algorithmus mit einer von beiden weitermacht. Wir haben also nach dem ersten Vergleich die Ausgangspositionen und zwei weitere Positionsfolgen erreicht, insgesamt also 1 + 2. Jede der beiden neuen Reihenfolgen kann beim zweiten Vergleich zu maximal wieder je zwei neuen Positionsfolgen f¨ uhren. Nach zwei Vergleichen kann man also maximal 1 + 2 + 4 verschiedene Positionsanordnungen erzeugen. m Nach m paarweisen Vergleichen kann man bis zu 1 + 2 + 4 + · · · + 2m = k=0 2k m¨ogliche Reihenfolgen erhalten. Das sind nach m+1 der Formel (3.2) von Seite 69 f¨ ur die geometrische Summe 1−2 = 2m+1 −1 1−2 Reihenfolgen. Insgesamt gibt es n! Permutationen (also unterschiedliche Reihenfolgen) der n Positionen (siehe Seite 37). Die Ausgangsreihenfolge l¨ asst sich so w¨ahlen, dass jede vorgegebene Permutation als Positionsfolge der geordneten Zahlen auftritt. Um auf die sortierte Reihenfolge zu kommen, m¨ ussen also im schlechtesten Fall alle n! Positionsreihenfolgen erreichbar sein, d. h., man ben¨otigt mindestens m Vergleiche mit 2m+1 − 1 ≥ n!

⇐⇒

2m ≥

n! + 1 . 2

124

Kapitel 4. Reelle Funktionen

Dabei sch¨atzen wir die Fakult¨at f¨ ur gerades n elementar mit n! = 1 · 2 ·   n    3 · · · n2 · n2 + 1 · · · n2 + n2 ≥ n2 2 ganz grob nach unten ab. Wir benutzen den streng monoton wachsenden Logarithmus, um daraus eine Absch¨ atzung f¨ ur m zu erhalten. Sei dazu n ≥ 4.

  n

n 2 n! + 1 = ld(n! + 1) − ld(2) = ld(n! + 1) − 1 ≥ ld −1 m ≥ ld 2 2   n n n ld − 1 = [ld (n) − 1] − 1 = 2 2 2  n≥4 n 1 n 1 ld (n) − ld (n) − ld (n) = n ld(n). ≥ 2 2 8 8 Damit kann kein Sortieralgorithmus im ung¨ unstigsten Fall mit weniger als c · n ld(n) Vergleichen auskommen, wobei c > 0 eine von n unabh¨ angige Konstante ist. Gute Sortieralgorithmen erreichen diese Gr¨ oßenordnung. Viele effiziente Algorithmen f¨ ur andere Probleme als Sortierung haben ebenfalls n ld(n)-Laufzeiten, z. B. die schnelle Fourier-Transformation, die in Band 2 behandelt wird. Beispiel 4.29 (D¨ ampfung in Leitungen) Der Wirkungsgrad η ist in der Energietechnik das Verh¨altnis von Ausgangsleistung P2 zu Eingangsleistung P1 . In der Nachrichtentechnik betrachtet man den umgekehrten Quotienten. Das D¨ampfungsmaß a ist hier definiert als

P1 a := log10 P2 und wird z. B. verwendet, um die D¨ampfung in einer Leitung anzugeben. Die Einheit von a ist 1 B (1 Bel) = 10 dB (10 Dezibel). Die Leistung P ist definiert als Produkt von Spannung und Stromst¨ arke. U2 U2 Mit dem Ohm’schen Gesetz erhalten wir P1 = U1 I1 = R11 , P2 = U2 I2 = R22 . Ist R1 = R2 , so gilt: ' (



2

2 P1 U 1 R2 U1 U1 a = lg = lg = lg . (4.4) = 2 lg 2 P2 R1 U 2 U2 U2 Bei Diagrammen, die D¨ampfungen beschreiben, wird h¨ aufig eine logarithmische Darstellung verwendet.

4.8.4 Logarithmische Darstellungen In Physik und Technik wird ein Zusammenhang y = f (x) h¨ aufig anschaulicher, wenn man die x- und y-Achse einzeln oder gemeinsam logarithmisch einteilt. Folgende Darstellungen sind u ¨blich (siehe Abbildung 4.19):

125

4.8. Exponentialfunktionen und Logarithmen

• Einfach-logarithmische Darstellungen

ur gr¨oßer werdendes x sehr schnell sehr groß, so – Die Funktion ax wird f¨ dass man beim Zeichnen des Funktionsgraphen schnell an den oberen Rand des Diagramms st¨oßt. Abhilfe schafft hier eine andere Einteilung der y-Achse. Statt diese ¨aquidistant mit 0, 1, 2, 3, . . . einzuteilen, benutzt man f¨ ur die y-Achse eine 10Y -Einteilung 100 = 1, 101 = 10, 2 ahrend die x-Achse nor10 = 100, 103 = 1 000, 104 = 10 000, . . . , w¨ ” mal“ eingeteilt wird. Zeichnet man bei der logarithmischen Skalierung der y-Achse einen Funktionsgraphen zu f (x), dann ergibt sich das gleiche Bild, das bei normaler“ y-Achse zu lg(f (x)) entsteht. F¨ ur die Funk” tion f (x) = cabx zeichnet man so also den Graphen zu lg(f (x)) = lg(cabx ) = lg(c) + bx lg(a) = lg(c) + [b lg(a)]x.   Y

Wir sehen eine Gerade mit Steigung b lg(a). Das ist sehr hilfreich, wenn wir einen exponentiellen Zusammenhang vermuten und die Parameter mittels einer Ausgleichsgerade durch Messwerte bestimmen m¨ ochten. – W¨ahlt man dagegen eine logarithmische Einteilung der x-Achse und eine normale“ Einteilung der y-Achse, dann ergibt sich das gleiche ” ur die Funktion Bild, das bei normaler“ x-Achse zu f (10x ) entsteht. F¨ ” f (x) = c loga (bx) zeichnet man so also den Graphen einer Funktion g(X) mit g(X) = f (10X ) = c loga (b · 10X ) = c loga (b) + c loga (10X ) = c loga (b) + [c loga (10)]X, also auch hier eine Gerade, jetzt mit Steigung c loga (10).   1 (siehe (4.4)) Beispiel 4.30 Zeichnet man die D¨ampfung a = 2 lg U U2 1 als Funktion des Quotienten x = U U2 , d. h. als Funktion f (x) = 2 lg(x), so entsteht bei einer logarithmisch unterteilten x-Achse der Graph der Gerade 2X.

• Bei einer doppelt-logarithmischen Darstellung werden beide Achsen mit 100 , 101 , 102 , 103 , 104 , . . . beschriftet. Hat man eine Potenzfunktion f (x) = axb , so erh¨alt man durch Anwendung des Logarithmus lg(f (x)) = lg(a) + b lg(x) .     Y

X

Tr¨agt man also auf der normalen“ x-Achse lg(x) und auf der y-Achse ” lg(f (x)) an, so sieht man den Graphen zu Y = lg(a) + bX und damit eine Gerade. Der gleiche Graph entsteht bei der doppelt-logarithmischen Darstellung.

126

Kapitel 4. Reelle Funktionen

Beispiel 4.31 Setzen wir x = 10X in f (x) := xn ein, erhalten wir [10X ]n = 10nX , also Y = nX, und zeichnen eine Gerade mit Steigung n. F¨ ur einfach- und doppelt-logarithmische Darstellungen gibt es Spezialpapier im Schreibwarenhandel.

           



f (x) = 10 x

   











f (x) = 2 lg(x)

          

         

f (x) = x 2

         

Abb. 4.19 Einfach- und doppelt-logarithmische Darstellung: Beachten Sie, dass wegen 100 = 1 = 0 die Skalierung einiger Achsen nicht mit 0 beginnt

Beispiel 4.32 (Dampfdruckkurve) Der Druck, bei dem die fl¨ ussige und dampff¨ormige Phase eines Stoffes gleichzeitig auftreten, wird als Dampfdruck p bezeichnet. F¨ ur reine“ Stoffe h¨angt er nur von der Temperatur T ” ab: p(T ) = a · e−b/T . Dabei sind Parameter a (gemessen in Pa) und b (mit der Einheit K) Stoffkonstanten, und die Temperatur wird in K angegeben. Durch Division mit alt man p0 = 1 013 (mittlerer Druck auf Meeresh¨ohe, angegeben in mbar) erh¨ eine Gleichung ohne Einheiten: a p(T ) = · e−b/T . p0 p0 Mit dem Logarithmus zur Basis 10 erhalten wir



a b p(T ) = lg − · lg(e). lg p0 p0 T alt man Tr¨agt man die Variable y := lg(p(T )/p0 ) gegen x := 1/T auf, so erh¨ eine Gerade, deren Steigung −b lg(e) und y-Achsenabschnitt lg(a/p0 ) direkt mit je einem der beiden Stoffparameter a und b verbunden sind.

127

4.9. Trigonometrische Funktionen

4.9 Trigonometrische Funktionen Wie kann man die von der Zeit t abh¨angende Spannung u(t) beschreiben, die in einem Generator entsteht, bei dem sich eine Leiterschleife durch ein Magnetfeld dreht? Um diese Frage zu beantworten, ben¨ otigen wir trigonometrische Funktionen. Mit ihnen werden Schwingungen beschrieben. Generell erm¨oglichen sie die Arbeit mit Winkeln, z. B. wenn es um Drehungen im Raum geht. Die trigonometrischen Funktionen geh¨oren wie die Exponentialfunktion und der Logarithmus zur Klasse der transzendenten Funktionen. Sie besitzen f¨ ur einen spitzen Winkel x eine anschauliche Interpretation als Verh¨ altniszahlen von Seitenl¨angen in einem rechtwinkligen Dreieck bzw. am Einheitskreis.

4.9.1 Winkel und Bogenmaß Aus historischen Gr¨ unden wird der Vollwinkel in 360◦ eingeteilt (Gradmaß, Taste DEG“ auf dem Taschenrechner). Diese Einteilung ist f¨ ur die Anwen” dung in der Mathematik wenig geeignet, hier wird haupts¨ achlich das Bogenmaß (Taschenrechner: RAD“) verwendet. Dabei nutzt man aus, dass ein ” Einheitskreis (ein Kreis mit Radius 1) den Umfang 2π besitzt. Ist α ein Winkel im Gradmaß, so erh¨alt man u ¨ber den Dreisatz x α = 360 2π

bzw.

α=

360 x 2π

und

x=

2π α 360

den entsprechenden Winkel x im Bogenmaß. Dies ist genau die L¨ ange des Bogens, den der Winkel aus dem Einheitskreis schneidet. Folgende weitere Eckdaten sollten Sie sich merken: π2 entspricht 90◦ , π entspricht 180◦ , π4 entspricht 45◦ .

4.9.2 Sinus, Kosinus und Tangens Die Definition der trigonometrischen Funktionen erfolgt zun¨ achst u ¨ber die L¨angenverh¨altnisse im rechtwinkligen Dreieck. Definition 4.12 (Trigonometrische Funktionen) Das Dreieck ABC mit Seitenl¨angen AB, BC, AC sei rechtwinklig und 0 < x < π2 der Winkel zwischen AB und AC (siehe Abbildung 4.20). Dann setzen wir     Gegenkathete AB Ankathete , , cos(x) := sin(x) := BC Hypotenuse Hypotenuse AC AC

128

Kapitel 4. Reelle Funktionen 

 BC = AC sin(x)



Abb. 4.20 Dreieck aus Definition 4.12

tan(x) :=

BC AB





Gegenkathete Ankathete

 ,



AB = AC cos(x)

cot(x) :=

AB BC



Ankathete Gegenkathete

 .

Die Funktion sin heißt der Sinus, cos der Kosinus, tan der Tangens und cot der Kotangens.

Tabelle 4.1 Wichtige Funktionswerte von Sinus und Kosinus Winkel Sinus Kosinus

0◦ 0 0= 1=

1 2

30◦ √

√ 1

2

π 6

0 4

1 2

=

1 2

√ 1 2

45◦ √

3

60◦

π 4

1

1 2



√ 1 2

1 2

2 2

90◦

π 3

1 2



=

π 2

3

√ 1 2

1= 1

0=

180◦ π



4

0

√ 1

0

−1

1 2 2

Laut Definition ist tan(x) =

sin(x) cos(x)

und

cot(x) =

cos(x) . sin(x)

Eigentlich m¨ usste man sich u altnis ¨berlegen, dass die Funktionswerte als Verh¨ von Seitenl¨angen tats¨achlich nur vom Winkel abh¨ angen, dass also das Seitenverh¨altnis unabh¨angig von der tats¨achlichen Seitenl¨ ange ist. Das folgt aber aus den Strahlens¨atzen (vgl. Seite 496). Wir legen nun den Punkt A in den Koordinatenursprung. F¨ ur einen Punkt C auf dem Einheitskreis um A im ersten Quadranten (d. h., beide Koordina= ten sind nicht-negativ, siehe Abbildung 4.2 auf Seite 90) ist sin(x) = BC AC BC 1

= BC, cos(x) = AB. Durchl¨auft C nun alle Punkte des Einheitskreises, so erh¨alt man die Erweiterung des Sinus und Kosinus f¨ ur beliebige Winkelar  gumente außerhalb 0, π2 , siehe Abbildung 4.21. Ist B dabei links von A, so ist die L¨ange AB negativ zu verstehen, ebenso ist hier BC negativ, falls C unterhalb von B liegt. Insbesondere ist sin(0) = sin(2π) = 0

und

cos(0) = cos(2π) = 1.

129

4.9. Trigonometrische Funktionen

Damit sind Sinus und Kosinus aber nicht nur auf [0, 2π] erkl¨ art, sondern sie sind dar¨ uber hinaus 2π-periodisch fortgesetzt (vgl. Definition 4.4 auf Seite 96), d. h. sin(x + 2π) = sin(x)

und

cos(x + 2π) = cos(x)

bzw. sin(x + k2π) = sin(x)

und

cos(x + k2π) = cos(x),

k ∈ Z.

Dabei haben wir eine Umlaufrichtung entgegen dem Uhrzeigersinn gew¨ ahlt und positive Winkel benutzt. Der Gegenuhrzeigersinn heißt mathematisch positiver Sinn. Laufen   wiraber im Uhrzeigersinn, so verwenden wir negative Winkel, z. B.: sin π2 = sin − 3π 2 . Die Fortsetzung des Tangens bzw. Kotangens ist u ¨ber den Quotienten des fortgesetzten Sinus und Kosinus bzw. u ber dessen Kehrwert erkl¨ art. Im ¨ Gegensatz zu Sinus und Kosinus sind Tangens und Kotangens aber nicht an allen Stellen definiert. In Tabelle 4.2 sind Definitions- und Wertebereiche sowie die primitive (kleinste) Periode der Funktionen zusammengefasst.

Abb. 4.21 Fortsetzung der trigonometrischen Funktionen am Einheitskreis

¨ Uber die Konstruktion am Einheitskreis kann man auch sofort die Funktionsgraphen des Sinus und Kosinus ablesen (siehe Abbildung 4.22). Damit erh¨alt man die Funktionsgraphen in Abbildung 4.23.

Abb. 4.22 Konstruktion des Funktionsgraphen von sin(x)

130

Kapitel 4. Reelle Funktionen 2 1.5 cos(x)

1

sin(x)

0.5 0 -0.5 -1 tan(x)

-1.5 -2 −π

− 3π 4

− π2

cot(x) − π4

0

π 4

π 2

3π 4

π

Abb. 4.23 sin(x) (durchgezogene Linie), cos(x) (Graph des Sinus um π2 nach links ver¨ ¨ schoben), tan(x) (streng monoton steigende Aste), cot(x) (streng monoton fallende Aste) auf [−π, π]

Tabelle 4.2 Definitions-, Wertebereich und die jeweilige primitive Periode der Winkelfunktionen Funktion

Definitionsbereich

Wertebereich

primitive Periode

sin(x)

R

[−1, 1]



cos(x)

R

[−1, 1]



R

π

R

π

tan(x) cot(x)

R\

π 2

+ kπ, k ∈ Z



R \ {kπ, k ∈ Z}

Man erkennt sofort am Einheitskreis, dass | sin(x)| ≤ |x| ist, da die L¨ ange der Gegenkathete | sin(x)| k¨ urzer als die L¨ange des zugeh¨ origen Bogens ist. In Abbildung 4.21 sieht man ebenso im Vergleich mit der Bogenl¨ ange, dass tan(x) ≥ x f¨ ur 0 ≤ x < π2 ist. Außerdem sieht man, dass sin(x + π) = − sin(x)

und

cos(x + π) = − cos(x).

Am gestrichelten Dreieck in Abbildung 4.24 lesen wir ab, wie man sin(x) und cos(x) ineinander u uhrt. Sie sind um π2 phasenverschoben: ¨berf¨  π = cos(x), sin x + 2

 π cos x − = sin(x), 2

x ∈ R.

131

 

x+

sin(x)

π = cos(x) sin x + ( 2)

4.9. Trigonometrische Funktionen

π 2 x

Abb. 4.24 sin(x + π/2) = cos(x) und cos(x + π/2) = − sin(x)





π = − sin(x) cos x + ( 2)

cos(x)

Die folgenden Symmetrieeigenschaften lassen sich ebenfalls direkt aus der Konstruktion am Einheitskreis ablesen. Lemma 4.3 (Symmetrie, vgl. Definition 4.2) Die Sinus- und Tangensfunktion sind ungerade, Kosinus ist eine gerade Funktion, d. h. sin(−x) = − sin(x) f¨ ur alle x ∈ R, cos(−x) = cos(x) f¨ ur alle x ∈ R, tan(−x) =− tan(x) f¨ ur alle x ∈] − π/2, π/2[. Erlaubt man in der Definition 4.2 (Seite 94) der Punktsymmetrie eine Definitionsl¨ ucke bei 0, so ist auch der Kotangens eine ungerade Funktion. H¨aufig ben¨otigt man die Nullstellen und die Extremstellen:  π + kπ = 0, k ∈ Z, sin(kπ) = 0 und cos 2  π k + kπ = (−1) und cos(kπ) = (−1)k , k ∈ Z. sin 2 Beispiel 4.33 Dreht sich eine Leiterschleife in einem konstanten Magnetfeld, so wird eine von der Zeit abh¨angende Spannung induziert (siehe Ab¨ bildung 4.25). Die Spannung h¨angt ab von der Anderung des magnetischen Flusses durch die Schleife. Zun¨achst bestimmen wir den magnetischen Fluss in Abh¨angigkeit des Drehwinkels α. F¨ ur α = 0 ist dieser maximal und sei Φ(0) := Φ0 . Damit ist cos(α) = Φ(α) Φ(0) , also Φ(α) = Φ0 cos(α). Drehen wir mit konstanter Geschwindigkeit, so ist der Drehwinkel α(t) zum Zeitpunkt t bestimmt u orige magnetische Fluss ¨ber α(t) = ct. Der zugeh¨ ist Φ(t) = Φ0 cos(ct). Die induzierte Spannung berechnet sich u ¨ber die ¨ Lenz’sche Regel als negative momentane Anderung des magnetischen Flusses zum Zeitpunkt t. Hier muss eine Ableitung berechnet werden, die die

132

Kapitel 4. Reelle Funktionen

¨ momentane Anderung angibt. Wir verschieben diese Aufgabe, bis wir mit Ableitungen rechnen k¨onnen (siehe Seite 342, u(t) = c Φ0 sin(c t)).

α





α

Abb. 4.25 Wechselstromgenerator mit magnetischem Fluss Φ(α) = Φ0 cos(α)

     Φ0 cos(α)   α      

α α

        Φ0     

4.9.3 Trigonometrische Funktionen in der Geometrie Der Satz von Pythagoras aus Abbildung 2.3 (Seite 50), nach dem in einem rechtwinkligen Dreieck das Quadrat a2 der Gegenkathete a plus das Quadrat b2 der Ankathete b gleich dem Quadrat c2 der Hypotenuse c ist, also a2 +b2 = uckt: c2 , lautet mittels Sinus und Kosinus ausgedr¨ Lemma 4.4 (Trigonometrische Form des Satzes von Pythagoras) F¨ ur alle x ∈ R gilt: (4.5) sin2 (x) + cos2 (x) = 1.

Denn hat die Hypotenuse die L¨ange 1, so ist sin(x) die L¨ ange der Gegenund cos(x) die L¨ange der Ankathete. Beim Satz von Pythagoras betrachtet man einen rechten Winkel. Mittels der Kosinusfunktion kann der Satz auf beliebige Winkel erweitert werden: Satz 4.4 (Kosinus-Satz) In einem Dreieck mit Seitenl¨ angen a, b und c sei γ der Winkel zwischen den Seiten mit L¨angen a und b (siehe Abbildung 4.26). Dann gilt: c2 = a2 + b2 − 2ab cos(γ). Beweis Wir wenden den Satz von Pythagoras an und erhalten im Dreieck aus Abbildung 4.26: h22 + b22 = c2 sowie b21 + h22 = a2 . Setzen wir h22 = a2 − b21

133

4.9. Trigonometrische Funktionen

Abb. 4.26 Bezeichnungen f¨ ur den Sinus- und Kosinus-Satz

in die erste Gleichung ein, erhalten wir a2 − b21 + b22 = c2 . Da cos(γ) = in (4.6):

b1 a,

(4.6)

ist b1 = a cos(γ) und b2 = b − b1 = b − a cos(γ). Eingesetzt

a2 − a2 cos2 (γ) + (b − a cos(γ))2 = c2 ⇐⇒ a2 − a2 cos2 (γ) + b2 − 2ab cos(γ) + a2 cos2 (γ) = c2 ⇐⇒ a2 + b2 − 2ab cos(γ) = c2 .

Diese Konstruktion gelingt auch, wenn die Strecke mit L¨ ange h2 , die senkrecht zu einer Gerade durch die Strecke mit L¨ ange b in Abbildung 4.26 steht, außerhalb des Dreiecks verl¨auft.  Neben dem Kosinus-Satz ist der Sinus-Satz eine wichtige Aussage f¨ ur allgemeine Dreiecke, die man direkt u ¨ber die Definition der Sinusfunktion ablesen kann: Satz 4.5 (Sinus-Satz) In einem Dreieck mit Seitenl¨ angen a, b und c sei α der Winkel, der der Seite mit L¨ange a gegen¨ uberliegt, der Winkel β liege b und γ der Seite mit L¨ange c gegen¨ uber (siehe Abbildung 4.26). Dann gilt: b c a = = . sin(α) sin(β) sin(γ) Beweis Wegen sin(α) =

h1 b ,

sin(α) =

a ab b b a = h1 = , = h1 = sin(α) h sin(β) 1 b a

h2 c ,

sin(β) =

h1 a

und sin(γ) =

h2 a

ist

a a ac c c = h2 = . = h2 = sin(α) h sin(γ) 2 c a 

Beispiel 4.34 Die Breite eines Flusses soll bestimmt werden, ohne dass man daf¨ ur den Fluss u uberliegenden ¨berqueren muss. Dazu sucht man am gegen¨

134

Kapitel 4. Reelle Funktionen

Ufer einen Bezugspunkt B und einen Punkt A direkt gegen¨ uber von B am eigenen Ufer (siehe Abbildung 4.27). Außerdem ben¨ otigt man einen weiteren Punkt C am eigenen Ufer. Gesucht ist der Abstand AB. Den Abstand AC von A und C kann man messen, ebenso durch Anpeilen des Punktes B die Winkel γ zwischen den Strecken AC und AB sowie β zwischen den Strecken CA und CB. Damit ist AB AC = , sin(β) sin(π − β − γ) so dass die Breite AB des Flusses aus den Messungen berechnet werden kann.

Abb. 4.27 Zur Anwendung des Sinus-Satzes im Beispiel 4.34

4.9.4 Additionstheoreme F¨ ur die Funktionswerte von Winkelsummen gelten Rechenregeln, die man Additionstheoreme nennt. Unter Verwendung komplexer Zahlen werden diese Regeln sp¨ater zu Potenzregeln, die sich wesentlich leichter merken lassen (siehe Kapitel 5.3.4). Satz 4.6 (Additionstheoreme f¨ ur Summen im Argument) F¨ ur alle x, y ∈ R gilt: cos(x + y) = cos(x) cos(y) − sin(x) sin(y),

sin(x + y) = sin(x) cos(y) + cos(x) sin(y).

(4.7) (4.8)

Beweis (Skizze) Wir beschr¨anken uns auf den anschaulichen ersten Quadranten, wie in Abbildung 4.28 dargestellt. F¨ ur y = 0 oder y = π/2 erh¨ alt man die Additionstheoreme unmittelbar. F¨ ur alle Werte ungleich k π2 sind sin(y) = 0 und cos(y) = 0. Hier erhalten wir (siehe Abbildung 4.28): sin(x) =

BC BC =⇒ BC = sin(x) cos(y), = cos(y) AC

135

4.9. Trigonometrische Funktionen

Abb. 4.28 Herleitung der Additionstheoreme am Einheitskreis

DC DC =⇒ DC = sin(x) sin(y), = sin(y) EC AB AB =⇒ AB = cos(x) cos(y), cos(x) = = cos(y) AC ED ED =⇒ ED = cos(x) sin(y). cos(x) = = sin(y) EC sin(x) =

Damit: cos(x + y) = AF = AB − DC = cos(x) cos(y) − sin(x) sin(y), sin(x + y) = EF = ED + BC = cos(x) sin(y) + sin(x) cos(y).  Damit hat man auch ein entsprechendes Additionstheorem f¨ ur den Tangens bewiesen: Folgerung 4.1 (Summe im Argument des Tangens) F¨ ur x, y ∈ R mit x, y, x + y = (2k + 1) π2 , k ∈ Z, gilt: tan(x + y) =

tan(x) + tan(y) . 1 − tan(x) tan(y)

(4.9)

Beweis tan(x + y) =

sin(x) cos(y) + cos(x) sin(y) tan(x) + tan(y) sin(x + y) = = . cos(x + y) cos(x) cos(y) − sin(x) sin(y) 1 − tan(x) tan(y)

Im letzten Schritt haben wir mit 1/[cos(x) cos(y)] erweitert. Setzt man in (4.7) und (4.8) y = x, so ergibt sich zusammen mit (4.5)



136

Kapitel 4. Reelle Funktionen

Folgerung 4.2 (Doppelter Winkel) F¨ ur alle x, y ∈ R gilt: cos(2x) = cos2 (x) − sin2 (x) = 2 cos2 (x) − 1, sin(2x) = 2 sin(x) cos(x).

(4.10) (4.11)

Insbesondere ist also cos2 (x) = 21 [cos(2x) + 1] und sin2 (x) = cos2 (x) − cos(2x) = 21 [1 − cos(2x)]. Ersetzt man in (4.7) und (4.8) y durch −y, so erh¨alt man Folgerung 4.3 (Additionstheoreme f¨ ur Differenzen im Argument) F¨ ur alle x, y ∈ R gilt: cos(x − y) = cos(x) cos(y) + sin(x) sin(y), sin(x − y) = sin(x) cos(y) − cos(x) sin(y).

(4.12) (4.13)

Addieren wir (4.8) und (4.13), so erhalten wir sin(u + v) + sin(u − v) = 2 sin(u) cos(v). Mit u =

x−y 2

und v =

x+y 2

ergibt sich die Beziehung

Folgerung 4.4 (Additionstheorem f¨ ur die Differenz zweier SinusWerte) F¨ ur alle x, y ∈ R gilt:



x−y x+y sin . (4.14) sin(x) − sin(y) = 2 cos 2 2

Ber¨ ucksichtigen wir, dass sin(x) eine ungerade Funktion ist, ergibt sich daraus Folgerung 4.5 (Additionstheorem f¨ ur die Summe von Funktionswerten) F¨ ur alle x, y ∈ R gilt:



x+y x−y sin , (4.15) sin(x) + sin(y) = 2 cos 2 2



x+y x−y cos . (4.16) cos(x) + cos(y) = 2 cos 2 2

137

4.9. Trigonometrische Funktionen

Beweis Nach (4.14) ist

sin(x) + sin(y) = sin(x) − sin(−y) = 2 cos

x−y 2



sin

x+y 2

.

Die Gleichung (4.16) erh¨alt man, indem man Kosinus u ¨ber den Sinus schreibt:     π π cos(x) + cos(y) = sin x + + sin y + 2 2







x + π2 − y − π2 x+y+π x−y x+y sin = 2 cos cos . = 2 cos 2 2 2 2 

4.9.5 Harmonische Schwingungen und Zeigerdiagramme ¨ In der Wechselstromtechnik betrachtet man Uberlagerungen von Spannungen und Str¨omen, die die gleiche Frequenz (z. B. 50 Hz) haben. Eine entsprechende Spannung l¨asst sich schreiben als u(t) = u ˆ cos(ωt + ϕu ).

(4.17)

Die Funktion (4.17) beschreibt die allgemeine harmonische Schwingung. Sie ist eine der wichtigsten Funktionen in der Elektrotechnik und im Maschinenbau u ¨berhaupt. Die Amplitude u ˆ der Schwingung ist die maximale Auslenkung, ω ist die ω ist die Winkelgeschwindigkeit oder Kreisfrequenz (in rad / s), bzw. 2π Frequenz der Schwingung (in 1/ s, also Hertz, Hz). Man nennt ωt + ϕu den Phasenwinkel (die Phase). Dabei heißt ϕu Nullphasenwinkel, da zum Zeitpunkt t = 0 der Kosinus zu diesem Wert berechnet werden muss. Wegen ur (4.17) auch die Darstellung sin(x + π2 ) = cos(x) erh¨alt man f¨   π  u(t) = u ˆ sin ωt + ϕu + 2 ω . Bez¨ uglich des Sinus hat man den neuen Nullmit der gleichen Frequenz 2π π phasenwinkel ϕu + 2 . Die primitive Periode (vgl. Definition 4.4) oder Schwingungsdauer T > 0 der Funktion ergibt sich zu T = 2π ω aus !

u ˆ cos(ω(t + T ) + ϕu ) = u ˆ cos(ωt + ϕu )

⇐⇒

ωT = k · 2π,

k ∈ Z.

¨ Uberlagert man zwei Sinus- oder Kosinus-Funktionen gleicher Frequenz, so hat auch die Summenfunktion diese Frequenz und l¨ asst sich in der Form (4.17) schreiben. Man erkennt dies, indem man die Summe u ¨ber ein Zeigerdiagramm bildet (siehe Abbildung 4.29, vgl. auch Abbildung 4.22). Man

138

Kapitel 4. Reelle Funktionen

addiert die Zeiger, die die beiden Ausgangsfunktionen beschreiben, indem man einen an die Spitze des Zweiten setzt, und erh¨ alt einen Zeiger, der die Summenfunktion beschreibt. Diese Zeigerarithmetik (Vektorrechnung) werden wir noch ausf¨ uhrlich in der Linearen Algebra (Buchteil III) untersuchen. Statt mit den Funktionen rechnet man in der Elektrotechnik mit Zeigerdiagrammen. Jeder Zeiger ist eindeutig durch L¨ange und Winkel charakterisiert. Man kann den Zeiger aber auch eindeutig mit den beiden Koordinaten des Punktes an der Spitze des Pfeils beschreiben. Eine Koordinate ist der zum Winkel geh¨orende Funktionswert, die andere Koordinate sieht man zwar nicht direkt im Funktionsgraphen, aber in der Tat vereinfacht sich der Umgang mit Funktionen des Typs (4.17), wenn man diese (imagin¨ are) Koordinate bei Rechnungen einbezieht. Geeignete Rechenregeln f¨ ur Punkte in der Ebene f¨ uhren uns zu den komplexen Zahlen in Kapitel 5.

Abb. 4.29 Addition von trigonometrischen Funktionen mittels Zeigerdiagramm

Was wir mit Hilfe der Zeiger anschaulich erkl¨ art haben, vollziehen wir nun rechnerisch nach. Gegeben sind die Schwingungen u1 (t) = a · cos(ωt)

und

u2 (t) = b · cos(ωt + ϕ).

Das Additionstheorem (4.7) f¨ ur den Kosinus liefert u1 (t) + u2 (t) = a · cos(ωt) + b · [cos(ωt) cos(ϕ) − sin(ωt) sin(ϕ)] = [a + b cos(ϕ)] · cos(ωt) − b sin(ϕ) · sin(ωt). (4.18) 

Mit A :=

(a + b cos(ϕ))2 + b2 sin2 (ϕ) folgt

u1 (t) + u2 (t) = A ·

b sin(ϕ) a + b cos(ϕ) · cos(ωt) − · sin(ωt) . A A

139

4.9. Trigonometrische Funktionen

Die Koeffizienten von cos(ωt) und sin(ωt) in der Klammer liegen im Intervall [−1, 1], und es gilt nach Definition von A

a + b cos(ϕ) A

2

+

b sin(ϕ) A

2 = 1.

und b sin(ϕ) als Seitenl¨ angen in einem rechtwinkliDamit k¨onnen wir a+b cos(ϕ) A A gen Dreieck mit Hypotenusenl¨ange 1 ansehen, d. h., die Koeffizienten k¨ onnen als Kosinus und Sinus eines Winkels ϕ0 geschrieben werden, der eindeutig u ¨ber a + b cos(ϕ) b sin(ϕ) , sin(ϕ0 ) = cos(ϕ0 ) = A A festgelegt ist. Wir erhalten die Darstellung als harmonische Schwingung (4.7)

u1 (t) + u2 (t) = A · (cos(ϕ0 ) · cos(ωt) − sin(ϕ0 ) · sin(ωt)) = A · cos(ωt + ϕ0 ). Beispiel 4.35 (Schwebungen) Ein weiterer interessanter Schwingungstyp ist die Schwebung. Sie tritt auf, wenn sich zwei harmonische Schwingungen fast gleicher Frequenz u ¨berlagern. Wir betrachten die Schwingung x(t) = A · (sin(ω0 t) − sin(ωt))

mit

ω ≈ ω0 .

Diese Schwingung kann beispielsweise entstehen, wenn sich die T¨ one zweier leicht verstimmter Orgelpfeifen u ¨berlagern. Mit den Additionstheoremen (4.8) und (4.13) des Sinus

ω0 − ω ω0 + ω t+ t sin(ω0 t) = sin 2 2







ω0 − ω ω0 + ω ω0 − ω ω0 + ω t · cos t +cos t · sin t = sin 2 2 2 2

ω0 − ω ω0 + ω t− t sin(ωt) = sin 2 2







ω0 − ω ω0 + ω ω0 − ω ω0 + ω t · cos t −cos t · sin t = sin 2 2 2 2 erhalten wir mit

ω0 + ω ω0 − ω t · cos t : 2 2



ω0 + ω ω0 − ω t · cos t , x(t) = 2A · sin 2 2

sin(ω0 t) − sin(ωt) = 2 sin

140

Kapitel 4. Reelle Funktionen

x(t) = C(ω) · cos



ω0 + ω t 2

mit C(ω) := 2A · sin

ω0 − ω t . 2

Wegen ω0 ≈ ω ist ω02−ω ≈ 0 und ω02+ω ≈ ω0 , so dass x(t) als hochfrequente Schwingung mit Kreisfrequenz ≈ ω0 interpretiert werden kann, deren Amplitude C(ω) niederfrequent schwingt. Dieses Ph¨anomen heißt Schwebung (siehe Abbildung 4.30). 







Abb. 4.30 Schwebung

 









4.9.6 Arkus-Funktionen Da die trigonometrischen Funktionen 2π-periodisch sind, nehmen sie ihre Funktionswerte an unendlich vielen Stellen an. Sie sind also nicht injektiv und damit nicht umkehrbar. Schr¨ankt man aber den Definitionsbereich so ein, dass sie auf dem neuen Definitionsbereich streng monoton und damit injektiv werden, nennt man die dann existierenden Umkehrfunktionen die ArkusFunktionen. Das Monotonieintervall der Ausgangsfunktion entspricht dem Wertebereich der Umkehrfunktion. Da man zwischen unendlich vielen Monotonieintervallen w¨ahlen kann, gibt es auch entsprechend viele verschiedene Umkehrfunktionen. W¨ahlt man die in Tabelle 4.3 und im Folgenden angegebenen Intervalle, so erh¨alt man Umkehrfunktionen, die man jeweils als den Hauptwert der Arkus-Funktion bezeichnet. Umkehrfunktionen zu anderen Monotonieintervallen der Winkelfunktionen k¨ onnen dann mit Hilfe der Hauptwerte bestimmt werden. ankte Sinusfunktion • arcsin(x): Da die auf das Intervall [− π2 , π2 ] eingeschr¨ f (x) = sin(x), f : − π2 , π2 → [−1, 1], streng monoton steigend ist, existiert die zugeh¨orige Umkehrfunktion (siehe Abbildung 4.31). Diese Funktion f −1 heißt Arkussinus:

141

4.9. Trigonometrische Funktionen Tabelle 4.3 Arkus-Funktionen Funktion sin(x) cos(x) tan(x) cot(x)

Monotonieintervall

− π2 ,

[0, π] π −2,

π 2

π 2



]0, π[

Umkehrfunktion

zugeh¨ origer Definitionsbereich

arcsin(x)

[−1, 1]

arccos(x)

[−1, 1]

arctan(x)

] − ∞, ∞[

arccot(x)

] − ∞, ∞[

 π π . f −1 = arcsin : [−1, 1] → − , 2 2 Es gilt also = x f¨ ur x ∈ [−1, 1] und arcsin(sin(x)) = x   sin(arcsin(x)) f¨ ur x ∈ − π2 , π2 . Sucht man alle Winkel x, an denen der Sinus einen konkreten Wert y ∈ [−1, 1] annimmt, dann erh¨ alt man diese als Menge {x ∈ R : x = arcsin(y) + k2π oder x = π − arcsin(y) + k2π, k ∈ Z}. 1.5 1 0.5 0 -0.5 -1

Abb. 4.31 sin(x) und arcsin(x)

-1.5 − 12 π

− 41 π

0

1 π 4

1 π 2

• arccos(x): Die auf [0, π] eingeschr¨ankte Kosinusfunktion f (x) = cos(x), f : [0, π] → [−1, 1], ist streng monoton fallend und somit umkehrbar (siehe Abbildung 4.32). Die Umkehrfunktion f −1 heißt Arkuskosinus: f −1 = arccos : [−1, 1] → [0, π]. Sucht man alle Winkel x, an denen der Kosinus einen konkreten Wert y ∈ [−1, 1] annimmt, dann erh¨alt man diese als Menge {x ∈ R : x = arccos(y) + k2π oder x = − arccos(y) + k2π, k ∈ Z}.   • arctan(x): Indem man die Tangensfunktion auf das Intervall − π2 , π2 einschr¨ankt, erh¨  einen streng monoton steigenden Zweig f (x) =  alt man tan(x), f : − π2 , π2 → R (siehe Abbildung 4.33). Die Umkehrfunktion f −1 heißt der Arkustangens:

142

Kapitel 4. Reelle Funktionen 3 2 1 0 -1 -2

Abb. 4.32 cos(x) und arccos(x)

-3 - 21 π

- 41 π

0

1 π 4

1 π 2

3 π 4

π

 π π . f −1 = arctan : R → − , 2 2 Sucht man alle Winkel x, an denen der Tangens einen Wert y ∈ R annimmt, dann erh¨alt man diese u ¨ber x = arctan(y) + kπ, k ∈ Z. Der Arkustangens ist auf ganz R definiert, und wir werden noch ausnutzen, dass es sich um eine glatte“ Funktion mit sch¨ onen Eigenschaften wie ” strenge Monotonie und Beschr¨anktheit handelt. Sie wird uns insbesondere bei der Integration gebrochen-rationaler Funktionen helfen. Auch sehen wir, dass u ¨ber den Arkustangens  reellen Zahl bijektiv ein Element aus  jeder onnen dem beschr¨ankten Intervall − π2 , π2 zugeordnet ist. Allgemeiner k¨ alle reellen Zahlen durch Werte aus ]a, b[ mit der bijektiven Abbildung kodiert werden. Man sagt, das Intervall g(x) := a + (b − a) · 12 + arctan(x) π hat die gleiche M¨ achtigkeit wie R (vgl. Kapitel 2.3.6).

4 2 0 -2 -4

Abb. 4.33 tan(x) und arctan(x)

−2π

− 32 π

−π

− 21 π

0

1 π 2

π

3 π 2



143

4.9. Trigonometrische Funktionen



! Achtung

Bei der Umkehrung der trigonometrischen Funktionen werden h¨ aufig Fehler gemacht. Die Umkehrfunktion des Sinus ist nicht der Kosinus, auch nicht 1 = (sin(x))−1 . Die Arkus-Funktionen k¨ onnen nicht so − sin(x) oder sin(x) elementar u ¨ber sin(x) und cos(x) dargestellt werden.

4.9.7 Trigonometrische Gleichungen Es gibt kein standardisiertes L¨osungsverfahren f¨ ur Gleichungen, in denen trigonometrische Funktionen vorkommen. Oft ist es aber hilfreich, in den trigonometrischen Ausdr¨ ucken zun¨achst die Variable so durch einen Term in einer anderen Variable zu ersetzen (zu substituieren), dass man eine Gleichung mit nur einer trigonometrischen Funktion erh¨alt. Beispiel 4.36 a) F¨ ur x ∈ [0, 1] l¨osen wir die Gleichung  sin2 (arccos(x)) + 1 = 2 1 − x2 ,   indem wir x = cos(y) (d. h. y = arccos(x), y ∈ 0, π2 ) substituieren. Denn damit erhalten wir eine Gleichung mit nur einer trigonometrischen Funktion: Mit x = cos(y) ist sin2 (arccos(x)) = sin2 (arccos(cos(y))) = sin2 (y) und    1 − x2 = 1 − cos2 (y) = sin2 (y) = | sin(y)| = sin(y), so dass die Gleichung lautet sin2 (y) − 2 sin(y) + 1 = 0 mitder  L¨osung sin(y) = 1, also y = cos π2 = 0. b) Ebenfalls f¨ ur x ∈ [0, 1] l¨osen wir

π 2.

Die R¨ ucksubstitution ergibt x =

arcsin(x) + arccos(x) = 2x. Auch  zun¨achst die Variable x – nun durch sin(y) =  wir  hier ersetzen cos π2 − y , y ∈ 0, π2 – und erhalten y+ Die L¨osung ist y = arcsin

π 4

π − y = 2 sin(y). 2 und damit x = sin(y) =

π 4.

144

Kapitel 4. Reelle Funktionen

4.10 Hyperbel- und Areafunktionen Die Hyperbelfunktionen (oder hyperbolische Funktionen) ben¨ otigt man beispielsweise, wenn man die Kurve eines an den Enden befestigten Seils beschreiben m¨ochte (Kettenlinie, siehe Band 2, Seite 192). In der Elektrotechnik werden Hyperbelfunktionen z. B. in digitalen Filtern gebraucht. Sie sind eng verwandt mit den trigonometrischen Funktionen (vgl. Seite 160).

4.10.1 Hyperbelfunktionen

Definition 4.13 (Hyperbelfunktionen) Der Hyperbelsinus (Sinushyperbolikus) ist definiert durch sinh(x) :=

 1 x e − e−x , 2

D(sinh) = R, W (sinh) = R.

Der Hyperbelkosinus (Kosinushyperbolikus) ist erkl¨ art durch cosh(x) :=

 1 x e + e−x , 2

D(cosh) = R, W (cosh) = [1, ∞[.

Hyperbeltangens (Tangenshyperbolikus) und Hyperbelkotangens (Kotangenshyperbolikus) sind erkl¨art durch sinh(x) ex − e−x = , D(tanh) = R, W (tanh) =] − 1, 1[, cosh(x) ex + e−x cosh(x) ex + e−x = , D(coth) = R\{0}, W (coth) = R\[−1, 1]. coth(x) := sinh(x) ex − e−x

tanh(x) :=

Die Funktionen werden als Hyperbelfunktionen bezeichnet (siehe Abbildung 4.34).

Die Eigenschaften dieser Funktionen erinnern an die trigonometrischen Funktionen: Satz 4.7 (Eigenschaften der Hyperbelfunktionen) a) Es gelten die Symmetrien sinh(−x) = − sinh(x), cosh(−x) = cosh(x), tanh(−x) = − tanh(x).

145

4.10. Hyperbel- und Areafunktionen 6

cosh(x)

4 2 tanh(x)

0 -2 sinh(x)

-4

Abb. 4.34 Hyperbelfunktionen

-6 -4

-3

-2

-1

0

1

2

3

4

Der Hyperbelsinus und der Hyperbeltangens sind ungerade Funktionen, der Hyperbelkosinus ist eine gerade Funktion. b) Es gilt die Gleichung cosh2 (x) − sinh2 (x) = 1. Die L¨osungsmenge der Gleichung x2 − y 2 = 1 stellt eine Hyperbel dar (vgl. (4.5) auf Seite 132). c) Es gelten die Additionstheoreme (vgl. (4.8) und (4.7) auf Seite 134) sinh(x + y) = sinh(x) cosh(y) + cosh(x) sinh(y) und cosh(x + y) = cosh(x) cosh(y) + sinh(x) sinh(y). Beweis Die Eigenschaften ergeben sich direkt aus den Rechenregeln f¨ ur die Exponentialfunktion. Beispielsweise erhalten wir das Additionstheorem f¨ ur den Sinushyperbolikus so: sinh(x) cosh(y) + cosh(x) sinh(y) ex + e−x ey − e−y ex − e−x ey + e−y · + · 2 2 2 2 ex+y − ex−y + ey−x − e−x−y ex+y + ex−y − ey−x − e−x−y + = 4 4 ex+y − e−x−y = sinh(x + y). = 2 =



146

Kapitel 4. Reelle Funktionen

4.10.2 Areafunktionen Die Areafunktionen sind die Umkehrfunktionen der Hyperbelfunktionen. Exemplarisch betrachten wir die Umkehrung des Hyperbelsinus auf R. Da y = sinh(x) auf R streng monoton steigt (siehe Abbildung 4.34) existiert die Umkehrfunktion. F¨ ur 1 x (e − e−x ) 2

y = f (x) = sinh(x) =

liefert die Substitution z = ex : y = 12 (z − z1 ) bzw. nach Multiplikation mit 2 − 2yz − 1 = 0 mit den beiden L¨ osungen z = 0 die quadratische Gleichung z  z1,2 = y ± y 2 + 1. Der Term y − y 2 + 1 < 0 kann wegen z = ex > 0 nicht L¨osung sein. Wir erhalten     ex = y + y 2 + 1 ⇐⇒ x = ln y + y 2 + 1 bzw.

   y = f −1 (x) = ln x + x2 + 1 .

Diese Funktion heißt Area-Sinushyperbolikus:    y = arsinh(x) = ln x + x2 + 1 . ¨ Ahnlich erh¨alt man die Umkehrung der weiteren Hyperbelfunktionen, wobei beim Kosinushyperbolikus der urspr¨ ungliche Definitionsbereich eingeschr¨ankt werden muss. Der Area-Kosinushyperbolikus ist auf [1, ∞[ definiert mit mit Werten in [0, ∞[: arcosh(x) = ln(x +



x2 − 1).

Die Umkehrfunktion zu tanh(x) heißt Area-Tangenshyperbolikus artanh(x) =

1 ln 2



1+x 1−x



und ist auf ] − 1, 1[ definiert mit Werten in R. Schließlich ist die Umkehrfunktion des Kotangenshyperbolikus der auf R \ [−1,1] definierte Area-Kotangenshyperbolikus mit Werten in R: arcoth(x) =

1 ln 2



x+1 x−1

.

147

4.10. Hyperbel- und Areafunktionen  

!  

 





 



 









 

  

  



























 



   























  



 





  

 

  



  " "



 



  









 













Abb. 4.35 Wichtige Funktionsgraphen

Wir haben jetzt die wichtigsten reellen Funktionen behandelt. Sie sollten in der Lage sein, zumindest die Graphen aus Abbildung 4.35 aus dem Ged¨achtnis zu zeichnen.

Kapitel 5

Komplexe Zahlen ¨ Bei der Uberlagerung von harmonischen Schwingungen gleicher Frequenz kann die Summenfunktion mit Hilfe der Zeigeraddition dargestellt werden. Der rechnerische Umgang mit Zeigerdiagrammen ist aber bisweilen nicht einfach. Insbesondere muss man die Additionstheoreme der trigonometrischen Funktionen verwenden (siehe Kapitel 4.9.5). Einfacher wird es, wenn die Zeiger u ur die geeignete Rechenoperationen ¨ber Zahlenpaare dargestellt werden, f¨ definiert sind. Diese Zahlenpaare heißen komplexe Zahlen. Neben ihrer Bedeutung f¨ ur die Schwingungsanalyse und die Wechselstromrechnung ben¨otigen wir komplexe Zahlen auch innerhalb der Mathematik. So m¨ ussen wir beispielsweise bei der Integration gebrochen-rationaler Funktionen Partialbruchzerlegungen durchf¨ uhren und dabei komplexe Nullstellen beachten. Ebenso werden wir sie bei Fourier-Entwicklungen und Integraltransformationen in Band 2 einsetzen. Das Adjektiv komplex“ bedeutet nicht, dass der Umgang mit diesen Zah” len schwierig ist. Das genaue Gegenteil ist der Fall (auch wenn die Schreibweisen gew¨ohnungsbed¨ urftig sind). Komplexe Zahlen ersparen uns nicht nur Additionstheoreme. Der Fundamentalsatz der Algebra, den wir am Ende des Kapitels besprechen, zeigt, dass sich bei komplexer Rechnung die Struktur von Polynomen deutlich vereinfacht.

© Der/die Autor(en), exklusiv lizenziert an Springer-Verlag GmbH, DE, ein Teil von Springer Nature 2023 S. Goebbels und S. Ritter, Mathematik verstehen und anwenden: Differenzial- und Integralrechnung, Lineare Algebra, https://doi.org/10.1007/978-3-662-68367-5_5

149

150

Kapitel 5. Komplexe Zahlen

5.1 Erweiterung der reellen Zahlen um eine imagin¨are Einheit Um die Gleichung x2 = 2 zu l¨osen, mussten wir die rationalen√Zahlen Q√zu den reellen Zahlen R erweitern, und wir erhielten die L¨ osungen 2 und − 2. Zur L¨osung der Gleichung x2 = −1 muss man die reellen Zahlen R zu den komplexen Zahlen C erweitern. Eine Zahl j (j ∈ / R), die diese Gleichung l¨ ost, heißt die imagin¨ are Einheit j. j 2 := −1 j ist keine Variable, sondern ein neues Zahlsymbol, so wie auch 1“ und ” 2“ Symbole f¨ ur Zahlen sind. Falls man mit j so rechnet wie mit den bislang ” verwendeten reellen Zahlen, dann ist (−j)2 = (−1)2 j 2 = j 2 = −1 und −j ebenfalls eine L¨osung von x2 = −1. Der deutsche Mathematiker Gottfried Wilhelm Leibniz, der uns im zweiten Teil dieses Buches (Analysis) noch begegnen wird, nannte 1702 die Zahl j eine feine und wunderbare Zuflucht des g¨ ottlichen Geistes, beinahe ein ” Zwitterwesen zwischen Sein und Nichtsein“ (siehe [Ebbinghaus et al.(1992), S. 48] und die dort zitierte Originalarbeit). In der Mathematik wird statt j die Bezeichnung i verwendet. Allerdings ist i bereits f¨ ur die Stromst¨arke von Wechselstr¨ omen reserviert, weshalb in der Ingenieur-Mathematik j u ¨blich ist. Die folgende Definition wurde zuerst von Rafaello Bombelli (1526–1572) in seinem im Todesjahr erschienenen Buch verwendet. Er hat nach Vorarbeiten von Girolamo Cardano (1501–1576) vorgeschlagen, Ausdr¨ ucke der Form x + √ −1 · y als Zahlen zu verstehen und korrekt damit gerechnet. Dieser Schritt war genauso revolution¨ar wie die Einf¨ uhrung der negativen Zahlen. Definition 5.1 (Komplexe Zahlen) C := {z : z = x + jy mit x, y ∈ R} ist die Menge der komplexen Zahlen. F¨ ur z = x + jy ist x der Realteil von z, x = Re(z), und y der Imagin¨ arteil, y = Im(z). Man spricht hier von der kartesischen Darstellung. .



! Achtung

Der Imagin¨arteil ist eine reelle Zahl: Im(x + jy) = y, nicht Im(x + jy) = jy.

151

5.2. Komplexe Arithmetik

Es gilt R ⊂ C, wobei die reellen Zahlen mit genau den komplexen Zahlen identifiziert werden, deren Imagin¨arteil 0 ist. Zwei komplexe Zahlen sind gleich genau dann, wenn Real- und Imagin¨arteil gleich sind.

5.2 Komplexe Arithmetik Die Addition und Multiplikation definiert man so, dass man f¨ ur den Spezialfall von reellen Zahlen die bislang verwendeten Operationen erh¨ alt und dass die Rechenregeln erhalten bleiben. F¨ ur z1 = (x1 + jy1 ) und z2 = (x2 + jy2 ) ist z1 + z2 := (x1 + x2 ) + j(y1 + y2 ), z1 z2 = (x1 + jy1 )(x2 + jy2 ) := (x1 x2 − y1 y2 ) + j(x1 y2 + y1 x2 ). Beispiel 5.1 a) (5 + 3j) ± (7 − 4j) = 5 ± 7 + j(3 ± (−4)), b) (5 + 3j) · (7 − 4j) = 35 − 20j + 21j − 12 j 2 = 47 + j.  =−1

Die zwei Zahlen des Real- und Imagin¨arteils erlauben eine neue Operation, die man z. B. im Rahmen der Bruchrechnung ben¨ otigt: Definition 5.2 (Konjugation) Zu z = x + jy ∈ C heißt z = x − jy die zu z konjugiert komplexe Zahl. Statt der Schreibweise z ist auch z ∗ g¨angig. Lemma 5.1 (Rechenregeln f¨ ur die Konjugation) z1 + z2 = z1 + z2 ,

z1 · z2 = z1 · z2 .

(5.1)

1 Um den Quotienten xx12 +jy +jy2 in der Form x + jy darzustellen, erweitert man mit der konjugiert komplexen Zahl des Nenners. Zun¨ achst ist

(x2 + jy2 )(x2 + jy2 ) = (x2 + jy2 )(x2 − jy2 )

= x22 − jx2 y2 + jy2 x2 − j 2 y22 = x22 + y22 ∈ R.

152

Kapitel 5. Komplexe Zahlen

So gelangt man zu einem reellen Nenner und sieht, dass auch der Quotient zweier komplexer Zahlen wieder eine komplexe Zahl mit Real- und Imagin¨arteil ist: (x1 + jy1 )(x2 − jy2 ) (x1 + jy1 )(x2 − jy2 ) x1 + jy1 = = x2 + jy2 (x2 + jy2 )(x2 − jy2 ) x22 + y22 x 1 x 2 + y1 y2 x 2 y1 − x 1 y2 = +j . 2 2 x 2 + y2 x22 + y22 Beispiel 5.2 Wir berechnen Real- und Imagin¨ arteil der komplexen Zahlen: 5 + 3j 5 + 3j 7 + 4j 35 + 20j + 21j + 12j 2 23 41 = · = = +j· , 7 − 4j 7 − 4j 7 + 4j 49 + 16 65 65 (3 + 2j)(4 − j) 12 + 2 −3 + 8 3 + 2j = = +j . b) 4+j 17 17 17 a)

Beispiel 5.3 F¨ ur welche z ∈ C gilt (1 + j) · z + (1 − j) · z = 0? Mit z = x + jy folgt (1 + j) · (x + jy) + (1 − j) · (x − jy) = 0 ⇐⇒ (x − y) + j(x + y) + (x − y) + j(−x − y) = 2(x − y) = 0 ⇐⇒ x = y, d. h., f¨ ur alle x ∈ R ist z = x + jx L¨osung der Gleichung. Die aus R bekannten Rechenregeln wie Kommutativit¨ at der Addition und Multiplikation sowie die Klammerregeln (Assoziativ- und Distributivgesetze) gelten ebenso in C. Das neutrale Element der Addition ist 0 = 0 + j · 0, denn es gilt z = z + 0 = 0 + z f¨ ur z ∈ C. Das neutrale Element der ur z ∈ C. Die Multiplikation ist 1 = 1 + j · 0, denn es gilt z = z · 1 = 1 · z f¨ Menge C zusammen mit der Addition und Multiplikation bildet einen K¨ orper (siehe Definition 2.7 auf Seite 51), der den K¨orper R umfasst und damit neue L¨osungen von Gleichungen bereith¨alt. Beispiel 5.4 In C k¨onnen wir nun die quadratische Gleichung x2 +px+q = 0 mit p, q ∈ R vollst¨andig l¨osen. Sie hat die L¨osungen # p p2 − q ∈ R im Fall p2 ≥ 4q x1,2 = − ± 2 4 und im Fall p2 ≤ 4q: x1,2

p =− ± 2

#

p p2 −q =− ± 4 2

&

# p2 p p2 · j2 = − ± j · q − q− . 4 2   4 ∈R

Ferner gilt x1 = x2 , d. h., die beiden Wurzeln sind konjugiert komplex. Zum Beispiel erh¨alt man f¨ ur die quadratische Gleichung x2 + 4x + 5 = 0 die

5.3. Die Gauß’sche Zahlenebene

153

beiden komplexen L¨osungen x1,2 = −2 ± j. In diesem Beispiel haben wir die art Wurzel aus j 2 berechnet ohne zuvor Wurzeln aus komplexen Zahlen erkl¨ zu haben. Das hat zuf¨allig“ funktioniert, aber wir m¨ ussen uns mit Wurzeln ” aus komplexen Zahlen genauer besch¨aftigen. Das geschieht in Abschnitt 5.3.4.

5.3 Die Gauß’sche Zahlenebene Man kann die komplexen Zahlen als Paare reeller Zahlen (Realteil, Imagin¨arteil) auffassen, die so verkn¨ upft werden: (x1 , y1 ) + (x2 , y2 ) := (x1 + x2 , y1 + y2 ), (x1 , y1 )(x2 , y2 ) := (x1 x2 − y1 y2 , x1 y2 + y1 x2 ). Damit k¨onnen wir komplexe Zahlen x+jy als Punkte (x, y) der Gauß’schen Zahlenebene oder als Pfeile (Ortsvektoren) auffassen, die vom Nullpunkt zum Punkt (x, y) f¨ uhren (siehe Abb. 5.1).

Abb. 5.1 Gauß’sche Zahlenebene C

Die reellen Zahlen entsprechen dann der Punktmenge {(x,0) : x ∈ R}, die Zahl 1 z. B. dem Punkt (1, 0). Die imagin¨are Einheit j entspricht dem Punkt (0, 1), −j wird durch den Punkt (0, −1) repr¨asentiert. Die Addition von zwei komplexen Zahlen wird zur Addition von Pfeilen: Man setzt die Pfeile der beiden Zahlen aneinander und gelangt so zum Punkt, der die komplexe Summe repr¨asentiert (siehe Abbildung 5.2, ein Zahlenbeispiel in Abbildung 5.3 und vgl. mit der Vektoraddition auf Seite 540). Es ist ein großer Verdienst von Gauß, dass er den komplexen Zahlen das Mystische genommen und sie als Punkte der Ebene greifbar gemacht hat.

5.3.1 Betrag Eine Ordnungsrelation ≤“, die C (also die Zahlenebene) total ordnet, ist ” nicht m¨oglich. Statt Zahlen zu vergleichen, kann man aber ihren Abstand

154

Kapitel 5. Komplexe Zahlen

Abb. 5.2 Addition und Subtraktion komplexer Zahlen

Abb. 5.3 Addition komplexer Zahlen als Addition von Pfeilen ([1+2j]+[1−j] = 2+j)

zum Nullpunkt, ihren Betrag, vergleichen. Der Betrag einer komplexen Zahl wird u ¨ber den Satz von Pythagoras (Abbildung 2.3 auf Seite 50) definiert: Definition 5.3 (Betrag einer komplexen Zahl z = x + jy ∈ C)  |z| = |x + jy| := x2 + y 2 . Es gilt |z| =



(x + jy)(x − jy) =

 √ (x + jy)(x + jy) = zz.

Man beachte, dass f¨ ur reelle Zahlen diese Definition des Betrags identisch mit der zuvor gemachten (siehe (3.4) auf Seite 75) ist.

5.3.2 Rechnen mit Betr¨agen komplexer Zahlen F¨ ur das Rechnen mit Betr¨agen gelten wie bei reellen Zahlen die folgende Regeln (vgl. (3.5), (3.6)):

155

5.3. Die Gauß’sche Zahlenebene

Lemma 5.2 (Rechenregeln f¨ ur Betr¨ age komplexer Zahlen) F¨ ur z 1 , z2 ∈ C gilt, sofern nicht durch null geteilt wird:    z1  |z1 |  = (5.2) |z1 · z2 | = |z1 | · |z2 |,  z2  |z2 | , |z1 + z2 | ≤ |z1 | + |z2 | |z1 − z2 | ≥ ||z1 | − |z2 ||

(Dreiecksungleichung), (Dreiecksungleichung nach unten).

(5.3) (5.4)

Die G¨ ultigkeit von (5.2) rechnet man elementar nach. Die beiden Dreiecksungleichungen lassen sich geometrisch veranschaulichen: Eine Dreiecksseite ist nie l¨anger als die Summe der beiden anderen Dreiecksseiten; eine Dreiecksseite ist nicht k¨ urzer als die Differenz der beiden anderen Dreiecksseiten. Beispiel 5.5 a) Sei z0 eine feste komplexe Zahl. Dann beschreibt die Menge aller z ∈ C mit |z − z0 | = R mit R > 0 den Kreis um z0 mit Radius R. |z − z0 | ≤ R beschreibt die Kreisscheibe (siehe Abbildung 5.4). b) Welche Menge in C wird beschrieben durch 1 ≤ |z − 1 − j| < 1,5? Mit z0 := 1 + j gilt 1 ≤ |z − z0 | < 1,5, d. h., die Menge beschreibt einen Kreisring mit Innenradius 1 und Außenradius 1,5 um z0 . Der Innenkreis geh¨ort zur Menge, der ¨außere Kreis geh¨ort nicht zur Menge (siehe Abbildung 5.4). c) F¨ ur welche z ∈ C gilt   z − 1    z + 2  = 1? Gesucht sind Zahlen z mit |z − 1| = |z + 2|. Mit z = x + jy folgt: |(x − 1) + jy| = |(x + 2) + jy|   ⇐⇒ (x − 1)2 + y 2 = (x + 2)2 + y 2

⇐⇒ (x − 1)2 + y 2 = (x + 2)2 + y 2 ⇐⇒ x2 − 2x + 1 = x2 + 4x + 4 ⇐⇒ −6x = 3,

osung der Gleichung. d. h. x = − 12 . Die Gerade z = − 12 + jy, y ∈ R, ist L¨ d) Wir berechnen die L¨osungsmenge der Ungleichung |z − 4j| < |z|. Mit z = x + jy folgt:   |x + j(y − 4)| < |x + jy| ⇐⇒ x2 + (y − 4)2 < x2 + y 2 ⇐⇒ x2 + y 2 − 8y + 16 < x2 + y 2 ⇐⇒ y > 2.

156

Kapitel 5. Komplexe Zahlen

Die Halbebene Im(z) > 2, d. h. die Menge z = x + jy mit x ∈ R und y > 2, ist die gesuchte L¨osungsmenge.

Abb. 5.4 Kreisscheibe |z − z0 | ≤ R und Kreisring 1 ≤ |z − (1 + j)| < 1,5

5.3.3 Euler’sche Gleichung, Polarform und Eulerform 5.3.3.1 Polarform komplexer Zahlen Statt der Euklid’schen Darstellung mittels eines kartesischen Koordinatensystems kann man Punkte der Ebene und damit auch komplexe Zahlen mittels Polarkoordinaten darstellen. Jeder Punkt (x, y) ist eindeutig u ¨ber den  x2 + y 2 ≥ 0 zum Nullpunkt und einen WinAbstand r := |x + jy| = kel ϕ ∈ [0, 2π[ zwischen positiver x-Achse und der Verbindungsstrecke vom Nullpunkt zu (x, y) gegeben (siehe Abbildung 5.5): (x, y) = (r cos(ϕ), r sin(ϕ)),

x + jy = r [cos(ϕ) + j sin(ϕ)] .

Diese Darstellung heißt auch goniometrische Form oder Polarform. 2

2

x

r=

|

x+

jy |

+

y

x + jy = r ⋅ (cos(φ) + j sin(φ))

=

φ 0 x = r ⋅ cos(φ) Abb. 5.5 Polardarstellung von x + jy

y = r ⋅ sin(φ)

5.3. Die Gauß’sche Zahlenebene

157

Um den Winkel ϕ aus z. B. tan(ϕ) = y/x zu bestimmen, kann man den Arkustangens (vgl. Kapitel 4.9.6) benutzen. Allerdings ist der Tangens nicht bijektiv. Um ihn umzukehren, wird der Definitionsbereich auf ] − π/2, π/2[ eingeschr¨ankt. Entsprechend erh¨alt man nur Winkel arctan(y/x) aus diesem Intervall. Um Winkel ϕ ∈] − π, π] zu berechnen, kann man so vorgehen: • Ist der Realteil x = 0, so liegt die Zahl auf der imagin¨ aren Achse, und bei Imagin¨ arteil ist ϕ = − π2 . positivem Imagin¨arteil ist ϕ = π2 , beinegativem  y ur x > 0 ist ϕ = α. • Ist x = 0, so k¨onnen wir α := arctan x berechnen. F¨ Ist dagegen x < 0 und y ≥ 0, so ist ϕ = α + π. F¨ ur x < 0 und y < 0 erhalten wir ϕ = α − π. Diese Fallunterscheidung muss man nicht per Hand durchf¨ uhren. In vielen Programmiersprachen gibt des die Funktion atan2(y, x), mit der ein Winkel aus ]−π, π] berechnet wird. Im Gegensatz zum Arkustangens hat diese Funktion zwei Parameter und kann somit die Fallunterscheidung durchf¨ uhren. In Abbildung 5.6 ist die Berechnung des Winkels ϕ der komplexen Zahl z = x+jy in Abh¨angigkeit der Lage von z in den vier Quadranten dargestellt. Beim gezeichneten Funktionsgraphen des Tangens entsprechen die Quadrantenangaben also nicht den Quadranten des verwendeten Koordinatensystems sondern der Lage der zu betrachtenden Zahl z.

Abb. 5.6 Berechnung des Winkels ϕ mit arctan(y/x) in Abh¨ angigkeit der Lage von z = x + jy

Beispiel 5.6 a) z = −2 + j hat einen negativen Realteil x = −2 und einen positiven Imagin¨arteil y = 1, also gilt π2 < ϕ < π. Aus tan(ϕ) = − 21 folgt  √ ϕ ≈ −0,4636 + π ≈ 2,6779.√r = |z| = (−2)2 + 12 = 5. Somit hat z die Darstellung z ≈ −2 + j = 5 · [cos(2,6779) + j · sin(2,6779)].

158

Kapitel 5. Komplexe Zahlen

b) z = 1 − j hat den Realteil x = 1 und den Imagin¨ arteil y = −1, also π 7 ϕ = − + 2π = ist 32 π < ϕ < 2π, tan(ϕ) = −1 und 4

4 π. r = |z| =

√  √ 7 7 π + j · sin π . 12 + (−1)2 = 2. Also: z = 2 · cos 4 4

5.3.3.2 Euler’sche Gleichung, Exponential- bzw. Eulerform komplexer Zahlen Mit der Euler’schen Gleichung l¨asst sich die Polarform nicht nur einfacher schreiben, auch Berechnungen, f¨ ur die wir bislang Additionstheoreme ben¨ otigen, vereinfachen sich: Definition 5.4 (Euler’sche Gleichung) F¨ ur ϕ ∈ R setzen wir ejϕ := cos(ϕ) + j · sin(ϕ). Mit der Euler’schen Gleichung erhalten wir f¨ ur z ∈ C die Exponentialform oder Eulerform z = x + jy = r · ejϕ .

Die Werte, die ejϕ annehmen kann, haben alle den Betrag 1 und liegen auf dem Einheitskreis:  |ejϕ | = cos2 (ϕ) + sin2 (ϕ) = 1. In Abbildung 5.7 ist der Zusammenhang zwischen Zeigerdiagrammen und komplexen Zahlen unter Verwendung der Exponentialform dargestellt. Einige wichtige Werte von ejϕ sind ej0 = 1 + 0j = 1 = ej2π , ejπ = −1 + 0j = −1,

ej

3π 2

π

ej 2 = 0 + 1j = j,

= 0 − 1j = −j,

π

e−j 2 = −j.

urzende Schreibweise f¨ ur die komplexe Zahl Wir verwenden ejϕ als abk¨ cos(ϕ)+j ·sin(ϕ). Tats¨achlich kann man diese Definition auch als Satz verstehen, wenn man die Exponentialfunktion anhand ihrer Potenzreihenentwicklung von ihrem Definitionsbereich R auf den Definitionsbereich C erweitert. Das k¨onnen wir hier aber noch nicht verstehen, so dass wir das (viel) sp¨ ater in Kapitel 16.6 nachtragen. Dabei erh¨alt man die komplexe Exponentialfunktion. In diesem Buch gehen wir (bis auf Hintergrundinformationen) nicht auf die Theorie von Funktionen auf C ein. Daher benutzen wir die komplexe Exponentialfunktion ebenfalls nur als Kurzschreibweise.

159

5.3. Die Gauß’sche Zahlenebene

 

  z

z| =|

( exp

jφ)

 φ

| z | cos(φ)

| z | sin(φ)

φ

Abb. 5.7 Real- und Imagin¨ arteil im Zeigerdiagramm

Definition 5.5 (Komplexe Exponentialfunktion) Die komplex-wertige Funktion mit einer komplexen Variable exp : C → C ist definiert durch exp(z) := ez = eRe(z) ej Im(z) = eRe(z) [cos(Im(z)) + j sin(Im(z))].

(5.5)

Diese Definition ist konsistent mit der reellen Funktion exp(x) und der Kurzschreibweise ejϕ , denn wenn wir z = x in exp(z) einsetzen, erhalten wir genau den Wert der reellen Exponentialfunktion, und wenn wir z = jϕ setzen, erhalten wir cos(ϕ) + j sin(ϕ). Zun¨achst ist v¨ ollig unklar, warum die Exponentialfunktion im Komplexen so eng mit dem Sinus und dem Kosinus verkn¨ upft ist. Es zeigt sich aber, dass ejϕ Eigenschaften hat, die denen der reellen Exponentialfunktion entsprechen. Wegen der Additionstheoreme (4.7) und (4.8) gilt z. B.: ej(ϕ+ϑ) = cos(ϕ + ϑ) + j sin(ϕ + ϑ) = cos(ϕ) cos(ϑ) − sin(ϕ) sin(ϑ) + j[sin(ϕ) cos(ϑ) + cos(ϕ) sin(ϑ)] = [cos(ϕ) + j sin(ϕ)][cos(ϑ) + j sin(ϑ)] = ejϕ ejϑ .

(5.6)

Mit Hilfe der Euler’schen Gleichung und der Rechenregeln der Exponentialfunktion kann man umgekehrt die Additionstheoreme von Sinus und Kosinus leicht herleiten. Statt Additionstheoreme auswendig zu lernen, reicht es, wenn man die Definition von ejϕ und die Regeln der Potenzrechnung beherrscht.

160

Kapitel 5. Komplexe Zahlen

Jetzt k¨onnen wir auch besser verstehen, warum man vom Sinus- und Kosinushyperbolikus spricht. Unter Verwendung der komplexen Exponentialfunktion werden die Funktionen auf C erweitert. Setzen wir zu x ∈ R speziell die komplexe Zahl jx in diese Funktionen ein, so ergibt sich sinh(jx) =

  1  jx 1  jx e − e−jx = j sin(x), cosh(jx) = e + e−jx = cos(x). 2 2

5.3.4 Komplexe Potenzen und komplexe Wurzeln Iteriert angewendet erhalten wir aus (5.6) eine Regel f¨ ur Potenzen n ∈ N, den Satz von Moivre (de Moivre 1667–1754):  n ejnϕ = ej(ϕ+(n−1)ϕ) = ejϕ ej(n−1)ϕ = · · · = ejϕ . Insbesondere gilt auch f¨ ur negative Potenzen e−jnϕ ejnϕ = ej0 = 1 =⇒ e−jnϕ =

1 ejnϕ

=

1 n [ejϕ ]

 −n = ejϕ .

ur Sinus Diese Regeln f¨ ur ejϕ sind viel eing¨angiger als die Additionstheoreme f¨ und Kosinus. Insbesondere vereinfacht sich damit die Multiplikation, Division und die Berechnung von Potenzen komplexer Zahlen ganz erheblich: z⋅s

|z ⋅ s|

s

(0, 1) = ˜ j

ϑ

Abb. 5.8 Multiplikation komplexer Zahlen ist Addition der Winkel und Multiplikation der Betr¨ age (hier: z = |z|ejϕ , s = |s|ejϑ , zs = |z||s|ej(ϕ+ϑ) )

φ+ϑ z

φ (1, 0) = ˜ 1

Lemma 5.3 (Rechenregeln f¨ ur die Eulerform) Es seien z1 = r1 ejϕ1 , jϕ2 jϕ und z = re (vgl. Abbildungen 5.8 und 5.9): z2 = r2 e

161

5.3. Die Gauß’sche Zahlenebene

π

(−4, 0) = ˜ −4 = 4e jπ

(−2, 0) (0, 0) = ˜ −2 = ˜ 0 = 2e jπ

(8, 0) = ˜ 8 = 8e j2π



Abb. 5.9 Multiplikation reeller Zahlen in Eulerdarstellung am Beispiel (−2)(−4) = 8

n  z n = rejϕ = rn ejnϕ ,

z1 · z2 = r1 ejϕ1 · r2 ejϕ2 = r1 · r2 · ej(ϕ1 +ϕ2 ) , r1 ejϕ1 r1 z1 = = ej(ϕ1 −ϕ2 ) , falls r2 = 0. jϕ 2 z2 r2 e r2

Wir k¨onnen also das Produkt zweier komplexer Zahlen berechnen, indem wir die Betr¨age multiplizieren und die Winkel addieren. Bei der Division werden umgekehrt die Betr¨age dividiert und die Winkel subtrahiert. Es wird mit einer nat¨ urlichen Zahl potenziert, indem der Radius damit potenziert und der Winkel damit multipliziert wird. Addition und Subtraktion sind dagegen in der Darstellung Realteil +j· Imagin¨arteil“ einfacher. ” √ 1 π Beispiel 5.7 a) z1 := 5 + j = 26 · ej·arctan( 5 ) , z2 := j = ej· 2 : √ √ 1 π 1 π z1 · z2 = −1 + 5j = 26 · ej·arctan( 5 ) · ej· 2 = 26 · ej·(arctan( 5 )+ 2 ) , √ 1 π 5+j z1 = 1 − 5j = 26 · ej·(arctan( 5 )− 2 ) . = z2 j π

π

b) z1 := 2 · ej· 4 , z2 := 5 · ej· 2 : π

π

π



π

z1 · z2 = 2 · ej· 4 · 5 · ej· 2 = 10 · ej·( 2 + 4 ) = 10 · ej· 4 , π π 5 j·( π − π ) 5 · ej· 2 5 z2 · e 2 4 = · ej· 4 . = π = j· 4 z1 2 2 2·e   π π 2 π π π c) j = ej 2 , j 2 = ej 2 = ej2 2 = ejπ = −1, j 3 = ej3 2 = −j, j 4 = ej4 2 = 1.   2 d) (−1)2 = ejπ = ej2π = 1. π e) Die Zahl −3ej 3 hat den Betrag 3. Um als Faktor nicht den negativen Betrag zu schreiben, kann man das Minuszeichen u ¨ber den Winkel ausdr¨ ucken: π

π

π

π

−3ej 3 = −1 · 3ej 3 = ejπ · 3ej 3 = 3ejπ+j 3 = 3ej

4π 3

.

162

Kapitel 5. Komplexe Zahlen

Wir diskutieren nun die Umkehroperation zum Potenzieren, das Wurzelziehen oder Radizieren in C und betrachten zwei Zahlenbeispiele. Beispiel 5.8 a) Wir berechnen die dritten Wurzeln der Zahl w = 8 in C. Hierzu stellen wir w in Eulerform dar: w = 8 = 8 · ej·0 = 8 · ej(0+k2π) ,

k ∈ Z.

Die Menge {8 · ej(0+k2π) : k ∈ Z} beschreibt einen einzigen Punkt in der Gaußschen Ebene C. Es sei z ∈ C eine dritte Wurzel von w. Dann ist z 3 = w. In Eulerdarstellung z = r · ejϕ muss gelten z 3 = r3 · e3jϕ = 8 · ejk2π ,

k ∈ Z.

Durch Vergleich von Radius und Winkel erhalten wir r3 = 8, also r = 2 und 3ϕ = k2π, also ϕ = k2π 3 , k ∈ Z. Die dritten Wurzeln von w = 8 sind die Zahlen k2π zk = 2 · ej 3 , k ∈ Z.

Die Menge {zk : k ∈ Z} besteht aus drei Punkten in der Gaußschen Ebene C n¨amlich z0 = 2 · ej·0 = 2,

' √ (



2π 2π 3 + j · sin = 2 · −0,5 + j = 2 · cos z1 = 2 · e 3 3 2 √ = −1 + j 3, ' √ (



4π 4π 4π 3 + j · sin = 2 · −0,5 − j z2 = 2 · ej· 3 = 2 · cos 3 3 2 √ = −1 − j 3. j· 2π 3

2·3π

F¨ ur k = 3 erhalten wir z3 = 2 · ej 3 = 2 · ej·2π = 2 = z0 , und weiter z4 = z1 , z5 = z2 , z6 = z3 = z0 , usw. Da auch z−1 = z2 , z−2 = z1 , usw., gibt es tats¨achlich nur drei dritte Wurzeln von w, die in Eulerform gegeben sind durch k2π zk = 2 · ej 3 , k ∈ {0, 1, 2}.

b) Nun berechnen wir die vierten Wurzeln der Zahl w = j in C. Hierzu stellen wir w in Eulerform dar: π

π

w = j = 1 · ej· 2 = ej( 2 +k2π) , π

k ∈ Z.

Die Menge {ej( 2 +k2π) : k ∈ Z} beschreibt einen einzigen Punkt in der Gaußschen Ebene C. Es sei z ∈ C eine vierte Wurzel von w. Dann ist z 4 = w, und in Eulerdarstellung z = r · ejϕ muss gelten

163

5.3. Die Gauß’sche Zahlenebene π

k ∈ Z.

z 4 = r4 · e4jϕ = ej( 2 +k2π) ,

Durch Vergleich von Radius und Winkel erhalten wir r = 1 und 4ϕ = π π kπ 2 + k2π, d. h. ϕ = 8 + 2 , k ∈ Z. Die vierten Wurzeln von w = j sind die Zahlen π kπ zk = ej( 8 + 2 ) , k ∈ Z.

Die Menge {zk : k ∈ Z} besteht aus vier Punkten in der Gaußschen Ebene C n¨amlich π

z 0 = ej 8 , π

π

z1 = ej( 8 + 2 ) = ej z2 = e z3 = e

2π j( π 8+ 2 ) 3π j( π 8+ 2 )

5π 8

= ej =e

,

9π 8

,

j 13π 8

.

π

F¨ ur k = 4 erhalten wir z4 = ej( 8 +2π) = z0 , und weiter z5 = z1 , z6 = z2 , ur k ∈ Z durchl¨ auft zk zyklisch die Punkte z7 = z3 , z8 = z4 = z0 , usw. F¨ z0 , z1 , z2 , z3 . Es gibt vier vierte Wurzeln von w, die in Eulerform gegeben sind durch π kπ zk = ej( 8 + 2 ) , k ∈ {0, 1, 2, 3}. Allgemein erhalten wir f¨ ur eine Zahl w = rejϕ in Eulerform zu n ∈ N genau n verschiedene komplexe n-te Wurzeln zk u ¨ber zk =

√ ϕ+k2π n rej n , k ∈ {0, 1, 2, . . . , n − 1}.

(5.7)

Da Sinus und Kosinus und damit auch ejϕ 2π-periodisch sind, gilt (vgl. Abbildungen 5.10 und 5.11):  √ ϕ+k2π n n rej n = rej(ϕ+k2π) = rejϕ . Unter den Wurzeln (5.7) kann es null bis zwei reelle n-te Wurzeln geben. Zwei reelle Wurzeln unterscheiden sich nur im Vorzeichen (vgl. Bemerkungen zu Definition 3.1). Im Komplexen besitzt eine Zahl stets n komplexe √ zu erkl¨ aren, muss man dann eine dien-te Wurzeln. Um eine Funktion n √ ϕ ser Wurzeln (als Hauptwert) ausw¨ahlen. Die Wurzel n rej n , bei der k = 0 gew¨ahlt ist und bei der je nach Definitionsvariante entweder 0 ≤ ϕ < 2π oder −π < ϕ ≤ π gew¨ahlt werden muss, wird als Hauptwert der n-ten Wurzel √ benannt. Je nach Wahl des von rejϕ bezeichnet und mit dem Symbol n Intervalls f¨ ur den Winkel ϕ unterscheidet sich die Definition des Hauptwerts, und man muss in B¨ uchern nachschauen, welche Variante verwendet wird. Das ist aber nicht die einzige Schwierigkeit. In beiden F¨ allen ist die Festlegung einer der Wurzeln als Hauptwert v¨ollig willk¨ urlich. Das f¨ uhrt beim Rechnen zu

164

Kapitel 5. Komplexe Zahlen

Abb. 5.10 Alle zw¨ olften komplexen Wurzeln aus Eins (Einheitswurzeln)

Abb. von

5.11 Potenzen als eine zw¨ olfte exp j · 2 · 2π 12 komplexe Wurzel von Eins:

k

exp j 2π ,1≤k≤6 6

Problemen, und wir verwenden das Symbol nicht. Beispielsweise sollte man den Fall ϕ = π bei ungeradem n ausschließen, da es sonst einen Widerspruch zur Definition √ n-ter Wurzeln, n ≥ 3, aus negativen reellen Zahlen √ ungerader x 0.

171

5.5. Fundamentalsatz der Algebra

Beweis Eine reelle Nullstelle xk von p(x) liefert den Faktor (x − xk ). Eine echt komplexe Nullstelle x = z0 von p(x) tritt immer konjugiert komplex ur die komplexen Faktoren auf, d. h., mit z0 ist auch z0 Nullstelle von p(x). F¨ (x − z0 )(x − z0 ) erhalten wir (x − z0 )(x − z0 ) = (x − z0 )(x − z0 ) = [(x − Re(z0 )) − j Im(z0 )][(x − Re(z0 )) + j Im(z0 )] 2

2

= (x − Re(z0 )) + (Im(z0 )) .

Das ist ein quadratischer Faktor mit α = Re(z0 ) und β = (Im(z0 ))2 > 0.  Als Beispiel hat das reelle Polynom x3 +x = x(x2 +1) = (x−0)(x−j)(x+j) zu den konjugiert komplexen Nullstellen j und −j den reellen Faktor x2 + 1. Beispiel 5.13 a) Das kubische Polynom p3 (z) = z 3 − 8 hat die reelle Nullstelle z1 = 2. Um die restlichen Nullstellen zu erhalten, haben wir bereits auf Seite 109 den Linearfaktor (z − 2) durch Polynomdivision abgespalonnen wir aber die weiteren tet: (z 3 − 8) : (z − 2) = z 2 + 2z + 4. Jetzt k¨ Nullstellen berechnen: √ √ z 2 + 2z + 4 = 0 =⇒ z2,3 = −1 ± 1 − 4 = −1 ± 3j. Damit erhalten wir die Zerlegung in komplexe Linearfaktoren: √ √ p3 (x) = (z − 2) · (z + 1 − 3j) · (z + 1 + 3j). Damit erhalten wir auch wieder die Zerlegung von p3 (x) in irreduzible reelle Faktoren: p3 (x) = (z − 2) · ((z + 1)2 + 3) = (z − 2) · (z 2 + 2z + 4). asst sich mit der Subb) Das Polynom vierten Grades p4 (z) = z 4 − 2z 2 − 3 l¨ uhren. stitution u = z 2 in das quadratische Polynom u2 − 2u − 3 u ¨berf¨ Mit der p-q-Formel erhalten wir  u1,2 = 1 ± 12 + 3 = 1 ± 2, d. h. u1 = 3, u2 = −1. Weiter folgt √ √ z1,2 = ± u1 = ± 3 und

√ z3,4 = ± u2 = ±j.

Insgesamt ergibt sich  √   √  p4 (z) = z − 3 · z + 3 · (z − j) · (z + j). von √   √  p4 (x) in irreduzible reelle Faktoren lautet p4 (x) = Die Zerlegung z − 3 · z + 3 · (z 2 + 1).

172

Kapitel 5. Komplexe Zahlen

Im Folgenden schreiben wir Polynome sowohl mit einer reellen Variable x als auch mit der komplexen Variable z. Beim Rechnen gibt es in der Regel keine Unterschiede. Hintergrund: Eine p-q-Formel“ f¨ ur Nullstellen von Polynomen ” dritten Grades Im 16. Jahrhundert gab es Rechenwettk¨ampfe, bei denen die Nullstellen von Polynomen zu bestimmen waren. Aus diesem Umfeld heraus sind Rechenverfahren entwickelt worden, um die Nullstellen von Polynomen dritten und vierten Grades zu bestimmen. Viel sp¨ater wurde dann von Niels Abel (1802– 1829) 1826 vollst¨andig bewiesen, dass es solche (algebraischen, auf Wurzelausdr¨ ucken basierenden) Verfahren f¨ ur beliebige Polynome vom Grad f¨ unf und h¨ oher nicht geben kann. In seinem Buch Ars Magna beschreibt Girolamo Cardano 1545 das im Folgenden angegebene Verfahren von Niccolo Tartaglia (1500–1557) f¨ ur Polynome dritten Grades (Cardan’sche Formeln). Nullstellen von Polynomen vierten Grades k¨onnen mit einem ¨ ahnlichen Algorithmus von Lodovico Ferrari (1522–1565), vgl. [Freud(1990), S. 65 f.], berechnet werden. Wir suchen also mindestens eine Nullstelle der Gleichung x3 + bx2 + cx + d = 0. Wenn wir diese berechnet haben, k¨onnen wir nach einer Polynomdivision die Nullstellen eines Polynoms zweiter Ordnung mit der p-q-Formel finden. Die Gleichung ist ¨aquivalent mit 3

b x+ 3   2

⇐⇒

b x+ 3

b3 b2 −c x− +d=0 3 27







b b2 b3 b b2 −c + −c − + d = 0. x+ 3 3 3 3 27   

3

=x3 +x2 b+x b3 + b27



− 3 − 

=:p

=:q

Statt eine L¨osung f¨ ur x zu suchen, setzen wir z = x + L¨osung der Gleichung z 3 + pz + q = 0.

b 3

und suchen eine

In dieser Gleichung gibt es keinen Summanden f¨ ur z 2 , was die weitere Rechnung vereinfachen wird. Haben wir eine L¨osung z gefunden, so kennen wir auch eine L¨osung x = z − 3b der Ausgangsgleichung. Jetzt wird ein Trick angewendet. Wir schreiben z als Summe von zwei neuen Variablen: z = u + v. Nun m¨ ussen wir Werte f¨ ur u und v finden, so dass (u + v)3 + p(u + v) + q = 0 ⇐⇒ u3 + v 3 + 3u2 v + 3uv 2 + pu + pv + q = 0

⇐⇒ u3 + v 3 + q + (u + v)(3uv + p) = 0. (5.10)

173

5.5. Fundamentalsatz der Algebra

¨ Jetzt geht es nicht mehr mit Aquivalenzumformungen weiter. Wenn wir Werte f¨ ur u und v finden k¨onnen, die das (nicht-lineare) Gleichungssystem u3 + v 3 + q = 0



3uv + p = 0

(5.11)

erf¨ ullen, so gilt auch (5.10), und wir haben eine Nullstelle. Umgekehrt k¨ onnte es aber auch noch andere Werte f¨ ur u und v geben, die zwar (5.10) erf¨ ullen, nicht aber das Gleichungssystem, z. B. bei q = 0 und p = 0 die L¨ osung u = ¨ v = 0. Uber das Gleichungssystem finden wir also evtl. nicht alle Nullstellen, das ist aber auch gar nicht n¨otig. p und aus der • F¨ ur u = 0 ergibt sich aus der zweiten Gleichung v = − 3u ersten  p 3 p3 = 0. = 0 ⇐⇒ u6 + qu3 − u3 + q − 3u 27

Nun l¨asst sich u3 mit der p-q-Formel bestimmen: # p3 q q2 3 + . u =− ± 2 4 27 • Eine L¨osung u = 0 ist nur m¨oglich, falls p = 0 ist. Dann ist v 3 = −q. Jetzt sind Werte f¨ ur u und v und damit f¨ ur z = u + v bestimmt. Damit erhalten wir Nullstellen x = u + v − 3b .

3 Beispiel 5.14 a) Wir berechnen die Nullstellen des Polynoms 1. Dabei  2 x + 2 b b b b3 ist b = 0, c = 0, d = 1, p = − 3 + c = 0 und q = 3 3 − c − 27 + d = 1.

osungen Da p = 0 ist, k¨onnen wir mit u = 0 und v 3 = −q = −1 die L¨ x = u + v − 3b = v finden. In diesem einfachen Fall vereinfacht sich die Rechnung nicht, wir h¨atten direkt die drei dritten komplexen Wurzeln −1, 2π 4π −ej 3 und −ej 3 angeben k¨onnen. b) Nun berechnen wir eine der Nullstellen 0, 1 und −1 von x(x + 1)(x − 1) = b2 x3 − x.  Dabei ist b = 0, c = −1 und d = 0, p = − 3 + c = −1 und q=

b 3

b2 3

−c −

b3 27

+ d = 0. Da p = 0 ist, benutzen wir

q u =− ± 2 3

also z. B. u =

#

p3 q2 + = ±j 4 27

#

1 =± 27

#

1 jπ e 2, 27

π π √1 ej 6 . Daf¨ √1 e−j 6 . Damit erhalten wir ur ist v = −p 3u = 3  3  jπ π π 2 cos( π ) b 1 6 + e−j 6 √ 6 = = 1. F¨ ur u = − √13 ej 6 3 = 3 e 3

x = u+v− bekommen wir analog die L¨osung −1. Die L¨ osung 0 k¨ onnen wir mit dem Verfahren nicht direkt finden. Denn u und v haben das gleiche Vorzeichen, so dass sie nur bei u = v = 0 entsteht und die zweite Gleichung (5.11) des Gleichungssystems wegen p = 0 nicht erf¨ ullbar ist.

174

Kapitel 5. Komplexe Zahlen

Literaturverzeichnis Ebbinghaus et al.(1992). Ebbinghaus, H.-D. et al.: Zahlen. Springer, Berlin Heidelberg, 1992. Freud(1990). Freud, R. (Hrsg.): Große Augenblicke aus der Geschichte der Mathematik. BI-Wissenschaftsverlag, Mannheim, 1990. de Jong(2012). de Jong, T.: Analysis in einer Ver¨ anderlichen. Pearson, M¨ unchen, 2012.

Kapitel 6

Lineare Gleichungssysteme und Matrizen In diesem Abschnitt l¨osen wir lineare Gleichungssysteme mit dem GaußAlgorithmus und f¨ uhren dazu Matrizen ein. Sp¨ ater werden wir im Buchteil III (Lineare Algebra) Matrizen und Gleichungssysteme in eine umfassendere Theorie einbetten. Diese ist aber gar nicht erforderlich, wenn nur mal eben“ ” ein Gleichungssystem gel¨ost werden soll, wie es in ganz vielen Anwendungen vorkommt. Lineare Gleichungssysteme treten in vielf¨ altiger Form bei mathematischen, physikalischen und technischen Problemstellungen auf. Beispiele sind die Berechnung der Koeffizienten eines N¨aherungspolynoms f¨ ur eine unbekannte Funktion, die Anwendung von Rand- und Anfangsbedingungen auf einen linearen Schwinger oder die Berechnung eines elektrischen Netzwerks mit linearen Bauelementen. F¨ ur die Behandlung vieler mathematischer Probleme der Technik, etwa bei der Berechnung von Fachwerken in der Statik, bei der Beschreibung dynamischer Systeme und bei Netzwerkberechnungen in der Elektrotechnik bedient man sich zudem der Matrizenrechnung.

© Der/die Autor(en), exklusiv lizenziert an Springer-Verlag GmbH, DE, ein Teil von Springer Nature 2023 S. Goebbels und S. Ritter, Mathematik verstehen und anwenden: Differenzial- und Integralrechnung, Lineare Algebra, https://doi.org/10.1007/978-3-662-68367-5_6

175

176

Kapitel 6. Lineare Gleichungssysteme und Matrizen

6.1 Lineare Gleichungssysteme

I1 +

U1

I2 R1

I3 R2



+

Abb. 6.1 Gleichstrom-Schaltung mit Widerst¨ anden



U2

Beispiel 6.1 Wir wenden die Kirchhoff’schen Regeln auf den GleichstromSchaltkreis in Abbildung 6.1 an, um die Stromst¨ arken I1 , I2 und I3 zu bestimmen. Die Knotenregel f¨ uhrt zur Gleichung I1 = I2 +I3 . Die Maschenregel liefert die Gleichungen U1 = R1 I2 und U2 = −R1 I2 + R2 I3 (wobei die Spannungen vom Plus- zum Minuspol gerichtet sind). Wir erhalten also ein System von drei Gleichungen, wobei R1 = 0 und R2 = 0 seien. I1 ∧ ∧

−I2 −I3 = 0 = U1 R 1 I2 −R1 I2 +R2 I3 = U2

(6.1)

Bei Wechselstromkreisen mit sinusf¨ormigen Spannungen ergeben sich bei komplexer Betrachtung komplexe lineare Gleichungssysteme. Definition 6.1 (Lineares Gleichungssystem) Ein lineares Gleichungssystem mit m Gleichungen in n Unbekannten x1 , x2 , . . . , xn hat die Form a1,1 x1 + a1,2 x2 + . . . + a1,n xn = b1 ∧ a2,1 x1 + a2,2 x2 + . . . + a2,n xn = b2 (6.2) . ∧ .. ∧ am,1 x1 + am,2 x2 + . . . + am,n xn = bm ,

wobei al,k , bl ∈ C, 1 ≤ l ≤ m, 1 ≤ k ≤ n. Hier sind also f¨ ur die Variablen ullt x1 , . . . , xn Zahlenwerte so zu bestimmen, dass alle m Gleichungen erf¨ sind. Ist b1 = b2 = · · · = bm = 0, so heißt das lineare Gleichungssystem homogen, anderenfalls inhomogen. Das Gleichungssystem heißt linear, da die gesuchten Unbekannten x1 , . . . , xn nur in der ersten Potenz auftreten und nur u ¨ber das Produkt mit Konstanten

6.2. Matrizen, Zeilen- und Spaltenvektoren

177

und Summation verkn¨ upft sind. Außerdem l¨asst sich eine lineare Gleichung f¨ ur zwei Unbekannte x1 und x2 der Form a1 x1 + a2 x2 = b mit a2 = 0 als Geradengleichung x2 = − aa12 x1 + ab2 auffassen. Die Punkte auf der Gerade entsprechen den unendlich vielen L¨osungen der Gleichung. Die L¨ osungsmenge kann also mit einem Lineal gezeichnet werden. Hat man ein System aus zwei solchen linearen Gleichungen, so ist die L¨ osungsmenge die Menge der Punkte, die zugleich auf beiden Geraden liegen. Ein homogenes lineares Gleichungssystem hat die offensichtliche (triviale) L¨osung x1 = x2 = · · · = xn = 0. Man kann ein lineares Gleichungssystem nach verschiedenen elementaren Methoden l¨osen. Hier soll mit dem Gauß-Algorithmus ein systematisches Verfahren betrachtet werden, bei dem die Gleichungen solange a ¨quivalent umgeformt werden, bis die L¨osungen abgelesen werden k¨ onnen.

6.2 Matrizen, Zeilen- und Spaltenvektoren Es bedeutet viel Schreibarbeit, ein Gleichungssystem in der Form (6.2) umzuformen. Die Information steckt ausschließlich in den Koeffizienten ak,l und den rechten Seiten bk . M¨ochte man Gleichungssysteme mit Computerprogrammen bearbeiten, muss man nur diese Daten speichern. Das f¨ uhrt zu den folgenden Begriffen: Definition 6.2 (Matrix) Das rechteckige Zahlenschema ⎤ ⎡ a1,1 a1,2 . . . a1,n ⎢ a2,1 a2,2 . . . a2,n ⎥ ⎥ ⎢ A := ⎢ . .. .. ⎥ , ⎣ .. . . ⎦ am,1 am,2 . . . am,n bei dem m · n Zahlen in m Zeilen und n Spalten angeordnet sind, heißt eine (m × n)-Matrix. Jedes Element ai,k der Matrix ist mit zwei Indizes versehen; der erste Index i ist der Zeilenindex i = 1, . . . , m, und der zweite Index k ist der Spaltenindex k = 1, . . . , n. Es ist u ¨blich, erst den Zeilenund dann den Spaltenindex anzugeben. Die Zeilen von A sind die horizontalen Reihen Ai· = (ai,1 , ai,2 , . . . , ai,n ), i = 1, . . . , m. Die Spalten von A sind die vertikalen Reihen ⎛ ⎞ a1,k ⎜ ⎟ A·k = ⎝ ... ⎠ , k = 1, . . . , n. am,k

178

Kapitel 6. Lineare Gleichungssysteme und Matrizen

Das Format von A ist das Paar (m × n) aus Zeilenanzahl m und Spaltenanzahl n. Die Menge aller (m × n)-Matrizen mit komplexen Elementen wird mit Cm×n bezeichnet, entsprechend nennt man die Menge der (m × n)-Matrizen mit reellen Elementen Rm×n . Matrizen werden wir mit Großbuchstaben benennen (z. B. A, B, C).

Wir nennen die Eintr¨age einer Matrix Elemente. Dies ist im Zusammenhang nicht zu verwechseln mit den Elementen einer Menge. Weitere g¨ angige Bezeichnungen sind Eintr¨ age und Komponenten. Auch der Begriff der Komponente ist nicht eindeutig, vgl. Kapitel 18.1.2. Beispiel 6.2



⎤ 1 2 3 4 A = ⎣2 1 3 4⎦ 0 1 2 3

hat das Format (3 × 4), d. h. 3 Zeilen und 4 Spalten. Die Zeilen lauten A1· = (1, 2, 3, 4), A2· = (2, 1, 3, 4), A3· = (0, 1, 2, 3), und die Spalten sind ⎛ ⎞ ⎛ ⎞ ⎛ ⎞ ⎛ ⎞ 1 2 3 4 A·1 = ⎝ 2 ⎠ , A·2 = ⎝ 1 ⎠ , A·3 = ⎝ 3 ⎠ , A·4 = ⎝ 4 ⎠ . 0 1 2 3 Definition 6.3 (Spezielle Matrizen) • Eine quadratische Matrix besitzt gleiche Zeilen- und Spaltenzahl, d. h., sie hat das Format (n × n). Die Elemente a1,1 , a2,2 , . . . , an,n , bei denen Zeilen- und Spaltenindex u ¨bereinstimmen, heißen Elemente der Hauptdiagonale der Matrix. • Eine Zeilenmatrix ist eine Matrix mit einer Zeile, d. h., sie hat das Format (1 × n). Statt von einer Zeilenmatrix spricht man auch von einem Zeilenvektor oder kurz Vektor. • Eine Spaltenmatrix ist eine Matrix mit einer Spalte, d. h., sie hat das Format (m × 1). Statt von einer Spaltenmatrix spricht man auch von einem Spaltenvektor oder kurz Vektor. • Eine Diagonalmatrix D = diag(d1 , . . . , dn ) ist eine Matrix mit lauter Nullen außerhalb der Hauptdiagonalen: ⎡ ⎤ d1 0 . . . 0 ⎢ 0 d2 . . . 0 ⎥ ⎢ ⎥ D=⎢ . ⎥. ⎣ 0 0 . . . .. ⎦ 0

0

...

dn

• Bei einer (n × n)-Nullmatrix O sind alle Elemente null.

179

6.2. Matrizen, Zeilen- und Spaltenvektoren

• Die (n × n)-Einheitsmatrix En (oder kurz E) ist eine Diagonalmatrix, bei der alle Diagonalelemente gleich eins sind: ⎡ ⎤ 1 0 ... 0 ⎢0 1 ... 0⎥ ⎢ ⎥ En = ⎢ .⎥. ⎣ 0 0 . . . .. ⎦ 0 0 ... 1

Der Begriff Vektor ist damit in der Mathematik nicht eindeutig, er wird sp¨ater sogar noch allgemeiner verwendet. Sowohl die Menge aller Zeilen- als auch die Menge aller Spalten-Vektoren mit m Eintr¨ agen wird mit Cm bzw. m R bezeichnet, die Vektoren auch als m-Tupel. Aus dem Zusammenhang ergibt sich, ob Zeilen oder Spalten geschrieben werden. F¨ ur Vektoren werden wir Variablen verwenden, die mit einem Vektorpfeil markiert sind (z. B. a, b). In der Literatur gibt es hier vielf¨altige andere Bezeichnungen. W¨ ahrend wir Matrizen als Zahlenschema generell mit eckigen Klammern schreiben, werden wir Zeilen- und Spaltenmatrizen in der Regel mit runden Klammern angeben. Wir verzichten auf den zweiten, hier nicht ben¨ otigten Index. Bei ¨ Zeilenmatrizen trennen wir zur Ubersichtlichkeit die einzelnen Eintr¨ age durch ein Komma, z. B.: (1, 2, 3, 4). Definition 6.4 (Gleichheit von Matrizen) Zwei Matrizen A und B sind genau dann gleich, wenn sie gleiches Format (m × n) haben und elementweise u ¨bereinstimmen, A = B ⇐⇒ ai,k = bi,k ,

i = 1, . . . , m, k = 1, . . . , n.

Definition 6.5 (Summe und skalares Vielfaches von Matrizen) Es seien A und B zwei (m × n)-Matrizen und λ ∈ R oder λ ∈ C. Wir nennen Zahlen λ zur Abgrenzung gegen Matrizen Skalare. • Die Summe A + B von zwei Matrizen A und B mit u ¨bereinstimmender Zeilenzahl und gleicher Spaltenzahl ist erkl¨ art durch ⎡

a1,1 . . . ⎢ a2,1 . . . ⎢ ⎢ .. ⎣ .

a1,n a2,n .. .

am,1 . . . am,n





b1,1 . . . ⎥ ⎢ b2,1 . . . ⎥ ⎢ ⎥ + ⎢ .. ⎦ ⎣ .

b1,n b2,n .. .

bm,1 . . . bm,n





⎥ ⎢ ⎥ ⎢ ⎥ := ⎢ ⎦ ⎣

a1,1 + b1,1 a2,1 + b2,1 .. .

... ...

a1,n + b1,n a2,n + b2,n .. .

am,1 + bm,1 . . . am,n + bm,n



⎥ ⎥ ⎥. ⎦

180

Kapitel 6. Lineare Gleichungssysteme und Matrizen

• Das skalare Vielfache λ · A ist erkl¨art durch ⎤ ⎡ ⎡ λ a1,1 . . . a1,1 . . . a1,n ⎢ λ a2,1 . . . ⎢ a2,1 . . . a2,n ⎥ ⎥ ⎢ ⎢ λ·⎢ . .. ⎥ := ⎢ .. ⎣ . ⎣ .. . ⎦ am,1

...

am,n

λ am,1

...

λ a1,n λ a2,n .. .

⎤ ⎥ ⎥ ⎥. ⎦

λ am,n

Statt (−1) · A schreiben wir kurz −A und A − B := A + (−B). • F¨ ur Matrizen A1 , A2 , . . . , Ak mit gleichem Format und Skalare λ1 , λ2 , . . . , λk heißt der Ausdruck λ1 · A1 + λ2 · A2 + · · · + λk · Ak eine Linearkombination von A1 , A2 , . . . , Ak mit den Koeffizienten λ 1 , λ2 , . . . , λ k . • Entsprechend sind Summe, skalares Vielfaches und Linearkombination von Vektoren (Zeilen- bzw. Spaltenmatrizen) erkl¨ art.

Der Begriff Skalar“ f¨ ur eine Zahl entspricht dem Sprachgebrauch in der ” Physik. Wir gehen darauf detaillierter in Kapitel 18 auf Seite 493 ein. F¨ ur die Addition und skalare Vielfache von Matrizen gelten folgende Rechenregeln, die man sofort mit der vorangehenden Definition nachrechnet: Satz 6.1 (Matrixaddition und Multiplikation mit einem Skalar) F¨ ur (m × n)-Matrizen A, B, C und Skalare λ, μ gilt: • Kommutativgesetz: A + B = B + A, • Assoziativgesetz: A + (B + C) = (A + B) + C = A + B + C, • Die Nullmatrix ist neutral bez¨ uglich der Addition: A + O = A, A + (−A) = O, • Distributivgesetze: λ(A + B) = λA + λB,

(λ + μ)A = λA + μA.

Beispiel 6.3 a) F¨ ur die Summe zweier (3 × 3)-Matrizen erhalten wir ⎡ ⎤ ⎡ ⎤ ⎡ ⎤ 3 −2 1 −1 6 4 2 4 5 ⎣ −4 5 −1 ⎦ + ⎣ 2 −3 2 ⎦ = ⎣ −2 2 1 ⎦ . 1 0 4 1 3 −1 2 3 3 b) Ein skalares Vielfaches einer (3 × 3)-Matrix: ⎡ ⎤ ⎡ 3 −2 1 9 5 −1 ⎦ = ⎣ −12 3 · ⎣ −4 1 0 4 3

⎤ −6 3 15 −3 ⎦ . 0 12

181

6.2. Matrizen, Zeilen- und Spaltenvektoren

c) Die Linearkombination der Vektoren a = (1, 0, 2), b = (2, 1, 0), c = (0, 0, 1) mit den Koeffizienten λ1 = 1, λ2 = −1 und λ3 = 2 lautet λ1 · a + λ2 · b + λ3 · c = 1 · (1, 0, 2) − 1 · (2, 1, 0) + 2 · (0, 0, 1) = (−1, −1, 4). Neben der elementweisen Addition und der elementweisen Multiplikation mit einem Skalar gibt es eine weitere wichtige Verkn¨ upfung von Matrizen: die Matrixmultiplikation. Wir werden Gleichungssysteme u ¨ber die Multiplikation einer Matrix mit einen Spaltenvektor von Variablen schreiben. Außerdem lassen sich mit der Matrixmultiplikation viele Abbildungen beschreiben, siehe Kapitel 20.1. Die tats¨achliche Genialit¨at der Verkn¨ upfung ist aber erst einmal schwierig zu erkennen: In Band 2 wird beispielsweise die Differenzialrechnung auf Funktionen mit mehreren Variablen u ¨bertragen. Dabei bleiben viele bekannte Formeln erhalten, wobei Zahlen nun durch Matrizen ersetzt sind, diese sich beim Rechnen aber aufgrund der Matrixmultiplikation so verhalten wie zuvor die Zahlen. Definition 6.6 (Matrixmultiplikation) Gegeben sei die (l × m)-Matrix A und die (m × n)-Matrix B. Das Produkt der Matrizen A und B ist eine (l × n)-Matrix, die entsteht, wenn man die Elemente der Zeilen von A mit den Elementen der Spalten von B multipliziert und die Produkte aufaddiert ( Zeile · Spalte“), genauer: ” ⎡

⎤ ⎡ ⎤ a1,1 a1,2 . . . a1,m b1,1 b1,2 . . . b1,n ⎢a2,1 a2,2 . . . a2,m ⎥ ⎢ b2,1 b2,2 . . . b2,n ⎥ ⎢ ⎥ ⎢ ⎥ A · B=⎢ . .. .. ⎥ · ⎢ .. .. .. ⎥ = C ⎣ .. . . ⎦ ⎣ . . . ⎦ al,1 al,2 . . . al,m bm,1 bm,2 . . . bm,n ⎤ ⎡ a1,1 b1,1 + a1,2 b2,1 + · · · + a1,m bm,1 . . . a1,1 b1,n + a1,2 b2,n + · · · + a1,m bm,n ⎢a2,1 b1,1 + a2,2 b2,1 + · · · + a2,m bm,1 . . . a2,1 b1,n + a2,2 b2,n + · · · + a2,m bm,n ⎥ ⎥ ⎢ :=⎢ ⎥ .. .. ⎦ ⎣ . . al,1 b1,1 + al,2 b2,1 + · · · + al,m bm,1

mit den Elementen cr,s =

m

k=1

...

al,1 b1,n + al,2 b2,n + · · · + al,m bm,n

ar,k bk,s , 1 ≤ r ≤ l, 1 ≤ s ≤ n.

Man beachte, dass die Anzahl m der Spalten der ersten Matrix A mit der Anzahl der Zeilen m der zweiten Matrix B u ¨bereinstimmen muss. Sonst kann man die Summen nicht bilden. Insbesondere ist B·A f¨ ur n = l nicht definiert. Wir werden in Kapitel 18.2 die Berechnung der Werte cr,s als das Standardskalarprodukt der r-ten Zeile von A mit der s-ten Spalte von B wiedererkennen. Mit dem Standardskalarprodukt lassen sich Winkel zwischen Spaltenoder Zeilenvektoren ausrechnen. Beispiel 6.4 a) Wir berechnen das Produkt zweier konkreter (2 × 2)-Matrizen mit der Definition:

182

Kapitel 6. Lineare Gleichungssysteme und Matrizen



       1 0 2 1 1·2+0·0 1·1+0·1 2 1 · = = . 3 2 0 1 3·2+2·0 3·1+2·1 6 5

b) F¨ ur das allgemeine Produkt von zwei (2 × 2)-Matrizen A und B erh¨ alt man      b a · b + a1,2 · b2,1 a1,1 · b1,2 + a1,2 · b2,2 b a1,1 a1,2 · 1,1 1,2 = 1,1 1,1 a2,1 a2,2 b2,1 b2,2 a2,1 · b1,1 + a2,2 · b2,1 a2,1 · b1,2 + a2,2 · b2,2 = [A · B·1 , A · B·2 ] .

c) Entsprechend berechnet man bei (3 × 3)-Matrizen das Produkt u ¨ber die Regel Zeile mal Spalte“: ” ⎡ ⎤ ⎡ ⎤ ⎡ ⎤ 3 −2 1 −1 6 4 −6 27 7 ⎣ −4 5 −1 ⎦ · ⎣ 2 −3 2 ⎦ = ⎣ 13 −42 −5 ⎦ . (6.3) 1 0 4 1 3 −1 3 18 0 d) Wir multiplizieren eine (2 × 3) mit einer (3 × 2)-Matrix und erhalten eine (2 × 2)-Matrix. Außerdem betrachten wir die Multiplikation mit einem Zeilen- und einem Spaltenvektor: ⎡ ⎤ ⎡ ⎤     1 2 1 2 1 2 3 ⎣ 22 28 · 3 4⎦ = , (1, 2, 3) · ⎣ 3 4 ⎦ = (22, 28), 4 5 6 49 64 5 6 5 6 ⎛ ⎞  

1 1 2 3 ⎝ ⎠ 14 · 2 = . 4 5 6 32 3 Mitunter hilft das Falk-Schema, eine versetzte Anordnung der Faktoren, bei der u uhrung der Matrixmultiplikation. Das Produkt ¨bersichtlichen Durchf¨ ⎡ ⎤     2 3 1 0 1 3 5 ⎣ 1 23 6 5 ⎦ 3 5 0 0 = · −2 3 −1 7 8 −3 −1 −2 1 1 1 l¨asst sich so berechnen:

1 3 −2 3

5 −1

2 3 −2 1 7

3 5 1 23 8

1 0 1 6 −3

0 0 1. 5 −1

Dabei ergibt sich jedes Element der Ergebnismatrix als Produkt des links angeordneten Zeilenvektors mit dem dar¨ uber angeordneten Spaltenvektor.

6.2. Matrizen, Zeilen- und Spaltenvektoren

183

Satz 6.2 (Eigenschaften des Matrixprodukts) a) Es gilt das Assoziativgesetz (A · B) · C = A · (B · C) f¨ ur alle Matrizen A, B, C, deren Formate die auftretenden Produkte gestatten. b) Es gelten die Distributivgesetze A · (B + C) = A · B + A · C, wenn das Format von B und C gleich ist und die Anzahl der Spalten von A mit der Anzahl der Zeilen von B und C u ¨bereinstimmt bzw. (A + B) · C = A · C + B · C, wenn A und B das gleiche Format haben und die Anzahl der Zeilen von C mit der Anzahl der Spalten von A und B u ¨bereinstimmt. c) Mit der (n × n)-Einheitsmatrix E = En gilt En · A = A A · En = A

f¨ ur (n × m) − Matrizen A, f¨ ur (m × n) − Matrizen A.



! Achtung

Das Matrixprodukt ist nicht kommutativ, d. h., es ist i. Allg. A · B = B · A.

Beweis a), b) und d) lassen sich elementar nachrechnen. F¨ ur c) geben wir ein Gegenbeispiel an: ⎡ ⎤ ⎡ ⎤ ⎡ ⎤ −1 6 4 3 −2 1 −23 32 9 ⎣ 2 −3 2 ⎦ · ⎣ −4 5 −1 ⎦ = ⎣ 20 −19 13 ⎦ . 1 3 −1 1 0 4 −10 13 −6 Damit ergibt sich ein anderes Ergebnis als in (6.3). Selbst wenn n = m ist, ist also eine Vertauschung i. Allg. nicht m¨oglich.  Da beim Matrixprodukt die Reihenfolge der Faktoren wesentlich ist, sind folgende Bezeichnungen u ¨blich. Beim Produkt A · B sagt man: B wird mit A von links und A wird mit B von rechts multipliziert.

184

Kapitel 6. Lineare Gleichungssysteme und Matrizen

Beispiel 6.5 (Drehmatrix) Die Multiplikation mit einer reellen (2 × 2)Matrix ist eine Abbildung, die einen Vektor aus R2 auf einen anderen Vektor aus R2 abbildet. Fassen wir die Vektoren als Punkte der Ebene auf, so dreht die Multiplikation mit   cos(ϕ) − sin(ϕ) A := (6.4) sin(ϕ) cos(ϕ) einen Punkt um den Winkel ϕ im mathematisch positiven Sinn (Gegenuhrzeigersinn) um den Ursprung. Schreiben wir einen Punkt (x, y) als komplexe Zahl x + jy = rejϑ , k¨onnen wir diesen Punkt mittels ejϕ (x + jy) = ejϕ rejϑ = rej(ϕ+ϑ) um den Winkel ϕ drehen: ejϕ (x + jy) = (cos(ϕ) + j sin(ϕ))(x + jy) = x cos(ϕ) − y sin(ϕ) + j[x sin(ϕ) + y cos(ϕ)], also



Re(ejϕ (x + jy)) Im(ejϕ (x + jy))





cos(ϕ) = sin(ϕ)

− sin(ϕ) cos(ϕ)

 x . y

Große Matrizen kann man blockweise multiplizieren, dabei m¨ ussen lediglich jeweils die Spalten- und Zeilenanzahlen der zu multiplizierenden Bl¨ ocke (Teilmatrizen) f¨ ur die Multiplikation zusammenpassen. Seien A, B, . . . , H Matrizen, die zu zwei gr¨oßeren Matrizen zusammengesetzt werden. Die Spaltenzahl von A sei gleich der Zeilenzahl von E usw. Dann ergibt sich direkt aus der Definition der Matrixmultiplikation: ⎤ ⎡ · · · · ⎥ ⎢ ⎤⎢· · · · ⎥ ⎡ ⎤ ⎡ ⎥ F · · E · ·· · ··· · · ⎢ · · · ⎥ ⎢ ⎢ · · A · · · B · ⎥ ⎢ · · · · ⎥ ⎢ · AE + BG · AF + BH ⎥ ⎥⎢ ⎥. ⎥ ⎢ ⎢ ⎦ ⎣ · · · · · · · · ⎦ ⎢ · · · · ⎥=⎣ · · · · ⎥ ⎢ ⎥ ··C···D· ⎢ · · · · · CE + DG · CF + DH ⎥ ⎢ ⎣· G · H⎦ · · · · Beispiel 6.6 Das blockweise ⎡ 0 ⎣1 1 ist gleich

Produkt ⎤ ⎡ 1 0 1 2 0 2⎦ · ⎣0 1 1 2 1 0

⎤ 1 1⎦ 0

185

6.3. L¨ osen linearer Gleichungssysteme

   ⎤       ⎡  0 10 1 0 10 01 · [1] + · ⎢ 1 · [1 2] + 0 2 · 1 0 1 0 2 0 ⎥ ⎥ ⎢ ⎥ ⎢ ⎢     ⎥ ⎣ 01 1 ⎦ [1] · [1 2] + [1 2] · [1] · [1] + [1 2] · 10 0       ⎤ ⎡ 0 1 00 01 0 1 + ⎢ 12 + 20 ⎥ 1 0 ⎥ = ⎣3 2 =⎢ ⎣ ⎦ 3 3 [1 2] + [2 1] [1] + [1] ⎡

⎤ 1 1⎦. 2

6.3 L¨osen linearer Gleichungssysteme Wir k¨onnen nun das eingangs definierte lineare Gleichungssystem (6.2) u ¨ber die Matrixmultiplikation formulieren: ⎤ ⎡ a1,1 a1,2 . . . a1,n ⎛ x1 ⎞ ⎛ b1 ⎞ ⎢ a2,1 a2,2 . . . a2,n ⎥ ⎜ ⎟ ⎜ ⎟ ⎥ x 2 ⎟ ⎜ b2 ⎟ ⎢ (6.5) ⎢ .. .. .. ⎥ ⎜ ⎝ ⎠ = ⎝...⎠, ⎣ . . . ⎦ ... xn bm am,1 am,2 . . . am,n also Ax = b. Definition 6.7 (Koeffizientenmarrix) Die (m × n)-Matrix A in (6.5) heißt Matrix oder Koeffizientenmatrix des linearen Gleichungssystems (6.2).

Beispiel 6.7 Das Gleichungssystem (6.1) des Eingangsbeispiels sieht nun so aus: ⎤⎛ ⎞ ⎛ ⎞ ⎡ I1 0 1 −1 −1 ⎣0 0 ⎦ ⎝ I 2 ⎠ = ⎝ U1 ⎠ . R1 I3 U2 0 −R1 R2

6.3.1 Gauß-Algorithmus Wir haben jetzt viele Begriffe eingef¨ uhrt, sind der L¨ osung eines linearen Gleichungssystems (6.2) bzw. (6.5) dadurch aber noch nicht n¨ aher gekommen. Ein naheliegender L¨osungsansatz ist das Einsetzungsverfahren: Man l¨ ost eine Gleichung nach einer Variable auf und ersetzt diese dann durch die gefunde-

186

Kapitel 6. Lineare Gleichungssysteme und Matrizen

ne Darstellung in den u ¨brigen Gleichungen, die damit eine Variable weniger besitzen. Dann wiederholt man den Ansatz nur f¨ ur die u ¨brigen Gleichungen, usw. Beim Gauß-Verfahren geht man ¨ahnlich vor und eliminiert Variablen in den u ¨brigen Gleichungen. Allerdings geschieht dies nicht durch Einsetzen sondern durch drei Umformungen, die die Menge der L¨ osungen nicht ¨ andern und leicht auch mit der Matrix-Darstellung des Gleichungssystems durchgef¨ uhrt werden k¨onnen: • Multiplikation einer Gleichung mit einer Zahl c = 0, • Austausch einer Gleichung durch die Summe dieser Gleichung und einer anderen Gleichung, • Vertauschung zweier Gleichungen. Diese Umformungen k¨onnen kombiniert und iteriert angewendet werden. Es resultiert der Gauß-Algorithmus zum L¨osen linearer Gleichungssysteme. Wir betrachten dazu unser Eingangsbeispiel und bringen die linke Seite in eine Gestalt, an der die L¨osung ablesbar ist. Da I1 nur in der ersten Gleichung vorkommt, machen wir in der folgenden Rechnung mit I2 in der zweiten Spalte weiter. Wir addieren die zweite Gleichung zur dritten. Dann multiplizieren wir die zweite Gleichung mit 1/R1 und addieren sie anschließend dann zur ersten Gleichung: I1 ∧ ∧

−I2 −I3 = 0 = U1 R 1 I2 −R1 I2 +R2 I3 = U2

I1 −I2 −I3 = 0 U1 = R ∧ I2 1 ∧ R 2 I 3 = U1 + U 2

⇐⇒

∧ ∧

⇐⇒ ⇐⇒

∧ ∧

I1 −I2 −I3 = 0 = U1 R1 I 2 R 2 I 3 = U1 + U 2 I1

U1 −I3 = R 1 U1 I2 = R 1 R 2 I 3 = U1 + U 2 .

Jetzt haben wir auch die Variable I2 separiert, und wir machen in den folgenden Umformungen mit I3 weiter. Wir multiplizieren die dritte Gleichung mit 1/R2 . Anschließend addieren wir die dritte Gleichung zur ersten: I1 ∧ ∧

U1 −I3 = R 1 U1 I2 = R 1 R 2 I 3 = U1 + U 2

⇐⇒

⇐⇒

−I3 = I2 = I3 =

I1

= I2 = I3 =

∧ ∧ ∧ ∧

U1 R1 U1 R1 U1 +U2 R2 U1 U1 +U2 + R1 R2 U1 R1 U1 +U2 R2 .

I1

Nun kann die L¨osung abgelesen werden. Die hier verwendeten Gauß-Umformungen sind in der Regel einfacher durchzuf¨ uhren als das Einsetzungsverfahren, da sie auf einem erweiterten Matrix-Schema vorgenommen werden k¨onnen. Zum einen f¨ uhren die Umformungen auf den Gleichungen zu entsprechenden Umformungen auf den Zeilen der Matrix des Gleichungssystems und

6.3. L¨ osen linearer Gleichungssysteme

187

den entsprechenden Eintr¨agen des Vektors der Inhomogenit¨ at. Eine wichtige Beobachtung ist zudem, dass sich durch die Gleichungs- bzw. Zeilen-Umformungen die Reihenfolge der Variablen in den Gleichungen nicht ¨ andert, d. h., der Variablenvektor in (6.5) bleibt unver¨andert. Die Reihenfolge der Variablen in diesem Vektor w¨ urden sich nur bei Vertauschung von Spalten in der Matrix des Gleichungssystems ¨andern. Spaltenumformungen wollen wir hier aber nicht vornehmen. Daher k¨onnen wir uns den Schreibaufwand f¨ ur den Variablenvektor w¨ahrend der Umformungen ersparen und diese auf einem erweiterten Matrix-Schema durchf¨ uhren: Definition 6.8 (Erweiterte Matrix eines linearen Gleichungssystems) Das (m × [n + 1])-Schema ⎤ ⎡ b1 a1,1 a1,2 . . . a1,n ⎢ a2,1 a2,2 . . . a2,n b2 ⎥ ⎥ ⎢ (6.6) ⎢ .. .. .. .. ⎥ ⎣ . . . . ⎦ am,1 am,2 . . . am,n bm heißt erweiterte Matrix von (6.2).

Der Gauß-Algorithmus nutzt die Zeilen-Umformungen, um die Matrix des Gleichungssystems spaltenweise in eine Dreiecks- oder – wie soeben gemacht – in eine Diagonalgestalt zu bringen, an der dann L¨ osungen abgelesen werden k¨onnen. Wir beschreiben zun¨achst den Algorithmus allgemeiner f¨ ur m Gleichungen/Zeilen und n Variablen/Spalten und rechnen dann weitere Beispiele. Der Algorithmus beginnt mit der ersten Variable x1 = xs mit s = 1 und der Gleichung an der ersten Position r = 1, also mit der ersten Zeile und ersten Spalte der Matrix. Ein Verfahrensschritt f¨ ur die Variable xs und Gleichung r funktioniert wie folgt: ur r ≤ k ≤ m, dann kommt die Variable xs nicht in • Falls ak,s = 0 f¨ den Gleichungen/Zeilen ab der r-ten vor. In diesem Fall machen wir, falls s < n ist, weiter mit einem neuen Verfahrensschritt f¨ ur die gleiche Gleichung/Zeile an Position r, aber f¨ ur die n¨achste Variable xs+1 bzw. Spalte s + 1. ur mindestens ein k mit r ≤ k ≤ m gilt, sorgen wir daf¨ ur, • Falls ak,s = 0 f¨ dass xs nur in der Gleichung an Position r (und ggfls. vorangehenden Gleichungen) vorkommt. Dazu tauschen wir die Gleichung/Zeile r mit einer der Gleichungen/Zeilen an einer Position k ∈ {r, . . . , m}, f¨ ur die ak,s = 0 1 multipliziert. Nach der ist. Diese Gleichung/Zeile wird zudem mit ak,s Multiplikation und dem Tausch kommt xs in der jetzt an Position r stehenden Gleichung mit dem Vorfaktor eins vor. Wir subtrahieren nun von

188

Kapitel 6. Lineare Gleichungssysteme und Matrizen

allen an den folgenden Positionen k ∈ {r + 1, . . . , m} stehenden Gleichungen/Zeilen jeweils die mit ak,s multiplizierte neue r-te Gleichung/Zeile, so dass dort der Vorfaktor von xs null wird. Dadurch entsteht im Laufe des Algorithmus eine Matrix in Dreiecksgestalt, bei der unterhalb der Hauptdiagonale nur Nullen stehen (vgl. Kapitel 6.6). Subtrahiert man zus¨ atzlich die jeweils mit ak,s multiplizierte neue r-te Gleichung/Zeile von den Gleichungen/Zeilen an den Positionen k ∈ {1, . . . , r−1}, dann resultiert sp¨ ater (im Fall der eindeutigen L¨osbarkeit) eine Matrix in Diagonalgestalt. Der Algorithmus wird dann auch Gauß-Jordan-Verfahren genannt. Falls s < n und r < m ist, m¨ ussen wir uns nun um die n¨ achste Variable/Spalte k¨ ummern. Dazu f¨ uhren wir den Verfahrensschritt erneut durch, aber jetzt f¨ ur die Variable xs+1 zur Spalte s + 1 und die Gleichung/Zeile an Position r + 1. Beim manuellen Rechnen k¨onnen die Gauß-Umformungen nat¨ urlich auch abweichend vom hier vorgeschlagenen Algorithmus vorgenommen werden. Das bietet sich insbesondere dann an, wenn sich dadurch Rechenaufwand einsparen l¨asst, weil z. B. mit ganzen Zahlen statt mit Br¨ uchen gerechnet werden kann. Bei mehreren Austauschm¨oglichkeiten von Gleichungen/Zeilen sollte dann auch darauf geachtet werden, dass durch die Wahl m¨ oglichst einfach weitergerechnet werden kann. Hingegen ist bei einer Implementierung auf einem Computer darauf zu achten, dass Rundungsfehler einged¨ ammt wer1 , falls |ak,s | den. Problematisch ist insbesondere die Multiplikation mit ak,s klein ist. Deshalb wird beim Tausch der r-ten Gleichung/Zeile mit einer Gleichung/Zeile an Position k ≥ r, die Gleichung/Zeile ausgew¨ ahlt, f¨ ur die |ak,s | maximal ist. Dieses Vorgehen nennt man Pivot-Suche (engl. Pivot = Drehpunkt, Angelpunkt). Beim Gauß-Jordan-Verfahren kann man am Ende die L¨ osung oder die L¨osungen des Gleichungssystems direkt ablesen, sofern es sie gibt. Wird dagegen nur eine Dreiecksgestalt berechnet, erh¨ alt man L¨ osungen durch R¨ uckw¨artseinsetzen der bereits bekannten Variablenwerte. Beispiel 6.8 Wir wiederholen die L¨osung des Eingangsbeispiels mit der erweiterten Matrix-Schreibweise. Die erweiterte Matrix lautet: ⎤ ⎡ 0 1 −1 −1 ⎣0 0 U1 ⎦ . R1 0 −R1 R2 U2 Der erste Schritt des Gauß-Algorithmus muss hier nicht ausgef¨ uhrt werden, da in der ersten Spalte bereits nur eine 1 in der ersten Zeile steht. Im zweiten Schritt multiplizieren wir die zweite Gleichung mit 1/R1 und addieren sie anschließend zur ersten sowie das R1 -Fache zur dritten: ⎤ ⎡ U1 1 0 −1 R1 U1 ⎦. ⎣0 1 0 R1 0 0 R2 U 1 + U 2

189

6.3. L¨ osen linearer Gleichungssysteme

Jetzt multiplizieren wir die schließend zur ersten: ⎡ 1 ⎢ ⎣0 0

dritte Gleichung mit 0 0 1 0 0 1

U1 R1

U1 +U2 R2 U1 R1 U1 +U2 R2

+

1 R2

und addieren sie an-

⎤ ⎥ ⎦.

Wir haben damit die Str¨ome berechnet: ⎞ ⎛ ⎞ ⎡ ⎤ ⎛ ⎞ ⎛ U1 U1 +U2 I1 1 0 0 I1 R1 + R2 ⎟ U1 ⎝ I2 ⎠ = ⎣ 0 1 0 ⎦ ⎝ I2 ⎠ = ⎜ ⎝ ⎠. R1 U +U 1 2 I3 I3 0 0 1 R 2



! Achtung

Beim Rechnen mit dem erweiterten Zahlenschema darf man nur die GaußUmformungen anwenden. Umformungen wie die Multiplikation zweier Gleichungen oder das Potenzieren einer Gleichung f¨ uhren (abgesehen von anderen L¨osungsmengen) zu Produkten von Variablen und damit zu einem nichtlinearen Gleichungssystem. Das ist aber u ¨ber die Matrix-Schreibweise nicht darstellbar. Falsch w¨are daher eine Multiplikation der Eintr¨ age zweier Zeilen oder das Potenzieren der Eintr¨age einer Zeile.

Im Idealfall einer eindeutigen L¨osung hat man mindestens so viele Gleichungen wie Variablen (m ≥ n). Dann f¨ uhrt das Gauß-Verfahren zu einer der beiden folgenden Situationen: • Die Diagonalgestalt = ˜b1 = ˜b2

1 x1 ∧ ∧ ∧ ∧ ∧ ∧

1 x2 ...

1 xn = ˜bn 0 = 0 ... 0

=

0

erh¨alt man, wenn man auch Variablen in den vorangehenden Gleichungen eliminiert. • Verzichtet man auf diese Elimination nach oben“, dann kommt man zu ” dieser Dreiecksgestalt:

190

Kapitel 6. Lineare Gleichungssysteme und Matrizen

1 x1 ∧ ∧ ∧ ∧ ∧ ∧

+

a ˜1,2 x2 1 x2

+ +

... ...

+ +

a ˜1,n xn a ˜2,n xn

= ˜b1 = ˜b2

1 xn 0

= ˜bn = 0

...

... 0

=

0.

Hier kann man dann die L¨osung entweder direkt ablesen oder von unten nach oben durch Einsetzen bestimmen. Beispiel 6.9 Mit dem Gauß-Verfahren l¨osen wir ⎞ ⎡ ⎡ ⎤⎛ ⎞ ⎛ j 1 1 j 1 x1 ⎣ 2 j −j ⎦ ⎝ x2 ⎠ = ⎝ 2 + 2j ⎠ , ⎣ 2 x3 1 0 1 0 1

das Gleichungssystem ⎤ j j 1 j −j 2 + 2j ⎦ . 0 0 1

Wir eliminieren mit der ersten Zeile die erste Spalte in der zweiten und dritten Zeile: ⎤ ⎡ 1 j 1 j ⎣ 0 −j −2 − j 2⎦. 0 −j 0 −j Wir addieren die zweite Zeile zur ersten Zeile, subtrahieren sie von der dritten Zeile und multiplizieren sie dann mit j. Das ist beim manuellen Rechnen einfacher, als wie im beschriebenen Algorithmus die zweite Zeile zun¨ achst durch −j zu teilen: ⎤ ⎡ 2+j 1 0 −1 − j ⎣ 0 1 1 − 2j 2j ⎦ . 0 0 2 + j −2 − j Auf den letzten Schritt des Gauß-Algorithmus verzichten wir, da wir schon jetzt die eindeutige L¨osung ablesen k¨onnen: x3 = −1, x2 = 2j−(1−2j)(−1) = 1, x1 = 2 + j − (−1 − j)(−1) = 1.

6.3.2 L¨osungstheorie linearer Gleichungssysteme Das L¨osungsverhalten linearer Gleichungssysteme kann man anhand einfacher Beispiele in R2 diskutieren. Beispiel 6.10 Das lineare System x1 x1

+x2 −2x2

=2 , =1



1 1

1 −2



x1 x2



2 = 1

hat genau eine L¨osung. Subtraktion der zweiten Gleichung von der ersten Gleichung liefert 3x2 = 1, also x2 = 13 , und Einsetzen in die zweite Gleichung

191

6.3. L¨ osen linearer Gleichungssysteme

ergibt x1 = 53 . Beide Geraden x2 = 2 − x1 und x2 = − 12 + 12 x1 schneiden sich in dem Punkt ( 53 , 13 ). Beispiel 6.11 Das lineare System x1 2x1

+x2 +2x2

=2 , =4



1 1 2 2



x1 x2



2 = 4

hat unendlich viele L¨osungen. Subtraktion des doppelten der ersten Gleichung von der zweiten Gleichung liefert die Gleichung 0 · x1 + 0 · x2 = 0, stellt also keine Bedingung an x1 , x2 . Beide Gleichungen beschreiben dieselbe Gerade. Setzen wir z. B. x2 = t ∈ R beliebig, so folgt mit der ersten Gleichung ur jedes t ∈ R erhalten wir die L¨ osungen x1 = 2 − t, x2 = t, x1 = 2 − t. F¨ t ∈ R. Beispiel 6.12 Das lineare System x1 x1

+x2 +x2

=2 , =1



1 1

1 1



x1 x2



2 = 1

(6.7)

besitzt keine L¨osung. Subtraktion der zweiten Gleichung von der ersten Gleichung liefert die Gleichung 0 · x1 + 0 · x2 = 1, also 0 = 1, die kein x1 , x2 erf¨ ullen kann. Die beiden Geraden x2 = 2 − x1 und x2 = 1 − x1 sind parallel. Die drei Beispiele zeigen bereits alle Situationen, die beim L¨ osen linearer Gleichungssysteme auftreten k¨onnen: Ein lineares Gleichungssystem besitzt entweder • eine eindeutige L¨osung oder • unendlich viele L¨osungen oder • keine L¨osung. Gibt es unendlich viele L¨osungen, so spricht man von einem unterbestimmten Gleichungssystem. Man kann dann den Wert mindestens einer Variable frei w¨ahlen, so dass zu jeder Wahl eine L¨osung existiert. F¨ uhrt man GaußUmformungen durch, so gelangt man bei einem solchen Gleichungssystem zu einer Struktur wie ⎞ ⎛ ˜ ⎞ ⎤⎛ ⎡ b1 ˜1,n−2 a ˜1,n−1 a ˜1,n x1 1 a ˜1,2 . . . a ˜ ⎟ ⎥ ⎜ ⎜ ⎢0 1 ... a ˜2,n−2 a ˜2,n−1 a ˜2,n ⎥ ⎜ x2 ⎟ ⎜ b2 ⎟ ⎟ ⎢ ⎢ .. .. .. .. .. ⎥ ⎜ .. ⎟ ⎜ .. ⎟ ⎥⎜ . ⎟ ⎜ . ⎟ ⎢. . . . . ⎟=⎜ ⎥⎜ ⎟ . (6.8) ⎢ ⎟ ⎜ ⎟ ⎜ ⎢0 0 ... 1 a ˜n−2,n−1 a ˜n−2,n ⎥ ⎥ ⎜ xn−2 ⎟ ⎜ ˜bn−2 ⎟ ⎢ ⎣0 0 ... 0 0 0 ⎦ ⎝ xn−1 ⎠ ⎝ 0 ⎠ xn 0 0 ... 0 0 0 0 In diesem Beispiel hat man f¨ ur jede Wahl von xn und xn−1 eine eindeutige L¨osung f¨ ur die restlichen Variablen:

192



Kapitel 6. Lineare Gleichungssysteme und Matrizen

1 ⎢0 ⎢ ⎢ .. ⎣.

a ˜1,2 1 .. .

... ...

0

0

...

Beispiel ⎡ 1 ⎢2 ⎢ ⎣1 1

6.13

⎤⎛ ⎞ ⎛ ⎞ ˜b1 − a ˜1,n−1 xn−1 − a ˜1,n xn x1 a ˜1,n−2 ˜b2 − a ⎜ ⎟ ⎜ ⎟ a ˜2,n−2 ⎥ ˜2,n−1 xn−1 − a ˜2,n xn ⎥ ⎜ x2 ⎟ ⎜ ⎟ ⎟. .. ⎥ ⎜ .. ⎟ = ⎜ .. ⎠ .⎦⎝ . ⎠ ⎝ . ˜bn−2 − a 1 xn−2 ˜n−2,n−1 xn−1 − a ˜n−2,n xn

⎤⎛ ⎞ ⎛ ⎞ 6 2 4 7 x1 ⎜ x2 ⎟ ⎜ 10 ⎟ 4 6 8⎥ ⎥⎜ ⎟ = ⎜ ⎟, 2 0 −5 ⎦ ⎝ x3 ⎠ ⎝ 2 ⎠ 2 2 1 x4 4



1 ⎢2 ⎢ ⎣1 1

2 4 2 2

4 6 0 2

7 8 −5 1

⎤ 6 10 ⎥ ⎥ 2⎦ 4

(6.9)

Wir subtrahieren die erste Gleichung zweimal von der zweiten sowie von der dritten und vierten: ⎤ ⎡ 6 1 2 4 7 ⎢ 0 0 −2 −6 −2 ⎥ ⎥ ⎢ ⎣ 0 0 −4 −12 −4 ⎦ . 0 0 −2 −6 −2 Jetzt sehen wir, dass das Gleichungssystem unterbestimmt ist. Wir subtrahieren die zweite Gleichung zweimal von der dritten und einmal von der vierten, anschließend multiplizieren wir sie mit − 21 : ⎡ ⎤ 1 2 4 7 6 ⎢0 0 1 3 1⎥ ⎢ ⎥ ⎣0 0 0 0 0⎦. 0 0 0 0 0 Jetzt k¨onnen wir noch die zweite Gleichung ⎡ 1 2 0 −5 ⎢0 0 1 3 ⎢ ⎣0 0 0 0 0 0 0 0

viermal von der ersten abziehen: ⎤ 2 1⎥ ⎥. 0⎦ 0

Die L¨osungsmenge des linearen Gleichungssystems ist {x ∈ R4 : x2 , x4 ∈ R, x1 = 2 − 2x2 + 5x4 , x3 = 1 − 3x4 }. Wie bereits zuvor f¨ ur (6.7) gesehen, kann es aber bei einem inhomogenen Gleichungssystem auch passieren, dass es gar keine L¨ osung gibt, dass sich also Gleichungen widersprechen. Beim Gauß-Algorithmus bleibt dann eine Gleichung der Form 0 = ˜bk (mit ˜bk = 0) u ¨brig. Das Gleichungssystem heißt u oglich, da stets 0 := ¨ berbestimmt. Im homogenen Fall ist das nicht m¨ (0, 0, 0, . . . , 0) eine L¨osung ist.

6.4. Inverse Matrix und transponierte Matrix

193

6.4 Inverse Matrix und transponierte Matrix Einen etwas anderen Weg zum L¨osen eines Gleichungssystems Ax = b h¨ atte man, wenn man beide Seiten mit dem Kehrwert“ von A multiplizieren k¨ onn” te, um so die Gleichung nach x aufzul¨osen. Auf diese Weise m¨ usste man außerdem nur einmal den Kehrwert, der inverse Matrix“ heißt, berechnen und ” h¨atte dann zu jeder beliebigen Inhomogenit¨at die L¨ osung u ¨ber eine Multiplikation. Wir ben¨otigen also etwas Analoges zum Kehrwert a1 = a−1 einer reellen Zahl a ungleich null. Analog zu a · a−1 = a−1 · a = 1 definieren wir: Definition 6.9 (Inverse Matrix) Sei A ∈ Cn×n . Falls eine Matrix B ∈ Cn×n existiert mit A · B = E, so heißt B die inverse Matrix zu ar oder A und wird mit A−1 bezeichnet. In diesem Fall nennt man A regul¨ invertierbar. Ist A nicht invertierbar, existiert also keine inverse Matrix zu A, so heißt A singul¨ ar.

Satz 6.3 (Eindeutigkeit der inversen Matrix) a) Mit A · A−1 = E ist auch A die Inverse von A−1 : A−1 · A = E. Man erh¨alt also die Einheitsmatrix, egal, ob man A−1 von links oder von rechts gegen A multipliziert. aren Matrix A gibt es also b) A−1 ist eindeutig bestimmt, zu einer regul¨ nicht mehrere inverse Matrizen. c) Sind A und B invertierbare (n×n)-Matrizen, dann ist das Produkt A·B invertierbar mit (A · B)−1 = B−1 · A−1 . Beweis a) Die Eigenschaft ist nicht selbstverst¨ andlich, da es normalerweise bei der Multiplikation von Matrizen auf ihre Reihenfolge ankommt. Wir werden weiter unten sehen, wie die Inverse durch simultanes L¨ osen von Gleichungssystemen mit dem Gauß-Verfahren berechnet werden kann. Liest man diesen Rechenweg r¨ uckw¨arts, so erkennt man, dass A mit dem achlich A die Inverse von gleichen Verfahren aus A−1 entsteht, so dass tats¨ A−1 ist, siehe Seite 196. b) Die Inverse einer regul¨aren Matrix ist eindeutig. Angenommen, es gibt zwei inverse Matrizen B und C von A, so gilt mit a) B · A = E, und Multiplikation von rechts mit C liefert (B·A)·C = E·C = C. Andererseits gilt (B · A) · C = B · (A · C) = B · E = B, woraus B = C folgt. c) (A · B) · (B−1 · A−1 ) = A · (B · B−1 ) · A−1 = A · E · A−1 = A · A−1 = E. 

194

Kapitel 6. Lineare Gleichungssysteme und Matrizen

Beispiel 6.14 a) Wir zeigen, dass die Matrix    1 1 1 −2 −1 4 4 A = die Inverse von A = ist. 3 2 − 38 18 Es gilt



A·A

−1

  1 1 −2 4 = · 3 2 − 38

und

 A

−1

·A=



1 4 − 38

a b) Die (2 × 2)-Matrix A = c A

−1

 1 d = ad − bc −c

b d



1 4 1 8

1 4 1 8





1 = 0

    1 −2 1 · = 3 2 0

0 1



 0 . 1

ist f¨ ur ad − bc = 0 invertierbar. Es ist

  d −b ad−bc = c a − ad−bc

b − ad−bc a ad−bc

 ,

(6.10)

wie man durch Multiplikation mit A zeigt. Beispiel 6.15 (Umrechnung von Farbwerten) Die Farbe eines Punktes kann u unanteil G und Blauanteil B ange¨ber seinen Rotanteil R, Gr¨ geben werden. Beim analogen PAL-Fernsehsignal werden dagegen die Helligkeit Y (Luminanz, Schwarzweißbild) und die Farbdaten (Chrominanz) U und V verwendet. Der Vorteil der YUV-Darstellung besteht darin, dass das menschliche Auge Helligkeitsunterschiede viel deutlicher als Farbunterschiede wahrnimmt. Damit kann man mehr Speicherplatz f¨ ur die Helligkeitsdaten verwenden und die Farbinformationen komprimiert ablegen. Die Helligkeit w¨are eigentlich die Summe von R, G und B. Allerdings nimmt das Auge die Farben unterschiedlich intensiv wahr, so dass die Anteile gewichtet werden (vgl. [Schenk und Rigoll(2010), S. 204]): Y := 0,299 · R + 0,587 · G + 0,114 · B. Die Farbinformation U ist die mit dem Faktor 0,492 gewichtete Differenz B − Y und V die mit 0,877 gewichtete Differenz R − Y . Daraus ergibt sich die folgende Umrechnung in Matrixform: ⎤ ⎛ ⎞ ⎛ ⎞ ⎡ R Y 0,299 0,587 0,114 ⎝ U ⎠ = ⎣ −0,147 −0,289 0,436 ⎦ · ⎝ G ⎠ . 0,615 −0,515 −0,1 B V M¨ochte man aus der YUV-Information wieder eine RGB-Information machen, so muss man das entsprechende Gleichungssystem l¨ osen, also z. B. die inverse Matrix (hier gerundet) mit dem Vektor (Y, U, V ) multiplizieren: ⎤ ⎛ ⎞ ⎛ ⎞ ⎡ Y 1 0 1,14 R ⎝ G ⎠ ≈ ⎣ 1 −0,395 −0,581 ⎦ · ⎝ U ⎠ . V 1 2,033 0 B

195

6.4. Inverse Matrix und transponierte Matrix

Kennt man A−1 , kann man die L¨osung des Gleichungssystems Ax = b direkt mit x = A−1b angeben. Zur Berechnung von A−1 : Um die n Spaltenvektoren von A−1 zu bestimmen, muss man n Gleichungssysteme ⎛ ⎞ ⎛ ⎞ ⎛ ⎞ 0 0 1 ⎜0⎟ ⎜1⎟ ⎜0⎟ ⎜ ⎟ ⎜ ⎟ ⎜ ⎟ ⎜ ⎟ ⎜ ⎟ ⎜ ⎟ Ay1 = ⎜ 0 ⎟ , Ay2 = ⎜ 0 ⎟ , . . . , Ayn = ⎜ ... ⎟ (6.11) ⎜ ⎟ ⎜ .. ⎟ ⎜ .. ⎟ ⎝0⎠ ⎝.⎠ ⎝.⎠ 1 0 0 l¨osen, wobei die Inhomogenit¨aten genau die n Spalten der Einheitsmatrix achst nach En sind. A−1 hat nun die n Spalten y1 , . . . , yn . Das sieht zun¨ wesentlich mehr Arbeit als das direkte L¨osen eines Gleichungssystems Ax = b osung f¨ ur jede Inhomogenit¨ at aus, aber daf¨ ur kann man mit A−1 sofort eine L¨ b angeben. Außerdem hat man nicht den n-fachen Aufwand: Die n Gleichungssysteme bei der Matrix-Invertierung k¨ onnen gleichzeitig mittels des Gauß-Algorithmus gel¨ost werden, denn der Gauß-Algorithmus zur ur jedes i gleich. Dazu schreibt man Berechnung von yi , i = 1, . . . , n, verl¨auft f¨ statt eines Vektors rechts die Einheitsmatrix (bestehend aus den n Inhomogenit¨aten) auf und macht so lange Gauß-Umformungen, bis links die Einheitsmatrix und damit rechts die gesuchte Inverse steht. Denn in der ersten Spalte der rechten Seite steht dann die L¨osung des ersten Gleichungssystems und damit die erste Spalte der Inversen, usw. Beispiel 6.16



1 −1 ⎣0 R1 0 −R1

−1 0 R2

1 0 0

0 1 0

⎤ 0 0⎦ 1

Wie zuvor wird die zweite Gleichung mit 1/R1 multipliziert, dann wird damit die zweite Spalte der u ¨brigen Gleichungen eliminiert: ⎤ ⎡ 1 0 −1 1 R11 0 ⎣0 1 0 0 R11 0 ⎦ . 1 1 0 0 R2 0 Multiplikation der letzten Gleichung mit R12 und Elimination der dritten Variable in der ersten Gleichung f¨ uhrt zum Ziel: ⎤ ⎡ 1 0 0 1 R11 + R12 R12 1 ⎣0 1 0 0 0⎦. R1 1 1 0 0 1 0 R2 R2

196

Kapitel 6. Lineare Gleichungssysteme und Matrizen

Beispiel 6.17 ⎡

0 ⎢0 A=⎢ ⎣0 1

0 1 2 1

1 0 0 0

⎤ 0 2⎥ ⎥, 0⎦ 0



0 ⎢0 ⎢ ⎣0 1

0 1 2 1

1 0 0 0

1 0 0 0

0 2 0 0

0 1 0 0

0 0 1 0

⎤ 0 0⎥ ⎥. 0⎦ 1

Wir sortieren die Zeilen um. Dann multiplizieren wir die zweite Zeile mit 1/2 und eliminieren die u ¨brigen Eintr¨age der zweiten Spalte: ⎤ ⎤ ⎡ ⎡ 1 0 0 0 0 0 − 21 1 1 1 0 0 0 0 0 1 1 ⎢0 2 0 0 0 0 1 0⎥ ⎢0 1 0 0 0 0 0⎥ ⎥. ⎥ ⎢ ⎢ 2 ⎣0 0 1 0 1 0 0 0⎦, ⎣0 0 1 0 1 0 0 0⎦ 0 1 0 2 0 1 0 0 0 0 0 2 0 1 − 21 0 Schließlich Matrix: ⎡ 1 ⎢0 ⎢ ⎣0 0

multiplizieren wir die vierte Zeile mit 0 1 0 0

0 0 1 0

0 0 0 1

0 0 1 0

0 0 0 1 2

⎤ 1 1 0⎥ ⎥, 2 0 0⎦ − 41 0

1 2



− 21

A−1

und erhalten die inverse

0 ⎢0 =⎢ ⎣1 0

0 0 0 1 2

⎤ 1 1 0⎥ ⎥. 2 0 0⎦ − 41 0

− 21

Existiert A−1 , so ist ein Gleichungssystem Ax = b eindeutig l¨ osbar. Die Umkehrung gilt aber auch, da man mit den gleichen Gauß-Umformungen nicht nur das Gleichungssystem sondern auch die Inverse A−1 berechnen kann. Wenn wir die Matrix-Invertierung von A mit dem Gauß-Algorithmus r¨ uckw¨arts lesen, und die linke und rechte Seite des Strichs austauschen, dann erhalten wir die Matrix-Invertierung von A−1 . Damit ist jetzt klar, dass ucke im Beweis von Satz 6.3 a) ge(A−1 )−1 = A gilt, und wir haben die L¨ schlossen. Oft ist es praktisch (weil platzsparend), einen Spaltenvektor als Zeilenvektor zu schreiben. Um zu sagen, dass es sich doch um einen Spaltenvektor handelt, kennzeichnet man ihn mit “ f¨ ur transponiert“: ” ” Definition 6.10 (Transponierte Matrix) Die Transponierte A einer (m × n)-Matrix A ist die (n × m)-Matrix, die durch Austausch der Zeilen mit den Spalten von A entsteht, also durch Spiegelung an einer Diagonalen. Transponiert man einen Zeilenvektor, so entsteht ein Spaltenvektor und umgekehrt.

197

6.4. Inverse Matrix und transponierte Matrix

Beispiel 6.18 

1 4

2 5

3 6





1 = ⎣2 3

⎤ 4 5⎦, 6

⎛ ⎞ 1 (1, 2, 3) = ⎝ 2 ⎠ , 3

1 = (1, 2). 2

Direkt aus den Definitionen ergeben sich die folgenden Rechenregeln: Satz 6.4 (Transpositionsregeln) F¨ ur (m × n)-Matrizen A, A1 , A2 , die (n × k)-Matrix B und den Skalar λ gilt: • • • •

Zweimaliges Transponieren hebt sich auf: (A ) = A. Additivit¨ at: (A1 + A2 ) = A 1 + A2 . Homogenit¨ at: (λA) = λA . Die Transponierte des Produkts ist gleich dem Produkt der Transponierten in umgekehrter Reihenfolge: (A · B) = B · A .

Bei der Multiplikation von Matrizen und Matrizen mit Vektoren muss die Spaltenzahl der ersten Matrix mit der Zeilenzahl der zweiten u ¨bereinstimmen. Es macht also durchaus einen Unterschied, ob man mit einem Zeilenoder Spaltenvektor multipliziert. Mittels Transposition kann man das jeweils richtige Format w¨ahlen. Satz 6.5 (Inverse der Transponierten) F¨ ur eine invertierbare (n × n)Matrix A gilt (A )−1 = (A−1 ) . Beweis F¨ ur eine invertierbare (n × n)-Matrix A gilt: A · A−1 = En =⇒ −1 ) · A = En .  (A · A−1 ) = E n = En =⇒ (A Beispiel 6.19 (Dyadisches Produkt zweier Vektoren) Wir betrachten die Vektoren x = (x1 , x2 , x3 ) und y = (y1 , y2 , y3 ) . Das Produkt ⎛ ⎞ y1 x · y = (x1 , x2 , x3 ) · ⎝ y2 ⎠ = (x1 y1 + x2 y2 + x3 y3 ) y3 werden wir sp¨ater zur Definition des Standardskalarprodukts nutzen. Das Produkt ⎤ ⎛ ⎞ ⎡ x1 x1 y 1 x 1 y 2 x 1 y 3 x · y = ⎝ x2 ⎠ · (y1 , y2 , y3 ) = ⎣ x2 y1 x2 y2 x2 y3 ⎦ x3 x 3 y1 x 3 y2 x 3 y3

198

Kapitel 6. Lineare Gleichungssysteme und Matrizen

ergibt eine (3 × 3)-Matrix. Diese Verkn¨ upfung nennt man dyadisches Produkt der Vektoren x und y . Ein lineares Gleichungssystem Ax = b, wobei x und b Spaltenvektoren sind, kann man mittels Transposition nun auch mit Zeilenvektoren schreiben: x A = b , d. h. ⎡ ⎤ a1,1 a2,1 . . . am,1 ⎢ a1,2 a2,2 . . . am,2 ⎥ ⎢ ⎥ (x1 , x2 , . . . , xn ) ⎢ . ⎥ = (b1 , b2 , . . . , bm ). .. .. ⎣ .. ⎦ . . a1,n a2,n . . . am,n Beispiel 6.20 a) Die Matrix A aus (6.4), die eine Drehung beschreibt, hat eine besonders einfache Inverse: ihre Transponierte.    cos(ϕ) sin(ϕ) cos(ϕ) − sin(ϕ) A ·A = − sin(ϕ) cos(ϕ) sin(ϕ) cos(ϕ)     2 2 1 0 cos (ϕ) + sin (ϕ) 0 = . = 0 1 0 sin2 (ϕ) + cos2 (ϕ)   0 1 b) Die Matrix B := beschreibt keine Drehung. Hier gilt sogar 1 0 B = B = B−1 . Multiplikation mit B vertauscht die beiden Elemente eines Vektors. Das ist eine Spiegelung an der Hauptdiagonalen des Koordinatensystems. Matrizen mit Eigenschaften wie B bzw. A erhalten spezielle Adjektive: symmetrisch (bei B) bzw. orthogonal (bei beiden). Bei Matrizen mit komplexen Eintr¨agen verbindet man die Transposition h¨aufig mit der komplexen Konjugation. Das f¨ uhrt zum folgenden Begriff. Definition 6.11 (Adjungierte Matrix) Die Adjungierte (adjungierte Matrix) A∗ einer (m × n)-Matrix A ist die (n × m)-Matrix, die aus A durch Transposition und anschließender komplexer Konjugation aller Eintr¨age entsteht: A∗ := A . Beispielsweise ist 

1 − 2j 2 + j 4 5

3 6j

∗



1 + 2j =⎣ 2−j 3

⎤ 4 5⎦. −6j

Die adjungierte Matrix einer reellen Matrix ist die transponierte Matrix. Die Regeln aus den S¨atzen 6.4 und 6.5 gelten entsprechend f¨ ur das Adjungieren.

199

6.5. Symmetrische und orthogonale Matrizen

Lediglich bei der Homogenit¨at muss auch der Skalar konjugiert werden: F¨ ur λ ∈ C gilt: (λA)∗ = λA∗ .

6.5 Symmetrische und orthogonale Matrizen Einige Matrizen sind sch¨on in dem Sinne, dass man gut mit ihnen rechnen kann und man zugeh¨orige Probleme effizient mit dem Computer l¨ osen kann. Definition 6.12 (Symmetrische und schiefsymmetrische Matrix) Eine (n × n)-Matrix A heißt symmetrisch genau dann, wenn gilt A = A ⇐⇒ ai,k = ak,i ,

i, k = 1, . . . , n.

A heißt schiefsymmetrisch, wenn gilt A = −A ⇐⇒ ai,k = −ak,i ,

i, k = 1, . . . , n.

A heißt selbstadjungiert oder hermitesch genau dann, wenn A mit der Adjungierten u ¨bereinstimmt: A = A∗ . • Bei reellen Matrizen fallen die Begriffe symmetrisch und selbstadjungiert zusammen. • Bei einer schiefsymmetrischen Matrix m¨ ussen wegen ak,k = −ak,k die Elemente auf der Hauptdiagonalen null sein. • Bei einer symmetrischen (n × n)-Matrix muss man nur die n Elemente der Hauptdiagonalen und die (n2 − n)/2 Elemente unterhalb (oder alternativ oberhalb) der Hauptdiagonalen kennen (und f¨ ur einen Computeralgorithmus speichern), bei einer schiefsymmetrischen entfallen die n Hauptdiagonalwerte. Haben wir sp¨ater z. B. symmetrische Matrizen bei Differenzialgleichungssystemen, so f¨allt uns die L¨osung (mit Lemma 7.2 in Band 2) besonders leicht, da es gen¨ ugend reelle Eigenwerte (siehe Satz 22.2) gibt. Satz 6.6 (Zerlegungssatz f¨ ur quadratische Matrizen ∗ ) Jede reelle (n × n)-Matrix A ist die Summe einer symmetrischen Matrix R und einer schiefsymmetrischen Matrix S mit R=

1 (A + A ), 2

S=

1 (A − A ). 2

200

Kapitel 6. Lineare Gleichungssysteme und Matrizen

Beweis Offensichtlich ist R+S = A. Weiter gilt R = 12 (A +(A ) ) = R, d. h., R ist symmetrisch. S = 12 (A − (A ) ) = −S, d. h., S ist schiefsymmetrisch.  Beispiel 6.21 a) Die Matrix A ist symmetrisch, und B ist schiefsymmetrisch: ⎡ ⎤ ⎡ ⎤ 8 −3 7 0 0 −3 −1 ⎢ −3 ⎥ 9 2 −1 ⎥ 0 −5 ⎦ . A=⎢ , B = ⎣3 ⎣ 7 2 5 −6 ⎦ 1 5 0 0 −1 −6 2 

 5 −3 b) Wir zerlegen die Matrix A = in eine Summe aus einer sym−1 4 metrischen Matrix R und einer schiefsymmetrischen Matrix S. Mit dem Zerlegungssatz ist

      1 1 5 −3 5 −1 5 −2 + = R = (A + A ) = −1 4 −3 4 −2 4 2 2

      1 1 5 −3 5 −1 0 −1 − = . S = (A − A ) = −1 4 −3 4 1 0 2 2 Wir erhalten also 

  5 −3 5 = −1 4 −2

   −2 0 −1 + . 4 1 0

Definition 6.13 (Orthogonale Matrix) Eine reelle (n × n)-Matrix A heißt orthogonal genau dann, wenn A−1 = A : A · A = A · A = E n . Eine orthogonale Matrix l¨asst sich also ganz leicht invertieren. Bei orthogonalen Matrizen stehen die Spaltenvektoren ebenso wie die Zeilenvektoren senkrecht zueinander. Was das bedeutet, lernen wir sp¨ ater in Kapitel 18.2, in dem wir das Skalarprodukt behandeln (siehe Seite 572). Daraus leitet sich aber der Name dieses Matrixtyps ab.   cos(ϕ) sin(ϕ) Beispiel 6.22 a) Die Matrix A = aus (6.4) ist eine or− sin(ϕ) cos(ϕ) thogonale Matrix.   1 1 ist ebenfalls orthogonal. W¨ ahrend C auch b) Die Matrix C = √12 · 1 −1 symmetrisch ist, gilt dies f¨ ur A nur im Fall sin(ϕ) = 0, d. h. f¨ ur A = ±E2 .

6.6. Dreiecksmatrizen, Bandmatrizen und LR-Zerlegung ∗

201

Satz 6.7 (Symmetrische und orthogonale Matrizen) Ist A symmetrisch, so ist auch A symmetrisch. Ist eine reelle Matrix A orthogonal, ur eine symmetrische und orthogonale reelle so ist auch A orthogonal. F¨ Matrix A gilt: A · A = E.

Hintergrund: Unit¨ are Matrizen Arbeitet man mit komplexen Matrizen, so u aren Matrizen ¨bernehmen die unit¨ die Rolle der orthogonalen Matrizen. Eine komplexe (n × n)-Matrix A heißt unit¨ ar genau dann, wenn A−1 = A∗ mit A∗ := A : A · A ∗ = A∗ · A = E n . F¨ ur reelle Matrizen sind die Begriffe orthogonal“ und unit¨ ar“ identisch. ” ” Die Notwendigkeit, bei komplexen Matrizen in Anwendungen zus¨ atzlich eine komplexe Konjugation durchzuf¨ uhren, ergibt sich daraus, dass die Definition des Skalarprodukts auf komplexen Vektorr¨ aumen eine komplexe Konjugation aufweist, siehe (19.8) auf Seite 559 und Bemerkung zu Folgerung 19.2 auf Seite 571.

6.6 Dreiecksmatrizen, Bandmatrizen und LR-Zerlegung ∗ Bei der mathematischen Simulation von technischen Vorg¨ angen treten h¨ aufig sehr große Gleichungssysteme auf. Dabei achtet man bei der Modellierung darauf, dass die Matrizen viele Nullen enthalten. Bei der Verarbeitung mit Computerprogrammen werden dann nur die von null verschiedenen Eintr¨ age gespeichert.

6.6.1 Dreiecksmatrizen und Bandmatrizen Folgende Bezeichnungen sind u ¨blich: Definition 6.14 (Dreiecksmatrizen und Bandmatrizen) Eine quadratische Matrix, die unterhalb der Hauptdiagonalen nur Nullen enth¨ alt, heißt obere oder rechte Dreiecksmatrix. Entsprechend heißt eine quadratische Matrix, die oberhalb der Hauptdiagonalen nur Nullen enth¨ alt,

202

Kapitel 6. Lineare Gleichungssysteme und Matrizen

untere oder linke Dreiecksmatrix. Matrizen, die nur in der Umgebung der Hauptdiagonale Elemente ungleich null besitzen, heißen Matrizen mit Bandstruktur oder Bandmatrizen. Beispiel 6.23 a) Bei den Matrizen ⎡ 1 1 4 ⎢ 0 −2 1 A=⎢ ⎣0 0 2 0 0 0

⎤ 3 1⎥ ⎥, 5⎦ 3



⎤ 5 0 0 B = ⎣7 8 0⎦ 1 2 3

handelt es sich um Dreiecksmatrizen. A ist eine obere bzw. rechte Dreiecksmatrix, B ist eine untere bzw. linke Dreiecksmatrix. b) Da bei der Matrix ⎤ ⎡ a1 b1 0 0 0 ⎢ c 1 a 2 b2 0 0 ⎥ ⎥ ⎢ ⎥ A=⎢ ⎢ 0 c 2 a 3 b3 0 ⎥ ⎣ 0 0 c 3 a 4 b4 ⎦ 0 0 0 c 4 a5 nur drei Diagonalen“ wesentlich sind, nennt man diese spezielle Bandma” trix auch Tridiagonalmatrix. Zur Speicherung aller Elemente einer (1 000 × 1 000)-Matrix w¨ urde man eine Million Speicherpl¨atze ben¨otigen, f¨ ur eine Tridiagonalmatrix mit 1 000 Reihen sind nur 2 998 Elemente wesentlich.

6.6.2 LR-Zerlegung K¨ onnen wir eine Matrix A als Produkt einer linken (unteren) Dreiecksmatrix L mit einer rechten (oberen) Dreiecksmatrix R schreiben, bei denen die Hauptdiagonalelemente von null verschieden sind, so wird das L¨ osen eines Gleichungssystems Ax = b ⇐⇒ L · R · x = b

ganz einfach. Denn zun¨achst k¨onnen wir die L¨osungen y von Ly = b ablesen. Da L eine Dreiecksmatrix ist, geht das ganz einfach von oben nach unten. Aus 1 . Die weiteren yk , k = 2, . . . , n, erh¨ alt man durch l1,1 · y1 = b1 folgt y1 = lb1,1 fortgesetztes Einsetzen der bereits abgelesenen Elemente von y . Genauso wird f¨ ur jedes y dann Rx = y gel¨ost (hier beginnt man mit der letzten Gleichung), und man hat die L¨osungen des Ausgangssystems. Die Zerlegung einer Matrix A als Produkt einer linken und einer rechten Dreiecksmatrix heißt eine LR-Zerlegung (oder auch LU-Zerlegung).

6.6. Dreiecksmatrizen, Bandmatrizen und LR-Zerlegung ∗

203

Eine LR-Zerlegung kann unter Umst¨anden mit dem Gauß-Algorithmus berechnet werden. Beim L¨osen von Gleichungssystemen haben wir Matrizen bereits in eine rechte Dreiecksmatrix gebracht. Die L-Matrix muss nun synchron so aufgebaut werden, dass sie die Gauß’schen Zeilenumformungen wieder r¨ uckg¨angig macht. Das gelingt, wenn man auf dem Weg zur rechten Dreiecksmatrix zu Zeilen nur Vielfache von vorangehenden Zeilen addieren muss. Addiert man zur i-ten Zeile das r-Fache der k-ten Zeile, so l¨ asst sich das durch die Multiplikation einer Matrix von links ausdr¨ ucken. Diese ist die Einheitsmatrix, bei der zus¨atzlich an der Stelle der i-ten Zeile und k-ten Spalte der Wert r steht. Ist k < i, so handelt es sich um eine linke (untere) Dreiecksmatrix, ist k > i, so handelt es sich um eine rechte (obere) Dreiecksmatrix. R¨ uckg¨angig macht man die Zeilenumformung, indem man das r-Fache der k-ten Zeile wieder abzieht. Das geschieht durch Multiplikation mit fast der gleichen Matrix. Man muss lediglich r durch −r ersetzen. Im folgenden Beispiel machen wir Zeilenumformungen, die direkt durch Multiplikation mit einer unteren Dreiecksmatrix wieder r¨ uckg¨angig gemacht werden. ⎡

1 A = ⎣2 1 ⎡ 1 = ⎣2 0 ⎡ 1 = ⎣2 0

2 3 0 0 1 0 0 1 0

⎤ ⎡ 3 1 3⎦ = ⎣2 1 0 ⎤⎡ 0 1 0 0⎦⎣0 1 1 1 0 ⎤⎡ 0 1 0 0⎦⎣0 1 1 1 0

⎤⎡ ⎤ 0 1 2 3 0 ⎦ ⎣ 0 −1 −3 ⎦ 1 1 0 1 ⎤⎡ ⎤ 0 1 2 3 0 ⎦ ⎣ 0 −1 −3 ⎦ 1 0 −2 −2 ⎤⎡ ⎤⎡ 0 1 0 0 1 2 0 ⎦ ⎣ 0 1 0 ⎦ ⎣ 0 −1 1 0 2 1 0 0

0 1 0

⎤ 3 −3 ⎦ . 4

Im ersten Schritt haben wir die erste Zeile zweimal von der zweiten abgezogen und das durch Multiplikation mit der linken Dreieckmatrix wieder r¨ uckg¨ angig gemacht. Dann haben wir die erste einmal von der dritten Zeile abgezogen und schließlich das (−2)-Fache der zweiten Zeile zur dritten addiert. Diese Schritte haben wir durch eine entsprechende Matrixmultiplikation von links ebenfalls kompensiert. Multipliziert man linke (rechte) Dreiecksmatrizen, so entstehen wieder linke (rechte) Dreiecksmatrizen. Multipliziert man speziell die hier auftretenden linken Dreiecksmatrizen, so entsteht eine linke Dreiecksmatrix, bei der die Faktoren der Gauß-Operationen mit −1 multipliziert unterhalb der Hauptdiagonalen hingeschrieben werden k¨onnen: A = L · R mit ⎡ ⎤⎡ ⎤⎡ ⎤ ⎡ ⎤ ⎡ ⎤ 1 0 0 1 0 0 1 0 0 1 0 0 1 2 3 L = ⎣ 2 1 0 ⎦ ⎣ 0 1 0 ⎦ ⎣ 0 1 0 ⎦ = ⎣ 2 1 0 ⎦ und R = ⎣ 0 −1 −3 ⎦. 0 0 1 1 0 1 0 2 1 1 2 1 0 0 4

204

Kapitel 6. Lineare Gleichungssysteme und Matrizen

Dieses Verfahren zur Berechnung einer LR-Zerlegung gelingt nur, wenn man Vielfache von vorangehenden Zeilen addiert. Es gelingt nicht, wenn man dazu in einem Gauß-Schritt Zeilen vertauschen muss. Das Vertauschen von Zeilen l¨asst sich durch Multiplikation mit einer Matrix von links schreiben, die aus der Einheitsmatrix durch Vertauschen der betreffenden Zeilen entsteht. Diese ist aber keine Dreiecksmatrix. In den Hintergrundinformationen ab Seite 49 des zweiten Bands ist f¨ ur eine ganz spezielle Klasse von Matrizen ein noch effizienterer Algorithmus zur Berechnung einer LR-Zerlegung beschrieben (Cholesky-Zerlegung). Ist A invertierbar, so kann man das Gleichungssystem Ay = b f¨ ur jede Inhomogenit¨at b sofort l¨osen zu x = A−1b. Die LR-Zerlegung funktioniert dagegen auch f¨ ur nicht-invertierbare (und nicht-quadratische) Matrizen, wenn man zun¨achst die Zeilen so umsortiert, dass das oben beschriebene Verfahren funktioniert. Startet man mit einem Gleichungssystem, so muss man also gegebenenfalls erst einmal die Reihenfolge der Gleichungen ¨ andern. Hat man dann eine LR-Zerlegung von A, so kann man das Gleichungssystem ebenfalls f¨ ur jede Inhomogenit¨at b schnell l¨osen. Mit der Matrix L hat man sich letztlich gemerkt, welche Operationen man bei einer L¨ osung durch das GaußVerfahren mit der Inhomogenit¨at durchzuf¨ uhren hat. Hintergrund: Iterative L¨ osung linearer Gleichungssysteme Wir haben bislang nur mit kleinen Matrizen gearbeitet. Bei Simulationen physikalischer Vorg¨ange k¨onnen dagegen extrem große Matrizen mit Millionen von Zeilen und Spalten auftreten. Die Durchf¨ uhrung des GaußAlgorithmus mit dem Computer kostet dann sehr viel Zeit und Speicherplatz. G¨ unstiger sind iterative Verfahren, bei denen man sukzessive einer eindeutigen L¨osung n¨aher kommt. Wir betrachten dazu das Gleichungssystem ⎡ ⎤⎛ ⎞ ⎛ ⎞ 2 0 −1 x 2 ⎣1 4 1⎦⎝y ⎠ = ⎝4⎠ 0 −2 4 z 8 und l¨osen die i-te Gleichung nach der i-ten Variable auf: 1 z+1 2 1 1 y = − x− z+1 4 4 1 z = y + 2. 2

x=

Nun gewinnen wir daraus eine Iterationsvorschrift (Jacobi-Verfahren, Gesamtschritt-Verfahren): xk+1 :=

1 zk + 1 2

6.6. Dreiecksmatrizen, Bandmatrizen und LR-Zerlegung ∗

205

1 1 yk+1 := − xk − zk + 1 4 4 1 zk+1 := yk + 2. 2 Startet man mit zuf¨alligen Werten f¨ ur x0 , y0 und z0 , z. B. x0 = y0 = z0 = 0, und berechnet dann sukzessive u ¨ber dieses Schema neue Werte, so kommt man der tats¨achlichen L¨osung x = 2, y = 0, z = 2 immer n¨ aher. Die  , y , z ) = (1, 1, 2), (x , y , z ) = 2, 14 , 52 , ersten Iterationen liefern: (x 1 1 1 2 2 2  9 1 17  (x3 , y3 , z3 ) = 4 , − 8 , 8 usw. Man erh¨alt eine Verbesserung des Jacobi-Verfahrens zum Gauß-SeidelVerfahren (Einzelschritt-Verfahren), indem man bei jedem Iterationsschritt bereits auf die in diesem Schritt zuvor berechneten Variablen (einzeln) zur¨ uckgreift. Man geht dabei davon aus, dass diese Werte im Allgemeinen der L¨osung n¨aher sind als die Werte aus dem vorangehenden Schritt. 1 zk + 1 2 1 1 := − xk+1 − zk + 1 4 4 1 := yk+1 + 2. 2

xk+1 := yk+1 zk+1

Der Name Einzelschrittverfahren weist auf die Verwendung einzelner Variablenwerte als Zwischenergebnisse hin. Beim Gesamtschrittverfahren wird dagegen nur die gesamte und unver¨anderte, im Vorg¨ angerschritt berechnete N¨aherungsl¨osung verwendet. Wir schreiben die beiden Verfahren etwas formaler mittels Matrizen auf. Dazu zerlegen wir die Matrix A ∈ Rn×n des linearen Gleichungssystems Ax = b in die Summe A=L+D+U gem¨aß ⎡

0

0 ... 0 ... .. .

⎢ a2,1 ⎢ ⎢ .. L=⎢ . ⎢ ⎣ an−1,1 an−1,2 an,2 an,1

... ... ⎡

⎤ 0 0 0 0⎥ ⎥ .. .. ⎥ , . .⎥ ⎥ 0 0⎦ an,n−1 0



a1,1 ⎢ 0 ⎢ D=⎢ . ⎣ ..

0 a1,2 a1,3 . . . ⎢0 0 a2,3 . . . ⎢ ⎢ .. .. .. U=⎢ . . . ⎢ ⎣0 0 0 ... 0 0 0 ...

0 a2,2 .. .

0 ⎤ a1,n a2,n ⎥ ⎥ .. ⎥ . .⎥ ⎥ an−1,n ⎦ 0

Dann l¨asst sich das Jacobi-Verfahren schreiben in der Form

... ... .. .

0 ...

⎤ 0 0⎥ ⎥ .. ⎥ , .⎦ an,n

206

Kapitel 6. Lineare Gleichungssysteme und Matrizen

D · x(k+1) = −(L + U) · x(k) + b, wobei x(k) der Ergebnisvektor des k-ten Rechenschritts ist. Entsprechend lautet das Gauß-Seidel-Verfahren

⇐⇒

D · x(k+1) = −L · x(k+1) − U · x(k) + b (D + L) · x(k+1) = −U · x(k) + b.

Beide Verfahren besitzen damit die gleiche Struktur x(k+1) = B · x(k) + c

(6.12)

mit (falls die Inversen existieren) B = −D−1 · (L+U), c = D−1b bzw. B = −(D+L)−1 · U, c = (D + L)−1b. Die exakte L¨osung x des Gleichungssystems erf¨ ullt dann die Fixpunktgleichung x = B · x + c, (6.13) so dass der Fehler des k + 1-ten Iterationsschritts darstellbar ist als x(k+1) − x = Bx(k) + c − x = Bx(k) − Bx

= B · (x(k) − x) = B2 · (x(k−1) − x) = · · · = B(k+1) (x(0) − x). (6.14)

Dabei ist B2 := B · B, usw. Die Verfahren funktionieren z. B., wenn die Potenzen der Matrix B sich der Nullmatrix ann¨ ahern. Wir schauen uns das sp¨ater etwas genauer an. Ein Trick, um m¨oglicher Weise schneller zu einer guten N¨ aherungsl¨ osung zu kommen, besteht in der Verwendung eines Relaxationsparameters 0 < ω < 2. Das SOR-Verfahren (Successive-Overrelaxation) kombiniert das Ergebnis eines Gauß-Seidel-Schritts mit dem Resultat des vorausgehenden Schritts: x(k+1) = ω(B · x(k) + c) + (1 − ω)x(k)

= ω(−(D + L)−1 · U · x(k) + (D + L)−1b) + (1 − ω)x(k) .

F¨ ur ω = 1 ist dies das Gauß-Seidel-Verfahren. Mittels mehrdimensionaler Differenzialrechnung lassen sich weitere iterative L¨osungsalgorithmen gewinnen, siehe im Band 2 das Beispiel 2.6 auf Seite 44.

Literaturverzeichnis

207

Literaturverzeichnis Schenk und Rigoll(2010). Schenk, J. und Rigoll, G.: Mensch-Maschine-Kommunikation. Springer, Berlin, 2010.

Kapitel 7

Determinanten Die Determinante ist eine Kennzahl f¨ ur eine Matrix. Der Name Determinante kommt von ihrer Rolle als entscheidende (determinierende) Gr¨ oße, welche bestimmt, ob ein lineares Gleichungssystem eindeutig l¨ osbar ist (dann ist sie ungleich null) oder nicht (dann ist sie null). Dazu wird die Determinante zur Matrix des Gleichungssystems berechnet. Mit der Cramer’schen Regel kann man sogar ein Gleichungssystem u ¨ber die Berechnung von Determinanten l¨ osen, sofern es eine eindeutige L¨osung gibt. Ferner trifft man auf Determinanten in der Fl¨achen- und Volumenberechnung. Wir bestimmen Determinanten durch eine Entwicklung“ nach Zeilen oder ” Spalten der Matrix, lernen dazu aber auch Alternativen kennen (Gauß’sche Zeilen- und Spaltenumformungen, Leibniz-Formel). Wir erw¨ ahnen auch die beliebte Sarrus’sche Regel, obwohl sie nur f¨ ur 3 × 3-Matrizen gilt und bei Anwendung auf andere Matrix-Formate zu leicht vermeidbaren Fehlern f¨ uhrt.

7.1 Definition und elementare Eigenschaften von Determinanten Die eindeutige L¨ osung eines linearen Gleichungssystems mit zwei Variablen a1,1 x1 + a1,2 x2 = b1 a2,1 x1 + a2,2 x2 = b2 lautet bei Existenz der inversen Matrix (6.10):

© Der/die Autor(en), exklusiv lizenziert an Springer-Verlag GmbH, DE, ein Teil von Springer Nature 2023 S. Goebbels und S. Ritter, Mathematik verstehen und anwenden: Differenzial- und Integralrechnung, Lineare Algebra, https://doi.org/10.1007/978-3-662-68367-5_7

209

210

Kapitel 7. Determinanten

x1 =

a2,2 b1 − a1,2 b2 , a1,1 a2,2 − a2,1 a1,2

x2 =

a1,1 b2 − a2,1 b1 . a1,1 a2,2 − a2,1 a1,2

Offenbar ist diese L¨osung nur dann definiert, wenn man nicht durch die Null teilt. Das ist genau dann der Fall, wenn die Determinante von A von null verschieden ist:      a1,1 a1,2  a1,1 a1,2   := a1,1 a2,2 − a2,1 a1,2 . = det A = det a2,1 a2,2 a2,1 a2,2  Beispiel 7.1

 1  2

 3  = 1 · 4 − 3 · 2 = −2. 4

Wir f¨ uhren nun die Determinante etwas allgemeiner ein, so dass wir mit ihr f¨ ur beliebige Gleichungssysteme mit (n × n)-Matrizen berechnen k¨ onnen, ob sie eindeutig l¨osbar sind. Außerdem k¨onnen wir dann mit Determinanten die L¨osung a¨hnlich wie im obigen Fall einer (2 × 2)-Matrix sogar direkt angeben. Dies geschieht mit der Cramer’schen Regel (Satz 7.8). Wir werden sehen, dass die allgemeinere Definition f¨ ur (2 × 2)-Matrizen genau der Gr¨ oße aus dem vorangehenden Beispiel entspricht. Definition 7.1 (Determinante) Gegeben sei die quadratische reelle (oder komplexe) (n × n)-Matrix ⎤ ⎡ a1,1 a1,2 . . . a1,n ⎢ a2,1 a2,2 . . . a2,n ⎥ ⎥ ⎢ A = ⎢. ⎥. .. .. ⎦ ⎣ .. . . an,1

an,2

...

an,n

Die Determinante von A ist eine reelle (oder komplexe) Zahl, die mit det A bezeichnet wird. Sie ist u ¨ber die folgende Rekursion (Rechenvorschrift, die analog einer Vollst¨andigen Induktion aufgebaut ist) definiert: • Ist n = 1 und A = [a1,1 ], so ist det[a1,1 ] := a1,1 . • Ist n > 1 und bezeichne Al,k die ((n − 1) × (n − 1))-Matrix, die aus A durch Weglassen der l-ten Zeile und k-ten Spalte entsteht, so ist det A := a1,1 det A1,1 −a1,2 det A1,2 +a1,3 det A1,3 −a1,4 det A1,4 . . . ⎡ ⎡ ⎤ ⎤ a2,2 a2,3 . . . a2,n a2,1 a2,3 . . . a2,n ⎢ a3,2 a3,3 . . . a3,n ⎥ ⎢ a3,1 a3,3 . . . a3,n ⎥ ⎢ ⎢ ⎥ ⎥ = a1,1 det ⎢ . − a1,2 det ⎢ . ⎥ ⎥ . . .. .. .. .. ⎦ ⎦ ⎣ .. ⎣ .. . . an,2 + −...

an,3 . . .

an,n

an,1

an,3 . . .

an,n

211

7.1. Definition und elementare Eigenschaften von Determinanten

=

n 

(−1)k+1 a1,k det A1,k .

k=1

Eine andere Schreibweise f¨ ur die Determinante   a1,1 a1,2 . . .   a2,1 a2,2 . . .  det A =  . ..  .. .   an,1 an,2 . . .

nutzt Betragsstriche:  a1,n  a2,n  . ..  .  an,n 



! Achtung

Die Verwendung der Betragsstriche als Kurzschreibweise bedeutet nicht, dass die entstehende Zahl gr¨oßer oder gleich null ist. Determinanten k¨ onnen sehr wohl negative Zahlen sein.

H¨aufig benutzt man Determinanten von (2 × 2)-Matrizen. Man beachte, dass daf¨ ur die Definition 7.1 zur Zahl aus dem einf¨ uhrenden Beispiel f¨ uhrt:    a1,1 a1,2     a2,1 a2,2  = a1,1 det[a2,2 ] − a1,2 det[a2,1 ] = a1,1 a2,2 − a1,2 a2,1 . Bei einer reellen (2 × 2)-Matrix ist der Betrag der Determinante gleich dem Fl¨acheninhalt eines Parallelogramms mit den vier Eckpunkten (0, 0), (a1,1 , a1,2 ), (a1,1 + a2,1 , a1,2 + a2,2 ) und (a2,1 , a2,2 ). Um das zu sehen, betrachten wir das Parallelogramm in Abbildung 7.1. Wir erhalten den Fl¨ achenin-





Abb. 7.1 Determinante als Fl¨ acheninhalt eines Parallelogramms



(a2,1, a2,2) 

(a1,1, a1,2) 



(0, 0)

halt, indem wir vom Inhalt (a1,1 +a2,1 )(a1,2 +a2,2 ) des umschließenden Rechtecks die nummerierten Fl¨achen abziehen. Die Dreiecke 1 haben jeweils den

212

Kapitel 7. Determinanten

Fl¨acheninhalt 12 ·a1,1 ·a1,2 , die Dreiecke 2 haben den Fl¨ acheninhalt 12 ·a2,1 ·a2,2 und die Rechtecke 3 die Gr¨oße a2,1 · a1,2 . Insgesamt ist der Fl¨ acheninhalt des Parallelogramms gleich 1 1 (a1,1 + a2,1 )(a1,2 + a2,2 ) − 2 · a1,1 a1,2 − 2 · a2,1 a2,2 − 2a2,1 a1,2 2 2 = a1,1 a1,2 + a1,1 a2,2 + a2,1 a1,2 + a2,1 a2,2 − a1,1 a1,2 − a2,1 a2,2 − 2a2,1 a1,2 = a1,1 a2,2 − a2,1 a1,2 = det A.

(7.1)

F¨ ur den Spezialfall von (3 × 3)-Matrizen kann man die Berechnung etwas einfacher als in der Definition gestalten: Satz 7.1 (Sarrus’sche Regel) Sei A ∈ R3×3 (oder C3×3 ). det A = +a1,1 a2,2 a3,3 + a1,2 a2,3 a3,1 + a1,3 a2,1 a3,2 −a1,3 a2,2 a3,1 − a1,1 a2,3 a3,2 − a1,2 a2,1 a3,3 . Diese Regeln kann man direkt mit der Definition der Determinante nachrechnen. Sie l¨asst sich u ¨ber das folgende Schema merken, bei dem die Matrix zyklisch fortgesetzt wird und man die Diagonalen multipliziert und die Produkte geeignet aufaddiert: +

a1,1 a2,1 a3,1

Beispiel  1 2  4 5  7 8



a1,2 a2,2 a3,2

a1,3 a2,3 a3,3

a1,1 a2,1 a3,1

a1,2 a2,2 a3,2



a1,1 a2,1 a3,1

a1,2 a2,2 a3,2

a1,3 a2,3 a3,3

a1,1 a2,1 a3,1

a1,2 a2,2 a3,2

7.2 Anwendung der Sarrus’schen Regel liefert  3  6  = 1 · 5 · 9 + 2 · 6 · 7 + 3 · 4 · 8 − 3 · 5 · 7 − 1 · 6 · 8 − 2 · 4 · 9 = 0. 9

! Achtung

F¨ ur n > 3 werden solche Regeln zu komplex. Insbesondere gibt es keine einfache Erweiterung der Sarrus’schen Regel f¨ ur den Fall n > 3. Diese kann nur f¨ ur (3 × 3)-Matrizen eingesetzt werden. Ein h¨ aufig gemachter Fehler besteht in der analogen Anwendung auf gr¨oßere Matrizen. Auch die sehr ¨ ahnliche ¨ Rechenregel f¨ ur (2 × 2)-Matrizen A entspricht nicht einer Ubertragung der Sarrus’schen Regel. Hier wird nur eine positiv und eine negativ gewichtete Diagonale betrachtet: det A = a1,1 a2,2 − a1,2 a2,1 . Das entspricht dem Schema

213

7.1. Definition und elementare Eigenschaften von Determinanten

+

a1,1 a2,1

a1,2 a2,2



a1,1 a2,1

a1,2 a2,2

a1,1 a2,1



a1,1 a2,1

a1,2 a2,2

und nicht +

a1,1 a2,1

a1,2 a2,2

a1,1 . a2,1

F¨ ur Matrizen beliebiger Gr¨oße ist hingegen der folgende Satz anwendbar: Satz 7.2 (Laplace’scher Determinanten-Entwicklungssatz) Sei A ∈ Rn×n (oder Cn×n ). Die Determinante von A kann nach jeder Zeile oder jeder Spalte entwickelt werden: • Entwicklung nach der i-ten Zeile (f¨ ur i = 1 ist das die Definition): det A =

n 

(−1)k+i ai,k det Ai,k .

k=1

• Entwicklung nach der k-ten Spalte: det A =

n 

(−1)k+i ai,k det Ai,k .

i=1

Determinanten k¨onnen mit Hilfe von Permutationen (vgl. Seite 37) geschrieben werden. Die entsprechende Aussage heißt Leibniz-Formel und findet sich auf Seite 221. Zum Beweis dieses Satzes m¨ usste man zeigen, dass jede Entwicklung nach einer Zeile oder Spalte auf die gleiche Summe u ¨ber Produkte von Matrixeintr¨agen zu Indexpermutationen f¨ uhrt (vgl. Formel (7.2)). Dann erh¨alt man insbesondere bei Entwicklung nach der ersten Zeile (die hier gew¨ahlte Definition der Determinante) den gleichen Wert wie bei allen anderen Entwicklungen. Die Beweisidee ist damit gar nicht schwer, wir verzichten hier aber auf einen formalen technischen Beweis. Die Vorzeichen (−1)k+i der Summanden der Zeile oder Spalte, nach der entwickelt wird, kann man dem folgenden Schema entnehmen: ⎤ ⎡ + − + − + − ... ⎢− + − + − + ...⎥ ⎥ ⎢ ⎢+ − + − + − ...⎥ ⎥. ⎢ ⎢− + − + − + ...⎥ ⎦ ⎣ .. . . .. .. .. .. .. . . . . . . .

214

Kapitel 7. Determinanten

Beispiel 7.3 Wir entwickeln die Determinante nach der zweiten Zeile:   1 2 3                4 5 6  = −4  2 3  + 5  1 3  − 6  1 2    8 9 7 9 7 8 7 8 9 = −4(18 − 24) + 5(9 − 21) − 6(8 − 14) = 24 − 60 + 36 = 0. Es bietet sich dabei insbesondere die Entwicklung nach Zeilen oder Spalten an, in denen viele Nullen stehen, hier nach der ersten Spalte:   0 2 3        4 5 6  = −4  2 3  = −4(18 − 24) = 24.   8 9 0 8 9

Folgerung 7.1 (Eigenschaften der Determinante) a) Die Determinante ist linear in jeder Spalte der Matrix, d. h., f¨ ur A ∈ Cn×n , b ∈ Cn und c ∈ C gilt:    a1,1 . . . a1,k−1 c · a1,k + b1 a1,k+1 . . . a1,n     a2,1 . . . a2,k−1 c · a2,k + b2 a2,k+1 . . . a2,n      .. .. .. .. ..  . . . . .    an,1 . . . an,k−1 c · an,k + bn an,k+1 . . . an,n     a1,1 . . . a1,k−1 b1 a1,k+1 . . . a1,n     a2,1 . . . a2,k−1 b2 a2,k+1 . . . a2,n    = c · det A +  . . .. .. .. ..   .. . . . .    an,1 . . . an,k−1 bn an,k+1 . . . an,n  b) Die Determinante ist linear in jeder Zeile der Matrix. c) Der Wert der Determinante ¨andert sich nicht, wenn man Zeilen und Spaluhrt man zus¨ atzlich ten der Matrix vertauscht, d. h. det A = det A . F¨ zur Transposition eine komplexe Konjugation aller Eintr¨ age der Matrix ur diese gilt: det A∗ = det A. durch, so erh¨alt man die Adjungierte A∗ . F¨ d) Vertauscht man genau zwei Zeilen oder zwei Spalten, so ¨ andert sich das Vorzeichen der Determinante. e) Stehen in einer Zeile oder einer Spalte lauter Nullen, so ist die Determinante gleich null. f) Sind zwei Zeilen oder Spalten gleich, so ist die Determinante gleich null. g) Addiert man zu einer Zeile (bzw. Spalte) ein Vielfaches einer anderen Zeile (bzw. Spalte), so ¨andert sich der Wert der Determinante nicht. Beweis a) Die Linearit¨at ergibt sich sofort, wenn wir die Determinante nach der k-ten Spalte entwickeln. Sie hat aber weitreichende Konsequenzen f¨ ur

7.1. Definition und elementare Eigenschaften von Determinanten

215

die Bedeutung der Determinante. Man kann sie auch u ¨ber diese Eigenschaft und weitere definieren. b) ergibt sich analog bei Entwicklung nach der entsprechenden Zeile. c) det A = det A folgt ebenfalls direkt aus dem Entwicklungssatz, indem man von einer Entwicklung nach Zeilen zu einer Entwicklung nach Spalten u ussen wir also nur entweder f¨ ur ¨bergeht. Die folgenden Aussagen m¨ Spalten oder f¨ ur Zeilen zeigen. age Ist A die Matrix, die aus A durch komplexe Konjugation aller Eintr¨ hervorgeht, so folgt mit den Rechenregeln f¨ ur das komplexe Konjugieren sofort det A = det A. Damit ist det A∗ = det A = det A = det A. d) folgt ebenfalls aus dem Entwicklungssatz: Vertauscht man beispielsweise zwei benachbarte Spalten und entwickelt zun¨ achst nach der einen und dann, nach der Vertauschung, nach der anderen Spalte (in der wegen der Vertauschung die gleichen Eintr¨age wie bei der ersten Entwicklung stehen), so a¨ndern sich f¨ ur diese Spalte alle Vorzeichen, aber die Unterdeterminanten bleiben gleich. Man kann nun zwei beliebige Spalten k < l vertauschen, indem man l − k + l − k − 1 benachbarte Spalten paarweise vertauscht (wie beim Sortieralgorithmus Bubblesort“): Mit l − k Vertauschungen bringt ” man die rechte Spalte zur Position der zuvor linken. Diese steht danach an der Position k + 1, so dass man diese mit l − k + 1 Vertauschungen an die Position l bringt. 2(l − k) − 1 ist eine ungerade Anzahl, so dass sich das Vorzeichen der Determinante ungradzahlig oft ¨ andert, es kehrt sich also insgesamt um. e) Man entwickelt nach dieser Zeile bzw. Spalte und erh¨ alt null. f) Vertauscht man die beiden Zeilen oder Spalten, so ¨ andert sich das Vorzeichen. Da die Matrix gleich bleibt, muss auch die Determinante gleich bleiben – das geht nur, wenn sie null ist. g) Wegen a) erh¨alt man die Summe zweier Determinanten, wobei eine f¨ ur eine Matrix mit zwei gleichen Zeilen (bzw. Spalten) gebildet wird und damit null ist.  Diese Regeln k¨onnen nun genutzt werden, um Determinanten zu berechnen. Dabei kann man sowohl die vom Gauß-Algorithmus bekannten Zeilenumformungen durchf¨ uhren als auch entsprechende Umformungen der Spalten. ¨ Ohne Anderung des Determinanten-Werts darf man • Vielfache von Zeilen zu anderen Zeilen addieren, • Vielfache von Spalten zu anderen Spalten addieren. Der Wert der Determinante ¨andert sich bei folgenden Operationen: • Multiplikation einer Zeile oder Spalte mit einem Skalar c. Dadurch wird auch der Wert der Determinante mit c multipliziert.

216

Kapitel 7. Determinanten

• Vertauschung zweier Zeilen oder zweier Spalten. Dadurch ¨ andert sich das Vorzeichen der Determinante. Beispiel 7.4 a) Wir berechnen die folgende Determinante, indem wir von links nach rechts elementare Umformungen durchf¨ uhren: • Doppelte Addition der ersten Zeile zur dritten Zeile, • Subtraktion des Doppelten der ersten Zeile von der zweiten Zeile, • Subtraktion des Doppelten der zweiten Zeile von der dritten Zeile:          1 4 0   1 4 0   1 4 0   1 4 0    2 10 −1  =  2 10 −1  =  0 2 −1  =  0 2 −1  .          −2 −4 1 0 4 1 0 4 1 0 0 3 Die Entwicklung nach der ersten, zweiten und dritten Spalte ergibt f¨ ur die Determinante den Wert 1 · 2 · 3 = 6. b) Bei der folgenden Determinante subtrahieren wir zun¨ achst die zweite Spalte von der ersten, danach die dritte Zeile von der zweiten und wenden anschließend die Sarrus’sche Regel an:       3 1 0 2 1 0 2 1 0        1 1 2  =  0 1 2  =  0 0 −1  = −(−1) · 1 · 2 = 2.       1 1 3 0 1 3 0 1 3 c) Zur Berechnung der folgenden Determinante liefern • Addition von Vielfachen der letzten Spalte zur ersten und dritten Spalte • sowie Entwicklung nach der ersten Zeile:     3   0 −4 −1   0 0 0 −1   5 6 −3  2  5   6 1 1 6 −3 1        4 −13 12 −1  =  1 −13 16 −1  = −(−1)  1 −13 16  .     4 3 −1  1 3 3 1 4 3 −1 1 Addition entsprechender Vielfacher der letzten Zeile zu den ersten beiden Zeilen ergibt weiter     5   6 −3   −7 −3 0      1 −13 16  =  65 35  = (−1)  −7 −3  = 50. 0      65 35  4 3 −1   4 3 −1  d) Da Dreiecksmatrizen z. B. beim Gauß-Algorithmus auftreten, interessieren deren Determinanten. Sei A gleich ⎤ ⎤ ⎡ ⎡ 0 0 ... 0 a1,1 a1,2 a1,3 . . . a1,n a1,1 ⎢ 0 a2,2 a2,3 . . . a2,n ⎥ ⎢ a2,1 a2,2 0 ... 0⎥ ⎥ ⎥ ⎢ ⎢ ⎥ ⎢ a3,1 a3,2 a3,3 . . . 0 a3,3 . . . a3,n ⎥ 0 ⎥ oder ⎢ ⎥. ⎢ 0 ⎢ ⎢ ⎢ .. .. .. . . .. ⎥ .. ⎥ .. ⎦ ⎣ ⎣ . . . . . . 0 0 0 .⎦ an,1

an,2

an,3

...

an,n

0

0

0 ...

an,n

217

7.1. Definition und elementare Eigenschaften von Determinanten

Nach dem Entwicklungssatz f¨ ur Determinanten folgt in beiden F¨ allen det A = a1,1 · a2,2 · · · an,n . Demnach ist Determinante von Dreiecksmatrizen gleich dem Produkt der Diagonalelemente. Insbesondere gilt det En = 1. e) Wir wenden Folgerung 7.1 d) an:   ⎡ ⎤ 1 2 3 4 5 6 1 2 3 4 5 6   ⎢0 0 0 1 2 3⎥ 0 1 2 3 4 5 ⎢ ⎥   ⎢0 1 2 3 4 5⎥ 0 0 0 1 2 3 ⎢ ⎥   det ⎢ ⎥ = (−1)  0 0 0 0 1 2  ⎢0 0 0 0 1 2⎥   0 0 0 0 3 2 ⎣0 0 0 0 3 2⎦   0 0 1 2 3 4 0 0 1 2 3 4     1 2 3 4 5 6 1 2 3 4 5 6     0 1 2 3 4 5 0 1 2 3 4 5      0 0 1 2 3 4   = (−1)3  0 0 1 2 3 4  = −[6 − 2] = (−1)2     = −4. 0 0 0 1 2 3 0 0 0 0 1 2 0 0 0 0 3 2 0 0 0 0 3 2     0 0 0 0 1 2 0 0 0 1 2 3 Satz 7.3 (Multiplikationssatz) Seien A, B ∈ Rn×n (oder Cn×n ), so gilt: det(A · B) = det(A) det(B). Der Beweis ist recht aufw¨andig, wird aber zumindest auf Seite 219 motiviert. Ist A invertierbar, so erhalten wir als direkte Konsequenz: 1 = det E = det(A · A−1 ) = det(A) det(A−1 ). Damit ist det A = 0 und det(A−1 ) =

1 det A .

Folgerung 7.2 (Determinante orthogonaler und unit¨ arer Matrizen) Ist A ∈ Rn×n eine orthogonale Matrix (A−1 = A ) oder A ∈ Cn×n eine unit¨are Matrix (A−1 = A∗ = A ), so ist | det A| = 1. Beweis Da f¨ ur eine reelle Matrix A = A∗ ist, m¨ ussen wir die Aussage nur f¨ ur unit¨are Matrizen zeigen. det A = det A = det A = det A∗ = det(A−1 ) = Damit ist 1 = det A · det A = | det A|2 .

1 . det A 

218

Kapitel 7. Determinanten

Matrizen kann man blockweise multiplizieren, wenn die Bl¨ ocke f¨ ur die Multiplikation zusammenpassen, siehe Seite 184. Daraus lassen sich zusammen mit dem Multiplikationssatz Rechenregeln f¨ ur die Determinante gewinnen. Satz 7.4 (K¨ astchensatz) Sei A eine (komplexe) n × n-Matrix, die aus Matrizen B, C und D wie folgt zusammengesetzt ist:   BC . A= OD Dabei seien B und D quadratische m × m- bzw. k × k-Matrizen, wobei m + k = n ist. Damit ist C eine m × k-Matrix und die Nullmatrix O unten links ist eine k × m-Matrix. Dann gilt:   BC = det(B) det(D). det A = det OD Die gleiche Aussage gilt, wenn die Nullmatrix oben rechts steht. Beweis Ist det D = 0, dann sind die letzten k Zeilen linear abh¨ angig, und es gilt auch det A = 0, womit in diesem Fall die Aussage gezeigt ist. Im Folgenden sei also det D = 0, d. h., D sei invertierbar zu D−1 ∈ Ck×k . Dann gilt mit der m × m-Einheitsmatrix Em und der k × k-Einheitsmatrix Ek aufgrund blockweiser Multiplikation und des Multiplikationssatzes (Satz 7.3) f¨ ur Determinanten: 

     B CD−1 Em O B C = det · det O D O Ek O D

  −1 B CD = det · det(D) O Ek

    Em CD−1 B O = det · · det(D) = 1 · det(B) · det(D). O Ek O Ek Man beachte, dass die Determinante einer Dreiecksmatrix gleich dem Produkt der Diagonalelemente ist, so entsteht hier der Wert 1.  Beispiel 7.5 ⎡ 1 2 ⎢0 1 ⎢ det ⎢ ⎢2 0 ⎣0 0 0 0 Analog ist

0 2 0 0 0

2 1 0 1 3

⎤ ⎡ 1 3 ⎢0 1⎥ ⎥ ⎢ ⎢ 2⎥ ⎥ = det ⎢ 2 ⎣0 2⎦ 4 0

2 1 0 0 0

0 2 0 0 0

2 1 0 1 3

⎤ 3 1⎥ ⎥ 2⎥ ⎥ = 8 · (−2) = −16. 2⎦ 4

7.1. Definition und elementare Eigenschaften von Determinanten



1 2 0 ⎢0 1 2 ⎢ det ⎢ ⎢2 0 0 ⎣1 2 3 0 2 1

0 0 0 1 3

219

⎤ 0 0⎥ ⎥ 0⎥ ⎥ = 8 · (−2) = −16. 2⎦ 4

Der K¨astchensatz kann indirekt auch angewendet werden, wenn ein K¨ astchen oben links oder unten rechts gleich der Nullmatrix ist. Hier muss man aber durch Vertauschen von Zeilen oder Spalten die Matrix zun¨ achst in die im Satz geforderte Struktur bringen (insbesondere Nullmatrix oben rechts oder unten links). Beim Vertauschen von zwei Zeilen oder Spalten a ¨ndert sich aber das Vorzeichen der Determinante! Hintergrund: Alternative Determinantendefinitionen Statt die Determinante u ¨ber den Entwicklungssatz (siehe Definition 7.1 und Satz 7.2) einzuf¨ uhren, kann man sie auch ganz anders (aber nat¨ urlich ¨ aquivalent) definieren. So kann die Determinante axiomatisch als Abbildung von n × n-Matrizen in die komplexen Zahlen u ¨ber ihre Eigenschaften als normierte alternierende Multilinearform definiert werden. Die Determinante ist dabei eindeutig festgelegt u ¨ber folgende Eigenschaften aus Folgerung 7.1: • Die Determinante erf¨ ullt die Bedingung a), d. h., sie ist eine Multilinearform. Eine Linearkombination in einer Spalte f¨ uhrt zur entsprechenden Linearkombination der Determinante. • Die Determinante ist alternierend, d. h. Bedingung d) ist (f¨ ur Spalten) erf¨ ullt, beim Tausch zweier Spalten kehrt sich das Vorzeichen der Determinante um. • Zus¨atzlich ist die Determinante normiert, d. h., die Determinante der Einheitsmatrix ist eins. Diese Definition nutzt man, wenn man eine Determinante u ¨ber Zeilen- und Spaltenumformungen ausrechnet. So kann man auch zeigen, dass es sich hier tats¨achlich um eine ¨aquivalente Definition handelt: Zun¨ achst gibt es Multilinearformen, die die obigen Bedingungen erf¨ ullen – n¨ amlich z. B. die u ¨ber den Entwicklungssatz definierte Determinante. Nun kann man jede invertierbare Matrix mittels Gauß’scher Spaltenumformungen in eine Einheitsmatrix u uhren (wie wir es zuvor mit Zeilenumformungen getan haben). Entspre¨berf¨ chend lassen sich nicht-invertierbare Matrizen in eine Matrix mit einer Nullspalte umformen. Aufgrund der Rechenregeln und der Normierung f¨ uhren dabei beide Definitionen zum gleichen Zahlenwert. Es gibt also genau eine normierte alternierende Multilinearform – und diese ist die bekannte Determinante. Mit dieser Erkenntnis kann man vergleichsweise leicht den Multiplikationssatz (Satz 7.3) det(A · B) = det(A) det(B)

220

Kapitel 7. Determinanten

beweisen: Ist det(A) = 0, so ist auch det(AB) = 0. Denn durch die Matrixmultiplikation mit B sind die Spalten der Ergebnismatrix Summen von Vielfachen der Spalten von A. Ersetzen wir die Spalten von A sukzessive durch die Spalten der Ergebnismatrix, ¨andert sich die Determinante nach Folgerung 7.1 a) und g) jeweils lediglich um einen Faktor, also ist insgesamt det(AB) = c·det(A) = c·0 = 0. Damit sind beide Seiten des Multiplikationssatzes null. Anderenfalls k¨onnen wir eine Funktion f : Cn×n → C definieren u ¨ber det(A · B) f (B) = f (b1 , . . . , bn ) := det(A) f¨ ur B = [b1 , . . . , bn ] ∈ Cn×n . Die Beweisidee besteht nun darin zu zeigen, dass f eine normierte alternierende Multlinearform ist. Haben wir das gezeigt, dann wissen wir det(B) = f (B) =

det(A · B) , det(A)

also det(A) det(B) = det(A · B). Die Eigenschaften erh¨ alt man aber un= 1. Vertauscht man mittelbar: Die Normierung folgt aus f (E) = det(A) det(A) zwei Spalten in B, dann vertauschen sich auch die entsprechenden Spalten in A · B, so dass sich das Vorzeichen von f ¨ andert. Schließlich ist f eine Multilinearform. Das ergibt sich direkt aus der Matrixmultiplikation und der entsprechenden Eigenschaft der Determinante. H¨aufig findet man die folgende, ebenfalls alternative Definition der Determinante u ¨ber Permutationen. Sei Sn die Menge der Permutationen der Zahlen 1, . . . , n, d. h. Sn := {(x1 , . . . , xn ) ∈ {1, . . . , n}n : die Zahlen x1 , . . . , xn sind paarweise verschieden}. ur die erste Stelle n M¨ oglichDie Menge Sn hat genau n! Elemente, da es f¨ keiten, dann jeweils f¨ ur die zweite n − 1 usw. gibt. Alle Permutationen k¨onnen durch sukzessiven paarweisen Tausch von jeweils zwei Eintr¨ agen aus (1, 2, 3, . . . , n) gewonnen werden. Dabei kann eine bestimmte Permutation nur entweder u ¨ber eine gerade oder u ¨ber eine ungerade Anzahl von Vertauschungen erreicht werden. Das beweisen wir hier nicht. Die Anzahl der Vertauschungen ist allerdings nicht eindeutig, da man Vertauschungen ja auch wieder r¨ uckg¨angig machen kann. Wohldefiniert ist aber f¨ ur x ∈ Sn die Signum-Funktion: 1, falls sich x durch eine gerade Anzahl sgn(x) = −1, falls sich x durch eine ungerade Anzahl von Vertauschungen aus (1, 2, 3, . . . , n) gewinnen l¨ asst.

221

7.2. Determinanten und lineare Gleichungssysteme

Beispielsweise ist sgn((2, 3, 1, 4)) = 1, da zwei paarweise Vertauschungen ergeben: (2, 1, 3, 4), (1, 2, 3, 4). Satz 7.5 (Leibniz-Formel f¨ ur Determinanten) Sei A = [ak,i ]nk,i=1 ∈ n×n C . Dann ist n   sgn(x) ak,xk . (7.2) det A =

x∈Sn

k=1

Es ist nicht schwer nachzurechnen, dass u ¨ber die rechte Seite von (7.2) eine normierte alternierende Multilinearform definiert ist, die daher mit der Determinante u ¨bereinstimmt: • Eine Linearkombination in einer Spalte der Matrix f¨ uhrt zu einer Linearkombination in genau einem Faktor jedes Produkts, das entsprechend aufgeteilt werden kann. Damit handelt es sich bei der rechten Seite in (7.2) um eine Multilinearform. • Vertauscht man zwei Spalten, so entsteht der gleiche Ausdruck, wenn man in den Permutationen die entsprechenden Spaltenpositionen paarweise tauscht. Allerdings f¨ uhrt der Tausch zu einem Vorzeichenwechsel der Signum-Funktion und damit insgesamt zum Vorzeichenwechsel. • Bei der Einheitsmatrix ist nur das Produkt zu x = (1, 2, . . . , n) von null verschieden und gleich eins. Außerdem ist sgn((1, 2, . . . , n)) = 1.

7.2 Determinanten und lineare Gleichungssysteme Wir betrachten das lineare Gleichungssystem a1,1 x1 a2,1 x1 .. .

+a1,2 x2 +a2,2 x2 .. .

... ...

+a1,n xn +a2,n xn .. .

= = .. .

b1 b2

an,1 x1

+an,2 x2

...

+an,n xn

=

bn ,

mit ai,k ∈ C und bi ∈ C, oder in Kurzform A · x = b

(7.3)

mit der (n × n)-Koeffizientenmatrix A, dem gesuchten L¨ osungsvektor x ∈ Cn n sowie der Inhomogenit¨at b ∈ C . Determinanten charakterisieren das L¨osungsverhalten linearer Gleichungssysteme:

222

Kapitel 7. Determinanten

Satz 7.6 (Determinanten und lineare Gleichungssysteme) Das lineare Gleichungssystem (7.3) ist genau dann eindeutig l¨ osbar, d. h. regul¨ ar, falls det A = 0. F¨ ur det A = 0 ist das System dagegen singul¨ ar, d. h., es existiert entweder keine L¨osung, oder es gibt unendlich viele L¨ osungen. Beweis Das System ist genau Algorithmus das Dreieckssystem ⎡ ∗ a1,1 a∗1,2 ⎢ 0 a∗2,2 ⎢ ⎢ 0 0 ⎢ ⎢ .. ⎣ . 0

...

dann eindeutig l¨ osbar, wenn der Gauß... ... a∗3,3 ...

... .. . 0

a∗1,n a∗2,n a∗3,n .. .

⎤ b∗1 b∗2 ⎥ ⎥ b∗3 ⎥ ⎥ .. ⎥ .⎦

a∗n,n

b∗n

osbar, mit a∗i,i = 0, i = 1, . . . , n liefert. Es ist genau dann nicht eindeutig l¨ uhrt. wenn der Gauß-Algorithmus auf ein Dreieckssystem mit einem a∗i,i = 0 f¨ Wie in Beispiel 7.4 d) ist die Determinante der Dreiecksmatrix das Produkt der Diagonalelemente:   ∗  a1,1 a∗1,2 a∗1,3 . . . a∗1,n     0 a∗2,2 a∗2,3 . . . a∗2,n     0 0 a∗3,3 . . . a∗3,n  = a∗ a∗ . . . a∗ .  1,1 2,2 n,n  ..  ..   0 . 0 0 .    0 0 0 . . . a∗n,n  Die Determinante dieser Matrix ist also genau dann ungleich null, wenn das Ausgangssystem eindeutig l¨osbar ist. Jetzt m¨ ussen wir nur noch den Wert dieser Determinanten mit der Determinante det A der urspr¨ unglichem Matrix in Beziehung bringen. Die Gauß-Operationen sind Zeilenumformungen im Sinne von Folgerung 7.1 d). Da sich bei Addition von Vielfachen von Gleichungen die Determinante nicht ¨andert, sie bei Multiplikation einer Gleichung mit einer von null verschiedenen Zahl auch mit dieser Zahl multipliziert wird und sie nur das Vorzeichen bei Vertauschung von Gleichungen ¨ andert, sind entweder die Determinanten aller Matrizen des Gauß-Verfahrens gemeinsam gleich 0 oder alle gemeinsam von 0 verschieden. Damit ist die eindeutige L¨ osbarkeit ¨ aquivalent zu det A = 0.  osung x = Existiert die inverse Matrix A−1 , so hat A·x = b die eindeutige L¨ A b. Damit folgt auch unabh¨angig vom Multiplikationssatz (Satz 7.3), dass det(A) = 0 ist. Ist umgekehrt det(A) = 0, so sind lineare Gleichungssysteme mit der Matrix A eindeutig l¨osbar. Damit kann A mit dem Gauß-Verfahren invertiert werden, A−1 existiert: −1

223

7.2. Determinanten und lineare Gleichungssysteme

A−1 existiert ⇐⇒ det A = 0,

(7.4)

Eine direkte Anwendung von Satz 7.6 ist die Frage nach der Existenz und Eindeutigkeit von Lagrange-Interpolationspolynomen pn (x) = an xn + an−1 xn−1 + · · · + a0 , die an n + 1 vorgegebenen, verschiedenen Stellen x0 , x1 , . . . , xn die gleichen Funktionswerte wie eine gegebene Funktion f haben. Die Existenz eines solchen Polynoms haben wir in Kapitel 4.6.2 durch explizite Angabe gekl¨ art, und die Eindeutigkeit folgt aus dem Fundamentalsatz der Algebra. Jetzt k¨onnen wir beide Ergebnisse auch gemeinsam durch die Berechnung einer Determinante beantworten. Die Matrix ⎡ 0 ⎤ ⎤ ⎡ x0 x10 x20 . . . xn0 1 x0 x20 . . . xn0 ⎢ x01 x11 x21 . . . xn1 ⎥ ⎢ 1 x1 x21 . . . xn1 ⎥ ⎢ ⎥ ⎥ ⎢ V(x0 , . . . , xn ) := ⎢ . ⎥ ⎥ = ⎢ .. .. . . .. .. . . .. ⎣ .. ⎦ ⎦ ⎣. . . . . . . x0n

x1n

x2n

...

xnn

1 xn

x2n

...

xnn

heißt eine Vandermonde-Matrix. Die Suche nach einem Lagrange-Interpolationspolynom ist ¨aquivalent mit der L¨osung des Gleichungssystems V(x0 , . . . , xn ) · (a0 , a1 , . . . , an ) = (f (x0 ), f (x1 ), . . . , f (xn )) . Das ist eindeutig l¨osbar genau dann, wenn die Determinante ungleich null ist. Satz 7.7 (Vandermonde-Determinante) Die Determinante der Vandermonde-Matrix lautet f¨ ur n ∈ N:  n  n−1   (xi − xk ) . det V(x0 , . . . , xn ) = k=0

i=k+1

Sind die Zahlen xk verschieden, so ist die Determinante ungleich null, und das Interpolationsproblem hat tats¨achlich eine eindeutige L¨ osung. Beweis Sind zwei der Zahlen xk gleich, dann sind zwei Zeilen von V gleich, und die Determinante ist null, ebenso das Produkt. Daher seien im Folgenden uhren eine Vollst¨ andige Induktion nach n alle Zahlen xk verschieden. Wir f¨ durch.

224

Kapitel 7. Determinanten

• Induktionsanfang f¨ ur n = 1: 

1 x0 det 1 x1



= x1 − x0 =

 1 0   k=0

i=1

 (xi − xk ) .

• Induktionsannahme: Die Aussage gelte f¨ ur ein n ≥ 1 und beliebige, paarweise verschiedene Zahlen x0 , . . . , xn . • Induktionsschritt: Wir subtrahieren zun¨achst die erste Zeile von allen weiteren und entwickeln dann nach der ersten Spalte: det V(x0 , . . . , xn , xn+1 ) ⎡ 1 x0 ⎢0 x − x 1 0 ⎢ = det ⎢ . .. ⎣ .. .

⎤ xn+1 0 ⎥ xn+1 − xn+1 1 0 ⎥ ⎥ ⎦ n+1 n+1 2 2 0 xn+1 − x0 xn+1 − x0 . . . xn+1 − x0 ⎡ ⎤ x21 − x20 . . . xn+1 − xn+1 x1 − x0 1 0 ⎢ .. .. . . .. ⎥ = det ⎣ . . . .⎦ n+1 n+1 2 2 xn+1 − x0 xn+1 − x0 . . . xn+1 − x0 ⎡ ⎤ xn+1 −xn+1 x21 −x20 1 0 1 . . .  n+1 x1 −x0 x1 −x0 ⎢ ⎥  .. . . .. ⎥ ⎢. (xi − x0 ) det ⎢ .. = . . .⎥. ⎣ n+1 ⎦ i=1 xn+1 −x x2n+1 −x20 0 n+1 1 xn+1 −x0 . . . xn+1 −x0 x20 2 x1 − x20 .. .

... ... .. .

Nun benutzen wir die Polynomdivision m−1  a m − bm = am−1 + bam−2 + b2 am−3 + · · · + bm−1 = am−1−k bk a−b k=0

und erhalten det V(x0 , . . . , xn , xn+1 ) =

n+1  i=1



1 ⎢1 ⎢ · det ⎢ . ⎣ ..

x1 + x 0 x2 + x0 .. .

 (xi − x0 ) ·

x21 + x1 x0 + x20 x22 + x2 x0 + x20 .. .

n ⎤ xn−k xk0 1 k=0 n n−k k ⎥ x0 ⎥ k=0 x2 .. ⎥ .⎦ n n−k k ... k=0 xn+1 x0 ⎤ n x1 xn2 ⎥ ⎥ .. ⎥ , .⎦ ... ... .. .

xn+1 + x0 x2n+1 + xn+1 x0 + x20 ⎡ 1 x1 x21 . . .  n+1 ⎢  x2 x22 . . . ⎢1 (xi − x0 ) det ⎢ . = . .. . . .. ⎣ .. . . i=1 1 xn+1 x2n+1 . . . xnn+1 1

225

7.2. Determinanten und lineare Gleichungssysteme

wobei wir im letzten Schritt von jeder Spalte das x0 -fache der vorangehenden Spalte abgezogen haben. Auf die verbleibende Determinante kann schließlich die Induktionsannahme angewendet werden: det V(x0 , . . . , xn , xn+1 )  n+1  n  n+1   n+1 n      (xi − x0 ) (xi − xk ) = (xi − xk ) . = i=1

k=1

i=k+1

k=0

i=k+1

 F¨ ur regul¨are Matrizen kann sogar die L¨osung eines Gleichungssystems mit Determinanten berechnet werden: Satz 7.8 (Cramer’sche Regel) Sei A ∈ Rn×n (oder Cn×n ) mit det A = osung x ∈ Rn (oder Cn ) des 0 und b ∈ Rn (oder Cn ). Die (eindeutige) L¨ Gleichungssystems ⎤⎛ ⎞ ⎛ ⎞ ⎡ b1 x1 a1,1 a1,2 . . . a1,n ⎢ a2,1 a2,2 . . . a2,n ⎥ ⎜ x2 ⎟ ⎜ b2 ⎟ ⎥⎜ ⎟ ⎜ ⎟ ⎢ ⎥ ⎜ .. ⎟ = ⎜ .. ⎟ ⎢ .. .. .. ⎦⎝. ⎠ ⎝. ⎠ ⎣. . . an,1

an,2

...

an,n

bn

xn

ist gegeben durch ⎡

a1,1 ⎢ det Ak ⎢ a2,1 mit Ak := ⎢ . xk = det A ⎣ .. an,1

... ...

a1,k−1 a2,k−1 .. .

b1 b2 .. .

a1,k+1 a2,k+1 .. .

... ...

⎤ a1,n a2,n ⎥ ⎥ ⎥. .. ⎦ .

...

an,k−1

bn

an,k+1

...

an,n

Beweis Mit den Spaltenvektoren ak := A·k = (a1,k , . . . , an,k ) lautet die Matrix A des linearen Gleichungssystems A = [a1 , . . . , ak−1 , ak , ak+1 . . . , an ]. alt man die n Matrizen Ersetzt man in A die k-te Spalte durch b ∈ Rn , so erh¨ Ak = [a1 , . . . , ak−1 , b, ak+1 , . . . , an ],

k = 1, 2, . . . , n.

Der Vektor b ist die Inhomogenit¨at des Gleichungssystems, das wegen det A = 0 nach Satz 7.6 eine eindeutige L¨osung x besitzt. Daher hat b die Darstellung b = a1 · x1 + . . . an · xn .

226

Kapitel 7. Determinanten

Damit erhalten wir f¨ ur die Determinante der Matrix Ak : det Ak = det[a1 , . . . , ak−1 , x1 · a1 + · · · + xn · an , ak+1 . . . , an ],  

b

f¨ ur k ∈ {1, 2, . . . , n}. Die k-te Spalte von Ak ist die Summe von xkak mit Vielfachen der restlichen Spalten. Mit Folgerung 7.1 g) und a) erhalten wir ares System) folgt xk = daher det Ak = xk det A. Wegen det A = 0 (regul¨  det Ak / det A, k = 1, . . . , n. In Worten: Man erh¨alt das k-te Element xk des L¨ osungsvektors, indem man die k-te Spalte der Koeffizientenmatrix durch den Vektor b ersetzt, die Determinante dieser Matrix berechnet und das Ergebnis durch die Determinante der Koeffizientenmatrix A dividiert. Ist det A = 0, so kann man den Satz auch zur Berechnung von A−1 verwenden, indem man mit ihm die n Gleichungssysteme (6.11) l¨ ost. Aus det A = 0 folgt also auch mit der Cramer’schen Regel die Existenz von A−1 . Wir wissen ja bereits, dass die Existienz von A−1 ¨aquivalent zu det A = 0 ist und dies wiederum nach Satz 7.6 ¨aquivalent zur eindeutigen L¨ osbarkeit von Ax = b ist. Beispiel 7.6 a) Wir berechnen die L¨osung mittels der Cramer’schen Regel:   1 1 2 x1 = 3 x2 0 3 hat die L¨osung      1 1 3  −3 1 1      1 2  =  = −1, x = x1 =  2  1 2   0 3  = 3 = 1.  3 1 2 3 3   0 3 0 3 Schon auf Seite 194 haben wir die hier verwendete Cramer’sche Regel im Spezialfall einer (2 × 2)-Matrix kennengelernt, siehe (6.10). b) Auch bei einer (3 × 3)-Matrix ist die Cramer’sche Regel noch praktikabel: 3x1 −2x2 +x3 2x1 +x2 +x3 6x1 −3x2 −x3 Mit

ergibt sich:

 3  det A =  2 6

−2 1 −3

= = =

2 7 −3.

 1  1  = −22 −1 

227

7.2. Determinanten und lineare Gleichungssysteme

   2 −2 1     7 1 1    −3 −3 −1  = 1, x2 = x1 = −22

  3 2 1   2 7 1    6 −3 −1  = 2, x3 = −22

   3 −2 2    2 1 7    6 −3 −3  = 3. −22

Beispiel 7.7 (Kreisb¨ ogen, definiert u ¨ ber drei Punkte auf dem Bogen) Bei der Vermessung von Geb¨auden werden Kreisb¨ ogen u ¨ber den Anfangs- und Endpunkt sowie einen weiteren Punkt auf dem Bogen gespeichert. Wir wollen zeigen: Liegen drei Punkte (x1 , y1 ), (x2 , y2 ) und (x3 , y3 ) im R2 nicht auf einer Gerade, so gibt es genau einen Kreis, auf dem diese drei Punkte liegen. Dazu konstruieren wir den Mittelpunkt (x0 , y0 ) des Kreises, auf dem die Punkte liegen. Der Trick dabei ist, dass alle Punkte auf einem Kreis den gleichen Abstand zum Mittelpunkt haben, es muss also f¨ ur die quadrierten Abst¨ande gelten:



(x1 − x0 )2 + (y1 − y0 )2 = (x2 − x0 )2 + (y2 − y0 )2 (x1 − x0 )2 + (y1 − y0 )2 = (x3 − x0 )2 + (y3 − y0 )2 .

Wenn wir ausmultiplizieren, erhalten wir daraus u ¨berraschend ein lineares Gleichungssystem f¨ ur die Unbekannten x0 und y0 :



(−2x1 + 2x2 )x0 + (−2y1 + 2y2 )y0 = −x21 − y12 + x22 + y22 (−2x1 + 2x3 )x0 + (−2y1 + 2y3 )y0 = −x21 − y12 + x23 + y32 .

Das Gleichungssystem ist genau dann eindeutig l¨ osbar, wenn die Determinante der zugeh¨origen Matrix ungleich null ist:   (−2x1 + 2x2 ) (−2y1 + 2y2 ) D := det (−2x1 + 2x3 ) (−2y1 + 2y3 ) = (−2x1 + 2x2 ) · (−2y1 + 2y3 ) − (−2y1 + 2y2 ) · (−2x1 + 2x3 ). Die Determinante ist genau dann ungleich null, wenn die Zeilenvektoren 2 · [(x2 , y2 ) − (x1 , y1 )] und 2 · [(x3 , y3 ) − (x1 , y1 )] ein Parallelogramm mit Fl¨acheninhalt ungleich null aufspannen. Das ist genau dann der Fall, wenn die gegebenen Punkte nicht auf einer Gerade liegen. Mit der Cramer’schen Regel lassen sich in diesem Fall die Koordinaten des Kreismittelpunktes berechnen: x0 = [(−x21 − y12 + x22 + y22 )(−2y1 + 2y3 )−

(−x21 − y12 + x23 + y32 )(−2y1 + 2y2 )]/D,

y0 = [(−x21 − y12 + x23 + y32 )(−2x1 + 2x2 )−

(−x21 − y12 + x22 + y22 )(−2x1 + 2x3 )]/D.

228

Kapitel 7. Determinanten

Um den Kreisbogen von (x1 , y1 ) bis (x3 , y3 ) durch einen Polygonzug (eine Folge von geraden Strecken) anzun¨ahern, k¨onnen wir rekursiv Zwischenpunkte bilden, bis diese n¨aher als eine vorgegebene Entfernung ε zusammen liegen. Die Tanks des Krefelder Hafens im rechten Bild von Abbildung 7.2 wurden so gezeichnet.

Abb. 7.2 Kreisb¨ ogen: Links sind die drei Punkte, u ¨ ber die jeweils ein Kreisbogen definiert ist, durch gerade Strecken verbunden; rechts wurden nach Bestimmung des Kreismittelpunkts weiteren Zwischenpunkte verwendet

Die L¨osung eines linearen Gleichungssystems nach der Cramer’schen Regel bietet sich nur bei wenigen Variablen an. Bei zwei oder drei Unbekannten ist sie allerdings sehr praktisch und wird gerne in Beispielaufgaben der Ingenieurwissenschaften verwendet. Im Studium kann sie damit u ¨berlebenswichtig werden. F¨ ur mittelgroße Gleichungssysteme (etwa n ≤ 50) verwendet man aber den Gauß-Algorithmus. Der Grund liegt in der Anzahl der durchzuf¨ uhrenden Rechenoperationen. F¨ ur große Systeme kommen iterative Verfahren zum Einsatz (siehe Kapitel 6.6.2). Wir fassen den Abschnitt zu Determinanten zusammen: • Eine Determinante ist eine Zahl. • Determinanten k¨onnen nur f¨ ur quadratische (n×n)-Matrizen A berechnet werden. • Eine Determinante ist bei n = 2 der Fl¨acheninhalt eines Parallelogramms. • Mit der Determinante kann man feststellen, ob das Gleichungssystem Ax = b eine eindeutige L¨osung besitzt (n¨ amlich genau dann, wenn det A = 0). • Eine quadratische Matrix A ist genau dann invertierbar, d. h. A−1 existiert genau dann, wenn det A = 0 ist. • Mit Determinanten kann ein Gleichungssystem gel¨ ost werden (Cramer’sche Regel).

Kapitel 8

Aufgaben zu Teil I Hier sind kapitel¨ ubergreifend Aufgaben zum Grundlagen-Teil des Buchs gesammelt.

8.1 Rechnen, Mengen und Logik Aufgabe 8.1 a) Aus einem Wasserhahn fließen in 4 Minuten 16 Liter Wasser. Wie viele Liter Wasser laufen an einem Tag aus dem Hahn, wie viele in einem Jahr? b) Die Grube f¨ ur ein Fundament wird von 4 Arbeitern in 9 Stunden ausgehoben und betoniert. Wie lange brauchen 3 Arbeiter f¨ ur diese Arbeit? Wie lange w¨ urden 10 Arbeiter daf¨ ur ben¨otigen? c) F¨ unf W¨olfe reißen in 5 Minuten 5 Schafe. Wie viele Schafe werden von 100 W¨olfen in 100 Minuten erlegt? Aufgabe 8.2 Das erste Semester Maschinenbau bestehe aus 200 Studierenden. 50 Personen belegen das Praktikum A, 60 Personen belegen die Vorlesung B und 30 Personen belegen das Projektfach C. 15 Studierende haben Praktikum A und Vorlesung B belegt, 10 Studierende belegen Praktikum A und das Projektfach C. Von den Studierenden, die das Projektfach C besuchen, haben 5 die Vorlesung B belegt. Kein Studierender hat alle Veranstaltungen gebucht. Beantworten Sie die Fragen mittels eines Venn-Diagramms:

Ergänzende Information Die elektronische Version dieses Kapitels enthält Zusatzmaterial, auf das über folgenden Link zugegriffen werden kann https://doi.org/10.1007/978-3-662-68367-5_8.

© Der/die Autor(en), exklusiv lizenziert an Springer-Verlag GmbH, DE, ein Teil von Springer Nature 2023 S. Goebbels und S. Ritter, Mathematik verstehen und anwenden: Differenzial- und Integralrechnung, Lineare Algebra, https://doi.org/10.1007/978-3-662-68367-5_8

229

230

Kapitel 8. Aufgaben zu Teil I

a) Wie viele Studierende des Jahrgangs haben genau eine Veranstaltung gebucht? b) Wie viele Studierende belegen ausschließlich andere Veranstaltungen als die hier aufgez¨ahlten? Aufgabe 8.3 Gegeben sind die drei Mengen M1 = {a, b, c, 1, 2}, M2 = {2, 3, 4, 5, 6} und M3 = {a, c, 2, 4, 6}. Bilden Sie die Mengen M1 ∩ M2 , M1 ∪ M5 2 , M 1 ∩ M3 , M 1 ∪ M3 , M 2 ∩ M3 3 und M2 ∪ M3 sowie M1 \ M2 , M2 \ M1 , n=1 Mn := M1 ∩ M2 ∩ M3 und 63 n=1 Mn := M1 ∪ M2 ∪ M3 . Aufgabe 8.4 Negieren Sie folgende Aussagen: a) A = Maria ist Italienerin und sehr freundlich.“ ” b) B = −1 ≤ x ≤ 4“, ” c) C = Der Bus kommt p¨ unktlich, oder er ist zu sp¨ at.“. ” Aufgabe 8.5 a) Beweisen Sie durch direkte Folgerungen (Modus Ponens): Sind die nat¨ urlichen Zahlen a und b ungerade, so ist a + b gerade und a · b ungerade. b) Beim Rechnen mit ganzen Zahlen gelten die Regeln 1 · n = n · 1 = n, 0 · n = n · 0 = 0, es darf ausmultipliziert werden, und −n ist die eindeutige Zahl mit n + (−n) = (−n) + n = 0 (Eindeutigkeit der Inversen). Zeigen Sie durch einen direkten Schluss, dass aus diesen Regeln bereits (−1)·(−1) = 1 folgt. Aufgabe 8.6 Beweisen Sie die folgenden Aussagen indirekt mittels Widerspruch: 4 ≥ 4. x 4 1 n +2 > 2. b) F¨ ur jedes n ∈ N gilt: 6 n +n n a) F¨ ur x ∈ R, x > 0 gilt: x +

Aufgabe 8.7 a) Schreiben Sie die Dualzahl a = 101 101 101 als Dezimalzahl. b) Man stelle die hexadezimale Zahl z = 4f 6c als Summe von Potenzen der Basis 16 dar und bestimme die zugeh¨orige Dezimalzahl. c) Schreiben Sie die periodische Dezimalzahl r = 0, 345 als Bruch pq mit p, q ∈ N. Aufgabe 8.8 Man berechne die Binomialkoeffizienten







2n (n!)2 13 10 13 , d) , c) , b) . a) n (2n)! 10 5 3

231

8.3. Gleichungen und Funktionen

8.2 Vollst¨andige Induktion und Binomischer Lehrsatz Aufgabe 8.9 Berechnen Sie die folgenden Summen: a)

6 

(−1) k , b)

k=1

d)

k 2

k=0

2

(k + 1) − k

2



, c)

10 000 k 2 . k

10 000

 k=0

100  

Aufgabe 8.10 Zeigen Sie f¨ ur n ∈ N:

n 

(3k − 1),

k=1

n  n+1 = n. k2 + k

k=1

Aufgabe 8.11 Zeigen Sie durch Vollst¨andige Induktion die folgenden Aussagen f¨ ur die angegebenen Werte n ∈ N: n  n k k = 11 · 22 · 33 · · · nn < n 2 (n+1) f¨ ur n ≥ 2, a) k=1

ur n = 3, b) n2 ≤ 2n f¨ n+1  n(n + 1)(n + 2) . (k − 1) · k = c) 3 k=2

Aufgabe 8.12 Zeigen Sie mittels Vollst¨andiger Induktion, dass f¨ ur jede Wahl von n ∈ N die Zahl (13 + 1)n − 1 durch 13 teilbar ist. Aufgabe 8.13 Bestimmen Sie mit dem Binomischen Lehrsatz jeweils den Koeffizienten der Potenz x4 in der binomischen Entwicklung von a) (1 − 4x)8 und b) (x + 0,5a)12 . Aufgabe 8.14 Zeigen Sie mit Hilfe der Binomischen Formel f¨ ur n ∈ N die Identit¨at:     n

n   1 − n1 1 − n2 · · · 1 − k−1 1 n . 1+ =1+ n k! k=1

F¨ ur  großes n stimmen die ersten Summanden nahezu mit denen der Summe ∞ 1 e = k=0 k! u ¨berein. Damit ist es nicht verwunderlich, dass die Zahlen sich f¨ ur großes n dem Wert e ann¨ahern (siehe Kapitel 9.5).

8.3 Gleichungen und Funktionen Aufgabe 8.15 Welche der folgenden Funktionen f sind bijektiv (also injektiv und surjektiv)? Berechnen Sie die Umkehrfunktionen f −1 der bijektiven Funktionen f .

232

a) f1 b) f2 c) f3 d) f4 e) f5

Kapitel 8. Aufgaben zu Teil I

: R → R, f1 (x) = 2x6 + 3x4 − 2x2 + 1, : R → R, f2 (x) = 3x5 + 5, : [−π/2, π/2[→ [0, 1], f3 (x) = [sin(x)]2 , : [−π/2, π/2] → [−1, 1], f4 (x) = sin(x), : R →]0, ∞[, f5 (x) = ex+4 .

Aufgabe 8.16 Vereinfachen Sie so weit wie m¨ oglich (mit a > 0):  √ 



2 6 3 1 √ y2 1 a5 a2 1 x 3 x +x 6 24 − : − , d) a) a b , b)  , c) . √ 1 3 6 2y 2x x y a2 a2 x −x Aufgabe 8.17 Berechnen Sie:   √    √  e3[ln(e2 )+ln(e8 )] , d) log8 12 . a) log3 24 , b) ln ( e)4 , c) ln Aufgabe 8.18 Bestimmen Sie die L¨osungsmenge folgender Gleichungen: a) 16x2 + 32x − 240 = 0, b) x6 − 3x4 + x2 = 0,    c) x2 + x − 1 = x2 + x + 1, d) x2 + 4 = x − 2,

f) |x2 + 4x + 4| = |x|, 3 g) 2x + 4 · 2−x − 5 = 0, h) lg(4x − 4) = , 2 i) 3 + 2e−4t − 5e−2t = 0. e) |x + 1| = |x − 1|,

Aufgabe 8.19 Bestimmen Sie alle reellen Zahlen, die die folgenden Gleichungen erf¨ ullen:   x − 3  < 2, c) |x + 1| + |x + 2| ≤ 3.  a) |2x − 6| < 10, b)  x + 2 Aufgabe 8.20 Bestimmen Sie die L¨osungsmenge folgender Wurzelgleichungen: √ √ √ √ √ a) x + 5 + x − 3 + 13 = 0, b) −6x + 8 − 36 + 4x = 4x + 46,  √ √ c) 3x + 2x + 5 = 5x − 1. Aufgabe 8.21 Es soll ein Rechteck mit der Fl¨ ache 400 cm2 erzeugt werden. In welchen Bereichen d¨ urfen die beiden Seitenl¨angen liegen, wenn der Umfang nicht mehr als 100 cm betragen soll? Aufgabe 8.22 L¨osen Sie die Gleichungen nach x auf:   1  2x x f¨ ur x < 28, b) y = e −4 , a) y = ln 14 − 2 2 ex , d) y = ln(x + 2) + ln(x − 2), x > 2). c) y = 1 + 7ex

233

8.3. Gleichungen und Funktionen

Aufgabe 8.23 Ein Mensch kann in der Regel bis zu einer Schallintensit¨ at W oren (H¨orbarkeitsschwelle). Die Lautst¨ arke eines Tons von I0 = 10−12 m 2 h¨ mit der Intensit¨at I berechnet sich damit u urrschnabel(2004), S. 115] ¨ber [D¨

I dB . L = 10 · lg I0 a) Berechnen Sie die Lautst¨arke der H¨orbarkeitsschwelle I0 . b) Ein startender D¨ usenjet hat eine Lautst¨arke von ca. 130 dB, laute Rockmusik bis zu 120 dB. Um wie viel h¨oher ist die Schallintensit¨ at IF des Flugzeugs gegen¨ uber der der Musik IM ? Aufgabe 8.24 Man bestimme den maximalen Definitionsbereich, den Wertebereich und die Umkehrfunktion von 1

a) f (x) = 8ex− 2 ,

b) f (x) =

√ 4x,

c) f (x) =

x−2 . x+2

Aufgabe 8.25 Auf welchen Intervallen ist f (x) = |2 + x| − |2 − x| monoton? √ Aufgabe 8.26 Zeigen Sie, dass die Funktion f (x) = 3 + 9 − x auf ] − ∞, 9] streng monoton fallend und damit injektiv ist. Berechnen Sie die Umkehrfunktion. Aufgabe 8.27 Diskutieren Sie das Symmetrieverhalten der Funktionen exp(x) − 1 sin(x) = sinc(x), b) f (x) = , x exp(x) + 1 1 , d) f (x) = x5 sin4 (x), e) f (x) = 1 + x + x2 . c) f (x) = exp(x) + exp(x) a) f (x) =

Aufgabe 8.28 Bilden Sie die verkettete Funktion f ◦ g : x → f (g(x)) f¨ ur √ a) g(x) = sin(x + π), f (x) = −4x, b) g(x) = −4x, f (x) = x + 5, 1 c) g(x) = x2 , f (x) = , 1+x und geben Sie jeweils den maximalen Definitions- und den Wertebereich an. Aufgabe 8.29 Wir mischen Wasser unterschiedlicher Temperatur. Wasser der Masse m1 > 0 mit Temperatur T1 wird mit Wasser der Masse m2 > 0 ur die Mischungstemperatur T und der Temperatur T2 gemischt. Dann gilt f¨ T =

m 1 T 1 + m2 T 2 . m1 + m 2

a) Berechnen Sie die Mischungstemperatur, wenn 1 000 g Wasser (also ein Liter) der Temperatur 20◦ C mit 500 g Wasser der Temperatur 80◦ C gemischt werden.

234

Kapitel 8. Aufgaben zu Teil I

b) In einem Eimer, der maximal f¨ unf Liter (entspricht 5 000 g) Wasser aufnimmt, befinden sich bereits 1 000 g Wasser der Temperatur 20◦ C. Dazu l¨asst man Wasser der Temperatur 80◦ C fließen, das sich mit dem vorhandenen Wasser vermischt. Geben Sie die Wassertemperatur T (x) als Funktion der zugeflossenen Wassermasse x (in g) an. Welchen Wert erh¨ alt man bei vollem Beh¨alter? Aufgabe 8.30 Der Kolben eines Stoßd¨  ampfers lege beim Einschieben einen uck, wobei t ≥ 0 die Weg nach dem Zeitgesetz x(t) = 30 1 − e−2t cm zur¨ Zeit in Sekunden bezeichnet, vgl. [Papula(2018/2015/2016), Band 1, S. 321]. Nach welcher Zeit ist der Kolben um 12 cm bzw. 15 cm eingeschoben? Aufgabe 8.31 Heißer Kaffee mit der Anfangstemperatur T0 wird durch uhlt. Die Temperaturabnahme die niedrigere Umgebungstemperatur T1 gek¨ verl¨auft dabei exponentiell nach der Gleichung T (t) = (T0 − T1 )e−k·t + T1 (t ≥ 0). Dabei ist T (t) die Temperatur der Fl¨ ussigkeit zum Zeitpunkt t. Bei Zimmertemperatur T1 = 20◦ C werden folgende Werte gemessen: Nach 5 Minuten betr¨agt die Kaffeetemperatur 50◦ C, nach 10 Minuten dagegen nur noch 30◦ C. Bestimmen Sie T0 und k. Wie interpretieren Sie das Ergebnis? Aufgabe 8.32 Berechnen Sie ohne Taschenrechner:

π     3 π π π , b) sin cos π , c) sin 6 + − cos 6 − . a) sin 25 · 4 4 4 4 4 Aufgabe 8.33 Wir betrachten ein rechtwinkliges Dreieck mit den Kanten a, b und der Hypotenuse c. Der Winkel gegen¨ uber von a heißt α, und der Winkel gegen¨ uber von b heißt β. Vervollst¨andigen Sie die Tabelle 8.1.

Tabelle 8.1 Daten zu Aufgabe 8.33 a

b

c

α

5

π/6 π/4 π/6

2 3 3

β

4

Aufgabe 8.34 Eine Funktion   ϕ0  f (t) = a cos(ωt + ϕ0 ) = a cos ω t + ω hat die Amplitude a > 0, Periode p = 2π ω , ω > 0, und den Nullphasenwinuber dem Graphen zu ϕ0 = 0 kel ϕ0 . Der Funktionsgraph ist um ϕω0 gegen¨ nach links verschoben. Die gleichen Begriffe verwendet man f¨ ur den Sinus.

235

8.4. Komplexe Zahlen

Bestimmen Sie Periode und Verschiebung gegen¨ uber ϕ0 = 0 f¨ ur die folgenden Funktionen:   π π , b) f (t) = 4 cos 2t− , c) f (t) = 10 sin (πt−3π) . a) f (t) = 2 sin 3t− 3 2 Aufgabe 8.35 Bestimmen Sie alle reellen L¨osungen der folgenden trigonometrischen Gleichungen: a) tan(x) = cos(x),

b) tan(arcsin(x)) = 1.

Aufgabe 8.36 Bestimmen Sie die Parameter u und v der Funktion f (x) = 2ue−vx so, dass die Punkte (0, 2) und (1, 2e) auf dem Funktionsgraphen liegen.

8.4 Komplexe Zahlen Aufgabe 8.37 Berechnen Sie die (reellen) Real- und Imagin¨ arteile der folgenden komplexen Zahlen: (1 + j)(2 + j),

1+j , 2+j

π

ej 2 .

Aufgabe 8.38 Schreiben Sie die folgenden komplexen Zahlen in der Form rejϕ mit r ∈ R, r ≥ 0: a) 5 − 5j,

b) 64j,

c) − 12(cos(4) + j sin(4)),

d) j 3 .

Aufgabe 8.39 Es seien folgende komplexe Zahlen gegeben: z1 = 20 + 6j, z2 = −4 + 3j, z3 = 2 − 4j, z4 = −3 − 2j. a) Zeichnen Sie die Zahlen als Punkte in der Gauß’schen Ebene, und berechnen Sie die Betr¨age. b) Bilden Sie die konjugiert komplexen Zahlen, und zeichnen Sie diese ebenfalls ein. c) Berechnen Sie die folgenden Zahlen: (z3 + z4 ) · z1 z1 + z2 , z32 , |z3 |2 , |z1 − z2 |2 , . z3 z2 d) Bringen Sie z1 , z2 , z3 und z4 in die Eulerform rejϕ mit r ≥ 0.

236

Kapitel 8. Aufgaben zu Teil I

Aufgabe 8.40 F¨ ur welche z ∈ C gilt: a) z 2 · (1 + j) = 2z · (1 − j), b) c)

4 − 2j = 5 + j, z

20 1+j + = 3 − j, d) 2 − 9j = (1 − 2j) · (z − 5 + 4j)? z 4 + 3j

Aufgabe 8.41 Berechnen Sie mit z1 = 1 + j, z2 = 1 − j und z3 = −3j die L¨osungen der folgenden Gleichungen: a) z = z15 · z23 ,

b) z 4 =

z3 , z2

c) z 3 = z1 · z2 ,

d) z 7 = z23 .

Aufgabe 8.42 L¨osen Sie die quadratischen Gleichungen a) 8z 2 − 4z + 2 = 0 und b) z 2 + 16 = 0. Aufgabe 8.43 Zerlegen Sie die folgenden Polynome in komplexe Linearfaktoren: a) p1 (x) = 2x4 − 10x3 + 30x2 − 10x − 52,

c) p3 (x) = x4 − 2x3 + x2 + 2x − 2.

b) p2 (x) = 10x4 − 160,

Hinweis: Bei c) verwende man p3 (1 ± j) = 0.

Aufgabe 8.44 Bestimmen Sie die L¨osung folgender Gleichungen, so dass man Real- und Imagin¨arteil ablesen kann: 3+j z = 1, 2−j c) z = (2 + 2j)9 ,

a)

1 4 + , 3−j 3+j d) z 4 = 16.

b) z =

Aufgabe 8.45 Berechnen Sie mit dem Horner-Schema zu p(x) = x4 + 2x3 − 45x den Funktionswert p(3) und f¨ uhren Sie mittels Horner-Schema die Polynomdivision p(x)/(x − 3) durch.

8.5 Lineare Gleichungssysteme und Matrizen Aufgabe 8.46 Bestimmen Sie die L¨osungen des linearen Gleichungssystems =j jx1 +jx2 +x3 = 3 ∧ x2 = 1. ∧ jx1 +x2 Bringen Sie dazu das Gleichungssystem in eine Dreiecksgestalt. Bringen Sie die Spalten der zugeh¨origen Matrix von links nach rechts in die richtige Form.

237

8.5. Lineare Gleichungssysteme und Matrizen

Aufgabe 8.47 F¨ ur welche Werte des Parameters s existieren L¨ osungen des Gleichungssystems 3x −2y = s ∧ −6x +4y = 1? Aufgabe 8.48 Bestimmen Sie die L¨osungen der linearen Gleichungssysteme a)

c)

6x1 −8x2 +10x3 = 2 ∧ x1 −3x2 +2x3 = 1 ∧ 2x1 +2x2 +x3 = 1,

b)

3x1 −4x2 +5x3 = 1 ∧ x1 +8x2 −3x3 = 1 ∧ 5x1 +12x2 −x3 = 3.

3x1 −4x2 +5x3 = 1 ∧ x1 −6x2 +4x3 = 1 ∧ 2x1 +2x2 +x3 = 3,

Aufgabe 8.49 L¨osen Sie folgendes homogene lineare Gleichungssystem x4 +x5 ∧ x2 +x3 ∧ x1 +x2 −x5 ∧ x1 ∧ x3 +x4

= = = = =

0 0 0 0 0.

Aufgabe 8.50 a) Welche Bedingung muss der Vektor b = (b1 , b2 , b3 ) erf¨ ullen, damit das Gleichungssystem ⎡ ⎤ 2 −1 3 A · x = b mit A = ⎣ −2 4 −4 ⎦ 1 4 0 l¨osbar ist? b) Welcher Wert ergibt sich f¨ ur b3 , wenn man b1 = 1 und b2 = 1 setzt? Wie viele L¨osungen hat dann das Gleichungssystem? Aufgabe 8.51 F¨ ur welche Werte von s ist system l¨osbar? ⎡ 4 A · x = 0 mit A = ⎣ 1 1

das folgende lineare Gleichungs⎤ 3 2 1 1⎦ 0 s−1

Aufgabe 8.52 Berechnen Sie jeweils die Matrix X:  a)



 1 2 1 −2 3 4 1

   1 1 0 −X = , 1 0 1



1 b) 3 · X − ⎣ 3 5

⎤ ⎡ 2 1 4⎦ = ⎣0 6 0

⎤ 0 1⎦. 0

238

Kapitel 8. Aufgaben zu Teil I

Aufgabe 8.53 Ermitteln Sie die Matrizen X und Y aus folgendem Gleichungssystem:     3 3 2 3 7·X−Y = ∧ 4·X+Y = . −1 1 −1 0 Aufgabe 8.54 Gegeben sind ⎡ ⎤ 3  A = ⎣2⎦, B = 1 1

2





0 C= 2

3 ,

1 1

 2 . 0

Berechnen Sie – falls m¨oglich – folgende Matrixprodukte: a) A · B, b) B · A, c) A · C, d) C · A, e) B · C, f) C · B, Aufgabe 8.55 a) Gegeben sind die Matrizen     1 2 0 1 A= , B= , 3 4 2 3

 C=

−1 1

g) C2 .

 0 . 2

Best¨atigen Sie die G¨ ultigkeit des Assoziativgesetzes A·(B·C) = (A·B)·C. b) Gegeben sind die Matrizen ⎡ ⎤   1 4 1 2 3 , B = ⎣2 5⎦. A= 3 2 1 3 6 Best¨atigen Sie die G¨ ultigkeit des Gesetzes (A · B) = B · A . Aufgabe 8.56 Gegeben ist die Matrix ⎡ 1 2 A = ⎣2 0 3 1 Bestimmen Sie A · x f¨ ur x gleich ⎛ ⎞ ⎛ ⎞ ⎛ ⎞ 1 0 0 a) ⎝ 0 ⎠ , b) ⎝ 1 ⎠ , c) ⎝ 0 ⎠ , 0 0 1

⎤ 3 1⎦. 0 ⎛ ⎞ 1 d) ⎝ 1 ⎠ , 1



⎞ −1 e) ⎝ 1 ⎠ . −1

Aufgabe 8.57 Wir k¨onnen eine (n×n)-Matrix nutzen, um damit durch Multiplikation die Zeilen und Spalten einer anderen Matrix zu permutieren, d. h., um deren Reihenfolge zu ¨andern. Bestimmen Sie eine solche (Permutations-) Matrix P, so dass sich P · A von A nur durch Vertauschung der i-ten und k-ten Zeile unterscheidet. Wie wird eine Vertauschung der i-ten und k-ten Spalte von A erreicht? Betrachten Sie zur Vereinfachung (3 × 3)-Matrizen.

239

8.5. Lineare Gleichungssysteme und Matrizen

Aufgabe 8.58 L¨osen Sie die folgenden Gleichungen mittels Matrixinvertierung: a) A · X = B, b) Y · C = D. Dabei ist 

  2 5 1 A= , B= 1 3 3

2 4





⎤ ⎡ 1 1 −1 1 1 0⎦, D = ⎣3 und C = ⎣ 2 1 −1 1 1

2 2 2

⎤ 3 1⎦. 3

Aufgabe 8.59 In einer Produktionsanlage werden aus vier Rohstoffen R1 , R2 , R3 , R4 drei Zwischenprodukte Z1 , Z2 , Z3 hergestellt, aus diesen Zwischenprodukten werden schließlich f¨ unf Endprodukte E1 , E2 , E3 , E4 , E5 gefertigt. In den Tabellen ist angegeben, wie viel Rohstoffe zur Produktion eines Zwischenprodukts und wie viele Zwischenprodukte zur Produktion eines Endprodukts Ei ben¨otigt werden.

R1 R2 R3 R4

Z1

Z2

Z3

2 0 1 0

1 0 0 1

3 1 2 0

Z1 Z2 Z3

E1

E2

E3

E4

E5

2 1 0

0 1 1

1 0 1

1 2 0

2 1 0

Wie viele Einheiten von R1 , R2 , R3 , R4 sind bereitzustellen, wenn der Betrieb uck E2 , 20 St¨ uck E3 , 30 St¨ uck E4 und 10 Einheiten 20 Einheiten von E1 , 10 St¨ von E5 herstellen soll? Hinweis: Schreiben Sie die Tabellen als Matrizen. Aufgabe 8.60 (Umrechnung von Farbwerten) Die Farbe eines Punktes kann u unanteil G und Blauanteil B ange¨ber seinen Rotanteil R, Gr¨ geben werden. Beim analogen PAL-Fernsehsignal werden dagegen die Helligkeit Y (Luminanz, Schwarzweißbild) und die Farbdaten (Chrominanz) U und V verwendet. Der Vorteil der YUV-Darstellung besteht darin, dass das menschliche Auge Helligkeitsunterschiede viel deutlicher als Farbunterschiede wahrnimmt. Damit kann man mehr Speicherplatz f¨ ur die Helligkeitsdaten verwenden und die Farbinformationen komprimiert ablegen. Die Helligkeit w¨are eigentlich die Summe von R, G und B. Allerdings nimmt das Auge die Farben unterschiedlich intensiv wahr, so dass die Anteile gewichtet werden, vgl. [Schenk und Rigoll(2010), S. 204]: Y := 0,299 · R + 0,587 · G + 0,114 · B. Die Farbinformation U ist die mit dem Faktor 0,492 gewichtete Differenz B − Y und V die mit 0,877 gewichtete Differenz R − Y . Schreiben Sie diese Umrechnung des Vektors (R, G, B) in den Vektor (Y, U, V ) mit einer Matrix. Aufgabe 8.61 a) Berechnen Sie die L¨osungen mit dem Gauß’schen Eliminationsverfahren:

240

Kapitel 8. Aufgaben zu Teil I



1 ⎣2 1

⎞ ⎡ ⎤⎛ ⎞ ⎛ j 1 j 1 x1 j −j ⎦⎝ x2 ⎠ = ⎝ 2 + 2j ⎠ , ⎣ 2 x3 0 j 0 1

⎤⎛ ⎞ ⎛ ⎞ j −1 x1 −1 5 −j ⎦⎝ x2 ⎠ = ⎝ 2 + 4j ⎠ . x3 0 2 2+j

b) Mittels des Gauß’schen Eliminationsverfahrens berechne man die Inverse von ⎡ ⎤ 0 0 0 1 ⎢0 2 0 4⎥ ⎥ A := ⎢ ⎣8 0 0 0⎦. 0 1 2 0 Aufgabe 8.62 Zeigen Sie, dass die Inverse A−1 der oberen rechten Dreiecksmatrix ⎤ ⎡ a1,1 a1,2 a1,3 A = ⎣ 0 a2,2 a2,3 ⎦ mit a1,1 · a2,2 · a3,3 = 0 0 0 a3,3 ebenfalls eine obere rechte Dreiecksmatrix ist, in deren Hauptdiagonale die 1 1 1 , a2,2 und a3,3 stehen. Kehrwerte a1,1 Aufgabe 8.63 Zeigen Sie, dass die Matrizen A · A und A · A f¨ ur jede Matrix A ∈ Rn×n symmetrisch sind.

8.6 Determinanten Aufgabe 8.64 Berechnen Sie die Determinanten der Matrizen ⎡ 1 2 3 4 ⎢0 1 2 3 ⎡ ⎤ ⎡ ⎤ ⎢ 0 4 0 1 0 −1 ⎢0 0 1 2 2 ⎦ , C := ⎢ A := ⎣ 3 1 2 ⎦ , B := ⎣ 1 2 ⎢0 0 0 1 ⎢ 2 1 1 0 0 5 ⎣0 0 0 0 0 0 0 0

5 4 3 2 1 3

⎤ 6 5⎥ ⎥ 4⎥ ⎥. 3⎥ ⎥ 2⎦ 4

Aufgabe 8.65 Gegeben ist die Matrix A in Abh¨ angigkeit vom Parameter s: ⎡ ⎤ ⎡ ⎤ 2 −1 1 2+s −1 1 −4 + s 1 ⎦. A = ⎣ 5 −4 1 ⎦ + sE = ⎣ 5 6 −6 3 6 −6 3+s a) Bestimmen Sie mittels der Determinante, f¨ ur welche s die Matrix A keine uhrt zur Bestimmung von Inverse A−1 besitzt. Diese Problemstellung f¨ Eigenwerten −s. ur s = −2? b) Wie lautet A−1 f¨

Literaturverzeichnis

241

Aufgabe 8.66 L¨osen Sie das Gleichungssystem a) mit der Cramer’schen Regel, b) mit dem Gauß’schen Algorithmus, c) durch Multiplikation mit der inversen Matrix. Mit welchem Verfahren rechnen Sie am schnellsten? ⎞ ⎡ ⎤ ⎛ ⎞ ⎛ 8 5 2 1 x1 ⎣ −1 1 1 ⎦ · ⎝ x2 ⎠ = ⎝ 1 ⎠ . x3 −3 −3 −2 2 Aufgabe 8.67 Berechnen Sie die folgenden Determinanten:      1 x x2   sin(α) cos(α)    , a)  b)  1 y y 2  .  − cos(α) sin(α)  1 z z2 

Literaturverzeichnis D¨ urrschnabel(2004). D¨ urrschnabel, K.: Mathematik f¨ ur Ingenieure: Eine Einf¨ uhrung mit Anwendungs- und Alltagsbeispielen. Springer Vieweg, Wiesbaden, 2004. Schenk und Rigoll(2010). Schenk, J. und Rigoll, G.: Mensch-Maschine-Kommunikation. Springer, Berlin, 2010. Papula(2018/2015/2016). Papula, L.: Mathematik f¨ ur Ingenieure und Naturwissenschaftler Band 1–3. Springer Vieweg, Wiesbaden, 2018/2015/2016.

Teil II Differenzial- und Integralrechnung In diesem Teil des Buchs besch¨aftigen wir uns mit der Analysis. Kern dieser Disziplin ist der Umgang mit N¨aherungswerten, die sich beliebig genau machen lassen. Das f¨ uhrt zu Grenzwertaussagen wie die Berechnung von Ableitungen und Integralen. Damit k¨onnen wir dann z. B. aus der momentanen ¨ Anderung des magnetischen Flusses eine induzierte Spannung berechnen. In diesem Teil wagen wir damit u ¨ber den Grenzwertbegriff den Sprung ins unendlich Kleine und unendlich Große. Heute ist das ungef¨ ahrlich, aber vor gut 400 Jahren war es das Todesurteil f¨ ur den Philosophen Giordano Bruno, der f¨ ur seine Thesen zur Unendlichkeit des Weltalls und der Zeit auf dem Scheiterhaufen landete. Das Prinzip des Grenzwerts werden wir an Zahlenfolgen kennenlernen. Das sind Abbildungen der nat¨ urlichen auf die reellen Zahlen. Eine andere Sicht auf Folgen bieten Zahlenreihen, die wir anschließend behandeln, um Summen von unendlich vielen Zahlen zu definieren. Dann u ¨bertragen wir den Grenzwertbegriff auf Funktionen. Als Konsequenz lernen wir den Begriff der Stetigkeit kennen, der in etwa damit interpretiert werden kann, dass man Funktionsgraphen ohne Absetzen des Stifts durchzeichnen kann, es gibt also keine Spr¨ unge. Noch glatter“ als stetige Funktionen ” sind differenzierbare (d. h. ableitbare) Funktionen. Wir definieren Ableitungen u ¨ber Funktionengrenzwerte und sehen uns interessante Eigenschaften der Ableitung an. Integrale (Fl¨acheninhalte von Fl¨ achen unter dem Funktionsgraphen) lassen sich durch Umkehrung des Ableitens mittels Stammfunktionen berechnen. Allerdings definieren wir zun¨achst das Riemann-Integral allgemeiner, bevor wir dann zu dieser Rechenregel kommen. In einem kurzen Exkurs verallgemeinern wir das hier u ¨berwiegend verwendete Riemann-Integral zum Lebesgue-Integral. Das wird mehr innerhalb der Mathematik als in Anwendungen verwendet. Mittels der Differenzialrechnung kann man Funktionen n¨ aherungsweise durch wesentlich einfachere ersetzen. Damit besch¨ aftigen wir uns in den letzten Kapiteln dieses Analysis-Teils mit dem Satz von Taylor und den daraus motivierten Potenzreihen.

Kapitel 9

Folgen In diesem Kapitel wird der Grenzwertbegriff f¨ ur Folgen eingef¨ uhrt. Mit ihm lassen sich sp¨ater auch Grenzwerte von Funktionen definieren, mit denen z. B. der Ableitungsbegriff erkl¨art wird. Damit ist die hier beschriebene Definition des Grenzwerts ganz zentral f¨ ur die Analysis. Wir werden die klassische ε-n0 -Definition verwenden, die Sie vielleicht als kompliziert empfinden, wenn Sie sie noch nie gesehen haben – und in der Schule wird diese Definition leider seit einigen Jahren nicht mehr unterrichtet. Die Definition ist aber erforderlich, um den zun¨achst sehr vagen Begriff des Unendlichen exakt zu fassen. Wenn Sie die Konstruktion verstehen, f¨allt Ihnen auch das Verst¨ andnis vieler weiterer Konzepte (z. B. Stetigkeit, Ableitung und Integral) leichter, die ahnlich aufgebaut sind. ¨

9.1 Definition und Grundbegriffe von Folgen Beispiel 9.1 (nach [Fonfara(2008)], S. 366) Ein Baggersee von 1 500 achst. m2 Gr¨oße wird so ausgebaggert, dass er jede Woche um 200 m2 w¨ Gleichzeitig breiten sich Algen aus. Zu Beginn der Baggerarbeiten bedecken sie einen Quadratmeter der Wasseroberfl¨ache. Die Algenfl¨ ache verdreifacht sich w¨ochentlich: Wochenzahl n

0

1

2

3

4

5

6

7

8

2

See߬ache in m 1 500 1 700 1 900 2 100 2 300 2 500 2 700 2 900 3 100 1 3 9 27 81 243 729 2 187 6 561 Algen߬ache in m2

© Der/die Autor(en), exklusiv lizenziert an Springer-Verlag GmbH, DE, ein Teil von Springer Nature 2023 S. Goebbels und S. Ritter, Mathematik verstehen und anwenden: Differenzial- und Integralrechnung, Lineare Algebra, https://doi.org/10.1007/978-3-662-68367-5_9

245

246

Kapitel 9. Folgen

Nach knapp 8 Wochen bedecken die Algen also den ganzen See. Die Fl¨ achen des Sees und der Algen in Abh¨angigkeit der betrachteten Wochen sind Beispiele f¨ ur Folgen, d. h. Abbildungen der nat¨ urlichen Zahlen auf reelle Zahlen. Beide Folgen lassen sich mittels einer Funktion darstellen, die jeder Woche n einen Funktionswert zuordnet: • Folge der Seefl¨achen: s(n) = sn = 1 500 + n · 200, n ∈ N0 , • Folge der Algenfl¨achen: a(n) = an = 3n , n ∈ N0 . Definition 9.1 (Folge) Eine Folge (an )∞ n=1 von reellen Zahlen (oder komplexen Zahlen) ist eine Abbildung von N nach R (oder C), die jedem n ∈ N eindeutig ein Element an ∈ R (oder an ∈ C) zuordnet. Die Zahlen an heißen Folgenglieder.

Eine Folge kann als unendliches Tupel (als unendliche Auflistung) (an )∞ n=1 = (a1 , a2 , a3 , . . . ) geschrieben werden, wobei an der k-ten Stelle der Liste das Folgenglied ak steht, das die Folge als Abbildung der nat¨ urlichen Zahl k zuordnet. Wenn Sie eine Programmiersprache kennen, in der es Felder (Arrays) gibt, dann k¨onnen Sie eine Folge mit einem unendlich großen Feld vergleichen. Der Wert a[k] der k-ten Position des Felds entspricht dem Folgenglied ak . ur alle n ∈ N. Beispiel 9.2 a) (an )∞ n=1 := (1, 1, 1, 1, 1, . . . ), d. h. an = 1 f¨ ur n = 2k − 1, k ∈ N, und bn = 0 b) (bn )∞ n=1 := (1, 0, 1, 0, 1, . . . ), d. h. bn = 1 f¨ f¨ ur n = 2k, k ∈ N (gerade Indizes). 1 ∞ art. c) Durch das Bildungsgesetz  cn = 2 +  n , n ∈ N, ist die Folge (cn )n=1 erkl¨ d) Die Gleichung dn+1 = 12 dn + d1n , n = 1, 2, 3, . . . , definiert die Folge (dn )∞ andigen Induk¨ber sich selbst, analog zur Vollst¨ n=1 rekursiv (d. h. u tion) in Abh¨angigkeit vom Anfangselement d1 . Zum Beispiel  erhalten wir ur d1 = 2 erhalten wir 2, 45 , 41 f¨ ur d1 = 1 die Folge (1, 1, 1, . . . ), f¨ 40 , . . . .

Eine Folge (an )∞ n=1 hat die Wertemenge {a1 , a2 , a3 , . . . }. Die ersten beiden Beispielfolgen haben die Wertemengen ∞ W ((an )∞ n=1 ) = {1} und W ((bn )n=1 ) = {0, 1}.

In diesen Mengen spielt die Reihenfolge der Folgenglieder keine Rolle mehr. Außerdem k¨onnen bei einer Menge (im Gegensatz zu einer Folge) keine Elemente mehrfach vorkommen. Daher schreibt man eine Folge auch nicht als Menge und verwendet runde Klammern. Die Menge reeller Zahlen {3, 1, 5, 4, 2} = {1, 2, 3, 4, 5} kann man durch Striche auf einer Zahlengerade darstellen. Dabei entsteht das gleiche Bild unabh¨angig von der Reihenfolge, in der die Elemente aufgelistet sind. Dagegen

9.1. Definition und Grundbegriffe von Folgen

247

ben¨otigt man zur Darstellung einer Folge zwei Achsen, und das Bild ¨ andert ¨ sich bei einer Anderung der Reihenfolge (vgl. z. B. mit der Darstellung der Folgen in Abbildung 9.2). H¨aufig sieht man auch Folgen, deren erstes Glied a1 nicht den Index 1, andern sich die Aussagen sondern den Index 0 hat, also a0 , (an )∞ n=0 . Dadurch ¨ nicht. Definition 9.2 (Besondere Folgen) • Folgen (an )∞ n=1 , bei denen alle Glieder die gleiche Zahl an = a sind, heißen konstante Folgen. andern die Folgenglieder an • Bei einer alternierenden Folge (an )∞ n=1 ¨ fortlaufend das Vorzeichen, z. B. an = (−1)n . ur eine feste Zahl d und alle n ∈ N0 gebildet • Eine Folge (an )∞ n=0 , die f¨ wird u ¨ber an = a0 + n · d, wird als arithmetische Folge bezeichnet. Die Differenz d = an+1 − an zweier aufeinander folgender Glieder ist konstant. • Eine zu einer reellen Zahl q = 0 gebildete Folge (an )∞ n=0 mit a0 = 0 und an = a 0 · q n wird als geometrische Folge bezeichnet, z. B. ist die Folge der Algenfl¨achen aus Beispiel 9.1 eine geometrische Folge. Der Quotient zweier = q. aufeinander folgender Glieder ist konstant: aan+1 n

Definition 9.3 (Beschr¨ ankte Folgen) Eine reelle Folge (an )∞ n=1 heißt genau dann nach oben beschr¨ ankt, wenn ein M ∈ R (obere Schranke) existiert mit ur alle n ∈ N. an ≤ M f¨

Mit anderen Worten: Die Wertemenge {an : n ∈ N} ist nach oben beschr¨ankt (siehe Definition 2.8 auf Seite 53, vgl. Definition 4.3 auf Seite 95). Die Folge heißt genau dann nach unten beschr¨ ankt, wenn ein m ∈ R (untere Schranke) existiert mit ur alle n ∈ N. an ≥ m f¨ Mit anderen Worten: Die Wertemenge {an : n ∈ N} ist nach unten beschr¨ankt. Die Folge heißt beschr¨ ankt genau dann, wenn sie nach oben und ankt ist. unten beschr¨ankt ist, d. h., wenn (|an |)∞ n=1 nach oben beschr¨

248

Kapitel 9. Folgen

Da f¨ ur komplexe Zahlen > und < nicht definiert sind, kann man bei einer komplexen Folge nicht von Beschr¨anktheit nach oben oder unten sprechen. Allerdings kann die Folge der Betr¨age beschr¨ankt sein. In diesem Fall nennt man eine komplexe Folge beschr¨ ankt. Beispiel 9.3 a) (an )∞ n=1 := (1, 1, 1, 1, 1, . . . ) ist nach oben und nach unten mit 1 beschr¨ankt. Statt 1 k¨onnten wir aber auch 4711 als obere Schranke w¨ahlen. b) (bn )∞ n=1 := (1, 0, 1, 0, 1, . . . ) ist nach unten durch −11 und nach oben durch 19 beschr¨ankt. Genauso sind 0 eine untere und 1 eine obere Schranke.

Abb. 9.1 Die Mandelbrotmenge als schwarze Fl¨ ache, Re(c) ∈ [−2, 1], Im(c) ∈ [−1, 1]

Beispiel 9.4 Eine u ¨berraschende Struktur beobachtet man, wenn man zu jedem c ∈ C die komplexe Folge (zn )∞ n=1 betrachtet, die per Induktion definiert ist u ¨ber z1 := c und zn+1 := zn2 + c. Die Menge M der komplexen Zahlen c, f¨ ur die die Folge beschr¨ ankt bleibt, heißt Mandelbrot-Menge nach dem Mathematiker Benoˆıt Mandelbrot, der sie 1980 mit dem Computer visualisiert hat: Man fasst Bildschirmpunkte in der x-y-Ebene als komplexe Zahlen c := x + jy auf und berechnet dazu die ersten Iterationen (30 in Abbildung 9.1) der jeweiligen Folge. Die Anzahl der Iterationen, die ben¨otigt werden, damit die Betr¨ age der Folgenglieder gr¨ oßer als zwei werden, wird als Grauton eingezeichnet. Die schwarze Fl¨ ache liegt n¨aherungsweise u ur die die Folge beschr¨ ankt ist und ¨ber den Punkten c, f¨ die damit die Mandelbrotmenge bilden. Genauer sind im Bild alle Punkte schwarz eingezeichnet, f¨ ur die die Betr¨age der ersten 30 Folgenglieder den Wert 2 nicht u ¨berschreiten. Es l¨asst sich zeigen, dass bei einem Folgenglied

249

9.1. Definition und Grundbegriffe von Folgen

mit Betrag gr¨oßer 2 die Folge unbeschr¨ankt ist. Da aber nur bis zum 30ten Glied getestet wird, erh¨alt man nur ann¨ ahernd die Mandelbrotmenge (n¨amlich eine Obermenge). ankt, der • c = 0: z1 = 0, z2 = · · · = z30 = · · · = 0: Die Folge ist beschr¨ Punkt ist schwarz. • c = j: z1 = j, z2 = j 2 + j = −1 + j, z3 = (−1 + j)2 + j = −2j + j = −j, ur z2 , ab jetzt z4 = (−j)2 + j = −1 + j. Diesen Wert hatten wir bereits f¨ wiederholen sich die Werte, die Folge ist beschr¨ ankt, der Punkt ist schwarz. alt • c = 1: z1 = 1, z2 = 1 + 1 = 2, z3 = 22 + 1 = 5 > 2: Der Punkt erh¨ einen Grauton, der drei Iterationen zugeordnet ist. Die Folge ist hier nicht beschr¨ankt. Es entstehen wundersch¨one Bilder (auch als Apfelm¨ annchen“ bekannt), die ” selbst¨ahnlich sind: Vergr¨oßert man Teilausschnitte des Randes der Mandelbrot-Menge immer weiter, so findet man immer wieder die gleichen Formen. Wir betrachten im Folgenden zur Vereinfachung reelle Folgen. Alle Definitionen und S¨atze, die keinen direkten Gr¨oßenvergleich () der Folgenglieder ohne Betragsbildung beinhalten, gelten direkt auch f¨ ur komplexe Folgen. Die Monotoniebegriffe f¨ ur Funktionen (siehe Seite 93) u ¨bertragen sich unmittelbar auf reelle Folgen: Definition 9.4 (Monotonie) Sei (an )∞ n=1 eine Folge reeller Zahlen. Sie heißt genau dann • • • • •

monoton wachsend, wenn an ≤ an+1 f¨ ur alle n ∈ N ist. ur alle n ∈ N gilt. streng monoton wachsend, wenn an < an+1 f¨ ur alle n ∈ N ist. monoton fallend, wenn an ≥ an+1 f¨ ur alle n ∈ N gilt. streng monoton fallend, wenn an > an+1 f¨ monoton, wenn die Folge monoton w¨achst oder f¨ allt.

Beispiel 9.5 a) Die Folge (1/n)∞ n=1 ist (streng) monoton fallend. b) Die konstante Folge (1, 1, 1, . . . ) ist sowohl monoton wachsend als auch monoton fallend. c) Die geometrische Folge mit Bildungsgesetz an := q n , n ∈ N, ist streng ur q > 1 monoton fallend f¨ ur 0 < q < 1, denn es ist q n+1 = q · q n < q n . F¨ ist die Folge streng monoton √ wachsend. n c und c > 0 ist monoton. Es gilt d) Die Folge (an )∞ n=1 mit an = 1

1 c n+1 an+1 = 1 = c− n(n+1) . an n c

F¨ ur 0 < c < 1 ist die Folge streng monoton wachsend, denn es gilt an+1 > ur c > 1 ist die Folge streng monoton fallend. an . F¨

250

Kapitel 9. Folgen

Abb. 9.2 Eine streng monoton wachsende und eine monoton fallende Folge

Abb. 9.3 Fl¨ achenberechnung durch Aussch¨ opfung mit Quadraten: Von den n2 Quadraten liegen bn vollst¨ andig innerhalb des Kreises mit Radius r. Zu erwarten ist, dass die Zahlen 2 bn · 2r gegen πr 2 streben n

9.2 Konvergenz und Divergenz von Folgen Beispiel 9.6 Wir wollen den Fl¨acheninhalt eines Kreises mit Radius r berechnen. Dazu legen wir um den Kreis ein Quadrat mit Kantenl¨ ange 2r. • Monte-Carlo-Methode: Wir w¨ahlen rein zuf¨ allig einen Punkt des Quadrats aus. Die Wahrscheinlichkeit, dass dieser im Kreis liegt, ist anschaulich unabh¨angig vom Radius, da Quadrat und Kreis in gleichem Maße mit r wachsen oder schrumpfen. Demnach gibt es eine Konstante c unabh¨angig von r, so dass der Kreisinhalt gleich c · 4r2 ist. Die Zahl π ist definiert als π := 4 · c. Die Wahrscheinlichkeit, den Kreis zu treffen, ist c4r 2 π ahlen, wie 4r 2 = c = 4 . Wir wiederholen das Experiment n-mal und z¨ oft wir im Kreis lagen. Dividieren wir diese Anzahl durch n, so erhalten wir eine Zahl an , die anschaulich eine Approximation an π4 ist. So entsteht oßer w¨ ahlen? Strebt eine Folge (an )∞ n=1 . Was passiert, wenn wir n immer gr¨ an dann tats¨achlich gegen π4 ? Die Antwort darauf ( ja“ bis auf patholo” gische F¨alle) gibt das Gesetz der großen Zahlen, das wir im Rahmen der Wahrscheinlichkeitsrechnung in Band 2 als Satz 18.9 behandeln. ahlen, wie • Wir zerlegen das Quadrat in n2 gleich große Quadrate und z¨ viele dieser Quadrate vollst¨andig im Kreis liegen (siehe Abbildung 9.3). Die  2 . Anzahl sei bn . Der Gesamtfl¨acheninhalt dieser Quadrate ist cn := bn · 2r n 2 gegen πr L¨asst man n gegen Unendlich streben, sollte die Folge (cn )∞ n=1

9.2. Konvergenz und Divergenz von Folgen

251

streben. Dem ist auch so. Dahinter steckt die Integralrechnung, die wir in Kapitel 14 und in Band 2 in Abschnitt 3 besprechen. ¨ Jetzt konkretisieren wir den im Beispiel angedeuteten Ubergang zum Unendstrebt gegen eine Zahl a, wenn sich die Folgenglielichen. Eine Folge (an )∞ n=1 ahern, d. h., wenn der der an mit wachsendem n immer mehr der Zahl a ann¨ Abstand |an − a| beliebig klein wird. Er muss kleiner als jede vorgegebene kleine Toleranz ε > 0 werden. Pr¨aziser definiert man: Definition 9.5 (Folgenkonvergenz) Eine Folge (an )∞ n=1 heißt konvergent genau dann, wenn eine Zahl a existiert, so dass die folgende Bedingung erf¨ ullt ist: Zu jedem (noch so kleinen) ε > 0 existiert ein n0 = n0 (ε) ∈ N, so dass ab diesem n0 alle Folgenglieder in einem Streifen mit Radius ε um a liegen, d. h., wenn gilt: ur alle n > n0 , |an − a| < ε f¨ siehe Abbildung 9.4. Die Zahl a heißt dann Grenzwert oder Limes der ur Limes Folge (an )∞ n=1 , Schreibweise: limn→∞ an = a (hier steht limn→∞ f¨ ” ur n gegen Unendlich“) oder auch an → a ( an strebt/geht gegen a“) f¨ ” n → ∞ ( n gegen Unendlich“). ” Eine Folge (an )∞ n=1 heißt divergent genau dann, wenn sie nicht konvergent ist. Also: limn→∞ an = a gilt genau dann, wenn in jedem noch so schmalen Streifen ]a − ε, a + ε[, ε > 0, alle bis auf endlich viele Folgenglieder liegen. Der Umgang mit dieser ε-n0 -Definition ist schwierig, wenn man sie zum ersten Mal sieht. Dabei l¨ost sie aber das große Problem, das Streben gegen unendlich (oder sp¨ater bei Funktionen das Streben gegen eine Stelle x0 ) ohne anschauliche zeitliche Bewegungsabl¨aufe und nur mit endlichen Mitteln darzustellen. Das ist wichtig, wenn man Konvergenz exakt beweisen m¨ ochte und sich nicht auf eine fehleranf¨allige Anschauung verlassen m¨ ochte. Die bei Studierenden h¨aufig nicht sehr beliebte Epsilontik“ ist ein Verdienst des großen ” westf¨alischen Mathematikers Karl Weierstraß (1815–1897). Eine konvergente Folge (an )∞ n=1 mit dem Grenzwert a = 0 heißt Nullfolge. Zieht man von allen Gliedern einer konvergenten Folge ihren Grenzwert ab, so erh¨alt man eine Nullfolge. Damit w¨ urde es prinzipiell ausreichen, nur die Eigenschaften von Nullfolgen zu untersuchen. Beispiel 9.7 a) Die Folge (an )∞ n=1 = (1, 1, 1, 1, 1, . . . ) konvergiert gegen 1, limn→∞ an = 1. b) Die Folge (bn )∞ n=1 := (1, 0, 1, 0, 1, . . . ) konvergiert nicht, d. h., es gibt keinen Grenzwert. Um zu widerlegen, dass irgendein b ∈ R Grenzwert ist, w¨ ahlen wir ε = 14 . Im Intervall ]b − 41 , b + 14 [ k¨onnen nicht sowohl 0 als auch 1 liegen (siehe Abbildung 9.5). Damit kann zu diesem ε = 41 kein n0 ∈ N

252

Kapitel 9. Folgen

Abb. 9.4 ε-n0 -Bedingung der Folgenkonvergenz

gefunden werden, so dass f¨ ur alle n > n0 gilt: |bn − b| < 41 , denn es gibt stets bn , die den Wert 1 und andere, die den Wert 0 annehmen.

Abb. 9.5 Divergente Folge (bn )∞ n=1

 ∞ c) Die Folge n1 n=1 konvergiert gegen 0, denn zu jedem ε > 0 gibt es ein n0 ∈ N mit n0 > 1ε . Damit ist n10 < ε und auch n1 < ε f¨ ur alle n > n0 , d. h., liegen alle Folgenglieder in diesem ε-Streifen um den Grenzwert 0: ab n 1 0   − 0 = 1 < ε. n n ∞  ∞ d) Die Folgen n12 n=1 , n13 n=1 usw. konvergieren ebenfalls gegen 0, da f¨ ur 1 m ∈ N wieder mit n0 > ε f¨ ur n > n0 gilt:    1  1 1 1    nm − 0 = nm ≤ n < n0 < ε.

253

9.3. Rechnen mit konvergenten Folgen

1 e) Die Folge (an )∞ n=1 mit an = 2 + n besitzt den Grenzwert a = 2. Zum ahlen, dass f¨ ur n > n0 Nachweis m¨ ussen wir zu ε > 0 die Stelle n0 so w¨ gilt: |an − 2| = n1 < ε. Diese Bedingung ist erf¨ ullt, wenn n > 1ε ist. Also urliche Zahl gr¨ oßer oder gleich 1ε w¨ ahlen. k¨onnen wir f¨ ur n0 irgendeine nat¨

• F¨ ur ε =

1 10

w¨ahlt man n0 (ε) ≥ 1 10 .

1

1 10

n > 10: |an − 2| < 1 w¨ahlt man n0 (ε) ≥ • F¨ ur ε = 100 f)

1 |an − 2| < 100 f¨ ur n > 100.  1 ∞ Die Folge an n=1 konvergiert

, also z. B. n0 = 10. Dann gilt f¨ ur 1

1 100

, also z. B. n0 = 100. Dann ist

f¨ ur jeden Wert a > 1 gegen 0. Zu einem ur beliebigen ε > 0 m¨ ussen wir zum Beweis eine Stelle n0 finden, so dass f¨ n > n0 gilt:    1    = 1 = a−n < ε. − 0  an  an

Da alle Werte positiv sind, k¨onnen wir auf beide Seiten der Ungleichung den Logarithmus anwenden, so dass dazu −n ln(a) < ln(ε) ¨ aquivalent ist. ln(ε) ln(ε) Das ist wegen − ln(a) < 0 f¨ ur n > − ln(a) erf¨ ullt, so dass wir n0 ≥ − ln(a) w¨ahlen k¨onnen. 2 g) Die Folge mit Bildungsgesetz an = nn2+2n +1 besitzt den Grenzwert a = 1. Zum Nachweis dieser Vermutung bestimmen wir zu ε > 0 ein n0 = n0 (ε) ur n > n0 (ε) gilt. Ohne einen Wert f¨ ur n0 zu kennen, so, dass |an − 1| < ε f¨ k¨onnen wir f¨ ur n > n0 zun¨achst so absch¨atzen:     2  n + 2n − (n2 + 1)   2n − 1  2n 2 2 =  |an − 1| =    n2 + 1  ≤ n2 = n < n0 . n2 + 1 Damit erhalten wir als Bedingung an n0 , dass 2 ≤ε n0

=⇒

n0 ≥

2 . ε

Eine Strategie zum Beweis, dass a Grenzwerte einer Folge (an )∞ n=1 ist, besteht darin, zun¨achst |an − a| nach oben gegen einen Ausdruck in n aboßern, zusch¨atzen. Dann kann man f¨ ur n > n0 oft den Ausdruck weiter vergr¨ so dass ein neuer Term entsteht, in dem statt n nur noch n0 vorkommt. Damit muss man sich nicht mehr um unendlich viele Werte f¨ ur n k¨ ummern und kann n0 so w¨ahlen, dass der Term kleiner ε wird.

9.3 Rechnen mit konvergenten Folgen Es w¨are nicht nur sehr m¨ uhsam, wenn man jede Folge mit der Definition der Konvergenz auf einen Grenzwert untersuchen m¨ usste, sondern man m¨ uss-

254

Kapitel 9. Folgen

te dazu auch bereits einen Kandidaten f¨ ur den Grenzwert kennen. Gl¨ ucklicherweise erh¨alt man Grenzwerte viel einfacher mit den folgenden Grenzwerts¨atzen: ∞ Satz 9.1 (Grenzwerts¨ atze) Seien (an )∞ n=1 und (bn )n=1 Folgen sowie c ∈ R.

a) Eine Folge besitzt h¨ochstens einen Grenzwert. b) Jede konvergente Folge ist notwendigerweise beschr¨ ankt. c) Falls limn→∞ an = a und limn→∞ bn = b ist, dann gilt: i ii iii iv

limn→∞ (an + bn ) = a + b, limn→∞ (c · an ) = c · a, limn→∞ (an · bn ) = a · b. ur gen¨ ugend große n und Falls zus¨atzlich b = 0 gilt, so ist bn = 0 f¨ lim

n→∞

a an = . bn b

d) Ist (an )∞ ur alle n ∈ N, so ist auch n=1 konvergent gegen a und an ≥ c f¨ a ≥ c (entsprechend ist f¨ ur an ≤ c auch a ≤ c). Die einzelnen Teilaussagen lassen sich alle direkt mit der Definition des Grenzwerts beweisen. Das Vorgehen basiert auf Absch¨ atzungen mit der Dreiecksungleichung (3.5) und der Dreiecksungleichung nach unten (3.6) von Seite 78 und ist typisch f¨ ur viele Beweise in der Analysis. Wenn Sie davon einen Eindruck bekommen m¨ochten, dann vollziehen Sie ein paar Punkte nach, sonst k¨onnen Sie direkt den Nutzen des Satzes am nachfolgenden Beispiel sehen. Beweis a) G¨abe es zwei Grenzwerte, so m¨ ussten alle Folgenglieder bis auf endlich viele in jedem Streifen um jeden der beiden Grenzwerte liegen. W¨ahlt man die Streifen so klein, dass sie sich nicht u ¨berlappen, geht das aber nicht (vgl. Abbildung 9.5). Dieses Argument lautet in formaler Schreibweise so: Annahme: Die konvergente Folge (an )∞ n=1 habe (mindestens) zwei verschiedene Grenzwerte a = a , d. h. limn→∞ an = a und limn→∞ an = a . W¨ahle ε := |a − a |/4 > 0. Wegen limn→∞ an = a exisur alle n > n0 die Folgenglieder an tiert zu diesem ε > 0 ein n0 , so dass f¨ n¨aher bei a liegen als ε, d. h. |an − a| < ε. Wegen limn→∞ an = a existiert ur n > n1 zu diesem ε > 0 ebenfalls ein n1 , so dass die Folgenglieder f¨ n¨aher an a liegen als ε: |an − a | < ε. F¨ ur jedes n > n2 := max{n0 , n1 } sind beide Bedingungen erf¨ ullt, und es ergibt sich der Widerspruch f¨ ur den Abstand von a und a : |a − a | = |a − an + an − a | ≤ |a − an | + |an − a | < 2ε =

1 |a − a |. 2

255

9.3. Rechnen mit konvergenten Folgen

b) Wir w¨ahlen einen Streifen um den Grenzwert. Dann liegen in diesem Streifen alle bis auf endlich viele Glieder. Die Betr¨ age der Glieder im Streifen sind offensichtlich beschr¨ankt. Bildet man nun das Maximum dieser oberen Schranke und der Betr¨age der u alt ¨brigen endlich vielen Glieder, so erh¨ man eine obere Schranke f¨ ur die gesamte Folge (|an |)∞ n=1 . Formal sieht dieses Argument z. B. so aus: Es sei limn→∞ an = a. Zu ε := 1 existiert ur alle n > n0 gilt: ein n0 ∈ N, so dass f¨ (3.6)

1 > |an − a| ≥ ||an | − |a|| ≥ |an | − |a|, ankt mit also |an | < 1 + |a|. Die Folge (|an |)∞ n=1 ist also nach oben beschr¨ max{max{|an | : 1 ≤ n ≤ n0 }, 1 + |a|}. c) i Nach Voraussetzung existieren zu jedem ε > 0 Stellen n1 , n2 ∈ N, die ahlt werden gem¨aß der Grenzwertdefinition f¨ ur einen 2ε -Streifen so gew¨ ε ur n > n1 und |bn − b| < 2ε f¨ ur n > n2 ist. k¨onnen, dass |an − a| < 2 f¨ Mit der Dreiecksungleichung (3.5) erhalten wir daraus f¨ ur n > n0 := max{n1 , n2 }: |(an + bn ) − (a + b)| ≤ |an − a| + |bn − b| < 2

ε = ε. 2

Damit ist die Konvergenz der Summenfolge gegen den Grenzwert a + b gezeigt. atzung Dass es sch¨on ist 2ε zu verwenden, sieht man, wenn man die Absch¨ mit der Dreiecksungleichung macht. Dann kann man die Darstellung r¨ uckwirkend so anpassen, dass am Ende tats¨ achlich ε herauskommt. Dass man am Ende einer Absch¨atzung genau auf ε kommt, ist ¨ asthetisch sch¨on, aber f¨ ur einen Beweis nicht n¨otig. Wenn man gegen c · ε f¨ ur atzen kann, eine von n und n0 unabh¨angige Konstante c > 0 absch¨ ¨ kommt man durch Ubergang von ε zu εc wie oben im Fall c = 2 auf die Darstellung aus der Konvergenzdefinition. ii Ist c = 0, so ist offensichtlich limn→∞ c · an = 0 = c · a. Sei nun c = 0. Nach Voraussetzung existiert zu jedem ε > 0 eine Stelle n0 ∈ N, die ε -Streifen so gew¨ ahlt werden gem¨aß der Grenzwertdefinition f¨ ur einen |c| ε kann, dass |an − a| < |c| f¨ ur n > n0 gilt. Damit ist aber auch |c · an − c · a| = |c||an − a| < |c|

ε = ε. |c|

iii Da die Folge (an )∞ ankt. Es gibt n=1 konvergent ist, ist sie nach b) beschr¨ ur alle n ∈ N. Nach Voraussetzung existieren ein M > 0 mit |an | ≤ M f¨ aß der Grenzwertdefinition zu jedem ε > 0 Stellen n1 , n2 ∈ N, die gem¨ ε -Streifen so gew¨ahlt werden k¨ onnen, dass |an − a| < f¨ ur einen M +|b| ε ε ur n > n1 und |bn − b| < M +|b| f¨ ur n > n2 ist. Wieder f¨ uhrt die M +|b| f¨ Dreiecksungleichung (3.5) zum Ziel f¨ ur n > n0 := max{n1 , n2 }:

256

Kapitel 9. Folgen

|an bn − ab| = |an bn − an b + an b − ab| ≤ |an (bn − b)| + |(an − a)b| ε = ε. ≤ M |bn − b| + |b||an − a| < (M + |b|) M + |b| iv Die Quotientenregel kann auf die Produktregel zur¨ uckgef¨ uhrt werden. Dazu m¨ ussen wir zeigen, dass limn→∞ b1n = 1b ist. Man beachte, dass in ur einige n ∈ N ist. Da aber der iv) nicht ausgeschlossen ist, dass bn = 0 f¨ Grenzwert b = 0 ist, k¨onnen wir um b einen Streifen mit Radius |b|/2 legen, in dem 0 nicht enthalten ist, daf¨ ur aber alle bis auf endlich viele Folgenglieder. Es gibt also nur h¨ochstens endlich viele Folgenglieder, die 0 sein k¨onnen. Wir betrachten hier die Folge erst ab einem n0 , so dass |bn | > |b|/2 > 0 f¨ ur alle n ≥ n0 . Daf¨ ur ist der Quotient b1n wohldefiniert. Da limn→∞ bn = b gefordert ist, existiert zu jedem ε > 0 eine Stelle n1 , so dass ab dieser Position alle Folgenglieder innerhalb eines |b|2 ε/2-Streifens um b liegen, d. h. |bn − b|
n1 . Damit gilt f¨ ur alle n > n2 := max{n0 , n1 }:        |bn |>|b|/2 1 1 (9.1)  − 1  =  b − bn  ≤ |b − bn | |b|2 < ε.    bn  b bn b 2

Damit ist gezeigt, dass 1/b der Grenzwert der Folge (1/bn )∞ n=1 ist. Mit iii) erhalten wir limn→∞ abnn = limn→∞ an · limn→∞ b1n = ab . d) Wenn der Grenzwert a < c w¨are, g¨abe es einen Mindestabstand zwischen Folgengliedern (≥ c) und Grenzwert, z. B. c − a. W¨ ahlt man dann einen Streifen kleinerer Breite um den Grenzwert, l¨ agen in diesem keine Folgenglieder – im Widerspruch zur Definition des Grenzwerts.  Beispiel 9.8 Die Regeln des Satzes k¨onnen genutzt werden, um Grenzwerte auszurechnen. Wir m¨ochten mit der Quotientenregel c) iv) den Grenz2 −2 wert limn→∞ n22n +2n+2 bestimmen. Man beachte, dass die Grenzwertregeln die Konvergenz der einzelnen Folgen voraussetzen. Dabei haben wir hier das Problem, dass die Grenzwerte des Z¨ahlers und des Nenners einzeln nicht existieren. Deren Werte werden mit n immer gr¨ oßer, ohne sich einer Zahl anzun¨ahern. So darf die Quotientenregel keinesfalls angewendet werden: 2 limn→∞ (2n2 −2) −2 ahler und Nenner limn→∞ n22n +2n+2 = limn→∞ (n2 +2n+2) . Das Verhalten von Z¨ 1 ¨andert sich aber, wenn man den Bruch mit n2 erweitert. Nun bilden sowohl Z¨ahler als auch Nenner konvergente Folgen, und c) iv) ist anwendbar:   limn→∞ 2 − n22 2 − n22 2n2 − 2 c),iv)   = lim = lim n→∞ n2 + 2n + 2 n→∞ 1 + 2 + 22 limn→∞ 1 + n2 + n22 n n

257

9.4. Konvergenzkriterien c),i,ii)

=

2 − 2 · limn→∞ n12 1 + 2 · limn→∞ n1 + 2 · limn→∞

1 n2

=

2−0 = 2. 1+0+0

Dieses Vorgehen l¨asst sich so verallgemeinern: Der h¨ ochste Exponent des Z¨ahlers und des Nenners setzt sich mit den zugeh¨ origen Vorfaktoren ak , bm = 0 durch: ak ak nk + ak−1 nk−1 + · · · + a1 n + a0 , falls k = m, = bm lim (9.2) n→∞ bm nm + bm−1 nm−1 + · · · + b1 n + b0 0, falls k < m. Das ergibt sich wie im Beispiel, indem man mit n1m erweitert und die Grenzwerts¨atze benutzt. Im Fall k > m haben wir keine Konvergenz, damit werden wir uns sp¨ater besch¨aftigen. Mit den Regeln sieht man auch sofort: limn→∞ an = a ⇐⇒ limn→∞ an − a = 0. Dazu ist wegen der Definition der Konvergenz auch limn→∞ |an −a| = 0 ¨aquivalent.

9.4 Konvergenzkriterien

Lemma 9.1 (Arithmetisches Mittel einer Folge) Sei (an )∞ n=1 eine ist auch die Folge (bn )∞ konvergente Folge mit limn→∞ an = a. Dann n=1 , n 1 die u ¨ber die arithmetischen Mittel bn := n k=1 ak gebildet ist, konvergent mit limn→∞ bn = a. In diesem Sinne ¨andert Mittelwertbildung nichts am Konvergenzverhalten. Beweis Da die Folge (an )∞ n=1 konvergent ist, existiert zu jedem ε > 0 eine Stelle n0 ∈ N, ab der alle Folgenglieder n¨aher beim Grenzwert a liegen als ε ur n > n0 gilt: |an − a| < 2ε . Bilden wir nun die arithmetischen 2 , d. h., f¨ ur n > n0 , so sind alle Summanden ab n0 entsprechend nah bei a. Mittel bn f¨ arker abweichen: Lediglich die ersten n0 Summanden k¨onnen st¨ '    ( n n n  1  1   1     |bn − a| =  ak − a =  (ak − a) ≤ |ak − a|  n  n  n k=1

k=1

0 1 1 |ak − a| + = n n


N0 := mit $ n auchdie erste Summe   n0 sehr klein. F¨ %  n feste n0 |ak − a| ist  n1 k=1 ak − a < 2ε + 2ε = ε, und wir haben max n0 , 2ε k=1 die Konvergenz der Folge der Mittelwerte bewiesen. Denn es gibt f¨ ur das eingangs gew¨ahlte ε eine Stelle N0 ∈ N, so dass ab dieser alle Folgenwerte bn n¨aher bei a liegen als ε.  ∞ Satz 9.2 (Einschließungskriterium) Es seien (an )∞ n=1 , (bn )n=1 zwei konvergente Folgen mit dem gleichen Grenzwert a. Gilt f¨ ur die Glieder der ur alle Indizes n, die gr¨oßer als ein fester Index n0 sind, die Folge (cn )∞ n=1 f¨ Einschließung an ≤ c n ≤ bn ,

so ist auch die Folge (cn )∞ n=1 konvergent mit gleichem Grenzwert a.

Beweis Nach Voraussetzung ist limn→∞ an = limn→∞ bn = a, so dass zu jedem ε > 0 Stellen n1 , n2 ∈ N existieren mit: ur alle n ≥ n1 , |an − a| < ε d. h. a − ε < an < a + ε f¨ ur alle n ≥ n2 . |bn − a| < ε d. h. a − ε < bn < a + ε f¨ F¨ ur n ≥ n3 := max{n1 , n2 } gilt daher a − ε < an ≤ cn ≤ bn < a + ε, also −ε < cn − a < ε bzw. |cn − a| < ε. Damit ist die Konvergenz von (cn )∞ n=1 gegen a gezeigt.  Beispiel 9.9 a) Die Folge an = 2nn strebt gegen a = 0. Denn f¨ ur n ≥ 4 gilt n2 ≤ 2n (siehe Aufgabe 8.11), und weiter folgt 1 n2 1 n · = ≤ . 2n n 2n n Der Grenzwert a√= 0 folgt mit dem Einschließungskriterium. b) Die Folge an = n 4n + 7n hat den Grenzwert a = 7, denn es gilt √ √ √ n 7n ≤ n 4n + 7n ≤ n 7n + 7n 0≤

und weiter

√ √ n n 4n + 7n ≤ 2 · 7. √   Man kann zeigen, dass limn→∞ n 2 = limn→∞ exp n1 ln(2) = 1 ist. Dazu zieht man den Grenzwert in das Argument der Exponentialfunktion. Dass das geht, werden wir sehen, wenn wir uns mit Stetigkeit besch¨ aftigen. Damit ergibt sich der Grenzwert a = 7 mit dem Einschließungskriterium. 7≤

9.4. Konvergenzkriterien

259

Satz 9.3 (Monotoniekriterium) a) Jede monoton wachsende, nach oben beschr¨ ankte Folge (an )∞ n=1 ist konvergent. F¨ ur jedes k ∈ N ist ak ≤ limn→∞ an . b) Jede monoton fallende, nach unten beschr¨ ankte Folge (an )∞ n=1 ist konvergent. F¨ ur jedes k ∈ N ist ak ≥ limn→∞ an . c) Jede monotone, beschr¨ankte Folge ist konvergent.

Abb. 9.6 Eine beschr¨ ankte, monoton wachsende Folge ist konvergent

Ist eine Folge monoton wachsend und beschr¨ankt, dann n¨ ahern sich die Folgenglieder zwangsl¨aufig immer mehr der kleinsten oberen Schranke aller Folgenglieder an, die damit zum Grenzwert wird. Das benutzen wir im folgenden Beweis, wobei wir zus¨atzlich f¨ ur die Existenz des Grenzwerts wissen m¨ ussen, dass es tats¨achlich aufgrund der Voraussetzungen die kleinste obere Schranke (ein Supremum) der Wertemenge der Folge gibt. Das stellt aber das Vollst¨andigkeitsaxiom (2.4) von Seite 55 sicher. F¨ ur Konvergenzfragen braucht man also mit der Vollst¨andigkeit die zentrale Eigenschaft, die R im Gegensatz zu Q bietet. Beweis Wir zeigen die Aussage f¨ ur monoton wachsende Folgen, f¨ ur fallende ankt ist, gilt ist der Beweis analog. Da die Folge (an )∞ n=1 nach oben beschr¨ dies insbesondere f¨ ur die nicht-leere Wertemenge E := {an : n ∈ N}. Diese hat nach Axiom (2.4) ein Supremum a ∈ R (vgl. Abbildung 9.6). Da a das Supremum ist, gibt es wegen (2.5) auf Seite 56 zu jedem ε > 0 ein n0 ∈ N, so dass a − an0 < ε. Da (an )∞ n=1 monoton steigend ist, gilt damit aber auch f¨ ur alle n ≥ n0 : |a − an | = a − an ≤ a − an0 < ε. Damit ist die Konvergenz gegen a bewiesen.   1 ∞ ankt und monoton fallend. Beispiel 9.10 a) n n=1 ist nach unten beschr¨ Wir haben bereits zuvor gesehen, dass diese Folge auch konvergent ist. 9n auf Beschr¨ anktheit und Monotob) Wir untersuchen die Folge zu an = n+3 nie.

260

Kapitel 9. Folgen

Durch Ausklammern und K¨ urzen von n in Z¨ ahler und Nenner erh¨ alt man an = 1+9 3 . (an )∞ n=1 ist nach oben durch M = 9 und wegen an > 0 nach n unten durch m = 0 beschr¨ankt. Zur Untersuchung der Monotonie bilden wir die Differenz zweier aufeinander folgender Glieder 9n 9(n + 1) − (n + 1) + 3 n + 3 9(n + 1)(n + 3) − 9n(n + 4) 27 = > 0, = (n + 4)(n + 3) (n + 4)(n + 3)

an+1 − an =

woraus an+1 > an f¨ ur alle n ∈ N folgt, d. h. streng monotones Wachstum der Folgenglieder. Damit ist die Folge (an )∞ n=1 konvergent. Das wussten wir bereits, da wir sogar Grenzwerte von Folgen dieses Typs mit den Grenz9n werts¨atzen ausrechnen k¨onnen: limn→∞ n+3 = 19 = 9. Beispiel 9.11 Wir zeigen, dass die rekursiv definierte Folge (an )∞ n=1 mit a1 = 1, an+1 :=

1 (an + 7) 2

konvergent ist, indem wir nachrechnen, dass sie monoton wachsend und beschr¨ankt nach oben (z. B. mit 7) ist. Wir zeigen beide Eigenschaften per Vollst¨andiger Induktion: • Zur Monotonie: Induktionsanfang f¨ ur n = 1: a2 = Induktionsschritt: Sei an+1 > an . Dann ist

1+7 2

= 4 > 1 = a1 .

an+2 = 12 (an+1 + 7) > 21 (an + 7) = an+1 . • Zur Beschr¨anktheit: Induktionsanfang f¨ ur n = 1: a1 = 1 < 7. Induktionsschritt: Sei an < 7. Dann ist an+1 = 12 (an + 7) < 12 (7 + 7) = 7.

9.5 Die Euler’sche Zahl e als Grenzwert von Folgen Beispiel 9.12 Wir haben mit (2.7) auf Seite 58 halbformal die Zahl e ein1 1 1 1 + 1! + 2! + 3! + · · · = 1 + 1 + 12 + 16 + . . . Wir gef¨ uhrt u ¨ber die Summe e = 0! k¨onnen diese L¨ ucke nun schließen, indem wir e als Grenzwert der Folge (∞ ' n  1 ∞ (9.3) (an )n=1 := k! k=0

n=1

definieren. Bei jedem Folgenglied kommt hier ein weiterer Summand hinzu: a1 :=

1 1 + 0! 1!

261

9.5. Die Euler’sche Zahl e als Grenzwert von Folgen

1 1 1 + + 0! 1! 2! 1 1 1 1 + + + a3 := 0! 1! 2! 3! .. .

a2 :=

Man nennt Folgen dieses Typs auch Reihen (siehe Kapitel 10). Wir m¨ ussen zeigen, dass die Folge konvergiert. Dann haben wir einen Grenzwert zur Verf¨ ugung, den wir e nennen. Die Folge (an )∞ n=1 ist streng monoton wachsend, 1 ¨ addiert wird: da beim Ubergang von an zu an+1 die positive Zahl (n+1)! an+1 − an =

n+1  k=0

 1 1 1 − = > 0 =⇒ an+1 > an . k! k! (n + 1)! n

k=0

Die Folge ist aber auch nach oben beschr¨ankt und damit konvergent: Dazu ben¨otigen wir zun¨achst eine Hilfsaussage: F¨ ur k ≥ 2 ist k! = 1 · 2 · 3  · · · · · k ≥ 2k−1 , k−1 St¨ uck

ur k ∈ N: und f¨ ur k = 1 ist 1! = 1 ≥ 1 = 2 . Es gilt also f¨ 0

k! ≥ 2k−1 ,

1 1 ≤ k−1 . k! 2

(9.4)

Damit zeigen wir die Beschr¨anktheit: F¨ ur n ≥ 1 ist n n n−1    1 (3.2) 1 − 21n 1 (9.4) 1 ≤ 1+ = 1 + = 1 + < 3. (9.5) an = 1 + 1 k! 2k−1 2k 2 k=1

k=1

k=0

Dabei haben wir die geometrische Summe mit der Formel (3.2) von Seite 69 ausgerechnet. n ∞  ist streng monoton wachsend und Beispiel 9.13 Die Folge 1 + n1 n=1 beschr¨ankt und damit konvergent. Der Nachweis der Eigenschaften ist etwas m¨ uhsam. Zun¨achst rechnen wir die Potenz mitdem Binomischen Lehrsatz (3.3) von Seite 72 aus (f¨ ur das Produktsymbol siehe Kapitel 3.2): n n   n 1 n(n − 1) · · · (n − k + 1) = 1 + k k n k! nk k=0 k=1 n k−1 n k−1

  l 1  n−l 1  =1+ . (9.6) 1− =1+ k! n k! n



an :=

1+

1 n

n

k=1

F¨ ur 0 ≤ l ≤ n − 1 ist

=

l=0

k=1

l=0

262

Kapitel 9. Folgen

0≤1−

l l ≤1− ≤ 1. n n+1

(9.7)

(an )∞ n=1 ist streng monoton wachsend:  k−1

n k−1

l l 1  1  − an+1 − an = 1− 1− k! n+1 k! n k=1 l=0 k=1 l=0  



n n k−1 k−1   

l l l 1 1  + − 1− 1− 1− = (n + 1)! n+1 k! n+1 n l=0 k=1 l=0 l=0

n  (9.7) l 1 > 0. 1− ≥ (n + 1)! n+1 (9.6)

n+1 

l=0

(an )∞ ankt: n=1 ist beschr¨ 2 = a1 < a n

n k−1

n  l (9.7)  1 (9.5) 1  1− = 1+ ≤ < 3. k! n k!

(9.6)

k=1

l=0

k=0

Wegen des vorangehenden Beispiels k¨onnen wir stattgegen gegen den  n 31sogar atzen. Grenzwert e der streng monoton wachsenden Folge k=0 k! absch¨ Auf ¨ahnliche Weise kann man zeigen, dass nicht nur limn→∞ an ≤ e, sondern sogar limn→∞ an = e gilt (vgl. Aufgabe 8.14, siehe z. B. [Endl und Luh(1989), S. 63]). Wir haben also: n

n  1 1 1 = lim 1 + = lim (1 + an ) an , n→∞ n→∞ k! n→∞ n

e := lim

(9.8)

k=0

dabei kann an = 1/n ersetzt werden durch eine beliebige Nullfolge mit positiven Gliedern, siehe z. B. [Endl und Luh(1989), S. 147]. Beispiel 9.14 Wir bestimmen mit (9.8) zwei Grenzwerte:  7     6n  7 6n 7 7 = limn→∞ 1 + 6n = limn→∞ 1 + a) limn→∞ 1 + 6n 7

ur eine konvergente Folge e , da nach den Grenzwerts¨atzen f¨ lim a7n = lim (an · an · · · an ) =

n→∞



n→∞

 6n 7

7 7 6n (an )∞ n=1

gilt:

    7 lim an · · · lim an = lim an .

n→∞

n→∞

n→∞

b) Hier separieren wir den Exponenten −1:

lim

n→∞

1+

7 n

−n

= lim  n→∞

1 1+

1 1 = 7. n 7   e limn→∞ 1 + n7 7

 n 7 =  7 7

n

=

263

9.7. Bestimmte Divergenz

9.6 Approximation reeller Potenzen Wir m¨ ussen noch eine weitere L¨ ucke schließen. Allgemeine reelle Potenzen xy haben wir eingef¨ uhrt, indem wir y durch Br¨ uche p/q angen¨ ahert und dann ucken. xp/q berechnet haben. Das k¨onnen wir jetzt exakt ausdr¨ Satz 9.4 (Approximation reeller Potenzen) Sei x > 0 und (an )∞ n=1 eine Folge mit Folgengliedern an ∈ Q, die gegen einen Grenzwert in R ∞ konvergiert. Dann konvergiert auch die Folge (xan )∞ n=1 . Ist (bn )n=1 eine weitere Folge mit Folgengliedern bn ∈ Q, die den gleichen Grenzwert wie an = (an )∞ n=1 hat, also limn→∞ an = limn→∞ bn , dann ist auch limn→∞ x bn limn→∞ x . Den Beweis findet man z. B. in [Endl und Luh(1989), S. 142]. Er basiert darauf, dass man f¨ ur jede Nullfolge rationaler Zahlen (cn )∞ n=1 zeigen kann, dass limn→∞ xcn = 1 ist. Damit l¨asst sich sowohl die Konvergenz der Folge (xan )∞ n=1 (als Cauchy-Folge, vgl. Kapitel 9.9 unten) beweisen als auch im Fall limn→∞ an = limn→∞ bn zeigen, dass lim (xan − xbn ) = lim

n→∞

n→∞

xan (1 − xbn −an ) = 0. 

beschr¨ ankt

Damit kann man tats¨achlich f¨ ur x > 0 definieren: xy := lim xan , n→∞

(9.9)

wobei (an )∞ n=1 eine beliebige Folge rationaler Zahlen ist, die gegen y konvergiert. Der Satz 9.4 best¨atigt, dass der Grenzwert unabh¨ angig von der Wahl der ist. Da die rationalen Zahlen dicht in den reellen Zahlen liegen, Folge (an )∞ n=1 findet man auch zu jedem y ∈ R eine entsprechende Folge (an )∞ n=1 aus Q mit limn→∞ an = y. Damit ist xy wohldefiniert. Man kann nun mittels Grenzwertaussagen nachrechnen, dass f¨ ur reelle Exponenten tats¨achlich die Rechenregeln f¨ ur Potenzen gelten.

9.7 Bestimmte Divergenz Neben den reellen Zahlen macht es Sinn, auch ±∞ als Pseudo-Grenzwerte“ ” zu untersuchen. Folgen, die gegen diese Werte“ streben, nennt man bestimmt ” divergent. Wie aber definiert man das Streben gegen ∞? Man kann schließlich

264

Kapitel 9. Folgen

keinen ε-Streifen um ∞ legen, ∞ − ε kann nur ∞ sein. Stattdessen kann man aber einen Streifen ]M, ∞[ betrachten, wobei das M beliebig groß werden darf: Definition 9.6 (Bestimmte Divergenz) Eine Folge (an )∞ n=1 heißt bestimmt divergent gegen ∞ genau dann, falls f¨ ur jedes noch so große ur alle (positive) M ∈ R eine Stelle n0 = n0 (M ) ∈ N existiert, so dass f¨ ur alle Folgenglieder nach dieser Stelle, gilt: an > M (siehe n > n0 , also f¨ Abbildung 9.7). Entsprechend heißt sie bestimmt divergent gegen −∞, falls f¨ ur jedes noch so kleine (negative) m ∈ R eine Stelle n0 = n0 (m) ∈ N existiert, so dass f¨ ur alle n > n0 gilt: an < m. Eine bestimmt divergente Folge ist nicht konvergent, und ±∞ sind keine Grenzwerte und erst recht keine reellen Zahlen. Die Bedeutung der Symbole ergibt sich ausschließlich aus der vorangehenden Definition. Man nennt allerdings ±∞ uneigentliche Grenzwerte.



! Achtung

Eine divergente Folge strebt nicht automatisch gegen ±∞. Hier haben wir bereits die beschr¨ankte Folge mit abwechselnden Gliedern +1 und −1 betrachtet. Diese ist nicht bestimmt divergent. Aber auch die unbeschr¨ ankte Folge ((−1)n n)∞ n=1 ist nicht bestimmt divergent. Bestimmte Divergenz ist also mehr als nur Unbeschr¨anktheit.

Abb. 9.7 limn→∞ an = ∞

Beispiel 9.15 limn→∞ n2 = ∞, limn→∞ 2n = ∞, limn→∞ −n = −∞. Solange man keine undefinierten Operationen wie ∞ − ∞ durchf¨ uhrt, gelten viele Aussagen f¨ ur reelle Grenzwerte auch f¨ ur die uneigentlichen Grenzwerte ±∞. Hat man beispielsweise zwei Folgen mit limn→∞ an = a ∈ R und

265

9.7. Bestimmte Divergenz

limn→∞ bn = ∞, so gilt limn→∞ abnn = 0. Denn w¨ ahrend sich der Z¨ ahler immer mehr der Zahl a ann¨ahert, wird der Nenner immer gr¨ oßer, der Betrag des Quotienten wird damit immer kleiner. Aber man muss beim Rechnen mit ±∞ sehr vorsichtig sein. Beispielsweise ist auch nicht klar, was 1∞ sein soll. Wir werden uns dieses Thema genauer im Rahmen des Satzes von L’Hospital anschauen, siehe Kapitel 13.3. Beispiel 9.16 Bildet man die Folgenglieder u ¨ber eine gebrochen-rationale Funktion, so haben wir bereits gesehen, dass sich der Grenzwert im Falle der Konvergenz an den Faktoren zu den gr¨oßten Exponenten im Z¨ ahler und Nenner ablesen l¨asst. Dies gilt auch im Fall der bestimmten Divergenz. Wir erweitern wieder mit 1/nm , wobei m der gr¨oßte Exponent des Nenners ist, z. B. m = 2: →2

   4n3 + 2n2 + 1 4n + 2 + n−2 = lim = −∞. lim n→∞ n→∞ −2 + 5n−2 −2n2 + 5   →−2

Wir k¨onnen damit (9.2) so komplettieren: ⎧ ak ⎪ ⎪ bm , ⎨ k k−1 ak n + ak−1 n + · · · + a 1 n + a0 0, = lim +∞, n→∞ bm nm + bm−1 nm−1 + · · · + b1 n + b0 ⎪ ⎪ ⎩ −∞,

falls falls falls falls

k k k k

= m, < m, > m, > m,

ak bm ak bm

> 0, < 0. (9.10)

Beispiel 9.17 Nicht erst seit dem Buch Sakrileg“ von Dan Brown ist die be” stimmt divergente Folge der Fibonacci-Zahlen ber¨ uhmt. Wir gehen davon aus, dass ein Kaninchenpaar nach seiner Geburt eine Zeiteinheit ben¨ otigt, um selbst fortpflanzungsf¨ahig zu werden. Zur Vereinfachung sei die Austragungszeit ebenfalls eine Zeiteinheit, und die Kaninchen m¨ ogen ewig leben und sich vermehren. Weiterhin bringen sie immer Zwillingsp¨ archen zur Welt. Die Anzahl der Kaninchenpaare nach der n-ten Zeiteinheit sei an . Zu Beginn n = 0 haben wir noch kein Kaninchenpaar. Das w¨ achst gerade im Klon-Labor archen heran, also a0 = 0. Nach einer Zeiteinheit (n = 1) wird das erste P¨ archen gegeboren, also a1 = 1. Nach zwei Zeiteinheiten (n = 2) ist das P¨ schlechtsreif, aber hat noch keine Jungen, also a2 = 1. Bei n = 3 kommen archen. die ersten Jungen zur Welt. Es gibt a3 = a2 + a1 = 1 + 1 = 2 P¨ Nach vier Zeiteinheiten (n = 4) kommen die zweiten Jungen zur Welt, und die ersten Jungen sind fortpflanzungsf¨ahig, also a4 = a3 + a2 = 2 + 1 = 3 archen P¨archen. Bei n = 5 haben wir dann a5 = a4 + a3 = 3 + 2 = 5 P¨ usw. In jeder Zeiteinheit kommt immer die Anzahl der Kaninchen dazu, die vor zwei Zeiteinheiten schon gelebt hat. Wir erhalten das Bildungsgesetz der Fibonacci-Zahlen: a0 := 0,

a1 := 1,

an := an−1 + an−2 f¨ ur n ≥ 2.

266

Kapitel 9. Folgen

Die Folgenglieder sind also 0, 1, 1, 2, 3, 5, 8, 13, 21, . . . , und die Folge ist bestimmt divergent gegen +∞. Bildet man aber den Quotientenzweier benach∞ an , die barter Folgenglieder, so erh¨alt man eine konvergente Folge an−1 n=2

an gegen einen Grenzwert Φ ≥ 1 strebt, d. h. Φ = limn→∞ an−1 . Das werden wir sp¨ater als Anwendung der Matrixdiagonalisierung zeigen (siehe Seite 630). an+1 1 uckDamit haben wir auch limn→∞ an−1 an = Φ und limn→∞ an = Φ. Ber¨ sichtigen wir noch die rekursive Definition der Fibonacci-Zahlen, gewinnen wir eine Bestimmungsgleichung f¨ ur den Grenzwert:

1 an+1 an + an−1 an−1 = lim = 1 + lim =1+ . n→∞ an n→∞ n→∞ an an Φ  Demnach muss Φ die Gleichung Φ2 − Φ − 1 = 0 erf¨ ullen, also Φ = 12 ± 14 + 1. Da alle Folgenglieder positiv sind, kann Φ nicht-negativ sein. Damit: √ 1+ 5 an+1 Φ = lim . = n→∞ an 2 Φ = lim

Diese Zahl haben wir bereits als goldenen Schnitt (siehe Seite 64) kennengelernt.

9.8 H¨aufungspunkte einer Folge ∗ Neben den Grenzwerten spielen ab und zu Folgenh¨ aufungspunkte eine Rolle. W¨ahrend bei einem Grenzwert a in jedem Streifen um a alle bis auf endlich viele Folgenglieder liegen m¨ ussen, definiert man: Definition 9.7 (Folgenh¨ aufungspunkt) Eine Folge besitzt einen Folgenh¨ aufungspunkt a genau dann, wenn in jedem Streifen [a − ε, a + ε], ε > 0, unendlich viele Folgenglieder liegen. Unendlich viele Folgenglieder k¨onnen deutlich weniger sein als alle bis auf ” endlich viele“. Die Folge (bn )∞ n=1 := (1, 0, 1, 0, 1, . . . ) hat demnach die beiden Folgenh¨aufungspunkte 0 und 1 (vgl. Abbildung 9.5). Ein Grenzwert ist insbesondere ein Folgenh¨aufungspunkt. Gibt es aber mehrere Folgenh¨ aufungspunkte, kann es keinen Grenzwert geben. Satz 9.5 (Konvergente Teilfolgen) Zu jedem Folgenh¨ aufungspunkt findet man eine Teilfolge der Ausgangsfolge, die gegen diesen konvergiert.

9.9. Folgenkompaktheit und Cauchy-Folgen ∗

267

Beweis Wir w¨ahlen zu jedem k ∈ N einen Streifen mit dem Radius ε := k1 um den Folgenh¨aufungspunkt. In jedem dieser Streifen liegen unendlich viele ahlen, das im Glieder der Folge. Damit l¨asst sich ein Folgenglied an1 ausw¨ Streifen zu ε = 1 liegt. Als N¨achstes w¨ahlen wir ein Folgenglied an2 mit n2 > n1 , das im Streifen zu ε = 1/2 liegt usw. ank liegt dann im Streifen zu ε = k1 und nk > nk−1 , wobei man f¨ ur die letzte Bedingung braucht, dass auch ohne die bislang ausgew¨ahlten Folgenglieder immer noch weitere im Streifen liegen. Das ist aber der Fall, wenn es dort unendlich viele Folgenglieder gibt. Alle weiteren Glieder der so konstruierten Teilfolge liegen ebenfalls im Streifen zu ε = k1 , da sie sogar in noch kleineren Streifen enthalten sind. aufungspunkt So entsteht eine Teilfolge (ank )∞ k=1 , die gegen den Folgenh¨ konvergiert, er ist Grenzwert dieser Teilfolge. Denn zu jedem ε > 0 gibt es ein k0 ∈ N mit k10 < ε, so dass alle ank mit k ≥ k0 in einem ε-Streifen um den Folgenh¨aufungspunkt liegen. 

9.9 Folgenkompaktheit und Cauchy-Folgen ∗ In diesem Kapitel besch¨aftigen wir uns intensiver mit der Vollst¨ andigkeit der reellen Zahlen, die daraus erw¨achst, dass man neben den endlichen und periodischen Dezimalbr¨ uchen nun auch nicht-periodische Dezimalbr¨ uche zul¨ asst. F¨ ur den mathematischen Aufbau der Analysis und ihre Verallgemeinerung zur Funktionalanalysis sind die Ergebnisse sehr wichtig, und wir werden sie auch an sp¨aterer Stelle noch in Beweisen ben¨ otigen. Aus Anwendersicht ist vor Allem der folgende Satz u ¨ber die Intervallschachtelung noch interessant: ∞ Satz 9.6 (Intervallschachtelung) Seien (an )∞ n=1 und (bn )n=1 Folgen mit ur die Intervalle [an , bn ] gilt: [an+1 , bn+1 ] ⊆ [an , bn ] f¨ ur alle an ≤ bn , so dass f¨ n ∈ N. Falls limn→∞ bn − an = 0, der Durchmesser der Intervalle also gegen ur null geht, dann existiert genau ein Punkt x0 ∈ R, so dass x0 ∈ [an , bn ] f¨ alle n ∈ N. Insbesondere gilt:

lim an = lim bn = x0 .

n→∞

n→∞

Bei einer Intervallschachtelung liegen die Intervalle also ineinander wie die russischen Matroschkas, bemalte ineinanderschachtelbare, eif¨ ormige Puppen. Beweis Die Folge (an )∞ n=1 ist monoton wachsend und nach oben durch b1 beschr¨ankt. Die Folge (bn )∞ n=1 ist monoton fallend und nach unten durch a1 beschr¨ankt. Damit sind nach Satz 9.3 a), b) beide Folgen konvergent: limn→∞ an =: a, limn→∞ bn =: b und an ≤ a, b ≤ bn , n ∈ N. Wegen limn→∞ bn − an = 0 folgt a = b. Damit ist x0 := a = b in jedem Intervall ent-

268

Kapitel 9. Folgen

halten. Ein zweiter Punkt x1 = x0 kann nicht in allen Intervallen enthalten sein. Denn da |x0 − x1 | > 0, gibt es ein n0 ∈ N mit bn0 − an0 < |x0 − x1 |. Da  x0 ∈ [an0 , bn0 ], kann x1 nicht in diesem Intervall liegen. Die Intervallschachtelung wird h¨aufig bei der n¨ aherungsweisen Berechnung von Problemen mit dem Computer benutzt. Man tastet sich sukzessive an eine exakte L¨osung heran, indem man diese mit immer kleineren Intervallen einschachtelt. Ein Beispiel ist die Nullstellensuche f¨ ur Funktionen mit dem Zwischenwertsatz, die wir sp¨ater auf Seite 320 behandeln. √ Beispiel 9.18 Wir konstruieren eine Intervallschachtelung f¨ ur x0 = 2, in√ dem wir bereits in der N¨ahe von x0 starten: 2 ∈ [a1 , b1 ] := [1,4, 1,5], da (1,4)2 = 1,96 < 2 < (1,5)2 = 2,25. Eine neue Intervallgrenze erhalten wir durch Halbierung des aktuellen Intervalls: 1,45. Die neue Grenze muss wegen (1,45)2√= 2,1025 die rechte Grenze des neuen Intervalls [a2 , b2 ] sein: a2 = 1,4 < 2 < 1,45 = b2 , weil (1,4)2 = 1,96 < 2 < (1,45)2 = 2,1025. Durch √ fortgesetze Halbierung erhalten wir immer kleinere Intervalle, in denen 2 liegt: √ 2 < 1,425 1,4 < √ 2 < 1,425 1,4125 < √ 1,4125 < 2 < 1,41875 √ 2 < 1,415625 1,4125 < √ 2 < 1,415625 usw. 1,4140625 < √ Mit diesem Algorithmus kann 2 durch rationale Zahlen beliebig genau angen¨ahert werden. Man beachte, dass wir bei der Intervallschachtelung u ¨ber Satz 9.3 wieder die Vollst¨andigkeit der reellen Zahlen ausgenutzt haben. Die Intervallschachtelung ist eine weitere anschauliche Deutung dieser Eigenschaft, mit der auch der folgende Satz bewiesen wird: Satz 9.7 (Bolzano-Weierstraß, Folgenkompaktheit) Sei (an )∞ n=1 eine beschr¨ankte Folge. Dann existiert ein Folgenh¨ aufungspunkt, d. h. eine konvergente Teilfolge (ank )∞ k=1 . Die Aussage ist zun¨achst verbl¨ uffend. Wenn alle Folgenglieder in einem Intervall [m, M ] liegen, so ballen sie sich an mindestens einer Stelle a ∈ [m, M ] – und das, obwohl es u ¨berabz¨ahlbar viele Zahlen in [m, M ] gibt. Beweis (Skizze) Nach Voraussetzung existieren m, M ∈ R mit m ≤ an ≤ M f¨ ur alle n ∈ N. Wir unterteilen nun das Intervall [m, M ] sukzessive durch Halbierung in Teilintervalle und machen stets mit einem Teilintervall weiter,

9.9. Folgenkompaktheit und Cauchy-Folgen ∗

269

in dem unendlich viele Folgenglieder liegen. So entsteht eine Intervallschachtelung, die Satz 9.6 erf¨ ullt. Die Teilfolge, die entsteht, wenn man bei jeder Intervallteilung das n¨achste Folgenglied ausw¨ahlt, das im ausgew¨ ahlten Teilahlten intervall liegt, konvergiert gegen den Punkt x0 , der in allen ausgew¨ Teilintervallen liegt.  Eine Anwendung dieses Satzes ist die Folgerung 9.1 (Grenzwert und Folgenh¨ aufungspunkt) Sei (an )∞ n=1 eine beschr¨ankte Folge. Dann sind a¨quivalent: a) Die Folge ist konvergent. b) Die Folge besitzt genau einen Folgenh¨aufungspunkt. Beweis Aus a) folgt b), da der Grenzwert der einzige Folgenh¨ aufungspunkt ist. Aus b) folgt a): Der eindeutige Folgenh¨aufungspunkt a ist Kandidat f¨ ur den Grenzwert. Sei ε > 0 beliebig. In dem Streifen ]a − ε, a + ε[ liegen unendlich viele Folgenglieder – aber sind es auch alle bis auf endlich viele? Falls außerhalb des Streifens unendlich viele Glieder l¨ agen, dann g¨ abe es unendlich viele Glieder im [a + ε, M ] oder in [m, a − ε] oder in beiden Intervallen, wobei M eine obere und m eine untere Schranke der nach Voraussetzung beschr¨ankten Folge ist. Nach dem Satz von Bolzano-Weierstraß (Satz 9.7) gibt es dann aber einen Folgenh¨aufungspunkt in [a + ε, M ] oder [m, a − ε], der damit von a verschieden ist. Dies ist ein Widerspruch dazu, dass a alleiniger Folgenh¨aufungspunkt ist. In ]a − ε, a + ε[ liegen alle bis auf endlich viele Folgenglieder. Da das f¨ ur jedes ε > 0 gilt, ist a Grenzwert.  Definition 9.8 (Cauchy-Folge) Eine Folge (an )∞ n=1 heißt genau dann Cauchy-Folge, wenn zu jedem (noch so kleinen) ε > 0 ein n0 = n0 (ε) ∈ N existiert, so dass f¨ ur alle n, m > n0 gilt: |an − am | < ε. urlich auch nur n > m > n0 Statt n, m > n0 kann in der Definition nat¨ gefordert werden. Im Gegensatz zur Grenzwert-Definition werden hier die Folgenglieder nicht mit einem Grenzwert, sondern mit anderen Folgengliedern verglichen. Bei einer Cauchy-Folge gibt es zu jeder noch so kleinen Zahl ε > 0 eine Stelle, so dass ab dieser Stelle alle Folgenglieder (und nicht nur benachbarte) n¨aher als ε zusammenliegen. Vor Augustin Louis Cauchy (1789–1857) fehlte die klare Verwendung eines Grenzwertbegriffs in der Analysis. Er pr¨azisierte die vorhandene Theorie und entwickelte sie weiter. Cauchy hat damit die Analysis so umgebaut, wie wir sie heute kennen.

270

Kapitel 9. Folgen

Die reellen Zahlen wurden genau so konstruiert, dass der folgende Satz gilt: Satz 9.8 (Cauchy-Kriterium) Eine Folge konvergiert genau dann, wenn sie eine Cauchy-Folge ist. Wir haben damit in diesem Kontext keinen neuen, eigenst¨ andigen Begriff eingef¨ uhrt, sondern lediglich eine alternative Beschreibung der Konvergenz. Damit dies so ist, ben¨otigt man aber erneut die Vollst¨ andigkeit der reellen Zahlen, die in diesen Beweis u ¨ber den Satz von Bolzano-Weierstraß einfließt: Beweis a) Wir zeigen, dass aus der Konvergenz die Cauchy-Bedingung folgt: Sei also die Folge (an )∞ n=1 konvergent gegen den Grenzwert a. Außerdem sei ε > 0 beliebig vorgegeben. Aufgrund der Konvergenz existiert insbesondere ur alle n > n0 gilt: |an − a| < ε/2. Damit gilt zu ε/2 ein n0 ∈ N, so dass f¨ f¨ ur n, m > n0 die Cauchy-Bedingung: |an − am | = |an − a + a − am | ≤ |an − a| + |a − am |
0 liefert die Cauchy-Bedingung die Existenz eines n0 ∈ N, ur alle n > n0 . Damit ist die Folge (an )∞ so dass |an − an0 +1 | < ε f¨ n=1 beschr¨ankt: |an | < max{max{|ak | : 1 ≤ k ≤ n0 }, |an0 +1 | + ε}. Nach Satz 9.7 (Bolzano-Weierstraß) existiert damit eine konvergente Teilfolge (ani )∞ i=1 , limi→∞ ani = a und ni ≥ i. Jetzt kann mittels der CauchyBedingung gezeigt werden, dass die vollst¨andige Ausgangsfolge (an )∞ n=1 gegen a konvergiert. Dazu beginnen wir erneut mit der Cauchy-Bedingung f¨ ur ein ε > 0. Zu ε existiert wieder ein n0 = n0 (ε) ∈ N, so dass jetzt ur alle k, m > n0 ist. Da die Teilfolge konvergiert, existiert |ak − am | < ε f¨ ur alle i > N0 ist. außerdem ein N0 = N0 (ε) ∈ N, so dass |ani − a| < ε f¨ u r k > N1 : Mit N1 := max{n0 , N0 } gilt f¨ |ak − a| = |ak − ank + ank − a| ≤ |ak − ank | + |ank − a| ≤ 2ε. Dabei haben wir f¨ ur die Absch¨atzung von |ak − ank | ausgenutzt, dass sowohl k als auch nk ≥ k gr¨oßer als n0 sind. Dass wir gegen 2ε statt gegen ε abgesch¨atzt haben, ist (wie zuvor erw¨ahnt) nur ein kosmetischer Makel. Ersetzt man beim Ausnutzen der Cauchy-Bedingung und der Konvergenz jeweils ε durch ε/2, folgt die Absch¨atzung gegen ε wie in der Definition  von limk→∞ ak = a gefordert.

Literaturverzeichnis

271

Literaturverzeichnis Endl und Luh(1989). Endl, K. und Luh, W.: Analysis I. Aula, Wiesbaden, 1989. Fonfara(2008). M¨ uller-Fonfara, R.: Mathematik verst¨ andlich. Bassermann Verlag, M¨ unchen, 2008.

Kapitel 10

Zahlen-Reihen Die Funktionswerte des Sinus oder der Exponentialfunktion (aber auch der ZTransformierten in der Regelungstechnik) lassen sich durch unendliche Summen berechnen. Das werden wir sp¨ater mittels Potenz- bzw. Taylor-Reihen tun. Dabei werden unendlich viele Zahlen addiert. Allerdings ist zun¨ achst nur klar, was eine endliche Summe ist. Und tats¨achlich verhalten sich unendliche Summen anders als endliche. So darf man z. B. ohne zus¨ atzliche Voraussetzungen nicht die Reihenfolge der Summanden beliebig ¨ andern ohne auch das Ergebnis der Summation zu ver¨andern. Wir werden in diesem Kapitel die unendliche Summation als einen Grenzwert von Folgen definieren, deren Glieder endliche Teilsummen sind. Solche Folgen heißen Reihen. Da es sich um Folgen handelt, gelten alle Ergebnisse des vorangehenden Kapitels. Allerdings kann man die Darstellung der Folgenglieder als Summen nutzen, um weitere Konvergenzs¨atze zu formulieren. Insbesondere lernen wir dabei die geometrische Reihe als Beispiel f¨ ur eine konvergente Reihe und die harmonische Reihe als Prototyp einer divergenten Reihe kennen.

10.1 Definition und Konvergenz einer Reihe Hat man eine Folge (ak )∞ alt man daraus eine neue Folge (sn )∞ n=1 , k=1 , so erh¨ indem man jeweils die ersten n Glieder a1 , a2 , . . . , an der Ausgangsfolge aufsummiert: n  ak . s n = a1 + a2 + · · · + a n = k=1

Man nennt

(sn )∞ n=1

eine Reihe (siehe Definition 10.1). Sind die Folgenglieder

© Der/die Autor(en), exklusiv lizenziert an Springer-Verlag GmbH, DE, ein Teil von Springer Nature 2023 S. Goebbels und S. Ritter, Mathematik verstehen und anwenden: Differenzial- und Integralrechnung, Lineare Algebra, https://doi.org/10.1007/978-3-662-68367-5_10

273

274

Kapitel 10. Zahlen-Reihen

ak alle positiv, so k¨onnen wir sie uns als H¨ohen von Baukl¨ otzchen vorstellen. ¨ Eine Frage, die wir untersuchen werden, ist: Hat der Turm, der durch Ubereinanderlegen der unendlich vielen Kl¨otzchen entsteht, eine endliche H¨ ohe? Eigentlich ist der Begriff der Reihe u ussig, da jede Reihe eine Folge ¨berfl¨ ∞ (sn )∞ n=1 ist, aber umgekehrt auch jede Folge (sn )n=1 als Reihe zur Ausgangsur k > 1, aufgefasst werden kann. Als folge a1 := s1 , ak := sk − sk−1 f¨ Teleskopsumme (siehe Seite 68) ist n¨amlich n 

ak = s 1 +

k=1

n 

(−sk−1 +sk ) = s1 −s1 +s2 −s2 +· · ·+sn−1 −sn−1 +sn = sn .

k=2

Da viele praktisch wichtigen Folgen u ¨ber eine Summation aufgebaut sind, ist es aber dennoch sinnvoll, sich mit dem Begriff der Reihe auseinanderzusetzen. Er wird uns helfen, Funktionen durch wesentlich einfachere Funktionen anzun¨ahern (z. B. u ¨ber Potenz- oder Fourier-Reihen). Beispiel 10.1 Die Dezimalbruchdarstellung der reellen Zahlen basiert auf der Konvergenz einer unendlichen Summe: 3,12345 · · · = 3 +

2 3 4 5 1 + + + + + ... 10 100 1 000 10 000 100 000

Wir werden als Anwendung des Vergleichskriteriums (siehe Satz 10.7) sehen, dass die Folge (3, 3,1, 3,12, 3,123, 3,1234, 3,12345, . . . ) und die entsprechende Folge f¨ ur jede andere Dezimalzahl konvergiert. Hier betrachten wir jetzt den wichtigen Spezialfall periodischer Dezimalbr¨ uche. Wie wir mit (2.2) auf Seite 44 gesehen haben, handelt es sich dabei um rationale Zahlen. Die reelle Zahl 3, 14 ist beispielsweise erkl¨art als  14 14 14 14 + + + · · · = 3 + lim n→∞ 100 10 000 1 000 000 100k k=1 ' n

3+

k n

 1 = 3 + 14 −1 + lim n→∞ 100

( .

k=0

14 14 , 1014000 , 1 000 Wir summieren also u ¨ber alle Glieder der Folge (3, 100 000 , . . . ). F¨ ur q ∈ R \ {0, 1} und f¨ ur alle n ∈ N0 haben wir auf Seite 69 die geometrische n n+1 ur Summenformel (3.2) bewiesen: k=0 q k = 1−q 1−q . Also gilt insbesondere f¨ 1 q = 100 :

 1 n+1 k n

 1 − 100 1 1 100 . = lim = = lim 1 1 n→∞ n→∞ 100 99 1 − 100 1 − 100 k=0 Damit:



14 100 3, 14 = 3 + 14 −1 + =3+ . 99 99

275

10.1. Definition und Konvergenz einer Reihe

¨ Uberraschend ist das nicht, schließlich haben wir diese Umrechnung bereits auf Seite 44 hergeleitet. Nun aber haben wir eine unendliche Summe daf¨ ur eingesetzt. Wir haben in diesem Beispiel alsErweiterung der geometrischen Summe die n geometrische Reihe limn→∞ k=0 q k kennengelernt, die u ¨ber die geomek ∞ ur q = 0, |q| < 1 gilt: trische Folge (q )k=0 gebildet wird. F¨ lim

n 

n→∞

1 1 − q n+1 = . n→∞ 1−q 1−q

q k = lim

k=0

(10.1)

H¨aufig beginnt man die Summe nicht mit k = 0, sondern mit k = 1 (siehe Abbildung 10.1): lim

n→∞

n  k=1

q k = −1 + lim

n→∞

n  k=0

q k = −1 +

q 1 = . 1−q 1−q

(10.2)

Abb. 10.1 Die geometrische  1 Reihe limn→∞ n k=1 2k = 1 1 f¨ ur q = 2 ab dem Index k = 1

Beispiel 10.2 (Paradoxon von Zeno) Achilles bestreitet einen Wettlauf gegen eine Schildkr¨ote. Achilles legt 10 m / s, die Schildkr¨ ote 1 m / s zur¨ uck und bekommt einen Vorsprung von 10 m. Nach wie vielen Sekunden t holt Achilles die Schildkr¨ote ein? 10 · t = 10 + 1 · t =⇒ t =

10 . 9

Aber andererseits: Wenn Achilles die Stelle erreicht hat, an der die Schildkr¨ ote beim Start war, dann ist sie schon ein St¨ uck weiter. Wenn er dann an dieser neuen Stelle angekommen ist, dann ist sie wieder weiter usw. Er scheint sie also nie zu erreichen? • Nach 1 s hat der L¨aufer den Startpunkt der Schildkr¨ ote bei 10 m erreicht. Diese ist dann bei 11 m. 1 s ist der L¨aufer dann dort, die Schildkr¨ ote ist bei 11,1 • Nach weiteren 10 m angekommen.

276

• Nach weiteren

Kapitel 10. Zahlen-Reihen 1 100

s ist der L¨aufer dann dort usw.

Es vergehen also Zeiten von 1010 , 1011 , 1012 , 1013 , . . . Sekunden. Addiert man diese Zeitspannen, erh¨alt man wie oben eine konvergente geometrische Reihe f¨ ur q = 1/10 (siehe (10.1)): n  1 10 1 . = = 1 k n→∞ 10 9 1 − 10 k=0

lim

Der L¨aufer holt also sehr wohl die Schildkr¨ote nach endlicher Zeit ein, da die Reihe konvergiert – und unsere erste Rechnung, bei der wir 10 9 Sekunden erhalten haben, stimmt. Definition 10.1 (Reihe) Sei (ak )∞ k=1 eine Folge reeller Zahlen. Die Folge (sn )∞ n=1 mit n  ak sn := k=1

heißt die Folge der Partialsummen (Teilsummen) von (ak )∞ k=1 oder auch die (unendliche) Reihe der Zahlen ak , k ∈ N, also s1 := a1 s2 := a1 + a2 s3 := a1 + a2 + a3 n  sn := ak = a1 + a2 + · · · + a n . k=1

∞ Diese Reihe wird mit dem Symbol k=1 ak bezeichnet. ∞ • Die Reihe k=1 ak heißt konvergent gegen ein S ∈ R genau dann, wenn lim sn = S.

n→∞

S heißt die Summe (oder der Grenzwert) der Reihe.  In diesem Fall wird ∞ ∞ S auch mit k=1 ak bezeichnet. Mit der Schreibweise k=1 ak < ∞ wird ausgedr¨ uckt, dass die Reihe konvergiert. • Die Reihe heißt genau dann divergent, wenn die Folge (sn )∞ n=1 der Partialsummendivergiert. n • Die Reihe k=1 ak heißt genau dann bestimmt divergent, wenn die ∞ (d. h. gegen ∞ Folge (sn )n=1 der Partialsummen bestimmt divergent ist  ∞ oder  −∞ konvergiert“). Dies dr¨ uckt die Schreibweise k=1 ak = ∞ ∞ ” aus. bzw. k=1 ak = −∞ n • Schließlich heißt k=1 ak unbestimmt divergent genau dann, wenn die Folge (sn )∞ n=1 divergent, aber nicht bestimmt divergent ist.

277

10.1. Definition und Konvergenz einer Reihe

∞ Das Symbol k=1 ak hat also zwei Bedeutungen. Zum einen bezeichnet es lediglich die Folge der Partialsummen. Falls die Reihe konvergiert, wird damit zum anderen auch der Grenzwert ausgedr¨ uckt. Aus dem Zusammenhang ist meistens klar, welche Bedeutung gemeint ist. s3



Abb. 10.2 Reihe der Zahlen a1 , a2 , a3 , . . .

a1

a2

a3



ak

k=1

Beispiel 10.3 a) Einige Reihen, die so wichtig sind, dass sie einen Namen bekommen haben, sind ∞ • die geometrische Reihe k=1 q k , die wir schon in den Eingangsbeispielen verwendet haben und die wegen (10.1) f¨ ur |q| < 1 konvergent ist. In Abbildung 10.1 haben wir den Wert der Reihe f¨ ur q = 12 geometrisch konstruiert. ∞ 1 1 1 1 • die harmonische Reihe k=1 k = 1 + 2 + 3 + 4 + . . . , die sich sp¨ater als Anwendung des Cauchy-Kriteriums (Satz 10.2) als divergent erweisen wird. Der Name der Reihe leitet sich von Obert¨ onen einer schwingenden Saite ab, bei denen die Wellenl¨ angen 12 , 13 , 14 ,... so lang wie ¨ die Basiswellenl¨ange sind. Uberlagert (summiert) man diese (stehenden) Wellen, so entsteht ein harmonischer Klang. ∞ • die alternierende harmonische Reihe k=1 (−1)k k1 = −1 + 12 − 13 ± . . . , von der wir mit dem Leibniz-Kriterium (Satz 10.11) sehen werden, dass sie konvergiert. ∞ b) k=1 (−1)k+1 = 1−1+1−1±. . . ist eine unbestimmt divergente Reihe, da ur ungerades n und sn = 0 f¨ ur gerades n ist und damit (sn )∞ sn = 1 f¨ n=1 eine unbestimmt divergente Folge ist. An diesem Beispiel sieht man, dass sich unendliche Summen anders verhalten als endliche. Klammert man links beginnend jeweils zwei Summanden, so erh¨alt man nur noch die Werte der geraden Partialsummen und als Grenzwert 0. ∞ c) k=1 k = 1 + 2 + 3 + 4 + · · · = ∞, da lim sn = lim

n→∞

n→∞

n  k=1

k = lim

n→∞

n(n + 1) = ∞. 2

Dabei haben wir die Summenformel von Gauß benutzt, die wir auf Seite 68 mittels Vollst¨andiger Induktion bewiesen haben.

278

Kapitel 10. Zahlen-Reihen

∞ ∞ 1 1 d) Die Reihe k=1 k(k+1) ist konvergent mit Grenzwert 1, also k=1 k(k+1) = 1, da man sie u ¨ber eine Teleskopsumme ausrechnen kann (siehe (3.1) von Seite 68) sn =

n  k=1

 1 = k(k + 1) n



k=1

1 1 − k k+1

=1−

1 1 1 1 + − + ··· − 2 2 3 n+1

1 =1− n+1

(10.3)

und damit limn→∞ sn = 1.

10.2 Rechnen mit konvergenten Reihen Die f¨ ur die Partialsummen als Folgen geltenden Konvergenzregeln f¨ uhren sofort zu ∞ Satz 10.1 (Linearkombination konvergenter Reihen) Seien k=1 ak   ∞ ∞ ∞ mit a = A und b und k=1 bk zwei konvergente Reihen k=1 k k=1 k = B ∞ sowie c1 , c2 ∈ R. Dann konvergiert k=1 (c1 ak +c2 bk ) gegen c1 A+c2 B, d. h. ∞ 

(c1 ak + c2 bk ) = c1

k=1

∞ 

ak + c 2

k=1

∞ 

bk .

k=1

Konvergente Reihen d¨ urfen daher gliedweise addiert werden. Beweis ∞ 

(c1 ak + c2 bk ) = lim

n→∞

k=1 Satz 9.1 c)i),ii)

=

c1 lim

n→∞

n  k=1

n 

 (c1 ak + c2 bk ) = lim

n→∞

k=1

ak + c2 lim

n→∞

n  k=1

bk = c 1

c1

∞  k=1

n 

ak + c 2

k=1

ak + c 2

n 

 bk

k=1 ∞ 

bk

k=1

∞



In diesem Beweis haben wir lediglich die Definition des Symbols k=1 als Grenzwert der Partialsummen aufgel¨ost sowie die Rechenregeln f¨ ur Folgen auf Partialsummen angewendet. Entsprechend kann man aus jedem Satz f¨ ur Folgen einen entsprechenden Satz f¨ ur Reihen ableiten. W¨ahrend konvergente Reihen gliedweise addiert urfen, gilt die ∞ werden d¨ Umkehrung aber offensichtlich nicht, d. h., aus k=1 (ak +bk ) < ∞ folgt nicht,

279

10.3. Alternativen zur Definition der Reihenkonvergenz

∞ ∞ dass k=1 ak und k=1 bk konvergieren. Dazu betrachten ∞ wir ein Gegenbei∞ divergent gegen ∞, und k=1 (−1) ist bestimmt spiel: k=1 1 ist bestimmt  ∞ divergent gegen −∞, aber k=1 (1 − 1) = 0 ist konvergent.

10.3 Alternativen zur Definition der Reihenkonvergenz Wir beginnen mit einer ¨aquivalenten Formulierung der Konvergenz: ∞ Satz 10.2 (Cauchy-Kriterium f¨ ur Reihen) Eine Reihe k=1 ak konvergiert genau dann, wenn die folgende Cauchy-Bedingung erf¨ ullt ist: Zu ur jedem noch so kleinen ε > 0 existiert eine Stelle n0 = n0 (ε) ∈ N, so dass f¨ alle n, m ∈ N mit m ≥ n > n0 gilt:   m     ak  < ε.    k=n

Das entspricht der Anschauung: Die Konvergenz einer Reihe ist damit ¨ aquivalent, dass die Restsummen hinreichend klein werden, genauer: Beliebige Abschnitte der Summe m¨ ussen kleiner als jeder vorgegebene Wert ε > 0 sein, wenn sie nur weit genug hinten in der Summe liegen. Beweis Nach dem Cauchy-Kriterium f¨ ur Folgen (Satz 9.8) ist die Konvergenz der Reihe a¨quivalent mit der Cauchy-Bedingung f¨ ur die Partialsummen, ur alle m > n − 1 d. h., zu jedem ε > 0 existiert ein n1 = n1 (ε) ∈ N, so dass f¨ und n − 1 > n1 gilt:   m     |sm − sn−1 | =  ak  < ε.   k=n

 Das entspricht der Cauchy-Bedingung f¨ ur Reihen mit n0 = n1 + 1. ∞ 1 Beispiel 10.4 Die harmonische Reihe k=1 k ist divergent, da die CauchyBedingung nicht erf¨ ullt ist: W¨ahlen wir m = 2n, dann ist m 2n   1 1 = > k k

k=n

unabh¨angig von n. alle n, m > n0 gilt:

k=n

(n + 1)   Anzahl der Summanden

·

1 2n 

>

1 2

kleinstes Glied

ur  zu ε := 1/4 existiert kein n0 ∈ N, so dass f¨ Das  heißt,  m 1  < ε. k=n k

V¨ollig klar ist, dass eine unendliche Summe nur dann einen endlichen Wert ergeben kann, wenn betragsm¨aßig immer weniger addiert wird:

280

Kapitel 10. Zahlen-Reihen

Satz 10.3 (Notwendige ur die Konvergenz einer Rei∞ Bedingung f¨ he) Ist eine Reihe k=1 ak konvergent, dann ist limk→∞ ak = 0. Eine Reihe kann also nur konvergieren, wenn die Zahlen, die man aufsummiert, gegen null konvergieren. Beweis Die Aussage folgt direkt aus dem Cauchy-Kriterium, indem man dort m = n w¨ahlt: Ist die Reihe konvergent,so existiert zu jedem ε > 0 eine n ur alle n > n0 gilt: | k=n ak | = |an − 0| < ε. Das ist Stelle n0 ∈ N, so dass f¨ aber gerade die Definition einer Nullfolge.  ∞ k ur |q| ≥ 1, da Die geometrische Reihe k=0 q (siehe (10.1)) divergiert f¨ keine Nullfolge ist. (q k )∞ k=1



! Achtung

 ∞ Die harmonische Reihe, die u ¨ber die Nullfolge k1 k=1 gebildet ist, beweist, dass diese Bedingung nicht hinreichend ist. Es gibt also Nullfolgen, deren Reihen nicht konvergieren. Daher ben¨otigt man geeignete Konvergenzkriterien, von denen wir einige im Folgenden diskutieren.

Satz 10.4 (Konvergenz bei nicht-negativen Summanden) Sei eine aquinicht-negative Folge (ak )∞ k=1 gegeben, d. h. ak ≥ 0, k ∈ N. Dann sind ¨ valent: ∞ a) Die Reihe k=1 ak ist konvergent. n ∞ b) Die Folge der Partialsummen (sn )∞ n=1 = ( k=1 ak )n=1 ist nach oben ur alle n ∈ N. beschr¨ankt, d. h., es existiert ein M ∈ R, so dass sn ≤ M f¨ Beweis Aus a) folgt b), da konvergente Folgen beschr¨ ankt sind (siehe Satz 9.1 b)). Aus b) und der Voraussetzung ak ≥ 0 folgt a), da die Folge der Partialsummen monoton steigend und beschr¨ankt – und damit nach Satz 9.3 konvergent – ist.  Wir haben ¨ber das Cauchy-Kriterium gezeigt, dass die harmonische ∞ bereits u Reihe k=1 k1 nicht konvergent ist. Da k1 ≥ 0 ist, bleibt nach Satz 10.4 nur der Schluss, dass die Folge der ankt ist. Wegen ∞Partialsummen nicht beschr¨ der Monotonie der Folge ist k=1 k1 = ∞.

281

10.4. Absolute Konvergenz

10.4 Absolute Konvergenz Reihen, die u ¨ber eine Folge mit nicht-negativen Gliedern gebildet werden, verhalten sich besonders einfach, da es bei der Summation keine Ausl¨ oschungen durch wechselnde Vorzeichen gibt. Das macht man sich auch f¨ ur Reihen u ¨ber Folgen mit wechselndem Vorzeichen zunutze: ∞ Definition 10.2 (Absolute Konvergenz) Eine Reihe k=1 ∞ak heißt genau dann absolut konvergent, wenn die zugeh¨ orige Reihe k=1 |ak | konvergiert. Insbesondere ist jede konvergente Reihe mit nicht-negativen Gliedern absolut konvergent. Satz 10.5  (Absolute Konvergenz bedeutet insbesondere Konver∞ genz) Ist k=1 ak eine absolut konvergente Reihe, so ist sie auch konvergent. ∞ Beweis Die absolute Konvergenz bedeutet, dass k=1 |ak | konvergent ist, ur d. h., nach Cauchy-Kriterium existiert zu jedem ε > 0 ein n0 ∈ N, so dass f¨ alle m ≥ n > n0 gilt:   m m      |ak | < ε. |ak | =    k=n

k=n

Damit ist aber auch die Cauchy-Bedingung   m m      |ak | < ε ak  ≤    k=n

f¨ ur die Reihe

∞

k=n

ak erf¨ ullt, und die Reihe ist konvergent.  ∞ Die Umkehrung gilt nicht, die Reihe k=1 (−1)k k1 wird sich als konvergent erweisen (siehe Satz 10.11). Gehen wir aber zu den Betr¨ agen u ¨ber, erhalten wir die divergente harmonische Reihe, d. h., die Reihe ist nicht absolut konvergent. Positive und negative Summanden k¨onnen sich geeignet ausl¨ oschen. ¨ Diesen Effekt verliert man beim Ubergang zu Betr¨ agen. Absolute Konvergenz ist also ein strengerer Begriff als nur Konvergenz. Ist eine Reihe (sogar) absolut konvergent, so ist sie sehr umg¨ anglich. Man kann z. B. ihre Glieder umsortieren, ohne dass sich der Grenzwert ¨ andert. Es scheint etwas u ¨berraschend, dass sich ein Grenzwert durch Umsortieren a¨ndern kann. Schließlich gilt das Kommutativgesetz f¨ ur die Addition von endlich vielen Zahlen. Dieses gilt aber nicht mehr, wenn man unendlich viele k=1

282

Kapitel 10. Zahlen-Reihen

Zahlen addiert. Das haben wir bereits bei der Reihe Ein anderes Beispiel ist

∞

k=1 (−1)

k+1

gesehen.

Beispiel 10.5 ∞ (Umordnung einer nicht absolut konvergenten Reihe) Die Reihe k=1 (−1)k k1 ist, wie wir sp¨ater noch sehen werden, konvergent, 1 die Summanden mit aber nicht absolut konvergent. Es seien ak := − 2k−1 1 ungradzahligem := 2k die mit gradzahligem Index. Als  harmonische ∞ und bk ∞ n Reihe ist k=1 bk = 12 k=1 k1 = ∞. Sei M := 1 + limn→∞ k=1 (−1)k k1 . Wenn wir nun die ak und bk zu einer neuen Reihe umsortieren, indem wir als ahlen, bis deren Summe gr¨ oßer Glieder zun¨achst so lange bk fortlaufend ausw¨ achste Partialsumme als M + 1 ist, dann das n¨achste ak w¨ahlen, so ist die n¨ oßer M + 1 gr¨oßer als M . Dann w¨ahlen wir so lange bk , bis die Summe gr¨ ist und f¨ ugen dann das n¨achste ak hinzu. Die Gesamtsumme ist nun immer noch gr¨oßer als M . Da die Reihe der bk gegen ∞ divergiert, kann man so unendlich fortfahren. Der Grenzwert der resultierenden Reihe, falls er existiert, ist gr¨oßer oder gleich M . Somit hat die umsortierte Reihe ein anderes Grenzwertverhalten als die Ausgangsreihe, deren Grenzwert mindestens um den Wert 1 kleiner ist. Solche erstaunlichen Ph¨anomene gibt es mit absolut konvergenten Reihen nicht. Außerdem kann man zwei absolut konvergente Reihen in geeigneter Weise zu einer Produktreihe multiplizieren (Cauchy-Produkt), so dass der Grenzwert das Produkt der einzelnen Grenzwerte ist. Das folgt mit dem bei absolut konvergenten Reihen erlaubten Umsortieren der Summanden (vgl. [de Jong(2012), S. 134]): ∞ Satz 10.6 (Konvergenz des Cauchy-Produkts ∗ ) Sind k=0 ak und  ∞ k=0 bk absolut konvergente Reihen, dann ist auch die Produktreihe ∞ k=0 ck mit k  al bk−l ck := l=0

absolut konvergent. Ihr Grenzwert ist das Produkt der Grenzwerte der beiden Ausgangsreihen. Das Cauchy-Produkt ist (mit Hinblick auf die sp¨ ater noch einzuf¨ uhrenden Potenzreihen) den Koeffizienten nachempfunden, die beim Produkt von Polynomen entstehen. Damit man die Summanden direkt den Koeffizienten der Polynome zuordnen kann, haben wir hier die Reihen mit dem Index 0 begonnen. (a0 + a1 x + a2 x2 ) · (b0 + b1 x + b2 x2 ) = a0 b0 + (a0 b1 + a1 b0 )x + (a0 b2 + a1 b1 + a2 b0 )x2 + R

283

10.5. Konvergenzkriterien f¨ ur Reihen

=

0 

' al b0−l +

l=0

1 

( al b1−l

' x+

l=0

2 

( al b2−l

x2 + R

l=0

= c0 + c 1 x + c 2 x 2 + R mit R = (a1 b2 + a2 b1 )x3 + a2 b2 x4 . Man kann einzelne Koeffizienten des Produkts u ¨ber die angegebenen Summen schnell ausrechnen, ohne das Produkt der Polynome vollst¨andig auszurechnen. Beispiel 10.6 (Cauchy-Produkt ∗ ) Wir betrachten die beiden geometri∞  k  1 schen Reihen = 1−1 1 = 2 und 2 2

k=0

∞ k  1 k=0

4

=

1 1−

1 4

=

4 . 3

 k  k Mit ak = 12 und bk = 14 und dem ersten Summationsindex 0 statt 1 ergibt sich f¨ ur die mit dem Cauchy-Produkt gebildete Produktreihe n ∞   n=0 k=0

ak bn−k

n k n−k n ∞  ∞    1 1 1 · = = k 2 4 2 · 22n−2k n=0 n=0 k=0

k=0

n ∞ ∞  1  k  1 1 − 2n+1 = 2 = · 22n 22n 1−2 n=0 n=0 k=0



∞ ∞ n ∞ n n n    1 1 1 1 =− −2 +2 =− 4 2 4 2 n=0 n=0 n=0

8 4 = − +2·2= . 3 3 Dies ist aber genau das Produkt der Grenzwerte 2 und geometrischen Reihen.

4 3

der beiden einzelnen

10.5 Konvergenzkriterien f¨ur Reihen Oft ist es schwierig, die Summe einer Reihe exakt auszurechnen. Vielfach gen¨ ugt es aber v¨ollig, wenn man weiß, ob eine Reihe u ¨berhaupt konvergiert. Um einen N¨aherungswert zu berechnen, kann man dann zu einer endlichen Summe (mit ausreichend vielen Summanden) u ¨bergehen. Das gelingt nat¨ urlich nicht, wenn die Reihe gar nicht konvergiert. Daher besch¨ aftigen wir uns jetzt mit einfachen Kriterien, mit denen Konvergenz oder Divergenz einer Reihe festgestellt werden kann.

284

Kapitel 10. Zahlen-Reihen

∞ Beispiel 10.7 Ist die Reihe k=1 √1k konvergent? Wir vergleichen mit der ∞ 1 bestimmt divergenten Reihe k=1 k = ∞: Wegen √1k ≥ k1 ist n n   1 1 √ ≥ . k k k=1 k=1

n 1 f¨ ur die AusgangsDa limn→∞  k=1 k = ∞ ist, muss dies insbesondere ∞ auch ∞ 1 √1 ur α ∈ R, reihe gelten: k=1 k = ∞. Entsprechend ist k=1 kα = ∞ f¨ α ≤ 1. Mit einem Vergleich kann man nicht nur die Divergenz einer Reihe zeigen, sondern auch die Konvergenz: Satz 10.7 (Vergleichs- oder Majoranten/Minoranten-Kriterium) ∞ Gegeben sei eine Reihe k=1 ak . a) Falls es ein n 0 ∈ N, eine Konstante M > 0 sowie eine konvergente Reihe ∞ ur alle k ≥ n0 gilt (Majorante) k=1 ck gibt, so dass f¨ ∞

|ak | ≤ M ck ,

dann ist die Reihe k=1 ak absolut konvergent ∞ und insbesondere konver∞ gent. k=1 ck heißt eine Majorante von k=1 ak . b) Falls ∞ es ein n0 ∈ N, eine Konstante M > 0 sowie eine divergente Reihe ur alle k ≥ n0 gilt k=1 dk gibt, so dass f¨ |ak | ≥ M dk ≥ 0, ∞ ∞ dann ist die Reihe  k=1 |ak | ebenfalls divergent, d. h., k=1 ak ist nicht  ∞ ∞ absolut konvergent. k=1 dk heißt eine Minorante von k=1 ak . Beweis Der Beweis basiert auf der Cauchy-Bedingung und dem Vergleich mit der Majorante: ∞ ullt sie a) Da die Reihe k=1 ck nach Voraussetzung konvergent ist, erf¨  die ε ε > 0 existiert ein n = n Cauchy-Bedingung, d. h., zu jedem  1 1 M ∈ N, M m m ε so dass f¨ ur alle m ≥ n > n1 gilt: | k=n ck | = k=n ck < M . F¨ ur m ≥ n > max{n0 , n1 } gilt damit: m  k=n

|ak | ≤ M

m  k=n

ck < M

ε = ε. M

∞ Damit ist aber die Cauchy-Bedingung auch f¨ ur die Reihe k=1 |ak | erf¨ ullt, ∞ die also konvergent ist, d. h., k=1 ak ist absolut konvergent.

285

10.5. Konvergenzkriterien f¨ ur Reihen

∞ 1 b) Nach Voraussetzung ist 0 ≤  dk ≤ M |ak |. W¨ are nun k=1 |ak | konver∞ – im Widerspruch zur gent, so w¨are nach a) auch k=1 dk konvergent ∞ Voraussetzung der Divergenz. Also muss k=1 |ak | divergent sein.  Um mit diesem Satz die Konvergenz oder Divergenz einer Reihe zu zeigen, ben¨otigt man geeignete Reihen zum Vergleich. Mit der harmonischen Reihe kann man gut Divergenz zeigen. Zum Nachweis von ist eine der ∞Konvergenz k q f¨ u r |q| < 1 (siehe prominentesten Reihen die geometrische Reihe k=1 (10.2)). Beispiel 10.8 Wir untersuchen die Konvergenz von

∞  k=1

1 k2

= 1 + 14 + 19 + . . .

ur k ≥ 2 folgt mit dem Majorantenkriterium. Aus k 2 ≥ k(k − 1) > 0 f¨   1 1  = 1 ≤ .  k2  k2 k(k − 1) Damit haben wir wegen n  k=2

n−1 n−1   1 1 1 1 1 = = − =1− k(k − 1) k(k + 1) k k+1 (n − 1) + 1 k=1

k=1

eine Majorante mit Grenzwert 1 (vgl. 10.3). Somit ist auch ∞ konvergente 1 konvergent. Wir erhalten so zwar nicht den Grenzwert, k¨ onnen ihn 2 k=1 k aber absch¨atzen: n n   1 1 1 ≤ 2. = 1 + ≤1+1− 2 2 k k (n − 1) + 1

k=1

k=2

∞ uber hinaus k=1 k1m ≤ 2 gezeigt. F¨ ur m ≥ 2 haben wir wegen k1m ≤ k12dar¨ ∞ 1 , siehe (14.21) auf Es gilt sogar f¨ ur α ∈ R mit α > 1: k=1 k1α ≤ 1 + α−1 Seite 423. Dagegen ist die Reihe f¨ ur α ≤ 1 divergent, siehe Beispiel 10.7. Beispiel 10.9 Wegen ∞  k=1

1 (k+1)(k+3)



1 k2

konvergiert die Zahlenreihe

1 1 1 1 = + + + ... (k + 1)(k + 3) 2·4 3·5 4·6

nach dem Vergleichskriterium. Mit dem Vergleichskriterium k¨onnen wir allenfalls den Grenzwert einschr¨anken. Um ihn auszurechnen, hilft die Partialbruchzerlegung des Summanden ak :

1 (k + 3) − (k + 1) 1 1 1 1 = · = − . ak = (k + 1)(k + 3) 2 (k + 1)(k + 3) 2 k+1 k+3

286

Kapitel 10. Zahlen-Reihen

Mit dieser Partialbruchzerlegung k¨onnen wir die Partialsumme sn als Teleskopsumme schreiben und ausrechnen: n

1 1 1 1 = − sn = (k + 1)(k + 3) 2 k+1 k+3 k=1 k=1 





1 1 1 1 1 1 1 − + − + − + ... = 2 2 4 3 5 4 6



1 1 1 1 − + − ··· + n n+2 n+1 n+3   1 1 1 1 1 + − − . = 2 2 3 n+2 n+3 n 

Da sich fast alle Summanden aufheben, bleiben zu den Indizes k = 1 und k = 2 nur die Summanden 12 und 13 bzw. zu den Indizes k = n − 1 und k = n 1 1 und − n+3 u ur n → ∞ streben diese gegen nur die Summanden − n+2 ¨brig. F¨ null, so dass gilt ∞  k=1

  5 1 1 1 1 = lim sn = + = . n→∞ (k + 1)(k + 3) 2 2 3 12

Beispiel 10.10 (Dezimalbruchdarstellung der reellen Zahlen) Der Dezimalbruch ±x0 , x1 x2 x3 x4 . . . mit x0 ∈ N0 und k ∈ {0,  1, 2, . . . , 9} als x∞ xk eiNachkommastellen ist als Grenzwert der Reihe ± k=0 10k tats¨ ∞achlich xk ne reelle Zahl. Denn wegen |xk | ≤ 9 f¨ ur k ∈ N hat die Reihe k=1 die k  10 k xk  konvergente geometrische Reihe f¨ ur q = 10−1 als Majorante:  10 ≤ 9q . k Streng genommen haben wir auf Seite $57 den Wert eines positiven De% n xk erkl¨ a rt. Die : n ∈ N zimalbruchs mittels Supremum u ¨ber sup 0 k k=0 10 Reihe ist nun aber eine monoton wachsende Folge. Da sie konvergiert, ist sie auch beschr¨ankt. Ihr Grenzwert ist nach dem Beweis des Monotoniekriteriums Satz 9.3 das Supremum der Wertemenge der Folge der Partialsummen. Daher ist die Definition u ur ¨ber das Supremum nur eine andere Schreibweise f¨ den Grenzwert der Reihe. Jeder Dezimalbruch ist eine reelle Zahl. Umgekehrt stellt sich noch die Frage, ob auch jede reelle Zahl x eine Darstellung als Dezimalbruch besitzt. Dazu verwenden wir eine Intervallschachtelung. Zur Vereinfachung der Schreibweise sei x > 0. Zun¨achst gibt es eine nat¨ urliche Zahl x0 ∈ N0 mit ankt und damit endlich, x0 ≤ x < x0 + 1, denn {n ∈ N0 : n ≤ x} ist beschr¨ so dass es ein Maximum x0 gibt. Entsprechend findet man eine erste Nachkommastelle x1 ∈ {0, 1, . . . , 9} mit x0 + x101 ≤ x < x0 + x101 + 0,1. Setzt man diese Konstruktion fort, so erh¨alt man eine Intervallschachtelung   n  n+1 n  xk n+1  xk  xk  1 1 xk , + n+1 ⊆ , + n . 10k 10k 10 10k 10k 10 k=0

k=0

k=0

k=0

287

10.5. Konvergenzkriterien f¨ ur Reihen

In jedem der Intervalle liegt die Zahl x. Da der Durchmesser der Intervalle gegen null strebt, ist diese nach Satz 9.6 auch die einzige gemeinsame Zahl in allen Intervallen, gegen die außerdem die Folge der unteren Intervallr¨ ander konvergiert. Das ist aber gerade die Reihe einer Dezimalbruchdarstellung. Beispiel 10.11 (Z-Transformation) Gegeben sei eine Folge (ak )∞ k=0 , die ur von k unabh¨ angige Konstanten einer Wachstumsbedingung |ak | ≤ Cαk f¨ ∞ C und α > 0 gen¨ ugt. Aus der Folge kann man mittels der Reihe k=0 ak z1k eine Funktion mit der Variablen z generieren. F¨ ur jeden Zahlenwert z erh¨ alt man eine andere Reihe. Die Funktion ist f¨ ur die Werte von z definiert, f¨ ur die die Reihe konvergiert. Die Abbildung der Folge auf die angegebene Funktion heißt Z-Transformation, die Funktion heißt die Z-Transformierte der Folge. Die Z-Transformation weist f¨ ur Folgen von Zahlen ¨ ahnliche Eigenschaften auf wie die in Band 2, Kapitel 13, behandelte Laplace-Transformation f¨ ur Funktionen, siehe z. B. [Goebbels(2014)]. Beide Transformationen werden in der Modellbildung und Simulation z. B. zur Beschreibung von Regelungssystemen eingesetzt, wobei sich die Laplace-Transformation f¨ ur zeitkontinuierliche und die Z-Transformation f¨ ur zeitdiskrete, abgetastete Werte eignet.   k  Wegen der Wachstumsbedingung ist ak z1k  ≤ C  αz  . Verlangen wir α |z| > α, so ist  z  < 1. Damit liegt eine konvergente geometrische Reihe als Majorante vor. Die Z-Transformierte der Folge ist also in jedem Fall f¨ ur Werte |z| > α erkl¨art. Wir berechnen als Beispiel die Z-Transformation der monoton wachsenden ur k ∈ N0 . Da |ak+2 | = Fibonacci-Folge a0 = 0, a1 = 1, ak+2 = ak + ak+1 f¨ ak + ak+1 ≤ 2ak+1 ist, erh¨alt man durch Iteration |ak+2 | ≤ 2k+1 a1 = 12 2k+2 . ullt damit Außerdem ist |a0 | = 0 < 21 20 und |a1 | = 1 = 12 21 . Die Folge erf¨ die Wachstumsbedingung mit C = 12 und α = 2. Die Z-Transformierte A(z) ist daher f¨ ur |z| > 2 u art. Wir berechnen nun ¨ber eine konvergente Reihe erkl¨ eine explizite Darstellung von A(z). F¨ ur die Transformierte der (verschobenen) Folge (ak+1 )∞ k=0 , die eine Wachstumsbedingung mit C = 1 und α = 2 erf¨ ullt, ist   ∞ ∞ ∞    1 1 1 ak+1 k = z ak+1 k+1 = z −a0 + ak k z z z k=0

k=0

k=0

= −a0 z + zA(z) = zA(z). Diese Transformierte existiert ebenfalls f¨ ur |z| > 2. Entsprechend gilt f¨ ur die um zwei Glieder verschobene Folge (ak+2 )∞ k=0 , die eine Wachstumsbedingung mit C = 2 und α = 2 erf¨ ullt:   ∞ ∞ ∞   a1  1 1 1 2 2 + ak+2 k = z ak+2 k+2 = z −a0 − ak k = −z + z 2 A(z), z z z z k=0

k=0

k=0

wobei auch diese Darstellung wieder f¨ ur |z| > 2 erkl¨ art ist.

288

Kapitel 10. Zahlen-Reihen

Damit erhalten wir durch Transformation beider Seiten der Definitionsur |z| > 2: gleichung ak+2 = ak + ak+1 f¨ −z+z 2 A(z) = A(z)+zA(z) ⇐⇒ (z 2 −z−1)A(z) = z ⇐⇒ A(z) =

z . z2 − z − 1

Hier haben wir ausgenutzt, dass konvergente Reihen gliedweise addiert wer√ den d¨ urfen (Satz 10.1). Die Nullstellen 1±2 5 des Nenners liegen in [−2, 2], die positive ist der goldene Schnitt (siehe Seiten 64, 265). Das Vergleichskriterium kann sich in den Anwendungen als etwas sperrig erweisen, da man eine konvergente Majorante finden muss. Daher werden aus diesem Kriterium nun einige weitere abgeleitet, die auf g¨ angige Situationen besser zugeschnitten sind. Durch Vergleich mit der geometrischen Reihe beweist man das wichtige Quotientenkriterium von D’Alembert, der uns bereits als Entdecker des Fundamentalsatzes der Algebra (Satz 5.1 auf Seite 168) begegnet ist:

Satz 10.8 (Quotientenkriterium f¨ ur eine Reihe) Sei Reihe mit ak = 0, k ∈ N. Weiter m¨oge der Grenzwert    ak+1    r := lim  k→∞ ak 

∞

k=1

ak eine

existieren, dann gilt:

∞ a) Falls r < 1 ist, ist k=1 ak absolut konvergent und insbesondere konvergent. ∞ b) Falls r > 1 ist, ist k=1 ak divergent. Damit eine Reihe konvergieren kann, muss sie u ¨ber eine Nullfolge (ak )∞ k=1 gebildet sein. Wir haben dann die (etwas unpr¨ azise) Vorstellung,  dass |ak |   im Wesentlichen monoton fallend ist, dass also in der Regel  aak+1  < 1 ist. k Wenn nun der Grenzwert r dieses Quotienten nicht nur kleiner oder gleich eins, sondern sogar echt kleiner eins ist, dann f¨ allt |ak | schnell genug, um  die   Konvergenz der Reihe zu erreichen. W¨are sogar ohne Grenzwert r =  aak+1  k konstant f¨ ur alle Werte k ∈ N, so w¨are unter Verwendung eines Teleskopprodukts       ak   ak−1      · · ·  a2  |a1 | = rk−1 |a1 |, |ak | =      a1  ak−1 ak−2 und die Reihe w¨are bis auf einen konstanten Faktor |a1 | eine geometrische Reihe. Im Beweis m¨ ussen wir lediglich noch den Grenzwert ber¨ ucksichtigen.

289

10.5. Konvergenzkriterien f¨ ur Reihen



! Achtung

Erfahrungsgem¨aß bereitet das Hinschreiben des Ausdrucks aak+1 f¨ ur eine konk krete Folge Schwierigkeiten. Im Z¨ahler muss man jedes Auftreten von k bei der Berechnung des Folgenglieds durch k + 1 ersetzen, ist z. B. ak = sin(k) k2 , sin(k+1) so ist ak+1 = (k+1)2 . Eine weitere Schwierigkeit ist, dass wir neben dem ∞ Grenzwert der Folge (ak )∞ k=1 und dem Grenzwert der Reihe k=1 ak nun einen weiteren Grenzwert r betrachten. Dabei ist r lediglich eine Kennzahl im Rahmen des Kriteriums, r ist in der Regel nicht Grenzwert der Reihe. Beweis a) Falls r < 1 ist, gibt es nach Definition des Grenzwerts  zu einem   ur alle k ≥ n0 gilt:  aak+1 fest gew¨ahlten α ∈]r, 1[ ein n0 ∈ N, so dass f¨  < α. k Damit ist f¨ ur k ≥ n0 :       ak   ak−1   an0 +1      |an | ≤ αk−n0 |an | ≤ |an0 | αk .   |ak | =  ··· 0    n0 ak−1 ak−2 an0  0 α =:M

∞

Da die geometrische Reihe k=1 αk f¨ ur dieses 0  < α < 1 konvergiert, gilt ∞ dies laut Vergleichskriterium auch f¨ ur die Reihe k=1 |ak |. b) Da r > 1 ist, existiert nach Definition des Grenzwerts ein n0 ∈ N, so dass f¨ ur alle k ≥ n0 gilt:    ak+1     ak  ≥ 1. Damit ist aber |ak+1 | ≥ |ak | ≥ · · · ≥ |an0 |. Nach Voraussetzung ist zudem ∞ Damit ist (|ak |)∞ |an0 | = 0.  k=1 und somit auch (ak )k=1 keine Nullfolge – ∞  die Reihe k=1 ak divergiert wegen Satz 10.3. H¨ tten wir das Kriterium nicht durch Vergleich mit der geometrischen Reihe a∞ k onnten wir umgekehrt mit ihm deren Konvergenz f¨ ur |q| < k=1 q gezeigt, k¨ 1 beweisen. Beispiel  10.12 a) Wir haben bereits auf Seite 260 m¨ uhsam gezeigt, dass die ∞ 1 konvergiert, so dass wir die Zahl e u Reihe k=0 k! ¨ber ihren Grenzwert definieren konnten. Mit dem Quotientenkriterium ist der Konvergenznach1 > 0 ist weis einfacher: Mit ak = k!    ak+1   = lim r := lim  k→∞ ak  k→∞

1 (k+1)! 1 k!

= lim

k→∞

1 k! = lim = 0 < 1. (k + 1)! k→∞ k + 1

Das Quotientenkriterium eignet sich besonders gut, wenn in der Reihe Fakult¨aten auftreten. Durch die Division k¨ urzen sich diese weitgehend weg. Fakult¨aten hat man z. B. bei Potenzreihen (siehe Kapitel 16). ∞ k b) Die Reihe k=1 2k ist divergent, da

290

Kapitel 10. Zahlen-Reihen

 k+1   2 2k+1 k k   = 2 > 1. lim  k+1 = 2 · lim = lim  k  k→∞ (k + 1)2k k→∞  2 k→∞ k + 1 k

Auchohne ∞ das Quotientenkriterium erkennt man die Divergenz daran, 2k dass k keine Nullfolge ist. k=1 ∞  k! = 1 + 22!2 + 33!3 + 44!4 + . . . auf absolute c) Wir untersuchen die Reihe kk k=1

(k+1)! alt man durch K¨ urzen der Konvergenz. Mit ak = kk!k , ak+1 = (k+1) k+1 erh¨ Fakult¨aten bei der Berechnung des Grenzwerts aus Satz 10.8 f¨ ur k → ∞

   ak+1  (k + 1)! k k    ak  = (k + 1)k+1 k! 1 (9.8) = →  k 1 + k1

Wegen

1 e

=

(k + 1) k k = (k + 1)k+1 1



k k+1

k

1 . e

< 1 folgt die absolute Konvergenz der Reihe.

Im Fall r = 1 ist eine einfache Aussage zur Konvergenz oder Divergenz nicht m¨oglich. Hier versagt Quotientenkriterium. W¨ ahrend f¨ ur die diverdas ∞ gente harmonische Reihe k=1 k1 gilt: 1 k+1 k→∞ 1 k

r = lim

k = 1, k→∞ k + 1

= lim

∞ ist die Reihe k=1 k12 konvergent bei r = 1. Das haben wir bereits mit einer konvergenten Majorante bewiesen, l¨asst sich aber auch mit dem Quotientenvergleichskriterium zeigen: Satz 10.9 (Quotientenvergleichskriterium ∗ ) Seien ak , bk > 0 f¨ ur alle k ≥ n0 . ∞ a) Ist k=1 bk konvergent und gilt f¨ ur alle k ≥ n0 bk+1 ak+1 ≤ , ak bk ∞ dann k=1 ak konvergent. ist ∞ ur alle k ≥ n0 b) Ist k=1 bk divergent und gilt f¨ bk+1 ak+1 ≥ , ak bk dann ist

∞

k=1

ak divergent.

10.5. Konvergenzkriterien f¨ ur Reihen

291

Beweis a) F¨ ur k ≥ n0 ist 0
0 und da k(k + 2) = k 2 + 2k < k 2 + 2k + 1 = (k + 1)2 : k k(k + 1) bk+1 k2 k2 ak+1 = = = = < . 2 ak (k + 1) k(k + 2) k+2 (k + 1)(k + 2) bk Ebenfalls auf einem Vergleich basiert das Wurzelkriterium: ∞ Satz 10.10 (Wurzelkriterium) Sei k=1 ak eine Reihe, bei der r :=  k limk→∞ |ak | existiert. ∞ a) Ist r < 1, so ist die Reihe k=1 ak absolut konvergent und insbesondere konvergent. ∞ b) Ist r > 1, so ist die Reihe k=1 ak divergent. Auch dieses Kriterium pr¨ uft, ob die Folge (|ak |)∞ k=1 schnell genug gegen null strebt. Wie das Quotientenkriterium wird es sp¨ ater bei Potenzreihen (siehe Kapitel 16) wichtig. W¨are ohne Grenzwert bereits r = k |ak | konstant, also urden wir unmittelbar eine geometrische Reihe untersuchen. |ak | = rk , so w¨ Im Beweis ber¨ ucksichtigen wir zus¨atzlich den Grenzwert. Beweis a) Wir beweisen auch diese Aussage wie angek¨ undigt durch Vergleich mit der geometrischen Reihe: Zu einem beliebig gew¨ ahlten β ∈]r, 1[ ur alle k > n0 gilt: |ak |1/k < β, d. h. |ak | < β k . existiert ein n0 ∈ N, so dass f¨ ∞ Damit ist die geometrische Reihe k=1 β k eine konvergente Majorante. ∞ b) Wir zeigen, dass (ak )k=1 keine Nullfolge ist, so dass auch die Reihe nicht konvergieren kann: Da limk→∞ |ak |1/k = r > 1 ist, existiert ein n0 ∈ N, so  dass f¨ ur alle k ≥ n0 gilt: |ak |1/k ≥ 1, also |ak | ≥ 1.

292

Kapitel 10. Zahlen-Reihen

Sind sowohl das Quotientenkriterium (Satz 10.8) als auch das Wurzelkriterium anwendbar, so sind die in den Kriterien zu berechnenden Grenzwerte gleich. Das sieht man z. B. ohne zus¨atzlichen Beweis mittels der noch folgenden Formel von Cauchy-Hadamard (Satz 16.5, Seite 473) und der Eindeutigkeit des Konvergenzradius einer Potenzreihe (Satz 16.4, Seite 471). Allerdings handelt es sich bei diesen Grenzwerten um Hilfsgr¨ oßen, die in der Regel nicht dem Grenzwert der Reihe entsprechen! ∞  k Beispiel 10.14 Die Reihe k=1 k2 ist konvergent, denn   k 2 k limk→∞ = limk→∞ k2 = 0 < 1. k Im Fall r = 1 ist keine allgemeine Aussage m¨ oglich. Auch hier betrachten  ∞ 1 wir wieder die divergente harmonische Reihe k=1 k und die konvergente ∞ 1 Reihe k=1 k2 . Bei beiden ist r = 1 (Nachrechnen gelingt mit dem Satz von L’Hospital, siehe Kapitel 13.3). W¨ahrend sich bei Anwendung des Quotientenkriteriums Fakult¨ aten regelm¨aßig wegk¨ urzen, ist das Ziehen der k-ten Wurzel aus einer Fakult¨ at schwierig. Dazu ben¨otigt man als Hilfsmittel die Stirling’sche Formel (14.22), die wir auf Seite 423 kennenlernen. Quotienten- und Wurzelkriterium untersuchen eine Reihe auf absolute Konvergenz. Sie erfassen nicht, ob sich Summanden durch Vorzeichenwechsel aufheben. Das wichtigste Kriterium, das dies ber¨ ucksichtigt, geht auf Gottfried Wilhelm Leibniz (1646–1716) zur¨ uck, der als einer der letzten Universalgelehrten gilt. Nach ihm ist auch der gleichnamige Keks benannt. Satz 10.11 (Leibniz-Kriterium) Ist (ak )∞ k=1 eine monoton fallende Null≥ 0 f¨ u r alle k ∈ N), dann ist die (alternierende) Reihe folge (und damit a k ∞ k (−1) a konvergent. k k=1 k Dagegen wird h¨ aufig Hier wird eine alternierende Folge (−1) ∞ ak aufsummiert. das Leibniz-Kriterium f¨ ur Reihen k=1 (−1)k+1 ak formuliert. Die Multiplikation der Reihe mit −1 ¨andert nichts an der Konvergenz der Reihe. Das Leibniz-Kriterium ist ein Spezialfall des allgemeineren Dirichlet-Kriteriums. Einer der Autoren m¨ochte an dieser Stelle aus Lokalpatriotismus erw¨ ahnen, dass Dirichlet (1805–1859) aus D¨ uren stammte und damit ein bedeutender Mathematiker aus dem Rheinland war. n k Beweis Sei sn := k=1 (−1) ak . Wir betrachten Teilfolgen zu ungeraden und zu geraden Indizes:

• (s2n−1 )∞ achst monoton: n=1 w¨

s2n+1 = s2n−1 +(−1)2n a2n +(−1)2n+1 a2n+1 = s2n−1 +a2n −a2n+1 ≥ s2n−1 , da a2n ≥ a2n+1 aufgrund der Monotonie der Folge (ak )∞ k=1 ist.

293

10.5. Konvergenzkriterien f¨ ur Reihen

• (s2n )∞ allt monoton: s2n+2 = s2n − a2n+1 + a2n+2 ≤ s2n , da a2n+1 ≥ n=1 f¨ a2n+2 wieder aufgrund der Monotonie gilt. ur alle n ∈ N: s2n = s2n−1 + a2n ≥ s2n−1 , da a2n ≥ 0 nach • s2n−1 ≤ s2n f¨ Voraussetzung. Anders ausgedr¨ uckt: Die Intervalle In := [s2n−1 , s2n ] bilden eine Intervallschachtelung In ⊆ In−1 ⊆ In−2 ⊆ · · · ⊆ I1 . F¨ ur die L¨ange der Intervalle gilt: limn→∞ (s2n − s2n−1 ) = limn→∞ a2n = 0. Aufgrund der Vollst¨andigkeit der reellen Zahlen existiert ein s ∈ R, das in allen Intervallen enthalten ist (siehe Satz 9.6) und f¨ ur das insbesondere gilt: lim s2n = s = lim s2n−1 .

n→∞

n→∞

Gegen diesen Grenzwert s konvergiert dann aber auch die Folge (sn )∞ n=1 , die aus den beiden Teilfolgen gebildet wird; die Reihe ist also konvergent.  Insbesondere haben wir eine Fehlerabsch¨atzung bewiesen. Da s ∈ In bzw. s2n−1 ≤ s ≤ s2n gilt, ist 0 ≤ s2n − s ≤ s2n − s2n−1 = a2n und 0 ≤ s − s2n−1 ≤ ur die Restsummen: s2n − s2n−1 = a2n ≤ a2n−1 . Mit anderen Worten“ gilt f¨ ”  ∞       (−1)k ak  = |sm − s| ≤ am .    k=m+1

∞ Beispiel 10.15 a) Die alternierende harmonische Reihe k=1 (−1)k k1 kon 1 ∞ allt. Es gilt die Fehlerabsch¨ atvergiert, da die Nullfolge k k=1 monoton f¨ zung   n ∞  1  1  1  (−1)k  ≤ .  (−1)k −   k k n k=1

k=1

b) Wir zeigen, dass die alternierende Reihe ∞ 

(−1)k ·

k=1

k+7 k2

u achst ¨ber eine monotone Nullfolge gebildet und damit konvergent ist. Zun¨ 7 7 k(1+ k 1+ k ) = lim = lim = 0, und ist limk→∞ |ak | = limk→∞ k+7 k→∞ k→∞ k k2 k·k f¨ ur die Betr¨age aufeinander folgender Glieder der Reihe erh¨ alt man   7 7 (k + 1) 1 + k+1 1 + k+1 1 + k7 (k + 1) + 7 ≤ = = |ak+1 | = (k + 1)2 (k + 1)2 k+1 k+1 7 1+ k ≤ = |ak |, k d. h., (|ak |)∞ k=1 ist eine monotone Nullfolge, und die Reihe ist konvergent.

294

Kapitel 10. Zahlen-Reihen

Literaturverzeichnis Goebbels(2014). Goebbels, St.: Mathematik der Z-Transformation. Technischer Bericht 2-2014 des Fachbereichs Elektrotechnik und Informatik der Hochschule Niederrhein, Krefeld, 2014, http://www.hs-niederrhein.de/fb03/. de Jong(2012). de Jong, T.: Analysis in einer Ver¨ anderlichen. Pearson, M¨ unchen, 2012.

Kapitel 11

Grenzwerte von Funktionen und Stetigkeit ∞ Bei Folgen (an )∞ ur n=1 und Reihen (sn )n=1 hat uns das Verhalten der Glieder f¨ n → ∞ interessiert. Bei Funktionen f kann man entsprechend diskutieren, was f¨ ur x → ∞ passiert. Ebenso kann man jetzt aber auch x → −∞ und sogar das Grenzwertverhalten an einzelnen Stellen des Definitionsbereichs analysieren: Was passiert mit den Funktionswerten zu Argumenten x, wenn ur x → x0 . Wenn die Funktionswerte man sich einer Stelle x0 n¨ahert, also f¨ f (x) gegen den Funktionswert f (x0 ) streben, dann werden wir von Stetigkeit an der Stelle x0 sprechen. Bei der Ann¨aherung an x0 kommt es zu keinen ¨ Uberraschungen. Ein solch kontrolliertes Verhalten ist in vielen Anwendungen sehr wichtig und f¨ uhrt in der Mathematik dazu, dass, sofern es f¨ ur alle Stellen x0 eines Intervalls vorliegt, Funktionsgraphen dort durchgezeichnet werden k¨onnen. Es ist auch die Voraussetzung, um sinnvoll mit einzelnen abgetasteten Funktionswerten wie in der Digitaltechnik rechnen zu k¨ onnen. In diesem Kapitel u bertragen wir Grenzwerte von Folgen auf Funktionen. ¨ Dann definieren wir die Stetigkeit und sehen uns Eigenschaften stetiger Funktionen wie den Zwischenwertsatz an.

¨ 11.1 Umgebungen und Uberdeckungen Um Eigenschaften von Funktionen an einer Stelle x0 ∈ R ihres Definitionsbereichs untersuchen zu k¨onnen, m¨ ussen die Funktionen auch noch ein St¨ uckchen rechts und (oder) links davon definiert sein. Wenn wir z. B. wis-

© Der/die Autor(en), exklusiv lizenziert an Springer-Verlag GmbH, DE, ein Teil von Springer Nature 2023 S. Goebbels und S. Ritter, Mathematik verstehen und anwenden: Differenzial- und Integralrechnung, Lineare Algebra, https://doi.org/10.1007/978-3-662-68367-5_11

295

296

Kapitel 11. Grenzwerte von Funktionen und Stetigkeit

sen, wie weit zu jedem Zeitpunkt 11:00 Uhr ≤ t < 12:00 Uhr ein Zug vom Bahnhof entfernt ist, dann k¨onnen wir aus diesen Daten schließen, welche Distanz der Zug zum exakten Zeitpunkt 12:00 Uhr zum Bahnhof hat, obwohl der Funktionswert nicht angegeben ist. Beschreibt die Funktion s(t) das Weg-Zeit-Diagramm des Zuges, dann werden wir seine Entfernung um 12:00 Uhr als einen Grenzwert dieser Funktion f¨ ur t gegen 12:00 Uhr (von links) erhalten. Definition 11.1 (Umgebungen) F¨ ur eine Zahl δ > 0 bezeichnet man die Menge Uδ (x0 ) :=]x0 − δ, x0 + δ[= {x ∈ R : x0 − δ < x < x0 + δ} als (offene) δ-Umgebung eines Punktes x0 . • Gibt es zu x0 ∈ D eine δ-Umgebung Uδ (x0 ) ⊆ D, so nennt man x0 einen inneren Punkt von D. In diesem Fall geh¨ ort also nicht nur x0 zu D, sondern auch noch ein St¨ uckchen rechts und links von x0 . • Entfernt man den Punkt x0 aus der Umgebung, so spricht man von einer punktierten δ-Umgebung ]x0 − δ, x0 [∪]x0 , x0 + δ[. • ]x0 − δ, x0 ] ist eine linksseitige, [x0 , x0 + δ[ eine rechtsseitige Umgebung von x0 . ]x0 − δ, x0 [ ist eine linksseitige punktierte Umgebung von x0 , ]x0 , x0 + δ[ eine rechtsseitige punktierte Umgebung. Zu jedem Punkt x ∈]a, b[ kann eine δ-Umgebung gefunden werden, die ganz in ]a, b[ liegt. F¨ ur die Punkte a und b in [a, b] ist dies nicht der Fall, hier gibt es nur einseitige Umgebungen. In Verallgemeinerung zu offenen Intervallen sagt man, dass eine Menge E ⊆ R offen heißt, falls zu jedem x ∈ E eine δ-Umgebung Uδ (x) ⊆ E existiert. Eine Menge E ⊆ R heißt abgeschlossen, falls ihr Komplement CR E := {x ∈ R : x ∈ E} offen ist, z. B. ist [a, b] abgeschlossen. Die Topologie besch¨aftigt sich als mathematische Disziplin allgemein mit offenen Mengen und f¨ uhrt diese u ost sie sich von R, siehe ¨ber ein Axiomensystem ein. Damit l¨ Hintergrundinformationen auf Seite 317. Hintergrund: Der Satz von Heine-Borel Wir behandeln in diesem Einschub einen Spezialfall des Satzes von HeineBorel f¨ ur abgeschlossene Intervalle. Dieser Satz ist f¨ ur einige Beweise von Konvergenzaussagen sehr wichtig. Den hier betrachteten Spezialfall verwenden wir beispielsweise noch, um zu zeigen, dass auf einem abgeschlossenen Intervall [a, b] stetige Funktionen (der Funktionsgraph l¨ asst sich durchzeichnen) insbesondere auch integrierbar sind (die Fl¨ ache zwischen Graph und x-Achse ist berechenbar). Der Rest dieses Einschubs ist nur f¨ ur Leser in-

¨ 11.1. Umgebungen und Uberdeckungen

297

teressant, die sich mit den sp¨ater angegebenen Beweisen auseinandersetzen m¨ochten. Satz 11.1 (Satz von Heine-Borel f¨ ur abgeschlossene Intervalle) Sei [a, b] ⊂ R und F eine (eventuell unendlich große) Menge von offenen Intervallen. [a, b] m¨oge in der Vereinigungsmenge aller dieser offenen Intervalle liegen. Man sagt, dass F das Intervall [a, b] u ¨berdeckt. Dann existiert eine endliche Teilmenge von F, so dass [a, b] auch in der Vereinigung dieser endlich vielen Intervalle liegt. Man spricht von einer endlichen Teil¨ uberdeckung von [a, b].

Man benutzt den Satz, wenn man eine Eigenschaft z. B. einer Funktion f¨ ur unendlich viele kleine offene Intervalle kennt und damit auf die Eigenschaft f¨ ur ein großes Intervall [a, b] schließen m¨ochte. Oft ist es dabei ausreichend, wenn man [a, b] (mit einer endlichen Teil¨ uberdeckung) in endlich viele Teile zerlegen kann, f¨ ur die man die Eigenschaft kennt. Der Satz ist alles andere als selbstverst¨andlich, da F sogar mehr als abz¨ ahlbar unendlich viele offene Intervalle enthalten kann. Deshalb geht der Beweis auch auf das f¨ ur R grundlegende Vollst¨andigkeitsaxiom (2.4) von Seite 55 zur¨ uck: Beweis Sei E := {x ∈ [a, b] : Es existiert eine endliche Teilmenge von F, die [a, x] u onnen, dass b ∈ E ¨berdeckt.}. Der Satz ist bewiesen, wenn wir zeigen k¨ ur [a, b] eine endliche Teil¨ uberdeckung ist, da es dann nach Definition von E f¨ gibt. Dazu verwenden wir die Vollst¨andigkeit der reellen Zahlen. Die Menge E ist nicht-leer, da ein Element von F den Punkt a u ¨berdecken muss. Damit ist a ∈ E. Außerdem ist wegen E ⊆ [a, b] die Menge E beschr¨ ankt. Damit existiert nach Axiom (2.4) S := sup E und wegen (2.6) ist S ∈ [a, b] (siehe Seite 58). Da das Supremum im Intervall [a, b] enthalten ist, wird es von einem offenen Intervall aus F u ¨berdeckt, d. h., es existieren δ1 , δ2 > 0 mit ]S−δ1 , S+δ2 [∈ F. Dieses Intervall u ¨berdeckt aber nicht nur S, sondern auch noch Punkte aus einer Umgebung von S, so dass man auch f¨ ur diese zu einer endlichen ¨ Uberdeckung gelangt: Nach Definition von S gibt es eine endliche Teilmen  ¨ ugen wir zu dieser Uberdeckung das ge von F, die a, S − δ21 u ¨berdeckt. F¨ ¨ , S + δ [ hinzu, so erhalten wir eine endliche Uberdeckung Intervall ]S − δ 1 2   oßeres Intervall von a, min{b, S + δ22 } . Nach Definition von S kann kein gr¨ als [a, S] endlich u ¨berdeckt werden. Damit kein Widerspruch entsteht, muss S = b sein, und [a, b] wird bereits von einer endlichen Teilmenge von F u ¨berdeckt.  Der Satz gilt nicht f¨ ur (einseitig) offene Intervalle. Wir betrachten 6∞ ]0, 1[ und die Menge F := {] n1 ,1[: n ≥ 2}. Offensichtlich ist ]0, 1[= n=2 ] n1 ,1[,

298

Kapitel 11. Grenzwerte von Funktionen und Stetigkeit

6m aber jede endliche Vereinigung k=1 ] n1k , 1[ besitzt ein gr¨ oßtes Element n0 ∈ 6 m / k=1 ] n1k ,1[. Das Intervall ]0, 1[ wird also nicht {n1 , . . . , nm }, so dass n01+1 ∈ vollst¨andig u ¨berdeckt.

11.2 Grenzwerte von Funktionen Wie verh¨alt sich eine Funktion, wenn man immer gr¨ oßere Werte einsetzt, also Funktionswerte f¨ ur Folgenglieder einer bestimmt divergenten Folge berechnet? Was passiert, wenn man in eine Funktion Werte einsetzt, die immer uhren zum Begriff des n¨aher bei einer Stelle x0 liegen? Diese Fragestellungen f¨ Grenzwerts f¨ ur Funktionen.

Abb. 11.1 Zur Definition des Grenzwerts limx→∞ f (x) = L

Definition 11.2 (Konvergenz einer Funktion im Unendlichen) Sei f eine Funktion von D ⊆ R in R.

• Es sei ]a, ∞[:= {x ∈ R : x > a} ⊆ D f¨ ur ein a ∈ R, d. h., f (x) ist f¨ ur alle Argumente x > a erkl¨art. Die Funktion f heißt konvergent gegen L ∈ R f¨ ur x → ∞ genau dann, wenn zu jedem (noch so kleinen) ε > 0 ein X0 = X0 (ε) ∈ R, X0 ≥ a, existiert, so dass f¨ ur alle x > X0 gilt: |f (x) − L| < ε (siehe Abbildung 11.1). L heißt dann der Grenzwert von f f¨ ur x → ∞. Schreibweise: lim f (x) = L.

x→∞

• Falls f (x) f¨ ur alle Argumente x < a erkl¨art ist und zu jedem ε > 0 ein ur alle x < X0 gilt, X0 ∈ R, X0 ≤ a, existiert, so dass |f (x) − L| < ε f¨ dann (und nur dann) heißt f konvergent gegen L ∈ R f¨ ur x → −∞. Schreibweise: limx→−∞ f (x) = L.

299

11.2. Grenzwerte von Funktionen

Ab einer Stelle X0 m¨ ussen damit also alle Funktionswerte in einem Streifen mit Radius ε um den Grenzwert L liegen. Dies entspricht genau der Definition der Folgenkonvergenz, wobei n → ∞ durch x → ∞ bzw. x → −∞ ersetzt ist und man mehr“ Funktionswerte als ” Folgenglieder zu betrachten hat. ur x → ∞ als auch f¨ ur Beispiel 11.1 Die Funktion f (x) = x1 strebt sowohl f¨ x → −∞ f¨ ur gegen 0: 1 1 = lim = 0. lim x→−∞ x x→∞ x Man schreibt hier auch kurz lim|x|→∞ x1 = limx→±∞ x1 = 0. Wir beweisen mit der Definition, dass limx→∞ x1 = 0 ist: Sei ε > 0 und ur x > X0 ist X0 := 1ε . F¨    1  − 0 = 1 < 1 = ε.  x x X0 Definition 11.3 (Bestimmte Divergenz im Unendlichen) Es sei ]a, ∞[⊆ D f¨ ur ein a ∈ R. Die Funktion f : D → R heißt bestimmt divergent gegen ∞ f¨ ur x → ∞ genau dann, wenn f¨ ur jedes (noch so große) ur alle x > X0 gilt: M > 0 ein X0 = X0 (M ) ∈ R, X0 ≥ a, existiert, so dass f¨ f (x) > M . Schreibweise: lim f (x) = ∞. x→∞

Egal, wie groß man ein M ∈ R vorgibt – ab einer Stelle X0 m¨ ussen alle Funktionswerte gr¨oßer als M sein. Auch dieser Begriff ist so formuliert wie die bestimmte Divergenz bei Folgen. Man definiert analog lim f (x) = −∞,

x→∞

lim f (x) = ∞ und

x→−∞

lim f (x) = −∞.

x→−∞

Beispiel 11.2 limx→∞ x2 = ∞, denn zu M > 0 sei X0 := ist x2 > X02 = M .



M . F¨ ur x > X0

Definition 11.4 (Konvergenz einer Funktion an einer Stelle) Sei ur ein δ0 > 0, d. h., eine f : D → R, wobei ]x0 − δ0 , x0 [ ∪ ]x0 , x0 + δ0 [⊆ D f¨ punktierte Umgebung von x0 ist im Definitionsbereich D von f enthalten, art sind. so dass Funktionswerte links und rechts von x0 erkl¨ Die Funktion f heißt konvergent gegen L ∈ R f¨ ur x → x0 genau dann, wenn zu jedem (noch so kleinen) ε > 0 ein δ = δ(ε, x0 ) > 0, δ ≤ δ0 ,

300

Kapitel 11. Grenzwerte von Funktionen und Stetigkeit

y

      ε L ε

   L

Abb. 11.2 Zur Definition des Grenzwerts limx→x0 f (x)

      δ x0

δ

x

x0

existiert, so dass f¨ ur alle x = x0 mit |x − x0 | < δ gilt: |f (x) − L| < ε. L heißt dann der Grenzwert von f f¨ ur x → x0 . Schreibweise: limx→x0 f (x) = L. Man hat genau dann Konvergenz an der Stelle x0 , wenn man f¨ ur jeden vorgegebenen Abstand ε zum Grenzwert eine kleine punktierte Umgebung von x0 findet, in der alle Funktionswerte h¨ochstens den vorgegebenen Abstand zum Grenzwert haben (siehe Abbildung 11.2). Man kommt dem Grenzwert ahert. Mit ε gibt man eine also beliebig nahe, wenn man sich der Stelle x0 n¨ Toleranz vor. Ein zugeh¨origes δ besagt dann, wie nah man bei x0 sein muss, damit die Funktionswerte innerhalb der Toleranz vom Grenzwert liegen. Das ist f¨ ur viele technische Fragestellungen wichtig. In der Definition wird vermieden, von Zahlen x zu sprechen, die unendlich nah bei x0 liegen (und die es in R nicht gibt). Statt eines unendlich ” kleinen“ x − x0 werden hier nur wohldefinierte Zahlen ε und δ verwendet, ucken. Eine Alternative dazu bietet die um das Streben gegen x0 auszudr¨ Nichtstandardanalysis, in der eine unendlich kleine Zahl eingesetzt wird. So k¨onnen ε-δ-Formulierungen vermieden werden. Daf¨ ur muss man aber einen nicht unerheblichen theoretischen Aufwand treiben, um die neue Zahl sinnvoll einzuf¨ uhren. Zu diesem und den folgenden Konvergenzbegriffen gibt es (abgesehen vom ¨ sp¨ater formulierten Ubertragungsprinzip) keine direkte Korrespondenz zur Grenzwertdefinition bei Folgen. Falls man nicht fordert, dass die Funktion links und rechts von der betrachteten Stelle x0 erkl¨art ist und nur verlangt, dass es zu jedem ε > 0 ein δ > 0 gibt mit |f (x) − L| < ε f¨ ur alle x ∈ (]x0 − δ, x0 [ ∪ ]x0 , x0 + δ[) ∩ D, so fordert man eventuell etwas f¨ ur alle x ∈ ∅. Diese Bedingung ist dann aber f¨ ur jedes L erf¨ ullt, und der Grenzwert w¨are nicht mehr eindeutig. Die Situation tritt f¨ ur Funktionen auf, die in nur einem oder in einzelnen Punkten definiert sind (z. B. f : {1} → R). Hier macht eine Grenzwertbetrachtung keinen Sinn. Beispiel 11.3 a) Die Funktion f (x) = 3x − 1 hat an der Stelle x = 1 den ussen wir zu (jedem Grenzwert limx→1 f (x) = 2. Um das zu beweisen, m¨ beliebigen) ε > 0 ein δ(ε) > 0 so bestimmen, dass f¨ ur x mit |x − 1| < δ folgt |f (x) − 2| < ε. Wegen

11.2. Grenzwerte von Funktionen

|x − 1| < δ

=⇒

301

|f (x) − 2| = |3x − 1 − 2| = |3x − 3| = 3|x − 1| < 3δ

erf¨ ullt z. B. δ := 3ε diese Bedingung, und der Funktionengrenzwert ist 1 1 und damit δ = 300 wissen wir jetzt, dass nachgewiesen. F¨ ur ε = 100 1 1 =⇒ |f (x) − 1| < . 300 100   b) Die Funktion f (x) = x · sin x1 besitzt bei x = 0 den Grenzwert limx→0 f (x) = 0. Um zu einem ε > 0 ein δ wie in der Definition zu finden, betrachten wir   

   1  1   = |x| sin ≤ |x| · 1 = |x − 0|. |f (x) − 0| = x · sin  x x  |x − 1|
0 ein geeignetes δ zu finden, betrachten wir wieder die Differenz der Funktionswerte vom Grenzwert f¨ ur Argumente nahe bei 1:   2   2   2x − 2x − 2x + 2   2x − 2x     − 2 =  |x − 1| < δ =⇒ |f (x) − 2| =   x−1 x−1   2  (x − 1)   = 2|x − 1| < 2δ. = 2  x−1  F¨ ur δ = 2ε gilt demnach |x −√1| < δ =⇒ |f (x) − 2| < ε. d) Die Wurzelfunktion f (x) = x besitzt an jeder Stelle x0 > 0 den Grenz√ wert limx→x0 f (x) = x0 . Um hier zu ε > 0 ein geeignetes δ zu finden, wenden wir einen Trick an: Wir benutzen die dritte Binomische Formel. Damit erhalten wir f¨ ur x > 0: √ √ |x − x0 | < δ =⇒ |f (x) − f (x0 )| = | x − x0 | √ √ √ | x + x0 | √ δ δ |x − x0 | =√ = | x − x0 | · √ √ √ 0 √ ist und andererseits | x − x0 | < ε.

Die ε-δ-Beweise an einer Stelle x0 funktionieren in der Regel so: Die Abweiatzt. Dann chungen |f (x) − L| werden gegen einen Term in |x − x0 | abgesch¨ alt eine von δ abh¨ angende wird ausgenutzt, dass |x − x0 | < δ ist, und man erh¨ Funktion. Jetzt muss δ > 0 so gew¨ahlt werden, dass diese Funktion kleiner ε wird. Beispiel 11.4 F¨ ur n ∈ N0 ist limx→x0 xn = xn0 , d. h., der Grenzwert an der Stelle x0 ist L = xn0 :

302

Kapitel 11. Grenzwerte von Funktionen und Stetigkeit

F¨ ur n = 0 ist |x0 − x00 | = |1 − 1| = 0 < ε f¨ ur alle ε > 0 unabh¨ angig von x und x0 , so dass die Grenzwertaussage trivial folgt. F¨ ur n > 0 verwenden wir h := x − x0 , also x = x0 + h. Wir werden ur die folgende Rechnung sei |h| < 1, d. h. x ∈ |h| = |x−x0 | < δ absch¨atzen. F¨ ussen wir sp¨ ater bei der Wahl von δ ]x0 − 1, x0 + 1[. Diese Einschr¨ankung m¨ ber¨ ucksichtigen.     n n   n k n−k   n k n−k  n n (3.3)  n h x0  =  h x0  |x0 − (x0 + h) | = x0 −     k k k=0 k=1  



n n   n n k−1 n−k  |h| 0 sei (beachte (1 + |x0 |)n − |x0 |n > 0)

ε . δ := min 1, (1 + |x0 |)n − |x0 |n F¨ ur |x − x0 | < δ ist |h| = |x − x0 | < δ und damit   |xn0 − xn | = |xn0 − (x0 + h)n | < δ (1 + |x0 |)n − |x0 |n ≤ ε, so dass die Konvergenz gegen L = xn0 gezeigt ist. Beispiel 11.5 limx→x0 sin(x) = sin(x0 ), denn wegen | sin(t)| ≤ |t| ist f¨ ur |x − x0 | < δ := ε:  

 

 

 x + x0   x − x0  x − x0  (4.14)    | sin(x) − sin(x0 )| = 2 cos  sin  ≤ 2 sin  2 2 2 ≤ |x − x0 | < δ = ε. Damit erhalten wir auch   π π = lim π sin (x) = sin x0 + = cos(x0 ). lim cos(x) = lim sin x + x→x0 x→x0 x→x0 + 2 2 2 Beispiel 11.6 F¨ ur den Nachweis der Differenzierbarkeit von sin(x) und im Rahmen der Fourier-Analysis ben¨otigen wir sp¨ ater den Grenzwert sin(x) = 1. x→0 x lim

(11.1)

303

11.2. Grenzwerte von Funktionen

D = (1, tan(x)) (cos(x), sin(x)) = C 

Abb. 11.3 Herleitung zu sin(x) = 1 am Kreis limx→0 x mit Radius 1

O = (0,0)

B= (cos(x),0)

A = (1,0)

Um diesen nachzurechnen, betrachten wir f¨ ur 0 < |x| < π/2 am Einheitskreis die Punkte O = (0, 0), A = (1, 0), B = (cos(x), 0), C = (cos(x), sin(x)) und D = (1, tan(x)), siehe Abbildung 11.3. Die L¨ange | sin(x)| der Gegenkathete zum Winkel x im Dreieck mit den Ecken O, B und C ist nicht gr¨ oßer als die Bogenl¨ange |x|, d. h., wie auf Seite 130 lesen wir | sin(x)| ≤ |x| ab. F¨ ur x → 0 n¨ahern sich die L¨angen der Gegenkathete und des Bogens immer mehr an, fast zu eins wegk¨ urzen. so dass sich dann Z¨ahler und Nenner im Bruch sin(x) x Daher ist der Grenzwert eins nicht u ¨berraschend. Wir rechnen jetzt aber etwas genauer. Das Kreissegment zu den Punkten O, A und C hat mit Radius |x| r = 1 den Fl¨acheninhalt πr2 |x| 2π = 2 . Dieses Segment liegt wiederum im Dreieck mit den Ecken O, A und D (dabei beachte man, dass der Punkt D sin(x) = tan(x) besitzt). auf der Gerade durch O und C liegt, die die Steigung cos(x) 1 Das Dreieck mit den Ecken O, A und D hat den Fl¨ acheninhalt gilt also:

| tan(x)| . 2

Damit

| tan(x)| | sin(x)| | sin(x)| sin(x) |x| ≤ ⇐⇒ |x| ≤ ⇐⇒ cos(x) ≤ = . 2 2 cos(x) |x| x Zusammen mit | sin(x)| ≤ |x| wird daraus cos(x) ≤ Damit ist

sin(x) ≤ 1. x

    1 − sin(x)  = 1 − sin(x) ≤ 1 − cos(x).  x  x

Wir haben bereits gesehen, dass limx→0 cos(x) = cos(0) = 1. Zu jedem ε > 0 gibt es also ein 0 < δ < π/2, so dass 1 − cos(x) = |1 − cos(x)| < ε f¨ ur alle  sin(x)  0 < |x| < δ. Daf¨ ur ist dann aber auch 1 − x  < ε. Beispiel 11.7 (Dirichlet-Funktion) Ein klassisches Beispiel f¨ ur eine Funktion, bei der der Grenzwert an keiner Stelle existiert, ist die DirichletFunktion. Diese Funktion hat f¨ ur alle rationalen x den Funktionswert 1 und

304

Kapitel 11. Grenzwerte von Funktionen und Stetigkeit

f¨ ur alle irrationalen den Funktionswert 0. Wenn man versucht, den Funktionsgraphen zu zeichnen, dann entstehen zwei horizontale Linien (da man die unendlich vielen Unterbrechungen nicht sehen kann). In jeder Umgebung einer Stelle sind also unendlich viele Funktionswerte gleich 1 und unendlich onnen. viele gleich 0, die nicht gemeinsam in einem Streifen zu ε ≤ 12 liegen k¨ Definition 11.5 (Bestimmte Divergenz einer Funktion an einer ur ein δ0 > 0. Die FunkStelle) Sei ]x0 − δ0 , x0 [ ∪ ]x0 , x0 + δ0 [⊆ D f¨ tion f : D → R heißt bestimmt divergent gegen den uneigentlichen ur jedes (noch so große) Grenzwert ∞ f¨ ur x → x0 genau dann, wenn f¨ ur alle x = x0 mit M > 0 ein δ = δ(M, x0 ) > 0, δ ≤ δ0 , existiert, so dass f¨ |x − x0 | < δ gilt: f (x) > M . Schreibweise: limx→x0 f (x) = ∞. Analog definiert man limx→x0 f (x) = −∞. limx→x0 f (x) = ∞ bedeutet also, dass man mit den Funktionswerten u ¨ber jede noch so große Zahl M kommt, wenn man nur nah genug bei der Stelle x0 ist. Die Existenz eines uneigentlichen Grenzwerts ist genau wie bei Folgen ein Spezialfall der Divergenz und nicht der Konvergenz.

4

1 = ∞ ist, ist die Funktion x1 f¨ ur x 0 = 0 Beispiel 11.8 W¨ahrend limx→0 |x| 1 divergent, aber nicht bestimmt divergent. Beachte: Zwar ist limx→8 |8−x| = 1 ∞, aber es gilt nicht limx→4 |4−x| = .

Auch wenn der Grenzwert an einer Stelle x0 nicht existiert, so ist es bisweilen sinnvoll, sogenannte einseitige Grenzwerte zu betrachten. Definition 11.6 (Einseitige Konvergenz einer Funktion an einer Stelle) • Es sei die linksseitige punktierte Umgebung ]x0 − δ0 , x0 [ f¨ ur ein δ0 > 0 in D enthalten. Die Funktion f : D → R heißt linksseitig konvergent gegen L ∈ R bzw. linksseitig bestimmt divergent gegen ∞ bzw. −∞ f¨ ur x → x0 − genau dann, wenn die Bedingungen aus Definition 11.4 bzw. 11.5 gelten, wenn man dort die beidseitige punktierte Umgebung ]x0 −δ0 , x0 [ ∪ ]x0 , x0 +δ0 [ durch ]x0 −δ0 , x0 [ austauscht und die Bedingung |x − x0 | < δ durch 0 < x0 − x < δ ersetzt. L heißt dann der linksseitige Grenzwert von f an der Stelle x0 . Schreibweisen: lim f (x) = L,

x→x0 −

lim f (x) = ∞,

x→x0 −

lim f (x) = −∞.

x→x0 −

• Es sei die rechtsseitige punktierte Umgebung ]x0 , x0 + δ0 [⊆ D. Die Funktion f : D → R heißt genau dann rechtsseitig konvergent gegen L ∈ R bzw. rechtsseitig bestimmt divergent gegen ∞ bzw. −∞

305

11.2. Grenzwerte von Funktionen

f¨ ur x → x0 +, falls die Bedingungen aus Definition 11.4 bzw. 11.5 gelten, wenn man die beidseitige punktierte Umgebung ]x0 −δ0 , x0 [ ∪ ]x0 , x0 +δ0 [ durch ]x0 , x0 + δ0 [ austauscht und die Bedingung |x − x0 | < δ durch 0 < x − x0 < δ ersetzt. L heißt dann der rechtsseitige Grenzwert von f an der Stelle x0 . Schreibweisen: lim f (x) = L,

x→x0 +

lim f (x) = ∞,

x→x0 +

lim f (x) = −∞.

x→x0 +

Hier n¨ahert man sich ausschließlich von links oder von rechts der Stelle x0 . Dabei gibt man mittels +“ (rechts) oder −“ (links) die Richtung an, aus ” ” der man kommt. Das entspricht der Windrichtung. Ein Westwind kommt aus Westen und weht nach Osten. Beispiel 11.9 a) limx→0+ x1 = ∞, limx→0− x1 = −∞. 1, f¨ ur x ≥ 5, b) Sei f (x) := −1, f¨ ur x < 5. Dann ist limx→5+ f (x) = 1 und limx→5− f (x) = −1. 2 −4x besitzt bei x = 2 u c) Die Funktion f (x) = 2xx−2 ¨bereinstimmende einseitige Grenzwerte, da limx→2 2x = 4. d) Die Funktion

2x2 −4x x−2

= 2x und limx→2− 2x = limx→2+ 2x =

⎧ ⎨ 1, 0, f (x) = sign(x) = ⎩ −1,

x > 0, x = 0, x < 0,

(siehe Seite 102) besitzt in x = 0 die einseitigen Grenzwerte lim sign(x) = −1 und lim sign(x) = +1.

x→0−

x→0+

Ein Grenzwert existiert bei 0 nicht.

Lemma 11.1 (Konvergenz und einseitige Konvergenz) Sei f : D → ur ein δ0 > 0. Dann sind ¨ aquivalent: R und ]x0 − δ0 , x0 [ ∪ ]x0 , x0 + δ0 [⊆ D f¨ a) limx→x0 f (x) = L. b) limx→x0 − f (x) = limx→x0 + f (x) = L, d. h., die einseitigen Grenzwerte existieren und sind gleich. Konvergenz an einer Stelle bedeutet also nicht nur, dass rechts- und linksseitige Konvergenz vorliegt, sondern zus¨atzlich, dass die einseitigen Grenzwerte auch u ¨bereinstimmen.

306

Kapitel 11. Grenzwerte von Funktionen und Stetigkeit

Beweis Aus a) folgt sofort b), da mit dem nach Definition zu einem ε > 0 existierenden δ > 0 sowohl die Bedingung des rechts- als auch des linksseitigen Grenzwerts erf¨ ullt ist. Umgekehrt folgt aus b) die Aussage a), da zu einem ε > 0 aufgrund der einseitigen Grenzwerte ein δ1 > 0 und ein δ2 > 0 existiert mit |f (x) − L| < ε f¨ ur alle x ∈ D mit 0 < x0 − x < δ1 oder 0 < x − x0 < δ2 . Damit gilt dies aber  auch f¨ ur alle x ∈ D mit |x − x0 | < δ := min{δ1 , δ2 } und x = x0 . Bei Folgen haben wir mit Satz 9.3 gesehen, dass eine monotone, beschr¨ ankte Folge zwangsl¨aufig konvergent sein muss. Denn ist sie z. B. nach oben beschr¨ankt und legt man einen ε-Streifen um die kleinste obere Schranke, so liegen wegen der Monotonie alle Folgenglieder, die einem Glied im Streifen folgen, auch in diesem. Analog verh¨alt es sich mit der Konvergenz einer monotonen Funktion an einer Stelle x0 : Satz 11.2 (Existenz der einseitigen Grenzwerte bei Monotonie ∗ ) Ist f monoton (siehe Definition 4.1 auf Seite 93) auf einem Intervall I, so existiert in jedem Punkt x0 ∈ I (mit einer rechts- bzw. linksseitigen Umgebung in I) der rechts- bzw. linksseitige Grenzwert.

Die einseitigen Grenzwerte m¨ ussen aber nicht an jeder Stelle u ¨bereinstimmen, obwohl sie es sogar in der Regel tun (was wir auf Seite 328 sehen werden). Beweis Wir zeigen die Aussage f¨ ur einen linksseitigen Grenzwert an einer ur eine monoton steigende Funktion. Die anderen Stelle x0 mit ]x0 −δ, x0 ] ⊆ I f¨ Situationen verhalten sich analog. Da f monoton steigend ist, ist die nichtankt mit f (x0 ), so dass leere Menge {f (x) : x ∈]x0 − δ, x0 [} nach oben beschr¨ nach Axiom (2.4) das Supremum existiert. Wir zeigen, dass lim f (x) = L := sup{f (x) : x ∈]x0 − δ, x0 [},

x→x0 −

indem wir erneut die Monotonie ausnutzen. Wegen (2.5) auf Seite 56 existiert zun¨achst zu jedem ε > 0 eine Stelle x1 ∈]x0 − δ, x0 [, deren Funktionswert n¨aher als ε beim Supremum liegt, also L − f (x1 ) < ε. Wegen der Monotonie gilt nun aber f¨ ur alle x ∈ [x1 , x0 [ ebenfalls |L − f (x)| = L − f (x) ≤ L − f (x1 ) < ε. Zu ε gibt es also ein δ = x0 − x1 , so dass alle Funktionswerte der aher als ε bei L liegen. Damit linksseitigen punktierten δ-Umgebung von x0 n¨ ist die linksseitige Konvergenz gegen L gezeigt.  Jetzt kommen wir zu dem Zusammenhang zwischen Folgenkonvergenz und Grenzwerten von Funktionen: Wir k¨onnen den Grenzwert einer Funktion auch schreiben als Grenzwert von Folgen:

11.2. Grenzwerte von Funktionen

307

¨ Satz 11.3 (Ubertragungsprinzip) Seien f eine Funktion von D in R, ur ein δ0 > 0 und L ∈ R. Dann sind ]x0 − δ0 , x0 [ ∪ ]x0 , x0 + δ0 [⊆ D f¨ ¨aquivalent: a) limx→x0 f (x) = L. ur alle n ∈ N sowie b) F¨ ur jede Folge (xn )∞ n=1 mit xn ∈ D und xn = x0 f¨ limn→∞ xn = x0 gilt: limn→∞ f (xn ) = L. F¨ ur Grenzwerte gegen ±∞, einseitige Grenzwerte und bestimmte Divergenz gelten entsprechende Aussagen. ur den Fall ben¨ otigt, dass f Die Einschr¨ankung xn = x0 im Satz wird nur f¨ in x0 nicht definiert ist oder dass L = f (x0 ) ist. Konvergenz an einer Stelle x0 hat man also genau dann, wenn man sich entlang jeder Folge der Stelle x0 n¨ahern kann und dabei die Funktionswerte gegen einen gemeinsamen Grenzwert streben. Die Bedingung b) verlangt die Konvergenz f¨ ur jede Folge mit Grenzwert ur eine spezielle Folge vorliegt. x0 . Es reicht nicht aus, wenn Konvergenz f¨ Dagegen ist die Bedingung verletzt, wenn man Divergenz der Funktionswerte zu einer Folge oder verschiedene Grenzwerte der Funktionswerte f¨ ur zwei verschiedene Folgen nachrechnen kann. Beweis b) folgt aus a) durch Ineinanderschachteln der Definitionen. Um zu sehen, dass a) aus b) folgt, f¨ uhren wir einen indirekten Beweis. Wir nehmen an, a) gelte nicht. Dann gibt es ein ε > 0, so dass f¨ ur jedes δ = 1/n ein xn ∈ D \ {x0 } mit |x0 − xn | < 1/n existiert, so dass |f (xn ) − L| > ε. ∞ Die Folge (xn )∞ n=1 konvergiert nach Konstruktion gegen x0 , aber (f (xn ))n=1 konvergiert nicht gegen L. Damit gilt b) nicht. Wenn also b) zutrifft, dann muss auch a) gelten.  Wir k¨onnen jetzt den Grenzwert einer Funktion durch Folgengrenzwerte ausdr¨ ucken. ¨ Beispiel 11.10 Mit dem Ubertragungsprinzip untersuchen wir die gebroan den Nullstellen 2 und −3 des chen-rationale Funktion f (x) = (x−2)(x+2) (x−2)(x+3) Nenners. Bei der der Grenzwertberechnung f¨ ur eine beliebige Folge (xn )∞ n=1 mit limn→∞ xn = 2 und xn ∈ {2, −3} kann der Faktor (xn − 2) gek¨ urzt werden, und man erh¨alt lim

n→∞

2+2 4 (xn − 2)(xn + 2) xn + 2 = lim = = . (xn − 2)(xn + 3) n→∞ xn + 3 2+3 5

Da dies f¨ ur jede gegen 2 konvergente Folge gilt, ist 45 auch der Grenzwert der Funktion an der Stelle 2. Bei x = −3 existiert kein reeller Grenzwert, da der Z¨ahler f¨ ur x = −3 nicht null wird. Links- und rechtsseitiger Grenzwert sind uneigentlich −∞ bzw. +∞. Wir zeigen dies nur f¨ ur den links-

308

Kapitel 11. Grenzwerte von Funktionen und Stetigkeit

seitigen Grenzwert x → −3−. Dazu w¨ahlen wir beliebige Folgen (xn )∞ n=1 mit limn→∞ xn = −3 und xn < −3. Diese lassen sich auch schreiben als ur eine Nullfolge positiver Zahlen steht. Es gilt xn = −3 − εn , wobei (εn )∞ n=1 f¨ dann lim

n→∞

(xn − 2)(xn + 2) xn + 2 (−3 − εn ) + 2 = lim = lim n→∞ n→∞ (xn − 2)(xn + 3) xn + 3 (−3 − εn ) + 3 −1 − εn = lim = ∞. n→∞ −εn

¨ Beispiel 11.11 Mit   dem Ubertragungsprinzip zeigen wir, dass der Grenzwert limx→0+ sin x1 nicht existiert (siehe Abbildung 11.4). Dazu betrachten 1 wir die Nullfolge an = (2n+1) ahert: π , die sich der Null von rechts n¨ 2





 π = (−1)n . = sin (2n + 1) 2   ∞ hat also (mindestens) zwei FolDie Folge der Funktionswerte sin a1n n=1 ¨ genh¨aufungspunkte −1 und 1 und ist damit nicht  1 konvergent. Nach Ubertragungsprinzip existiert somit auch limx→0+ sin x nicht. sin

1 an

1

0.5

0

-0.5

Abb. 11.4 f (x) = sin

1 x

-1

0.1

0.2

0.3

0.4

0.5

0.6

0.7

0.8

0.9

1

F¨ ur Folgen haben wir bereits Konvergenzaussagen bewiesen, die sich mit ¨ dem Ubertragungsprinzip auf Funktionen u ort zu¨bertragen lassen. Dazu geh¨ n¨ achst, dass der Grenzwert eindeutig ist. Weiterhin erhalten wir direkt Regeln f¨ ur Linearkombinationen, Produkte und (sofern definiert) Quotienten von Funktionen: Folgerung 11.1 (Grenzwerts¨ atze) Seien f und g reelle Funktionen, f¨ ur die jeweils eine punktierte Umgebung ]x0 − δ0 , x0 [ ∪ ]x0 , x0 + δ0 [ mit δ0 > 0 im Definitionsbereich enthalten ist und f¨ ur die die Grenzwerte limx→x0 f (x) und limx→x0 g(x) existieren. Dann gelten die Rechenregeln

309

11.2. Grenzwerte von Funktionen

lim (cf (x) + dg(x)) = c lim f (x) + d lim g(x) mit c, d ∈ R,

x→x0

x→x0

x→x0



  limx→x0 f (x) f (x) = , lim f (x) · lim g(x) , lim x→x0 x→x0 x→x0 x→x0 g(x) limx→x0 g(x) (11.2) wobei f¨ ur die letzte Gleichung der Grenzwert limx→x0 g(x) ungleich null sein muss, damit nicht durch null dividiert wird. lim f (x)g(x) =

Beispiel 11.12 limx→0 (3x2 − 2x + 8) 3x2 − 2x + 8 = x→0 2 cos(x) limx→0 2 cos(x) 3 lim x2 − 2 lim x + lim 8 8 x→0 x→0 = = 4. = x→0 2 lim cos(x) 2 lim

x→0

Ebenso wie an einer Stelle x0 gelten die Grenzwerts¨ atze f¨ ur Grenzwerte gegen ±∞ und f¨ ur einseitige Grenzwerte. Beispiel 11.13 a) Wir berechnen den Funktionengrenzwert limx→∞  x2 · 4 + 4x2 + 4 = lim 2  lim x→∞ 2x2 − 1 x→∞ x · 2 − b) F¨ ur f (x) =

x2 −4 x2 −8x+12



4 x2  1 x2

 limx→∞ 4 +  = limx→∞ 2 −



4 x2  1 x2

=

4 = 2. 2

gilt:

x2 (1 − x42 ) 1 − limx→±∞ x42 = x→±∞ x2 (1 − 8 + 12 1 − limx→±∞ x8 + limx→±∞ x x2 ) 1−0 = 1. = 1−0+0

lim f (x) = lim

x→±∞

4x2 +4 2x2 −1 :

c) Wir berechnen den Grenzwert f¨ ur x → −∞ f¨ ur g(x) =

12 x2

2|x−1| x2 +2x−3 .

    −x2 x2 − x22 limx→−∞ x2 − x22 0 2  = = 0. lim g(x) = lim =− 3 x→−∞ x→−∞ x2 (1 + 2 − 32 ) 1 1 + limx→−∞ x − x2 x x

Wie bei Folgen kann man mit den folgenden Regeln direkt die Grenzwerte von ganz-rationalen Funktionen angeben (vgl. (9.10)): ⎧ ak falls k = m, ⎪ bm , ⎪ ⎨ 0, ak xk + ak−1 xk−1 + · · · + a1 x + a0 falls k < m, = lim +∞, falls k > m und bamk > 0, x→∞ bm xm + bm−1 xm−1 + · · · + b1 x + b0 ⎪ ⎪ ⎩ −∞, falls k > m und bamk < 0.

310

Kapitel 11. Grenzwerte von Funktionen und Stetigkeit

Bei einem Grenzwert gegen −∞ kommt noch ein Faktor (−1)k−m hinzu. (x) ur limx→x0 fg(x) m¨ oglich. Auch im Fall limx→x0 g(x) = 0 sind Aussagen f¨ Dabei helfen die Differenzialrechnung (siehe Seite 370 ff.) oder geschickte Umformungen. ¨ Mit dem Ubertragungsprinzip k¨onnen wir Satz 9.1 d) umformulieren: Folgerung 11.2 (Absch¨ atzung des Grenzwerts) Ist f (x) ≤ C in einer Umgebung von x0 und existiert limx→x0 f (x), so ist limx→x0 f (x) ≤ C, entsprechend ist limx→x0 f (x) ≥ c, falls f (x) ≥ c in einer Umgebung von x0 ist. Diese Regeln gelten analog f¨ ur einseitige Grenzwerte und Grenzwerte gegen ±∞. Beispiel 11.14 Allgemeine reelle Potenzen haben wir mit (9.9) auf Seite 263 erkl¨art, indem wir den Exponenten durch Folgen rationaler Zahlen an¨ gen¨ahert haben. Damit bietet sich das Ubertragungsprinzip an, wenn wir Grenzwerte von Potenzfunktionen berechnen wollen: Wir zeigen damit, dass lim exp(x) = exp(x0 ).

(11.3)

x→x0

Sei dazu (xn )∞ n=1 eine beliebige Folge reeller Zahlen mit limn→∞ xn = x0 . We¨ gen des Ubertragungsprinzips gen¨ ugt es, zu zeigen, dass limn→∞ exp(xn ) = eine Folge rationaler Zahlen, w¨ are das nach Defiexp(x0 ) ist. W¨are (xn )∞ n=1 nition der reellen Potenz bereits gezeigt. Nicht-rationale xn ersetzen wir jetzt durch rationale Zahlen. Dazu betrachten wir nun ein fest gew¨ ahltes Folgenglied xn . Da Q dicht in R liegt, gibt es zu xn eine Folge (an,k )∞ k=1 in Q mit limk→∞ an,k = xn , d. h., zu ε = n1 gibt es ein n1 = n1 (xn ) ∈ N, so dass ur alle k ≥ n1 . |an,k − xn | < n1 f¨ Aufgrund der Definition der reellen Potenz u ¨ber eine Folge rationaler Exponenten (9.9) gilt: limk→∞ ean,k = exn . Es gibt also ein n2 = n2 (xn ) ∈ N, ur alle k ≥ n2 . Wir setzen an := an,max{n1 ,n2 } ∈ Q so dass |ean,k − exn | < n1 f¨ und erhalten damit |an − xn |
0 gilt (siehe Seite 301), ist die Wurzelfunktion stetig auf ]0, ∞[ (zus¨atzlich ist sie rechtsseitig stetig im Nullpunkt). e) Wir haben bereits ebenfalls auf Seite 302 gezeigt, dass limx→x0 sin(x) = sin(x0 ) und limx→x0 cos(x) = cos(x0 ). Außerdem ist limx→x0 exp(x) = exp(x0 ) nach (11.3). Damit sind Sinus, Kosinus und die Exponentialfunktion auf R stetig. f) Wegen limx→0 sin(x) = 1 (siehe (11.1)) ist die Funktion x sin(x) f (x) = sinc(x) :=

x

1,

,

x = 0, x ∈ R, x = 0,

(11.5)

stetig in 0. Diese Funktion wird sp¨ater bei der Fourier-Transformation noch wichtig und heißt Sinus Cardinalis in der nicht-normierten Form, die wir

313

11.3. Stetigkeit

ausschließlich verwenden, siehe Abbildung 11.6. Die normierte Form des Sinus Cardinalis wird u ¨ber sin(πx) πx , x = 0, x ∈ R, g(x) := 1, x = 0, definiert und erh¨alt zur Verwirrung den gleichen Funktionsnamen. 1

0.75

0.5

0.25

0

Abb. 11.6 sinc(x)

-0.25

-30

-20

-10

0

10

20

30

Wir haben die Stetigkeit u art. L¨ osen ¨ber einen Funktionengrenzwert erkl¨ wir diesen einerseits mit Definition 11.4 auf und benutzen wir andererseits ¨ das Ubertragungsprinzip Satz 11.3, so erhalten wir f¨ ur die Stetigkeit einer Funktion f an einer Stelle x0 , die innerer Punkt des Definitionsbereichs D von f ist, die beiden folgenden alternativen Definitionen: ¨ Satz 11.4 (Aquivalente Formulierungen der Stetigkeit) Die Funktion f ist stetig im Punkt x0 ∈ D genau dann, • wenn zu jedem (noch so kleinen) ε > 0 ein δ = δ(ε) > 0 existiert, so dass gilt (siehe Abbildung 11.2 mit L = f (x0 )): |x − x0 | < δ

=⇒

|f (x) − f (x0 )| < ε.

• wenn zu jeder ε-Umgebung ]f (x0 ) − ε, f (x0 ) + ε[ von f (x0 ) eine δUmgebung ]x0 − δ, x0 + δ[ von x0 existiert, so dass die Funktionswerte aller Zahlen der δ-Umgebung in der ε-Umgebung liegen. • wenn f¨ ur jede Folge (xn )∞ n=1 , xn ∈ D, die gegen die Stelle x0 konvergiert, gilt lim f (xn ) = f (x0 ), d. h. lim f (xn ) = f ( lim xn ). n→∞

n→∞

n→∞

Beispiel 11.16 a) Die Funktion f (x) aus Abbildung 11.7 (links) ist stetig in jedem Punkt x0 ∈ D(f ): Zu jeder ε-Umgebung von f (x0 ) existiert

314

Kapitel 11. Grenzwerte von Funktionen und Stetigkeit

ε  f (x0) y 

y

f (x0) 



ε





δ

x0 δ  x0



f (x0)

x





x0

δ

x

Abb. 11.7 Eine an der Stelle x0 stetige (links) und eine unstetige Funktion (rechts); im rechten Bild findet man zur gew¨ ahlten ε-Umgebung von f (x0 ) keine δ-Umgebung von x0 , so dass alle ihre Funktionswerte im ε-Streifen liegen

eine δ-Umgebung von x0 , die durch f ganz in die ε-Umgebung von f (x0 ) abgebildet wird. b) Die Funktion f (x) aus dem Bild 11.7 (rechts) ist nicht stetig in x0 ∈ D(f ): Es gibt eine ε-Umgebung von f (x0 ), zu der keine δ-Umgebung von x0 existiert, die durch f ganz in die ε-Umgebung von f (x0 ) abgebildet wird, d. h., f¨ ur die alle Funktionswerte in der ε-Umgebung liegen. c) Die Gerade f (x) = a · x + b mit a, b ∈ R, a = 0, ist stetig f¨ ur alle x0 ∈ R. ur x Sei x0 ∈ R beliebig. Zu ε > 0 bestimmen wir ein δ(ε) > 0 so, dass f¨ mit |x − x0 | < δ folgt |f (x) − f (x0 )| < ε. Das haben wir in Beispiel 11.3 ur bereits f¨ ur die Gerade 2x − 1 an der konkreten Stelle x0 = 1 getan. F¨ |x − x0 | < δ folgt allgemeiner |f (x) − f (x0 )| = |a · x + b − (a · x0 + b)| = |a| |x − x0 | < |a| δ, ε f¨ ur |x − x0 | < δ gilt: |f (x) − f (x0 )| < ε (siehe so dass mit der Wahl δ := |a| Abbildung 11.8 (links)). d) Aufgrund der Grenzwerts¨atze wissen wir bereits, dass f¨ ur x0 = 0 gilt: limx→x0 x1 = x10 und dass damit die Funktion f (x) = x1 stetig auf R \ {0} ist. Das zeigen wir in diesem Beispiel noch einmal explizit mittels der εussen δ-Definition f¨ ur x0 > 0 (siehe Abbildung 11.8 (rechts)). Zu ε > 0 m¨ wir also ein δ(ε) > 0 so angeben, dass f¨ ur x ∈ R mit |x − x0 | < δ folgt |f (x) − f (x0 )| < ε. F¨ ur Zahlen x > 0 ist   1 1  |x0 − x|  . |f (x) − f (x0 )| =  −  = x x0 x · x0

Das gesuchte δ darf sich f¨ ur jedes x0 unterscheiden. Falls wir ein δ mit ur |x − x0 | < δ insbesondere x > x0 − δ ≥ 12 x0 , δ ≤ 12 x0 w¨ahlen, dann ist f¨

315

11.3. Stetigkeit

und es gilt |x0 − x| < x · x0

δ ≤ ε, · x0 % $ falls zus¨atzlich δ ≤ 2ε x20 ist. Damit ist mit δ := min 12 x0 , 2ε x20 die Stetigkeit nachgewiesen. |f (x) − f (x0 )| =

1 2 x0

a⋅x+b f (x0)

ε

f (x0)

x0

δ=

ε |a|

ε

δ x0

Abb. 11.8 Stetigkeit der Funktionen f (x) = ax + b (links) und f (x) =

1 x

(rechts)

Viele Vorg¨ange in der Natur lassen sich mit stetigen Funktionen beschreiben. Betrachtet man z. B. in einem Weg-Zeit-Diagramm die zur¨ uckgelegte Wegstrecke als Funktion der Zeit, so wird es hier keine Spr¨ unge geben (es sei denn, man k¨onnte beamen wie in Star Trek). Die Weg-Funktion ist stetig. Auf Englisch heißt Stetigkeit continuity“ und stetig continuous“. Stetige ” ” Funktionen sind also kontinuierlich“. ” ¨ Andert man das Argument einer stetigen Funktion nur gering, so ¨ andert sich auch der Funktionswert nur gering: Kleine Ursachen haben eine kleine Wirkung. Das gilt f¨ ur viele Situationen in der Natur, anderenfalls w¨ are Vieles im t¨aglichen Leben nicht beherrschbar. Rechenverfahren, die ein entsprechendes Verhalten zeigen, heißen stabil. Bei der Dirichlet-Funktion aus Beispiel 11.7 auf Seite 303 ist das Verhalten anders, an keiner Stelle existiert der Grenzwert, sie ist also u ¨berall unstetig. ¨ Die Funktion springt u kann ¨berall zwischen 0 und 1, eine kleine Anderung ¨ also zu einer großen Anderung der Funktionswerte (um 1) f¨ uhren. Ist eine Funktion an einer Stelle stetig mit Funktionswert gr¨ oßer als null, so dr¨ uckt sich die Stabilit¨at dadurch aus, dass die Funktion auch auf einer kleinen Umgebung um diese Stelle herum gr¨oßer als null ist: Lemma 11.2 (Lokales Verhalten stetiger Funktionen) Sei f : D → R stetig im inneren Punkt x0 ∈ D mit f (x0 ) > 0, dann gibt es eine Umgebung ur alle |x−x0 | < δ. ]x0 −δ, x0 +δ[, δ > 0, auf der f positiv ist, also f (x) > 0 f¨ Die analoge Aussage gilt f¨ ur f (x0 ) < 0.

316

Kapitel 11. Grenzwerte von Funktionen und Stetigkeit

Beweis Wegen limx→x0 f (x) = f (x0 ) existiert zu ε := f (x2 0 ) ein δ > 0, so dass |f (x) − f (x0 )| < f (x2 0 ) f¨ ur alle x ∈]x0 − δ, x0 + δ[. Damit ist in diesem Intervall −

f (x0 ) f (x0 ) < f (x)−f (x0 ) < 2 2

=⇒

f (x) > f (x0 )−

f (x0 ) f (x0 ) = > 0. 2 2 

Lemma 11.3 (Stetigkeit und einseitige Stetigkeit) Seien f : D → R und x0 ∈ D ein innerer Punkt. Dann sind ¨aquivalent: a) f ist stetig in x0 . b) f ist rechtsseitig und linksseitig stetig in x0 . Beweis Die Aussage folgt direkt aus Lemma 11.1 mit L = f (x0 ).



Beispiel 11.17 Die bereits in Beispiel 11.15 betrachtete Funktion f (x) = |x| ist an der Stelle 0 links- und rechtsseitig stetig, also stetig. Aus den Rechenregeln f¨ ur Funktionengrenzwerte (Satz 11.1) ergibt sich direkt, dass Linearkombinationen (wie zuvor beim Stetigkeitsbeweis f¨ ur Polynome), Produkte und (sofern definiert) Quotienten stetiger Funktionen stetig sind: Lemma 11.4 (Verkn¨ upfung stetiger Funktionen) Seien die Funktionen f, g : D → R stetig in einem inneren Punkt x0 ∈ D. Dann sind cf (x) (x) stetig in x0 . (c ∈ R), f (x) + g(x), f (x)g(x) und falls g(x0 ) = 0 auch fg(x) Entsprechendes gilt f¨ ur einseitige Stetigkeit. Man beachte, dass wegen g(x0 ) = 0 nach Lemma 11.2 die Funktionswerte von g sogar auf einer ganzen Umge(x) bung von x0 von null verschieden sind, so dass der Grenzwert limx→x0 fg(x) berechnet werden kann. Beispiel 11.18 a) Wir haben bereits gezeigt, dass Polynome stetig sind. Damit sind auch alle gebrochen-rationalen Funktionen als Quotient zweier stetiger Polynome auf ihrem Definitionsbereich stetig. sin(x) und cot(x) = cos(x) b) Mit sin(x) und cos(x) sind auch tan(x) = cos(x) sin(x) in jedem Punkt ihres Definitionsbereichs stetig. c) Als Quotient stetiger Funktionen ist sin(x) in jedem Punkt 0 = x0 ∈ R x stetig. Damit ist sinc(x) (siehe (11.5)) nicht nur in 0, sondern auf ganz R stetig.

11.3. Stetigkeit

317

Verkettet man stetige Funktionen, d. h., f¨ uhrt man stetige Funktionen hintereinander aus (vgl. Kapitel 4.4), so ergibt sich wieder eine stetige Funktion: Satz 11.5 (Verkettung stetiger Funktionen) Sei g : D → R stetig in ur ein δ0 > 0, und sei g(]x0 − δ0 , x0 + δ0 [) ⊆ I, x0 mit ]x0 − δ0 , x0 + δ0 [⊆ D f¨ wobei I ein Intervall ist. Weiterhin sei f : I → R stetig in g(x0 ) (bzw. einseitig stetig, falls g(x0 ) ein Randpunkt von I ist). Dann ist die Verkettung [f ◦ g](x) := f (g(x)) stetig in x0 . Beweis Sei (xn )∞ n=1 eine beliebige Folge mit Gliedern aus ]x0 −δ0 , x0 +δ0 [, die gegen x0 konvergiert. Aufgrund der Stetigkeit von g ist limx→x0 g(x) = g(x0 ) ¨ und damit insbesondere nach dem Ubertragungsprinzip limn→∞ g(xn ) = ∞ := (g(x )) konvergiert gegen y0 := g(x0 ), g(x0 ), d. h., die Folge (yn )∞ n n=1 n=1 und ihre Glieder liegen in I. Aufgrund der Stetigkeit von f gilt damit: limn→∞ f (g(xn )) = limn→∞ f (yn ) = f (y0 ) = f (g(x0 )). Da (xn )∞ n=1 eine beliebige gegen x0 konvergente Folge aus ]x0 − δ0 , x0 + δ0 [ ist, folgt aus dem ¨ Ubertragungsprinzip limx→x0 f (g(x)) = f (g(x0 )) und damit die Stetigkeit  von f ◦ g in x0 . Die Aussage von Satz 11.5 gilt bei analogem Beweis auch f¨ ur einseitige Stetigkeit (von g und f ◦ g). Beispiel 11.19 a) Als Verkettung stetiger Funktionen f (x) = x2 und g(x) = sin(x) ist (sin(x))2 = sin2 (x) stetig auf R. b) Die Funktion h(x) = xx l¨asst sich nicht unmittelbar naiv als Verkettung zweier Funktionen schreiben. Man k¨onnte auf die Idee kommen, als innere ahlen. Man Funktion g(x) = x und als ¨außere Funktion f (y) = xy zu w¨ mache sich aber klar, dass das nicht zul¨assig ist, da die Funktion f so von den beiden Variablen x und y abh¨angt, also f (x, y) = xy . Damit muss die innere Funktion g einen Vektor g(x) = (x, x) liefern, siehe Band 2, Seite 25. Wenn eine Variable im Exponent steht, hilft h¨ aufig ein Umschreiben mittels Exponentialfunktion und Logarithmus. F¨ ur x > 0 ist xx = exp(x · ln(x)). Nun sehen wir die Verkettung der Exponentialfunktion, von der wir bereits wissen, dass sie auf R stetig ist, mit der inneren Funktion x · ln(x), deren Stetigkeit wir bald ebenfalls ablesen k¨ onnen. Um die Stetigkeit der meisten gebr¨auchlichen Funktionen nachzuweisen, fehlt noch eine Aussage zur Stetigkeit der Umkehrfunktion, die wir untersuchen, wenn wir etwas mehr u ¨ber stetige Funktionen wissen (siehe Seite 323). Hintergrund: Topologie - offene Mengen und Stetigkeit In Kapitel 11.1 haben wir definiert, dass eine Menge E ⊆ R offen heißt, falls zu jedem x ∈ E ein offenes Intervall (eine offene Umgebung) ]x − δ, x + δ[⊆ E

318

Kapitel 11. Grenzwerte von Funktionen und Stetigkeit

mit δ > 0 existiert. Jedes Element x ∈ E liegt dann also im Inneren von E. Offensichtlich sind sowohl R als auch ∅ offene Mengen. Ebenso k¨ onnen wir beliebig viele offene Mengen vereinigen und erhalten wieder eine offene Menge: Jedes Element x der Vereinigung liegt in mindestens einer der offenen Mengen, so dass auch ein offenes Intervall um x in dieser Menge und damit in der Vereinigung liegt. Wenn wir endlich viele (d. h. n) offenen Mengen schneiden, dann entsteht ebenfalls eine offene Menge: Sei x ein Element der Schnittmenge. Dann liegt x in jeder der n offenen Mengen zusammen mit je einem offenen Intervall ]x − δk , x + δk [, 1 ≤ k ≤ n. Zu δ0 := min{δk : 1 ≤ k ≤ n} ist das offene Intervall ]x − δ0 , x + δ0 [ in der Schnittmenge enthalten. Da das Minimum δ0 endlich vieler positiver Zahlen genommen wird, ist δ0 > 0. Bei unendlich vielen Zahlen k¨onnten wir so nicht schließen. Die soeben nachgerechneten Eigenschaften sind geeignet, den Begriff der offenen Menge von R auf beliebige andere Mengen X auszudehnen: Definition 11.8 (Topologie) Eine Menge X zusammen mit einer Menge T , deren Elemente Teilmengen von X sind, heißt Topologischer Raum genau dann, wenn die folgenden Bedingungen erf¨ ullt sind: • X ∈ T und ∅ ∈ T . • Die Vereinigung beliebig vieler Elemente von T ist selbst auch in T enthalten. • Die Schnittmenge endlich vieler Elemente von T ist ebenfalls in T enthalten. Die Menge T heißt eine Topologie. Die Elemente von T heißen offene Mengen. Ist E ∈ T eine offene Menge, dann heißt ihr Komplement CX E eine abgeschlossene Menge. Jetzt k¨onnen wir auch den in der Analysis sehr zentralen Begriff der Stetigkeit allgemeiner formulieren: Definition 11.9 (Stetigkeit) Eine Abbildung von der Menge X eines Topologischen Raums in die entsprechende Menge eines anderen heißt stetig genau dann, wenn die Urbilder offener Mengen wieder offen sind. Diese topologische Definition entspricht im Spezialfall X = R, versehen mit der Topologie der offenen Mengen in R, genau der klassischen Stetigkeit. Das folgt direkt aus dem zweiten Punkt von Satz 11.4 auf Seite 313. Hat man eine bijektive stetige Abbildung, deren Umkehrfunktion ebenfalls stetig ist, dann nennt man sie einen Hom¨ oomorphismus. Solche Abbildungen ordnen offene Mengen der einen Topologie eindeutig offenen Menge der anderen Topologie zu.

319

11.4. Eigenschaften stetiger Funktionen

In der Mathematik betrachtet man an vielen Stellen Mengen, die eine gewisse Struktur haben. Ein Beispiel daf¨ ur sind Vektorr¨ aume, auf die wir in Kapitel III intensiv eingehen werden. Von besonderem Interesse sind dann Abbildungen zwischen solchen Mengen, die die Struktur erhalten. Bei Vektorr¨aumen sind das die linearen Abbildungen, die Linearkombinationen erhalten (Kapitel 20). Eine bijektive lineare Abbildung zwischen zwei Vektorr¨aumen bedeutet, dass die Vektorr¨aume in der Linearen Algebra genau die gleichen Eigenschaften haben und eigentlich nicht unterschieden werden m¨ ussen. In der Analysis gilt das f¨ ur Topologische R¨ aume, die durch einen Hom¨oomorphismus aufeinander abgebildet werden k¨ onnen. Es erscheint zun¨achst wie eine mathematische Spielerei, den Begriff der Stetigkeit auf Abbildungen zwischen Topologischen R¨ aumen zu erweitern. Tats¨achlich ist diese Verallgemeinerung aber sehr wichtig, da viele L¨ osungsverfahren als Abbildung aufgefasst werden k¨onnen. Man h¨ atte nun gerne, dass ¨ man bei geringf¨ ugigen Anderungen an den Daten (die man sich z. B. beim numerischen L¨osen durch Rechenungenauigkeiten und einen endlichen Zah¨ lenbereich einhandelt) auch nur geringf¨ ugige Anderungen der L¨ osung erh¨ alt. ¨ Das ist aber genau die Stetigkeit der Abbildung: Kleine Anderungen f¨ uhren auch nur zu kleinen Wirkungen. In diesem Fall diskutiert man also Stetigkeit von Abbildungen, die - statt auf R - auf ganz unterschiedlichen Mengen erkl¨art sein k¨onnen.

11.4 Eigenschaften stetiger Funktionen Eine Begr¨ undung daf¨ ur, dass man den Funktionsgraphen einer auf einem Intervall stetigen Funktion ohne Absetzen des Stiftes von einem Punkt zu einem anderen zeichnen kann, ist, dass alle Funktionswerte zwischen den beiden Funktionswerten der Endpunkte angenommen werden: y f(a) f(b) Abb. 11.9 Alle Werte zwischen f (a) und f (b) werden von einer stetigen Funktion f angenommen

a

b

x

320

Kapitel 11. Grenzwerte von Funktionen und Stetigkeit

Satz 11.6 (Zwischenwertsatz) Sei f eine auf [a, b] stetige Funktion, und sei c eine Zahl zwischen (und ungleich) f (a) und f (b). Dann existiert mindestens eine Stelle x0 echt zwischen a und b, also x0 ∈]a, b[, an der die Funktion f den Wert c annimmt: f (x0 ) = c. L¨asst man f¨ ur c auch die Randpunkte f (a) und f (b) zu, gibt es offensichtlich mindestens ein x0 ∈ [a, b] mit f (x0 ) = c. Die Zwischenstelle“ x0 wird in der Mathematik gerne mit dem griechi” schen Buchstaben ξ (sprich: xi“) bezeichnet, der an zwischen“ erinnert. ” ” Beweis Zum Beweis der Aussage benutzen wir wieder die Vollst¨ andigkeit der reellen Zahlen (2.4) von Seite 55 und kombinieren sie mit der Definition ¨ der Stetigkeit sowie dem Ubertragungsprinzip. Sei f (a) < f (b), und sei c ∈ R mit f (a) < c < f (b). Der Fall f (b) < f (a) l¨asst sich analog beweisen. Wir zeigen, dass der Wert c angenommen wird. Dazu betrachten wir die Menge A := {x ∈ [a, b] : f (x) ≤ c}. Da f (a) ≤ c gefordert ist, ist a ∈ A und damit A = ∅. Außerdem ist A ⊆ [a, b] und damit nach oben beschr¨ ankt durch b. Nach Axiom (2.4) existiert eine kleinste obere Schranke x0 := sup A ∈ R. Aufgrund (2.6), siehe Seite 58, ist insbesondere sogar x0 ∈ [a, b]. Wir zeigen nun, dass an dieser Stelle der Funktionswert c angenommen wird. • Da x0 das Supremum von A ist, ist entweder bereits x0 ∈ A, also f (x0 ) ≤ c, ur alle n ∈ N, so dass oder es gibt eine Folge (xn )∞ n=1 mit xn ∈ A ∩ [a, x0 [ f¨ limn→∞ xn = x0 ist, siehe (2.5) auf Seite 56. Wegen der (linksseitigen) ¨ Stetigkeit von f an der Stelle x0 (und wegen des Ubertragungsprinzips) ist dann limn→∞ f (xn ) = f (x0 ), und da f (xn ) ≤ c nach Definition von A ist, gilt mit Satz 9.1 d auch f (x0 ) ≤ c. ur x ∈]x0 , b] ist • Da wir bereits f (x0 ) ≤ c < f (b) wissen, ist x0 < b. F¨ f (x) > c und damit wegen Stetigkeit und Folgerung 11.2: limx→x0 + f (x) = f (x0 ) ≥ c.

Damit ist f (x0 ) = c und insbesondere auch x0 = a, also x0 ∈]a, b[.



Den Zwischenwertsatz kann man zur Suche von Nullstellen bei stetigen Funktionen und damit insbesondere bei Polynomen nutzen. Hat man erst einmal Stellen x1 < x2 gefunden, an denen die Funktionswerte unterschiedliche Vorzeichen haben, muss dazwischen eine Nullstelle liegen (Nullstellensatz von Bolzano). Man kann das Intervall [x1 , x2 ] teilen in Intervalle [x1 , x3 ] und [x3 , x2 ] (siehe Abbildung 11.10). In Abh¨angigkeit des Vorzeichens bei x3 weiß man, in welchem der Teilintervalle eine Nullstelle liegen muss und kann dieses seinerseits wieder unterteilen usw. Nach Satz 9.6 (Intervallschachtelung, Seite 267) gibt es eine gemeinsame Stelle, die in allen Intervallen liegt, und diese ist die gesuchte Nullstelle. So wird√im Beispiel 9.18 auf Seite 268 mit der Intervallschachtelung eine Nullstelle 2 des Polynoms x2 − 2 = 0 berechnet. Eine Verbesserung dieses Bisektionsverfahrens lernen wir im Zuge der Differenzialrechnung kennen (siehe Seite 349).

321

11.4. Eigenschaften stetiger Funktionen

x1

x3 x5 x4

x2

x

Abb. 11.10 Ann¨ aherung an die Nullstelle mittels Zwischenwertsatz

Besonders sch¨on verhalten sich stetige Funktionen auf abgeschlossenen Intervallen [a, b]. Sie sind dort beschr¨ankt und nehmen einen gr¨ oßten und einen kleinsten Funktionswert in jeweils mindestens einem Punkt des Intervalls an. Das gilt im Allgemeinen nicht f¨ ur offene (oder einseitig offene) Intervalle ]a, b[.

y

    

   



a Abb. 11.11 Maxima und Minima

b

   



x

     



Definition 11.10 (Extrema) Sei f : D → R (vgl. Abbildung 11.11). • f hat in x0 ∈ D ein globales Maximum genau dann, wenn f (x) ≤ ur alle x ∈ D. Gilt stattdessen (f¨ ur alle x = x0 ) sogar f (x) < f (x0 ) f¨ f (x0 ), spricht man von einem strikten globalen Maximum. • f hat in x0 ∈ D ein globales Minimum genau dann, wenn f (x) ≥ f (x0 ) f¨ ur alle x ∈ D. Gilt stattdessen (f¨ ur alle x = x0 ) sogar f (x) > f (x0 ), spricht man von einem strikten globalen Minimum.

322

Kapitel 11. Grenzwerte von Funktionen und Stetigkeit

• f hat in x0 ∈ D ein lokales Maximum (relatives Maximum, Hochpunkt) genau dann, wenn es eine δ0 -Umgebung Uδ0 :=]x0 − δ0 , x0 + δ0 [ f¨ ur ein δ0 > 0 gibt, so dass innerhalb dieser Umgebung alle Funktionswerte f (x), x ∈ Uδ0 ∩ D, kleiner oder gleich f (x0 ) sind. Sind auf dieser Umgebung mit Ausnahme der Stelle x0 (also auf einer punktierten Umgebung) sogar alle Funktionswerte echt kleiner als f (x0 ), so spricht man von einem strikten lokalen Maximum. • f hat in x0 ∈ D ein lokales Minimum (relatives Minimum, Tiefpunkt) genau dann, wenn f¨ ur eine δ0 -Umgebung Uδ0 von x0 gilt: f (x) ≥ ur alle x ∈ Uδ0 ∩ D. Gilt stattdessen sogar f (x) > f (x0 ) f¨ ur alf (x0 ) f¨ le x ∈ Uδ0 ∩ D mit x = x0 , spricht man von einem strikten lokalen Minimum. • Ein Extremum ist ein Minimum oder Maximum. Globale Extrema sind automatisch auch lokale Extrema. Die Umkehrung gilt nat¨ urlich nicht immer. Satz 11.7 (Verhalten stetiger Funktionen auf Intervallen) Sei f stetig auf [a, b]. Dann nimmt f auf [a, b] (d. h. in mindestens einem Punkt xM ∈ [a, b]) ein globales Maximum und (in mindestens einem Punkt xm ∈ [a, b]) ein globales Minimum an. Insbesondere ist f auf [a, b] beschr¨ ankt.

Abb. 11.12 Abbildung von Intervallen mit Funktionen von links nach rechts: Das Intervall [a, b[ wird durch eine darauf stetige Funktion f nicht auf ein beschr¨ anktes Intervall abgebildet. Die auf [a, b] nicht stetige Funktion f bildet [a, b] auf kein Intervall ab. Die auf [a, b] stetige Funktion f bildet [a, b] auf [m, M ] ab

Beweis Wir zeigen zun¨achst, dass f auf [a, b] beschr¨ ankt ist. Angenommen, f sei nicht beschr¨ankt. Dann kann man eine Folge (xn )∞ n=1 mit xn ∈ [a, b], n ∈ N, konstruieren, so dass |f (xn )| > n. Da die Folge (xn )∞ n=1 nach unten mit a und oben mit b beschr¨ankt ist, existiert nach dem Satz von Bolzano-Weierstraß (Satz 9.7, Seite 268) eine konvergente Teilfolge (xnk )∞ k=1 .

11.4. Eigenschaften stetiger Funktionen

323

Diese muss einen Grenzwert x0 ∈ [a, b] annehmen. Nach Konstruktion ist limk→∞ |f (xnk )| = ∞. Aufgrund der Stetigkeit von f gilt aber im Widerankt sein. spruch dazu limk→∞ f (xnk ) = f (x0 ). f muss also auf [a, b] beschr¨ Damit existieren m := inf{f (x) : x ∈ [a, b]} und M := sup{f (x) : x ∈ [a, b]}. Wir zeigen, dass das Supremum angenommen wird. Die Aussage f¨ ur das Infimum folgt v¨ollig analog. Zu jedem n ∈ N existiert wegen (2.5) auf Seite 56 ein xn ∈ [a, b] mit ankt und besitzt wieder weM − f (xn ) < 1/n. Die Folge (xn )∞ n=1 ist beschr¨ gen des Satzes von Bolzano-Weierstraß eine konvergente Teilfolge (xnk )∞ k=1 . Diese muss wieder einen Grenzwert x0 ∈ [a, b] annehmen. Nach Konstruktion ist limk→∞ f (xnk ) = M . Aufgrund der Stetigkeit von f gilt aber auch limk→∞ f (xnk ) = f (x0 ). Also nimmt f das Maximum an der Stelle x0 an.  Dieser Satz zusammen mit dem Zwischenwertsatz, der sicherstellt, dass auch alle Werte zwischen Maximum und Minimum angenommen werden, f¨ uhrt zu (siehe Abbildung 11.12) Satz 11.8 (Stetige Funktionen bilden Intervalle auf Intervalle ab) Ist die Funktion f auf [a, b] stetig, so ist f ([a, b]) ein Intervall [m, M ], wobei m := min{f (x) : x ∈ [a, b]} und M := max{f (x) : x ∈ [a, b]}. Mit dieser Aussage l¨asst sich zeigen, dass sich nicht nur das Monotonieverhalten auf die Umkehrfunktion u ¨bertr¨agt (siehe Lemma 4.2 auf Seite 99), sondern auch die Stetigkeit: Satz 11.9 (Stetigkeit der Umkehrfunktion) Sei f stetig auf [a, b] und streng monoton (steigend oder fallend). Dann ist die existierende Umkehrfunktion f −1 : f ([a, b]) → [a, b] stetig auf f ([a, b]). Kann man den Graphen von f ohne Absetzen eines Stiftes auf dem Intervall zeichnen, so geht das auch f¨ ur den Graphen der Umkehrfunktion, der durch Spiegelung an der Gerade y = x entsteht. Das ist aber noch kein formaler Beweis. Dieser ist etwas verwirrend, da man zwischen Definitions- und Wertebereich von f bzw. Werte- und Definitionsbereich von f −1 hin- und ¨ herspringen muss. Er kann mit dem Ubertragungsprinzip gef¨ uhrt werden. Wir benutzen aber den eben gezeigten Satz 11.8. Beweis Nach Satz 11.8 ist f ([a, b]) ein abgeschlossenes Intervall, so dass es zu jedem y0 ∈ f ([a, b]) eine in der Grenzwertdefinition geforderte (in Randpunkten einseitige) Umgebung von y0 gibt. Wir m¨ ussen nun f¨ ur jedes y0 ∈ f ([a, b]) zeigen: limy→y0 f −1 (y) = f −1 (y0 ) (einseitig f¨ ur die Intervallr¨ander, die wegen der Monotonie f (a) und f (b) sind). Nach Definition des Grenzwerts ist also zu zeigen: F¨ ur alle ε > 0

324

Kapitel 11. Grenzwerte von Funktionen und Stetigkeit

existiert ein δ = δ(ε, y0 ) > 0, so dass f¨ ur alle y ∈ f ([a, b]) mit |y − y0 | < δ gilt: |f −1 (y0 ) − f −1 (y)| < ε. Wir zeigen dies damit, dass eine stetige Funktion ein abgeschlossenes, beschr¨anktes Intervall auf ein ebensolches abbildet. Wir ersetzen dazu die εUmgebung {x : |x − f −1 (y0 )| < ε}, in der die Funktionswerte f −1 (y) liegen sollen, durch eine kleinere abgeschlossene Umgebung Iε := [f −1 (y0 ) − ε/2, f −1 (y0 ) + ε/2] ∩ [a, b]. f (Iε ) ist nach Satz 11.8 ein Intervall [c, d] := f (Iε ) ⊆ f ([a, b]), in dem insbesondere y0 liegt. Das Intervall [c, d] wird von andig in die ε-Umgebung von f −1 nach Definition auf Iε und damit vollst¨ f −1 (y0 ) abgebildet. Wenn wir innerhalb von [c, d] eine δ-Umgebung von y0 angeben k¨onnen, dann werden alle Zahlen y aus dieser Umgebung durch f −1 auf einen Wert abgebildet, der n¨aher an f −1 (y0 ) liegt als ε, und die Stetigkeit w¨are u ¨ber die Grenzwertdefinition gezeigt. Dazu unterscheiden wir die beiden F¨alle y0 ∈]c, d[ und y0 ∈ {c, d}: • Ist y0 ∈]c, d[, so folgt die Stetigkeit mit δ := min{|y0 − c|, |y0 − d|} > 0. • Ist dagegen y0 ein Randpunkt c oder d, so muss wegen der strengen Monotonie von f auch f −1 (y0 ) ein Randpunkt von Iε sein. Das geht aber nur, wenn f −1 (y0 ) = a oder f −1 (y0 ) = b ist. Damit kann in diesem Fall δ := |c − d| f¨ ur eine einseitige Umgebung gew¨ ahlt werden. 

Mit diesem Satz kann man zeigen, dass die Umkehrfunktionen der trigonometrischen Funktionen wie z. B. arctan(x) auf ihrem Definitionsbereich stetig sind. Dazu betrachtet man die trigonometrischen Funktionen auf abgeschlossenen Intervallen, auf denen sie streng monoton (und stetig) sind. Ebenfalls ist ln(x) als Umkehrfunktion der streng monoton steigenden Exponentialfunktion stetig auf ]0, ∞[. Jetzt erhalten wir die Stetigkeit weiterer wichtiger Funktionen mit der soeben bewiesenen Stetigkeit des Logarithmus. ur α ∈ R und x > 0 stetig, Beispiel 11.20 Die Potenzfunktionen xα sind f¨ da sie eine Verkettung stetiger Funktionen sind: xα = exp(α ln(x)). F¨ ur α > 0 ist xα zudem rechtsseitig stetig in 0. Das zeigen wir explizit mit 1 ur 0 ≤ x < δ ist der Grenzwertdefinition: Zu ε > 0 sei δ := ε α . F¨ |xα − 0α | = xα < δ α = ε. W¨ahlen wir insbesondere α = [0, ∞[ (vgl. Seite 301).

1 2,

so erhalten wir die Stetigkeit von

√ x auf

Beispiel 11.21 F¨ ur a > 0 ist die allgemeine Exponentialfunktion f (x) := ax = exp(x ln(a)) ebenso als Verkettung des stetigen Polynoms x ln(a) und der stetigen Exponentialfunktion stetig. Hat man eine stetige Funktion, dann ist die Frage nach der Existenz einer Umkehrfunktion vergleichsweise leicht zu beantworten. Als weitere Anwendung des Zwischenwertsatzes zeigen wir:

11.4. Eigenschaften stetiger Funktionen

325

Satz 11.10 (Monotonie und Invertierbarkeit) F¨ ur eine stetige Funktion f : [a, b] → R sind ¨aquivalent: a) f ist streng monoton auf [a, b]. b) f ist injektiv (jeder Funktionswert wird h¨ochstens einmal angenommen) mit Umkehrfunktion f −1 : f ([a, b]) → [a, b]. Beweis Aus der strengen Monotonie folgt sofort, dass f injektiv ist. Schr¨ anken wir die Zielmenge von f auf den Wertebereich f ([a, b]) ein (der wegen der Stetigkeit ein Intervall ist), dann wird f bijektiv, die Umkehrabbildung f −1 existiert. Dass die erste Aussage aus der zweiten folgt, ist eine Konsequenz des Zwischenwertsatzes f¨ ur stetige Funktionen. Zun¨ achst ist vorausgesetzt, dass f nicht an zwei Stellen den gleichen Wert annehmen kann. Wir nehmen nun an, f sei nicht streng monoton. Also gibt es Stellen x1 < x2 < x3 mit f (x1 ) < f (x2 ) > f (x3 ) oder f (x1 ) > f (x2 ) < f (x3 ). Gleichheitszeichen sind nicht zu ber¨ ucksichtigen, da f ja keinen Wert zweimal annimmt. Wir betrachten die erste Konstellation, f¨ ur die zweite k¨ onnen wir analog argumentieren. Wegen des Zwischenwertsatzes werden auf [x1 , x2 ] alle Werte aus [f (x1 ), f (x2 )] angenommen, und auf [x2 , x3 ] alle Werte aus [f (x3 ), f (x2 )]. Die Funktionswerte aus [max{f (x1 ), f (x3 )}, f (x2 )[= ∅ werden also im Widerspruch zur Injektivit¨at zweimal angenommen. Die Annahme gilt nicht, es liegt strenge Monotonie vor.  Auf Intervallen [a, b] verhalten sich stetige Funktionen besonders sch¨ on. Das geht so weit, dass sie auch eine strengere Definition der Stetigkeit erf¨ ullen. Diese werden wir beweistechnisch verwenden (z. B. um zu zeigen, dass stetige Funktionen integrierbar sind). F¨ ur technische Anwendungen ist der n¨ achste Satz aber nicht zentral: Satz 11.11 (Gleichm¨ aßige Stetigkeit ∗ ) Ist eine Funktion f auf [a, b] stetig, so ist f hier sogar gleichm¨ aßig stetig, d. h., f¨ ur jedes noch so kleine ε > 0 existiert ein δ = δ(ε), so dass f¨ ur alle x1 , x2 ∈ [a, b] mit |x1 − x2 | < δ gilt: |f (x1 ) − f (x2 )| < ε. Die gleichm¨aßige Stetigkeit ist mehr als nur Stetigkeit. Aus der gleichm¨ aßigen Stetigkeit folgt sofort die normale“ Stetigkeit an jeder Stelle x1 ∈ ” [a, b]. Das Besondere ist hier aber, dass δ nur von ε, nicht aber von einer ur jede Stelle kann also beim Stetigkeitsnachweis Stelle x1 ∈ [a, b] abh¨angt. F¨ u ahlt ¨ber die Grenzwertdefinition bei einem vorgegebenen ε das gleiche δ gew¨

326

Kapitel 11. Grenzwerte von Funktionen und Stetigkeit

werden. Das bedeutet eine zus¨atzliche Glattheit der Funktion. Noch glatter sind differenzierbare Funktionen im n¨achsten Kapitel. Beweis Sei ε > 0 beliebig vorgegeben. Da f stetig auf [a, b] ist, existiert zu ur jedem x ∈ [a, b] ein von x abh¨angiges δ = δ(x), so dass |f (x) − f (x1 )| < ε f¨ ¨ alle x1 ∈]x−δ(x), x+δ(x)[∩[a, b]. Damit erstellen wir eine offene Uberdeckung von [a, b]: F := {]x − δ(x)/2, x + δ(x)/2[: x ∈ [a, b]}. Hier k¨ onnen beliebig kleine δ(x) auftreten. Nach dem Satz von Heine-Borel (Satz 11.1, Seite 297) existiert jedoch bereits eine endliche Teilmenge von F, mit der [a, b] u ¨berdeckt werden kann. Diese hat die Gestalt {]x − δ(x)/2, x + δ(x)/2[: x ∈ E} f¨ ur eine endliche Teilmenge E ⊆ [a, b]. Sei nun δ := min{δ(x)/2 : x ∈ E}. Als Minimum von endlich vielen positiven Zahlen ist δ > 0. Mit diesem δ folgt die Aussage des Satzes: Zu jedem x1 ∈ [a, b] gibt es ein x ∈ E, so dass x1 ∈]x − δ(x)/2, x + δ(x)/2[. F¨ ur jedes x2 ∈ [a, b] mit |x1 − x2 | < δ/2 ist x2 ∈]x − δ(x), x + δ(x)[. Nach Konstruktion der Umgebungen aus der Stetigkeit ist damit aber |f (x1 ) − f (x2 )| < ε. ¨ Der Trick des Beweises ist, dass die Uberdeckung nicht mit δ(x)-, sondern mit δ(x)/2-Umgebungen realisiert wurde. 

11.5 Unstetigkeitsstellen Auch die Stellen, an denen eine Funktion nicht stetig ist, sind von Interesse. H¨ aufig muss man ihnen besonders viel Aufmerksamkeit schenken, da dort tats¨achlich etwas passiert, w¨ahrend die Funktionen sonst harmlos“ sind. ” Definition 11.11 (Unstetigkeitsstellen) Sei f : D → R, so dass eine ur ein δ0 > 0 in punktierte Umgebung ]x0 − δ0 , x0 [ ∪ ]x0 , x0 + δ0 [ von x0 f¨ D enthalten ist. • x0 heißt genau dann eine hebbare Unstetigkeitsstelle von f , wenn a) x0 ∈ D und limx→x0 f (x) existiert, aber limx→x0 f (x) = f (x0 ) oder b) x0 ∈ / D und limx→x0 f (x) existiert. In diesem Fall heißt f stetig erg¨ anzbar oder stetig fortsetzbar in x0 mit Wert limx→x0 f (x). • x0 heißt genau dann eine Sprungstelle von f , wenn die Grenzwerte limx→x0 − f (x) und limx→x0 + f (x) ∈ R existieren, aber unterschiedlich sind. • x0 heißt genau dann eine Unstetigkeitsstelle erster Art, wenn x0 eine hebbare Unstetigkeitsstelle oder eine Sprungstelle ist.

327

11.5. Unstetigkeitsstellen

• x0 heißt genau dann eine Unstetigkeitsstelle zweiter Art, wenn mindestens einer der Grenzwerte limx→x0 − f (x) oder limx→x0 + f (x) nicht existiert (dazu z¨ahlen auch die uneigentlichen Grenzwerte ±∞). • x0 heißt Polstelle oder Pol der Funktion f genau dann, wenn beide einseitigen Grenzwerte uneigentlich sind: limx→x0 − f (x) = ±∞ und limx→x0 + f (x) = ±∞, wobei auch +∞ und −∞ gemischt auftreten d¨ urfen. Polstellen sind also insbesondere Unstetigkeitsstellen zweiter Art.

y

Abb. 11.13 Unstetigkeitsstellen erster Art (Sprungstelle und hebbare Unstetigkeitsstelle) und zweiter Art (Polstelle)

      

  

  

x

Beispiel 11.22 a) Wir haben bereits gesehen, dass die auf R \ {0} stetige Funktion sin(x) stetig erg¨anzbar ist in 0 mit Wert 1 (und dann sinc(x) x heißt). b) Dagegen hat f (x) := x1 , f : R \ {0} → R \ {0} eine Unstetigkeitsstelle zweiter Art in 0, da limx→0− f (x) = −∞, limx→0+ f (x) = ∞. Insbesondere ist dies ein  Pol. c) sin x1 hat eine Unstetigkeitsstelle zweiter Art in 0, da dort der Grenzwert nicht existiert. 0 ist kein Pol. d) Unstetigkeitsstellen der Funktion ⎧ 2 , x < 0, ⎪ ⎪ ⎨ x1 0 < x ≤ 1, x, f (x) := ⎪ 2x, 1 < x < 2, ⎪ ⎩ 4, x > 2. k¨onnen nur bei 0, 1 und 2 vorliegen: i) limx→0− f (x) = limx→0− x2 = −∞, limx→0+ f (x) = limx→0+ x1 = +∞. Damit hat f bei 0 eine Unstetigkeitsstelle zweiter Art (einen Pol). ii) limx→1− f (x) = limx→1− x1 = 1, limx→1+ f (x) = limx→1+ 2x = 2. Damit hat f bei 1 eine Sprungstelle.

328

Kapitel 11. Grenzwerte von Funktionen und Stetigkeit

iii)limx→2− f (x) = limx→2− 2x = 4, limx→2+ f (x) = limx→2+ 4 = 4. Damit hat f bei 2 eine hebbare Unstetigkeitsstelle (beachte: 2 ist nicht im Definitionsbereich). Monotone Funktionen sind besonders einfach zu analysieren. Ihnen bleibt fast nichts anderes u onnen h¨ ochstens einige ¨brig, als stetig zu sein. Sie k¨ Sprungstellen, aber keine Unstetigkeitsstellen zweiter Art besitzen: Lemma 11.5 (Stetigkeit monotoner Funktionen ∗ ) Sei f : ]a, b[→ R eine auf einem Intervall ]a, b[ monotone Funktion. Dann ist f stetig auf ]a, b[ mit Ausnahme von h¨ochstens abz¨ahlbar vielen Sprungstellen. Beweis Nach Satz 11.2 existieren aufgrund der Monotonie zu jedem Punkt x0 ∈]a, b[ die beiden einseitigen Grenzwerte. Ebenfalls wegen der Monotonie ur alle x0 ∈]a, b[ oder gilt entweder limx→x0 − f (x) ≤ f (x0 ) ≤ limx→x0 + f (x) f¨ ur alle x0 ∈]a, b[. limx→x0 − f (x) ≥ f (x0 ) ≥ limx→x0 + f (x) f¨ • Stimmen die beiden Grenzwerte u ¨berein, so sind sie gleich f (x0 ), und wir haben limx→x0 f (x) = f (x0 ) und Stetigkeit in x0 . • Stimmen die beiden Grenzwerte nicht u ¨berein, so liegt bei x0 eine Sprungstelle vor. Da die rationalen Zahlen dicht in den reellen Zahlen liegen, gibt es einen Bruch px0 ∈ Q, der echt zwischen den beiden einseitigen Grenzwerten liegt. f ist also stetig auf ]a, b[ bis auf Sprungstellen. Jeder Sprungstelle haben wir einen Bruch zugeordnet. Da f monoton ist, sind die Br¨ uche zu verschiedenen Sprungstellen verschieden. Da Q aber abz¨ahlbar unendlich ist (siehe Kapitel 2.2.3), kann auch die Menge der Sprungstellen nicht gr¨ oßer sein.  H¨aufig untersucht man kritische Stellen von gebrochen-rationalen Funktionen, also Stellen, an denen der Nenner null wird: Beispiel 11.23 a) Die gebrochen-rationale Funktion f (x) = 4x−11 x−3 besitzt 1 die Nennernullstelle x0 = 3. Polynomdivision liefert f (x) = 4 + x−3 . Wir untersuchen das Verhalten von f (x) f¨ ur x → 3: • Wir n¨ahern uns der kritischen Stelle 3 von rechts: lim f (x) = lim f (3+h) = lim 4+

x→3+

h→0+

h→0+

1 1 = lim 4+ = +∞. (3 + h) − 3 h→0+ h

• Wir n¨ahern uns der kritischen Stelle 3 von links: lim f (x) = lim f (3 + h) = lim f (3 − h) = lim 4 +

x→3−

h→0−

h→0+

1 = lim 4 − = −∞. h→0+ h

h→0+

1 (3 − h) − 3

329

11.5. Unstetigkeitsstellen

Somit erweist sich x0 = 3 als Pol mit Vorzeichenwechsel. 1 b) Die gebrochen-rationale Funktion f (x) = (x+3) 2 hat die doppelte Nennernullstelle x0 = −3, lim f (x) = lim f (−3 + h) = lim

x→−3

h→0

h→0

1 1 = lim 2 = +∞. h→0 h (−3 + h + 3)2

Somit ist x0 = −3 ein Pol ohne Vorzeichenwechsel. Da im Nenner zweimal der Faktor (x+3) vorkommt, spricht man auch von einem Pol der Ordnung 2 (siehe das folgende Lemma 11.6). Lemma 11.6 (Polstellen) Ist x0 eine k-fache Nullstelle des Nennerpolynoms pn (x) der gebrochen-rationalen Funktion f (x) =

bm xm + bm−1 xm−1 + · · · + b1 x + b0 qm (x) = pn (x) an xn + an−1 xn−1 + · · · + a1 x + a0

und ist x0 keine Nullstelle des Z¨ahlerpolynoms qm (x), so besitzt f (x) bei x0 einen Pol. Ist • k gerade, dann ist x0 ein Pol ohne Vorzeichenwechsel, d. h. lim f (x) = lim f (x) = ±∞,

x→x0 −

x→x0 +

• k ungerade, dann ist x0 ein Pol mit Vorzeichenwechsel, d. h. lim f (x) = − lim f (x) = ±∞.

x→x0 −

x→x0 +

Die Zahl k heißt Ordnung des Pols. Jetzt betrachten wir kritische Stellen x0 , die sowohl Nullstellen von pn (x) als auch Nullstellen von qm (x) sind. Durch sukzessives Wegdividieren der Linearfaktoren zur gemeinsamen Nullstelle x0 erhalten wir f (x) =

qm (x) (x − x0 ) · qm−1 (x) (x − x0 )l · qm−l (x) = = ··· = , pn (x) (x − x0 ) · pn−1 (x) (x − x0 )l · pn−l (x)

bis schließlich qm−l (x0 ) = 0 oder pn−l (x0 ) = 0 gilt. • F¨ ur pn−l (x0 ) = 0 und qm−l (x0 ) = 0 oder qm−l (x0 ) = 0 folgt: f (x) kann bei x0 stetig erg¨anzt werden. • F¨ ur pn−l (x0 ) = 0 und qm−l (x0 ) = 0 folgt: f (x) hat bei x0 einen Pol. Gebrochen-rationale Funktionen besitzen also ausschließlich Pole und hebbare Unstetigkeitsstellen. Andere Unstetigkeitsstellen (z. B. Sprungstellen) k¨onnen nicht vorkommen.

330

Kapitel 11. Grenzwerte von Funktionen und Stetigkeit

Beispiel 11.24 a) F¨ ur f (x) =

x3 −x2 x−1

x2 ·(x−1) x−1

2

mit D(f ) = R\{1} erhalten wir f (x) =

= x und limx→1 f (x) = 1. Daher ist f (x) durch den Wert f (1) := 1 stetig fortsetzbar. 2 −1 = (x−1)(x+1) mit D(f ) = R \ {1} erhalten wir b) F¨ ur f (x) = 2x2x−4x+2 2(x−1)2 x+1 f (x) = 2(x−1) . F¨ ur x = 1 besitzt f (x) einen Pol mit Vorzeichenwechsel.

Kapitel 12

Differenzierbarkeit und Ableitungen Die Differenzialrechnung (das Rechnen mit Ableitungen) geht auf Arbeiten von Isaac Newton (1642–1727) und Gottfried Wilhelm Leibniz (1646–1716) im 17. Jahrhundert zur¨ uck und war ein ganz entscheidender Schritt im Aufbau der modernen Naturwissenschaften. Die Ableitung einer Funktion f an einer Stelle x ist die Steigung der Tangente an den Funktionsgraphen im Punkt (x, f (x)), sofern die Tangente wohldefiniert ist. In diesem Kapitel definieren wir die Ableitung als Grenzwert einer Funktion, dem Differenzenquotienten. Dann leiten wir die vermutlich aus der Schule bekannten Ableitungsregeln her und berechnen die Ableitungen der wichtigsten elementaren Funktionen. Eine erste Anwendung ist das Newton-Verfahren zur Nullstellensuche. Dabei wird eine Funktion lokal durch ihre Tangente angen¨ahert, die mit der Ableitung berechnet wird.

12.1 Ableitung als Grenzwert des Differenzenquotienten Die Stromst¨arke I ergibt sich als Quotient der Ladung ΔQ, die einen Leiterquerschnitt in der Zeit Δt passiert durch die zugeh¨ orige Zeitspanne Δt. Um die Stromst¨arke zu einem Zeitpunkt t zu erhalten, berechnet man den Grenzwert Q(t + Δt) − Q(t) . I(t) := lim Δt→0 Δt Dies ist gerade die Ableitung der Ladung Q(t) nach der Zeit zum Zeitpunkt t

© Der/die Autor(en), exklusiv lizenziert an Springer-Verlag GmbH, DE, ein Teil von Springer Nature 2023 S. Goebbels und S. Ritter, Mathematik verstehen und anwenden: Differenzial- und Integralrechnung, Lineare Algebra, https://doi.org/10.1007/978-3-662-68367-5_12

331

332

Kapitel 12. Differenzierbarkeit und Ableitungen

und wird mit Q (t) bezeichnet. In der Physik ist es u ¨blich, Ableitungen nach einer Variable, die die Zeit repr¨asentiert, mit einem Punkt statt mit einem ˙ Strich zu kennzeichnen: Q(t) := Q (t). Der Punkt ist die von Newton verwendete Schreibweise der Ableitung. Hier verwenden wir aber ausschließlich den Strich. Betrachten wir nun allgemein statt Q(t) eine Funktion f (x) an einer Stelle x0 ∈ D(f ), siehe Abbildung 12.1. Die Sekante s(x) durch die Punkte (x0 , f (x0 )) und (x0 + h, f (x0 + h)) mit h > 0 ist die Gerade s(x) = m · (x − x0 ) + f (x0 )

mit Steigung

m :=

f (x0 + h) − f (x0 ) . h

Im Z¨ahler des Quotienten m steht eine Differenz der Funktionswerte (H¨ ohenzuwachs) und im Nenner eine Differenz der zugeh¨ origen Argumente (Horizontaldifferenz) x0 + h − x0 = h (siehe auch Seite 104). Der Quotient heißt daher Differenzenquotient. Wenn nun h gegen 0 strebt, dann wird aus den Sekanten eine Tangente an den Funktionsgraphen von f an der Stelle x0 . Darauf gehen wir gleich noch etwas genauer ein. Die Steigung der Tangente ist f  (x0 ). Definition 12.1 (Ableitung) Sei f : D → R, und sei x0 ∈ D ein innerer Punkt. Die Funktion f heißt differenzierbar an der Stelle x0 genau dann, wenn der Grenzwert des Differenzenquotienten lim

h→0

f (x0 + h) − f (x0 ) =: f  (x0 ) h

existiert. Der Grenzwert f  (x0 ) heißt Ableitung (oder Differenzialquour f  (x0 ) ist tient) von f an der Stelle x0 . Eine alternative Schreibweise f¨ df dx (x0 ). Bei der Schreibweise df dx (x0 ) ist die Variable angegeben, nach der abgeleitet wird. Das wird sp¨ater wichtig, wenn wir Funktionen diskutieren, die von mehreren Variablen abh¨angen. Da h der Abstand (die Differenz) zwischen den Punkten x0 + h und x0 ist, findet man in der Literatur statt h auch h¨aufig wie oben die Variable Δx (Δ erinnert an Differenz“). ” W¨ urde man eine Kugel den Funktionsgraphen entlang rollen und an der urde sie sich tangential, d. h. auf einer GeStelle (x0 , f (x0 )) loslassen, so w¨ rade, die man Tangente nennt, weiterbewegen. Die Ableitung einer Funktion an einer Stelle x ist genau die Steigung, die die Tangente an den Funktionsgraphen an dieser Stelle hat. Beispiel 12.1 (Physikalischer Zugang zur Ableitung) Das Weg-ZeitGesetz der gleichf¨ormig beschleunigten Bewegung eines Fahrzeugs lautet (vgl. Beispiel 4.6 auf Seite 98)

333

12.1. Ableitung als Grenzwert des Differenzenquotienten

f

y

  

f(x0 + h)

 

f(x0 + h) − f(x0)

f(x0)       

Abb. 12.1 Differenzenquotient zur Definition der Ableitung

x0 + h − x0 = h

x0

s(t) =

x0 + h x

1 2 at + v0 t + s0 . 2

uckgelegt ist (AnHier ist s0 der Weg, der bereits zum Zeitpunkt t = 0 zur¨ fangsweg), und v0 ist die Anfangsgeschwindigkeit zum Zeitpunkt t = 0 und a die konstante Beschleunigung des Fahrzeugs. Die mittlere Geschwindigkeit vm (t, Δt) ist der Differenzenquotient aus Weg und Zeit s(t + Δt) − s(t) Δt 1 a(t + Δt)2 + v0 (t + Δt) + s0 − ( 12 at2 + v0 t + s0 ) = 2 Δt 1 2 atΔt + 2 aΔt + v0 Δt 1 = at + aΔt + v0 . = Δt 2

vm (t, Δt) =

Die Momentangeschwindigkeit v(t) zum Zeitpunkt t ist definiert als Grenzwert

s(t + Δt) − s(t) 1 = lim at + aΔt + v0 v(t) = lim vm (t, Δt) = lim Δt→0 Δt→0 Δt→0 Δt 2 = at + v0 , also v(t) = s (t) = at + v0 . Man betrachtet also die mittlere Geschwindigkeit zu immer kleiner werdenden Zeitintervallen und erh¨ alt schließlich die Geschwindigkeit zu einem Zeitpunkt. Bei der gleichf¨ ormig beschleunigten Bewegung ist die Geschwindigkeit eine lineare Funktion der Zeit. Die Be¨ schleunigung ist die zeitliche Anderungsrate v  (t) der Geschwindigkeit v  (t) = lim

Δt→0

v(t + Δt) − v(t) a(t + Δt) + v0 − (at + v0 ) = lim = a. Δt→0 Δt Δt

334

Kapitel 12. Differenzierbarkeit und Ableitungen

(t) In Anlehnung an den Differenzenquotienten f (t+Δt)−f wird die SchreibΔt d weise dt f (t) verwendet. Dabei steht df f¨ ur den Z¨ ahler und dt f¨ ur den Nenner, wenn wir Δt beliebig“ klein machen (siehe Kapitel 12.4). Außerdem ” wird die Variable angegeben, von der die Funktion abh¨ angig ist. Bei einem Weg-Zeit-Diagramm ist der Weg s(t) eine Funktion der Zeit t. Die Geschwind s(t). Entsprechend schreibt man digkeit als Ableitung des Wegs ist v(t) = dt d d   f (x) = dx f (x) oder f (u) = du f (u). Die von Leibniz eingef¨ uhrte Notation d hat sich in Verbindung mit der Integralrechnung als a ußerst geschickt er¨ dt wiesen, da sie ein formales Rechnen mit Ableitungen erlaubt. Dem steht die zuerst von Lagrange 1797 verwendete k¨ urzere Schreibweise f  entgegen, die uns bei Rechnungen aber nicht unterst¨ utzt.

    x x0

y

Abb. 12.2 Die Steigungen f (x0 +h)−f (x0 ) der Sekanten h konvergieren f¨ ur h → 0 gegen die Steigung f  (x0 ) der Tangente

f(x0 + h)

h → 0+

f(x0)

h → 0−

   x0

x0

x0 + h

x

Beispiel 12.2 (Ableitungen wichtiger Grundfunktionen) a) F¨ ur f (x) = 1 ist f  (x) = 0, denn limh→0 Konstante c ∈ R:

1−1 h

= 0. Allgemeiner gilt f¨ ur jede

d c = 0. dx b) F¨ ur f (x) = x ist f  (x) = 1, denn limh→0

x+h−x h

= 1.

d x=1 dx c) F¨ ur f (x) = xn mit n ∈ N gilt mit dem Binomischen Satz

n  n n−k k · h − xn k x (x + h)n − xn k=0  f (x) = lim = lim h→0 h→0 h h xn + nxn−1 h + h2 (. . . ) − xn = nxn−1 . = lim h→0 h

12.1. Ableitung als Grenzwert des Differenzenquotienten

335

d n x = nxn−1 dx d) F¨ ur f (x) = x1 , x = 0, folgt f  (x) = lim

h→0

1 x+h



h

1 x

= lim

h→0

1 x − (x + h) −1 = lim = − 2. h→0 (x + h)x h(x + h)x x

1 d 1 =− 2 dx x x e) Um die Ableitung des Sinus zu berechnen, ben¨ otigen wir die Stetigkeit des = 1 (siehe (11.1) auf Seite 302) und Kosinus, den Grenzwert limx→0 sin(x) x das Additionstheorem (4.14) von Seite 136. Damit gilt:



2x + h h sin(x + h) − sin(x) 2 = lim cos sin lim h→0 h→0 h h 2 2  

sin h2 2x + h = lim cos · lim = cos(x). h h→0 h→0 2 2

d sin(x) = cos(x) dx f) Wir berechnen die Ableitung des nat¨ urlichen Logarithmus auf ]0, ∞[. Da¨ bei verwenden wir das Ubertragungsprinzip, die Rechenregeln f¨ ur den Logarithmus, die zuvor gezeigte Stetigkeit und die Definition von e u ¨ber eine eine beliebige Nullfolge mit h =  0, n ∈ N. Wegen des Folge: Sei (hn )∞ n n=1 ¨ Ubertragungsprinzips gen¨ ugt es, wenn wir den folgenden Grenzwert f¨ ur den Differenzenquotienten diskutieren:   1 

x+hn x+hn hn ln(x + hn )−ln(x) 1 = lim ln = lim ln lim n→∞ n→∞ hn n→∞ hn x x ' ( '  hx · x1  hx (  hn n 1 hn n = · lim ln 1 + = lim ln 1 + n→∞ x x n→∞ x '  hx (  1 hn n (9.8) 1 (11.4) 1 · ln lim 1 + · ln(e) = . = = n→∞ x x x x

336

Kapitel 12. Differenzierbarkeit und Ableitungen

Dabei haben wir ausgenutzt, ur jedes einmal gew¨ ahlte x > 0 mit  h ∞dass f¨ n (hn )∞ n=1 auch die Folge x n=1 eine Nullfolge ist. 1 d ln(x) = dx x In Definition 12.1 n¨ahern wir uns der Stelle x0 sowohl von rechts (h positiv) als auch von links (h negativ). Betrachtet man Funktionen, deren Graphen an einer Stelle x0 einen Knick“ haben, so existiert dieser beidseitige Grenzwert ” nicht. Dennoch k¨onnen die einseitigen Grenzwerte existieren: Definition 12.2 (Einseitige Ableitungen) x0 ∈ D.

Sei f : D → R, und sei

• Gibt es eine linksseitige Umgebung ]x0 − δ0 , x0 ] ⊆ D f¨ ur ein δ0 > 0, dann heißt die Funktion f linksseitig differenzierbar an der Stelle x0 genau dann, wenn der Grenzwert lim

h→0−

f (x0 + h) − f (x0 ) f (x0 − h) − f (x0 )  = lim =: f− (x0 ) h→0+ h −h

existiert. ur ein δ0 > 0, • Gibt es eine rechtsseitige Umgebung [x0 , x0 + δ0 [⊆ D f¨ dann heißt die Funktion f rechtsseitig differenzierbar an der Stelle x0 genau dann, wenn der Grenzwert lim

h→0+

f (x0 + h) − f (x0 )  =: f+ (x0 ) h

existiert. Ist f an einer Stelle x0 rechts- oder linksseitig differenzierbar, so sagt man, f ist einseitig differenzierbar an der Stelle x0 . Beispiel 12.3 Die Funktion f (x) = |x| ist an der Stelle x0 = 0 rechts- und linksseitig differenzierbar, allerdings mit unterschiedlichen einseitigen Ableitungen, da sie dort einen Knick“ hat: ” f (h) − f (0) −h f (h) − f (0) +h = lim = −1, lim = lim = 1. lim h→0− h→0− h h→0+ h→0+ h h h Lemma 12.1 (Zusammenhang zwischen Ableitung und einseitigen Ableitungen) Eine Funktion f ist an einer Stelle x0 rechtsseitig und linksseitig differenzierbar mit gleichen einseitigen Ableitungen genau dann, wenn f in x0 differenzierbar ist.

12.1. Ableitung als Grenzwert des Differenzenquotienten

337

Beweis Die Aussage folgt direkt aus der entsprechenden Aussage f¨ ur Grenzwerte (Lemma 11.1).  Differenzierbarkeit ist wie die Stetigkeit zun¨achst nur f¨ ur einzelne Stellen x0 ∈ D erkl¨art. Definition 12.3 (Differenzierbarkeit auf offenen Mengen und Intervallen) Sei f : D → R. • Ist D eine offene Mengen, d. h., jedes x0 ∈ D ist innerer Punkt, dann heißt f auf D differenzierbar, genau dann wenn f in jedem Punkt x0 ∈ D differenzierbar ist. • f heißt auf einem Intervall differenzierbar genau dann, wenn f in jedem inneren Punkt des Intervalls differenzierbar und an Randpunkten, die zum Intervall geh¨oren, einseitig differenzierbar ist. • Die Funktion, die entsteht, indem man einer Stelle x die Ableitung von f an dieser Stelle zuordnet, heißt die von f abgeleitete Funktion (kurz d f (x) ebenfalls Ableitung). Diese Funktion wird mit f  oder auch mit dx  bezeichnet. Der Funktionswert f (x) ist also die Ableitung der Funktion f an der Stelle x0 := x. • f heißt genau dann auf einer offenen Menge oder einem Intervall stetig differenzierbar, wenn dort f  existiert und stetig ist. Man beachte, dass aus der Differenzierbarkeit von f in x0 sofort auch die Stetigkeit von f in x0 folgt, da insbesondere limh→0 f (x0 + h) − f (x0 ) = 0 gelten muss, damit der Differenzenquotient konvergieren kann: Satz 12.1 (Differenzierbare Funktionen sind stetig) Ist f : [a, b] → R differenzierbar in x0 ∈]a, b[ oder einseitig differenzierbar in x0 = a oder x0 = b, so ist f stetig in x0 . Beweis Wir zeigen f¨ ur x0 ∈]a, b[, dass limx→x0 f (x) = f (x0 ) gilt, dass also ur limh→0 f (x0 + h) − f (x0 ) = 0 ist (analog mit einseitigen Grenzwerten f¨ Randpunkte): f (x0 + h) − f (x0 ) lim f (x0 + h) − f (x0 ) = lim h · h→0 h     f (x0 + h) − f (x0 ) = 0 · f  (x0 ) = 0. = lim h · lim h→0 h→0 h

h→0

 Differenzierbare Funktionen sind also glatter“ als nur stetige Funktionen. ” Die Funktionsgraphen stetiger Funktionen sind zwar durchg¨ angig, k¨ onnen

338

Kapitel 12. Differenzierbarkeit und Ableitungen

aber noch Knicke“ wie beispielsweise f (x) = |x| f¨ ur x = 0 haben. Die ” Graphen differenzierbarer Funktionen haben dagegen keine Knicke, da sich an einem Knick rechts- und linksseitige Ableitung unterscheiden w¨ urde. Die Funktionsgraphen, die wir u oren zu Funktionen, ¨blicherweise zeichnen, geh¨ die nur an wenigen Stellen nicht differenzierbar sind. Es gibt jedoch sogar auf R definierte stetige Funktionen, die an keiner einzigen Stelle differenzierbar sind (z. B. die Weierstraß-Funktion, siehe Seite 465). Auch gibt es auf einem Intervall [a, b] differenzierbare Funktionen, deren Ableitung nicht auf [a, b] stetig ist, die also nicht stetig differenzierbar sind. Ein Beispiel ist f (x) := ur x ∈ [−1, 1] \ {0} mit f (0) := 0. f  ist in 0 nicht stetig. x2 sin x1 f¨

12.2 Ableitungsregeln Die folgenden Regeln sind ganz fundamental im Umgang mit Funktionen und m¨ ussen in der Anwendung beherrscht werden. Satz 12.2 (Ableitungsregeln) Seien die Funktionen f und g : D → R differenzierbar in einem inneren Punkt x0 von D, so gelten die folgenden Rechenregeln: • Linearit¨ at der Ableitung (c ∈ R): (f + g) (x0 ) = f  (x0 ) + g  (x0 ),

(c · f ) (x0 ) = c · f  (x0 ),

• Produktregel: (f · g) (x0 ) = f  (x0 ) · g(x0 ) + f (x0 ) · g  (x0 ), • Quotientenregel (falls g(x0 ) = 0):

 f  (x0 ) · g(x0 ) − f (x0 ) · g  (x0 ) f (x0 ) = . g g(x0 )2

Die Regeln gelten entsprechend auch f¨ ur einseitige Ableitungen. Aufgrund der Einfachheit der Regeln l¨asst sich leicht ein Programm schreiben, das Funktionen symbolisch differenziert. Darin unterscheidet sich die Differenzialrechnung von der noch zu behandelnden Integralrechnung. Leibniz hat die Produkt- und die Quotientenregel 1677 gefunden. Beweis Die Linearit¨at folgt sofort aus den Eigenschaften des Grenzwerts f¨ ur Funktionen. Die Produktregel gilt unter Ausnutzung der Stetigkeit von f und g sowie der Ableitungen:

12.2. Ableitungsregeln

339

f (x0 + h)g(x0 + h) − f (x0 )g(x0 ) h

g(x0 + h) − g(x0 ) f (x0 + h) − f (x0 ) g(x0 + h) + f (x0 ) = lim h→0 h h   = f (x0 )g(x0 ) + f (x0 )g (x0 ).

lim

h→0

Der Trick besteht hier darin, dass wir 0 = − f (xh 0 ) g(x0 + h) + f (x0 ) g(x0h+h) addiert haben. Diese Technik findet man h¨aufiger in Beweisen. Man spricht von einer konstruktiven Null“. ” Die Quotientenregel l¨asst sich analog beweisen: Da g(x0 ) = 0 und g stetig ahlt werden, dass auch g(x0 + in x0 ist, kann nach Lemma 11.2 h so klein gew¨ h) = 0.

1 f (x0 + h) f (x0 ) − lim h→0 h g(x0 + h) g(x0 ) 1 g(x0 )f (x0 + h) − g(x0 + h)f (x0 ) = lim h→0 g(x0 + h)g(x0 ) h   f (x0 + h) − f (x0 ) g(x0 + h) − g(x0 ) 1 = lim g(x0 ) − f (x0 ) . h→0 g(x0 + h)g(x0 ) h h Unter Ber¨ ucksichtigung der Stetigkeit von g in x0 , also von limh→0 g(x0 +h) =  g(x0 ), folgt daraus die Aussage des Satzes. Die Regel (c · f ) (x0 ) = c · f  (x0 ) gilt insbesondere f¨ ur negative Konstanten c. Merkw¨ urdigerweise wird in Klausuren beim Ableiten ein negatives Vorzeichen oft vergessen. Es ist mit c = −1: d d [−f (x)] = −f  (x), z. B. [− sin(x)] = − cos(x). dx dx Aus der Quotientenregel erhalten wir sofort eine Ableitungsregel f¨ ur den Kehrwert einer Funktion:

 0 − 1 · f  (x0 ) f  (x0 ) 1 (x0 ) = = − . (12.1) f f (x0 )2 f (x0 )2   Beispiel 12.4 a) Mit der Linearit¨at erhalten wir 2x3 + 5x = 6x2 + 5. b) Die Produktregel liefert   3 (x + 7x + 2) · sin(x) = (3x2 + 7) · sin(x) + (x3 + 7x + 2) · cos(x). c) Als Anwendung der Produktregel betrachten wir nochmals die Funktionen d d 1 = 0 und dx x = 1 nutzen wir die Produktregel und pn (x) = xn . Mit dx d n zeigen per Induktion, dass dx x = nxn−1 , n ∈ N0 . Der Induktionsanfang d 0 d f¨ ur n = 0 ist wegen dx x = dx 1 = 0 bereits gemacht. Unter der Annahme,

340

Kapitel 12. Differenzierbarkeit und Ableitungen

dass die Regel f¨ ur n gilt, m¨ ussen wir zeigen, dass sie auch f¨ ur n + 1 richtig ist: d d n+1 x [x · xn ] = 1 · xn + x · nxn−1 = (n + 1)xn . = dx dx Die Regel gilt auch f¨ ur negative Exponenten. Mit der Quotientenregel erhalten wir f¨ ur n ∈ Z, n < 0: d n d 1 0 − 1 · (−nx−n−1 ) x = = = nxn−1 . −n dx dx x x−2n d) Mittels Linearit¨at und Quotientenregel k¨onnen wir nun jede gebrochen2 +4x+3)·3 d x2 +4x+3 = (2x+4)·(3x+4)−(x . rationale Funktion ableiten, z. B.: dx 3x+4 (3x+4)2

Satz 12.3 (Kettenregel) Sei f ◦ g : D → R, so dass g differenzierbar in x0 und f differenzierbar in g(x0 ) ist. Dann ist die Funktion f ◦ g mit [f ◦ g](x) = f (g(x)) differenzierbar in x0 , und es gilt: [f ◦ g] (x0 ) = f  (g(x0 ))g  (x0 ). Man merkt sich die Kettenregel in der Form: ¨ außere Ableitung mal innere ” Ableitung“.



! Achtung

Bei der Anwendung der Kettenregel werden viele Fehler gemacht. Die Verkettung [f ◦ g](x) bedeutet, dass man zun¨achst den Wert u = g(x) berechnen muss. Dann berechnet man f an der Stelle u. Ist z. B. f (u) = u2 + u + 1 und g(x) = sin(x), so ist [f ◦ g](x) = f (g(x)) = sin2 (x) + sin(x) + 1. Jedes Auftreten der Variable von f wird durch g(x) ersetzt. Leitet man nun eine verkettete Funktion [f ◦ g](x) ab, so kann man f separat ableiten und diese Ableitung an der Stelle g(x) betrachten: f  (g(x)). Das ist aber noch nicht die Ableitung der Verkettung. Zus¨atzlich muss man die innere Funktion g ableiten (man spricht vom Nachdifferenzieren der inneren Funktion) d f (g(x)) = und diese Ableitung mit f  (g(x)) multiplizieren: [f ◦ g] (x) = dx       f (g(x))g (x). Im Allgemeinen ist [f ◦g] (x) = f (g (x)), [f ◦g] (x) = f  (g(x)), [f ◦ g] (x) = f (g  (x))f  (x) usw. Beweis Es gilt f (g(x0 + h)) − f (g(x0 )) h

341

12.2. Ableitungsregeln

g(x0 + h) − g(x0 ) · = h

7

f (g(x0 +h))−f (g(x0 )) , g(x0 +h)−g(x0 ) f  (g(x0 )),

g(x0 + h) = g(x0 ), g(x0 + h) = g(x0 ).

Man beachte, dass im Fall g(x0 + h) = g(x0 ) auf beiden Seiten der Gleichung eine Null steht. Aufgrund der Stetigkeit von g ist limh→0 g(x0 + h) = g(x0 ). Mit h → 0 ˜ = 0, so lau˜ := g(x0 + h) − g(x0 ) gegen 0. Ist h strebt also auch h f (g(x0 +h))−f (g(x0 )) = tet der Ausdruck hinter der geschweiften Klammer g(x0 +h)−g(x0 ) ˜ f (g(x0 )+h)−f (g(x0 )) , ˜ h

sonst ist er f  (g(x0 )). Insgesamt strebt er damit f¨ ur h → 0  ˜ (und damit h → 0) gegen f (g(x0 )), und es ist f (g(x0 + h)) − f (g(x0 )) (f ◦ g) (x0 ) = lim h→0 h

g(x0 + h) − g(x0 ) f  (g(x0 )) = g  (x0 )f  (g(x0 )). = lim h→0 h  Auch die Kettenregel gilt unter sinnvollen Voraussetzungen f¨ ur einseitige Ableitungen. In Ingenieurb¨ uchern findet man die Kettenregel bisweilen in der Schreibweise d df dg d [f (g)] = [f ◦ g)] = · . dx dx dg dx Diese unterstreicht, dass man die ¨außere Ableitung bildet, indem man die innere Funktion g(x) durch eine Variable (hier g) ersetzt und dann f danach ableitet. Anschließend muss man aber g wieder durch g(x) ersetzen. Wir werden die ausf¨ uhrlichere Schreibweise unter Angabe der Variable x bzw. der Stelle x0 verwenden. Beispiel 12.5 a) Es gilt d sin(x2 ) = 2x cos(x2 ), dx außere Funkhier ist g(x) = x2 die innere Funktion und f (y) = sin(y) die ¨ tion.   b) (x2 − 2x + 3)4 = 4(x2 − 2x + 3)3 · (2x − 2). c) Wegen cos(x) = sin(x + π/2) (siehe Lemma 4.9.2 auf Seite 130) ist   d π π d  π d cos(x) = sin x + = cos x + · x+ dx dx  2 2 dx 2 π = sin(x + π) = − sin(x). = cos x + 2 Innere Funktion bei dieser Rechnung ist g(x) = x + π2 , die a ¨ußere ist f (y) = sin(y). Mit diesem Ergebnis k¨onnen wir mittels der Quotientenregel

342

Kapitel 12. Differenzierbarkeit und Ableitungen

auch die Ableitungen von Tangens und Kotangens ausrechnen, wobei zur Vereinfachung die Formel (4.5), d. h. sin2 (x) + cos2 (x) = 1, verwendet werden kann: d sin(x) cos2 (x) + sin2 (x) 1 d tan(x) = = = , dx dx cos(x) cos2 (x) cos2 (x)

π x = (2k + 1) , 2

d cos(x) − sin2 (x) − cos2 (x) d 1 cot(x) = = =− 2 , dx dx sin(x) sin2 (x) sin (x)

x = kπ.

d) Als Anwendung der Kosinus-Funktion haben wir in Kapitel 4.9 einen Wechselstromgenerator diskutiert (siehe Abbildung 4.25 auf Seite 132), bei dem sich der magnetische Fluss durch eine Leiterschleife mit der Zeit t darstellt als Φ(t) = Φ0 · cos(ct). Nun k¨onnen wir daraus mit der Kettend Φ(t) regel die induzierte Spannung mit der Lenz’schen Regel u(t) = − dt berechnen: u(t) = −Φ0 · [−c sin(ct)] = Φ0 c sin(ct). Wir halten fest: d cos(x) = − sin(x), dx

d 1 tan(x) = , dx cos2 (x)

d 1 cot(x) = − 2 . dx sin (x)

Die Ableitung des ungeraden Sinus ist die gerade Kosinus-Funktion. Deren Ableitung ist die ungerade Funktion − sin(x). Das ist kein Zufall. Ist f eine gerade, auf R differenzierbare Funktion (also f (x) = f (−x)), so ist f  ungerade (also f  (−x) = −f  (x)): f (−x + h) − f (−x) f (x)=f (−x) f (x − h) − f (x) = lim h→0 h→0 h h f (x − h) − f (x) f (x + h) − f (x) = − lim = − lim = −f  (x). h→0 h→0 −h h

f  (−x) = lim

Entsprechend ist die Ableitung einer ungeraden Funktion gerade. Beispiel 12.6 Die aus der Quotientenregel gewonnene Ableitungsregel (12.1) d 1 1 l¨asst sich wegen dx x = − x2 auch mit der Kettenregel zeigen. Dazu setzen 1 wir h(x) := x und erhalten

 1 d 1 f  (x)  h(f (x)) = h (f (x))f  (x) = − (x) = f (x) = − . f dx f (x)2 f (x)2 Beispiel 12.7 Strom i(t) und Spannung u(t) sind an einem Kondensator mit Kapazit¨at C u ¨ber die Differenzialgleichung i(t) = Cu (t) miteinander verkn¨ upft. Bei einer Wechselspannung u(t) = u ˆ cos(ωt + ϕu ) ist damit ˆω sin(ωt + ϕu + π) i(t) = −C u ˆω sin(ωt + ϕu ) = C u

343

12.2. Ableitungsregeln

 π = Cu ˆω cos (ωt + ϕi ) , = Cu ˆω cos ωt + ϕu + 2

ϕi := ϕu +

π . 2

Der Strom eilt der Spannung also um π2 voraus. Außerdem gilt f¨ ur die Amˆ plituden i und u ˆ von Strom und Spannung: 1 u ˆ u ˆ = . = ˆi Cu ˆω Cω Der komplexe Wechselstromwiderstand ZC des Kondensators ist damit (siehe (5.8) auf Seite 167) u ˆej[ωt+ϕu ] u(t) u ˆ = = ej(ϕu −ϕi ) j[ωt+ϕ ] ˆie ˆi i i(t) π   π  j 1 −j π 1  e 2 = cos − j sin =− . = Cω Cω 2 2 Cω

ZC =

(12.2)

Beispiel 12.8 An einer Spule mit Induktivit¨at L gilt f¨ ur Spannung u(t) und Strom i(t): u(t) = Li (t). Bei i(t) = ˆi cos(ωt + ϕi ) ist damit  π u(t) = −Lˆiω sin(ωt + ϕi ) = Lˆiω sin(ωt + ϕi + π) = Lˆiω cos ωt + ϕi + 2 π ˆ = Liω cos (ωt + ϕu ) , ϕu := ϕi + . 2 Die Spannung eilt dem Strom um

π 2

voraus. Außerdem ist

Lˆiω u ˆ = = Lω. ˆi ˆi Der komplexe Wechselstromwiderstand ZL der Spule ist damit (siehe (5.8) auf Seite 167) ZL =

 π   π  π u ˆ j(ϕu −ϕi ) + j sin = jLω. = Lωej 2 = Lω cos e ˆi 2 2

(12.3)

Die Ableitungsregeln erg¨anzen sich. Mit der Produkt- und der Kettenregel k¨onnen wir z. B. die Quotientenregel nachrechnen: d d f  (x) d f (x) = [f (x) · (g(x))−1 ] = + f (x) · (g(x))−1 dx g(x) dx g(x) dx f  (x) f  (x)g(x) − f (x)g  (x) + f (x) · [−(g(x))−2 ] · g  (x) = = . g(x) (g(x))2 d −1 Hier haben wir aber etwas geschummelt, da wir zuvor dx x = −x−2 mit der Quotientenregel ausgerechnet haben, die wir damit indirekt doch in der Rechnung verwendet haben.

344

Kapitel 12. Differenzierbarkeit und Ableitungen

Als weitere Anwendung der Kettenregel leiten wir implizit definierte Funktionen und Umkehrfunktionen ab. Mit der Kettenregel lassen sich Funktionen y = f (x), die nur in einer impliziten Darstellung F (x, y) = 0 gegeben sind, differenzieren. So erhalten wir beispielsweise mit der Kettenregel die Ableitung von y 2 − x − y = 0 (also 1 f¨ ur y = 12 von f (x)2 − x − f (x) = 0) zu 2y · y  − 1 − y  = 0 ⇐⇒ y  = 2y−1 1  (also f (x) = 2f (x)−1 ). Die Ableitung einer Umkehrfunktion l¨asst sich, wie in Abbildung 12.3 dargestellt, anschaulich am Funktionsgraphen ablesen: Hat f an der Stelle x0 eine Tangente mit Steigung f  (x0 ), dann wird durch Vertauschung der Bezeichnungen von x- und y-Achse diese Tangente zur Tangente an den Graphen von ohenzuwachs und Horizontalf −1 an der Stelle f (x0 ). Vertauscht wird auch H¨ 1 differenz des Steigungsdreiecks der Tangente, so dass [f −1 ] (f (x0 )) = f  (x 0) der Kehrwert der Ableitung f  (x0 ) ist. Dazu muss nat¨ urlich f  (x0 ) = 0 sein. Diese Formel erhalten wir auch weniger anschaulich mittels rein formaler Anwendung der Kettenregel: 1=

  d −1 d x= f (f (x)) = f −1 (f (x)) · f  (x). dx dx

Mit y = f (x) ist also



 f −1 (y) =

1 f  (f −1 (y))

.

Damit man die Kettenregel in dieser Form anwenden darf, muss f differenzierbar an der Stelle x mit f  (x) = 0 und f −1 differenzierbar an der Stelle y = f (x) sein. Wir formulieren eine f¨ ur die Differenzierbarkeit von f −1 hinreichende Bedingung. Zun¨achst sei f injektiv (d. h. f −1 existiert) und stetig auf einem Intervall [a, b] (F¨ ur eine auf einem Intervall stetige Funktion ist, wie Satz 11.10 auf Seite 325 zeigt, die Injektivit¨at gleichbedeutend mit strenger Monotonie). Ist f dann zus¨atzlich differenzierbar an einer Stelle x0 ∈ [a, b] mit f  (x0 ) = 0, so ist f −1 differenzierbar an der Stelle y0 := f (x0 ), und es gilt 

 f −1 (f (x0 )) =

1 f  (x

0)

,



 f −1 (y0 ) =

1 . f  (f −1 (y0 ))

Man beachte, dass man aus der formalen Anwendung der Kettenregel nicht uhen wir die auf die Differenzierbarkeit von f −1 schließen kann. Dazu bem¨ Definition der Ableitung: Beweis Wir berechnen [f −1 ] (y0 ) als Grenzwert des Differenzenquotienten ¨ mittels des Ubertragungsprinzips (Satz 11.3 auf Seite 307). Dazu sei (yn )∞ n=1 eine beliebige Folge im Wertebereich von f mit limn→∞ yn = y0 = f (x0 ) und ur alle n ∈ N. Da f injektiv ist, gilt auch f −1 (yn ) = f −1 (y0 ) = x0 , yn = y0 f¨ und wir d¨ urfen durch f −1 (yn ) − f −1 (y0 ) dividieren:

345

12.2. Ableitungsregeln

f

f (x0)

      

x

      

   

y

x0

   

f −1

   x0

x

  

f (x0)

y

Abb. 12.3 Steigung der Umkehrfunktion an der Stelle f (x0 )

1 f −1 (yn ) − f −1 (y0 ) = lim n→∞ n→∞ −1 yn −y0−1 yn − y0 f (y )−f (y lim

n

=

0)

1

−1 (x0 ) limn→∞ f (ff −1(y(ynn))−f )−x0

=

1 f  (x

0)

,

denn wegen der geforderten Stetigkeit von f ist nach Satz 11.9 auch f −1 stetig, so dass limn→∞ f −1 (yn ) = f (y0 ) = x0 ist. Damit liefert die Richtung ¨ a) =⇒ b) des Ubertragungsprinzips wegen der Differenzierbarkeit von f an 1 . Da die Folge (yn )∞ der Stelle x0 den angegebenen Grenzwert f  (x n=1 beliebig 0) ¨ gew¨ahlt war, stellt die andere Richtung b) =⇒ a) des Ubertragungsprinzips sicher, dass [f −1 ] (f (x0 )) = [f −1 ] (y0 ) = lim

y→y0

1 1 f −1 (y)−f −1 (y0 ) =  −1 . =  y−y0 f (x0 ) f (f (y0 )) 

Beispiel 12.9 (Ableitungen wichtiger Umkehrfunktionen) 1

a) Da f −1 (x) := x n f¨ ur x > 0 die Umkehrfunktion zu f (x) := xn ist, gilt: 1 1 1 1 1 1 −1 d 1 x n =  −1 = xn , = 1 n−1 = n−1 dx f (f (x)) n n n n[x ] x n Insbesondere sollten Sie sich merken: d 1 1 d √ x2 = √ . x= dx dx 2 x

n ∈ N.

346

Kapitel 12. Differenzierbarkeit und Ableitungen

b) F¨ ur den Arkussinus erhalten wir 1 d 1 arcsin(x) = , = dx cos(arcsin(x)) sin (arcsin(x))

−1 < x < 1.

Diesen Term k¨onnen wir noch vereinfachen. Wegen − π2 < arcsin(x) < π2 ist cos(arcsin(x)) > 0, so dass wir die trigonometrische Fassung des Satzes von Pythagoras (4.5) ausnutzen k¨onnen, um die trigonometrischen Funktionen zu eliminieren:    cos(arcsin(x)) = cos2 (arcsin(x)) = 1 − sin2 (arcsin(x)) = 1 − x2 . 1 d arcsin(x) = √ , dx 1 − x2

−1 < x < 1.

Entsprechend erhalten wir die Ableitung des Arkuskosinus. Wegen 0 < arccos(x) < π f¨ ur x ∈] − 1, 1[ ist sin(arccos(x)) > 0 und    sin(arccos(x)) = sin2 (arccos(x)) = 1 − cos2 (arccos(x)) = 1 − x2 . 1 1 1 d arccos(x) = =− = −√ dx cos (arccos(x)) sin(arccos(x)) 1 − x2 f¨ ur −1 < x < 1. Zur Berechnung der Ableitung des Arkustangens nutzen wir f¨ ur x ∈ R 1 cos2 (arctan(x))

=

sin2 (arctan(x)) + cos2 (arctan(x)) cos2 (arctan(x))

= tan2 (arctan(x)) + 1 = 1 + x2 aus und erhalten 1 d arctan(x) = = dx tan (arctan(x))

1 1

=

cos2 (arctan(x))

1 , 1 + x2

x ∈ R.

c) F¨ ur die Exponentialfunktion als Umkehrfunktion zu ln(x) gilt wegen d 1 dx ln(x) = x : 1 d exp(x) =  = dx ln (exp(x))

1 1 exp(x)

= exp(x),

x ∈ R.

347

12.2. Ableitungsregeln

Die Ableitung der Exponentialfunktion ist die Exponentialfunktion selbst! Dies zeichnet diese Funktion und damit auch die Zahl e, u ¨ber die sie gebildet wird, aus. Wegen dieser Identit¨at hat die Funktion ihre Bedeutung in den Naturwissenschaften. Einen anderen Weg, um diese wichtige Ableitung zu berechnen, sehen Sie sp¨ater mit (16.14) auf Seite 476. d) Damit k¨onnen wir auch die folgenden Ableitungen berechnen: d d x a = exp(x ln(a)) = ln(a) exp(x ln(a)) = ax ln(a), dx dx

a > 0, x ∈ R.

d d x x = exp(x ln(x)) dx dx  x exp(x ln(x)) = [ln(x) + 1]xx , x > 0. = ln(x) + x

(12.4)

d n x = nxn−1 u Außerdem k¨onnen wir die bereits bekannte Regel dx ¨ber rationale Exponenten hinaus f¨ ur allgemeine Exponenten a ∈ R zeigen (x > 0):

a a d d a x = exp(a ln(x)) = exp(a ln(x)) = xa = axa−1 . dx dx x x Man beachte, dass diese Regel nicht auf ax angewendet werden darf, da hier die Variable im Exponenten steht. Das ist ein h¨ aufig gemachter Fehler! Beispiel 12.10 (Logarithmische Ableitung) F¨ ur differenzierbare, positi  (x) ve Funktionen f erhalten wir aus der Kettenregel wegen [ln(f (x))] = ff (x) eine weitere Ableitungsregel (logarithmische Ableitung): f  (x) = f (x) ·

d ln(f (x)). dx

Diese muss man sich aber nicht merken, da sie nur eine spezielle Variante der Kettenregel ist. Zum Beispiel ist f¨ ur x > 0  x d x d d x = xx ln(xx ) = xx (x · ln(x)) = xx ln(x) + = xx (ln(x) + 1). dx dx dx x Beispiel 12.11 (Ableitung der Hyperbelfunktionen) Die Ableitungen der Hyperbelfunktionen sind: d ex − e−x ex + e−x d sinh(x) = = = cosh(x), dx dx 2 2 d ex + e−x ex − e−x d cosh(x) = = = sinh(x), dx dx 2 2 d ex − e−x [ex + e−x ][ex + e−x ] − [ex − e−x ][ex − e−x ] d tanh(x) = = x −x dx dx e + e [ex + e−x ]2

348

Kapitel 12. Differenzierbarkeit und Ableitungen

[ex − e−x ]2 = 1 − tanh2 (x), [ex + e−x ]2 d ex + e−x [ex − e−x ][ex − e−x ] − [ex + e−x ][ex + e−x ] d coth(x) = = dx dx ex − e−x [ex − e−x ]2 x −x 2 [e + e ] = 1− x = 1 − coth2 (x). [e − e−x ]2 = 1−

Man beachte, dass sich die Hyperbelfunktionen ¨ ahnlich, aber nicht v¨ ollig anad sin(x) = log zu den trigonometrischen Funktionen verhalten. W¨ ahrend dx d d cos(x) und dx sinh(x) = cosh(x) eine Parallele ist, weichen dx cos(x) = d − sin(x) und dx cosh(x) = sinh(x) bez¨ uglich des Vorzeichens voneinander ab.

Tabelle 12.1 H¨ aufig ben¨ otigte Ableitungen Ableitung f 

Funktion f f (x) = xn , f (x) =

xa ,

f (x) = ax , f (x) =

ex ,

x ∈ R, n ∈ N

f  (x) = n · xn−1

a > 0, x ∈ R

f  (x) = ax · ln(a)

x > 0, a ∈ R

f  (x) = a · xa−1

x∈R

f (x) = ln(x),

f  (x) = ex f  (x) =

x ∈]0, ∞[

f (x) = sinh(x), f (x) = cosh(x), f (x) = tanh(x), f (x) = coth(x),

x∈R

f  (x) = cosh(x)

x∈R

f  (x) = 1 − tanh2 (x)

x∈R

f  (x) = sinh(x)

x ∈ R, x = 0

f  (x) = 1 − coth2 (x)

f (x) = sin(x), x ∈ R

f (x) = cos(x), x ∈ R

f (x) = tan(x), x ∈ R, x =

π (2k 2

f (x) = cot(x), x ∈ R, x = kπ f (x) = arcsin(x),

x ∈] − 1, 1[

f (x) = arccos(x),

x ∈] − 1, 1[

f (x) = arctan(x), f (x) = arccot(x),

1 x

x∈R

x∈R

f  (x) = cos(x)

f  (x) = − sin(x)

+ 1) f  (x) = f  (x)

=

f  (x)

=

f  (x) = f  (x) = f  (x) =

1 cos2 (x) − sin21(x) √ 1 1−x2 −√ 1 2 1−x 1 1+x2 1 − 1+x 2

349

12.3. Newton-Verfahren

12.3 Newton-Verfahren Mit Hilfe der Ableitung kann man das Intervallschachtelungsverfahren zur Bestimmung von Nullstellen von Seite 320 zumindest f¨ ur differenzierbare Funktionen durch ein besseres“ Verfahren ersetzen, das h¨ aufig schneller zu ” Nullstellenn¨aherungen vergleichbarer Genauigkeit gelangt. Dabei wird ausgenutzt, dass eine Tangente zumindest lokal eine gute N¨ aherung an den Funktionsgraphen ist. Dazu startet man an einer Stelle x1 , die nahe bei der Nullstelle x0 liegen sollte. Nun ersetzt man die Funktion f durch die Tangente g1 an f bei x1 : g1 (x) = f (x1 ) + f  (x1 )(x − x1 ). Falls f  (x1 ) = 0, hat diese Gerade genau die eine Nullstelle x2 := x1 −

f (x1 ) . f  (x1 )

f(x1) + f′(x  1)(x − x1)

y f(x)

f(x2) + f′(x  2)(x − x2)

x0 x3

x2

x1

x

Abb. 12.4 Zwei Iterationen des Newton-Verfahrens

Wenn die Tangente g1 die Funktion f gen¨ ugend gut approximiert, dann wird der Punkt x2 n¨aher bei x0 liegen als der Startpunkt x1 . Jetzt setzt man das ur x1 fort, indem man die Tangente g2 an f in Verfahren f¨ ur x2 wie zuvor f¨ alt die Folge (xn )∞ x2 bestimmt usw. (siehe Abbildung 12.4). Man erh¨ n=1 mit xn+1 = xn −

f (xn ) , f  (xn )

(12.5)

die gegen die Nullstelle x0 konvergieren soll. Man nennt dieses Iterationsverfahren das Newton-Verfahren. Die gute Nachricht ist: Wenn die Folge (xn )∞ n=1 gegen eine Zahl x0 konvergiert, dann ist der Grenzwert x0 eine Nullstelle. Es kann also nichts Falsches herauskommen. Genauer gilt f¨ ur eine stetig differenzierbare Funktion f , deren Ableitung stets von null verschieden ist, aufgrund der Stetigkeit von f und f  :

350

Kapitel 12. Differenzierbarkeit und Ableitungen

 x0 = lim xn+1 = lim n→∞

= x0 +

n→∞

   f (lim f (xn ) n→∞ xn ) = lim xn −  xn −  n→∞ f (xn ) f (limn→∞ xn )

f (x0 ) . f  (x0 )

Vergleichen wir die linke und rechte Seite, so muss f (x0 ) = 0 sein. In einer Anwendung k¨onnen wir also in ein paar Iterationen ausrechnen und absch¨atzen, ob sich die Werte einer Zahl n¨ ahern, die dann Nullstelle ist. Die schlechte Nachricht ist, dass die Folge ohne Einschr¨ ankung an den Startpunkt nicht immer konvergiert. Man kann mit Satz 13.5, den wir in einem Einschub auf Seite 363 vorstellen, zeigen, dass das Verfahren konvergiert, wenn man x1 ∈]x0 − δ, x0 + δ[ w¨ahlt und wenn f¨ ur alle x ∈]x0 − δ, x0 + δ[ sowohl f  (x) = 0 ist, als auch gilt: |f (x)||f (2) (x)| < λ < 1. (f  (x))2

(12.6)

(2)

(x)| ankt, so kann man die Bedingung erf¨ ullen, Ist der Quotient |f (f  (x))2 beschr¨ indem man δ klein genug und damit den Startpunkt nahe bei x0 w¨ ahlt. Denn hier sind die Funktionswerte von f klein wegen limx→x0 f (x) = 0.

Beispiel 12.12 Mit dem Newton-Verfahren berechnen wir ausgehend von x0 = 12 die ersten zwei Iterationen, um eine Nullstelle von f (x) = x2 − 1 zu finden: Hier ist x2 − 1 . xn+1 = xn − n 2xn Wir starten bei x0 = 12 : x1 =

3 5 1 + 4 = , 2 1 4

x2 =

5 − 4

9 16 5 2

=

9 41 50 − = . 40 40 40

Offensichtlich hat f (x) = x2 − 1 = (x − 1)(x + 1) die Nullstelle 1. Auch die Newton-Iterierten xn , n = 1, 2, . . . konvergieren gegen 1. Im Newton-Verfahren wird eine Nullstelle einer Funktion f durch die Nullstellen von Tangenten angen¨ahert, die lokal die Funktion f gut beschreiben. Falls man keine Ableitungen berechnen m¨ochte, kann man statt der Tangenten auch Sekanten verwenden, die im Allgemeinen die Funktion aber nicht ganz so gut wie Tangenten lokal ann¨ahern. Das resultierende Sekantenverahe fahren sieht dann so aus: Wir starten mit zwei Stellen x1 und x2 in der N¨ einer vermuteten Nullstelle. Dann berechnen wir eine Folge mit Gliedern xn f¨ ur n ≥ 2 als Nullstellen der Sekanten gn+1 (x) =

f (xn ) − f (xn−1 ) (x − xn ) + f (xn ) xn − xn−1

351

12.4. Das Differenzial

durch die Punkte (xn−1 , f (xn−1 )) und (xn , f (xn )): gn+1 (xn+1 ) = 0 ⇐⇒ xn+1 = xn −

xn − xn−1 f (xn ). f (xn ) − f (xn−1 )

Das gelingt, falls stets f (xn ) = f (xn−1 ) ist. Falls die Folge konvergiert und f im betrachteten Intervall differenzierbar mit einer Ableitung ohne Nullstelahert len ist, strebt die Folge gegen eine Nullstelle x0 von f . In der Regel n¨ sich dann das Verfahren immer noch wesentlich schneller der Nullstelle als das Intervallschachtelungsverfahren. Allerdings besitzt das Sekantenverfahren (aber auch das Newton-Verfahren) nicht die Eigenschaft, dass x0 stets zwischen xn und xn+1 liegt.

12.4 Das Differenzial In diesem Abschnitt schauen wir uns den Hintergrund der Schreibweise df dx n¨ aher an und gehen darauf ein, wie mit dem Symbol df in der IngenieurMathematik gerechnet wird. Inhaltlich geschieht nichts Neues. Ist f eine Funktion mit der Variable x und ist x0 eine feste Stelle aus dem Definitionsbereich von f , so bezeichnet man zur Horizontaldifferenz dx = Δx := x − x0 den H¨ohenzuwachs (die Wertedifferenz) mit Δf := f (x) − f (x0 ) = f (x0 + Δx) − f (x0 ). ¨ ¨ Δf gibt also die Anderung der Funktionswerte bei einer Anderung des Arur kleine Werte von Δx erhalten wir die N¨ aherung guments x0 um Δx an. F¨ (vgl. mit dem Mittelwertsatz (Seite 361) und dem Satz von Taylor (Seite 441), die wir beide sp¨ater behandeln) Δf =

f (x) − f (x0 ) · Δx ≈ f  (x0 ) · Δx. Δx

Definition 12.4 (Differenzial) Das Differenzial df : R → R einer differenzierbaren Funktion f an einer Stelle x0 ist eine Abbildung, die die Horizontaldifferenz dx = Δx = x − x0 abbildet auf den Wert f  (x0 ) · Δx: df (Δx) := f  (x0 ) · Δx.

352

Kapitel 12. Differenzierbarkeit und Ableitungen

Das Differenzial df h¨angt von der gew¨ahlten Stelle x0 ab und beschreibt den linearen Anteil des Wertezuwachses Δf der Funktion in Abh¨ angigkeit des Zuwachses Δx = dx. Mit ihm l¨asst sich n¨ aherungsweise der Funktionsgraph von f in einer kleinen Umgebung des Arbeitspunktes (x0 , f (x0 )) darstellen als Gerade g(x) := f (x0 ) + df (x − x0 ), die eine Tangente an den Funktionsgraphen beschreibt, also f (x0 + Δx) ≈ g(x0 + Δx) = f (x0 ) + df (Δx). ur die AbleiMit dem Begriff des Differenzials wird die Schreibweise df dx f¨ tung verst¨andlich, wenn man df durch df (dx) ersetzt und dx als Differenz dx auffasst: f  (x0 ) · Δx df df (dx) = ˆ = = f  (x0 ). dx dx Δx Beispiel 12.13 a) Nahe bei der Stelle x0 = 0 ersetzen wir sin(x) und cos(x) durch die Tangente an den Funktionsgraphen, die wir mit dem Differenzial schreiben: • F¨ ur f (x) = sin(x) mit f  (x) = cos(x) gilt bei x0 = 0: f (0) = 0, f  (0) = 1 und damit df (dx) = 1 · dx. Die Tangente im Arbeitspunkt (0, 0) hat die Geradengleichung g(dx) = dx, d. h., f¨ ur kleine |x| erh¨ alt man die g¨ angige Approximation sin(x) ≈ x, die man auch am Einheitskreis ablesen kann (siehe Kapitel 4.9). • F¨ ur f (x) = cos(x) mit f  (x) = − sin(x) gilt bei x0 = 0: f (0) = 1,  f (0) = 0 und damit ist df = 0 die Nullfunktion. Die Tangente im Arbeitspunkt (0, 1) hat die Gleichung g(dx) = 1, d. h., f¨ ur kleine Werte |x| hat man cos(x) ≈ 1. b) F¨ ur die Funktion f (x) = sin(x) vergleichen wir Wertedifferenz und Differenzial an der allgemeinen Stelle x0 : Δf = sin (x0 + Δx) − sin(x0 ) (4.8)

= sin(x0 ) · cos(Δx) + cos(x0 ) · sin(Δx) − sin(x0 ) = sin(x0 )(cos(Δx) − 1) + cos(x0 ) · sin(Δx),

und f¨ ur kleine |Δx| ist cos(Δx) − 1 ≈ 0 und sin(Δx) ≈ Δx, so dass aus ur das der Wertedifferenz ann¨ahernd das Differenzial an der Stelle x0 f¨ Argument Δx wird: df (Δx) = cos(x0 ) · Δx. Eine wichtige Anwendung des Differenzials ist die Fehlerrechnung. Ist f (x) eine gegebene Funktion, dann ist in der Praxis die Frage von Bedeutung, ¨ welche Auswirkung eine Anderung (Fehler) der Argumente von x0 zu x0 +Δx auf die zugeh¨origen Funktionswerte hat. Dabei heißt die Wertedifferenz Δf = f (x0 + Δx) − f (x0 ) der absolute Fehler. Ist f (x0 ) = 0, so nennt man

353

12.5. H¨ ohere Ableitungen Δf f (x0 )

den relativen Fehler. Indem man die Wertedifferenz durch den Wert df (Δx) des Differenzials zur Stelle x0 ersetzt, erh¨ alt man N¨ aherungswerte f¨ ur den absoluten und relativen Fehler, vgl. [Dobner und Engelmann(2002), Band 1, S. 150]. Beispiel 12.14 Aus einer Messung der Kantenl¨ ange a eines W¨ urfels wird sein Volumen V = V (a) = a3 berechnet. Bei der Messung ist ein Messfehler unvermeidbar. Wenn bekannt ist, dass der maximale Messfehler Δa betr¨ agt, interessiert uns, wie groß der relative Fehler des berechneten Volumens maximal ist. Mit dem Differenzial dV an der Stelle a erhalten wir f¨ ur den maximalen absoluten Fehler ΔV ≈ dV (Δa) =

dV (a) · Δa = 3a2 · Δa da

und damit f¨ ur den relativen Fehler dV (Δa) 3a2 Δa 3Δa ΔV ≈ = . = V (a) V (a) a3 a W¨ahlen wir konkret den maximalen Messfehler Δa = ±0,1 cm und die gemessene Kantenl¨ange a = 100 cm, so erhalten wir f¨ ur den (maximalen) relativen Fehler die N¨aherung dV (Δa) 3 · (±0,1) = = ±0,003, V (a) 100 also einen relativen Fehler von maximal 0,3%. Wir greifen das Thema Fehlerrechnung im Rahmen der mehrdimensionalen Analysis in Band 2 nochmals auf.

12.5 H¨ohere Ableitungen Die Ableitung einer Funktion kann unter Umst¨ anden auch wieder abgeleitet werden. So kommt man zu h¨oheren Ableitungen, die iterativ berechnet werden. Als Schreibweise f¨ ur die n-te Ableitung verwenden wir: f (n) (x) =

dn d (n−1) f f (x) := (f (n−1) ) (x) = (x), n dx dx

wobei f (1) (x) = f  (x) und f (0) (x) = f (x). Zweite und dritte Ableitungen schreibt man auch als f  (x) := f (2) (x) und f  (x) := f (3) (x). Die Angabe, wie oft abzuleiten ist, wird als Index oben an die Funktion geschrieben. Damit es zu keinen Verwechselungen mit Potenzen kommt, sind die Klammern erforderlich.

354

Kapitel 12. Differenzierbarkeit und Ableitungen



! Achtung

Es ist h¨aufig bequem, die Funktion als ihre nullte Ableitung zu bezeichnen: f (x) = f (0) (x). So werden k¨ unftig Fallunterscheidungen vermieden.

Definition 12.5 (Stetige Differenzierbarkeit) Ist f auf einem Intervall n-mal differenzierbar und f (n) dort stetig, so heißt f n-mal stetig differenzierbar auf diesem Intervall. Man beachte dabei, dass auch die Funktionen f (k) , 0 ≤ k < n, stetig sind, da sie sogar differenzierbar sind. Je h¨aufiger eine Funktion (stetig) differenzierbar ist, desto glatter“ ist ihr Funktionsgraph. Stetige Funktionen k¨ onnen noch ” Knicke“ haben, bei einmal stetig differenzierbaren Funktionen kann die erste ” Ableitung Knicke“ haben. Bei einer Weg-Zeit-Funktion entspricht ein solcher ” Knick einem Sprung in der Beschleunigung. Beispiel 12.15 d dx d3 dx3

sin(x) = cos(x), d sin(x) = − dx sin(x) = − cos(x),

d2 dx42 d dx4

d sin(x) = dx cos(x) = − sin(x), d sin(x) = − dx cos(x) = sin(x),

m! dn m xm−n , n ≤ m. x = m(m − 1)(m − 2) · · · (m − n + 1)xm−n = n dx (m − n)! Die Ableitungsregeln aus Satz 9.1 von Seite 254 lassen sich auf h¨ ohere Ableitungen u ¨bertragen, indem man sie mehrfach anwendet. So ist dn dn dn [cf (x) + dg(x)] = c f (x) + d g(x). dxn dxn dxn Die Produktregel wird zur Leibniz-Regel: (f · g)(n) (x) =

n  n (k) f (x) · g (n−k) (x). k

k=0

Beweis Wir m¨ ussen eine Aussage f¨ ur jedes n ∈ N beweisen und tun dies mittels Vollst¨andiger Induktion. Der Induktionsanfang f¨ ur n = 1 ist genau die Produktregel. Zum Schritt von n nach n + 1 nutzen wir die Linearit¨ at der Ableitung und ebenfalls die Produktregel: Die Aussage gelte f¨ ur n (Induktionsannahme). Wir zeigen sie damit f¨ ur n + 1:  n   n d f (k) (x)g (n−k) (x) (f · g)(n+1) (x) = dx k k=0

355

12.5. H¨ ohere Ableitungen n  n [f (k+1) (x)g (n−k) (x) + f (k) (x)g (n+1−k) (x)] k k=0 n+1 n  n  n (k) (k) (n+1−k) = f (x)g f (x)g (n+1−k) (x). (x) + k−1 k

=

k=1

k=0

Jetzt fassen wir die u ¨berlappenden Summanden beider Summen zusammen:  n 

 n n (n+1) f (k) (x)g (n+1−k) (x) + (x) = (f · g) k k−1 k=1



n (0) n (n+1) (0) f (x)g (n+1) (x) f (x)g (x) + + 0 n n

(2.1)  n + 1 f (k) (x)g (n+1−k) (x) = k k=1



n + 1 (0) n + 1 (n+1) f (x)g (n+1) (x) f (x)g (0) (x) + + 0 n+1 n+1  n + 1 f (k) (x)g (n+1−k) (x). = k k=0

 Beispiel 12.16 Wir wenden die Leibniz-Regel an: d2 2 (x sin(x)) dx2 2  2 (x2 )(k) (sin(x))(2−k) = x2 [− sin(x)] + 2 · 2x cos(x) + 2 sin(x) = k k=0

= (2 − x2 ) sin(x) + 4x cos(x). Beispiel 12.17 (Kubische Spline-Interpolation) In Kapitel 4.6.2 haben wir die Lagrange-Interpolation betrachtet, bei der ein Polynom gesucht wird, das an vorgegebenen St¨ utzstellen ebenfalls vorgegebene Funktionswerte annimmt. Ein Polynom vom Grad n hat (unter Ber¨ ucksichtigung der Vielfachheit) n Nullstellen. Je mehr St¨ utzstellen vorliegen, desto gr¨ oßer wird n und desto wilder“ oszilliert das Interpolationspolynom. Hier ist es oft g¨ unsti” ger, eine Interpolationsfunktion st¨ uckweise u ¨ber Polynome kleinen Grades so ¨ zusammenzusetzen, dass die Uberg¨ ange m¨oglichst glatt sind. Entsprechende Interpolationsfunktionen heißen Splines. Der Begriff stammt aus dem Schiffsbau, bei dem d¨ unne Holzplanken u utzstellen gebogen und anein¨ber St¨ ¨ andergesetzt werden. Die Glattheitsbedingungen an den Uberg¨ angen k¨ onnen wir nun mittels Ableitungen formulieren. Dazu sehen wir uns in diesem Bei-

356

Kapitel 12. Differenzierbarkeit und Ableitungen

spiel kubische Splines an, bei denen die aneinandergesetzten Polynomen alle vom Grad drei sind. Gegeben seien dazu n + 1 St¨ utzstellen a = x0 < x1 < · · · < xn = b und St¨ utzwerte y0 , y1 , . . . , yn . Gesucht ist eine auf [a, b] definierte kubische Splinefunktion ⎧ x 0 ≤ x < x1 , s0 (x), ⎪ ⎪ ⎪ ⎨ s1 (x), x 1 ≤ x < x2 , s(x) := (12.7) .. ⎪ . ⎪ ⎪ ⎩ sn−1 (x), xn−1 ≤ x ≤ xn , mit Polynomen si (x) = ai +bi (x−xi )+ci (x−xi )2 +di (x−xi )3 ,

i ∈ {0, 1, . . . , n−1} (12.8)

vom Grad drei, die die folgenden Bedingungen erf¨ ullen: si (xi ) si (xi+1 ) si (xi+1 ) si (xi+1 )

= yi f¨ ur i ∈ {0,1, . . . , n − 1} und sn−1 (xn ) = yn (Interpolation),

= si+1 (xi+1 ) = yi+1 f¨ ur i ∈ {0, 1, . . . , n − 2} (Stetigkeit),  = si+1 (xi+1 ) f¨ ur i ∈ {0, 1, . . . , n − 2} (Differenzierbarkeit),

= si+1 (xi+1 ) f¨ ur i ∈ {0, 1, . . . , n − 2} (2-te Differenzierbarkeit).

Zus¨atzlich werden am linken und rechten Intervallrand Werte der ersten oder zweiten Ableitung vorgegeben. W¨ahlt man s0 (x0 ) = sn−1 (xn ) = 0, so spricht man von einem nat¨ urlichen Spline. Legt man dagegen hier die erste Ableitung mit vorgegebenen Werten fest, so ist ein Hermite’scher-Spline gesucht. Wir zeigen jetzt, dass durch die Bedingungen und die Randbedingung eines nat¨ urlichen Splines genau ein kubischer Spline definiert ist. Außerdem leiten wir ein Gleichungssystem und Formeln her, u ¨ber die die Koeffizienten ai , bi , ci und di berechnet werden k¨onnen. Offensichtlich ist der erste Teil der Interpolationsbedingung ¨ aquivalent mit ur i ∈ {0, 1, . . . , n − 1}, ai = yi f¨ urzung setzen wir so dass die Koeffizienten ai bereits festgelegt sind. Zur Abk¨ ur i ∈ {0, 1, . . . , n − 1}. hi := xi+1 − xi und Δyi := yi+1 − yi f¨ Damit erhalten wir aus der Stetigkeitsbedingung, der Interpolation an der Stelle xn , sowie den beiden Ableitungsbedingungen ur i ∈ {0, 1, . . . , n − 1}, ai + bi · hi + ci · h2i + di · h3i = yi+1 f¨ h2i

bi + 2ci · hi + 3di · = bi+1 f¨ ur i ∈ {0, 1, . . . , n − 2}, ur i ∈ {0, 1, . . . , n − 2}. 2ci + 6di · hi = 2ci+1 f¨

(12.9) (12.10) (12.11)

357

Literaturverzeichnis

Wegen s (x0 ) = 0 ist c0 = 0, und wegen sn−1 (xn ) = 0 folgt 2cn−1 + 6dn−1 · hn−1 = 0.

(12.12)

Die Koeffizienten di und bi lassen sich direkt aus den Werten ci berechnen: Mit cn := 0 folgt aus (12.11) und (12.12): di =

2ci+1 − 2ci ci+1 − ci = f¨ ur i ∈ {0, 1, . . . , n − 1}. 6hi 3hi

(12.13)

ur i ∈ {0, 1, . . . , n − 1} mit (12.9) Mit di werden bei bekannten ci auch die bi f¨ berechnet: 1 hi 1 = hi

bi =



  1  yi+1 − ai − ci · h2i − di · h3i = Δyi − ci · h2i − di · h3i (12.14) hi  1 ci+1 2 ci 2  2 1 2 h + hi = Δyi − hi · ci − hi · ci+1 . Δyi − ci · hi − 3 i 3 hi 3 3

Jetzt m¨ ussen wir nur noch die ci finden. Dazu setzen wir (12.13) und (12.14) in (12.10) ein, i ∈ {0, 1, . . . , n − 2}: 2 1 1 Δyi − hi · ci − hi · ci+1 + 2hi · ci + hi (ci+1 − ci ) hi 3 3 2 1 1 Δyi+1 − hi+1 · ci+1 − hi+1 · ci+2 = hi+1 3 3 1 2 1 1 1 ⇐⇒ hi · ci + (hi + hi+1 ) · ci+1 + hi+1 · ci+2 = Δyi+1 − Δyi 3 3 3 hi+1 hi

1 1 ⇐⇒ hi · ci + 2(hi + hi+1 ) · ci+1 + hi+1 · ci+2 = 3 Δyi+1 − Δyi . hi+1 hi Damit erhalten wir ein lineares Gleichungssystem f¨ ur c1 , c2 , . . . , cn−1 mit einer symmetrischen Tridiagonalmatrix (beachte c0 = cn = 0): ⎤ ⎡ h1 0 ... 0 2(h0 +h1 ) ⎞ ⎛ Δy1 Δy0 ⎞ ⎛ ⎥ ⎢ .. . c h1 − h0 1 . ⎥ ⎢ . h1 . 2(h1 +h2 ) h2 Δy2 Δy1 ⎟ ⎥ ⎜ c2 ⎟ ⎜ ⎢ ⎟ h2 − h1 ⎟ ⎜ ⎥⎜ ⎢ .. .. ⎟. ⎜ · = 3 ⎟ ⎥ ⎜ ⎢ .. .. . . 0 h 0 ⎟ ⎜ 2 ⎥⎝ . ⎠ ⎝ ⎢ . ⎠ ⎥ ⎢ .. . . . Δyn−1 Δyn−2 .. .. .. ⎦ cn−1 ⎣ . hn−2 − hn−1 hn−2 0 ... 0 hn−2 2(hn−2 +hn−1 )

Literaturverzeichnis Dobner und Engelmann(2002). Dobner, H.-J. und Engelmann, B.: Analysis Band 1 und 2. Fachbuchverlag Leipzig/Hanser, M¨ unchen, 2002/2003.

Kapitel 13

Zentrale S¨atze der Differenzialrechnung In diesem Kapitel sehen wir uns die vielleicht sch¨ onsten S¨ atze der klassischen Analysis an, die die M¨achtigkeit des Konzepts der Ableitung belegen. Mit Ableitungen lassen sich Stellen finden, an denen Funktionen gr¨ oßte und kleinste Funktionswerte annehmen. Mit dem Mittelwertsatz, der besagt, dass die mittlere Steigung tats¨achlich auch angenommen wird, lassen sich Fehlerabsch¨ atzungen durchf¨ uhren. Und mit dem Satz von L’Hospital lassen sich Grenzwerte berechnen, die bislang mit den Grenzwerts¨atzen nicht zug¨ anglich waren. Insbesondere sehen wir beispielsweise, dass der Bruch“ 0/0 nicht sinnvoll mit ” einem Zahlenwert identifiziert werden kann.

13.1 Satz von Fermat: notwendige Bedingung f¨ur lokale Extrema An Stellen lokaler Extrema muss die Ableitung null sein: Hier geht es augenblicklich weder weiter bergauf noch bergab. Satz 13.1 (Fermat, 1601–1665, hier 1630) Sei f : D → R, x0 ∈ D ein innerer Punkt, und sei f differenzierbar in x0 . Hat f in x0 ein lokales Extremum, dann ist (notwendigerweise) f  (x0 ) = 0.

© Der/die Autor(en), exklusiv lizenziert an Springer-Verlag GmbH, DE, ein Teil von Springer Nature 2023 S. Goebbels und S. Ritter, Mathematik verstehen und anwenden: Differenzial- und Integralrechnung, Lineare Algebra, https://doi.org/10.1007/978-3-662-68367-5_13

359

360

Kapitel 13. Zentrale S¨ atze der Differenzialrechnung

Beweis Wir beweisen die Aussage f¨ ur ein lokales Maximum, f¨ ur ein lokales Minimum verl¨auft der Beweis v¨ollig analog. Da x0 ein innerer Punkt ist, existiert wegen des lokalen Maximums ein δ > 0, so dass f (x0 ± h) ≤ f (x0 ) f¨ ur alle 0 ≤ h < δ. Damit gilt f¨ ur den Differenzenquotienten f¨ ur 0 < h < δ f (x0 − h) − f (x0 ) f (x0 + h) − f (x0 ) ≤0≤ . h −h

(13.1)

Da f differenzierbar in x0 ist, ist f hier insbesondere rechts- und linksseitig   (x0 ) = f+ (x0 ) = f  (x0 ). F¨ ur h → 0+ ist wegen (13.1) differenzierbar mit f−    aber f+ (x0 ) ≤ 0 ≤ f− (x0 ) (siehe Folgerung 11.2), so dass f  (x0 ) = 0. Dies ist eine notwendige Bedingung (siehe Seite 22) f¨ ur die Existenz eines lokalen Extremums. Ist also f  (x0 ) = 0, so kann an der Stelle x0 kein Extremum liegen. Ist dagegen f  (x0 ) = 0, so kann hier ein Extremum liegen, das ist aber nicht zwingend und muss weiter untersucht werden. Zum Beispiel ist f¨ ur f (x) = x3 zwar f  (0) = 3 · 02 = 0, aber die Funktion hat hier weder ein lokales Minimum noch ein lokales Maximum. Ist f  (x0 ) = 0, ohne dass ein Extremum vorliegt, so spricht man von einem Sattelpunkt. Beispiel 13.1 Die Funktion f (x) := (x + 2)2 ist eine Parabel mit der Nullstelle −2. Da die Funktionswerte nicht negativ werden, hat f in −2 ein lokales und globales Minimum. Wir erwarten also f  (−2) = 0, was wegen f  (x) = 2(x + 2) auch stimmt. Nullstellensuche und die Suche nach lokalen Extrema h¨ angen also sehr eng zusammen. Beispielsweise kann man das Newton-Verfahren (Seite 349) nutzen, um Nullstellen der Ableitung und damit Kandidaten f¨ ur lokale Extremstellen zu finden. Umgekehrt lassen sich zumindest einige Nullstellen einer Ableitung f  u ¨ber lokale Extrema von f finden.

13.2 Mittelwerts¨atze der Differenzialrechnung Wir kommen nun zu den Mittelwerts¨atzen und beginnen mit der einfachsten Variante, auf der die anderen Formulierungen basieren: Satz 13.2 (Satz von Rolle, 1652–1719, hier 1680) Sei f stetig auf [a, b] und differenzierbar auf ]a, b[ mit f (a) = f (b). Dann existiert mindestens eine Stelle ξ ∈]a, b[ mit f  (ξ) = 0.

361

13.2. Mittelwerts¨ atze der Differenzialrechnung

y f(a) = f(b) f′(ξ)  =0 a

Abb. 13.1 Satz von Rolle

b x

ξ

Hat eine stetige Funktion an den Endpunkten eines Intervalls die gleichen Funktionswerte, so gibt es dazwischen eine horizontale Tangente an den Funktionsgraphen (siehe Abbildung 13.1). Beweis Da f stetig auf [a, b] ist, nimmt f hier Maximum und Minimum an. Falls f (x) = f (a) = f (b) f¨ ur alle x ∈ [a, b] vorliegt, ist die Aussage des Satzes trivial, da f (x) = c und f  (x) = 0. Anderenfalls gibt es mindestens eine Stelle ξ ∈]a, b[, an der f ein Maximum oder Minimum annimmt. Damit muss hier  aber notwendigerweise f  (ξ) = 0 sein. Jetzt k¨onnen wir den eigentlichen Mittelwertsatz von Lagrange (1736–1813) beweisen: y f′(ξ)  = f(b)

f(b) − f(a) b−a

f(a)

Abb. 13.2 Mittelwertsatz

a

ξ

b

x

Satz 13.3 (Mittelwertsatz der Differenzialrechnung) Sei f stetig auf [a, b] und differenzierbar auf ]a, b[. Dann existiert mindestens eine Stelle ξ ∈]a, b[, so dass f (b) − f (a) = f  (ξ). b−a Der Satz besagt also, dass es eine Stelle ξ gibt, an der die Tangente an den Funktionsgraphen genau die gleiche Steigung hat wie die Gerade

362

Kapitel 13. Zentrale S¨ atze der Differenzialrechnung

g(x) := f (a) +

f (b) − f (a) · (x − a) b−a

durch die Punkte (a, f (a)) und (b, f (b)) (siehe Abbildung 13.2). Betrachten wir den Funktionsgraphen als Weg-Zeit-Diagramm, bei dem auf der x-Achse die Zeit und auf der y-Achse der Weg abgetragen ist, so ist der Differen(a) die Durchschnittsgeschwindigkeit zwischen den Zeitzenquotient f (b)−f b−a punkten a und b. Der Satz besagt, dass die Durchschnittsgeschwindigkeit tats¨achlich als Momentangeschwindigkeit in einem Zeitpunkt ξ angenommen wird. Das ist auch nicht verwunderlich, wenn sich die Geschwindigkeit nur stetig ¨andert: Die Geschwindigkeit kann auf [a, b] nicht immer kleiner als die Durchschnittsgeschwindigkeit sein. Ebenso kann sie nicht immer gr¨ oßer als die Durchschnittsgeschwindigkeit sein, sonst w¨ urde es sich nicht um die Durchschnittsgeschwindigkeit handeln. Die Momentangeschwindigkeit stimmt also (wegen des Zwischenwertsatzes) irgendwo mit der Durchschnittsgeschwindigkeit u ¨berein. Der Satz gilt aber auch ohne die Voraussetzung der Stetigkeit der Ableitung. Im Beweis benutzen wir den Satz von Rolle. Er ist der Spezialfall f (b) = f (a). Indem wir von f die Funktionswerte der Gerade g abziehen, k¨onnen wir den allgemeineren Fall des Mittelwertsatzes in diesen Spezialfall u uhren: ¨berf¨ Beweis Wir betrachten die aufgrund der Voraussetzungen an f auf [a, b] stetige und auf ]a, b[ differenzierbare Hilfsfunktion h(x) := f (x) − g(x), also h(x) := f (x) − f (a) −

f (b) − f (a) (x − a). b−a

Diese Funktion ist so konstruiert, dass h(a) = h(b) = 0. Nach dem Satz von (a) Rolle gibt es nun aber ein ξ ∈]a, b[ mit 0 = h (ξ) = f  (ξ) − f (b)−f , und das b−a ist die Aussage des Satzes.  Mittelwertsatz (f¨ ur differenzierbare Funktionen) klingt so ¨ ahnlich wie Zwischenwertsatz (f¨ ur stetige Funktionen). Der Zwischenwertsatz besagt aber, das zwischen zwei Funktionswerten auch alle anderen Zahlen als Funktionswerte angenommen werden, w¨ahrend der Mittelwertsatz besagt, dass die Steigung einer Sekanten tats¨achlich auch an einer Stelle angenommen wird. Im Folgenden ben¨otigen wir noch eine verallgemeinerte Form des Mittelwertsatzes: Satz 13.4 (Verallgemeinerter Mittelwertsatz der Differenzialrechnung ∗ ) Seien f, g stetig auf [a, b] und differenzierbar auf ]a, b[ mit g  (x) = 0, x ∈]a, b[. Dann existiert mindestens eine (gemeinsame) Stelle ξ ∈]a, b[, so dass f  (ξ) f (b) − f (a) =  . g(b) − g(a) g (ξ)

363

13.2. Mittelwerts¨ atze der Differenzialrechnung

Der Mittelwertsatz ist gerade der Spezialfall f¨ ur g(x) = x. Wendet man andererseits den Mittelwertsatz separat auf f und g an, so erh¨ alt man zwei Stellen ξ und μ mit f  (ξ)(b − a) f  (ξ) f (b) − f (a) =  =  . g(b) − g(a) g (μ)(b − a) g (μ)

Die Aussage des verallgemeinerten Mittelwertsatzes ist dar¨ uber hinaus, dass man eine gemeinsame Stelle ξ = μ finden kann. Beweis Zun¨achst ist der Bruch auf der linken Seite wohldefiniert, da wegen des Mittelwertsatzes angewendet auf g gilt: g(b) − g(a) = (b − a)g  (ξg ) = 0. Zum Beweis des Satzes wenden wir analog zum Beweis des Mittelwertsatzes den Satz von Rolle wieder auf eine Hilfsfunktion h(x) an: h(x) := f (x) − f (a) − [g(x) − g(a)]

f (b) − f (a) . g(b) − g(a)

Zusammen mit f und g ist h stetig auf [a, b] und differenzierbar auf ]a, b[. Nach Konstruktion ist h(a) = h(b) = 0. Damit existiert nach dem Satz von Rolle ein ξ ∈]a, b[, so dass 0 = h (ξ) = f  (ξ) − g  (ξ)

f (b) − f (a) . g(b) − g(a) 

Mit Hilfe des Mittelwertsatzes k¨onnen praktische Fehlerabsch¨ atzungen durchgef¨ uhrt werden. Wertet man mittels eines Computers eine (stetig differenzieraufig x0 nur n¨ ahebare) Funktion an einer Stelle x0 ∈ [a, b] aus, so liegt h¨ rungsweise als x ˜0 ∈ [a, b] vor (da man nur endlich viele Stellen speichern kann). Daher macht man einen Fehler x0 )| = |f  (ξ)||x0 − x ˜0 | ≤ max{|f  (x)| : x ∈ [a, b]}|x0 − x ˜0 |. |f (x0 ) − f (˜ uhrt daher bei stetig differenzierEine kleine Abweichung zwischen x ˜0 und x0 f¨ baren Funktionen auch nur zu einem kleinen Unterschied der Funktionswerte. Weiß man sogar, dass f¨ ur eine differenzierbare Funktion f : R → R f¨ ur ur x1 = x2 : |f (x1 ) − f (x2 )| = alle x ∈ R gilt: |f  (x)| ≤ λ < 1, so ist f¨ aher zu|f  (ξx1 ,x2 )||x1 − x2 | ≤ λ|x1 − x2 |. Die Funktionswerte liegen also n¨ sammen als die Ausgangswerte. Man spricht von einer Kontraktion (siehe Hintergrundinformationen).

364

Kapitel 13. Zentrale S¨ atze der Differenzialrechnung

Hintergrund: Kontraktionen und der Banach’sche Fixpunktsatz

Definition 13.1 (Kontraktion) Man nennt eine Funktion f : R → R, f¨ ur ur alle die es eine Zahl 0 ≤ λ < 1 gibt mit |f (x1 ) − f (x2 )| ≤ λ|x1 − x2 | f¨ x1 , x2 ∈ R, eine Kontraktion. Ist f eine Kontraktion, so ist f insbesondere (gleichm¨ aßig) stetig auf R (vgl. Satz 11.11). Kontraktionen spielen eine wichtige Rolle bei vielen numerischen Verfahren, mit denen man L¨osungen mathematischer Probleme n¨ aherungsweise mit dem Computer berechnet. Das liegt am Banach’schen Fixpunktsatz. Definition 13.2 (Fixpunkt) Ein Fixpunkt einer Funktion f ist eine Stelle x0 mit f (x0 ) = x0 . f h¨alt also x0 fix, bildet die Stelle x0 auf sich selbst ab. Ein Fixpunkt von f ist eine Nullstelle von f (x) − x. Satz 13.5 (Banach’scher Fixpunktsatz, Stefan Banach, 1892–1945) Jede Kontraktion f : R → R besitzt genau einen Fixpunkt x0 , und dieser ahlbarem x1 ∈ R und ist der Grenzwert jeder Folge (xn )∞ n=1 mit beliebig w¨ xn+1 := f (xn ). Der Satz sagt also nicht nur etwas u ¨ber die Existenz eines Fixpunktes aus, sondern liefert direkt ein programmierbares Verfahren, um den Fixpunkt zu bestimmen. F¨ ur die praktische Verwendung ist insbesondere die allgemeinere Fassung auf Seite 648 hilfreich. Beweis F¨ ur den Beweis erinnern wir uns an die Konvergenz von Reihen und das Vergleichskriterium Satz 10.7 von Seite 284: Wir schreiben die Folge (xn )∞ n=1 als Teleskopsumme (siehe Kapitel 3.2): xn+1 − x1 = (xn+1 − xn ) + (xn − xn−1 ) + (xn−1 − xn−2 ) + · · · + (x2 − x1 ) n  = (xk+1 − xk ). k=1

Da f eine Kontraktion ist, gilt f¨ ur den Abstand zweier Folgenglieder (k > 1) |xk+1 − xk | = |f (xk ) − f (xk−1 )| ≤ λ|xk − xk−1 | = λ|f (xk−1 ) − f (xk−2 )|

365

13.2. Mittelwerts¨ atze der Differenzialrechnung

≤ λ2 |xk−1 − xk−2 | ≤ · · · ≤ λk−1 |x2 − x1 |.

(13.2)

Damit ∞ k¨onnen wir aber das Vergleichskriterium anwenden, und die Reihe k=1 (xk+1 − xk ) ist konvergent, da sie eine geometrische Reihe als konvergente Majorante ∞  k=1

λk−1 |x2 − x1 | = |x2 − x1 |

∞ 

(10.1)

λk =

k=0

|x2 − x1 | 1−λ

besitzt. Also existiert der Grenzwert x0 := lim xn = lim xn+1 = x1 + lim [xn+1 − x1 ] n→∞

n→∞

n→∞

= x1 + lim

n→∞

n 

(xk+1 − xk ) = x1 +

k=1

∞ 

(xk+1 − xk ).

k=1

Jetzt m¨ ussen wir noch zeigen, dass x0 Fixpunkt und eindeutig ist. Da f stetig ist, gilt:   f (x0 ) = f lim xn = lim f (xn ) = lim xn+1 = lim xn = x0 , n→∞

n→∞

n→∞

n→∞

x0 ist also ein Fixpunkt. G¨abe es einen weiteren Fixpunkt x ˜0 = x0 , so liefert die Kontraktionsbedingung einen Widerspruch: ˜0 | = |f (x0 ) − f (˜ x0 )| ≤ λ|x0 − x ˜0 |. |x0 − x ˜0 | > 0 ist, muss λ = 0 sein. Damit erhalten wir wegen 0 < λ < 1 Da |x0 − x ˜0 | < |x0 − x ˜0 |.  den Widerspruch |x0 − x Alternativ zum Grenzwertnachweis u onnen ¨ber das Vergleichskriterium k¨ eine Cauchy-Folge und daher konvergent wir auch direkt zeigen, dass (xn )∞ n=1 ist. Der folgende Ansatz hat den Vorteil, dass er direkt auch eine Fehlerabur k ∈ N (siehe (13.2)) sch¨atzung liefert. Mit |xk+1 − xk | ≤ λk−1 |x2 − x1 | f¨ erhalten wir f¨ ur zwei Indizes k > n ≥ 1: |xk − xn | = |xk − xk−1 + xk−1 − xk−2 ± · · · + xn+1 − xn |

≤ |xk − xk−1 | + · · · + |xn+1 − xn | ≤ (λk−2 + · · · + λn−1 ) · |x2 − x1 | (3.2)

≤ λn−1 (λk−1−n + · · · + 1) · |x2 − x1 | = λn−1 ≤

λn−1 · |x2 − x1 |. 1−λ

1 − λk−n |x2 − x1 | 1−λ

Wegen λ < 1 kann zu jedem ε > 0 ein n0 ∈ N bestimmt werden mit ur alle k > n > n0 , |xk − xn | < ε f¨

(13.3)

366

Kapitel 13. Zentrale S¨ atze der Differenzialrechnung

d. h., (xn )∞ andigkeit von R n=1 ist eine Cauchy-Folge, die wegen der Vollst¨ ur den wir im Beweis die Fixgegen einen Grenzwert x0 ∈ R konvergiert, f¨ punkteigenschaft gezeigt haben. Die rechte Seite in (13.3) ist unabh¨ angig von k, so dass λn−1 · |x2 − x1 |. (13.4) |x0 − xn | = lim |xk − xn | ≤ k→∞ 1−λ Mit dieser Absch¨atzung kann man vor Beginn der Berechnung mit einer Iteration schon sagen, nach wie vielen Iterationen eine vorgegebene Distanz zum gesuchten Fixpunkt x0 sicher unterschritten wird. Daher heißt sie A-prioriAbsch¨ atzung. W¨ahlt man dagegen statt x1 den Startwert xn−1 , so wird aus (13.4) die A-posteriori-Absch¨ atzung |x0 − xn | ≤

λ · |xn − xn−1 |. 1−λ

(13.5)

In Computeralgorithmen wird xn+1 = f (xn ) iterativ angewendet, bis man eine gen¨ ugend gute N¨aherungsl¨osung hat. Zwei derartige Verfahren haben wir bereits kennengelernt: • Newton-Verfahren (Seite 349): Eine Nullstelle einer differenzierbaren Funktion f berechnet sich als Fixpunkt der Funktion g(x) := x − ff(x) (x) , sofern  f (x) nirgends null ist. Die Bedingung (12.6) bewirkt, dass g eine Kontraktion ist:    (f  (x))2 − f (x)f (2) (x)  |f (x)||f (2) (x)| < λ < 1. |g  (x)| = 1 − = (f  (x))2 (f  (x))2 • Jacobi- und Gauß-Seidel-Verfahren zum L¨osen linearer Gleichungssysteme (siehe Seite 205): Hier wird bei einem Gleichungssystem mit m Variablen und Gleichungen keine Funktion f : R → R, sondern eine Funktion uhrt aber die allgemeinere Fassung des f : Rm → Rm verwendet. Hier f¨ Fixpunktsatzes auf Seite 648 zu einer Konvergenzaussage, siehe Seite 658.

Beispiel 13.2 Wir betrachten eine differenzierbare Funktion f : R → R, deren Ableitung f¨ ur große Werte von x gr¨oßer als eine Zahl c > 0 ist. Anschaulich bedeutet das, dass die Funktion f¨ ur große x streng monoton steigt und die Steigung gr¨oßer als c ist. Wir erwarten also limx→∞ f (x) = ∞. Das rechnen wir mit dem Mittelwertsatz nach. ur alle x > x0 Wegen der Voraussetzung existiert eine Stelle x0 , so dass f¨ f (x)−f (x0 )  = f  (ξ) f¨ ur eine gilt f (x) > c > 0. Nach dem Mittelwertsatz ist x−x0  Stelle ξ ∈]x0 , x[. Wegen f (ξ) > c > 0 folgt daraus f (x) − f (x0 ) > c(x − x0 ), d. h. f (x) > c · x + f (x0 ) − c · x0 . Gibt man eine Zahl M > 0 vor, so gilt f¨ ur alle

367

13.2. Mittelwerts¨ atze der Differenzialrechnung

f (x)

x0 x4 x3

x2 = f (x1)

x1

Abb. 13.3 Fixpunktiteration mit dem Satz von Banach



1 x > max x0 , [M + c · x0 − f (x0 )] , c dass f (x) > M . Damit ist limx→∞ f (x) = ∞ gezeigt. Mit dem Mittelwertsatz k¨onnen wir sofort den Fehler bei linearer LagrangeInterpolation (siehe Kapitel 4.6.2) absch¨atzen. Eine auf [a, b] stetige und auf ]a, b[ zweimal differenzierbare Funktion f wird durch das Polynom p1 (x) :=

x−a f (b) − f (a) x−b f (a) + f (b) = f (a) + (x − a) a−b b−a b−a

an den Stellen a und b interpoliert. Wegen des Mittelwertsatzes gibt es eine onnen wir Stelle ξ1 ∈]a, b[, so dass p1 (x) = f (a) + f  (ξ1 )(x − a). Ebenso k¨ mit dem Mittelwertsatz die Funktion f mit einer (von x abh¨ angenden) Stelle ur den ξ2 ∈]a, x[ schreiben: f (x) = f (a) + f  (ξ2 )(x − a). Damit erhalten wir f¨ Fehler |f (x) − p1 (x)| = |[f  (ξ2 ) − f  (ξ1 )](x − a)|.

Jetzt ist die Funktion f  auf dem Intervall zwischen ξ1 und ξ2 ebenfalls difonnen. ferenzierbar, so dass wir auch f¨ ur f  den Mittelwertsatz verwenden k¨ Es gibt eine Stelle ξ3 ∈]a, b[ mit |f (x) − p1 (x)| = |f  (ξ3 )| · |ξ2 − ξ1 | · |x − a| ≤ |f  (ξ3 )| · |b − a|2 .

Allgemeiner k¨onnen wir den Fehler der Lagrange-Interpolation mit n + 1 verschiedenen St¨ utzstellen x0 , . . . , xn , an denen ein Polynom vom Grad n mit der gegebenen Funktion f u ahnlich wie im Beweis des ¨bereinstimmt, ¨ Mittelwertsatzes mit dem Satz von Rolle darstellen:

368

Kapitel 13. Zentrale S¨ atze der Differenzialrechnung

Satz 13.6 (Fehler der Lagrange-Interpolation) Sei f auf [a, b] eine n+1-mal differenzierbare Funktion und pn das Lagrange-Interpolationspolynom vom Grad n aus Kapitel 4.6.2, das f an den verschiedenen St¨ utzstellen x0 , x1 , . . . , xn ∈ [a, b] interpoliert: f (xk ) = pn (xk ), 0 ≤ k ≤ n. Dann gibt es f¨ ur jedes x ∈ [a, b] eine Stelle ξ ∈]a, b[ (die von x abh¨ angt), so dass f (x) = pn (x) + f (n+1) (ξ)

(x − x0 )(x − x1 ) · · · (x − xn ) . (n + 1)!

Beweis Falls x eine St¨ utzstelle ist, dann wird der letzte Term null, und die Gleichung ist offensichtlich erf¨ ullt. Sei also x von den St¨ utzstellen verschieden. Dann definieren wir h(x) :=

f (x) − pn (x) . (x − x0 )(x − x1 ) · · · (x − xn )

F¨ ur t ∈ [a, b] betrachten wir die n + 1-mal differenzierbare Hilfsfunktion g(t) := f (t) − pn (t) − h(x)(t − x0 )(t − x1 ) · · · (t − xn ), die nach Konstruktion n+2 Nullstellen x, x0 , . . . , xn besitzt. Zwischen je zwei Nullstellen liegt nach Satz von Rolle eine Nullstelle der Ableitung g  (t), die damit n + 1 Nullstellen in ]a, b[ hat. Jetzt kann wieder der Satz von Rolle genutzt werden um zu zeigen, dass g  noch n − 1 Nullstellen besitzt, usw. asst sich leicht nachrechnen, Schließlich hat g (n+1) eine Nullstelle ξ ∈]a, b[. Es l¨ dass  n+1  d (n+1) (n+1) n+1 (t) = f (t) − 0 − h(x) t + 0 = f (n+1) (t) − h(x)(n + 1)! g dtn+1 ist, so dass wir f¨ ur die Stelle t = ξ die Aussage des Satzes erhalten: 0 = f (n+1) (ξ)−h(x)(n+1)! = f (n+1) (ξ)−

f (x) − pn (x) (n+1)!. (x − x0 )(x − x1 ) · · · (x − xn ) 

13.3 Regeln von L’Hospital Jetzt interessieren uns Situationen, in denen die Grenzwertregel (11.2) von lim f (x) (x) 0 = limx→x darf man nur rechSeite 309 nicht weiterhilft. limx→x0 fg(x) x→x0 g(x) nen, wenn die Grenzwerte des Z¨ahlers und Nenners als reelle Zahl existieren

369

13.3. Regeln von L’Hospital

und zudem limx→x0 g(x) = 0 ist. H¨aufig sind Z¨ ahler und/oder Nenner aber bestimmt divergent (streben also gegen +∞ oder −∞) oder sind konvergent gegen 0. Solche Grenzwerte treten z. B. auf, wenn man Konvergenzradien von Potenzreihen bestimmt (siehe Kapitel 16) oder die Konvergenzgeschwindigkeiten von numerischen (n¨aherungsweisen) Verfahren (wie das NewtonVerfahren) miteinander vergleichen m¨ochte. In der Regelungstechnik f¨ uhren der Anfangs- und Endwertsatz auf Grenzwerte dieses Typs (siehe Band 2, Kapitel 13.2.3). (x) , wenn limx→x0 f (x) = 0 und limx→x0 g(x) = 0? Was ist z. B. limx→x0 fg(x) Zur Motivation des folgenden Satzes sei f (x0 ) = g(x0 ) = 0 (und damit nicht definiert): f (x0 + h) − f (x0 ) f (x0 + h) = = g(x0 + h) g(x0 + h) − g(x0 )

f (x0 +h)−f (x0 ) h g(x0 +h)−g(x0 ) h

f (x0 ) g(x0 )

.

F¨ ur h → 0 erhalten wir, falls f und g in x0 differenzierbar sind mit g  (x0 ) = 0: f (x) f (x0 + h) = lim = lim lim x→x0 g(x) h→0 g(x0 + h) h→0 

f (x0 +h)−f (x0 ) h g(x0 +h)−g(x0 ) h

(x0 ) Sind f  und g  stetig in x0 , so ist fg (x = limx→x0 0) insgesamt f (x) f  (x) = lim  . lim x→x0 g(x) x→x0 g (x)

=

f  (x) g  (x) ,

f  (x0 ) . g  (x0 )

und wir erhalten

Wir k¨onnen in dieser Situation bei der Grenzwertberechnung die Funktionen durch ihre Ableitungen ersetzen. Beispiel 13.3 (11.1) von Seite 302 erh¨alt man jetzt auch so: lim

x→0

sin(x) x

= lim

x→0

cos(x) 1

= cos(0) = 1.



! Achtung

An diesem Beispiel sieht man insbesondere, dass 0/0 nicht sinnvoll definiert werden kann, da f¨ ur jede Zahl c ∈ R gilt: limx→0 c · sin(x)/x = c. Damit kann 0/0 f¨ ur jede Zahl stehen. Das muss auch so sein, denn der Grenzwert des Differenzenquotienten in der Definition der Ableitung ist auch vom Typ 0/0, und als Steigung ist jede reelle Zahl denkbar.

Wir haben soeben einen Spezialfall des Satzes von L’Hospital kennenge (x) darf sogar ±∞ sein. Da man den Grenzlernt. Der Grenzwert limx→x0 fg (x) wert gegen x0 betrachtet, m¨ ussen die Funktionen an der Stelle x0 selbst nicht

370

Kapitel 13. Zentrale S¨ atze der Differenzialrechnung

definiert sein (was auch nicht der Fall ist, wenn eine Nullstelle im Nenner vorliegt). Daher wird diese Stelle in den Voraussetzungen ausgeklammert: Satz 13.7 (Satz von L’Hospital (1661–1704, hier 1700) f¨ ur 00 ) Seien die Funktionen f und g dort differenzierbar, wo sie f¨ ur die folgenden Grenzwerte erkl¨art sein m¨ ussen. Weiterhin sei dort g  (x) = 0. Ist limx→x0 f (x) = limx→x0 g(x) = 0, und existiert der Grenzwert  (x) als reelle Zahl oder uneigentlich (±∞), so gilt: limx→x0 fg (x) lim

x→x0

f (x) f  (x) = lim  . g(x) x→x0 g (x)

Entsprechende Aussagen gelten f¨ ur einseitige Grenzwerte und f¨ ur Grenzwerte gegen +∞ bzw. −∞: Ist limx→±∞ f (x) = limx→±∞ g(x) = 0, so ist f (x) f  (x) = lim  , lim x→±∞ g(x) x→±∞ g (x) sofern der rechte Grenzwert eigentlich oder uneigentlich existiert.



! Achtung 

Hier werden Grenzwerte von f  (x)/g  (x) und nicht von [f (x)/g(x)] berechnet, also ohne Quotientenregel. Auch ist nicht f (x)/g(x) = f  (x)/g  (x). Lediglich die Grenzwerte der Quotienten sind als Zahlen gleich.

Der Beweis ben¨otigt nicht die Stetigkeit von f  und g  an der Stelle x0 , die wir in der Motivation des Satzes verwendet haben. Die Funktionen f  und g  m¨ ussen nicht einmal in x0 definiert sein. Um den Satz von L’Hospital zu zeigen, ben¨otigen wir den verallgemeinerten Mittelwertsatz 13.4 von Seite 362, den wir genau deswegen hergeleitet haben und der schon die Quotientenstruktur des Satzes von L’Hospital nachbildet. Beweis • Wir beweisen exemplarisch den Fall eines linksseitigen Grenzur einen rechtsseitigen Grenzwert werts an der Stelle x0 . Die Aussage f¨ ergibt sich analog, so dass man damit auch die Aussage f¨ ur den Grenzwert gegen x0 erh¨alt. Wir erg¨anzen f und g stetig an der Stelle x0 , die nicht zum Definitionsbereich geh¨oren muss, mit Funktionswert 0. So haben wir auch in der onnen vorausMotivation des Satzes f (x0 ) = g(x0 ) = 0 gesetzt. Wir k¨ setzen, dass eine linksseitige punktierte Umgebung ]x0 − δ, x0 [ zum Definitionsbereich von f und g geh¨ort, so dass f und g dort differenzierbar (und damit insbesondere stetig) sind und g  (x) = 0 ist. Außerdem sei δ

371

13.3. Regeln von L’Hospital

so klein gew¨ahlt, dass die fortgesetzten Funktionen f und g nicht nur im Randpunkt x0 sondern auch in x0 − δ stetig und damit auf dem gesamten Intervall [x0 − δ, x0 ] stetig sind. Nach dem Mittelwertsatz ist dann auf ur ein ξ ∈]x0 − δ, x0 [. ]x0 − δ, x0 [ auch g(x) = g(x) − g(x0 ) = g  (ξ) = 0 f¨ Wir d¨ urfen also sowohl durch g(x) als auch durch g  (x) dividieren. Außerdem sind die Voraussetzungen des verallgemeinerten Mittelwertsatzes (Satz 13.4) erf¨ ullt. F¨ ur einen beliebigen Punkt y ∈]x0 − δ, x0 [ ergibt sich damit: f (y) − f (x0 ) f  (ξy ) f (y) = =  g(y) g(y) − g(x0 ) g (ξy ) f¨ ur eine Stelle ξy ∈]y, x0 [. Nun betrachten wir f¨ ur y eine beliebige Folge mit x ∈]x − δ, x [ und lim x = x0 . Wegen |x0 − ξxn | < (xn )∞ n 0 0 n→∞ n n=1 |x0 − xn | konvergiert nach dem Einschließungskriterium Satz 9.2 (Seite 258) auch die Folge (ξxn )∞ n=1 gegen x0 . Nach Konvergenzvoraussetzung ¨ und Ubertragungsprinzip (Satz 11.3) ist f (xn ) f  (ξx ) f  (x) = lim  n = lim . n→∞ g(xn ) n→∞ g (ξxn ) x→x0 − g  (x) lim

¨ ahlt war, folgt ebenfalls mit dem UberDa die Folge (xn )∞ n=1 beliebig gew¨ tragungsprinzip f  (x) f (x) = lim . lim x→x0 − g(x) x→x0 − g  (x) • F¨ ur einen Grenzwert gegen −∞ (+∞ analog) erhalten wir die Aussage mit dem soeben Gezeigten und der Substitution x = 1t :     f 1t −f  1t /t2 f (x) f  (x) 1 lim = lim  1  = lim . = lim   2 x→−∞ g(x) x→−∞ g (x) t→0− g t→0− −g t t /t Die erste und dritte Gleichheit m¨ usste man streng genommen ebenfalls ¨ mit der Grenzwertdefinition oder dem Ubertragungsprinzip zeigen.  Beispiel 13.4 F¨ ur die Funktion f (s) :=

 1 1 − e−s·t s

bestimmen wir f¨ ur ein festes t ≥ 0 den Grenzwert f¨ ur s → 0. Dieser ist vom   Typ 00 . Mit dem Satz von L’Hospital erhalten wir 1 − e−s·t −e−s·t · (−t) = lim = t. s→0 s→0 s 1

lim f (s) = lim

s→0

Ein analoger Grenzwertsatz gilt, wenn Z¨ahler und Nenner nicht jeweils gegen null, sondern gegen ±∞ streben. Wir betrachten dazu differenzierbare Funktionen f und g mit limx→x0 f (x) = ±∞ und limx→x0 g(x) = ±∞. Durch

372

Kapitel 13. Zentrale S¨ atze der Differenzialrechnung

¨ Ubergang ur den   zu den Kehrwerten k¨onnen wir den Satz von L’Hospital f¨ Fall 00 anwenden: 

g (x) 1 d 1 − (g(x)) 2 f (x) g(x) dx g(x) = lim 1 = lim d 1 = lim lim  (x) f x→x0 g(x) x→x0 x→x0 x→x0 − f (x) dx f (x) (f (x))2 2  f (x) 1 = lim ,  x→x0 g(x) limx→x0 f  (x) g (x)

sofern alle einzelnen Grenzwerte existieren und wir nicht durch null dividie(x) = 0 ist, erhalten wir durch Umformen ren. Falls auch limx→x0 fg(x) lim

x→x0

f (x) f  (x) = lim  . g(x) x→x0 g (x)

Damit haben wir den Satz von L’Hospital f¨ ur den Grenzwertfall [∞/∞] hergeleitet. Die Voraussetzung, dass limx→x0 f (x)/g(x) existiert, ben¨ otigt man aber gar nicht. Sie folgt bereits aus der Existenz des Grenzwerts limx→x0 f  (x)/g  (x). Es gilt damit sogar: Satz 13.8 (Satz von L’Hospital f¨ ur Grenzwerte vom Typ ∞ ∞ ) Seien die Funktionen f und g dort differenzierbar, wo sie f¨ ur die folgenden Grenzwerte erkl¨art sein m¨ ussen. Weiterhin sei dort g  (x) = 0. Ist limx→x0 f (x) = ±∞ und limx→x0 g(x) = ±∞ und existiert der Grenz (x) als reelle Zahl oder uneigentlich (±∞), so gilt: wert limx→x0 fg (x) lim

x→x0

f (x) f  (x) = lim  . g(x) x→x0 g (x)

Entsprechende Aussagen gelten f¨ ur einseitige Grenzwerte und f¨ ur Grenzwerte gegen +∞ bzw. −∞: Ist limx→±∞ f (x) = ±∞ und limx→±∞ g(x) = ±∞, so ist f (x) f  (x) = lim  , lim x→±∞ g(x) x→±∞ g (x) sofern der rechte Grenzwert eigentlich oder uneigentlich existiert. Der Beweis dieser Variante des Satzes ist ¨ahnlich dem zuvor angegebenen. Alanzen, lerdings kann man hier die Funktionen an der Stelle x0 nicht stetig erg¨ siehe z. B. [Hachenberger(2005), S. 466].   Beispiel 13.5 a) Wir betrachten einen Grenzwert vom Typ ∞ ∞ (n ∈ N): 1 1 ln(x) x = lim = lim = 0. x→∞ xn x→∞ nxn−1 x→∞ nxn

lim

373

13.3. Regeln von L’Hospital

Damit w¨achst ln(x) f¨ ur x → ∞ langsamer als jedes Polynom. b) Der Satz von L’Hospital kann auch mehrfach angewendet werden. Die Existenz der Grenzwerte folgt dann von rechts nach links“: Der Satz von ” L’Hospital darf nur angewendet werden, wenn der Quotient der Ableitungen konvergiert oder bestimmt divergent ist. Das kann man selbst wieder mit dem Satz zeigen, indem man den Quotienten der zweiten Ableitungen betrachtet, so folgt daraus, dass auch der urspr¨ ungliche Grenzwert mit dem Satz von L’Hospital berechnet werden darf.   In jedem Schritt wird im folgenden Beispiel ein Grenzwert vom Typ ∞ ∞ bestimmt (n ∈ N): xn nxn−1 n(n − 1)xn−2 n! = lim = lim = · · · = lim x = 0. x→∞ ex x→∞ x→∞ x→∞ e ex ex lim

Damit w¨achst exp(x) f¨ ur x → ∞ schneller als jedes Polynom. c) Wenn der Satz nicht anwendbar ist, heißt das nicht, dass der Grenzwert nicht existiert (oder dass er existiert): Wir betrachten limx→∞ x(c+sin(x)) x2 ∞ mit c > 1, also einen Grenzwert vom Typ ∞ . Der Grenzwert der Abcos(x) leitungen limx→∞ c+sin(x)+x existiert nicht, da limx→∞ c+sin(x) =0 2x 2x x cos(x) cos(x) und limx→∞ 2x = limx→∞ 2 nicht existiert. Der Satz ist hier also nicht anwendbar. Dennoch existiert der Grenzwert: lim

x→∞

x(c + sin(x)) c + sin(x) = 0. = lim 2 x→∞ x x

Mit dem Satz von L’Hospital k¨onnen auch andere Typen von Grenzwerten berechnet werden: • Typ [0·∞]: Es geht um den Grenzwert limx→x0 f (x)·g(x), wobei die Grenzwerte der beiden Faktorfunktionen limx→x0 f (x) = 0 und limx→x0 g(x) = ±∞ sind. Hier kann man entweder den Ansatz zum Typ [ 00 ] f (x)g(x) =

f (x) 1 g(x)

oder den Ansatz zum Typ [ ∞ ∞] f (x)g(x) =

g(x) 1 f (x)

w¨ahlen (so dass der Nenner keine st¨orende Nullstelle hat). Beispiel 13.6 Wir wandeln einen Grenzwert des Typs [0 · ∞] in den Typ ∞ um. F¨ ur n ∈ N gilt: ∞ 1 xn ln(x) x = 0. (13.6) = lim = lim − x→0+ x−n x→0+ −nx−n−1 x→0+ n

lim xn ln(x) = lim

x→0+

374

Kapitel 13. Zentrale S¨ atze der Differenzialrechnung

• Typ [∞ − ∞]: Es soll limx→x0 [f (x) − g(x)] berechnet werden, wobei limx→x0 f (x) = ∞ und limx→x0 g(x) = ∞. Hier kann der Ansatz f −g = der zum Typ

0 0

1 g



1 f ·g

1 f

,

f¨ uhrt, weiterhelfen.

  Beispiel 13.7 Eine Umwandlung in den Typ 00 mittels doppelter Anwendung des Satzes von L’Hospital ergibt

1 1 sin(x) − x cos(x) − 1 − = lim = lim lim x→0+ x x→0+ x→0+ sin(x) x sin(x) sin(x) + x cos(x) − sin(x) = lim = 0. x→0+ cos(x) + cos(x) − x sin(x) • Typen [00 ], [∞0 ], [1∞ ]: Falls er wohldefiniert ist, kann hier der Ansatz f (x)g(x) = exp(g(x) ln(f (x))) gew¨ahlt werden, wobei dann der Grenzwert der Funktion g(x) ln(f (x)) zu bestimmen ist sowie die Stetigkeit der Exponentialfunktion ausgenutzt werden kann. Beispiel 13.8 a) Wir berechnen einen Grenzwert vom Typ [00 ]:

(11.4) (13.6) x lim x = lim exp(x ln(x)) = exp lim x ln(x) = exp(0) = 1. x→0+

x→0+

x→0+

(13.7) Auch wenn hier zuf¨allig 1 herauskommt, l¨ asst sich die Potenz 00 nicht sinnvoll als feste Zahl definieren. F¨ ur x > 0 ist

c ln(x) ln x = ec , = exp c · x ln(x) c aber sowohl limx→0+ x = 0 als auch limx→0+ ln(x) = 0. ∞ b) Wir berechnen einen Grenzwert vom Typ [1 ], indem wir nach dem Umschreiben mit der Exponentialfunktion einen Grenzwert vom Typ [ 00 ] mit dem Satz von L’Hospital bestimmen:



a x (11.4) ln(1 + ax−1 ) 1+ = exp lim x→∞ x→∞ x x−1 ( '

1 −ax−2 1+ax 1 −1 = exp a lim = exp lim x→∞ x→∞ 1 + −x−2 

lim

a x

= ea .

(13.8)

375

Literaturverzeichnis

Dies ist kein Beweis f¨ ur (9.8) auf Seite 262 mit a = 1, da wir diese Identit¨at zum Nachweis der Stetigkeit der Exponentialfunktion verwendet haben. Hier haben wir allerdings die Stetigkeit ausgenutzt. • Man beachte, dass die Typen [0∞ ] und [∞∞ ] direkt und ohne den Satz von L’Hospital gel¨ost werden k¨onnen. ur f (x) > Ist im Fall [0∞ ] limx→x0 f (x) = 0 und limx→x0 g(x) = ∞, so ist f¨ 0: lim f (x)g(x) = lim exp(g(x) ln(f (x))) = 0. x→x0 x→x0    →∞



→−∞





→−∞

ur f (x) > 0: Ist im Fall [∞∞ ] limx→x0 f (x) = limx→x0 g(x) = ∞, so ist f¨ lim f (x)g(x) = lim exp(g(x) ln(f (x))) = ∞. x→x0    →∞ →∞  

x→x0

→∞

• Der Satz von L’Hospital kann auch zur Berechnung von Folgengrenzwerten eingesetzt werden. Hier berechnet man den Grenzwert einer Funktion und ¨ nutzt dann das Ubertragungsprinzip, um den Grenzwert einer Folge zu erhalten. Beispiel 13.9 (Folgengrenzwert u ¨ ber Satz von L’Hospital)   a n a x (13.8) a = lim 1 + = e . lim 1 + n→∞ x→∞ n x Die Anwendung des Satzes von L’Hospital geschieht hier u ¨ber (13.8).

Tabelle 13.1 Umformungen zur Anwendung des Satzes von L’Hospital Typ des Grenzwerts

Funktion

[0 · ∞],

f (x) · g(x)

[0 · (−∞)]

[∞ − ∞] [00 ],

[∞0 ],

f (x) − g(x) [1∞ ]

f (x)g(x)

umgeformte Funktion f (x) 1 g(x)



1 g(x)



1 f (x)



1 / f (x)·g(x)

ln(f (x)g(x) ) = g(x) · ln(f (x))

Literaturverzeichnis Hachenberger(2005). Hachenberger, D.: Mathematik f¨ ur Informatiker. Pearson, M¨ unchen, 2005.

Kapitel 14

Integralrechnung Die Berechnung von Fl¨achen unter beliebig geformten Kurven stellt ein klassisches mathematisches Problem dar, man denke etwa an die Bestimmung der Fl¨ache eines Kreises. Die Integralrechnung behandelt diese Aufgabenstellungen. Dar¨ uber hinaus kann man mit Integralen Volumina, Oberfl¨ achen, Schwerpunkte, Tr¨agheitsmomente und viele andere Kenngr¨ oßen von Objekten berechnen, Differenzialgleichungen l¨osen sowie viele stochastische Fragestellungen bearbeiten. Wie die Differenziation wird die Integration in nahezu allen Bereichen der Technik und der Naturwissenschaften ben¨ otigt. In diesem Kapitel f¨ uhren wir das Integral als Riemann-Integral durch ¨ Uberdeckung der Fl¨ache mittels Ober- und Untersummen ein. Dazu ¨ aquivalent ist eine Definition u ¨ber Zwischensummen. Wir gehen auf die Berechnung des Integrals mittels Stammfunktionen ein und u ¨bertragen die Ableitungsregeln, um Integrationsregeln wie die Regel zur partiellen Integration und die Substitutionsregel zu erhalten. Eine Schwierigkeit bei der Integration im Gegensatz zur Differenziation ist allerdings, dass bisweilen unklar ist, ob und welche Integrationsregel zum Ziel f¨ uhren kann. Das ist anders bei der Integration gebrochen rationaler Funktionen. Hier f¨ uhrt eine Partialbruchzerlegung immer zum Erfolg. Wir sehen uns außerdem Algorithmen zur numerischen (n¨aherungsweisen) Berechnung von Integralen an. Weiterhin erweitern wir den Integrationsbegriff auf problematische“ Integrationsbereiche, die nicht ” beschr¨ankt sind, oder auf denen die betrachteten Funktionen nicht beschr¨ ankt sind. Das Kapitel schließt mit einer Einf¨ uhrung in das Lebesgue-Integral. Dabei handelt es sich um eine Verallgemeinerung des Riemann-Integrals, so dass damit (f¨ ur theoretische Zwecke) wesentlich mehr Funktionen integriert werden k¨onnen.

© Der/die Autor(en), exklusiv lizenziert an Springer-Verlag GmbH, DE, ein Teil von Springer Nature 2023 S. Goebbels und S. Ritter, Mathematik verstehen und anwenden: Differenzial- und Integralrechnung, Lineare Algebra, https://doi.org/10.1007/978-3-662-68367-5_14

377

378

Kapitel 14. Integralrechnung

14.1 Definition des Integrals Das Integral einer Funktion f : [a, b] → R mit nicht-negativen Funktionswerten f (x) ≥ 0 u acheninhalt ¨ber einem Intervall [a, b] ist eine Zahl, die dem Fl¨ der durch Funktionsgraph von f , durch x-Achse und durch vertikale Linien bei x = a und x = b begrenzten Fl¨ache entspricht. Wir definieren im Folgenden das Integral exakter in einer Weise, die auch f¨ ur Funktionen mit negativen Funktionswerten Sinn macht. Beispiel 14.1 Das Integral der Funktion f (x) := 3 u ¨ber [2, 6] ist (6−2) · 3 = 12, n¨amlich der Fl¨acheninhalt des Rechtecks mit Eckpunkten (2, 0), (2, 3), (6, 3) und (6, 0). Damit tats¨achlich eine umrandete Fl¨ache entsteht, fordert man, dass f auf [a, b] beschr¨ankt ist, dass es also ein M > 0 gibt mit |f (x)| ≤ M f¨ ur alle x ∈ [a, b]. Wir n¨ahern den Fl¨acheninhalt unter dem Funktionsgraphen an, ullen indem wir einerseits die Fl¨ache von innen heraus mittels Rechtecken ausf¨ und andererseits sie von außen mittels Rechtecken u uhrt zu ¨berdecken. Das f¨ den Begriffen Unter- und Obersumme (siehe Abbildung 14.1). Definition 14.1 (Zerlegung) Seien [a, b] ⊂ R und x0 , . . . , xm ∈ [a, b] mit a = x0 < x1 < x2 < · · · < xm−1 < xm = b. Dann heißt Z := (x0 , x1 , . . . , xm ) eine Zerlegung des Intervalls [a, b]. Die Zerlegung Z zerlegt [a, b] in Teilintervalle [x0 , x1 ], [x1 , x2 ], . . . , [xm−1 , xm ].

Definition 14.2 (Unter- und Obersummen) Sei f : [a, b] → R eine beschr¨ankte Funktion und Z := (x0 , x1 , . . . , xm ) eine Zerlegung von [a, b]. sZ :=

m   k=1

 inf {f (x) : x ∈ [xk−1 , xk ]} (xk − xk−1 )

heißt eine Untersumme von f bez¨ uglich der Zerlegung Z und SZ :=

m   k=1

 sup {f (x) : x ∈ [xk−1 , xk ]} (xk − xk−1 )

heißt eine Obersumme von f bez¨ uglich der Zerlegung Z.

14.1. Definition des Integrals

379

In dieser Definition haben wir erneut das Infimum (inf) als gr¨ oßte untere und das Supremum (sup) als kleinste obere Schranke einer Menge von Funktionswerten verwendet. Ist f stetig, so nimmt f auf den Teilintervallen [xk−1 , xk ] Supremum und Infimum an, d. h., f hat dort ein Maximum und ein Minimum. In diesem Fall k¨ onnen wir statt von inf {f (x) : x ∈ [xk−1 , xk ]} vom kleinsten Funktionswert von f im Intervall [xk−1 , xk ] sprechen. Analog ist dann sup {f (x) : x ∈ [xk−1 , xk ]} der gr¨oßte Funktionswert, den f auf diesem Intervall annimmt. Bei der Obersumme multiplizieren wir also den jeweils gr¨ oßten Funktionswert mit der L¨ange des Zerlegungsintervalls, bei der Untersumme den jeweils kleinsten. Dabei erhalten wir (bei nicht-negativwertigen Funktionen) einerseits die Fl¨ache eines Rechtecks, das den Graphen u ¨berdeckt, und andererseits die Fl¨ache eines Rechtecks unter dem Funktionsgraphen. Die Summe u oßten ¨ber alle so gewonnenen Fl¨achen ist bei Verwendung der gr¨ Funktionswerte die Obersumme der Zerlegung, bei Verwendung der kleinsten Funktionswerte die Untersumme.

Abb. 14.1 Das Integral wird als Fl¨ ache unter dem Funktionsgraphen durch Ober- und Untersummen angen¨ ahert

Da f mit M beschr¨ankt ist, gilt offensichtlich −M (b − a) ≤ sZ ≤ SZ ≤ M (b − a),

380

Kapitel 14. Integralrechnung

Abb. 14.2 Fl¨ achen unterhalb der x-Achse fließen negativ in das Integral ein

und beide Zahlen sind eine Approximation an den gesuchten Fl¨ acheninhalt, der zwischen sZ und SZ liegt. Unterteilt man eine Zerlegung weiter, so wird die Obersumme kleiner und die Untersumme gr¨ oßer. Definition 14.3 (Unter- und Oberintegral) Seien f : [a, b] → R eine beschr¨ankte Funktion und Z die Menge aller Zerlegungen des Intervalls [a, b]. Die Zahl I := sup{sZ : Z ∈ Z}, also die kleinste Zahl, die gr¨oßer oder gleich allen Untersummen ist, heißt Riemann-Unterintegral von f auf [a, b]. Die Zahl I := inf{SZ : Z ∈ Z}, also die gr¨oßte Zahl, die kleiner oder gleich allen Obersummen ist, heißt Riemann-Oberintegral von f auf [a, b]. Falls I = I, heißt f auf [a, b] Riemann-integrierbar (kurz: integrierbar), und die Zahl I := I = I heißt das Riemann-Integral (oder kurz Integral) von f auf [a, b]. Bezeichnung: 8 b f (x) dx. I= a

Einige Bemerkungen zur Definition: • Falls es eine gr¨oßte Untersumme und eine kleinste Obersumme gibt, ist f integrierbar genau dann, wenn beide u aherung an ¨bereinstimmen. Die Ann¨ den Fl¨acheninhalt von außen f¨ uhrt zum gleichen Wert wie die Ann¨ aherung von innen. 9b • Die Schreibweise a f (x) dx besteht aus zwei Teilen, die wie eine Klammer 9b wirken: a und dx. Dazwischen steht die zu integrierende Funktion. Das ist anders als bei der Ableitung: M¨ochte man f (x) + g(x) ableiten, so schreibt d [f (x)+g(x)]. Beim Integrieren k¨onnen die Klammern aufgrund der man dx 9b Schreibweise weggelassen werden: a f (x) + g(x) dx. • Bei dx wird die Variable x benannt, die in der Funktion verwendet wird. M¨ochte man statt x einen anderen Variablennamen wie z. B. t verwenden,

381

14.1. Definition des Integrals

9b so schreibt man a f (t) dt. Wenn wir sp¨ater Funktionen benutzen, die von mehreren Variablen abh¨angig sind, wird es wichtig zu sagen, auf welche Variable sich ein Integral bezieht (siehe Band 2, Kapitel 3). • In der Definition wird nicht verlangt, dass f nicht-negativwertig ist. Hat f ein wechselndes Vorzeichen, so werden vom Funktionsgraphen Fl¨ achen oberhalb und unterhalb der x-Achse eingeschlossen. Das Integral ist die Summe aller dieser Fl¨acheninhalte, wobei der Inhalt von Fl¨ achen unterhalb der x-Achse negativ gewertet wird (siehe Abbildung 14.2). M¨ ochte man 9b diese Fl¨achen ebenfalls positiv werten, so muss man a |f (x)| dx berechnen. Man kann zeigen: Ist f auf [a, b] integrierbar, so sind auch die beiden nicht-negativwertigen Funktionen f (x), f (x) > 0, −f (x), f (x) < 0, + − f (x) := (14.1) f (x) := 0, f (x) ≤ 0, 0, f (x) ≥ 0, 9b

9b 9b f (x) dx = a f + (x) dx− a f − (x) dx. Insbeson9b 9b + 9b dere ist auch |f | integrierbar mit a |f (x)| dx = a f (x) dx+ a f − (x) dx. • F¨ ur am Aufbau der Mathematik Interessierte: Man beachte, dass Oberund Unterintegral als ein Supremum bzw. Infimum einer nicht-leeren Menge definiert sind. Wegen des Vollst¨andigkeitsaxioms (2.4) auf Seite 55 existiert dieses Supremum und Infimum. Das Integral ist im Prinzip ein Grenzwert von Ober- und Untersummen. Damit Grenzwerte existieren k¨ onnen, ben¨otigt man die Vollst¨andigkeit der reellen Zahlen. integrierbar, und es gilt

a

M¨ochte man nun mit der Definition Integrale n¨ aherungsweise berechnen, so muss man auf jedem Zerlegungsintervall gr¨oßte und kleinste Funktionswerte bestimmen. Das ist schwierig. Wir k¨onnten die Extremwerte z. B. mit der Differenzialrechnung ermitteln. Einfacher w¨are es aber, wenn wir irgendeinen Funktionswert auf dem Teilintervall verwenden k¨ onnten. Gl¨ ucklicherweise kann man alternativ das Riemann-Integral auch u ¨ber Zwischensummen einf¨ uhren, bei denen statt des Supremums und Infimums tats¨ achlich in einem Zerlegungsintervall ein beliebiger Funktionswert verwendet wird. Dieser Zugang ist ¨aquivalent und kann insbesondere f¨ ur die numerische Berechnung von Integralen z. B. mit dem Computer benutzt werden. Definition 14.4 (Zwischensumme) Sei Z = (x0 , x1 , . . . , xm ) eine Zerlegung des Intervalls [a, b]. • Z sei der gr¨oßte Abstand zweier aufeinander folgender Zerlegungspunkte, also Z := max{xk − xk−1 : 1 ≤ k ≤ m}. • Sei ξ := (ξ1 , ξ2 , . . . , ξm ) mit ξ1 ∈ [x0 , x1 ], ξ2 ∈ [x1 , x2 ], . . . , ξm ∈ [xm−1 , xm ]. ξ heißt eine Zwischenpunktwahl zur Zerlegung Z mit den Zwischenpunkten ξ1 , ξ2 , . . . , ξm .

382

Kapitel 14. Integralrechnung

• Die Summe S(Z, f, ξ) :=

m  k=1

f (ξk )(xk − xk−1 )

heißt Riemann-Zwischensumme zur Zerlegung Z und Zwischenpunktwahl ξ. Bei einer Riemann-Zwischensumme wird f¨ ur jedes Zerlegungsintervall ein Funktionswert berechnet und mit der Intervalll¨ ange multipliziert (Fl¨ acheninhalt eines Rechtecks). Die resultierenden Werte werden dann f¨ ur alle Zerlegungsintervalle aufsummiert, so dass man auch hier eine Ann¨ aherung an die Fl¨ache unter dem Funktionsgraphen erh¨alt. Eine Riemann-Zwischensumme liegt zwischen der Unter- und der Obersumme zur gleichen Zerlegung, d. h. sZ ≤ S(Z, f, ξ) ≤ SZ . Dies folgt direkt aus den Definitionen wegen inf {f (x) : x ∈ [xk−1 , xk ]} ≤ f (ξk ) ≤ sup {f (x) : x ∈ [xk−1 , xk ]} .

Satz 14.1 (Riemann’sches Integrabilit¨ atskriterium) Sei f : [a, b] → R beschr¨ankt und F ∈ R. Dann sind ¨aquivalent 9b a) f ist integrierbar mit Wert F = a f (x) dx. b) Zu jedem (noch so kleinen) ε > 0 gibt es ein (von ε abh¨ angendes) δ > 0, so dass f¨ ur alle Zerlegungen Z mit Z ≤ δ und jede zu Z geh¨ orende Zwischenpunktwahl ξ gilt: |S(Z, f, ξ) − F | < ε. Mit anderen Worten: W¨ahlt man die Zerlegungen immer feiner, so dass die maximale L¨ange aller Zerlegungsintervalle gegen null strebt, so konvergieren die zugeh¨origen Riemann-Zwischensummen f¨ ur jede denkbare Zwischenpunktwahl gegen die Zahl F . Der Beweis des Satzes ist nicht schwierig, aber recht technisch, da man Eigenschaften des Supremums und Infimums ausnutzen muss und geeignete Zerlegungen baut. Er kann z. B. in [Heuser(2009), S. 468 f.] nachgelesen werden. Das Integral erh¨alt man also auch u ¨ber Riemann-Zwischensummen zu immer feiner werdenden Zerlegungen. Man verwendet den Satz daher oft in der Richtung a)=⇒ b). Hat man beispielsweise eine auf [0, 1] integrierbare Funktion f , so gilt bei konkreter Wahl der Zerlegung (m gleich große Teilintervalle) und Zwischenpunkte (jeweils der rechte Rand des Teilintervalls):

383

14.2. Eigenschaften des Integrals

8



1

f (x) dx = lim

m→∞

0

 m  1 k . f m m

(14.2)

k=1

Mit (14.2) k¨onnen wir ein Integral also tats¨achlich als ein Folgengrenzwert 91 verstehen. Die Integral-Notation 0 f (x) dx ist in Anlehnung an die Summe der Seite gew¨ahlt: In der Summe werden Funktionswerte f (xk ) =   krechten mit der Differenz f m Δxk := xk − xk−1 =

k−1 k − m m

der Zerlegungsstellen der x-Achse multipliziert, um die Fl¨ ache eines Rechtecks zu erhalten: f (xk ) · Δxk . Schreibt man statt Δx schlicht dx, so gelangen wir zur Integralschreibweise f (x) dx. Wir werden sp¨ ater sehen, dass diese auch d sinnvoll ist (siehe Seite 391). in Verbindung mit der Ableitungs-Notation dx 91 Beispiel 14.2 Wir berechnen das Integral 0 x dx u ¨ber Riemann-Zwischensummen. Dabei handelt es sich um die Fl¨ache 12 eines Dreiecks. Diesen Wert erhalten wir auch u ¨ber den Grenzwert (14.2) unter Verwendung der Summenformel von Gauß.  m m  8 1  k 1 1  = lim x dx = lim k m→∞ m→∞ m2 mm 0 k=1 k=1   1 1 1 m(m + 1) + = . = lim = lim m→∞ m→∞ 2 2m2 2m 2

14.2 Eigenschaften des Integrals F¨ ur die exakte Berechnung von Integralen ist die Grenzwertbetrachtung von Zwischensummen zu m¨ uhsam. Diese haben ihre Bedeutung bei der n¨ aherungsweisen Berechnung mittels Computern. Darauf gehen wir noch in Kapitel 14.5 ein. F¨ ur die exakte Berechnung helfen die folgenden Eigenschaften des Integrals (die man u ¨ber die Definition nachrechnen kann) und der Hauptsatz (siehe Satz 14.7), der sp¨ater behandelt wird. Sind f und g auf [a, b] integrierbar, so gilt dies auch f¨ ur die Funktionen f + g, c · f f¨ ur eine Konstante c ∈ R und f · g. F¨ ur die Integrale gilt: 8

b

8

b

f (x) + g(x) dx = a

8

b

f (x) dx + a

8

b

g(x) dx, a

a

c · f (x) dx = c ·

8

b

f (x) dx. a

(14.3) Man spricht hier auch von der Linearit¨ at des Integrals. Eine weitere wichtige Eigenschaft ist die Monotonie:

384

Kapitel 14. Integralrechnung

Sind f und g auf [a, b] integrierbar, und ist f (x) ≤ g(x) f¨ ur alle x ∈ [a, b], so ist auch 8 b 8 b f (x) dx ≤ g(x) dx. (14.4) a

a

Es gilt eine Verallgemeinerung der Dreiecksungleichung (3.5) von Seite 78, wenn man die Integration als eine unendliche Summation versteht. Mit den Bezeichnungen f + und f − aus (14.1) ist  8  8 8 b   b   b     + − f (x) dx =  f (x) dx − f (x) dx    a   a a  8  8 8 8 b    b  b b     + − + f (x) dx + f − (x) dx f (x) dx = f (x) dx +  ≤    a  a a a 8 b 8 b = f + (x) + f − (x) dx = |f (x)| dx, a

a

also  8 8   b b   f (x) dx ≤ |f (x)| dx.    a a

(14.5)

Bislang haben wir keine Vorstellung davon, welche Eigenschaften eine beschr¨ankte Funktion haben muss, damit Ober- und Unterintegral u ¨bereinstimmen. Das ¨andern wir: Satz 14.2 (Hinreichende Bedingung f¨ ur Integrierbarkeit) Ist f : [a, b] → R stetig auf [a, b], so ist f auch integrierbar auf [a, b]. Die Umkehrung des Satzes gilt aber nicht: Es gibt Riemann-integrierbare Funktionen, die nicht stetig sind, z. B. Funktionen mit einigen Sprungstellen. Riemann-integrierbare Funktionen sind aber ziemlich“ stetig. Nur an we” nigen Stellen k¨onnen sie unstetig sein. Umgekehrt sind Funktionen, die fast u ¨berall stetig sind, integrierbar. Exakt formuliert ist das der folgende Satz, der z. B. in [Elstrodt(2018), S. 166] bewiesen ist: Satz 14.3 (Stetigkeit integrierbarer Funktionen ∗ ) Eine beschr¨ ankte Funktion f ist genau dann integrierbar auf [a, b], wenn die Menge U ⊆ [a, b] der Unstetigkeitsstellen von f die folgende Bedingung erf¨ ullt:

385

14.2. Eigenschaften des Integrals

Zu jedem (noch so kleinen) ε > 0gibt es eine Folge von offenen Intervallen 6∞ ∞ ]ak , bk [ mit U ⊆ k=0 ]ak , bk [ und k=0 (bk − ak ) < ε. Die Menge U ist in diesem Sinne also beliebig klein. Zum Beweis des Satzes 14.2 ben¨otigen wir schwere Gesch¨ utze im Sinne des Satzes von Heine-Borel, der hier indirekt u ber den Satz zur gleichm¨ a¨ ßigen Stetigkeit (siehe Satz 11.11, Seite 325) einfließt. Dahinter steckt wie bei vielen Konvergenzs¨atzen die Vollst¨andigkeit der reellen Zahlen. Beweis (zu Satz 14.2) Da f stetig auf [a, b] ist, ist f nach Satz 11.7 (Seite 322) auf [a, b] insbesondere beschr¨ankt, so dass eine Voraussetzung der Integrierbarkeit bereits erf¨ ullt ist. Wir zeigen nun, dass zu jedem ε > 0 eine Zerlegung Z existiert mit |SZ − sZ | = SZ − sZ < ε.

(14.6)

Dann ist |I − I| = I − I ≤ SZ − sZ < ε und damit I = I. Es bleibt also (14.6) zu zeigen. Da f stetig auf [a, b] ist, ist f nach Satz 11.11 dort sogar gleichm¨aßig stetig, d. h., zu jedem (ab jetzt festen) ε > 0 existiert ein δ = δ(ε), so dass f¨ ur alle x, y ∈ [a, b] mit |x − y| < δ gilt: ε . |f (x) − f (y)| < b−a Sei nun m ∈ N so groß gew¨ahlt, dass (b − a)/m < δ ist. Man beachte, dass m wie auch die folgenden Objekte von ε abh¨angen. Wir verwenden die Zerlegung b−a Z = (a, a + b−a m , a + 2 m , . . . , b). Damit ist SZ − sZ = ≤

m  b−a

k=1 m  k=1

m



 max

b−a x∈[a+(k−1) b−a m ,a+k m ]

f (x) −

min

b−a x∈[a+(k−1) b−a m ,a+k m ]

f (x)

ε b−a ε b−a · =m· · = ε. m b−a m b−a 

H¨aufig sind die zu integrierenden Funktionen nicht u ¨berall stetig. Einzelne (d. h. endlich viele) Funktionswerte spielen bei der Berechnung eines Integrals keine Rolle. Satz 14.4 (Weitere hinreichende Bedingungen f¨ ur Integrierbarkeit) Sei f : [a, b] → R beschr¨ankt auf [a, b].

386

Kapitel 14. Integralrechnung

a) Ist f st¨ uckweise stetig auf [a, b], d. h., f ist stetig bis auf endlich viele Sprungstellen, so ist f integrierbar auf [a, b]. b) Ist f monoton auf [a, b], so ist f integrierbar auf [a, b]. Beweis (Skizze) Die Aussage a) erh¨alt man entweder mit Satz 14.3 oder mit Satz 14.2, indem man das Integral in endlich viele Integrale mit einem stetigen Integranden zerlegt. Die Aussage b) ist etwas schwieriger zu beweisen. Nach Lemma 11.5 auf Seite 328 ist wegen der Monotonie die Menge der Unstetigkeitsstellen von f auf ]a, b[ h¨ochstens abz¨ ahlbar unendlich. Man kann zeigen, dass auch diese Menge im Sinne von Satz 14.3 noch klein genug ist. Gibt es jedoch zu viele Unstetigkeitsstellen, so kann nicht mehr integriert werden. Das klassische Beispiel daf¨ ur ist die Dirichlet-Funktion (siehe Beispiel 11.7 auf Seite 303). Alle Untersummen auf dem Intervall [0, 1] sind f¨ ur diese Funktion gleich 0, alle Obersummen sind 1. Ist f integrierbar auf [a, b], so auch auf jedem Teilintervall von [a, b]. Insbesondere gilt f¨ ur c ∈ [a, b]: 8

8

b

8

c

f (x) dx = a

8

b

f (x) dx +

a

f (x) dx,

a

f (x) dx = 0.

c

(14.7)

a

Bislang war stets a ≤ b. Wir lassen auch den umgekehrten Fall zu und definieren Definition 14.5 (Vertauschte Integrationsgrenzen) Sei f integrierbar auf [a, b]. Dann verstehen wir unter 8

8

a b

f (x) dx := −

b

f (x) dx. a

Man beachte, dass diese Definition vertr¨aglich ist mit der Additionsregel (14.7), die nun auch ohne die Einschr¨ankung a ≤ c ≤ b gilt: 8

8

b a

f (x) dx −

8

b

f (x) dx = c

8

b

f (x) dx + a

8

c

c

f (x) dx = b

f (x) dx. a

Satz 14.5 (R¨ uckschluss aus Integralwert 0) Sei f stetig auf [a, b], und 9b es gelte f (x) ≥ 0 f¨ ur alle x ∈ [a, b]. Dann folgt aus a f (x) dx = 0, dass f (x) = 0 f¨ ur alle x ∈ [a, b].

387

14.2. Eigenschaften des Integrals

Beweis Annahme: Es existiere ein x0 ∈]a, b[ mit f (x0 ) > 0. Da f stetig in x0 ist, existiert ein δ > 0 (und δ < min{x0 − a, b − x0 }) mit |f (x) − f (x0 )| < ε := f (x0 ) f¨ ur alle x ∈]x0 − δ, x0 + δ[, d. h., auf dieser Umgebung ist f (x) > f (x2 0 ) . 2 Damit ist 8 x0 −δ 8 x0 +δ 8 b 8 b f (x) dx = f (x) dx + f (x) dx + f (x) dx 0 = f ≥0



8

a

x0 −δ

a x0 +δ

x0 −δ

f (x) dx ≥ 2δ

x0 +δ

f (x0 ) = δf (x0 ) > 0. 2

Aufgrund dieses Widerspruchs muss f (x) = 0 f¨ ur jedes x ∈]a, b[ sein. F¨ ur x = a bzw. x = b folgt unter Ausnutzung der einseitigen Stetigkeit f (a) = lim f (x) = lim 0 = 0 = lim f (x) = f (b). x→a+

x→a+

x→b−

 Genauso wie bei der Differenzialrechnung gibt es auch hier einen Mittelwertsatz: Satz 14.6 (Mittelwertsatz der Integralrechnung) Sei f stetig auf [a, b], a < b. Dann existiert eine (Zwischen-) Stelle ξ ∈ [a, b] mit f (ξ) =

1 b−a

8

b

f (x) dx. a

Die Fl¨ache unter dem Funktionsgraphen entspricht also der Fl¨ ache eines Rechtecks mit Breite b − a und H¨ohe f (ξ).

Beweis Da f stetig auf dem abgeschlossenen Intervall [a, b] ist, ist f integrierbar und nimmt das Minimum m := minx∈[a,b] f (x) und das Maximum M := maxx∈[a,b] f (x) an Stellen xm und xM ∈ [a, b] an. Damit ist wegen der Monotonie (14.4) des Integrals 8 m(b − a) ≤

also

b a

9b f (xm ) ≤

a

f (x) dx ≤ M (b − a), f (x) dx ≤ f (xM ). b−a

b

f (x) dx

(14.8)

Nach dem Zwischenwertsatz wird der Wert λ := a b−a von f an einer Stelle ξ ∈ [a, b] angenommen, die zwischen den Stellen xm und xM liegt oder mit einer der Stellen u  ¨bereinstimmt.

388

Kapitel 14. Integralrechnung

Im Beweis haben wir das Integral grob mit (14.8) abgesch¨ atzt. Diese naheliegende Ungleichung reicht in Anwendungen gelegentlich bereits aus. Beispiel 14.3 F¨ ur f (x) = ex auf dem Intervall [0, 2] gilt: 1 ≤ ex ≤ e2 . Hiermit kann der Wert des Integrals grob abgesch¨ atzt werden: 8 2 ex dx ≤ 2 · e2 . 1·2≤ 0

Mit dem Mittelwertsatz l¨asst sich f¨ ur eine stetige Funktion f ein Funktionswert als Grenzwert einer Integral-Mittelung u ¨ber eine kleine Umgebung ausrechnen: Sei f stetig auf [a, b] mit x0 ∈]a, b[. Dann ist 1 lim h→0 h

8

h 0

1 f (x0 + x) dx = lim h→0 h

8

x0 +h

f (x) dx = f (x0 ).

(14.9)

x0

Beweis Sei ε > 0. Da f stetig in x0 ist, gibt es ein δ > 0 mit [x0 −δ, x0 +δ] ⊆ ur alle x ∈ [x0 −δ, x0 +δ]. Aus dem Mittelwertsatz [a, b] und |f (x0 )−f (x)| < ε f¨ der Integralrechnung folgt f¨ ur |h| ≤ δ, dass ein ξ ∈ [x0 , x0 + h] oder ein ξ ∈ [x0 + h, x0 ] existiert (also insbesondere ξ ∈ [x0 − δ, x0 + δ]) mit   8   8   1 x0 +h  1 h     f (x0 + x) dx − f (x0 ) =  f (x) dx − f (x0 )    h x0  h 0 = |f (ξ) − f (x0 )| < ε. Damit ist die Konvergenz mit der Grenzwertdefinition gezeigt.



14.3 Hauptsatz der Differenzial- und Integralrechnung Um Integrale auszurechnen, kann man Grenzwerte von Ober- und Untersummen berechnen. Das ist aber sehr m¨ uhsam. Gl¨ ucklicherweise gibt es eine elegante Alternative: die Differenzialrechnung. Integration ist quasi eine zur Differenziation inverse Operation. Zuerst hat das schon Newtons Lehrer Isaac Barrow (1630–1677) herausgefunden. Um den Zusammenhang zwischen Integralen und der Ableitung zu erkennen, betrachten wir eine stetige ur jedes x ∈ [a, b] 9 x Funktion f auf [a, b]. F¨ existiert das Integral I(x) := a f (t) dt, so dass wir eine Funktion I(x) der 9b oberen Integrationsgrenze erhalten. Der Wert des Integrals a f (t) dt ist damit I(b), und außerdem ist I(a) = 0. Kennen wir I(x), so kennen wir den 9b Wert des gesuchten Integrals: a f (t) dt = I(b) = I(b) − I(a). Sei a ≤ x0 < b und 0 < Δx ≤ b − x0 so klein, dass aufgrund der Stetigkeit ahr gleich f (x0 ) sind. von f die Funktionswerte von f auf [x0 , x0 + Δx] ungef¨

389

14.3. Hauptsatz der Differenzial- und Integralrechnung

Dann ist 8

8

x0 +Δx

I(x0 + Δx) = a

8

x0

f (t) dt =

x0 +Δx

f (t) dt

f (t) dt + a

x0

≈ I(x0 ) + f (x0 )Δx. Wir erhalten eine n¨aherungsweise (rechtsseitige) Ableitung von I an der Stelle x0 u ¨ber I  (x0 ) ≈

I(x0 ) + f (x0 )Δx − I(x0 ) I(x0 + Δx) − I(x0 ) ≈ = f (x0 ). Δx Δx

Hier k¨ urzt sich das Δx der Fl¨ache f (x0 )Δx mit dem Δx des Differenzenquotienten weg. Die Fl¨achenzunahme an der Stelle x0 entspricht also anscheinend dem Funktionswert f (x0 ). Tats¨achlich gilt I  (x) = f (x). Das ist die Aussage des Hauptsatzes/Fundamentalsatzes der Integralrechnung, die wir im Folgen9b den genauer formulieren und beweisen werden. Damit l¨ asst sich a f (x) dx dann so ausrechnen: Suche eine Funktion F (x), deren Ableitung F  (x) gleich f (x) ist. Diese muss zwar nicht mit I identisch sein, aber sie stimmt bis auf eine additive Konstante c = F (a) mit I u ¨berein, wie wir unten zeigen werden. Diese Konstante ist aber f¨ ur den Wert des Integrals nicht wichtig. Dieser ist 8

b a

f (x) dx = I(b) − I(a) = [F (b) − c] − [F (a) − c] = F (b) − F (a).

Definition 14.6 (Integralfunktion und Stammfunktion) Sei f integrierbar auf [a, b] und c ∈ [a, b], C ∈ R. Die auf [a, b] definierte Funktion mit der Variable x 8 x f (t) dt + C

I(x) := c

heißt eine Integralfunktion oder unbestimmtes Integral von f . Ist eine Funktion F auf [a, b] differenzierbar mit F  (x) = f (x), dann (und nur dann) heißt F eine Stammfunktion von f .

Anmerkungen zur Definition: • Man beachte, dass bei der Integralfunktion insbesondere auch x ≤ c erlaubt ist. • Hier irritiert vielleicht, dass zwei Variablen verwendet werden: x und t. Beim Ausrechnen des Integrals wird x als Konstante angesehen. Die Zahl, die man dabei erh¨alt, h¨angt nat¨ urlich von dieser Konstante x ab, aber durch die Integration kommt die Variable t nicht mehr vor. Damit entsteht

390

Kapitel 14. Integralrechnung

eine Funktion mit der Variable x. Diese wird auch als Funktion der oberen Grenze bezeichnet. • Stammfunktionen erh¨alt man durch eine Umkehrung des Ableitens, quasi durch Aufleiten“. Obwohl sich diese Sprechweise anscheinend etabliert, ” ist sie irref¨ uhrend. Hier geht es nicht auf“ und ab“. Das ist bei den ” ” englischen Bezeichnungen derivative“ und anti-derivative“ klarer. ” ” Von fundamentaler Bedeutung f¨ ur das praktische Ausrechnen von Integralen ist nun der bereits angek¨ undigte Hauptsatz, der deswegen auch unter dem Namen Fundamentalsatz zu finden ist: Satz 14.7 (Hauptsatz der Differenzial- und Integralrechnung) Sei 9f xstetig auf [a, b] und c ∈ [a, b], dann ist die Integralfunktion I(x) = f (t) dt + C (stetig) differenzierbar auf [a, b], und es gilt f¨ ur alle x ∈ [a, b]: c I  (x) =

d dI (x) = dx dx

8

x

f (t) dt = f (x). c

Beweis Sei x ∈]a, b[ beliebig, fest. F¨ ur die Randpunkte x ∈ {a, b} funktioniert der Beweis analog mit einseitigen Grenzwerten, die wir hier nicht diskutieren. Wir berechnen I  (x) elementar als Grenzwert des Differenzenquotienten: '8 ( 8 x x+h I(x + h) − I(x) 1 = lim f (t) dt − f (t) dt lim h→0 h→0 h h c c '8 ( 8 8 x+h c 1 x+h 1 = lim f (t) dt + f (t) dt = lim f (t) dt. h→0 h x h→0 h x c An dieser Stelle nutzen wir wie in der Einleitung des Abschnitts die Stetigkeit von f aus: Ist h sehr klein, so sind alle Funktionswerte f (t) auf dem Intervall urzt sich mit der L¨ ange des [x, x + h] ungef¨ahr gleich f (x), der Faktor h1 k¨ Integrationsintervalls weg, und der Grenzwert ist daher f (x). Formal sauber erhalten wir dieses Ergebnis mit der Folgerung (14.9) des Mittelwertsatzes der Integralrechnung.  Folgerung 14.1 (Integral- und Stammfunktion sind ¨ aquivalente Begriffe) Jede Integralfunktion einer stetigen Funktion ist eine Stammfunktion. Umgekehrt ist aber auch jede Stammfunktion F einer stetigen Funktion eine Integralfunktion I. Beweis Nach Satz 14.7 ist die Ableitung der Integralfunktion die Funktion f , die Integralfunktion ist also eine Stammfunktion. Umgekehrt zeigen wir, dass

14.3. Hauptsatz der Differenzial- und Integralrechnung

391

jede Stammfunktion F eine Integralfunktion ist. Dazu erhalten wir ebenfalls u ¨ber Satz 14.7   8 x d F (x) − f (t) dt = f (x) − f (x) = 0, dx c so dass die abzuleitende Funktion konstant sein muss. Anschaulich ist klar, dass nur eine konstante Funktion u ¨berall die Steigung null haben kann. Formal l¨asst sich das auch direkt mit dem Mittelwertsatz zeigen. Das werden wir im Rahmen von Kurvendiskussionen noch tun, siehe Folgerung 9 x 15.1 a) auf Seite 444. Damit gibt es also eine Konstante C ∈ R mit F (x)− c f (t) dt = C, 9x also F (x) = c f (t) dt + C. Die Stammfunktion F ist damit aber genau die 9x Integralfunktion I(x) := c f (t) dt + C.  Die Begriffe Stammfunktion und Integralfunktion k¨ onnen f¨ ur stetiges f also als Synonym benutzt werden. 9 Eine Stammfunktion F von f wird auch mit f (x) dx – also 9ohne Angabe x f (t) dt als der Schranken – oder nur unter Angabe der oberen Schranke unbestimmtes Integral geschrieben. Das Berechnen einer Stammfunktion ist eine Umkehroperaton“ zur Dif” ferenziation: 9 d f (x) dx = f (x). Hier k¨ urzt sich das dx weg. • dx



! Achtung

Das geht nur dann, wenn die obere Grenze des Integrals die Variable ist, nach der abgeleitet wird! Hat man dagegen eine Funktion f , die von den Variablen x und t abh¨angig ist, so ist d dx

8

b a

f (x, t) dt = f (x, ?).

Wir haben hier auch Schwierigkeiten, die rechte Seite hinzuschreiben, da ¨ diese nicht mehr von t abh¨angig ist. Ohne weitere Uberlegungen darf man ein solches Integral auch nicht mit der Ableitung vertauschen.



9

d dx f (x) dx

= f (x) − C f¨ ur eine stetig differenzierbare Funktion f . Denn d hier ist f eine Stammfunktion f¨ ur dx f (x), die mit einer Integralfunktion 9x  f (t) dt + C u bereinstimmt. In diesem Sinne k¨ urzen sich auch in dieser ¨ c Reihenfolge das Integrieren und Ableiten weg.

Das Berechnen von Integralen l¨asst sich mit dem Hauptsatz zur¨ uckf¨ uhren auf das Ermitteln von Stammfunktionen. Hierbei hilft dann die Differenzialrechnung. Das ist entscheidend, damit wir nicht bei jedem Integral Grenzwerte wie in (14.2) ausrechnen m¨ ussen!

392

Kapitel 14. Integralrechnung

Ist F (x) eine (beliebige) Stammfunktion zu einer stetigen Funktion f , so ist 9 x F eine Integralfunktion zu f und hat damit eine Darstellung F (x) = f (t) dt + C, C = F (c). Damit erhalten wir die bereits eingangs formulierte c wichtige Verbindung zwischen Ableitung und Integration, u ¨ber die Integrale berechnet werden: 8 F (b) − F (a) =

8

8

b

f (t) dt + C −

c

8

c a

c

f (t) dt − C 8

b

f (t) dt +

=

a

b

f (t) dt = c

f (t) dt.

(14.10)

a

b  Statt F (b) − F (a) schreiben wir auch kurz F (x) oder [F (x)]ba . a Man beachte, dass dieser Ansatz auch funktioniert, wenn a gr¨ oßer als b ist. In diesem Fall ist 8 b 8 a f (t) dt = − f (t) dt = −[F (a) − F (b)] = F (b) − F (a). a

b

Beispiel 14.4 a) sin(x) ist eine Stammfunktion von cos(x). Also ist 8

π 2

0

b)

1 m+1 m+1 x

8

π

π 2

− sin(0) = 1.

+ C ist eine Stammfunktion zu xm . 

1

xm dx = 0

π

cos(x) dx = sin(x)|02 = [sin(x)]02 = sin

1 xm+1 + C m+1

1 = 0

1 1 1m+1 + C − 0 − C = . m+1 m+1

Um ein Integral auszurechnen, muss man also nur“ eine Stammfunktion ” ermitteln. Im n¨achsten Kapitel werden wir dazu einige Techniken betrachten. Hintergrund: Ein anderer Blick auf die Integration mit Stammfunktion Wir zeigen, dass sich die Regel (14.10) nicht nur aus dem Hauptsatz der Differenzial und Integralrechnung ergibt, sondern auch direkt aus dem Mittelwertsatz der Differenzialrechnung. Sei dazu f integrierbar auf einem Intervall [a, b] mit einer Stammfunktion F . Wir wollen 8 F (b) − F (a) =

b

f (x) dx a

zeigen. Dazu erweitern wir die Differenz F (b) − F (a) zu einer Teleskopsumme, auf deren Summanden wir dann den Mittelwertsatz (Satz 13.3 auf Seite

393

14.4. Rechenregeln zur Integration

361) anwenden. Es entsteht eine Riemann-Zwischensumme, die wegen des Riemann’schen Integrabilit¨atskriteriums (siehe Seite 382) gegen das Integral konvergiert. Sei n ∈ N: F (b) − F (a)







b−a b−a b−a +F b− −F b−2 ± · · · − F (a) b− n n n

n−1 

b−a b−a − F b − (k + 1) . = F b−k n n

= F (b) − F

k=0

Auf jeden Summanden wenden wir den Mittelwertsatz an.  Es gibt Zwischenb−a der L¨ ange b−a , b − k stellen ξk in den Intervallen b − (k + 1) b−a n n n , so dass n−1 n−1  b−a  b−a  = . F (ξk ) f (ξk ) F (b) − F (a) = n n k=0 k=0   Eine Riemann-Zwischensumme zur Zerlegung a, a + b−a n , . . . , b des Intervalls [a, b] ist die rechte Seite. Da f nach Voraussetzung integrierbar ist, ist das Riemann’sche Integrabilit¨atskriterium anwendbar, und die rechte Seite strebt f¨ ur n → ∞ gegen das Integral. Da die linke Seite unabh¨ angig von n ist, ist damit die Rechenregel bewiesen: F (b) − F (a) = lim

n→∞

n−1  k=0

f (ξk )

b−a = n

8

b

f (x) dx. a

14.4 Rechenregeln zur Integration Das Ausrechnen von Integralen kann deutlich schwieriger sein als die Bestimmung einer Ableitung. Dies liegt daran, dass die Ableitung einer elementaren Funktion wieder eine elementare Funktion ist, w¨ ahrend das unbestimmte Integral einer elementaren Funktion keine elementare Funktion sein muss. Elementare Funktionen sind die Polynome und gebrochen-rationalen Funktionen, die Funktionen sin(x) und cos(x), exp(x) sowie alle durch Zusammensetzung oder Umkehrung daraus entstehenden Funktionen. Man kann zeigen, dass der als Integralfunktion des stetigen Sinus Cardinalis definierte Integralsinus 8 x 8 x sin(t) dt sinc(t) dt = Si(x) := t 0 0 9x 2 keine elementare Funktion ist. Gleiches gilt f¨ ur 0 e(t ) dt (Liouville, 1835). Da es kein einfaches allgemeines Verfahren zur Berechnung einer Stamm-

394

Kapitel 14. Integralrechnung

funktion gibt, werden wir uns mit den folgenden Rechenregeln behelfen. Computer-Algebra-Systeme k¨onnen aber sehr wohl automatisch Stammfunktionen berechnen, sofern diese sich aus elementaren Funktionen zusammensetzen. Dahinter steckt der komplizierte Risch-Algorithmus (1968), der ausnutzt, dass sich elementare Stammfunktionen aus elementaren Bestandteilen der zu integrierenden Funktion und Logarithmusfunktionen zusammensetzen.

Tabelle 14.1 Ausgew¨ ahlte Stammfunktionen (unbestimmte Integrale)  xk dx =  

xk+1 + C, k = −1 k+1

1 dx = ln(|x|) + C x ex dx = ex + C

 ln(x) dx = x · ln(x) − x + C  cos(x) dx = sin(x) + C  sin(x) dx = − cos(x) + C



cosh(x) dx = sinh(x) + C  sinh(x) dx = cosh(x) + C 

1 dx = arctan(x) + C 1 + x2  1 dx = artanh(x) + C = 1 − x2  1 dx = arcoth(x) + C = 1 − x2    

√ √ √ √

1 1 − x2 1 1 − x2 1 x2

+1

1 x2 − 1

  1+x 1 ln + C, |x| < 1 2 1−x   x+1 1 ln + C, |x| > 1 2 x−1

dx = arcsin(x) + C dx = − arccos(x) + C dx = arsinh(x) + C = ln(x +



x2 + 1) + C

   dx = arcosh(x) + C = ln x + x2 − 1 + C, x > 1

395

14.4. Rechenregeln zur Integration

Beispiel 14.5 Bereits mit der Linearit¨at des Integrals und der Stammfunktionen aus Tabelle 14.1 lassen sich einfache Integrale berechnen: 8 8 8 8 1 2 5 a) x3 −2x2 +5x dx = x3 dx−2 x2 dx+5 x dx = x4 − x3 + x2 +C. 4 3 2 π/2  8 π/2 8 π/2 8 π/2 1 2 b) (2x + sin(x)) dx = 2 x dx + sin(x) dx = 2 x + 2 0 0 0 0 π2 π/2 + 1. [− cos(x)]0 = 4

14.4.1 Partielle Integration Die Produktregel der Differenzialrechnung f¨ uhrt zur partiellen Integration. Diese Integrationsregel kann helfen, wenn das Produkt zweier Funktionen integriert werden soll: Satz 14.8 (Partielle Integration) Seien f und g stetig differenzierbar auf [a, b], dann gilt: 8

b

b 8  f (x) · g (x) dx = f (x) · g(x) − 

a

a

b a

f  (x) · g(x) dx.

Beweis Die Regel folgt sofort aus dem Hauptsatz der Differenzial- und Integralrechnung und der Produktregel der Differenzialrechnung (Satz 12.2): b  f (x)g(x)

(14.10)

8

b

(f (x)g(x)) dx (Hauptsatz)

=

a

8

a

8

a

b

f  (x)g(x) + f (x)g  (x) dx (Produktregel)

=

8

b

b

f  (x)g(x) dx +

= a

f (x)g  (x) dx. a

 Man spricht von partieller Integration, da nur zu einer der beiden am Produkt beteiligten Funktionen (n¨amlich g  (x)) eine Stammfunktion (hier g(x)) gesucht wird. Statt des kompletten Produkts wird also nur ein Teil des Produkts integriert. Dadurch bleibt ein Restintegral u uck hat ¨brig. Wenn man Gl¨ oder geschickt ist, dann ist das Restintegral aber einfacher zu berechnen als das urspr¨ ungliche Integral. Wir formulieren die Regel etwas anwendungsfreundlicher“ und schreiben ” jetzt das Produkt f (x) · g  (x) als f (x) · g(x), da man Ableitungen im Inte-

396

Kapitel 14. Integralrechnung

grand auf den ersten Blick nicht unbedingt erkennt. Sind dazu f und G stetig differenzierbar auf [a, b] und ist g(x) = G (x), d. h., G ist eine Stammfunktion zu g, so l¨asst sich die Regel zur partiellen Integration auch schreiben als 8

b a

b 8  f (x)g(x) dx = f (x)G(x) − a

b

f  (x)G(x) dx. a

9 9 Beispiel 14.6 a) x · sin(x) dx = −x · cos(x) + cos(x) dx = −x · cos(x) + sin(x) + C. Hier ist f (x) = x, f  (x) = 1 und g  (x) = sin(x) und g(x) = − cos(x). 2π 9 2π 9 2π = b) 0 x cos(x) dx = x sin(x)0 − 0 1 · sin(x) dx = 0 − [− cos(x)]2π 0 cos(2π) − cos(0) 9 = 0. c) Beim Integral ln(x) dx sieht man zun¨achst nicht, dass partielle Integration weiterhilft. Wenn wir aber f (x) = ln(x), f  (x) = x1 und g  (x) = 1, g(x) = x w¨ahlen, also den Integranden mit 1 multiplizieren, dann ergibt sich 8 8 8 1 ln(x) dx = 1 · ln(x) dx = x · ln(x) − x · dx = x · ln(x) − x + C. x 2  2 9 2  2  x · ln(x) dx = 12 x2 · ln(x) 1 − 1 12 x dx = 12 x2 · ln(x) 1 − 14 x2 1 = 2 ln(2) − 43 . Hier ist f (x) = ln(x), f  (x) = x1 und g  (x) = x, g(x) = 12 x2 . 91 91 e) 0 xex dx = [xex ]10 − 0 ex dx = e − [ex ]10 = e − e + 1 = 1.

d)

92 1

Beispiel 14.7 Im Umgang mit Schwingungen wird h¨ aufig folgendes Integral ben¨otigt, bei dem wir als Trick die trigonometrische Fassung des Satzes von Pythagoras sin2 (x) + cos2 (x) = 1 (siehe Seite 132) verwenden: 8 8 sin2 (x) dx = − sin(x) · cos(x) + cos2 (x) dx 8 = − sin(x) · cos(x) + (1 − sin2 (x)) dx 8 = − sin(x) · cos(x) + x − sin2 (x) dx, 9 und somit folgt durch Addition von sin2 (x) dx auf beide Seiten 8 2 sin2 (x) dx = − sin(x) · cos(x) + x + c. Hier haben wir noch die Konstante c erg¨anzt, da Stammfunktionen nur bis auf eine Konstante u ¨bereinstimmen und auf der rechten Seite keine allgemeine Stammfunktion mehr steht. Nach Multiplikation mit dem Faktor 12 sind wir fertig (mit C = 2c ):

397

14.4. Rechenregeln zur Integration

8 sin2 (x) dx =

1 [x − sin(x) · cos(x)] + C. 2

(14.11)

Man nennt dieses Vorgehen, bei dem man wieder zum Startintegral gelangt und es so l¨osen kann, die Ph¨ onix-Methode: Der Wert des Integrals entsteht wie ein Ph¨onix aus der Asche. Mit dem erhaltenen Ergebnis k¨onnen wir direkt auch dieses Integral berechnen: 8 8 1 cos2 (x) dx = 1 − sin2 (x) dx = x − [x − sin(x) · cos(x)] + C 2 1 (14.12) = [x + sin(x) · cos(x)] + C. 2 F¨ ur die Anwendung der partiellen Integration in Verbindung mit trigonometrischen Funktionen ist es typisch, dass man wieder auf das Ausgangsintegral st¨oßt. Hat es dann einen von Eins verschiedenen Vorfaktor, so kann man die Ph¨onix-Methode anwenden und den entsprechenden Term auf beiden Seiten der Gleichungskette subtrahieren. Dann ist man nach Division durch den entstehenden Vorfaktor fertig. Hat das wieder entstehende Ausgangsintegral den Vorfaktor Eins, so hat man durch die Rechnung leider nichts erreicht, und man muss einen anderen L¨osungsweg suchen. Diese Situation tritt z. B. ein, wenn wir statt der Aufl¨osung cos2 (x) = 1 − sin2 (x) ein weiteres Mal partiell integriert h¨atten: 8 8 sin2 (x) dx = − sin(x) · cos(x) + cos2 (x) dx 8 8 = − sin(x)·cos(x) + sin(x)·cos(x) − sin(x)·(− sin(x)) dx = sin2 (x) dx.

14.4.2 Integralsubstitution Analog zur Produktregel f¨ uhrt auch die Kettenregel der Differenzialrechnung (siehe Satz 12.3) zu einer weiteren sehr n¨ utzlichen und wichtigen Integrationsregel, mit der Integrale bei geschickter Anwendung in einfacher zu l¨ osende Integrale u uhrt werden k¨onnen. ¨berf¨ Satz 14.9 (Substitutionsregel) Seien g stetig differenzierbar auf [a, b] und f stetig auf dem Intervall g([a, b]). Dann ist 8

8

b

g(b)



f (g(x))g (x) dx = a

f (t) dt. g(a)

(14.13)

398

Kapitel 14. Integralrechnung

Hier hat man die Substitution t = g(x) vorgenommen. Rein formal kann man sagen: dt = g  (x) dx. Beweis Zun¨achst erinnern wir uns, dass die Menge g([a, b]) als Konsequenz des Zwischenwertsatzes tats¨achlich ein Intervall ist (siehe Satz 11.8 auf Seite 323). Sei F eine Stammfunktion von f . Nach Voraussetzung ist F ◦ g differenzierbar. Mit der Kettenregel (Satz 12.3, Seite 340) gilt: F (g(x)) = F  (g(x))g  (x) = f (g(x))g  (x). Diese Funktion ist nach Voraussetzung stetig, so dass mit dem Hauptsatz gilt (siehe (14.10)): 8

8

b

b g(b) 8   (F (g(x)) dx = F (g(x)) = F (t) =

b

f (g(x))g  (x) dx = a

a

a

g(a)

g(b)

f (t) dt. g(a)

 Die Regel (14.13) kann sowohl von links nach rechts als auch von rechts nach links angewendet werden. Damit kann man auch substituieren, wenn man keine Ableitung einer inneren Funktion sieht. Auch muss g nicht umkehrbar sein. Existiert jedoch die Umkehrfunktion g −1 (d. h., die Gleichung t = g(x) kann nach x aufgel¨ost werden: x = g −1 (t)), so kann man auch so rechnen (α := g(a), β := g(b)): 8

8

β

g −1 (β)

f (g(x))g  (x) dx,

f (t) dt =

(14.14)

g −1 (α)

α

wobei wieder formal t = g(x) und dt = g  (x) dx substituiert wurde. Beispiel 14.8 Mittels Substitution t = sin(x), dt = cos(x) dx erhalten wir 8

8

π/2

sin(π/2)

exp(sin(x)) cos(x) dx = 0

sin(0)

 1 exp(t) dt = et 0 = e − 1.

Beispiel 14.9 H¨aufig sind Funktionen des Typs f (c · x) mit einer Konstante c ∈ R zu integrieren. Hier hilft die Substitution t = c · x, dt = c dx: 8

8

b a

f (c · x) dx =

cb ca

1 1 b f (t) dt = [F (c · x)]a . c c

Hier kann alternativ zur Substitution direkt die Stammfunktion F von f berechnet werden. Dann setzt man die innere Funktion c · x ein. Aufgrund der d F (c · x) = f (c · x) · c, so dass man noch mit dem Faktor Kettenregel ist dx 1 multiplizieren muss, um eine Stammfunktion f¨ ur f (c · x) zu erhalten. Diec ¨ se Uberlegung entspricht einem R¨ uckw¨artslesen der Kettenregel und damit

399

14.4. Rechenregeln zur Integration

genau dem Beweis der Substitutionsregel. Im Kopf l¨ asst sich also leicht die Stammfunktion − 12 cos(2x) von sin(2x) bilden, indem man nur den Sinus integriert zu − cos(2x) und diese Funktion dann mit der Kettenregel ableitet, um den Korrekturfaktor 21 zu finden. Die formale Anwendung der Substitutionsregel ist unkritisch. Im Ausgangsintegral werde u ¨ber [a, b] nach x integriert, dies soll durch eine Substitution in eine Integration nach t u uhrt werden. Hier gibt es zwei Ans¨ atze: ¨berf¨ a) Falls man t = g(x) setzt, ist dt = g  (x) dx, und t l¨ auft in den Grenzen von g(a) bis g(b). auft in den Grenzen von b) Falls man x = g(t) setzt, ist dx = g  (t) dt, und t l¨ g −1 (a) bis g −1 (b). Im Fall b) muss die Umkehrfunktion zu g existieren. Ob sie existiert, erkennt man aber ohnehin bei Anwendung der Regel, da man sie berechnen muss. Kochrezept: Die alte Integrationsvariable sei x, die neue Variable sei t = g(x). Dann gehe man wie folgt vor: • Ersetze dx durch dt/g  (x). • Neue Integrationsgrenzen sind g(a) und g(b). • Ersetze jedes Auftreten von g(x) durch t (das kann auch dann geschehen, wenn g(x) nicht umkehrbar zu g −1 (t) ist). • Falls g umkehrbar ist und die Variable x noch auftritt: Ersetze alle verbleibenden x durch g −1 (t) (dieser Schritt macht den vorangehenden u ¨berfl¨ ussig, da g(x) ersetzt wird durch g(g −1 (t)) = t). • Falls g nicht umkehrbar ist aber dennoch die Variable x noch auftritt, gelingt die gew¨ahlte Substitution nicht. Die Substitutionsregel gilt auch unter schw¨acheren Voraussetzungen an die Funktionen f und g. Wir werden sie beispielsweise f¨ ur eine linear affine Funktion g(x) := mx + c mit g(a) = α und g(b) = β und eine Funktion f , die auf dem Intervall zwischen α und β integrierbar (aber nicht unbedingt stetig) ist, anwenden. Direkt mittels der Definition des Integrals kann man nachrechnen, dass gilt (t = g(x), dt = m dx): 8

b

f (g(x)) dx = a

1 m

8

β

f (t) dt.

(14.15)

α

Benutzt man die Substitutionsregel, um eine Stammfunktion (ein unbestimmtes Integral) zu ermitteln, so wird h¨aufig eine Schreibweise ohne Grenzen verwendet. Dann muss man aber am Ende der Rechnung die Substitution wieder r¨ uckg¨angig machen. Beispielsweise kann man so vorgehen: x 2 9x 9 x2 9 (x2 ) 2 2 u=t2 dx = c te(t ) dt = 12 c2 eu du = 12 eu c2 = 21 e(x ) + C, • xe x 2 9 x (t2 ) u=t2 1 9 x2 u 9 (x2 ) 2 dx = te dt = 2 e du = 12 eu  = 21 e(x ) + C, • xe

400



9

Kapitel 14. Integralrechnung

xe(x

2

)

u=x2 1 2

dx =

9

x2 =u 1 (x2 ) 2e

eu du = 12 eu + C =

+ C.

Der R¨ ucksubstitution entspricht die Anpassung der Grenzen. Das sieht man gut, wenn man wie oben mit einer variablen oberen Grenze x rechnet. Man darf aber bei der Integration mit Grenzen nicht einfach die alten Grenzen nach einer Substitution stehenlassen und nach einer R¨ ucksubstitution diese dann einsetzen. Zwar ist das Ergebnis richtig, aber zwischenzeitlich stimmen die Grenzen und damit auch der Integralwert nicht. √ u, u = 1 + 4x, d. h. du = 4 dx und Beispiel 14.10 a) Mit f (u) = 9 f (u) du = 32 u3/2 + C erhalten wir 8 8 √ √ 1 1 2 1 1 + 4x dx = u · du = · u3/2 + C = u3/2 + C 4 4 3 6 1√ 3 1 + 4x + C. = 6 b) Mit der Substitution u = −3x + 3, d. h. du = −3 dx erhalten wir 8 8 1 1 1 eu du = − eu + C = − e−3x+3 + C. e−3x+3 dx = − 3 3 3 c) Mit u = sin(x) und du = cos(x) dx erhalten wir 8 8 1 1 sin2 (x) · cos(x) dx = u2 du = u3 + C = sin3 (x) + C. 3 3 9 9 1 (8 − 5x)8 + C. Dabei d) (8 − 5x)7 dx = − 51 u7 du = − 51 · 18 u8 + C = − 40 haben wir u = 8 − 5x gew¨ahlt, so dass du = −5 dx. e) Mit u = 1 + x2 , also du = 2x dx, erhalten wir 8 8  √ x 1 1 √ √ du = u + C = 1 + x2 + C. dx = 2 2 u 1+x Ein Spezialfall der Substitutionsregel ist das logarithmische Integrieur x > 0 kennen wir eine Stammren. Dazu integrieren wir zun¨achst x1 . F¨ funktion ln(x). Falls beide Integrationsgrenzen kleiner null sind, also a, b < 0, erhalten wir mittels der Substitution t = −x, dt = − dx das Integral 8

b a

1 dx = x

8

−b −a

1 dt = t

8

|b|

|a|

|b| b 1   dt = ln(t) = ln(|t|) . t |a| a

Damit gilt sowohl f¨ ur a, b < 0 als auch f¨ ur a, b > 0: 8

b a

b 1  dx = ln(|x|) . x a

401

14.4. Rechenregeln zur Integration



! Achtung

Wenn Sie die Stammfunktion von x1 mit ln(|x|) (statt mit ln(x)) angeben, machen Sie auch bei einem negativen Integrationsintervall keinen Fehler.

Falls eine stetige Funktion f keine Nullstelle auf [a, b] hat, ist 1/f (x) hier stetig und beschr¨ankt. Entweder sind dann sowohl f (a) und f (b) beide positiv oder beide negativ. In diesem Fall ergibt sich mit der Substitution t = f (x), ur das logarithmische Integrieren: dt = f  (x) dx die Regel f¨ 8

b a

8

f (b) 1  dt = ln(|t|) = ln(|f (b)|) − ln(|f (a)|) f (a) f (a) t

|f (b)| . = ln |f (a)|

f  (x) dx = f (x)

f (b)

Man beachte, dass die Einschr¨ankung an f (a) und f (b) erforderlich ist, da 1/t im Nullpunkt nicht beschr¨ankt ist und damit in keinem Intervall um Null integriert werden kann. Beispiel 14.11 '   ( cos π  − sin(x) 4 dx = − ln tan(x) dx = − cos(x) | cos(0)| 0 0

√ 1 = ln( 2). = − ln √ 2 √ asst sich h¨ aufig • Ein Integral mit Termen der Form a2 − x2 mit a > 0 l¨ durch die Substitution x = a · cos(u) vereinfachen. √ asst sich mitunter • Ein Integral mit Termen der Form a2 + x2 mit a > 0 l¨ durch die Substitution x = a · sinh(u) in den Griff bekommen. √ uhrt h¨ aufig • Bei einem Integral mit Termen der Form x2 − a2 mit a > 0 f¨ die Substitution x = a · cosh(u) zum Ziel. 8

π/4

8

π/4

Beispiel 14.12  a) Mit der Substitution x = a · sinh(u), dx = a · cosh(u) du, u = arsinh xa erhalten wir (a > 0) 8

1 √ dx = 2 a + x2 =

8

arsinh( x a)

8

arsinh( x a)

a · cosh(u)  du a 1 + sinh2 (u) 1 du = arsinh

x a

Dabei haben wir sinh2 (x) + 1 = cosh2 (x) > 0 verwendet.

+ C.

402

Kapitel 14. Integralrechnung

b) Wir √ berechnen f¨ ur a > 0 auf dem Intervall [−a, a] eine Stammfunktion wir die Substitution x = a · cos(u), dx = von a2 − x2 . Dazu benutzen   −a · sin(u), u = arccos xa ∈ [0, π] (beachte sin(u) ≥ 0): 8  8 2 2 a − x dx = a 8

= −a2 a2 2 a2 =− 2 =−

arccos( x a)

arccos( x a)



1 − cos2 (u) · (−a sin(u)) du

a2 arccos( x a) [u − sin(u) · cos(u)] 2  x  a2  arccos( xa ) arccos + 1 − cos2 (u) · cos(u) a 2 x 1  arccos + x a2 − x2 + C. a 2 sin2 (u) du

(14.11)

=



Beispiel 14.13 (Fl¨ ache des Einheitskreises) Die Fl¨ ache A des√halben Einheitskreises ist gleich der Fl¨ache unter dem Graph der Funktion 1 − x2 zwischen x = −1 und x = 1: 8 1 1 − x2 dx. A= −1

Die Substitution x = sin(t), d. h. dx = cos(t) dt, t = arcsin(x), liefert 8 A

1

= (14.12)

=



−1

8  2 1 − x dx =

π/2

π/2

= −π/2

π/2

2

1 − sin (t) · cos(t) dt =

−π/2

1 (t + sin(t) · cos(t)) 2

8



cos2 (t) dt −π/2

π π π + = . 4 4 2

Wie zu erwarten war, erhalten wir f¨ ur die Fl¨ache des Einheitskreises den Wert 2 · A = π. Beispiel 14.14 Der Effektivwert einer Wechselspannung gibt die Gr¨ oße einer Gleichspannung U = ueff an, die an einem Ohm’schen Widerstand R 2 (mit Gleichstrom I = U/R) die gleiche Wirkleistung P = U I = UR hat wie die Wechselspannung. Dabei ist f¨ ur eine 2π/ω-periodische Spannung u(t) 9 2π/ω ω u(t)i(t) dt = am Ohm’schen Widerstand die Wirkleistung P := 2π 0 9 2π/ω u(t) ω u(t) R dt. Damit ergibt sich f¨ ur den Effektivwert die Gleichung 2π 0 ω u2eff = R 2π Die positive L¨osung ist

8

2π/ω

u(t) 0

u(t) dt. R

403

14.4. Rechenregeln zur Integration

& ueff =

ω 2π

8

2π/ω

u(t)2 dt. 0

Entsprechend dem Effektivwert einer Wechselspannung  9 definiert man den 2π/ω ω i(t)2 dt, und es Effektivwert eines Wechselstroms zu I = ieff = 2π 0 gilt am Ohm’schen Widerstand ieff = ueff /R. ˆ > 0. Wir w¨ahlen etwas konkreter u(t) := u ˆ cos(ωt+ϕ0 ) mit Maximalwert u Hier erhalten wir f¨ ur den Effektivwert mit der Substitution x = ωt + ϕ0 , dx = ω dt: & & 8 2π/ω 8 2π/ω ω ω 2 (ˆ u cos(ωt + ϕ0 )) dt = u ˆ· cos2 (ωt + ϕ0 ) dt ueff = 2π 0 2π 0 & & 8 2π+ϕ0 8 2π 1 1 2 =u ˆ· cos (x) dx = u ˆ· cos2 (x) dx, 2π ϕ0 2π 0 wobei wir im letzten Schritt die 2π-Periodizit¨at des Kosinus ausgenutzt haben. Nun l¨asst sich aber (14.12) einsetzen, und wir erhalten # u ˆ 1 [x − sin(x) · cos(x)]2π ueff = u ˆ· 0 = √ . 4π 2 Bei kosinus- bzw. sinusf¨ormigen Wechselspannungen wird h¨ aufig der Effektivwert auch in dieser Darstellung definiert. Der Effektivwert √ der Steckdoˆ = 2 · 230 V ≈ 325 senspannung ist ueff = 230 V, der Maximalwert ist u V. Am Ohm’schen Widerstand haben Strom und Spannung keine Phasenverschiebung, die Wirkleistung ist nach Definition der Effektivwerte dort gleich u2eff /R = i2eff · R = ueff · ieff . Die Wirkleistung an einer Spule oder einem Kondensator ist aber wegen der Phasenverschiebung geringer als S := ueff · ieff . Daher nennt man S die Scheinleistung. Wir betrachten die Wirkleistung P wie zuvor zu einer Spannung u(t) := u ˆ cos(ωt + ϕ0 ), aber jetzt zu einem um den Winkel − π2 ≤ ϕ < π2 phasenverschobenen Strom i(t) = ˆi cos(ωt+ϕ0 +ϕ). Mit dem Additionstheorem (4.7) auf Seite 134 erhalten wir: 8 2π/ω ω u ˆ cos(ωt + ϕ0 ) · ˆi cos(ωt + ϕ0 + ϕ) dt P := 2π 0 8 2π/ω ω u ˆ cos(ωt + ϕ0 ) · ˆi[cos(ωt + ϕ0 ) cos(ϕ) − sin(ωt + ϕ0 ) sin(ϕ)] dt = 2π 0 8 2π/ω ω = cos(ϕ) u ˆ cos(ωt + ϕ0 ) · ˆi cos(ωt + ϕ0 ) dt − 0 2π 0

404

Kapitel 14. Integralrechnung

⎞2 ⎛& 8 2π/ω 1 ⎝ ω = cos(ϕ) u ˆ2ˆi2 cos2 (ωt + ϕ0 ) dt⎠ 2π 0 u ˆ · ˆi & & 8 2π/ω 8 2π/ω ω ω 2 2 ˆi2 cos2 (ωt + ϕ0 ) dt = cos(ϕ) u ˆ cos (ωt + ϕ0 ) dt · 2π 0 2π 0 & & 8 2π/ω 8 2π/ω ω ω = cos(ϕ) u2 (t) dt · i2 (t − ϕ/ω) dt 2π 0 2π 0 & & 8 2π/ω 8 2π/ω ω ω 2 = cos(ϕ) u (t) dt · i2 (t) dt 2π 0 2π 0 = cos(ϕ) · ueff · ieff = cos(ϕ) · S.

9 2π/ω Dabei ist 0 u ˆ cos(ωt+ϕ0 )·ˆi(− sin(ωt+ϕ0 )) dt = 0, da das Integral mittels Substitution und Periodizit¨at in 8 π cos(x) · sin(x) dx = 0 −ˆ uˆi −π

u uhrt werden kann. Der neue Integrand ist ungerade, so dass sich ¨berf¨ Fl¨acheninhalte oberhalb und unterhalb der x-Achse aufheben. Wegen 0 ≤ cos(ϕ) ≤ 1 ist die Wirkleistung kleiner oder gleich der Scheinleistung. Beispiel 14.15 (Anwendung der Substitutionsregel in der Physik) ¨ Die kinetische Arbeit ist als Kraft F mal Weg s definiert. Andert sich die Kraft nur an einzelnen Punkten, so kann man die Arbeit als Summe u ¨ber ¨ die Wegst¨ ucke mit konstanter Kraft bilden. Andert sich die Kraft als Funktion F (s) des zur¨ uckgelegten Wegs kontinuierlich, so f¨ uhrt das zum Integral 9b ur Wege im dreidiW = a F (s) ds. Hier ist der Weg das Intervall [a, b] (f¨ mensionalen Raum werden Kurvenintegrale verwendet, siehe Band 2, Seite 124). Kennt man die (bijektive) Weg-Zeit-Funktion s(t), so k¨ onnen wir mittels Substitution s = s(t) (links steht eine Variable s, rechts eine Funktion s) zu einer Integration u ¨ber die Zeit t u ¨bergehen (ds = s (t)dt): 8

8

b

s−1 (b)

F (s(t))s (t) dt.

F (s) ds =

W =

s−1 (a)

a

Hier ist s−1 (a) der Startzeitpunkt ta bei a und s−1 (b) der Ankunftszeitpunkt tb bei b. Die Ableitung s (t) ist die Geschwindigkeit v(t) zum Zeitpunkt t. Damit erhalten wir 8 tb

F (s(t))v(t) dt.

W = ta

405

14.4. Rechenregeln zur Integration

Die Kraft F (s(t)) kann als Masse m mal Beschleunigung a(t) = v  (t) = s (t) geschrieben werden. Mit der Substitution v = v(t), dv = v  (t) dt ergibt sich mit va = v(ta ) und vb = v(tb ) 8

8

tb

W =

tb

F (s(t))v(t) dt = ta

8 mv  (t)v(t) dt =

v(tb )

mv dv =

m 2

v(ta )

ta

v2

vb

.

va

Die Substitutionsregel wird h¨aufig kalk¨ ulhaft angewendet. Das gelingt, wenn man wie in der Physik die Variablen der Funktionen weglassen kann, da sie aus dem Zusammenhang bekannt sind. Ist die Kraft F aufgrund des Zusammenhangs zum Zeitpunkt t gemeint, so handelt es sich bei F nicht um F (t), sondern um F (s(t)), da wir F (s) als Funktion der Strecke eingef¨ uhrt haben. So wird beispielsweise aus 8 tb 8 tb 8 vb 8 tb F (s(t))v(t) dt = mv(t)a(t) dt = mv(t)v  (t) dt = mv dv ta

kurz

ta

8

8

tb

8

tb

F v dt = ta

ta tb

mva dt = ta

Durch die Substitution entsteht dv aus

mv ta dv dt

va

dv dt = dt

8

vb

mv dv. va

dt quasi durch K¨ urzen“. ”

14.4.3 Integration gebrochen-rationaler Funktionen n m Seien pn (x) = k=0 ak xk , qm (x) := k=0 bk xk mit ak , bk ∈ R und n, m ∈ N das Z¨ahler- und Nennerpolynom einer gebrochen rationalen Funktion. Zu 9 das n (x) berechnen ist qpm (x) dx. Im Gegensatz zur Anwendung der Substitutionsregel gibt es hier einen klar vorgegebenen Weg, wie diese Stammfunktion bestimmt werden kann. Zun¨achst muss man mittels Polynomdivision daf¨ ur sorgen, dass der Grad des Z¨ahlers kleiner als der Grad des Nenners ist, es sich also um eine echt gebrochen-rationale Funktion handelt (vgl. Seite 113). Dabei wird ein Polynom abgespalten, das leicht zu integrieren ist. Wir k¨ ummern uns jetzt um den Rest, bei dem der Grad des Z¨ahlerpolynoms p echt kleiner als der Grad m des Nennerpolynoms q ist. Diese Funktion kann man als Summe einfa” cherer“ gebrochen-rationaler Funktionen schreiben, als sogenannte Partialbruchzerlegung. Hierbei spielen die Nullstellen des Nennerpolynoms q eine entscheidende Rolle. Nach dem Fundamentalsatz der Algebra hat q(x) genau m komplexe Nullstellen unter Ber¨ ucksichtigung ihrer Vielfachheit. Da wir Polynome mit reellen Koeffizienten betrachten, treten echt komplexe Nullstellen immer auch konjugiert-komplex auf (siehe Lemma 5.4 auf Seite 170).

406

Kapitel 14. Integralrechnung

14.4.3.1 Einfache reelle Nullstellen des Nenners

Lemma 14.1 (Partialbruchzerlegung bei einfachen reellen Nullstellen) Sei m  (x − xk ) q(x) = k=1

mit m verschiedenen, einfachen, reellen Nullstellen x1 , x2 ,· · · , xm und p(x) ein Polynom kleineren Grades als q(x). Dann gibt es eine (eindeutige) Darstellung mit reellen Zahlen A1 , A2 , . . . , Am : A1 A2 Am p(x) = + + ··· + . q(x) x − x1 x − x2 x − xm

(14.16)

Beweis Multipliziert man beide Seiten mit q(x), so steht nach dem K¨ urzen sowohl links als auch rechts ein Polynom mit Grad kleiner m: p(x) = A1

q(x) q(x) q(x) + A2 + · · · + Am . x − x1 x − x2 x − xm

(14.17)

alt man Setzt man nun in beide Seiten eine Nullstelle xk ein, so erh¨ p(xk ) = Ak

m  i=1, i =k

p(xk ) . i=1, i =k (xk − xi )

(xk − xi ), also Ak = m

Die Konstanten Ak sind dadurch so festgelegt, dass beide Seiten von (14.17) f¨ ur die m Werte x1 , . . . , xm u ¨bereinstimmen. Da beide Seiten aber Polynome vom Grad kleiner m sind, sind sie nach Folgerung 5.1 auf Seite 169 gleich. Der Beweis liefert direkt das Verfahren, mit dem die Partialbruchzerlegung berechnet wird: Beide Seiten der Gleichung (14.16) werden mit q(x) multipliziert. Dann werden zur Berechnung der Konstanten die Nullstellen eingesetzt. Die Konstanten k¨onnen so direkt abgelesen werden. Alternativ kann man die Zahlen A1 , . . . , Am auch u ¨ber einen Koeffizientenvergleich bestimmen. Die beiden Seiten von (14.17) stimmen genau dann u alt so ¨berein, wenn die Koeffizienten der beiden Seiten gleich sind. Man erh¨ ein Gleichungssystem, das eine eindeutige L¨osung f¨ ur A1 , . . . , Am liefert. Beispiel 14.16 Wir betrachten die gebrochen-rationale Funktion 6x2 − x + 2 p(x) = . q(x) x3 − x

14.4. Rechenregeln zur Integration

407

Um eine Partialbruchzerlegung durchzuf¨ uhren, ben¨ otigen wir die Linearfakussen wir toren des Nenners x3 − x = x(x2 − 1) = x(x − 1)(x + 1). Damit m¨ die Konstanten A, B und C bestimmen in A B C 6x2 − x + 2 = + + . x3 − x x x−1 x+1 Multiplikation mit dem Hauptnenner ergibt: 6x2 − x + 2 = A(x − 1)(x + 1) + Bx(x + 1) + Cx(x − 1). Jetzt gibt es mehrere M¨oglichkeiten zur Bestimmung von A, B, C. Mittels Koeffizientenvergleich erh¨alt man z. B. ein Gleichungssystem. Eleganter ist hier das Einsetzen der Nullstellen, da dabei jeweils nur eine Konstante u ¨brig bleibt: • F¨ ur x = 0: 2 = −A, also A = −2. • F¨ ur x = 1: 7 = 2B, also B = 7/2. • F¨ ur x = −1: 9 = 2C, also C = 9/2.

7 9 2 6x2 − x + 2 2 2 = − + + . x3 − x x x−1 x+1 Wir integrieren nun diese Funktion: 8 3 8 3 7 9 2 p(x) dx = + dx − + x 2(x − 1) 2(x + 1) 2 q(x) 2  3 7 9 = −2 ln(|x|) + ln(|x − 1|) + ln(|x + 1|) . 2 2 2

Hat man nur einfache reelle Nullstellen des Nenners, so f¨ uhrt die Integration mittels Partialbruchzerlegung zu Integralen des Typs 8 1 dx = ln(|x − x0 |) + C. x − x0 Beispiel 14.17 8 3 8 3 2 2 4x 3 dx = + dx = 2 [ln(|x − 1|) + ln(|x + 1|)]2 2−1 x x − 1 x + 1 2 2

8 3 . = 2 [ln(|(x − 1)(x + 1)|)]2 = 2[ln(8) − ln(3)] = 2 ln 3 Dass der Ansatz nicht funktioniert, wenn der Grad des Z¨ ahlerpolynoms gr¨oßer oder gleich dem des Nennerpolynoms ist, sieht man an diesem Beispiel: x A ur keine Konstante A gelten, da nach Multiplikation mit x−1 = x−1 kann f¨ dem Nenner A = x gelten m¨ usste.

408

Kapitel 14. Integralrechnung

14.4.3.2 Mehrfache reelle Nullstellen des Nenners Wir erweitern Lemma 14.1: Lemma 14.2 (Partialbruchzerlegung bei mehrfachen reellen Nullr stellen) Sei q(x) = k=1 (x − xk )lk mit r ≤ m und reellen Nullstellen x1 der Vielfachheit l1 , x2 der Vielfachheit l2 usw. Insbesondere ist damit l1 + l2 + · · · + lr = m. Außerdem sei p(x) ein Polynom kleineren Grades als q(x). Dann gibt es eine (eindeutige) Darstellung l  r k Ak,i p(x)   = . q(x) (x − xk )i i=1 k=1

Bei einer lk -fachen Nullstelle xk wird also in der Partialbruchzerlegung statt Ak des Terms x−x die Summe k Ak,2 Ak,lk Ak,1 + + ··· + (x − xk ) (x − xk )2 (x − xk )lk verwendet. Die Konstanten Ak,i ∈ R kann man wieder mittels Koeffizientenvergleich eindeutig bestimmen. Alternativ dazu kann man auch m verschiedene Werte in die Gleichung einsetzen, um ein Gleichungssystem f¨ ur die Konstanten zu gewinnen. Im Gegensatz zu den einfachen Nullstellen kann man so aber nicht alle Konstanten direkt ablesen. Man muss etwas rechnen, um das Gleichungssystem zu l¨osen. Beispiel 14.18 x2 + 9x + 19 p(x) = . q(x) (x + 4)2 (x + 1) Nullstellen des Nenners sind −1 und −4 (doppelt), d. h., wir machen den Ansatz A B C x2 + 9x + 19 = + + 2 (x + 4) (x + 1) x + 1 x + 4 (x + 4)2 =⇒ x2 + 9x + 19 = A(x + 4)2 + B(x + 4)(x + 1) + C(x + 1). Setzt man nun die einfache Nullstelle −1 ein, erh¨ alt man 11 = 9A, A = 11 . Setzt man die doppelte Nullstelle −4 ein: −1 = −3C, C = 1/3. Leider 9 kann man den dritten Koeffizienten B nicht durch Einsetzen einer Nullstelle ablesen. Hier erhalten wir z. B. durch Zusammenfassen der Koeffizienten zu x2 + 9x + 19 = (A + B)x2 + (8A + 5B + C)x + (16A + 4B + C)

14.4. Rechenregeln zur Integration

409

und mit Koeffizientenvergleich f¨ ur x2 die Gleichung A + B = 1, also B = 11 2 1 − 9 = − 9 . Eine entsprechende Gleichung kann man auch ohne Ausmultiplikation mit dem Nenner durch Einsetzen eines weiteren Werts gewinnen, der keine Nullstelle ist. Ist z. B. 0 keine Nullstelle, so erh¨ alt man durch Einsetzen die Gleichung, die man anderenfalls bei einem Koeffizientenvergleich f¨ ur x0 ablesen kann, also hier 19 = 16A + 4B + C. Unter Verwendung der Konstanten haben wir also 11 1 − 92 x2 + 9x + 19 9 3 = + + . (x + 4)2 (x + 1) x + 1 x + 4 (x + 4)2

Wir h¨atten auch ohne Einsetzen von Nullstellen aus dem Koeffizientenvergleich ein komplettes Gleichungssystem gewinnen k¨ onnen: A +B =1 8A +5B +C = 9 16A +4B +C = 19. Im Beispiel haben wir gesehen, dass man nicht alle Koeffizienten durch Einsetzen der Nullstellen erh¨alt. Allerdings geht es mittels Ableiten. Sei dazu q(x) = q0 (x)(x − xk )lk . Wir multiplizieren Ak,1 Ak,2 p(x) Ak,lk = + + ··· + + r(x) q(x) (x − xk ) (x − xk )2 (x − xk )lk mit (x − xk )lk , leiten sukzessive ab und setzen xk ein: p(x) = Ak,lk + Ak,lk −1 (x − xk ) + · · · + Ak,1 (x − xk )lk −1 + r(x)(x − xk )lk q0 (x) p(xk ) = Ak,lk , =⇒ q0 (xk ) d p(x) = Ak,lk −1 + 2Ak,lk −2 (x − xk ) · · · + (lk − 1)Ak,1 (x − xk )lk −2 dx q0 (x) + r (x)(x − xk )lk + lk r(x)(x − xk )lk −1 1 d p 1 dn p · · =⇒ Ak,lk −1 = (xk ), . . . , Ak,lk −n = (xk ). 1! dx q0 n! dxn q0 Damit sind auch bei mehrfachen Nullstellen alle Koeffizienten eindeutig bestimmt, und man kann direkt die Partialbruchzerlegung ohne L¨ osung eines Gleichungssystems berechnen. Wir wenden dies f¨ ur das vorangehende Beispiel an und erhalten f¨ ur x0 = −4: A x2 + 9x + 19 = C + B(x + 4) + (x + 4)2 x+1 x+1

410

Kapitel 14. Integralrechnung

und 1 x20 + 9x0 + 19 = , x0 + 1 3 (2x0 + 9)(x0 + 1) − (x20 + 9x0 + 19) 2 B= =− . 2 (x0 + 1) 9 C=

Den Wert f¨ ur A erh¨alt man direkt durch Einsetzen der einfachen Nullstelle −1.

Beispiel 14.19 Wir nutzen nun die gewonnene Partialbruchzerlegung zur Integration 8 1 2 x + 9x + 19 dx (x + 4)2 (x + 1) 0 8 8 8 2 1 1 1 1 11 1 1 1 dx − dx + = dx 9 0 x+1 9 0 x+4 3 0 (x + 4)2  1 1 11 2 1 1 1 [ln(|x + 1|)]0 − [ln(|x + 4|)]0 − = 9 9 3 x+4 0

  2 5 1 1 1 11 ln(2) − ln − − . = 9 9 4 3 5 4 Hat man mehrfache reelle Nullstellen des Nenners, so f¨ uhrt die Integration mittels Partialbruchzerlegung zu Integralen des Typs (n > 1) 8 −1 1 dx = + c, n ≥ 2. n (x − x0 ) (n − 1)(x − x0 )n−1 14.4.3.3 Echt komplexe Nullstellen des Nenners Man kann mit komplexen Nullstellen (und auch mit komplexen Koeffizienten) genauso rechnen, wie zuvor f¨ ur reelle Nullstellen dargestellt. Allerdings kann man diese komplexe Partialbruchzerlegung nicht unmittelbar integrieren. Vor der Integration muss man daher durch konjugiert-komplexe Erweiterung wieder f¨ ur eine reelle Darstellung sorgen. Wer den Umgang mit komplexen Zahlen scheut, kann aber auch von Anfang an mit echt komplexen Nullstellen rein reell rechnen. Denn f¨ ur Polynome mit reellen Koeffizienten sind ihre komplexen Nullstellen immer konjugiert-komplexe Zahlenpaare, siehe Lemma 5.4 auf Seite 170. Die zugeh¨origen Partialbruchsummanden k¨ onnen damit paarweise reell zusammengefasst werden. Lemma 14.3 (Partialbruchzerlegung bei komplexen Nullstellen) Hat q(x) unter den sonstigen Voraussetzungen von Lemma 14.2 ein Paar einfacher konjugiert-komplexer Nullstellen xk ±jyk , d. h., q(x) ist teilbar durch

411

14.4. Rechenregeln zur Integration

(x − xk − jyk )(x − xk + jyk ) = (x − xk )2 + yk2 , so kann daf¨ ur in der Partialk k + x−(xDk +jy bruchzerlegung statt der komplexen Summanden x−(xCk −jy k) k) der aus der Summe entstehende reelle Summand (Ak , Bk ∈ R) Ak x + Bk (x − xk )2 + yk2 verwendet werden. ur in der PartialbruchSind xk ± jyk lk -fache Nullstellen, so k¨onnen daf¨ zerlegung statt der (dann komplexen) Terme aus Lemma 14.2 die reellen Summanden (Ak,lk , Bk,lk , . . . , Ak,1 , Bk,1 ∈ R) Ak,lk −1 x + Bk,lk −1 Ak,1 x + Bk,1 Ak,lk x + Bk,lk + + ··· + ((x − xk )2 + yk2 )lk ((x − xk )2 + yk2 )lk −1 (x − xk )2 + yk2 verwendet werden. 3

Beispiel 14.20 Wir ermitteln die Partialbruchzerlegung von (x2x+1)2 einmal mit einer rein reellen Rechnung und einmal unter Verwendung komplexer Koeffizienten. Der Nenner hat die doppelten Nullstellen j und −j: • Reelle Rechnung: Ax + B Cx + D x3 = 2 + 2 (x2 + 1)2 (x + 1)2 x +1 =⇒ x3 = (A + C)x + Dx2 + Cx3 + B + D, so dass D = 0, B = 0, C = 1 und A = −1, also (x2

−x x x3 . = 2 + 2 + 1)2 (x + 1)2 x +1

• Verwendung komplexer Koeffizienten: (x2

x3 B D x3 A C + + = = + , 2 + 1) (x − j)2 (x + j)2 x−j (x − j)2 x+j (x + j)2

so dass x3 = A(x − j)(x + j)2 + B(x + j)2 + C(x − j)2 (x + j) + D(x − j)2 = (A + C)x3 + (jA + B − jC + D)x2 + (A + 2jB + C − 2jD)x + jA − B − jC − D

Wir erhalten durch Koeffizientenvergleich das folgende komplexe, lineare Gleichungssystem:

412

Kapitel 14. Integralrechnung

A +C =1 jA +B −jC +D = 0 A +2jB +C −2jD = 0 jA −B −jC −D = 0. Dieses System hat die eindeutige L¨osung A = C = 12 , B = 4j , D = − 4j : j

j

1 1 x3 x3 2 4 2 4 + − = = + (x2 + 1)2 (x − j)2 (x + j)2 x−j (x − j)2 x+j (x + j)2 j + j) + 12 (x − j) (x + j)2 − 4j (x − j)2 + 4 (x − j)(x + j) (x − j)2 (x + j)2 −x x + = 2 . x + 1 (x2 + 1)2

=

1 2 (x

Mit dieser Partialbruchzerlegung erhalten wir die Stammfunktion 8 8 8 −x x3 x dx + dx = dx. (x2 + 1)2 x2 + 1 (x2 + 1)2 Substitution t = x2 , dt = 2x dx liefert weiter 8 8 8 1 1 1 1 x3 dt − dx = dt (x2 + 1)2 2 t+1 2 (t + 1)2 1 1 1 1 1 1 + C = ln(x2 + 1) + + C, = ln(|t + 1|) + 2 2t+1 2 2 x2 + 1 wobei wir im letzten Schritt die Substitution r¨ uckg¨ angig gemacht haben (was n¨otig ist, da wir ohne Grenzen gearbeitet haben). Bei komplexen Nullstellen ben¨otigt man zus¨ atzlich die Umkehrfunktionen der trigonometrischen Funktionen als Stammfunktionen (siehe Tabelle 14.1 auf Seite 394).



! Achtung

Stammfunktionen sollten erst berechnet werden, wenn die Partialbruchdarstellung reell ist. Beispielsweise haben wir ln(x − j) nicht definiert. x − j ist eine komplexe Zahl, aber den Logarithmus haben wir nur f¨ ur positive reelle Zahlen erkl¨art. Andererseits ist aber ln(|x − j|) f¨ ur die reelle Zahl |x − j| erkl¨art, jedoch ist  d 1 2x x d √ ln(|x − j|) = ln( x2 + 1) = √ = 2 2 2 dx dx x +1 x +12 x +1 1 x . = = |x − j|2 |x − j|

413

14.5. Numerische Integration

14.5 Numerische Integration 2

Viele einfach aussehende Funktionen wie beispielsweise f (x) = e−(x ) oder f (x) = sin(x) = sinc(x) lassen sich nicht elementar integrieren, d. h., man x findet keine elementare Stammfunktion. Außerdem liegen h¨ aufig nur Funktionswerte als Mess- oder Abtastwerte an bestimmten Stellen vor. In diesen F¨ allen ist man auf numerische Methoden angewiesen, bei denen der Wert des Integrals nur n¨aherungsweise berechnet wird. Daf¨ ur sind diese Verfahren leicht als Computeralgorithmen zu implementieren.

Abb. 14.3 Quadraturformeln

Wir approximieren das exakte Integral einer stetigen Funktion f auf dem Intervall [a, b] durch eine N¨aherung Q. Ein Algorithmus zur Berechnung der Zahl Q heißt eine Quadraturformel. Dabei tritt ein Fehler 8

b

E := a

f (x) dx − Q

auf, dessen Betrag m¨oglichst klein sein soll. Eine interpolatorische Quadraturformel erh¨ alt man, indem man das Intervall [a, b] in n ¨aquidistante Teilintervalle der L¨ ange h = b−a n mit den St¨ utzstellen xk = a + k · h, k = 0, 1, . . . , n, zerlegt. Dabei stimmen die Randpunkte mit den Intervallgrenzen a = x0 und b = xn u utzstellen nennen wir ¨berein. Die Funktionswerte zu den St¨ fk := f (xk ), k = 0, 1, . . . , n. Zu einer Quadraturformel gelangen wir nun, indem wir f in jedem einzelnen Teilintervall [xk , xk+1 ] durch ein Interpolationspolynom niedrigen Grades m ersetzen (siehe Seite 105). Das Interpoahelationspolynom 9 xwird auf [xk , xk+1 ] exakt integriert, so dass wir einen N¨ aherungswerts rungswert f¨ ur xkk+1 f (x) dx bekommen. Die Abweichung des N¨ vom exakten Wert l¨asst sich dann pro Teilintervall z. B. mit Satz 13.6 auf Seite 368 grob absch¨atzen. Die einfachste Quadraturformel entsteht, wenn man die Funktion f (x) in jedem Intervall [xk , xk+1 ] durch ein Interpolationspolynom vom Grad null, also durch eine konstante Funktion, z. B. fk = f (xk ), k = 0, 1, . . . , n − 1,

414

Kapitel 14. Integralrechnung

oder durch f (xk + h2 ), wie in Abbildung 14.3 links angedeutet, ersetzt. Durch Summation der Integrale u alt man die summierte ¨ber alle Teilintervalle erh¨ Rechteckregel QR (h) :=

n−1  8 xk+1 k=0

xk

fk dx = h ·

n−1 

fk

k=0

oder die summierte Mittelpunktsregel QM (h) :=

n−1  8 xk+1 k=0

xk



n−1 

h h dx = h · . f xk + f xk + 2 2 k=0

Die Werte beider Regeln konvergieren f¨ ur n → ∞ (also h → 0) gegen das gesuchte Integral, da es sich um Riemann-Zwischensummen handelt (siehe Satz 14.1 auf Seite 382). Eine im Allgemeinen genauere Integrationsregel erh¨ alt man, indem man die Funktion f im k-ten Teilintervall [xk , xk+1 ] linear (also mit einem Polynom vom Grad eins) interpoliert, d. h. die Funktion f durch die Gerade durch die Punkte (xk , fk ) und (xk+1 , fk+1 ) ersetzt: g(x) = fk +

fk+1 − fk · (x − xk ). h

Diese Gerade wird dann u ¨ber [xk , xk+1 ] exakt integriert: 8 xk+1 xk+1 − xk h · (fk + fk+1 ) = · (fk + fk+1 ). g(x) dx = 2 2 xk Summation u ¨ber alle Teilintervalle ergibt jetzt die summierte Trapezregel QT (h) :=

h · (f0 + 2 f1 + 2 f2 + . . . 2 fn−1 + fn ), 2

vgl. Abbildung 14.3 rechts. Da f stetig ist, werden aufgrund des Zwischenwertsatzes (siehe Satz 11.6 auf Seite 320) auf jedem Teilintervall alle Werte zwischen fk und fk+1 angenommen. Insbesondere gibt es also eine Stelle ξk in diesem Intervall, an der der Funktionswert genau das arithmetische Mittel 12 · (fk + fk+1 ) ist. Damit kann auch QT als Riemann-Zwischensumme aufgefasst werden, und wir haben Konvergenz gegen das Integral. 9π Beispiel 14.21 Wir berechnen das Integral 0 sin(x) dx = 2 mit der summierten Trapezregel und der Schrittweite h = 0,2 · π: 1 · 0,2 · π (0 + 2 · 0,5878 + 2 · 0,9510 + 2 · 0,9510 + 2 · 0,5879 + 0) 2 ≈ 1,9338.

QT (0,2) ≈

415

14.5. Numerische Integration

Mit der Schrittweite h = 0,1 · π bekommt man das genauere Ergebnis 1,9835.

Ist die Funktion f zweimal differenzierbar auf [a, b], so kann man den Fehler 9b atzen gegen C · h2 , wobei die ET (h) := | a f (t) dt − QT (h)| nach oben absch¨ Konstante C von der Funktion f und dem Intervall [a, b] abh¨ angt, aber nicht von der Schrittweite h. Denn nach Satz 13.6 k¨onnen wir den Abstand zwischen Interpolationspolynom vom Grad 1 und Funktion f auf jedem Teilintervall oßenordnung nach der L¨ange h gegen C · h2 absch¨atzen, so dass diese Gr¨ Integration u ¨ber [a, b] erhalten bleibt. Das geht besser: Bei der summierten Simpson-Regel setzen wir voraus, dass die Anzahl n der Teilintervalle eine gerade Zahl ist. Dann k¨ onnen wir Zerlegungsintervalle paarweise zusammenfassen: [xk , xk+1 ] ∪ [xk+1 , xk+2 ]. Auf jedem so zusammengefassten Intervall interpolieren wir f durch ein Polynom zweiten Grades durch die drei Punkte (xk , fk ), (xk+1 , fk+1 ) und (xk+2 , fk+2 ): p(x) = fk +

fk+1 − fk fk+2 − 2fk+1 + fk · (x − xk ) + · (x − xk ) · (x − xk+1 ). h 2h2

Das Integral u ¨ber das N¨aherungspolynom p(x) im zusammengefassten Intervall [xk , xk+2 ] l¨asst sich ohne Tricks aber mit etwas Schreibarbeit ausrechnen zur Simpson-Regel 8 xk+2 1 p(x) dx = h · (fk + 4fk+1 + fk+2 ). 3 xk Summation u ¨ber alle zusammengefassten Intervalle ergibt die summierte Simpson-Regel QS (h) :=

4 2 1 h · (f1 + f3 + · · · + fn−1 )+ h · (f2 + f4 + · · · + fn−2 )+ h · (f0 + fn ). 3 3 3

Ist die Funktion f viermal differenzierbar auf [a, b], so kann der Fehler 9b ES (h) := | a f (t) dt − QS (h)| der summierten Simpson-Regel sogar gegen C · h4 abgesch¨atzt werden. Mit Satz 13.6 erh¨ alt man direkt allerdings nur atzlicher C · h3 . Zum Beweis der besseren Absch¨atzung gegen h4 muss ein zus¨ Ausl¨oschungseffekt ber¨ ucksichtigt werden, hier verweisen wir auf NumerikLehrb¨ ucher. Quadraturformeln, die u ¨ber die exakte Integration von Lagrange-Interpolationspolynomen wie die Trapezregel (Grad 1) und Simpson-Regel (Grad 2) definiert sind, werden in der Literatur als Newton-Cotes-Formeln bezeichnet. 93 Beispiel 14.22 Wir berechnen das Integral 1 x1 dx = ln(3) ≈ 1,09861 mit n = 2, d. h. Schrittweite h = 1 und Funktionswerte f0 = 1, f1 = 12 , f2 = 13 : • Summierte Trapezregel: QT (1) =

1 2

1+2·

1 1 + 2 3

=

7 = 1,16. 6

416

Kapitel 14. Integralrechnung

• Summierte Simpson-Regel (mit nur einem zusammengefassten Intervall):   1 2 4 10 4 1 1 1+ = + = = 1,1. QS (1) = · + 3 2 3 3 3 9 9

14.6 Uneigentliche Integrale Das Riemann-Integral ist nur f¨ ur beschr¨ankte Funktionen f auf beschr¨ ankten Intervallen [a, b] erkl¨art, da man nur unter diesen Voraussetzungen Ober- und Untersummen hinschreiben kann. H¨aufig (z. B. bei der Fourier- und LaplaceTransformation oder bei Dichten in der Wahrscheinlichkeitsrechnung) sieht 9b 9∞ 9∞ man aber Ausdr¨ ucke der Form a f (x) dx, −∞ f (x) dx und −∞ f (x) dx 9b ur eine auf [a, b] unbeschr¨ankte Funktion f . Diese Zahlen bzw. a f (x) dx f¨ sind u ¨ber Grenzwerte definiert. Man spricht von uneigentlichen Integralen. Definition 14.7 (Uneigentliches Integral) • Es sei f (x) eine Funktion mit einem uneigentlichen Grenzwert bei b, d. h. limx→b− f (x) = ±∞. Weiter sei f auf jedem Intervall [a, t] ⊂ [a, b[ inte9t grierbar. Existiert der einseitige Grenzwert limt→b− a f (x) dx als reelle Zahl, so nennt man f bez¨ uglich [a, b] uneigentlich integrierbar, und 8

8

b

t

f (x) dx := lim

f (x) dx

t→b−

a

a

heißt uneigentliches Integral. Falls der Grenzwert nicht existiert, spricht man von einem divergenten uneigentlichen Integral. Entsprechend verwendet man einen rechtsseitigen Grenzwert, wenn f an der Stelle a einen uneigentlichen Grenzwert limx→a+ f (x) = ±∞ hat und auf jedem Intervall [t, b] ⊂]a, b] integrierbar ist. Sind Grenzwerte im Inneren des Intervalls gleich +∞ oder −∞, dann ist das Integral so in eine Summe einzelner Integrale aufzutrennen, dass stets nur ein uneigentlicher einseitiger Grenzwert an den R¨ andern vorliegt. • Sei der Integrationsbereich [a, ∞[ oder ] − ∞, b] und die Funktion f auf jedem beschr¨ankten Teilintervall [c, d] integrierbar. Falls die Grenzwerte 8

8



b

f (x) dx := lim

a

b→∞

f (x) dx bzw. a

8

8

b

b

f (x) dx := lim −∞

a→−∞

f (x) dx a

existieren, so spricht man ebenfalls von einem uneigentlichen Integral und sagt, dass f uneigentlich integrierbar ist. Falls der Grenzwert

14.6. Uneigentliche Integrale

417

nicht existiert, so verwendet man wieder den Begriff divergentes uneigentliches Integral. Ein Integral von −∞ bis ∞ ist an einer beliebigen Stelle in zwei uneigentliche Integrale und damit in die Summe zweier Grenzwerte aufzutrennen.



! Achtung

Wie wir in den beiden folgenden Abschnitten sehen werden, gibt es Fl¨ achen, die sich ins Unendliche erstrecken, aber dennoch einen endlichen Fl¨ acheninhalt besitzen, siehe auch Abbildung 14.4.

Die Begriffe uneigentliches Integral“ und unbestimmtes Integral“ klin” ” gen sehr ¨ahnlich, sind aber verschieden. Ein unbestimmtes Integral ist eine Stammfunktion. Es ist unbestimmt, da es keine festen Integrationsgrenzen hat. Bei einem uneigentlichen Integral sind die Voraussetzungen der Definition des Integrals nicht erf¨ ullt, und man muss sich mit einem zus¨ atzlichen Grenzwert behelfen.

Abb. 14.4 F¨ ur x → ∞ unendlich lange Fl¨ ache mit endlichem Inhalt: konvergentes uneigentliches Integral

14.6.1 Unbeschr¨ankter Integrand Wir betrachten zun¨achst den Fall, dass der Integrand f an einem Rand des Integrationsintervalls einen uneigentlichen Grenzwert besitzt. 91 1 dx ist uneigentlich bez¨ uglich der Beispiel 14.23 a) Das Integral 0 √1−x 2 1 = ∞. Wegen oberen Grenze 1: limx→1− √1−x 2 8

t 0

1 √ dx = [arcsin(x)]t0 = arcsin(t) 1 − x2

erhalten wir 8

t

lim

t→1−

0



π 1 dx = lim arcsin(t) = arcsin(1) = . 2 t→1− 2 1−x

418

Kapitel 14. Integralrechnung

91 b) Das Integral 0 x1 dx ist uneigentlich bez¨ uglich der unteren Grenze 0, da limx→0+ x1 = ∞. Zwar existiert 8

1 t

1 dx = [ln(x)]1t = − ln(t), x

jedoch ist lim − ln(t) = ∞,

t→0+

und das uneigentliche Integral ist divergent. Anschaulich bedeutet dies, dass der Inhalt der Fl¨ache unter dem Funktionsgraphen unendlich groß ist.

14.6.2 Unbeschr¨ankter Integrationsbereich Beispiel 14.24 a) Die Fl¨ache zwischen dem Graphen von e−x und der positiven x-Achse ist: 8 t 8 ∞ t exp(−x) dx = lim exp(−x) dx = lim [− exp(−x)]0 0

t→∞

0

t→∞

= lim [− exp(−t) + 1] = 1. t→∞

b) Zu jedem n ∈ N zeigen wir mittels Vollst¨andiger Induktion, dass 8 ∞ Γ (n) := xn−1 e−x dx = (n − 1)! 0

9∞

gilt. F¨ ur n = 1 ist Γ (1) = 0 e−x dx = 1 = 0!, wie wir unter a) gezeigt haben. Unter der Annahme, dass Γ (n) = (n − 1)! ist, m¨ ussen wir nun nur noch zeigen, dass Γ (n + 1) = n! ist. Das gelingt mittels partieller Integration: 8 t 8 ∞ xn e−x dx = lim xn e−x dx Γ (n + 1) = t→∞ 0 0 8 t  t nxn−1 e−x dx = lim −xn e−x 0 + lim t→∞ t→∞ 0 8 ∞ = 0−0+n xn−1 e−x dx = n · Γ (n) = n · (n − 1)! = n!. 0

Das Integral existiert nicht nur f¨ ur nat¨ urliche Zahlen n, sondern auch, ¨ wenn man f¨ ur n positive reelle Zahlen einsetzt. Uber das Integral ist die Gammafunktion definiert. Sie erkl¨art die Fakult¨ at u ¨ber N hinaus.

419

14.6. Uneigentliche Integrale

9∞ Etwas schwieriger ist die Definition des Integrals −∞ f (x) dx. Laut Definition 14.7 sollen wir hier das Integral an einer beliebigen Stelle x0 ∈ R auftrennen: 8 x0 8 ∞ 8 ∞ f (x) dx := f (x) dx + f (x) dx. −∞

−∞

x0

Dabei m¨ ussen beide Einzelintegrale existieren, wobei auch Werte +∞ und −∞ zul¨assig sind. Jedoch d¨ urfen nicht +∞ und −∞ gemeinsam auftreten. Aufgrund der Additivit¨at (14.7), siehe Seite 386, zeigt man, dass diese Definition unabh¨angig vom konkreten Punkt x0 ist: Ist z. B. x1 > x0 , so erhalten ur die Grenze x1 wir (falls die Integrale f¨ ur die Grenze x0 oder alternativ f¨ konvergieren): 8

8

x0

lim

t→∞

t

f (x) dx + lim −t

8

t→∞

x0 −t

8

8

x0

x1

f (x) dx + 8

−t x1

8 f (x) dx −

x0

= lim

t→∞

x0 x1

f (x) dx +

= lim

t→∞

f (x) dx

8

x0

8

t→∞

−t

t→∞

t

f (x) dx + lim

t→∞

x0

8  f (x) dx + lim t→∞

f (x) dx x0

x0

8

x1



t

f (x) dx +

f (x) dx x0

t

f (x) dx + lim

= lim

8

x1

f (x) dx. x1

Beispiel 14.25 Wir berechnen die rechts und links unbeschr¨ ankte Fl¨ ache 1 unter dem Funktionsgraphen von f (x) = 1+x 2: 8

∞ −∞

1 dx = 2 lim b→∞ 1 + x2

8

b

1 dx = 2 lim [arctan(x)]b0 b→∞ 1 + x2 0 π = 2 lim arctan(b) = 2 · = π. b→∞ 2



! Achtung

9∞ Ein v¨ollig anderes Ergebnis als −∞ f (x) dx kann der symmetrischer Grenz9t wert limt→∞ −t f (x) dx liefern, wie das folgende Beispiel zeigt. 9∞ 9t Beispiel 14.26 −∞ sin(x) dx existiert nicht, aber −t sin(x) dx = 0 und da9t mit limt→∞ −t sin(x) dx = 0. Integrale u sind eng verwandt ¨ber einen unbegrenzten Integrationsbereich 9∞ mit Zahlenreihen. Wir k¨onnen das Integral 0 exp(−x) dx z. B. u ¨ber die unendliche Obersumme

420

Kapitel 14. Integralrechnung

∞ ∞  k 1   − 1 k 1 1 1 exp − = e n = n n n n 1 − e− n1

k=0

k=0

ann¨ahern, die eine geometrische Reihe ist (siehe (10.1) auf Seite 275). Dabei haben alle Zerlegungsintervalle von [0, ∞[ die L¨ ange n1 , und wir verwenden jeweils den gr¨oßten Funktionswert, der am linken Intervallrand liegt. Nun ist unter Verwendung des Satzes von L’Hospital (Satz 13.7 auf Seite 370 f¨ ur den  Typ 00 ):

∞ 1  − n12 k 1 n lim exp − = lim 1 = lim 1 n→∞ n→∞ 1 − e− n n→∞ − 1 e− n n n n2 k=0

8 ∞ 1 =1= exp(−x) dx. = lim exp n→∞ n 0 Es ist also nicht verwunderlich, dass sich die Konvergenzkriterien f¨ ur Reihen auf Integrale mit unbeschr¨anktem Integrationsbereich u bertragen lassen. ¨ Besondere Bedeutung hat dabei das Majoranten-Kriterium: Satz 14.10 (Vergleichs- oder Majoranten-Kriterium f¨ ur Integrale) Sei f : [a, ∞[→ R, wobei f auf jedem Intervall [a, b] ⊂ [a, ∞[ integrierbar 9∞ sei. Ist g : [a, ∞[→ R, so dass das Integral a g(x) dx existiert, und ist 9∞ |f (x)| ≤ g(x), dann existiert auch a f (x) dx, und es ist 8 ∞  8 ∞ 8 ∞    ≤ f (x) dx |f (x)| dx ≤ g(x) dx. (14.18)   a

a

a

Dieses Kriterium wird noch wichtig werden, wenn wir (z. B. f¨ ur die Regelungstechnik) die Laplace-Transformation in Band 2, Kapitel 13, kennenlernen. Diese Transformation basiert auf dem Ausrechnen eines Integrals u ¨ber [0, ∞[, und man muss sicherstellen, dass dieses Integral existiert. Das macht man mit einer Wachstumsbedingung unter Anwendung des Satzes. Der Satz entspricht genau der Aussage f¨ ur unendliche Summen in Satz 10.7 auf Seite 284 und wird auch entsprechend u ¨ber das Cauchy-Kriterium bewiesen: Beweis Die Majorantenbedingung sorgt daf¨ ur, dass eine Cauchy-Bedingung erf¨ ullt ist. Diese haben wir nur f¨ ur Folgen definiert, so dass wir die Existenz ¨ des Grenzwerts u m¨ ussen. ¨ber das Ubertragungsprinzip 9nachrechnen t Sei ε > 0. Da nach Voraussetzung limt→∞ a g(x) dx existiert, gibt es zu ur alle u ≥ t > T0 gilt: ε eine Stelle T0 , so dass f¨

421

14.6. Uneigentliche Integrale

8   

u t

 8  f (x) dx ≤

8

u t

|f (x)| dx ≤

8

u t

g(x) dx ≤

∞ a

8 g(x) dx −

t

g(x) dx < ε. a

(14.19) Sei (tn )∞ n=1 mit tn > a eine Folge mit limn→∞ tn = ∞. Dann ist

8

tn

f (x) dx a



n=1

eine Cauchy-Folge (siehe Definition 9.8 auf Seite 269): Wegen limn→∞ tn = ∞ ur n, m > n0 : tn , tm > T0 und (tn < tm ): gibt es ein n0 ∈ N, so dass f¨ 8 tm   8 tm 8 tn   (14.19)      f (x) dx < ε. f (x) dx − f (x) dx =   a

tn

a

Als Cauchy-Folge ist sie konvergent (siehe Satz 9.8) gegen einen Grenzwert G, der jetzt aber noch von der konkreten Wahl der Folge abh¨ angen k¨ onnte. ∞ ) eine weitere Folge mit x > a und lim x = ∞, so dass Sei (x n n→∞ n 9 xn n n=1 ∞ f (x) dx (als Cauchy-Folge) gegen einen Grenzwert H strebt. a n=1 ur Zum vorgegebenen ε > 0 gibt es ein (gemeinsames) n0 ∈ R, so dass f¨ n > n0 : 8 tn  8 xn        < ε,   < ε, tn , xn > T0 . (14.20) f (x) dx − G f (x) dx − H     a

a

Damit ist   f (x) dx − H + f (x) dx − f (x) dx a a t  8 x n n     8 tn 8 xn    (14.19),(14.20)         < 3ε. f (x) dx +  f (x) dx f (x) dx + H − ≤ G −

 8   |G − H| = G − a

8

tn

a

8

xn

xn

tn

Da ε beliebig klein gew¨ahlt werden kann, ist der Grenzwert f¨ ur jede Folge ¨ gleich, und schließlich gilt mit dem Ubertragungsprinzip (Satz 11.3, Seite 9t 307) limt→∞ a f (x) dx = G. Die Absch¨atzung (14.18) der Grenzwerte folgt aus (14.4) und Folgerung 11.2 von Seite 310.  Beispiel 9 ∞ 14.27 Wegen der Absch¨atzung | sin(x) exp(−x)| ≤ exp(−x) existiert 0 sin(x) exp(−x) dx. Das Majoranten-Kriterium funktioniert auch in entsprechend modifizierter Form f¨ ur uneigentliche Integrale von unbeschr¨ ankten Funktionen auf beschr¨ankten Intervallen. Beispiel 914.28 Wir zeigen, dass das aus Beispiel 14.24 bekannte Integral ∞ ur jeden festen Parameterwert x ∈]0, ∞[ existiert. Γ (x) := 0 tx−1 e−t dt f¨ Das Integral liefert den Wert der Gammafunktion an der Stelle x. Die Gammafunktion ist auch f¨ ur negative, nicht-ganzzahlige reelle Zahlen erkl¨ art – allerdings nicht u ber die hier eingesetzte Integraldarstellung. ¨

422

Kapitel 14. Integralrechnung

• F¨ ur x = 1 haben wir den Wert bereits zu 0! = 1 berechnet. • F¨ ur x ∈]0, 1[ liegt sowohl ein unbeschr¨ankter Integrationsbereich als auch ein unbeschr¨ankter Integrand vor: Die Funktion tx−1 e−t ist wegen x − 1 < 0 f¨ ur t → 0+ bestimmt divergent, und damit ist der Integrand nicht beschr¨ankt. Wir behandeln beide Probleme separat, indem wir das Integral aufteilen: 8 1 8 ∞ 8 ∞ x−1 −t x−1 −t t e dt = t e dt + tx−1 e−t dt. 0

1

0

Wegen |tx−1 e−t | ≤ tx−1 e0 = tx−1 und 8

1

tx−1 dt =

lim

u→0+

u

1 1 lim [tx ]t=1 t=u = x u→0+ x

91 gibt es eine integrierbare Majorante, und das erste Integral 0 tx−1 e−t dt existiert. Auf dem unbeschr¨ankten Integrationsbereich [1, ∞[ ist |tx−1 e−t | ≤ 1x−1 e−t = e−t , wobei damit auch hier eine integrierbare Majorante gefunden ist. • F¨ ur x > 1 m¨ ussen wir uns wegen limt→∞ tx−1 = ∞ etwas anstrengen, um eine integrierbare Majorante zu finden:



t tx−1 t  t  exp − ≤ C exp − . |tx−1 e−t | = 2 2 exp 2   =:g(t)

Dazu m¨ ussen wir noch zeigen, dass der Faktor g(t) mit einer Konstante C beschr¨ankt ist. Zun¨achst gibt es zu x ∈]1, ∞[ eine Zahl n ∈ N mit n ≤ x < n + 1. Mittels n-maliger Anwendung des Satzes von L’Hospital ∞ erhalten wir f¨ ur den Fall ∞ tx−1   t→∞ exp t 2

lim g(t) = lim

t→∞

(x − 1)(x − 2)(x − 3) · · · (x − n)tx−1−n t = 0. 1 t→∞ 2n exp 2

= lim

Der Grenzwert ist null, da f¨ ur x = n bereits der Z¨ ahler null ist. Anderenfalls f¨ uhrt der Exponent x − 1 − n < 0 zum Grenzwert. Aufgrund des ur t > t0 gilt: 0 ≤ g(t) ≤ 1. Da Grenzwerts gibt es eine Stelle t0 , so dass f¨ die Funktion g stetig ist, nimmt sie auf [0, t0 ] ihr Maximum und Minimum an und ist insbesondere dort beschr¨ankt. Sie ist damit auf dem ganzen Intervall [0, ∞[ mit einer Konstante C beschr¨ ankt.

423

14.6. Uneigentliche Integrale

 t Damit ist in diesem Fall exp − 2 eine integrierbare Majorante, wobei   t 9∞ 1 √2 . dt = 2 exp − = exp − 2 2 1 e

Wir haben bereits Integrale u ¨ber unendliche Reihen berechnet. Umgekehrt kann man die Konvergenz unendlicher Reihen mit der Existenz von uneigentlichen Integralen zeigen, die eine Majorante der Reihe sind, z. B. f¨ ur α > 1 so (vgl. Beispiel 10.8 auf Seite 285): n  8 n n n 8 k   1 1 1 1 1−α x ≤ dx = dx = α α kα 1−α k−1 x 1 x 1

k=2

k=2

=

1 1 n1−α + . 1−α α−1

Die monoton wachsende Reihe ist daher beschr¨ ankt und somit konvergent mit 8 ∞ ∞  1 1 1 . (14.21) ≤ dx = α kα x α − 1 1 k=2

¨ Uber einen Vergleich mit Integralen l¨asst sich auch die Divergenz von Reihen nachweisen, z. B. ist die harmonische Reihe (Fall α = 1) nicht beschr¨ ankt wegen 8 n+1 n n 8  1  k+1 1 1 ≥ dx = dx = [ln(|x|)]n+1 = ln(n + 1). 1 k x x k 1

k=1

k=1

Die hier vorgenommene Absch¨atzungstechnik von Summen gegen Integrale eignet sich, um eine N¨aherungsformel f¨ ur die Fakult¨ at zu motivieren. Ist ein K¨ urzen von Fakult¨aten nicht m¨oglich, dann kann man nicht gut mit ihnen rechnen. W¨ unschenswert w¨are eine Darstellung u ¨ber Potenzen. Dies leistet n¨aherungsweise die Stirling’sche Formel n! ≈



2πn

 n n e

.

(14.22)

Je gr¨oßer n ist, umso genauer wird n! durch die rechte Seite berechnet. Pr¨aziser formuliert gibt es f¨ ur jedes n eine Zahl 0 ≤ ξn ≤ 1 mit

 n n √ ξn , exp n! = 2πn e 12n wobei der zus¨atzliche Korrekturfaktor f¨ ur n → ∞ gegen 1 strebt. Dass diese Formel in etwa stimmen kann, sieht man so: Zun¨ achst verwenden wir eine Rechenregel f¨ ur den Logarithmus: ln(n!) = ln(2 · 3 · · · n) = ln(2) + ln(3) + · · · + ln(n) =

n  k=2

ln(k).

424

Kapitel 14. Integralrechnung

Dann k¨onnen wir wie zuvor sowohl nach unten als auch nach oben gegen ein Integral absch¨atzen. Dabei nutzen wir aus, dass der Logarithmus (streng) monoton wachsend ist: 8 n n  ln(k) ≥ ln(x) dx = [x · ln(x) − x]n1 = n(ln(n) − 1) + 1, 1

k=2

n  k=2

8 ln(k) ≤

n+1 2

ln(x) dx = [x·ln(x)−x]n+1 = (n+1)(ln(n+1)−1)−2 ln(2)+2. 2

Ein Einsetzen in die Exponentialfunktion liefert n! = exp(ln(n!)) ≥ exp(n(ln(n) − 1) + 1) = e

 n n e n ln(n) =e n e e

und andererseits n! ≤ exp((n + 1)(ln(n + 1) − 1) − 2 ln(2) + 2) =

(n + 1)n+1 e2 , en+1 22

 n 2 also n! = n · (n − 1)! ≤ e4 n ne .  n Wir erkennen in beiden Absch¨atzungen die dominierende Gr¨ oße ne . √ 2 Eine Pr¨azisierung (beachte, dass f¨ ur n ≥ 2 gilt: e ≤ 2πn ≤ e4 n) f¨ uhrt zur Stirling’schen Formel.

14.7 Volumen und Fl¨achen 14.7.1 Fl¨achenberechnung in der Ebene Wir haben bereits bei der Einf¨ uhrung des Integrals gesehen, dass sich dessen Wert als Summe bzw. Differenz der Fl¨achen zwischen Funktionsgraph und xAchse ergibt. Dabei werden die Fl¨acheninhalte oberhalb der x-Achse addiert und die unterhalb der x-Achse subtrahiert (siehe Abbildung 14.2 auf Seite 380). Insbesondere gilt f¨ ur integrierbare ungerade Funktionen f , d. h., f (−x) = −f (x), siehe Definition 4.2 auf Seite 94, 8 a f (x) dx = 0 −a

und f¨ ur gerade Funktionen f (also f (x) = f (−x)) 8 a 8 a f (x) dt = 2 f (x) dx. −a

0

425

14.7. Volumen und Fl¨ achen

Bei einer ungeraden Funktion wie sin(x) heben sich die Fl¨ achen links und rechts vom Nullpunkt auf. F¨ ur eine gerade Funktion wie cos(x) sind die Fl¨achen rechts und links vom Nullpunkt gleich groß. Zur Bestimmung des Betrags der Gesamtfl¨ ache zwischen dem Funktionsgraphen von f (x) und der x-Achse ist das Integral an den Stellen von f (x) aufzuspalten, an denen das Vorzeichen wechselt. Bei stetigen Funktionen sind das die Nullstellen. Die Betr¨age der Teilintegrale sind zu addieren. Beispiel 14.29 a) Der Fl¨acheninhalt zwischen der Sinus-Kurve und der xAchse auf dem Intervall [0, 2π] ergibt sich aus den zwei Integralen I1 = 9 2π 9π sin(x) dx = 2 und I1 = π sin(x) dx = −2 zu |I1 | + |I2 | = 4. Man 0 9 2π beachte, dass dagegen 0 sin(x) dx = 0 ist. ur −1 ≤ x ≤ 1 ist b) Der Inhalt der Fl¨ache zwischen x5 und x-Achse f¨ 8

8

1

1

5

−1



1 x dx = 2 · x6 6

1

5

|x | dx = 2

0

= 0

1 2 = . 6 3

Dagegen ist das Integral der ungeraden Funktion 0. Ganz allgemein ist der Fl¨acheninhalt, den zwei Funktionsgraphen von integrierbaren Funktionen f und g auf einem Intervall [a, b] einschließen, die Zahl 8 b

|f (x) − g(x)| dx.

a

Da der Betrag u otigt man nun ¨ber eine Fallunterscheidung definiert ist, ben¨ die Stellen der Funktion f (x) − g(x), an denen das Vorzeichen wechselt, um den Betrag aufzul¨osen. Beispiel 14.30 a) Wir berechnen den Inhalt der Fl¨ ache zwischen den Graphen zu f (x) = x und g(x) = x2 zwischen den Schnittstellen 0 und 1: 8

8

1

1

2

0

|x − x | dx =



1 2 1 3 x − x x − x dx = 2 3

1

2

0

= 0

1 . 6

b) Die Graphen zu f (x) = sin(x) und g(x) = cos(x) schneiden sich im Intervall [0, 2π] bei x1 = π4 und x2 = 5π 4 , und der zwischen 0 und 2π eingeschlossene Fl¨acheninhalt ist 8 π/4 8 2π | sin(x) − cos(x)| dx = cos(x) − sin(x) dx 0

8

0

5π/4

+ π/4

sin(x) − cos(x) dx + π/4

8

2π 5π/4

cos(x) − sin(x) dx 5π/4



= [sin(x) + cos(x)]0 + [− cos(x) − sin(x)]π/4 + [sin(x) + cos(x)]5π/4 √ √ √ √ √ = 2 − 1 + 2 + 2 + 1 + 2 = 4 2.

426

Kapitel 14. Integralrechnung

14.7.2 Volumen eines Rotationsk¨orpers L¨ asst man einen Funktionsgraphen um die x-Achse rotieren, so entsteht ein dreidimensionales Objekt – ein Rotationsk¨orper (siehe Abbildung 14.5). Im Alltag kennen wir Rotationsk¨orper als T¨opferwaren oder als auf einer Drehbank gedrechselte Werkst¨ ucke.

Abb. 14.5 Rotationsk¨ orper

In diesem Abschnitt wollen wir das Volumen und im n¨ achsten den Oberfl¨ acheninhalt eines Rotationsk¨orpers mittels Integration bestimmen. Dies ist ¨ ein Spezialfall der in Band 2, Kapitel 3, beschriebenen Ubertragung der Integralrechnung auf Funktionen mit mehreren Variablen, mit der man auch das Volumen komplizierterer K¨orper berechnen kann. Wir leiten eine Formel her, mit der das Volumen V eines Rotationsk¨ orpers, der durch einen Funktionsgraph auf einem Intervall [a, b] entsteht, berechnet werden kann. Dazu zerlegen wir [a, b] in n Teilintervalle der Breite b−a n und n¨ ahern den Rotationsk¨orper auf jedem Teilintervall durch ein Zylinderst¨ uck und einem Radius an, der dem Funktionswert am linken Rand mit H¨ohe b−a n des Teilintervalls entspricht. Das Volumen des Zylinders f¨ ur das k-te Teilin  b−a 2 b−a · n . Damit erhalten wir das gesuchte Volumen tervall ist π · f a + k · n als Grenzwert 2

8 b n−1  b−a b−a =π f (x)2 dx, π·f a+k· · lim n→∞ n n a k=0

sofern die Funktion f 2 integrierbar ist. Denn dann wird der Grenzwert von Riemann-Zwischensummen zu immer feineren Zerlegungen berechnet – und der ist nach dem Riemann’schen Integrabilit¨atskriterium (siehe Seite 382) gleich dem angegebenen Integral. alt man bei Rotation des Existiert eine Umkehrfunktion f −1 von f , so erh¨ Graphen von f um die y-Achse bez¨ uglich des Intervalls [c, d] der y-Achse, das im Wertebereich von f liegt, das Volumen V des Rotationsk¨ orpers zu 8

d

f −1 (y)2 dy.

V =π c

427

14.7. Volumen und Fl¨ achen

Beispiel 14.31 a) Wir berechnen das Volumen von Rotationsk¨ orpern zur ur 0 ≤ x ≤ 1 (Rotation um x-Achse) bzw. Funktion f (x) = x2 + 3 f¨ 3 ≤ y ≤ 4 (Rotation um y-Achse). • Bei Drehung um die x-Achse erhalten wir das Volumen: 8

8

1

0



1

(x2 + 3)2 dx = π

V =π

x4 + 6x2 + 9 dx = π 0

1 5 x + 2x3 + 9x 5

1 0

56 π. = 5 • Drehung um die y-Achse mit x = f −1 (y) = 8

4

V =π



3

8

2

y−3

4

dy = π 3

√ y − 3: 

y2 − 3y y − 3 dy = π 2

b) √ Eine Kugel mit Radius r entsteht durch Rotation der r2 − x2 um die x-Achse auf dem Intervall [−r, r]: r  8 r 1 r2 − x2 dx = π r2 x − x3 = V =π 3 −r −r

4 = 3

π . 2 (14.23)

Funktion f (x) = 4 3 πr . 3

14.7.3 Oberfl¨acheninhalt eines Rotationsk¨orpers Auch der Fl¨acheninhalt der Oberfl¨ache eines Rotationsk¨ orpers l¨ asst sich u otigen keine Integration ¨ber ein normales“ Integral ausrechnen. Wir ben¨ ” f¨ ur Funktionen mit mehreren Variablen. Wir lassen wieder den Funktionsgraphen einer Funktion f (x) im Intervall [a, b] um die x-Achse rotieren und leiten eine Formel f¨ ur den Inhalt der entstehenden Oberfl¨ache her. Statt das Volumen von Zylinderst¨ ucken zu berechnen, verwenden wir nun auf einer Zerlegung des Intervalls [a, b] in n gleich große Teilintervalle Kegelst¨ aherte Mantel summieren deren angen¨ umpfe und des Stumpfs mal L¨ ange der Seite, die fl¨ achen (Stirnumfang 2πf a + k b−a n sich mittels des Satzes von Pythagoras ergibt): n−1 

2πf

a+k

k=0

&

·

b−a n

2

b−a n

·



2 

b−a b−a −f a+k + f a + (k + 1) n n

428

= 2π

Kapitel 14. Integralrechnung

b−a n

n−1  k=0

:      2 ; − f a+k b−a f a+(k+1) b−a b−a ; < n n . a+k 1+ b−a n n

f

F¨ ur n → ∞ entsteht unter der Wurzel aus dem Differenzenquotienten die Ableitung von f . Zus¨atzlich wird die Summe zum Integral, und wir erhalten die Formel f¨ ur die Oberfl¨ache O: 8 b  f (x) · 1 + f  (x)2 dx. O = 2π a

Beispiel 14.32 Wir betrachten wieder die Kugel mit Radius r, die durch √ Rotation von y = f (x) = r2 − x2 f¨ ur x ∈ [−r, r] um die x-Achse entsteht. erhalten wir die Gr¨oße der Kugeloberfl¨ ache Mit f  (x) = √r−x 2 −x2 8

r

2π −r

 r 2 − x2 ·

#

r2 dx = 4π · r r 2 − x2

8

r 0

1 dx = 4π · r2 .

14.8 Lebesgue-Integral ∗ Es gibt eine f¨ ur theoretische Zwecke wichtige Erweiterung des RiemannIntegrals: das Lebesgue-Integral. W¨ahrend Riemann-Integrale in der Ingenieurpraxis v¨ollig ausreichend sind, machen sie in der Mathematik erhebliche Schwierigkeiten. Wir haben gesehen, dass man bei unbeschr¨ ankten Funktionen den Integrationsbereich so einschr¨anken muss, dass die Funktion beschr¨ankt ist. Dann ist mindestens ein zus¨atzlicher Grenzwert hinsichtlich des Integrationsrandes zu berechnen. Ebenso m¨ ussen Integrale auf unbeschr¨ anktem Integrationsbereich behandelt werden. Bereits eine einfache“ Funktion ” wie die Dirichlet-Funktion, die f¨ ur rationale Argumente den Wert 1 und f¨ ur irrationale den Funktionswert 0 hat (vgl. Beispiel 11.7 auf Seite 303 und Seite 386), ist auf [0, 1] nicht Riemann-integrierbar, da alle Untersummen gleich null und alle Obersummen gleich eins sind. H¨aufig wird die Gr¨oße“ einer Funktion mit Hilfe von Integration ge” messen. So lassen sich auch der Abstand zweier Funktionen und die Konvergenz einer Folge von Funktionen gegen eine Grenzfunktion erkl¨ aren, siehe Kapitel 23.3. Das Hauptproblem des Riemann-Integrals ist dann aber, dass ein Vollst¨andigkeitsaxiom fehlt. Die Konvergenz verh¨ alt sich anders als bei reellen Zahlen. Eine im geeigneten Sinne konvergente Folge von Riemann-integrierbaren Funktionen kann eine Grenzfunktion besitzen, die nicht Riemann-integrierbar ist. Das sorgt bei Beweisen f¨ ur massive Probleme und ist damit vergleichbar, dass eine Folge von Br¨ uchen einen irrationalen Grenzwert besitzen kann. Daher ben¨otigt man zumindest f¨ ur theoretische

14.8. Lebesgue-Integral ∗

429

Zwecke einen harmloseren“ Integrationsbegriff als das Riemann-Integral, ” auch wenn dessen Definition zun¨achst komplizierter erscheint. Dieser ist das Lebesgue-Integral. Bevor wir in den n¨achsten Abschnitten das Lebesgue-Integral formal einf¨ uhren, versuchen wir es zun¨achst einmal anschaulich zu erkl¨ aren. Die Idee zum Lebesgue-Integral ist u ¨berraschend einfach. Beim Riemann-Integral wird die x-Achse in Teilintervalle zerlegt. Zu jedem Zerlegungsintervall berechnet man den Fl¨acheninhalt einer S¨aule mit der Breite des Intervalls und mit einer H¨ohe, die z. B. einem Funktionswert an einem Zwischenpunkt entspricht. Statt eines Funktionswerts an einem Zwischenpunkt kann man f¨ ur eine Untersumme auch die gr¨oßte untere Schranke (Infimum) der Funktionswerte oder f¨ ur eine Obersumme die kleinste obere Schranke (Supremum) der Funktionswerte auf diesem Intervall verwenden. Beim Lebesgue-Integral zerlegt man nun nicht die x-, sondern die y-Achse. Zu jedem Zerlegungsintervall sucht man die Menge aller zugeh¨origen x-Werte (Urbildmenge). Diese kann jetzt allerdings recht schwierig aussehen. In Abbildung 14.6 sind die Urbildmengen eine Vereinigung endlich vieler Intervalle. Wenn man f¨ ur jede Urbildmenge einen Inhalt (eine Gr¨oße, ein Maß) berechnen kann, dann kann man pro Zerlegungsintervall das Produkt eines Funktionswerts mit der Gr¨oße der zugeh¨origen x-Menge bilden und u ¨ber die Ergebnisse summieren. Wir betrachten das etwas detaillierter. Dazu sei f : [a, b] → R eine nicht-

Abb. 14.6 Zu den in den horizontalen Streifen enthaltenen y-Werten werden die zugeh¨ origen x-Werte (Urbilder) ermittelt. Auf diesen Mengen werden dann S¨ aulen gesetzt, die bis an einen Wert aus den horizontalen Streifen (hier der kleinste Wert) heranreichen. Die Summe u auleninhalte ist ein N¨ aherungswert f¨ ur das Lebesgue-Integral. Das ¨ber alle S¨ entsteht als Grenzwert, wenn man die horizontalen Streifen immer feiner w¨ ahlt. Im Bild sind die vier S¨ aulen zum mit einem Balken unterlegten Zerlegungsintervall der y-Achse abweichend eingef¨ arbt

negativwertige Funktion. Hat man eine Funktion, die auch negative Werte besitzt, dann schreibt man diese als Differenz zweier nicht-negativwertiger ankFunktionen f = f + − f − und integriert diese separat. Statt eines beschr¨ ten Intervalls [a, b] kann man auch unbeschr¨ankte Intervalle oder R betrach-

430

Kapitel 14. Integralrechnung

ten. Das tun wir in dieser Motivation aber zur Vereinfachung der Darstellung noch nicht. Jetzt zerlegen wir f¨ ur ein n ∈ N die nicht-negative y-Achse in die Intervalle Yk,n := [(k − 1)/n, k/n[, k ∈ N. Zu jedem dieser Intervalle sei Xk,n := {x ∈ [a, b] : f (x) ∈ Yk,n } das Urbild von f . Welches Aussehen Xk,n hat, h¨angt von f ab. Um hier weiterzukommen, m¨ ussen wir die Gr¨ oße von onnen Xk,n messen. Dieses Volumen“ bezeichnen wir mit v(Xk,n ). Dann k¨ ” wir, sofern der Grenzwert eigentlich oder uneigentlich existiert, das Lebesgue-Integral definieren: 8

b

L-

f (x) dx := lim a

n→∞

∞  k−1 k=1

n

v(Xk,n ).

Der Grenzwert n → ∞ sorgt daf¨ ur, dass die Zerlegung der y-Achse immer feiner wird. Zu jeder Zerlegung werden dann mit der unendlichen Summe die Fl¨achen aufaddiert. Dabei wird der kleinste Wert k−1 n des Zerlegungsintervalls wie in Abbildung 14.6 n¨aherungsweise als Funktionswert verwendet. Insbesondere ben¨otigt man bei dieser Definition nicht die Beschr¨ anktheit von f . Die verbleibende Schwierigkeit besteht in der Gr¨ oßenmessung von Xk,n . Diese funktioniert nicht f¨ ur jede beliebige Funktion, sondern nur f¨ ur messbare Funktionen. Eine messbare Funktion erf¨ ullt die Bedingung, dass alle Urbildmengen Xk,n (wie in Abbildung 14.6) Lebesgue-messbar sind. Eine Menge heißt Lebesgue-messbar, wenn sie Element einer speziellen Menge von Mengen ist, die Lebesgue-σ-Algebra heißt. Der Begriff σ-Algebra stammt aus der Wahrscheinlichkeitsrechnung und wird dort f¨ ur eine Menge von Ereignissen verwendet. In diesem Buch verwenden wir daf¨ ur den Namen Ereignis-Algebra, siehe Band 2, Seite 495. Die Lebesgue-σ-Algebra hat genau diese Struktur. Wie die Menge genau konstruiert ist, betrachten wir im n¨achsten Abschnitt. Wichtig sind aber folgende Eigenschaften: • In dieser Lebesgue-σ-Algebra liegen alle Intervalle I, die damit messbar sind. Jedem Intervall kann der Inhalt (das Lebesgue-Maß) v(I) := rechter Endpunkt − linker Endpunkt“ zugeordnet werden, außerdem ist ” v(∅) = 0. • Hat man eine h¨ochstens abz¨ahlbar unendliche Vereinigung von disjunkten messbaren Mengen, so ist auch diese Menge messbar, ihr Lebesgue-Maß ist die (ggf. unendliche) Summe der Lebesgue-Maße der einzelnen Mengen. Das entspricht der Additivit¨at eines Wahrscheinlichkeitsmaßes (siehe Definition 18.2 auf Seite 496 in Band 2). • Betrachtet man eine messbare Menge M ⊆ [a, b], so ist ihr Komplement messbar mit v(C[a,b] M ) = (b − a) − v(M ). • Sind A und B messbare Mengen mit A ⊆ B und v(A) = v(B), dann ist auch jede Menge C mit A ⊆ C ⊆ B messbar mit gleichem Inhalt v(C) = v(A). Die Mengen A, B und C unterscheiden sich damit nur durch eine Menge vom Lebesgue-Maß 0. H¨aufig gelten mathematische S¨atze f¨ ur alle reellen Zahlen bis auf wenige Ausnahmen, die alle in einer (nicht genauer bekannten) Menge vom Le-

14.8. Lebesgue-Integral ∗

431

besgue-Maß null liegen. Dann schreibt man, die Aussage gilt f. u ¨.“ (fast ” u ¨berall). In der englischsprachigen Literatur wird entsprechend a. e.“ (al” most everywhere) verwendet. Tats¨achlich ist jede Riemann-integrierbare Funktion Lebesgue-integrierbar. Die Umkehrung gilt allerdings nicht, wie die Dirichlet-Funktion f zeigt. Wir wissen bereits, dass f nicht Riemann-integrierbar ist, aber f ist Lebesgueintegrierbar: 8 1 f (x) dx = 0 · v([0, 1] \ Q) + 1 · v([0, 1] ∩ Q) = 0 · 1 + 1 · 0 = 0, L0

denn die rationalen Zahlen im Intervall [0, 1] sind abz¨ ahlbar, und f¨ ur jede Summationsreihenfolge gilt   v([p, p]) = 0 = 0, v([0, 1] ∩ Q) = p∈[0,1]∩Q

p∈[0,1]∩Q

v([0, 1] \ Q) = v(C[0,1] (Q ∩ [0, 1])) = 1 − v(Q ∩ [0, 1]) = 1 − 0 = 1. Wie hier liefern Mengen vom Lebesgue-Maß null keinen Beitrag bei der Berechnung von Integralen. Wenn sich zwei Funktionen nur auf einer Menge vom Maß null unterscheiden, sie also f. u ¨. gleich sind, dann sind ihre Integrale gleich. Da die vom Riemann-Integral bekannten Rechenregeln auch f¨ ur das Lebesgue-Integral gelten, spielt es beim praktischen Rechnen keine Rolle, um welches Integral es sich handelt. In der Wahrscheinlichkeitsrechnung wird h¨ aufig mit Wahrscheinlichkeitsmaßen integriert. Dabei wird v(Xk,n ) u ¨ber die Wahrscheinlichkeit definiert, dass Xk,n eintritt. Das Lebesgue-Maß wird also durch ein Wahrscheinlichkeitsmaß ausgetauscht. Solche Integrale behandelt man in der allgemeinen Maß- und Integrationstheorie, siehe [Bauer(1968)]. Wir gehen in Kapitel 18.9 in Band 2 etwas genauer auf die Integration mit Wahrscheinlichkeitsmaßen ein.

14.8.1 Messbare Mengen In diesem Unterkapitel wollen wir exakt definieren, was Lebesgue-Messbarkeit und das Lebesgue-Maß einer Menge von reellen Zahlen bedeutet. Das Folgende kann direkt auf Teilmengen des Rn u ¨bertragen werden (vgl. Band 2, Kapitel 3.5), aber wir begn¨ ugen uns mit Teilmengen der reellen Zahlen R. Dadurch werden die Schreibweisen etwas einfacher.

432

Kapitel 14. Integralrechnung

¨ Definition 14.8 (Außeres Lebesgue-Maß, Lebesgue-Messbarkeit) Mit dem elementaren Inhalt v(]a, b[) = b − a definieren wir das ¨ außere Lebesgue-Maß m∗ einer Teilmenge A ⊆ R. Sei dazu 7∞  U := v(Ik ) : Ik sind offene, beschr¨ ankte Intervalle mit k=1

A⊆

∞ = k=1

Ik und

∞  k=1

> v(Ik ) < ∞ .

Falls U = ∅ ist, dann setzen wir m∗ (A) := ∞, anderenfalls existiert das Infimum der nicht-leeren, nach unten mit 0 beschr¨ ankten Menge U aufgrund des Vollst¨andigkeitsaxioms der reellen Zahlen (siehe Seite 55), und wir setzen m∗ (A) := inf U. Eine Menge A ⊆ R heißt Lebesgue-messbar genau dann, wenn ur alle B ⊆ R m∗ (B) = m∗ (B ∩ A) + m∗ (B \ A) f¨

(14.24)

gilt. Dabei darf ∞ + ∞ = ∞ gerechnet werden. Es l¨asst sich nachrechnen, dass die Menge aller Lebesgue-messbaren Mengen tats¨achlich eine σ-Algebra ist (die Lebesgue-σ-Algebra). Wir bezeichnen sie ankten Intervalle messbar. mit M. Insbesondere sind ∅, R und alle beschr¨ ur jede Teilmenge der reellen Zahlen erkl¨ art. Wenn Das ¨außere Maß m∗ ist f¨ wir es auf die Lebesgue-messbaren Mengen mit der Bedingung (14.24) von Constantin Carath´eodory einschr¨anken, dann heißt es das Lebesgue-Maß und wird mit m bezeichnet. Insbesondere gilt: m(∅) = 0,

m(R) = ∞,

m(]a, b[]) = m([a, b]) = b − a.

Außerdem hat das Lebesgue-Maß die folgenden Eigenschaften: m(A) ≤ m(B) f¨ ur alle A, B ∈ M mit A ⊆ B, ( '∞ ∞  = Ak = m(Ak ) f¨ ur jede Folge paarweise disjunkter Ak ∈ M, m k=1

k=1

(14.25) m(B \ A) = m(B) − m(A) f¨ ur alle A, B ∈ M mit A ⊆ B und m(A) < ∞. Die Einschr¨ankung (14.24) der Mengen ist erforderlich, damit das LebesgueMaß σ-additiv wird, das ist die Eigenschaft (14.25). Das ¨ außere Maß auf beliebigen disjunkten Teilmengen von R erlaubt in (14.25) lediglich kleinergleich und damit σ-Subadditivit¨at.

14.8. Lebesgue-Integral ∗

433

Alle Mengen mit ¨außerem Maß null sind Lebesgue-messbar. Weiterhin sind alle abz¨ahlbaren Mengen messbar mit Lebesgue-Maß null. Mit der Cantormenge gibt es umgekehrt aber eine u ¨berabz¨ahlbare Menge, die ebenfalls das Lebesgue-Maß null hat. Die abz¨ahlbaren Mengen bilden also eine echte Teilmenge der Mengen mit Lebesgue-Maß null.

14.8.2 Messbare Funktionen

Definition 14.9 (Messbare Funktion) Eine Funktion f : D ⊆ R → R heißt Lebesgue-messbar genau dann, wenn D ∈ M ist und f¨ ur alle a ∈ R gilt: f −1 ([a, ∞[) = {x ∈ D : f (x) ≥ a} ∈ M. Das Urbild jedes Intervalls [a, ∞[ muss also eine messbare Menge sein. Das ben¨otigen wir, wenn wir die y-Achse zerlegen und dann nach Urbildern f¨ ur die Zerlegungsintervalle suchen. Wir k¨onnen nun sogar erlauben, dass Funktionen die Funktionswerte ±∞“ annehmen. In diesem Sinne ist eine Funktion f : ” D ⊆ R → R ∪ {−∞, ∞} messbar genau dann, wenn ihr Definitionsbereich ur jede Zahl a ∈ R eine messbare D messbar ist und f −1 ([a, ∞[∪{∞}) f¨ Menge ist. Die Werte ±∞“ sind beim Rechnen unproblematisch, wenn sie ” nur auf einer Menge vom Maß null angenommen werden. Wie bereits in der Motivation beschrieben, spielen Mengen vom Maß null f¨ ur die Integration keine Rolle. Das Integral u ¨ber eine Menge vom Maß null wird stets zu null definiert, egal ob dort f an einer Stelle gleich ±∞“ ist. ” Wir sagen f = g f. u ur zwei messbare Funktionen mit ¨. (fast u ¨berall) f¨ gemeinsamem Definitionsbereich D genau dann, wenn die Menge {x ∈ D : f (x) = g(x)} das Lebesgue-Maß null hat. Entsprechend sind Schreibweisen wie f < g f. u ¨. (d. h. {x ∈ D : f (x) ≥ g(x)} hat Lebesgue-Maß null) zu verstehen.

14.8.3 Definition des Lebesgue-Integrals Wir haben oben das Lebesgue-Integral durch eine Zerlegung der y-Achse motiviert. Dabei haben wir die Urbilder der Zerlegungsintervalle gesucht und dann eine Funktion integriert, die auf jedem (messbaren) Urbild konstant war. Wir l¨osen uns jetzt von der Zerlegung der y-Achse und f¨ uhren das Lebesgue-Integral u uckweise konstanten Funktionen ein. ¨ber solche st¨

434

Kapitel 14. Integralrechnung

Wir integrieren zun¨achst einfache Funktionen. Zu einer Menge A ⊆ R sei 1A die charakteristische Funktion mit 1, x ∈ A, 1A (x) := 0, x ∈ R \ A. Eine einfache Funktion g : R → R ist eine endliche Linearkombination von charakteristischen Funktionen zu disjunkten messbaren Mengen, die ein endliches Lebesgue-Maß besitzen: g(x) :=

n 

ck 1Ak (x)

k=1

f¨ ur ein n ∈ N, reelle Konstanten ck und disjunkte messbare Mengen Ak . Diese Funktionen nehmen nur endlich viele verschiedene Werte an. Die zugeh¨ origen Urbildmengen k¨onnen aber wie bei der Dirichlet-Funktion, die eine einfache Funktion mit den Parametern n = 2, c1 = 0, c2 =61, A1 = [0, 1] \ Q und n A2 = [0, 1] ∩ Q ist, sehr kompliziert sein. Sei A := k=1 Ak . Dann definiert man f¨ ur eine einfache Funktion g 8 g(x) dx :=

LA

n 

ck m(Ak ).

k=1

Eine einfache Funktion g kann nat¨ urlich unterschiedliche Darstellungen als Linearkombinationen charakteristischer Funktionen besitzen. Der Wert des Integrals ist aber unabh¨angig von der Wahl der Darstellung. Das folgt aus den Eigenschaften des Lebesgue-Maßes. Jetzt integrieren wir mit einfachen Funktionen auch kompliziertere Funktionen. Dabei verwenden wir zun¨achst noch Beschr¨ anktheitsbedingungen an f und A und damit ¨ahnliche Einschr¨ankungen wie beim Riemann-Integral. Davon werden wir uns aber in den n¨achsten Schritten l¨ osen. F¨ ur eine messbare beschr¨ankte Funktion f auf einer messbaren Menge A mit endlichem Maß definieren wir 8 L- f (x) dx A

8 ur alle x ∈ A . := sup L- g(x) dx : g ist einfache Funktion, g(x) ≤ f (x) f¨ A

Das Supremum existiert, da es u ¨ber eine nicht-leere und mit m(A) sup{f (x) : x ∈ A} beschr¨ankte Menge gebildet wird. Jetzt lassen wir die Randbedingungen weg, dass f und A beschr¨ ankt sein sollen. F¨ ur eine nun nicht-negativwertige messbare Funktion f , die auch Funktionswerte ∞“ besitzen darf, und eine messbare Menge A (mit be” liebigem Maß) sei

14.8. Lebesgue-Integral ∗

? 8 U := L-

435

h(x) dx : h ist eine messbare, beschr¨ ankte Funktion {x∈A:h(x) =0}

@ mit h(x) ≤ f (x) f¨ ur alle x ∈ A und m({x ∈ A : h(x) = 0}) < ∞ . Hier wird das bereits erkl¨arte Integral einer beschr¨ ankten Funktion u ¨ber eine Menge mit endlichem Maß benutzt. Eine Menge A mit unendlichem Maß kann durch Weglassen der Nullstellen von h zu einer Menge mit endlichem Maß werden, beispielsweise f¨ ur eine Funktion h, die außerhalb eines endlichen Intervalls nur den Wert null annimmt. Mittels U definieren wir 8 sup U, falls U nach oben beschr¨ ankt ist, f (x) dx := L∞, sonst. A Das so definierte Integral kann also durchaus den Wert ∞“ annehmen. Wir ” sagen, dass eine nicht-negativwertige messbare Funktion f genau dann Lebesgue-integrierbar ist, wenn das Integral einen endlichen Wert hat. Insbesondere kann dann der Funktionswert ∞“ nur auf einer Menge vom Maß ” null angenommen werden (und ist ohne Einfluss auf die Integration auch durch eine echte Zahl ersetzbar). Zum Abschluss definieren wir das Lebesgue-Integral f¨ ur allgemeine messbare Funktionen f u ¨ber messbare Mengen A. Diese lassen sich als Summe von nicht-negativwertigen Funktionen f + und f − (siehe (14.1) auf Seite 381) schreiben: f (x) = f + (x) − f − (x). f ist genau dann Lebesgue-integrierbar u ¨ber A, wenn f + und f − als nicht-negativwertige Funktionen Lebesgueintegrierbar sind. Insbesondere haben ihre Integrale einen endlichen Wert, und damit macht die folgende Definition Sinn: 8 8 8 + f (x) dx := Lf (x) dx − Lf − (x) dx. LA

A

A

14.8.4 Eigenschaften des Lebesgue-Integrals Wir stellen in diesem Abschnitt ohne Beweise (hier sei z. B. auf [Bauer(1990)] verwiesen) die wichtigsten Eigenschaften und S¨ atze zum Lebesgue-Integral zusammen. • Das Lebesgue-Integral ist wie das Riemann-Integral linear, d. h., f¨ ur Lebesgue-integrierbare Funktionen f und g auf einer messbaren Menge A und c, d ∈ R gilt: 8 8 8 c · f (x) + d · g(x) dx = c · Lf (x) dx + d · Lg(x) dx. LA

A

A

436

Kapitel 14. Integralrechnung

• Sind A, B ∈ M mit m(A ∩ B) = 0, dann l¨asst sich der Integrationsbereich so zerlegen: 8 8 8 f (x) dx = Lf (x) dx + Lf (x) dx. LA∪B

A

B

messbarer Mengen, und sei f Lebesgue• Sei (Ak )∞ k=1 eine Folge disjunkter 6∞ integrierbar u ¨ber A := k=1 Ak . Dann gilt: 8 f (x) dx =

LA

∞  k=1

8 L-

f (x) dx.

(14.26)

Ak

• Falls f auf A ∈ M messbar ist, dann ist auch |f | auf A ∈ M messbar und f ist auf A integrierbar ⇐⇒ |f | ist auf A integrierbar. Man beachte, dass es zu dieser Aussage kein Gegenst¨ uck f¨ ur Riemannintegrierbare Funktionen gibt. So ist die etwas umdefinierte messbare Dirichlet-Funktion 1, x ∈ Q, f (x) := −1, x ∈ R \ Q, auf dem Intervall [0, 1] nicht Riemann-integrierbar, aber |f (x)| = 1 sehr wohl. • Ist f auf A Lebesgue-integrierbar, dann gilt die verallgemeinerte Dreiecksungleichung   8 8    Lf (x) dx ≤ L|f (x)| dx.  A

A

• Ist f auf der messbaren Menge A Lebesgue-integrierbar und g auf A messbar und gilt f (x) = g(x) f. u ¨., dann ist auch g Lebesgue-integrierbar und 8 8 f (x) dx = Lg(x) dx. LA

A

• Ist f eine auf [a, b] Riemann-integrierbare Funktion, dann ist f auf der messbaren Menge [a, b] Lebesgue-integrierbar mit 8

8

b

8

f (x) dx := L-

La

b

f (x) dx = [a,b]

f (x) dx. a

Das Lebesgue-Integral ist wegen des letzten Punktes eine echte Erweiterung des Riemann-Integrals. F¨ ur die in der Ingenieurpraxis h¨ aufig auftretenden Riemann-integrierbaren Funktionen ben¨otigt man keine Lebesgue-Integrale. Sie werden aber wichtig, wenn es um Grenzwerte von Funktionenfolgen geht: Aufgrund des Aufbaus des Integrals u ¨ber die Approximation durch einfache Funktionen von unten ist die folgende Aussage nicht u ¨berraschend:

14.8. Lebesgue-Integral ∗

437

Satz 14.11 (Satz von Beppo-Levi zur monotonen Konvergenz) Sei (fk )∞ k=1 eine Folge auf einer messbaren Menge A definierter messbarer, nichtnegativwertiger Funktionen. Die Folge sei monoton wachsend, d. h. fk (x) ≤ ur alle k ∈ N. Außerdem gelte fk+1 (x) f. u ¨. f¨ lim fk (x) = f (x) f. u ¨.,

k→∞

d. h., f¨ ur alle x ∈ A mit Ausnahmen, die in einer Menge vom Lebesgue-Maß null liegen, konvergiert die zu festgehaltenem x berechnete Zahlenfolge (vgl. Kapitel 16.2). Dann ist f messbar, und es gilt: 8 8 fk (x) dx = Lf (x) dx. lim Lk→∞

A

A

Ohne die Einschr¨ankung, dass die Funktionenfolge monoton wachsend ist, kommt der folgende Hauptsatz aus, der daf¨ ur eine Lebesgue-integrierbare Majorante verwendet: Satz 14.12 (Satz von Lebesgue u ¨ ber die majorisierte Konvergenz) eine Folge auf einer messbaren Menge A definierter LebesgueSei (fk )∞ k=1 integrierbarer Funktionen mit lim fk (x) = f (x) f. u ¨.

k→∞

Falls eine auf A Lebesgue-integrierbare Funktion g existiert mit |fk (x)| ≤ g(x) f. u ¨., dann ist f auf A Lebesgue-integrierbar, und es gilt: 8 8 8 fk (x) dx = Lf (x) dx, lim L|fk (x) − f (x)| dx = 0. lim Lk→∞

A

A

k→∞

A

Mit diesen beiden S¨atzen kann man zeigen, dass das in der Motivation des Abschnitts erw¨ahnte Problem der fehlenden Integrierbarkeit einer Grenzfunktion beim Lebesgue-Integral nicht auftritt (siehe Seite 645). Aufbau und Eigenschaften des Lebesgue-Integrals lassen sich von R direkt auf den Rn , also auf Funktionen mit n Variablen u ¨bertragen, siehe dazu Band 2, Kapitel 3.5.

438

Kapitel 14. Integralrechnung

Literaturverzeichnis Bauer(1990). Bauer, H.: Maß- und Integrationstheorie. W. de Gruyter, Berlin, 1990. Bauer(1968). Bauer, H.: Wahrscheinlichkeitstheorie und Grundz¨ uge der Maßtheorie. de Gruyter, Berlin, 1968. Elstrodt(2018). Elstrodt, J.: Maß- und Integrationstheorie. Springer, Berlin, 2018. Heuser(2009). Heuser, H.: Lehrbuch der Analysis Teil 1. Teubner, Wiesbaden, 2009.

Kapitel 15

Satz von Taylor, Kurvendiskussion und Extremalprobleme Eine an einer Stelle hinreichend oft differenzierbare Funktion f l¨ asst sich dort durch ein Polynom ann¨ahern, das das Ableitungsverhalten von f nachahmt. Dies ist ein Taylor-Polynom. Der Satz von Taylor beschreibt, wie gut die Ann¨aherung ist. Mit diesem Satz leiten wir Kriterien her, mit denen eine Kurvendiskussion durchgef¨ uhrt werden kann und rechnen dazu Beispiele.

15.1 Taylor-Summen Wir n¨ahern eine Funktion f durch ein Polynom pm an, das an einer gegebenen Stelle x0 den gleichen Funktionswert f (x0 ) und die gleichen Ableitungswerte f (k) (x0 ), 1 ≤ k ≤ m, besitzt. Dabei haben wir die Hoffnung, dass dadurch das Polynom das Verhalten von f gut imitiert. Diese Hoffnung wird sich in Kapitel 16 best¨ atigen, aber auch schon im folgenden Satz von Taylor zeigen. Funktionswerte eines Polynoms kann man leicht ausrechnen. Dagegen weiß man bei vielen anderen Funktionen gar nicht, wie man Funktionswerte praktisch berechnen soll. Hier nutzt man dann z. B. die n¨ aherungsweise Darstellung durch das zuvor beschriebene Polynom. Wir verwenden (nur lokal) die Variable m f¨ ur den Grad des Polynoms pm , da wir die Ergebnisse sp¨ater auch f¨ ur Funktionen mit mehreren Variablen verwenden wollen. Die Anzahl der Variablen (die der Raumdimension des Definitionsbereichs entspricht) wird n¨amlich u ¨blicherweise mit n bezeichnet.

© Der/die Autor(en), exklusiv lizenziert an Springer-Verlag GmbH, DE, ein Teil von Springer Nature 2023 S. Goebbels und S. Ritter, Mathematik verstehen und anwenden: Differenzial- und Integralrechnung, Lineare Algebra, https://doi.org/10.1007/978-3-662-68367-5_15

439

440

Kapitel 15. Satz von Taylor, Kurvendiskussion und Extremalprobleme

• F¨ ur m = 0 ist p0 (x) = f (x0 ) die konstante Funktion. • F¨ ur m = 1 ist p1 (x) = f (x0 ) + f  (x0 ) · (x − x0 )

¨ die Tangente an f in x0 . Uber den Schnittpunkt der Tangenten mit der x-Achse haben wir bereits beim Newton-Verfahren (siehe Seite 349) n¨ aherungsweise die Nullstellen einer differenzierbaren Funktion bestimmt. Bereits diese einfache N¨aherung ist also praktisch anwendbar.

Allgemein diskutieren wir die Taylor-Summe bzw. das Taylor-Polynom oder auch die Taylor-Entwicklung vom Grad m f (2) (x0 ) f (3) (x0 ) (x − x0 )2 + (x − x0 )3 2 6 m  f (m) (x0 ) f (k) (x0 ) (x − x0 )m = (x − x0 )k . +··· + m! k!

pm (x) := f (x0 ) + f  (x0 )(x − x0 ) +

k=0

W¨ahlt man speziell x0 = 0, so spricht man auch von einer MacLaurinEntwicklung. Wir zeigen, dass an der Stelle x0 tats¨achlich alle Ableitungen bis zur m-ten (k) von f und pm u ¨bereinstimmen, d. h. f (k) (x0 ) = pm (x0 ), 0 ≤ k ≤ m: p(k) m (x) = +

f (k+1) (x0 ) (k + 1)! f (k) (x0 ) k! + (x − x0 ) k! (k + 1)! 1!

f (m) (x0 ) f (k+2) (x0 ) (k + 2)! m! (x − x0 )2 + · · · + (x − x0 )m−k . (k + 2)! 2! m! (m − k)!

Durch das fortgesetzte Ableiten der Monome entstehen die Fakult¨ aten. Set(k) zen wir x = x0 ein, so bleibt nur pm (x0 ) = f (k) (x0 ) stehen. Jedes weitere Summenglied sorgt also daf¨ ur, dass die n¨achsth¨ohere Ableitung des Polynoms mit der von f an der Stelle x0 u ¨bereinstimmt. Die Abweichung zwischen dem so bestimmten Polynom und der Ausgangsfunktion f l¨ asst sich absch¨ atzen: 1.5

1

0.5

0

-0.5

Abb. 15.1 sin(x) und zugeh¨ orige Taylor-Summe 2 k x2k+1 k=0 (−1) (2k+1)!

-1

-1.5

-3

-2

-1

0

1

2

3

441

15.1. Taylor-Summen

Satz 15.1 (Satz von Taylor, 1685–1731, hier 1715) Seien ]a, b[⊆ R ein offenes Intervall, x0 ∈]a, b[ und f eine (m + 1)-mal stetig differenzierbare ur jedes x ∈]a, b[ gilt: Funktion auf ]a, b[, m ∈ N0 . F¨ f (x) =

m  f (k) (x0 ) k=0

k!

(x − x0 )k + Rx0 ,m+1,f (x).

Dabei hat das Restglied Rx0 ,m+1,f (x) die Integraldarstellung 8 x (x − t)m (m+1) f Rx0 ,m+1,f (x) = (t) dt. m! x0

(15.1)

(15.2)

Alternativ zur Integraldarstellung ist die Lagrange-Darstellung des Restglieds n¨ utzlich: Zu jedem x ∈]a, b[ gibt es ein ξ = ξ(x) zwischen x und x0 , so dass f (m+1) (ξ) (x − x0 )m+1 . (15.3) Rx0 ,m+1,f (x) = (m + 1)! Ist f bereits selbst ein Polynom mit Grad ≤ m, d. h., der gr¨ oßte auftretende Exponent ist ≤ m, so ist das Restglied null, und die Taylor-Darstellung ist identisch mit dem Polynom. Man spricht von einer Projektion: Polynome vom Grad ≤ m werden durch Bilden der Taylor-Summe auf sich selbst abgebildet. Im Fall m = 0 entspricht die Lagrange-Darstellung des Restglieds dem Mittelwertsatz, der damit Spezialfall des Satzes von Taylor ist: f (x) = f (x0 )+Rx0 ,1,f (x) = f (x0 )+f  (ξ)(x−x0 ), d. h.

f (x) − f (x0 ) = f  (ξ). x − x0

Beweis Wir zeigen zuerst (15.1) mit dem Restglied in Integralform (15.2) mittels Hauptsatz und partieller Integration. • Der Induktionsanfang f¨ ur m = 0 ergibt sich aus dem Hauptsatz (Satz 14.7, Seite 390): 8 x

f  (t) dt.

f (x) = f (x0 ) + x0

• Induktionsannahme: (15.1) gelte f¨ ur ein beliebiges m. • Induktionsschritt: Wir zeigen, dass die Taylor-Formel auch f¨ ur m + 1 gilt. Dazu integrieren wir das Integralrestglied partiell: f (m+1) (x0 ) (x − x0 )(m+1) + Rx0 ,m+2,f (x) (m + 1)!

442

Kapitel 15. Satz von Taylor, Kurvendiskussion und Extremalprobleme

f (m+1) (x0 ) (x − x0 )(m+1) + (m + 1)!

8

x

(x − t)m+1 (m+2) f (t) dt x0 (m + 1)!  t=x f (m+1) (x0 ) (x − t)m+1 (m+1) (m+1) (x − x0 ) f = + (t) (m + 1)! (m + 1)! t=x0 8 x 8 x (x − t)m (m+1) (x − t)m (m+1) f f − − (t) dt = (t) dt m! m! x0 x0 =

= Rx0 ,m+1,f (x). Damit ist aber m+1 

f (k) (x0 ) (x − x0 )k + Rx0 ,m+2,f (x) k!

k=0 m 

=

k=0

f (k) (x0 ) (x − x0 )k + Rx0 ,m+1,f (x), k!

und nach Induktionsannahme ist das gleich f (x). Mit der Induktion ist (15.1) mit der Restglieddarstellung (15.2) bewiesen. Mit dem Mittelwertsatz der Integralrechnung (Satz 14.6) erh¨ alt man direkt aus (15.2) eine Darstellung (das Cauchy’sche Restglied) Rx0 ,m+1,f (x) =

f (m+1) (ξ) (x − x0 )(x − ξ)m m!

f¨ ur ein ξ im abgeschlossenen Intervall zwischen x0 und x. Das ist aber leider noch nicht die Lagrange-Darstellung (15.3). Wir beweisen sie separat, indem wir mit Rx0 ,m+1,f (x) = R(x) := f (x) −

m  f (k) (x0 ) k=0

k!

(x − x0 )k

starten und den verallgemeinerten Mittelwertsatz der Differenzialrechnung (Satz 13.4 von Seite 362) anwenden. Mit f ist auch R mindestens (m + 1)mal stetig differenzierbar auf ]a, b[ (beim Einsatz von Satz 13.4 k¨ onnen wir sogar auf die Stetigkeit von f (m+1) verzichten). Da die Taylor-Summe gerade so konstruiert ist, dass Funktionswert und alle Ableitungen bis zur Ordnung m an der Stelle x0 mit den entsprechenden Werten von f u ¨bereinstimmen, ur 0 ≤ k ≤ m. Weiter ist R(m+1) (x) = f (m+1) (x). haben wir R(k) (x0 ) = 0 f¨ Damit k¨onnen wir den verallgemeinerten Mittelwertsatz iteriert anwenden. F¨ ur x = x0 ist =0

R(x) (x − x0 )m+1

   R(x) − R(x0 ) R (ξ1 ) = = m+1 m+1 (x − x0 ) − (x0 − x0 ) (m + 1)(ξ1 − x0 )m

443

15.1. Taylor-Summen =0

   R (ξ1 ) − R (x0 ) R(2) (ξ2 ) = = m m (m + 1)(ξ1 − x0 ) − (m + 1)(x0 − x0 ) m(m + 1)(ξ2 − x0 )m−1 = ··· =

f (m+1) (ξm+1 ) R(m+1) (ξm+1 ) = . (m + 1)! (m + 1)!

Dabei liegen alle Zwischenstellen ξk zwischen x und x0 . Die im Satz angegebene Zwischenstelle ist ξ = ξm+1 .



Beispiel 15.1 Wir entwickeln mit dem Satz von Taylor einige Funktionen um x0 = 0: a) F¨ ur f (x) = ex gilt f  (x) = ex , f  (x) = ex , ... Da alle Ableitungen an der Stelle x0 = 0 gleich 1 sind, erhalten wir die Taylor-Entwicklung: ex = 1 + x + =

m  xk k=0

k!

xm x2 + ··· + + R0,m+1,ex (x) 2! m!

(15.4)

+ R0,m+1,ex (x),

mit einer Stelle ξ zwischen 0 und x und dem Restglied von Lagrange R0,m+1,ex (x) =

eξ xm+1 . (m + 1)!

b) Die trigonometrischen Funktionen besitzen die Taylor-Entwicklung m+1

cos(x) = cos(0) −

d cos cos(0) 2 sin(0) 3 sin(0) m+1 (ξ) m+1 x− x + x ± · · · + dx x 1! 2! 3! (m + 1)! m+1

= 1−

d cos 1 2 1 1 1 m+1 (ξ) m+1 x + x4 − x6 + x8 ± · · · + dx x , 2! 4! 6! 8! (m + 1)! m+1

d sin 1 1 1 1 m+1 (ξ) m+1 sin(x) = x − x3 + x5 − x7 ± · · · + dx x . 1! 3! 5! 7! (m + 1)!

Diese Taylor-Entwicklungen sind auch in vielen Anwendungen hilfreich. c) Die Restglieddarstellungen erm¨oglichen Fehlerabsch¨ atzungen. Wir k¨ onnen beispielsweise mit der obigen Taylor-Entwicklung der Exponentialfunktion einen N¨aherungswert f¨ ur die Zahl e mit vorgegebener Genauigkeit berechnen. m  1 . e = e1 ≈ k! k=0

Dabei machen wir einen Fehler, der nach dem Lagrange’schen Restglied die Gr¨oße

444

Kapitel 15. Satz von Taylor, Kurvendiskussion und Extremalprobleme

R0,m+1,ex (x) =

e1 3 eξ ≤ < (m + 1)! (m + 1)! (m + 1)!

ur, dass die hat. Soll der Fehler kleiner als 10−8 sein, so sorgen wir daf¨ rechte Seite kleiner als 10−8 ist: R0,m+1,ex (x)
3 · 108 . (m + 1)!

Dies ist z. B. f¨ ur m ≥ 11 erf¨ ullt, denn (11 + 1)! = 479 001 600. Damit 11 1 k¨onnen wir e1 bis auf 8 Dezimalstellen genau mit der Summe k=0 k! angeben. F¨ ur Potenzreihen (Kapitel 16) werden wir diese Summen unendlich fortsetzen und dabei beobachten, dass das Restglied gegen null geht. Damit kann man die Funktionswerte exakt u aherungs¨ber eine unendliche Summe und n¨ weise u ¨ber eine endliche Summe ausrechnen. Eine direkte Anwendung des Satzes von Taylor sind Kurvendiskussionen.

15.2 Kurvendiskussion und Extremalprobleme Bei einer Kurvendiskussion sucht man die charakteristischen Kenngr¨ oßen ei¨ ner Funktion, die einen schnellen Uberblick u ¨ber das Verhalten des Funktionsgraphen geben. Mit ihrer Hilfe kann man den Graphen auch ohne Berechnung weiterer Funktionswerte gut skizzieren. Einen ¨ ahnlichen Ansatz werden wir im Band 2 in der beschreibenden Statistik verfolgen, um eine große Datenmenge mittels weniger Kenngr¨oßen zu beschreiben. Unabh¨angig von der Skizzierung eines Funktionsgraphen sind Charakteristika wie lokale Maxima und Minima sehr h¨aufig in Anwendungen gesucht. Zun¨achst erhalten wir aus dem Mittelwertsatz (Satz 13.3 auf Seite 361) direkt eine Folgerung, die der Anschauung der Ableitung entspricht: Folgerung 15.1 (Zusammenhang Monotonie und Ableitung) f : [a, b] → R stetig auf [a, b] und differenzierbar auf ]a, b[.

Sei

a) Ist f  (x) = 0 f¨ ur alle x ∈]a, b[, so ist f konstant: f (x) = c f¨ ur ein c ∈ R. ur alle x ∈]a, b[, so ist f (streng) monoton b) Ist f  (x) ≥ 0 (bzw. f  (x) > 0) f¨ steigend auf [a, b]. ur alle x ∈]a, b[, so ist f (streng) monoton c) Ist f  (x) ≤ 0 (bzw. f  (x) < 0) f¨ fallend auf [a, b]. Beweis Sind x1 , x2 ∈ [a, b] mit x1 = x2 , so ist

f (x2 ) − f (x1 ) = (x2 − x1 )f  (ξx1 ,x2 ).

15.2. Kurvendiskussion und Extremalprobleme

445

a) Hier ist f (x2 ) = f (x1 ) f¨ ur alle x1 , x2 ∈ [a, b], also ist f konstant. b) F¨ ur x2 > x1 ist f (x2 ) − f (x1 ) ≥ (>) 0, also f (x2 ) ≥ (>) f (x1 ). Damit ist f (streng) monoton steigend. c) analog zu b).  d x e = ex > 0 erhalten wir nun auch u Beispiel 15.2 Wegen dx ¨ber die Abx leitung, dass e streng monoton steigend auf R ist. Als Umkehrfunktion ist nach Lemma 4.2 von Seite 99 auch ln(x) streng monoton steigend. Dies sehen d ln(x) = x1 > 0, x > 0. wir auch an der Ableitung dx

Ein sehr wichtiges Charakteristikum einer Funktion sind ihre lokalen Extrema (lokale Maxima und Minima). Wir weisen hier nochmals auf den Satz von Fermat 13.1 auf Seite 359 f¨ ur eine an einer Stelle x0 differenzierbare Funktion f hin: Hat f in x0 ein lokales Extremum, dann ist (notwendigerweise) f  (x0 ) = 0. Neben Extremstellen sind auch Wendepunkte f¨ ur Funktionsgraphen charakteristisch. Der Name Wendepunkt deutet an, dass der Funktionsgraph hier von einer Rechts- in eine Linkskr¨ ummung oder umgekehrt wechselt: Definition 15.1 (Kr¨ ummung) Eine auf einem Intervall ]a, b[ zweimal differenzierbare Funktion f heißt auf ]a, b[ genau dann rechtsgekr¨ ummt ur alle x ∈]a, b[. Sie heißt auf ]a, b[ linksgeoder konkav, wenn f  (x) ≤ 0 f¨ ur alle x ∈]a, b[. kr¨ ummt oder konvex genau dann, wenn f  (x) ≥ 0 f¨

Abb. 15.2 Rechts- und Linkskr¨ ummung

F¨ ahrt man entlang des Funktionsgraphen einer rechtsgekr¨ ummten Funktion, so f¨ahrt man eine Rechtskurve (siehe Abbildung 15.2). Bei einer linksgekr¨ ummten Funktion f¨ahrt man eine Linkskurve. Ist f zweimal stetig differenzierbar, so ist f  (x0 ) = 0 bei einem Wendepunkt x0 . Das ist (nach Zwischenwertsatz) notwendig, wenn sich das Vorzeichen der stetigen Funktion f  in x0 a¨ndern soll:

446

Kapitel 15. Satz von Taylor, Kurvendiskussion und Extremalprobleme

Folgerung 15.2 (Notwendige Bedingung f¨ ur einen Wendepunkt) Besitzt eine auf einem Intervall zweimal stetig differenzierbare Funktion f in einem inneren Punkt x0 einen Wendepunkt, so folgt f  (x0 ) = 0. Hinreichende Kriterien f¨ ur Extremal- und Wendepunkte ergeben sich aus dem Satz von Taylor: Folgerung 15.3 (Kurvendiskussion) Sei f m-mal stetig differenzierbar auf ]a, b[, m ≥ 2, und x0 ∈]a, b[. Außerdem sei f  (x0 ) = · · · = f (m−1) (x0 ) = 0 und f (m) (x0 ) = 0. Dann gilt:

a) Ist m gerade und f (m) (x0 ) > 0, so hat f ein striktes lokales Minimum in ur lokales Minimum). x0 (hinreichende Bedingung f¨ b) Ist m gerade und f (m) (x0 ) < 0, so hat f ein striktes lokales Maximum ur lokales Maximum). in x0 (hinreichende Bedingung f¨ c) Ist m ungerade, so hat f kein lokales Extremum in x0 , sondern einen Wendepunkt (hinreichende Bedingung f¨ ur einen Wendepunkt).

Ein Wendepunkt mit horizontaler Tangente heißt ein Sattelpunkt. Da in der Folgerung f  (x0 ) = 0 verlangt ist, ist der Wendepunkt aus c) zugleich ein Sattelpunkt. Beweis Da alle Ableitungen bis zur m − 1-ten in x0 gleich null sind, ergibt sich mit dem Satz von Taylor: f (x) = f (x0 ) + f (m) (ξ(x))

(x − x0 )m m!

mit ξ(x) zwischen x und x0 . F¨ ur x → x0 geht ξ(x) → x0 . Da f (m) stetig in x0 (m) (m) ist, strebt f (ξ(x)) → f (x0 ) = 0 f¨ ur x → x0 . Außerdem hat die stetige andert das Funktion f (m) in einer Umgebung von x0 keine Nullstelle und ver¨ Vorzeichen nicht (siehe Lemma 11.2 auf Seite 315). F¨ ur gen¨ ugend kleines h > 0 erhalten wir: ur gerades m mit hm = a) In x0 liegt ein striktes lokales Minimum, da f¨ m (−h) > 0 gilt: f (x0 ± h) = f (x0 ) +

1 (m) f (ξ(x0 ± h)) (±h)m > f (x0 ).    m!  >0

>0

ur gerades m wieder hm = b) In x0 liegt ein striktes lokales Maximum, da f¨ m (−h) > 0 ist und

447

15.2. Kurvendiskussion und Extremalprobleme

f (x0 ± h) = f (x0 ) +

1 (m) f (ξ(x0 ± h)) (±h)m < f (x0 ).    m!  0

c) Wir betrachten f¨ ur ungerades m den Fall f (m) (ξ(x0 ± h)) > 0 (m) (der Fall f (ξ(x0 ± h)) < 0 folgt analog): f (x0 + h) = f (x0 ) +

1 (m) f (ξ(x0 + h))hm > f (x0 ), m!

aber f (x0 − h) = f (x0 ) +

1 (m) f (ξ(x0 − h)) (−h)m < f (x0 ).   m! 0, (m − 2)! 1 f (2+[m−2]) (ξ(f (2) , x0 − h)) · (−h)m−2 < 0. f  (x0 − h) = (m − 2)!

f  (x0 + h) =

Da m ungerade ist, ist der letzte Faktor (−h)m−2 negativ.  In der Ingenieurpraxis spielt die Ermittlung von Extremwerten eine bedeutende Rolle. Das folgende Beispiel ist dazu ein Klassiker.

Abb. 15.3 Volumen einer Schachtel

Beispiel 15.3 Aus einem quadratischen St¨ uck Pappe (oder anderen Materialien wie Blech, Stoff usw.) der Seitenl¨ange a werden an den Ecken Quadrate abgetrennt. Diese haben die Kantenl¨ange x (siehe Abbildung 15.3). Wir berechnen den Wert f¨ ur x, f¨ ur den durch Umknicken der Seitenfl¨ achen ein (oben offener) Quader mit maximalem Volumen entsteht. Das Volumen f (x) der Quaders betr¨agt

448

Kapitel 15. Satz von Taylor, Kurvendiskussion und Extremalprobleme

f (x) = (a − 2x)2 · x,

0≤x≤

a . 2

Zum Auffinden des Maximums suchen wir die Nullstellen der ersten Ableitung: f  (x) = (a−2x)2 +2x(a−2x)·(−2) = (a−2x)·(a−6x) = 0 ⇐⇒ x =

a a ∨x = . 2 6

Mit Hilfe der zweiten Ableitung f  (x) = (a − 6x) · (−2) + (a − 2x) · (−6) = 24x − 8a

  a folgt f  a2 = 24 2 a − 8a = 4a > 0, d. h., bei x = 2 liegt ein lokales Minimum 24 a  a und f 6 = 6 a−8a = −4a < 0, d. h., bei x = 6 liegt ein lokales Maximum. F¨ ur x = a6 wird das Volumen der Schachtel maximal. Es ist f

a 6

2  a 2 a 2 2 3 a = a−2· a · = a . · = 6 6 3 6 27

Abb. 15.4 Kommerziell optimale Verlegung einer Leitung

Beispiel 15.4 Vom Campus A aus soll zu einem Studentenwohnheim B eine Glasfaserleitung verlegt werden, vgl. [Gellrich und Gellrich(2003), Band 3, S. 218], siehe Abbildung 15.4. F¨ ur die Lage der beiden Punkte gilt B − A = (a, b) = (800, 200) mit Angaben in Metern. Die erforderlichen Grabungen kosten entlang der Straße 100 [Euro/m] und quer u ¨ber das angrenzende Grundst¨ uck 120 [Euro/m]. An welcher Stelle C muss von der Straße geradlinig abgezweigt werden, wenn die Kosten minimal werden sollen? Die Gesamtkosten in Euro belaufen sich auf K = 100 · AC + 120 · CB. Nun soll der Abzweigpunkt C so bestimmt werden, dass K minimal wird. Setzt man CD = x und misst man alle Strecken in Meter, so ist ein Minimum von

449

15.2. Kurvendiskussion und Extremalprobleme

 K(x) = 100(a − x) + 120 b2 + x2 unter der Nebenbedingung 0 ≤ x ≤ a zu bestimmen. Dabei sind a und b durch die Problemstellung gegeben. Es ist K  (x) = −100 + 120 √ und K  (x) = 120



b2 + x 2 − x ·

x b2 + x 2

√ x b2 +x2

b2 + x 2

=

120 · b2 . (b2 + x2 )3/2

ur x ≥ 0 Die Forderung K  (x) = 0 liefert f¨ 120 √

b2

x = 100 + x2 ⇐⇒

⇐⇒ 1202 x2 = 1002 (2002 + x2 ) # 20 0002 x= ≈ 301,5. 1202 − 1002

Man muss also 800 − 301,5 = 498,5 Meter von A entfernt von der Straße geradlinig nach B abzweigen, um die Kosten so gering wie m¨ oglich zu halten. Dass es sich dabei um ein (lokales) Minimum handelt, sieht man sofort durch Einsetzen in K  (x). Folgende Vergleichsrechnungen zeigen das Sparpotenzial: √ • Der direkte Weg von A nach B kostet K = 120 · 8002 + 2002 ≈ 98 954,53 Euro, • der Umweg u ¨ber D (siehe Abbildung 15.4) kostet K = 800·100+200·120 = 104 000 Euro,  • und das berechnete Minimum betr¨agt K = 498,5 · 100 + 301,52 + 2002 · 120 ≈ 93 266,50 Euro. Es macht also Sinn, sich hier Gedanken zu machen, da die Einsparpotenziale durchaus interessant sind. Mittels Differenzialrechnung findet man nur lokale Extrema. Um dar¨ uber globale Extrema zu ermitteln, muss man Zusatz¨ uberlegungen anstellen: Hat man zu einer auf einem Intervall [a, b] differenzierbaren Funktion u ¨ber die Bedingung f  (x) = 0 alle m¨oglichen lokalen Extremstellen in ]a, b[ ermittelt, dann k¨onnen globale Extrema (die ja insbesondere lokale Extrema sind) nur an diesen Stellen und an den Randpunkten a und b liegen. Da eine stetige Funktion auf [a, b] nach Satz 11.7 auf Seite 322 sowohl das globale Maximum als auch das globale Minimum annimmt, befinden sich beide tats¨ achlich an jeweils mindestens einer dieser Stellen und man muss nur die Funktionswerte miteinander vergleichen. Ist der Definitionsbereich unbeschr¨ankt, dann kann man Grenzwerte in die ¨ Uberlegung einbeziehen:

450

Kapitel 15. Satz von Taylor, Kurvendiskussion und Extremalprobleme

Satz 15.2 (Globale Extrema) Sei f auf R differenzierbar mit existierenden Grenzwerten g1 = limx→−∞ f (x) und g2 = limx→∞ f (x) (wobei ±∞ zugelassen sind), und sei M der gr¨oßte Funktionswert an einer Nullstelle der Ableitung. Falls M gr¨oßer oder gleich g1 und g2 ist, dann liegt dort ein globales Maximum. Sei m der kleinste Funktionswert an einer Nullstelle der Ableitung. Falls m kleiner oder gleich g1 und g2 ist, dann liegt dort ein globales Minimum. Beweis Wir beweisen die Aussage f¨ ur das globale Maximum, indem wir annehmen, dass es einen gr¨oßeren Funktionswert M  gibt, und dies zum Widerspruch f¨ uhren. M werde an der Stelle x0 und M  an der Stelle x1 angenommen. Wir betrachten nun den Fall x1 < x0 . Wegen limx→−∞ f (x) ≤ M < M  gibt es eine Stelle x2 < x1 mit f (x2 ) < M  . Die stetige Funktion f oßer oder gleich M  nimmt auf dem Intervall [x2 , x0 ] ein Maximum an, das gr¨ ist. Aufgrund der Funktionswerte am Rand muss dies an einer Stelle x3 im Inneren ]x2 , x0 [ liegen. Da f differenzierbar ist, ist f  (x3 ) = 0. Das steht aber im Widerspruch dazu, dass M der gr¨oßte Funktionswert an den Nullstellen von f  ist. Im Fall x0 < x1 erh¨alt man den gleichen Widerspruch mittels des Grenzur das globale Minimum gewerts limx→∞ f (x) ≤ M < M  . Der Beweis f¨ schieht analog.  Beispiel 15.5 Wir suchen die globalen Extrema der Funktion f (x) := 2

x x2 +1 . = − 12

Die Nullstellen der Ableitung f  (x) = (x1−x 2 +1)2 sind −1 und 1 mit f (−1) 1 und f (1) = 2 . Da limx→±∞ f (x) = 0 ist, liegt das globale Maximum an der Stelle 1 und das globale Minimum an der Stelle −1. Insbesondere muss man hier zur Klassifikation der Extrema die zweite Ableitung gar nicht mehr ausrechnen.

Bei einer Kurvendiskussion versucht man, m¨ oglichst viele Eigenschaften eines Funktionsgraphen mittels der zuvor hergeleiteten S¨ atze zu bestimmen. Mit diesen Informationen kann man dann den Graphen leicht skizzieren. Um zus¨atzlich das Verhalten f¨ ur x → ±∞ noch genauer zu beschreiben, ben¨ otigen wir einen weiteren Begriff: Definition 15.2 (Asymptote) Sei f : D → R mit [a, ∞[⊆ D. Die Gerade g(x) = mx + b heißt genau dann eine Asymptote an f f¨ ur x → ∞, wenn limx→∞ (f (x) − g(x)) = 0. Die Funktion f n¨ahert sich also der Gerade g im Unendlichen an. Entsprechend definiert man f¨ ur f : D → R, ] − ∞, a] ⊆ D, eine Asymptote g an f f¨ ur x → −∞ u ¨ber limx→−∞ (f (x) − g(x)) = 0.

15.2. Kurvendiskussion und Extremalprobleme

451

Falls eine Asymptote f¨ ur x → ∞ oder x → −∞ existiert, so ist sie eindeutig: ur z. B. Sind g1 (x) = m1 x + b1 und g2 (x) = m2 x + b2 zwei Asymptoten an f f¨ x → ∞, so gilt:   lim [(m1 −m2 )x+(b1 −b2 )] = lim [g1 (x)−f (x)]−[g2 (x)−f (x)] = 0−0 = 0. x→∞

x→∞

Da der Grenzwert nicht ±∞ ist, muss m1 = m2 sein. Dann ist aber b1 −b2 = 0, die Geraden sind also identisch. Nat¨ urlich k¨onnen sich die Asymptoten f¨ ur x → ∞ und x → −∞ unterscheiden. Beispiel 15.6 a) Man kann das asymptotische Verhalten der gebrochen2 +2x+1 mittels Polynomdivision ablesen: rationalen Funktion f (x) = 3x 2x+3 19

4 f (x) = 23 x − 54 + 2x+3 . Damit verh¨alt sich f f¨ ur sehr große und sehr kleine Werte von x ann¨ahernd wie g(x) = 32 x − 54 . Tats¨ achlich ist g(x) sowohl f¨ ur x → ∞ als auch f¨ ur x → −∞ die Asymptote:

  2 19 3 5 3x + 2x + 1 4 − x− = lim = 0. lim x→±∞ x→±∞ 2x + 3 2x + 3 2 4

b) Die Funktion f (x) = x2 hat keine Asymptoten, denn limx→±∞ [x2 −(mx+ b)] = ∞. Ebenso hat exp(x) f¨ ur x → ∞ keine Asymptote, aber f¨ ur x → −∞ ist die Asymptote g(x) = 0. F¨ ur die Untersuchung einer Funktion kann man sich neben der Analyse des maximalen Definitions- und des zugeh¨origen Wertebereichs, der Nullstellen, der Stetigkeit und der Unstetigkeitsstellen sowie dem Grenzwertverhalten an den in der Tabelle 15.1 zusammengestellten Punkten orientieren. Aus Symmetrien und dem Verhalten im Unendlichen (asymptotisches Verhalten) eines Graphen kann man h¨aufig Maxima, Minima und Wendepunkte allein aus den notwendigen Bedingungen f  (x) = 0 und f  (x) = 0 ermitteln. Zum Beispiel liegt (gem¨aß Zwischenwertsatz f¨ ur stetiges f  ) zwischen Maxi mum (mit f (xM ) < 0) und Minimum (mit f  (xm ) > 0) ein Wendepunkt. Beispiel 15.7 Wir diskutieren die Funktion f (x) = x3 − 2x + 1, f : R → R.

• Maximaler Definitions- und zugeh¨origer Wertebereich sind R, Nullstellen der Funktion: Durch Einsetzen sieht man, dass 1 eine Nullstelle ist. Wir spalten den Linearfaktor (x−1) mittels Polynomdivision ab: (x3 −2x+1) : (x−1) = x2 +x−1. Mit der p-q-Formel erhalten wir die weiteren Nullstellen √

− 12 ± 14 + 1 = −1±2 5 . • Symmetrie: Aufgrund der Lage der Nullstellen ist f weder gerade noch ungerade. • Unstetigkeitsstellen: f ist stetig auf R, es gibt keine Unstetigkeitsstellen. • Lokale Extrema: Zur Bestimmung der Extremstellen berechnen wir zun¨achst die Ableitungen: f  (x) = 3x2 − 2, f (2) (x) = 6x, f (3) (x) = 6, f (k) (x) = 0, k ≥ 4.

452

Kapitel 15. Satz von Taylor, Kurvendiskussion und Extremalprobleme

Tabelle 15.1 Regeln f¨ ur die Kurvendiskussion Charakteristik Definition/Kriterium Symmetrie

f (x) = f (−x): Achsensymmetrie (f gerade) f (x) = −f (−x): Nullpunktsymmetrie (f ungerade)

Lokale notwendig (Satz 13.1): f  (x0 ) = 0 Extremstellen hinreichend (Folgerung 15.3): n gerade und f  (x0 ) = f  (x0 ) = · · · = f (n−1) (x0 ) = 0, f (n) (x0 ) = 0: f (n) (x0 ) < 0 =⇒ f hat lokales Maximum in x0 f (n) (x0 ) > 0 =⇒ f hat lokales Minimum in x0 Monotonie

Folgerung 15.1: f ist monoton steigend, wenn f  (x) ≥ 0 f ist monoton fallend, wenn f  (x) ≤ 0

Wendepunkte notwendig (Folgerung 15.2): f  (x0 ) = 0 hinreichend (Folgerung 15.3): n ungerade und f  (x0 ) = f  (x0 ) = · · · = f (n−1) (x0 ) = 0, f (n) (x0 ) = 0. Kr¨ ummung

Definition 15.1: f  (x) ≥ 0 =⇒ f ist konvex (f  w¨ achst) f  (x) ≤ 0 =⇒ f ist konkav (f  f¨ allt)

Asymptoten

limx→±∞ (f (x) − (mx + b)) = 0

Nullstellen der Ableitung: x2 −

2 3

'# ( # 2 2 (2) f =6 · > 0, 3 3

 = 0, also x = ±

2 3.

' # ( # 2 2 (2) f = −6 · < 0. − 3 3

  An der Stelle − 2/3 hat f ein lokales Maximum und bei 2/3 ein lokales Minimum. • Monotonie: Zwischen den Nullstellen kann f  als stetige Funktion das Vorzeichen wegen des Zwischenwertsatzes nicht ¨ andern. Ausrechnen jeweils ei  nes Funktionswerts zeigt, dass f  (x) > 0 auf ]−∞, − 2/3[und ]2/3, ∞[ und f damit dort streng monoton steigend ist. Auf ] − 2/3, 2/3[ ist f  (x) < 0 und f streng monoton fallend. • Wendepunkte: Die einzige Nullstelle der zweiten Ableitung ist 0. Nur hier kann ein Wendepunkt liegen. Da zwischen dem lokalen Maximum und dem lokalen Minimum ein Wendepunkt liegen muss, liegt er bei 0. Man beachte, ur dass f  (0) = −2 = 0. f  (x0 ) = 0 ist also keine notwendige Bedingung f¨ ur ein lokales Extremum). einen Wendepunkt in x0 (nur f¨ • Kr¨ ummung: Da f (2) (x) < 0, x < 0, und f (2) (x) > 0, x > 0, ist f auf ] − ∞, 0[ rechtsgekr¨ ummt und auf ]0, ∞[ linksgekr¨ ummt.

453

15.2. Kurvendiskussion und Extremalprobleme

• Grenzwerte im Unendlichen: limx→∞ x3 − 2x + 1 = limx→∞ x3 = ∞, limx→−∞ x3 − 2x + 1 = −∞. Damit gibt es insbesondere keine globale Extrema. angig von • Asymptoten: Wegen limx→±∞ x3 −2x+1−mx−b = ±∞ (unabh¨ m und b) existiert keine Gerade als Asymptote f¨ ur x → ∞ oder x → −∞. • Funktionsgraph: Mit den Kenngr¨oßen k¨onnen wir den Funktionsgraphen recht genau skizzieren, siehe Abbildung 15.5.

5 4 3 2 1 0 -1 -2

Abb. 15.5 f (x) = x3 − 2x + 1

-3

-2

-1.5

-1

-0.5

0

0.5

1

1.5

2

Beispiel 15.8 Wir diskutieren die gebrochen-rationale Funktion f (x) =

x x3 =x+ 2 . 2 x −1 x −1

• Maximaler Definitionsbereich und Nullstellen: Die einzige Nullstelle ist offensichtlich 0. D(f ) = R \ {±1}. Den Wertebereich werden wir sp¨ ater ablesen. Mittels Polynomdivision erhalten wir f (x) = x + x2x−1 . 3

3

−(−x) • Symmetrie: Es gilt f (x) = −f (−x), denn es ist x2x−1 = (−x) 2 −1 , d. h., die Funktion ist ungerade bzw. symmetrisch zum Nullpunkt. • Stetigkeit: Unstetigkeitsstellen liegen bei −1 und 1 vor:

x3 = −∞, −1 x3 lim 2 = −∞, x→1− x − 1 lim

x→−1− x2

x3

lim

x→−1+ x2 − 3

lim

1

= +∞,

x = +∞. −1

x→1+ x2

Es handelt sich also um Unstetigkeitsstellen zweiter Art (Pole). Da f auf ] − 1, 1[ stetig ist, ist W (f ) = R. • Lokale Extrema: Wir berechnen zun¨achst die Ableitungen: f  (x) =

3x2 (x2 − 1) − 2x · x3 x4 − 3x2 = (x2 − 1)2 (x2 − 1)2

454

Kapitel 15. Satz von Taylor, Kurvendiskussion und Extremalprobleme

2x3 + 6x (4x3 − 6x)(x2 − 1)2 − 2(x2 − 1)2x(x4 − 3x2 ) = (x2 − 1)4 (x2 − 1)3 2 2x(x + 3) = . (x2 − 1)3

f  (x) =

Die notwendige Bedingung f¨ ur lokale Extrema f¨ uhrt zu f  (x) = 0 ⇐⇒ x4 − 3x2 = 0 ⇐⇒ x2 (x2 − 3) = 0. √ ur lokale Extremstellen. Damit sind x = 0 und x = ± 3 Kandidaten f¨ wir zun¨ a chst noch nicht viel. Es ist Es ist f  (0)√= 0, d. h., hier wissen √ √  √ 3(3+3) 3 3 ist lokales Minimum, und aus > 0, d. h., 3, f  ( 3) = 2 (3−1) 3 2  √ √  Symmetriegr¨ unden ist − 3, −32 3 lokales Maximum. • Monotonie: √ ⎧ > 0, f¨ ur x 0, f¨ ur x > 3. √ √ f ist also streng monoton steigend auf ] − ∞, 3] und√auf [ 3, ∞[. f ist √ streng monoton fallend auf [− 3, −1[, ] − 1, 1[ und ]1, 3]. • Wendepunkte: Aufgrund der notwendigen Bedingung f  (x) = 0 ⇐⇒ 2x(x2 + 3) = 0 ⇐⇒ x = 0 kann nur bei x = 0 ein Wendepunkt vorliegen. Da f  bei 0 einen Vorzeichenwechsel hat, ist dem auch so. • Kr¨ ummung: ⎧ < 0, f¨ ur x < −1, ⎪ ⎪ ⎨ 2 2x(x + 3) > 0, f¨ u r − 1 < x < 0, f  (x) = 2 3 < 0, f¨ u r 0 < x < 1, ⎪ (x − 1) ⎪ ⎩ > 0, f¨ ur x > 1. Damit ist f linksgekr¨ ummt auf ] − 1, 0]∪]1, ∞[ und rechtsgekr¨ ummt auf ] − ∞, −1[∪[0, 1[. 3 3 • Grenzwerte im Unendlichen: limx→∞ x2x−1 = +∞, limx→−∞ x2x−1 = −∞. Wieder gibt es keine globale Extrema. • Asymptoten: Es ist f (x) ≈ x f¨ ur |x| → ∞: lim [f (x) − x] = lim

x→±∞

x→±∞

x = 0. x2 − 1

Weiterhin ist f (x) > x, f¨ ur x → ∞ d. h., der Graph n¨ ahert sich der Asymptote y = x von oben. F¨ ur x → −∞ ist f (x) < x, d. h., der Graph n¨ahert sich der Asymptote y = x von unten. • Funktionsgraph: siehe Abbildung 15.6.

455

15.2. Kurvendiskussion und Extremalprobleme 6

4

2

0

-2

-4

Abb. 15.6 f (x) =

x3 x2 −1

-6

-3

-2

-1

0

1

2

3

Beispiel 15.9 Die ged¨ampfte harmonische Schwingung wird beschrieben durch die Funktion f (t) = e−δt cos(ωt), t ≥ 0, mit δ > 0 und ω > 0. Die Amplitude der Kosinusschwingung wird dabei durch den Faktor e−δt ged¨ampft. Sowohl in der Mechanik als auch in der Elektrotechnik hat man es h¨aufig mit solchen Schwingungen zu tun, so dass wir sie uns sp¨ater in Band 2, Kapitel 8.3, noch wesentlich genauer ansehen. Wir diskutieren einige Eigenschaften des Graphen von f (t) (siehe Abbildung 15.7): • Maximaler Definitionsbereich und Nullstellen: Zun¨ achst gilt D(f ) = [0, ∞[. W (f ) ⊆] − 1, 1]. Die Nullstellen-Bedingung f (t) = 0 liefert  e−δt cos(ωt) = 0 ⇐⇒ cos(ωt) = 0, d. h. ωt = (2k + 1) π2 , k ∈ N0 bzw. t = (2k + 1)

π , 2ω

>0

k ∈ N0 .

Wegen | cos(ωt)| ≤ 1 verl¨auft der Graph von f (t) zwischen den Funktionsgraphen von −e−δt und +e−δt . Insbesondere ist limt→∞ f (t) = 0. Der Graph von f (t) ber¨ uhrt die beiden begrenzenden Graphen f¨ ur cos(ωt) = ±1 ⇐⇒ ωt = 2πk (f¨ ur cos(ωt) = 1) bzw. ωt = 2πk + π (f¨ ur cos(ωt) = −1). • Symmetrie: Der Graph zeigt kein Symmetrieverhalten. • Stetigkeit: f ist auf [0, ∞[ stetig. • Lokale Extrema: F¨ ur die Suche nach Extremstellen leiten wir zun¨ achst ab: f  (t) = −δe−δt cos(ωt) − ωe−δt sin(ωt) = −e−δt [δ cos(ωt) + ω sin(ωt)]. Die notwendige Bedingung f¨ uhrt zu f  (t) = 0 ⇐⇒ δ cos(ωt) + ω sin(ωt) = 0

δ δ ⇐⇒ tan(ωt) = − ⇐⇒ ωt = arctan − + kπ, ω ω

k ∈ N0 ,

456

Kapitel 15. Satz von Taylor, Kurvendiskussion und Extremalprobleme

1 ⇐⇒ t = − arctan ω

δ kπ + , ω ω

k ∈ N0 .

Aufgrund des Schwingungsverhaltens von cos(ωt) ist auf jedem Intervall der L¨ange 2π ω ein lokales Maximum und ein lokales Minimum zu erwarten. Damit liegen hier tats¨achlich abwechselnd lokale Maxima und Minima. Jeweils dazwischen liegt ein Wendepunkt.

1

0.5

0

-0.5

Abb. 15.7 f (t) = e−t cos(2t)

-1

0

1

2

3

4

5

Literaturverzeichnis Gellrich und Gellrich(2003). Gellrich, R. und Gellrich, C.: Mathematik – Ein Lehr- und ¨ Ubungsbuch Band 1–4. Harri Deutsch, Frankfurt a. M, 2003.

Kapitel 16

Potenzreihen In diesem Kapitel fassen wir Funktionen als Grenzwert von Folgen von Funktionen fn (x) auf. Dazu muss gekl¨art werden, was wir unter der Konvergenz einer solchen Folge verstehen wollen. F¨ ur jedes feste Argument x wird aus der Folge von Funktionen eine Folge von Zahlen. Hat man so f¨ ur jedes x aus einem betrachteten Bereich Konvergenz der Zahlenfolge, dann spricht man von punktweiser Konvergenz. Soll aber f¨ ur alle x die gleiche Mindest-Konvergenzgeschwindigkeit“ vorliegen, dann f¨ uhrt das zum Begriff ” der gleichm¨aßigen Konvergenz. Je nach Konvergenzbegriff gelten Rechenregeln f¨ ur Folgen von Funktionen. Der vielleicht wichtigste Spezialfall von Funktionenfolgen sind die Potenzreihen, die aus Taylor-Polynomen entstehen und f¨ ur die wir Konvergenzaussagen herleiten. Insbesondere k¨ onnen wir in die Taylor-Reihe der reellen Exponentialfunktion auch komplexe Zahlen einsetzen und erhalten so die komplexe Exponentialfunktion ex+jy = ex · exp(jy) = ex · (cos(y) + j sin(y)).

16.1 Unendliche Taylor-Summen und Potenzreihen Mit dem Satz von Taylor haben wir Funktionen in Polynome entwickelt, die bis auf ein Restglied mit den Funktionen u onnen ¨bereinstimmten. So k¨ wir z. B. Funktionswerte von exp(x) oder sin(x) bis zu einer vorgegebenen Genauigkeit berechnen. Nun eliminieren wir das Restglied und wollen die Funktionswerte exakt mit einer unendlichen Summe angeben. Das f¨ uhrt zu den Begriffen Taylor-Reihe und Potenzreihe.

© Der/die Autor(en), exklusiv lizenziert an Springer-Verlag GmbH, DE, ein Teil von Springer Nature 2023 S. Goebbels und S. Ritter, Mathematik verstehen und anwenden: Differenzial- und Integralrechnung, Lineare Algebra, https://doi.org/10.1007/978-3-662-68367-5_16

457

458

Kapitel 16. Potenzreihen

Laut Satz von Taylor (Satz 15.1 auf Seite 441 mit m = n) kann man eine (n + 1)-mal (stetig) differenzierbare Funktion f :]a, b[→ R um ein x0 ∈]a, b[ entwickeln als f (x) =

n  f (k) (x0 ) k=0

k!

(x − x0 )k +

(x − x0 )n+1 (n+1) f (ξ), (n + 1)!

wobei ξ eine von n, f , x und x0 abh¨angige Stelle zwischen x und x0 ist. Betrachtet man nun den Fall n → ∞ f¨ ur eine beliebig oft differenzierbare Funktion f , so erh¨alt man die Taylor-Reihe ∞  f (k) (x0 ) k=0

k!

(x − x0 )k .

ur Der wichtige Spezialfall x0 = 0 wird auch MacLaurin-Reihe genannt. F¨ jeden festen Wert in x ist das eine Zahlenreihe. Ob eine Taylor-Reihe an einer Stelle x gegen f (x) konvergiert, h¨angt davon ab, ob die Restglieder n+1 0) (n+1) (ξ) f¨ ur n → ∞ gegen null streben (siehe Rx0 ,n+1,f (x) := (x−x (n+1)! f (15.3) auf Seite 441). Beispiel 16.1 (Wichtige Taylor-Reihen) Wir greifen die Taylor-Entwicklungen aus Beispiel 15.1 von Seite 443 auf: a) Entwickelt um x0 = 0 hat die Funktion f (x) = ex die Taylor- bzw. MacLaurin-Darstellung ex =

n  xk k=0

k!

+ R0,n+1,ex (x)

mit dem Restglied von Lagrange R0,n+1,ex (x) =

eξ xn+1 (n + 1)!

f¨ ur eine Stelle ξ zwischen 0 und x. Wir zeigen nun lim R0,n+1,ex (x) = 0 n→∞ f¨ ur alle x ∈ R. Wegen an+1 :=

|x|n |x| |x|n+1 |x| = · = an · (n + 1)! n! n + 1 n+1

nimmt an+1 monoton ab, sobald n + 1 > |x| ist. Ab n ≥ |x| ist damit (an )∞ n=1 eine monoton fallende Folge nicht-negativer Zahlen, die damit nach dem Monotoniekriterium konvergiert (siehe Seite 259). Mit a := lim an folgt n→∞

459

16.1. Unendliche Taylor-Summen und Potenzreihen

 a = lim an+1 = n→∞



lim an · lim

n→∞

|x| n→∞ n + 1

= a · 0 = 0.

Wegen |ξ| ≤ |x| folgt |R0,n+1,ex (x)| = an+1 eξ ≤ an+1 e|x| , so dass das Restglied f¨ ur n → ∞ gegen null konvergiert. Damit ist die Konvergenz der Exponentialreihe ex = 1 +

 xk x2 x3 x + + + ··· = 1! 2! 3! k! ∞

k=0

f¨ ur jeden Wert x ∈ R bewiesen. Insbesondere ur x = 1 die ∞ 1 erhalten wir f¨ , die wir (siehe (2.7) auf Seite Konvergenz der Reihe e = exp(1) = k=0 k! 58 und (9.3) auf Seite 260) zur Definition von e vorausgesetzt haben. b) Wir haben bereits f (x) = sin(x) an der Stelle x0 = 0 mit dem Satz von Taylor dargestellt als n+1

d sin 1 1 1 1 n+1 (ξ) n+1 x . sin(x) = x − x3 + x5 − x7 ± · · · + dx 1! 3! 5! 7! (n + 1)!

Mit der Folge (an )∞ n=1 aus a) ist auch hier   n+1 d sin   lim |R0,n+1,sin(x) (x)| = lim  (ξ) an+1 ≤ lim an+1 = 0 n→∞ n→∞ dxn+1 n→∞ f¨ ur jedes einzelne x ∈ R. Damit hat der Sinus eine Darstellung als TaylorReihe sin(x) = x −

 x5 x7 x3 x2k+1 + − ± ··· = , (−1)k 3! 5! 7! (2k + 1)! ∞

k=0

Analog erhalten wir eine Taylor-Reihe des Kosinus: ∞  x4 x6 x2 x2k + − ± ··· = , (−1)k cos(x) = 1 − 2! 4! 6! (2k)! k=0

x ∈ R.

x ∈ R.

Beispiel 16.2 (Taylor-Reihen zu geraden und ungeraden Funktionen) Entwickelt man eine beliebig oft differenzierbare, gerade Funktion wie den Kosinus um x0 = 0, so kommen in der Reihe nur Terme mit geraden Potenzen vor: Das liegt daran, dass die Ableitungen abwechselnd ungerade und gerade Funktionen sind (siehe Seite 342). Die Ableitungen mit ungradzahliger Ordnung sind ungerade und haben deshalb an der Stelle 0 den Funktionswert 0, so dass die ungradzahligen Summanden verschwinden. Das gilt auch, wenn eine Funktion mit der Eigenschaft f (x0 − x) = f (x0 + x) (der Graph von f ist an der Gerade x = x0 gespiegelt) an einer von null verschiedenen Stelle x0 entwickelt wird. Sofern das Restglied gegen null strebt, ist

460

Kapitel 16. Potenzreihen

f (x) =

∞  f (2k) (x0 ) k=0

(2k)!

(x − x0 )2k .

Entsprechend treten bei einer ungeraden Funktion wie Sinus in der TaylorReihe zu x0 = 0 oder allgemeiner bei einer zum Punkt x0 symmetrischen Funktion (f (x0 + x) = −f (x0 − x)) in der Taylor-Reihe zu x0 nur ungerade Exponenten auf: f (x) =

∞  f (2k+1) (x0 ) k=0

(2k + 1)!

(x − x0 )2k+1 .

Jede Taylor-Reihe hat mit den speziellen Koeffizienten ak = Gestalt ∞  ak (x − x0 )k .

f (k) (x0 ) k!

die

(16.1)

k=0

Jetzt l¨osen wir uns (zun¨achst) von der konkreten Wahl der Koeffizienten und diskutieren allgemein das Verhalten von Reihen (16.1) mit beliebigen Koeffizienten ak ∈ R. Definition 16.1 (Potenzreihe) Seien x0 ∈ R und die Folge (ak )∞ k=0 reeller Zahlen gegeben. Die von x abh¨angende Reihe (∞ ' n ∞   k k ak (x − x0 ) := ak (x − x0 ) k=0

k=0

n=0

heißt Potenzreihe mit Entwicklungsmittelpunkt x0 und den Koeffizienten ak . ∞ Mit dem Symbol k=0 ak (x − x0 )k bezeichnen wir auch die Grenzfunktion, die f¨ ur die Punkte x erkl¨art ist, in denen die Potenzreihe konvergiert. Man beachte, dass eine Potenzreihe f¨ ur jeden Wert der Variable x eine gew¨ohnliche Zahlenreihe ist und damit alle S¨atze benutzt werden k¨ onnen, die wir f¨ ur Zahlenreihen kennengelernt haben. Andererseits ist jede Partialsumme n Sn (x) := k=0 ak (x − x0 )k eine Funktion, so dass wir eine Potenzreihe auch onnen. als Folge von Funktionen (Sn )∞ n=1 auffassen k¨ Die im Beispiel 10.11 auf Seite 287 beschriebene Z-Transformation ordnet einer Zahlenfolge (ak )∞ k=0 eine Potenzreihe mit Entwicklungsmittelpunkt 0 zu, in die f¨ ur x die komplexe Zahl 1/z eingesetzt wird.

16.2. Einschub: Funktionenfolgen ∗

461

16.2 Einschub: Funktionenfolgen ∗ Dieses Unterkapitel widmet sich der Konvergenz von Folgen, deren Glieder Funktionen sind. Außerdem wird in diesem Zusammenhang die Vertauschung von Grenzwerten diskutiert. Der Inhalt kann ausgelassen werden, ohne dass dadurch das weitere Verst¨andnis deutlich eingeschr¨ ankt wird. Andererseits wird der Begriff der gleichm¨aßigen Konvergenz eingef¨ uhrt, mit dem tiefere Einblicke in Potenz- und Fourier-Reihen m¨oglich werden. Das Nichtvorhandensein von gleichm¨aßiger Konvergenz f¨ uhrt z. B. zu Artefakten in Bildern, ¨ die im JPEG-Format gespeichert werden. Ahnliche Effekte treten in der Signalverarbeitung auf. Definition 16.2 (Funktionenfolge) Ist (fn )∞ n=1 eine Folge, deren Glieder fn = fn (x) reell- (oder komplex-) wertige Funktionen mit gemeinsamen Definitionsbereich D ⊆ R sind, so heißt (fn )∞ n=1 eine Funktionenfolge auf eine Zahlenfolge. D. F¨ ur jedes x0 ∈ D ist (fn (x0 ))∞ n=1 Die Partialsummen einer Potenzreihe bilden also eine Funktionenfolge. Wie bei den Potenzreihen wird sie f¨ ur jeden konkreten Zahlenwert f¨ ur x zu einer Zahlenfolge. Definition 16.3 (Punktweise Konvergenz) Eine auf D definierte Funktionenfolge (fn )∞ n=1 heißt genau dann konvergent im Punkt x0 ∈ D, wenn ∞ ur die Zahlenfolge (fn (x0 ))∞ n=1 konvergent ist. Ist (fn (x0 ))n=1 konvergent f¨ jeden einzelnen Punkt x0 ∈ D, so heißt die Funktionenfolge punktweise konvergent auf D. Dann heißt eine Funktion f mit Definitionsbereich D ur alle x ∈ D die Grenzfunktion von (fn )∞ und f (x) := limn→∞ fn (x) f¨ n=1 . Wir hoffen, dass die Grenzfunktion der Partialsummen einer Potenzreihe genau die Ausgangsfunktion ist, zu der die Potenzreihe u ¨ber Auswertung der Ableitungen berechnet wurde. Dies sehen wir uns im n¨ achsten Abschnitt genauer an. H¨aufig m¨ochte man aus Eigenschaften der Funktionen der Funktionenfolge auf Eigenschaften der Grenzfunktion schließen. Hier reicht in der Regel die punktweise Konvergenz aber nicht aus. Beispiel 16.3 (Klassische Gegenbeispiele) n a) Die Funktionenfolge (fn )∞ n=1 mit fn (x) := x ist auf [0, 1] punktweise konvergent gegen 0, x ∈ [0, 1[, f (x) = (16.2) 1, x = 1.

462

Kapitel 16. Potenzreihen

Obwohl alle fn stetig auf [0, 1] sind, gilt dies f¨ ur die Grenzfunktion nicht. Anders ausgedr¨ uckt: Die beiden folgenden Grenzwerte lassen sich nicht vertauschen:     0 = lim lim fn (x) = lim lim fn (x) = 1. x→1− n→∞

n→∞ x→1−

b) Zur Vertauschbarkeit von Grenzwert der Funktionenfolge und Ableitung betrachten wir die Folge (fn )∞ n=1 , fn (x) =

sin(nx) √ , n

(16.3)

auf R. Diese konvergiert auf ur jedes √ R punktweise gegen f (x) = 0, denn f¨ x ∈ R ist |fn (x)| ≤ 1/ n → 0, n → ∞. Die Folge der Ableitungen √ √ fn (x) = n cos(nx) = n cos(nx) ist jedoch nicht punktweise konvergent n √ auf R. Beispielsweise gilt f¨ ur x0 = 0: limn→∞ fn (0) = limn→∞ n = ∞. Damit ist    d d  fn (x) = lim fn (x) = 0. lim n→∞ dx dx n→∞ c) Mittels zweimaliger Anwendung des Satzes von L’Hospital (siehe Satz 13.8 auf Seite 372) k¨onnen wir die Grenzfunktion der Funktionenfolge (fn )∞ n=1 mit fn (x) := n2 x(1 − x)n auf [0, 1] bestimmen. F¨ ur x ∈]0, 1[ ist y2 y2   = x lim y→∞ (1 − x)−y y→∞ exp y ln

lim y 2 x(1 − x)y = x lim

y→∞



= 2x lim

y→∞

=

 ln

ln

2x 1 1−x

1 1−x



1 1−x



y    1 exp y ln 1−x

lim 2 y→∞

1  = 0.  1 exp y ln 1−x 

Da fn (0) = fn (1) = 0 ist, ist die Grenzfunktion f (x) = 0 f¨ ur x ∈ [0, 1] 91 und 0 f (x) dx = 0. Andererseits erhalten wir jedoch mittels partieller Integration ( ' 1 8 1 8 1 1 (1 − x)n+1 2 n+1 fn (x) dx = n + (1 − x) dx −x n+1 n+1 0 0 0  1 8 1 1 n2 n2 n2 un+2 = . un+1 du = = n+1 0 n+1 n+2 (n + 1)(n + 2) 0

16.2. Einschub: Funktionenfolgen ∗

463

Damit ist aber 8

1

fn (x) dx = lim

lim

n→∞

n→∞ n2

0

n2 = 1 = 0. + 3n + 2

Die Integrale der Folgenglieder konvergieren nicht gegen das Integral der Grenzfunktion: 8 1 8 1  lim fn (x) dx. fn (x) dx = lim n→∞

0

0

n→∞

¨ In der Ingenieurmathematik werden Grenzwerte in der Regel ohne Uberpr¨ ufung der Voraussetzungen vertauscht. Wie wir an den vorangehenden Beispielen sehen, kann das aber ins Auge gehen. Man ben¨ otigt eine st¨ arkere Voraussetzung als die punktweise Konvergenz: Definition 16.4 (Gleichm¨ aßige Konvergenz) Eine Funktionenfolge auf D heißt genau dann gleichm¨ aßig konvergent auf D gegen (fn )∞ n=1 eine Grenzfunktion f , wenn zu jedem (noch so kleinen) ε > 0 ein n0 = n0 (ε) ur alle n > n0 (unabh¨angig von x ∈ D) existiert, so dass |fn (x) − f (x)| < ε f¨ und x ∈ D gilt. Offensichtlich folgt aus der gleichm¨aßigen die punktweise Konvergenz, bei der n0 abh¨angig von x gew¨ahlt werden darf. Gleichm¨aßige Konvergenz ist dazu ¨aquivalent, dass man unabh¨ angig von x eine positive Nullfolge (an )∞ n=1 , limn→∞ an = 0, angeben kann mit |fn (x) − f (x)| < an . Es gibt also unabh¨angig von x eine gewisse Mindestkonvergenzgeschwindigkeit an , mit der sich die Funktionenfolge der Grenzfunktion n¨ahert. Bei punktweiser Konvergenz muss das nicht so sein, hier kann die Konvergenzgeschwindigkeit in Abh¨angigkeit von x beliebig langsam werden. Ein entsprechendes Beispiel sehen wir f¨ ur Fourier-Reihen in Band 2, Kapitel 11.6 (Gibbs-Ph¨anomen). Dort konvergiert eine Fourier-Reihe punktweise, aber nicht gleichm¨aßig. Um die gleichm¨aßige Konvergenz zu illustrieren, betrachten wir eine L¨aufergruppe mit m Joggern x1 , . . . , xm , die gemeinsam einen Marathon bestreitet. F¨ ur die Strecke gibt es kein Zeitlimit. Nach n Sekunden haben uckgelegt. Zu jedem n ∈ N gibt die die Jogger fn (x1 ), . . . , fn (xm ) Meter zur¨ Funktion fn also an, wie weit die Jogger gekommen sind. Wenn keiner vorur 1 ≤ k ≤ m. Als Grenzwert zeitig aufgibt, gilt limn→∞ fn (xk ) = 42,195 f¨ erh¨alt man also f¨ ur jeden L¨aufer die Gesamtdistanz von 42,195 Kilometern. Betrachtet man als Zwischenmarke die Halbmarathondistanz, so gibt es f¨ ur jeden L¨aufer xk ein n0,k , so dass er nach n0,k Sekunden diese Marke u ¨berur n > n0,k . Bilden wir nun das quert hat, d. h. |42 195 − fn (xk )| < 21 097,5 f¨ Maximum n0 u ¨ber die m Werte n0,k , 1 ≤ k ≤ m, so sind nach n0 Sekunden

464

Kapitel 16. Potenzreihen

alle L¨aufer n¨aher am Ziel als die Halbmarathondistanz. W¨ ahlt man einen anaufer n¨ aher als deren Abstand ε zum Ziel, so sind nach einer Zeit n0 (ε) alle L¨ arte Funktioε am Ziel. Die auf dem Definitionsbereich {x1 , x2 , . . . , xm } erkl¨ aßig gegen die konstante Grenzfunktion nenfolge (fn )∞ n=1 konvergiert gleichm¨ f (x) = 42,195. Jetzt vergr¨oßern wir in einem Gedankenexperiment die L¨ aufergruppe zu einer unendlichen Menge {xk : k ∈ N}. Dann kann man nicht mehr wie zuvor das Maximum der Zeiten f¨ ur eine Zwischenmarke bilden. Zwar passiert jeder L¨aufer nach einer endlichen Zeit n0,k eine Marke, aber wenn beispielsweise n0,k = 3600 + k gilt, so passiert der erste L¨aufer x1 die Marke nach gut einer Stunde, aber f¨ ur k → ∞ gehen auch die Zeiten gegen Unendlich, so dass man keinen Zeitpunkt finden kann, nach dem alle L¨ aufer die Zwischenmarke u berquert haben. Auf diesem unendlich großen Definitionsbereich ist die ¨ nun nicht mehr gleichm¨ a ßig konvergent. Funktionenfolge (fn )∞ n=1 sin(nx) ist gleichm¨ aßig Beispiel 16.4 Die Folge (fn )∞ n=1 mit fn (x) := sin(x)+ n konvergent gegen f (x) = sin(x):

|fn (x) − f (x)| =

1 | sin(nx)| ≤ → 0, n → ∞, n n

unabh¨angig von x. alt man durch Bildung von Hat man eine Funktionenfolge (gn )∞ n=1 , so erh¨ n mit f (x) := g (x). Partialsummen eine Funktionenreihe (fn )∞ n n=1 k=1 k Sowohl die Funktionenreihe als auch ihr m¨oglicher Grenzwert werden wie bei ∞ Zahlenreihen und Potenzreihen mit k=1 gk (x) bezeichnet.  Eine Potenzreihe ∞ ist eine Funktionenreihe, die u ¨ber die Funktionenfolge ak (x − x0 )k k=0 gebildet wird. So wie Reihen per Definition nichts anderes als Folgen sind, sind auch Funktionenreihen nichts anderes als Funktionenfolgen. Um die gleichm¨aßige Konvergenz einer Funktionenreihe nachzuweisen, l¨ asst sich das Majorantenkriterium f¨ ur Reihen (siehe Seite 284) u ¨bertragen: Lemma 16.1 (Majorantenkriterium f¨ ur gleichm¨ aßige Konvergenz) n ∞ = ( g ) auf D eine Funktionenreihe |gk (x)| ≤ ak Sei (fn )∞ k n=1 k=1 n=1 mit ∞ f¨ ur alle x ∈ D. Falls nun die Zahlenreihe (Majorante) k=1 ak (absolut) aßig konvergent auf D. konvergent ist, so ist (fn )∞ n=1 gleichm¨ n Beweis F¨ ur jedes x ∈ D hat die Zahlenreihe k=1 gk (x) die angegebene konvergente Majorante und konvergiert damit nach dem Majorantenkriterium f¨ ur Zahlenreihen (Satz 10.7) gegen einen Grenzwert f (x). Damit ist eine Grenzfunktion f (x) f¨ ur jedes x ∈ D erkl¨art, gegen die die Funktionenreihe punktweise konvergiert. Wegen der Konvergenz der Majorante gibt es zu jedem ε > 0 eine Stelle ur n > n0 gilt: n0 ∈ N, so dass f¨

16.2. Einschub: Funktionenfolgen ∗

465

∞  n ∞       a − a ak < ε. =  k k   k=1

k=1

k=n+1

Damit erhalten wir die gleichm¨aßige Konvergenz gegen die Grenzfunktion f , denn unabh¨angig von x ∈ D ist f¨ u r n > n0 :    n   ∞  n ∞               gk (x) − f (x) =  gk (x) − gk (x) =  gk (x)        k=1



k=1 ∞ 

k=n+1

k=1

|gk (x)| ≤

k=n+1

∞ 

ak < ε.

k=n+1

 Beispiel 16.5 Eine Weierstraß-Funktion (siehe Abbildung 16.1) ist definiert als n k  2 sin(2k x). (16.4) f (x) := lim n→∞ 3 k=1

Diese Funktionenreihe ist gleichm¨aßig konvergent gegen die Grenzfunktion f , ∞  k (10.2) 23 = 1− 2 = 2 als geometrische Reihe konverda die Majorante k=1 32 3 giert.













Abb.16.1 Weierstraß-Funk 2 k tion ∞ sin(2k x) k=1 3



















Jetzt zeigen wir, dass sich bei gleichm¨aßiger Konvergenz wichtige Eigenschaften der Folgenglieder auf die Grenzfunktion u ¨bertragen und man tats¨achlich Grenzwerte vertauschen kann.

466

Kapitel 16. Potenzreihen

Satz 16.1 (Stetigkeit der Grenzfunktion) Sei (fn )∞ an=1 eine gleichm¨ ßig konvergente Funktionenfolge auf D, die gegen f konvergiert. Ist jedes fn in einem Punkt x0 ∈ D stetig, so ist auch die Grenzfunktion f stetig in x0 . urfen als Konsequenz die folgenden Ist z. B. x0 innerer Punkt von D, so d¨ Grenzwerte vertauscht werden: =f (x0 )

=f (x0 )         lim lim fn (x) = lim lim fn (x) . x→x0 n→∞ n→∞ x→x0     =f (x)

=fn (x0 )

Die Weierstraß-Funktion (16.4) aus dem vorangehenden Beispiel ist als Grenzfunktion einer gleichm¨aßig konvergenten Reihe stetiger Funktionen stetig. Beweis Wir zeigen die Stetigkeit der Grenzfunktion f , indem wir von f zu einem Glied fn0 +1 der Funktionenfolge u ¨bergehen, das aufgrund der gleichm¨aßigen Konvergenz nah genug bei f liegt. Dann k¨ onnen wir die Stetigkeit von fn0 +1 ausnutzen: Sei ε > 0. Da die Funktionenfolge gleichm¨ aßig konvergent ist, gibt es zu ur n > n0 und alle x ∈ D gilt: |fn (x) − f (x)| < ε/3. ε/3 ein n0 ∈ N, so dass f¨ Insbesondere gilt dies speziell f¨ ur n = n0 + 1. Nach Voraussetzung ist die ur Funktion fn0 +1 stetig in x0 , d. h., zu ε/3 existiert ein δ > 0, so dass f¨ jedes x ∈ D mit |x − x0 | < δ gilt: |fn0 +1 (x0 ) − fn0 +1 (x)| < ε/3. Wir setzen atzungen mittels nun f¨ ur alle x ∈ D mit |x − x0 | < δ die beiden Absch¨ Dreiecksungleichung zusammen: |f (x) − f (x0 )| = |f (x) − fn0 +1 (x) − f (x0 ) + fn0 +1 (x0 ) + fn0 +1 (x) − fn0 +1 (x0 )| ≤ |f (x) − fn0 +1 (x)| + |f (x0 ) − fn0 +1 (x0 )| + |fn0 +1 (x) − fn0 +1 (x0 )| ε ≤ 3 · = ε. 3 Damit ist f stetig auf D.



n Die Folge (fn )∞ n=1 mit stetigen Gliedern fn (x) := x aus dem obigen Beispiel konvergiert gegen eine unstetige Grenzfunktion (16.2) und kann daher nicht gleichm¨aßig konvergent sein. Mit der Folge xn = 1 − n1 erhalten wir unter Verwendung des Grenzwerts (13.8) von Seite 374: n

1 (13.8) −1 = e . lim |fn (xn ) − f (xn )| = lim xnn = lim 1 − n→∞ n→∞ n→∞ n

16.2. Einschub: Funktionenfolgen ∗

467

Es gibt also keine Nullfolge (an )∞ ur die |fn (x) − f (x)| < an unabh¨ angig n=1 , f¨ von x gilt. Satz 16.2 (Differenzierbarkeit der Grenzfunktion) Sei (fn )∞ n=1 eine auf [a, b] gleichm¨aßig gegen f konvergente Funktionenfolge stetig differenzierbarer Funktionen. Außerdem sei die Folge (fn )∞ n=1 ebenfalls auf [a, b] gleichm¨aßig konvergent gegen eine Funktion g. Dann ist f stetig differenur alle x ∈ [a, b] gilt also: zierbar mit f  = g. F¨ d d lim fn (x) = lim fn (x). n→∞ dx dx n→∞ Beweis Wir zeigen f  = g mit der Definition der Ableitung. Sei dazu ε > 0 ussen zeigen, dass es ein δ = δ(ε, x0 ) gibt, beliebig und x0 ∈ [a, b] fest. Wir m¨ so dass     f (x0 + h) − f (x0 )   − g(x ) (16.5) 0 ≤ε  h f¨ ur jedes h = 0 mit |h| < δ und x0 + h ∈ [a, b] gilt. Zun¨achst w¨ahlen wir das δ mittels der Stetigkeit von g: Nach Voraussetzung sind die Funktionen fn stetig, so dass auch die Grenzfunktion g auf [a, b] nach Satz 16.1 stetig ist. Damit existiert ein δ > 0, so dass |g(x) − g(x0 )| < ε/4

(16.6)

f¨ ur alle x ∈ [a, b] mit |x0 − x| < δ ist. Wir zeigen jetzt, dass (16.5) nun f¨ ur jedes h = 0 mit x0 + h ∈ [a, b] und |h| kleiner als das soeben gew¨ahlte δ gilt. Dazu nutzen wir die Definitionen aller Voraussetzungen aus und schachteln sie mittels Dreiecksungleichung zusammen, so wie wir es auch im vorangehenden Beweis getan haben. Wegen der gleichm¨aßigen Konvergenz der Folge (fn )∞ n=1 existiert ein n1 = n1 (ε, h) ∈ N, so dass f¨ ur n > n1 und alle x ∈ [a, b]: ε |fn (x) − f (x)| < |h| · . 4

(16.7)

Zu verschiedenen Werten f¨ ur h erh¨alt man eventuell auch verschiedene n1 . Das ist aber kein Problem. Wegen der gleichm¨aßigen Konvergenz der Folge (fn )∞ n=1 existiert ein n2 = ur n > n2 und alle x ∈ [a, b]: n2 (ε) ∈ N, so dass f¨ |fn (x) − g(x)| < ε/4.

(16.8)

Sei n > n0 = n0 (ε, h) := max{n1 (ε, h), n2 (ε)}. Wegen des Mittelwertsatzes (siehe Seite 361) existiert ein ξn zwischen x0 und x0 + h (das von x0 , h und fn abh¨angt) mit

468

Kapitel 16. Potenzreihen

fn (x0 + h) − fn (x0 ) = fn (ξn ). (16.9) h Damit haben wir alle Voraussetzungen ausgenutzt und setzen sie nun zusammen, um (16.5) zu erhalten:    f (x0 + h) − f (x0 )   − g(x0 )  h  f (x + h) − f (x + h) + f (x + h) − f (x ) + f (x ) − f (x )  0 n 0 n 0 n 0 n 0 0 = h   − g(x0 ) + fn (ξn ) − fn (ξn ) − g(ξn ) + g(ξn )       f (x0 + h) − fn (x0 + h)   fn (x0 + h) − fn (x0 )     + − fn (ξn ) ≤  h h    fn (x0 ) − f (x0 )   + |fn (ξn ) − g(ξn )| + |g(ξn ) − g(x0 )| +   h   (16.7) ε  fn (x0 + h) − fn (x0 )    + − fn (ξn ) ≤ 4  h ε + + |fn (ξn ) − g(ξn )| + |g(ξn ) − g(x0 )| 4 (16.8) 3 (16.6) (16.9) ε +|fn (ξn ) − g(ξn )|+|g(ξn ) − g(x0 )| ≤ ε+|g(ξn ) − g(x0 )| ≤ ε. = 2 4  Die Voraussetzungen des Satzes k¨onnen abgeschw¨ acht werden. Statt der gleichm¨aßigen Konvergenz von (fn )∞ n=1 ist nur die Konvergenz in einem Punkt x0 ∈ [a, b] erforderlich. Ben¨otigt man nicht die Stetigkeit von f  , so gen¨ ugt die Differenzierbarkeit der fn , die stetige Differenzierbarkeit muss nicht vorausgesetzt werden. Bei abgeschw¨achten Voraussetzungen gestaltet sich der Beweis entsprechend aufw¨andiger. Man muss aber weiterhin eine Bedingung wie die der gleichm¨ aßigen Konvergenz an die Folge der Ableitungen stellen. Im Beispiel (16.3) war eine Vertauschung von Folgengrenzwert und Ableitung nicht m¨ oglich. Die Folge sin(nx) √ konvergiert zwar punktweise und sogar gleichm¨ aßig gegen fn (x) = n f (x) = 0, aber die Folge der Ableitungen ist divergent. 2 Beispiel 16.6 Die Folge (fn )∞ n=1 mit fn (x) := x + 2 konvergent gegen f (x) = x :

|fn (x) − f (x)| =

sin(nx) n2

ist gleichm¨ aßig

| sin(nx)| 1 ≤ 2 → 0, n → ∞, n2 n

unabh¨angig von x. Die Folge der Ableitungen konvergiert gleichm¨ aßig gegen g(x) := 2x:

16.2. Einschub: Funktionenfolgen ∗

|fn (x)

469

   | cos(nx)|  1 cos(nx)  − 2x = ≤ → 0, n → ∞. − g(x)| = 2x + n n n

Tats¨achlich ist

d dx

[limn→∞ fn (x)] = f  (x) = 2x = g(x) = limn→∞ fn (x).

Es ist bekannt, dass die stetige Weierstraß-Funktion (16.4) an keiner einzigen Stelle differenzierbar ist. Damit kann die Reihe der Ableitungen ∞ k  2

3

k=1

2k cos(2k x)

nicht gleichm¨aßig konvergent sein. F¨ ur x = 0 haben wir tats¨ achlich sogar die ∞  4 k divergente Zahlenreihe k=1 3 . ¨ Ahnlich zur Ableitung verh¨alt sich die Integration: Satz 16.3 (Integrierbarkeit der Grenzfunktion) Sei (fn )∞ n=1 eine gleichm¨aßig konvergente Funktionenfolge auf [a, b], die gegen f konvergiert. Falls jedes fn integrierbar auf [a, b] ist, so ist auch f integrierbar auf [a, b], und es gilt: 8

b

fn (x) dx =

lim

n→∞

8

b a

a



8  lim fn (x) dx =

n→∞

b

f (x) dx. a

Beweis Wir beweisen zun¨achst die Integrierbarkeit der Grenzfunktion f , indem wir zeigen, dass das Ober- mit dem Unterintegral u ¨bereinstimmt. Das schaffen wir, indem wir mittels der gleichm¨aßigen Konvergenz in den Unterund Obersummen f durch ein fn ersetzen. aßig gegen f Sei ε > 0 beliebig und im Folgenden fest. Da (fn )∞ n=1 gleichm¨ ur alle n > n0 und konvergiert, existiert zu diesem ε > 0 ein n0 ∈ N, so dass f¨ x ∈ [a, b] gilt: (16.10) |f (x) − fn (x)| < ε. Da ein solches fn als integrierbare Funktion beschr¨ ankt ist, gilt dies wegen (16.10) auch f¨ ur f . Wir k¨onnen also Ober- und Untersummen von f betrachten. Sei Z = (x0 , x1 , . . . , xm ) eine Zerlegung von [a, b] und Z die Menge aller Zerlegungen von [a, b]. F¨ ur die Obersumme SZ (f ) von f zur Zerlegung Z gilt f¨ u r n > n0 :   m  SZ (f ) = sup f (x) (xk − xk−1 ) =

k=1 x∈[xk−1 ,xk ]  m 

sup

k=1

x∈[xk−1 ,xk ]



(f (x) − fn (x) + fn (x)) (xk − xk−1 )

470

Kapitel 16. Potenzreihen



m 



 sup

k=1 x∈[xk−1 ,xk ]  m (16.10) 



= =

ε+

(|f (x) − fn (x)| + fn (x)) (xk − xk−1 ) 

fn (x) (xk − xk−1 )

sup

x∈[xk−1 ,xk ]

k=1

(b − a)ε +

m 





k=1

sup x∈[xk−1 ,xk ]

fn (x) (xk − xk−1 )

(b − a)ε + SZ (fn ).

Analog gilt f¨ ur die Untersumme sZ (f ) von f zur Zerlegung Z: sZ (f )

= ≥ (16.10)



m   k=1 m   k=1

 inf

f (x) (xk − xk−1 )

inf

 (fn (x) − |fn (x) − f (x)|) (xk − xk−1 )

x∈[xk−1 ,xk ]

x∈[xk−1 ,xk ]

−(b − a)ε + sZ (fn ).

Damit erhalten wir f¨ ur das Ober- und Unterintegral: I(f ) = inf SZ (f ) ≤ (b − a)ε + inf SZ (fn ) = (b − a)ε + I(fn ), Z∈Z

Z∈Z

(16.11)

I(f ) = sup sZ (f ) ≥ −(b − a)ε + sup sZ (fn ) = −(b − a)ε + I(fn ). (16.12) Z∈Z

Z∈Z

Also ist |I(f ) − I(f )| = I(f ) − I(f ) ≤ 2(b − a)ε + I(fn ) − I(fn ) = 2(b − a)ε, da fn integrierbar ist, so dass I(fn ) = I(fn ). Da zu Beginn ε > 0 beliebig gew¨ahlt wurde, gilt I(f ) = I(f ), d. h., auch f ist integrierbar. Jetzt m¨ ussen wir nur noch nachrechnen, dass das Integral der Grenzfunktion mit dem Grenzwert der Integrale der fn u ¨bereinstimmt: 8

8

b

f (x) dx −

a

8

a

b

fn (x) dx −

b a

8

fn (x) dx = I(f ) − I(fn ) b a

f (x) dx = I(fn ) − I(f )

(16.11)



(16.12)



(b − a)ε, (b − a)ε.

Es ist also f¨ ur n > n0 : 8  8 b  b    f (x) dx − fn (x) dx ≤ (b − a)ε.   a  a

471

16.3. Konvergenz von Potenzreihen

Da so f¨ ur jedes ε > 0 verfahren werden kann, ist damit limn→∞ 9b f (x) dx gezeigt. a

9b a

fn (x) dx = 

Bei gleichm¨aßiger Konvergenz kann also die Integration mit der Bestimmung des Grenzwerts vertauscht werden. Der Satz von Arzela (1847–1912), Osgood (1864–1943) und Lebesgue (1875–1941) besagt sogar dar¨ uber hinaus, dass man die beiden Grenzwerte auch ohne gleichm¨ aßige Konvergenz bei nur punktweiser Konvergenz vertauschen darf. Allerdings m¨ ussen dazu alle Funktionen der Folge mit der gleichen Konstante beschr¨ ankt sein, und die Grenzfunktion muss integrierbar sein. Im zuvor betrachteten Beispiel fn (x) := n2 x(1−x)n haben wir punktweise Konvergenz auf [0, 1] gegen f (x) = 0. Aber eine Vertauschung des Grenzwerts mit dem Integral war nicht m¨oglich, obwohl jedes einzelne fn und auch f integrierbar ist. Folglich kann weder gleichm¨aßige Konvergenz vorliegen noch k¨onnen alle Funktionen der Folge mit der gleichen Konstante beschr¨ ankt sein. 1 in fn eingesetzt wird und man Dass dem so ist, sieht man, wenn xn = n+1 wieder die Darstellung (9.8) von e verwendet (siehe Seite 262): n2 |fn (xn ) − f (xn )| = fn (xn ) = n+1



n n+1

n

−n

1 n2 1+ = →∞ n+1 n     →∞

→e−1

f¨ ur n → ∞.

16.3 Konvergenz von Potenzreihen

Satz 16.4 (Konvergenzradius) Jede Potenzreihe erf¨ ullt genau eine der drei folgenden Bedingungen:

∞

k=0

ak (x − x0 )k

a) Die Potenzreihe konvergiert nur in x0 , d. h. nur auf [x0 − , x0 + ] mit  = 0. b) Die Potenzreihe konvergiert (absolut) auf ]x0 − , x0 + [ und divergiert ur ein 0 <  < ∞. f¨ ur jedes x ∈ [x0 − , x0 + ] f¨ ur c) Die Potenzreihe konvergiert (absolut) auf R, d. h. auf ]x0 − , x0 + [ f¨ ”  = ∞“. Der damit eindeutig bestimmte Wert  heißt Konvergenzradius der Potenzreihe. Jetzt wird verst¨andlich, warum x0 Entwicklungsmittelpunkt heißt, x0 liegt in der Mitte des Konvergenzintervalls. Bei b) wird keine Aussage u ¨ber das Konachlich kann hier abh¨ angig vergenzverhalten in x0 − und x0 + gemacht. Tats¨

472

Kapitel 16. Potenzreihen

von der Reihe Konvergenz oder Divergenz in jeder denkbaren Kombination vorliegen. Der Beweis des Satzes geschieht u ¨ber einen Vergleich mit der konvergenten geometrischen Reihe unter Ausnutzung der Vollst¨ andigkeit der reellen Zahlen. Dazu ben¨otigen wir den folgenden Hilfssatz: Lemma ur eine Potenzrei∞ 16.2 (Punktweise absolute Konvergenz) F¨ ur einen Punkt x1 = x0 he k=0 ak (x − x0 )k gilt: Falls die Potenzreihe f¨ konvergiert, so konvergiert die Reihe absolut f¨ ur jedes x ∈ R mit |x − x0 | < ∞ k ur diese Punkte x ist |x1 − x0 |. Das heißt, f¨ k=0 |ak (x − x0 ) | konvergent ∞ k (und damit insbesondere auch k=0 ak (x − x0 ) , siehe Satz 10.5 auf Seite 281). ∞ Beweis Da k=0 ak (x1 −x0 )k konvergiert, ist limk→∞ ak (x1 −x0 )k = 0 notankte wendigerweise erf¨ ullt. Die Folge (ak (x1 − x0 )k )∞ k=0 ist damit eine beschr¨ ur ein M ∈ R. Sei x ein Punkt, in dem die FunktioFolge: |ak (x1 −x0 )k | ≤ M f¨ nenreihe nach Aussage des Lemmas konvergieren soll, d. h. |x−x0 | < |x1 −x0 |. Dann ist q := |x − x0 |/|x1 − x0 | < 1 und    x − x 0 k |ak (x1 − x0 )k ||(x − x0 )k |   ≤ M q k . (16.13) ≤M |ak (x − x0 ) | = |(x1 − x0 )k | x1 − x0  ∞ ur q < 1 konDa die geometrische Reihe k=0 q k nach (10.1) auf Seite 275 f¨ vergent ist, folgt die absolute Konvergenz im Punkt x mit dem Vergleichskriterium f¨ ur Zahlenfolgen (Seite 284).  k

Wegen Lemma 16.1 folgt f¨ ur 0 < p < 1 aus diesem Beweis sogar die gleichm¨aßige Konvergenz (siehe Definition 16.4) der Potenzreihe auf [x0 − p · |x1 − ur alle Werte x aus diesem Intervall die Absch¨ atx0 |, x0 +p·|x1 −x0 |], da wir f¨ onnen zu |ak (x − x0 )k | ≤ zung (16.13) mit |x − x0 | ≤ p|x1 − x0 | modifizieren k¨ M pk . Beweis (zu Satz 16.4) Sei 7  := sup |x − x0 | : Es gibt ein x ∈ R, so dass

∞  k=0

> k

ak (x − x0 ) konvergiert.

der Kandidat f¨ ur den Konvergenzradius, sofern das Supremum existiert.  ist dann der kleinste Wert, so dass alle Punkte x, in denen die Reihe konvergiert, ur x = x0 konvergent ist, ist 0 in in [x0 − , x0 + ] liegen. Da die Potenzreihe f¨ der betrachteten Menge enthalten, die damit nicht-leer ist. Ist sie nach oben beschr¨ankt, folgt mit dem Vollst¨andigkeitsaxiom der reellen Zahlen (siehe Seite 55) die Existenz des Supremums . Anderenfalls setzen wir  = ∞.

473

16.3. Konvergenz von Potenzreihen

Damit ist  wohldefiniert. In Abh¨angigkeit von  erhalten wir genau einen der drei folgenden F¨alle: a) Ist  = 0, so konvergiert die Potenzreihe nur in x = x0 . b) Ist 0 <  < ∞, so existiert ∞zu jedem 0 < δ <  ein x1 ∈ [x0 − , x0 + ] mit are  keine |x1 − x0 | >  − δ, und k=0 ak (x1 − x0 )k konvergiert (sonst w¨ kleinste obere Schranke, da auch  − δ eine obere Schranke w¨ are). Nach Lemma 16.2 konvergiert die Potenzreihe damit aber auf ]x0 −  + δ, x0 +  − δ[ absolut. Da δ > 0 beliebig gew¨ahlt werden kann, ist die Potenzreihe absolut konvergent auf ]x0 − , x0 + [. Nach Konstruktion des Supremums divergiert sie f¨ ur jedes x außerhalb von [x0 − , x0 + ]. c) Ist  = ∞, so folgt mit einem ¨ahnlichen Argument wie zu b) die Konvergenz der Potenzreihe auf R.  Auf jedem abgeschlossenen Intervall [a, b] ⊂]x0 − , x0 + [ konvergiert eine Potenzreihe sogar gleichm¨aßig. Das ergibt sich aus der Bemerkung zur gleichm¨aßigen Konvergenz zu Lemma 16.2. Eine Anwendung des Wurzel- bzw. Quotientenkriteriums f¨ ur Zahlenreihen liefert den folgenden Satz, mit dem der Konvergenzradius ausgerechnet werden kann. Diese beiden Kriterien eignen sich deshalb besonders gut, da die Summanden Faktoren (x − x0 )k aufweisen, so dass bei Anwendung der beiden Kriterien nur die Konstante |x − x0 | u ¨brig bleibt. Hat man es zudem wie in der Taylor-Entwicklung mit Fakult¨aten zu tun, so k¨ urzen diese sich in der Regel bei Anwendung des Quotientenkriteriums weg. Aber auch das Wurzelkriterium l¨asst sich dann in Verbindung mit der Stirling’schen Formel (14.22) von Seite 423 einsetzen. Satz 16.5 (Formel von Cauchy und Hadamard, Hadamard (1865– ∞ 1963)) Sei k=0 ak (x − x0 )k eine Potenzreihe mit Konvergenzradius . Weiter existiere mindestens einer der beiden Grenzwerte r1 := lim |ak |1/k , k→∞

oder

   ak+1   , r2 := lim  k→∞ ak 

wobei auch r1 = ∞ oder r2 = ∞ zugelassen sei. In diesem Sinne sei r = r1 oder r = r2 ein existierender Grenzwert. Dann gilt: a) Ist r = ∞, so ist  = 0. b) Ist 0 < r < ∞, so ist  = 1r . c) Ist r = 0, so ist  = ∞. Wir beweisen hier nur die Aussage f¨ ur den ersten Grenzwert r = r1 = limk→∞ |ak |1/k mit dem Wurzelkriterium. Analog zeigt man den Konver-

474

Kapitel 16. Potenzreihen

    genzradius f¨ ur den zweiten Grenzwert r = r2 = limk→∞  aak+1  mit dem k Quotientenkriterium, siehe Aufgabe 17.46. Beweis a) Falls r = ∞ ist, gilt f¨ ur x = x0 :

 1/k = |x − x0 | lim |ak |1/k = ∞. lim ak (x − x0 )k  k→∞ k→∞   =r=∞

Damit ist aber (ak (x−x0 )k )∞ ur k=0 keine Nullfolge, so dass die Potenzreihe f¨ ur x = x0 offensichtlich konvergent. jedes x = x0 divergent ist. Sie ist nur f¨ Daher ist  = 0. b) Sei 0 < r < ∞ und x ∈ R mit |x − x0 | < 1r . Dann ist  1/k = r · |x − x0 | < 1. lim ak (x − x0 )k 

k→∞

Damit ist die Potenzreihe nach dem Wurzelkriterium (Satz 10.10 auf Seite 291) f¨ ur Reihen an der Stelle x (absolut) konvergent. Da f¨ ur |x − x0 | > 1r gilt:  1/k = r · |x − x0 | > 1, lim ak (x − x0 )k  k→∞

ist die Potenzreihe f¨ ur dieses x aufgrund des Wurzelkriteriums divergent. c) Ist r = 0, dann gilt f¨ ur alle x ∈ R:  1/k = r · |x − x0 | = 0, lim ak (x − x0 )k 

k→∞

so dass die Potenzreihe gem¨aß des Wurzelkriteriums f¨ ur jedes x konvergiert.  Beispiel 16.7 a) In Beispiel 16.1 auf Seite 458 haben wir bereits nachgerechnet, dass die Taylor-Reihen der Exponential-, der Sinus- und der Kosinus-Funktion f¨ ur jeden Wert x ∈ R konvergieren. Damit ist ihr Konvergenzradius jeweils  = ∞. Beispielsweise hat die Exponentialrei∞ k 1 1 , ak+1 = (k+1)! , und wir erhalten he k=0 xk! die Koeffizienten ak = k!    ak+1  k! 1 r := lim  ak  = lim (k+1)! = lim k+1 = 0. Also folgt auch mit Satz k→∞

k→∞

k→∞

16.5, dass  = ∞ ist. ∞ ur alle b) F¨ ur die geometrische Reihe k=0 xk = 1 + x + x2 + . . . gilt ak = 1 f¨ k ∈ N0 , und wir erhalten sowohl    √  ak+1    = lim 1 = 1 als auch lim k |ak | = lim k 1 = 1 lim k→∞  ak  k→∞ k→∞ k→∞ und damit als Kehrwert den Konvergenzradius  = 1. Das stimmt mit unserem Wissen u ¨ber die geometrische Reihe u ¨berein (vgl. Seite 275).

475

16.4. Differenziation und Integration von Potenzreihen

∞ • x = 1: k=0 1 = ∞ ist bestimmt divergent. • x = −1: Die Partialsummen haben die Folgenh¨ aufungspunkte 0 und 1 und sind damit divergent. ∞  xk x2 = x2 + 4·2 + . . . gilt ak = 2k1·k f¨ ur alle k, so c) F¨ ur die Potenzreihe 2k ·k k=1

dass      1  ak+1   1 k 2k · k =  = lim  lim = . r := lim    k+1 k→∞ k→∞ 2 ak · (k + 1)  2 k→∞ k + 1 2 Damit ist  = 2, und die Reihe konvergiert f¨ ur x ∈] − 2, 2[ absolut und divergiert f¨ ur |x| > 2. ∞ ∞ k • F¨ ur x = 2 ist k=1 2xk ·k = k=1 k1 divergent (harmonische Reihe). ∞ (−1)k ∞ x k konvergent (alternierende • F¨ ur x = −2 ist k=1 2k ·k = k=1 k harmonische Reihe). Die Reihe konvergiert also genau f¨ ur x ∈ [−2, 2[. ∞ k 2 3 4 d) F¨ ur die Reihe k=1 (−1)k−1 · xk = x− x2 + x3 − x4 +− . . . ist ak = (−1)k−1 · ak+1 k 1 1 k k k , ak+1 = (−1) · k+1 , d. h. ak = − k+1 und weiter r := lim k+1 = 1, k→∞

 = 1r = 1. Die Reihe konvergiert f¨ ur |x| < 1 absolut und divergiert f¨ ur |x| > 1. In den Randpunkten gilt:

• x = 1: 1 − 12 + 13 − 14 + − . . . ist als negative alternierende harmonische Reihe konvergent nach dem Leibniz-Kriterium. • x = −1: −1 − 12 − 31 − 14 − . . . ist als negative harmonische Reihe divergent. ∞ e) F¨ ur die Reihe k=1 (kx)k = x + (2x)2 + (3x)3 + · · · = x + 4x2 + 27x3 + . . .  k k mit ak = k folgt |ak | = k und weiter r := lim k = ∞. Wegen  = 0 k→∞

ist die Reihe divergent f¨ ur alle x = x0 = 0. ak = ak−2 +ak−1 f¨ ur k ≥ 2 f) Zur Folge der Fibonacci-Zahlen a0 = 0, a1 = 1, ∞ k a x . Da der Grenzwert von Seite 265 bilden wir eine Potenzreihe k k=0 √ a = Φ = 1+2 5 der goldene Schnitt ist, ist der Konvergenzradilimk→∞ ak+1 k us der Kehrwert des goldenen Schnitts:  = Φ1 . Mittels dieser Potenzreihe kann man die Binet-Formel herleiten, die eine explizite Darstellung der ak ohne Rekursion liefert. Wir werden diese Formel auf Seite 630 mit Mitteln der Linearen Algebra beweisen, f¨ ur den Potenzreihenansatz verweisen wir auf [Heuser(2009), S. 378] in Verbindung mit Aufgabe 17.49 d).

16.4 Differenziation und Integration von Potenzreihen Im n¨achsten Abschnitt werden wir uns intensiver mit dem Zusammenhang zwischen Potenzreihen und Taylor-Reihen besch¨ aftigen. Dazu werden wir die

476

Kapitel 16. Potenzreihen

Taylor-Reihe der Grenzfunktion einer Potenzreihe berechnen. Wir ben¨ otigen dazu alle Ableitungen dieser Grenzfunktion. Hier sehen wir, wie man diese berechnen kann: Satz 16.6 (Gliedweise Ableitung) Ist f (x) die Grenzfunktion einer ∞ Potenzreihe k=0 ak (x − x0 )k mit Konvergenzradius  > 0, so ist f auf ]x0 − , x0 + [ beliebig oft differenzierbar. Die Ableitungen sind als Potenzreihen mit gleichem Konvergenzradius  entwickelbar. Es darf gliedweise differenziert werden, z. B. f  (x) =

∞  k=1

kak (x − x0 )k−1 .

∞ Beweis (Skizze) Sofern man den Konvergenzradius von k=0 ak (x − x0 )k mit dem Grenzwert aus der Formel von Cauchy-Hadamard (Satz 16.5) ermitteln kann, erh¨alt man so auch den Konvergenzradius der gliedweise differenzierten Potenzreihe. Ist z. B. 0 <  < ∞, so gilt wie zuvor mit dem Satz von L’Hospital (Seite 372):

1 k

lim |kak | = lim exp

k→∞

k→∞

ln(k) k





1 k

lim |ak | = exp

k→∞

lim

k→∞

1 k



1

1 1 = .  

Damit sind beide Reihen gleichm¨aßig konvergente Funktionenfolgen auf jedem Intervall [a, b] innerhalb des gemeinsamen Konvergenzbereiches. Die Voraussetzungen von Satz 16.2 sind erf¨ ullt, so dass einmal gliedweise differenziert werden darf. Nun kann man das Argument sukzessive wiederholen, um auch die Aussage f¨ ur h¨ohere Ableitungen zu erhalten.  Beispiel 16.8 Um zur Potenzreihendarstellung der Exponentialfunktion zu gelangen, haben wir bereits u ugt. H¨ atten wir exp ¨ber ihre Ableitungen verf¨ direkt u ¨ber die Potenzreihe definiert, so h¨atten wir durch gliedweises Differenzieren nun auch die Ableitungen:  d xk  kxk−1  xk−1  xk d  xk d x e = = = = = = ex . dx dx k! dx k! k! (k − 1)! k! k=0 k=0 k=1 k=1 k=0 (16.14) ∞









Beispiel 16.9 Der Sinus Cardinalis sinc(x) ist die an der Stelle x = 0 stetig (siehe Seite 312). Mit der Potenzmit dem Wert 1 erg¨anzte Funktion sin(x) x reihe des Sinus erhalten wir f¨ ur x = 0 die Darstellung  1 x2k+1 x2k = . (−1)k (−1)k sinc(x) = x (2k + 1)! (2k + 1)! ∞



k=0

k=0

16.5. Der Zusammenhang zwischen Potenzreihen und Taylor-Reihen

477

Da die Potenzreihe des Sinus auf R konvergiert, konvergiert auch diese Reihe f¨ ur alle x = 0. Die Konvergenz am Entwicklungsmittelpunkt x = 0 gegen 1 ist offensichtlich. Damit haben wir wieder eine Potenzreihe mit  = ∞. Die Grenzfunktion ist nicht nur stetig auf R, sondern sogar beliebig oft differenzierbar. Jetzt wissen wir also, dass der Sinus Cardinalis unendlich oft differenzierbar auf R ist. Da die Reihe insbesondere f¨ ur den Entwicklungsmittelpunkt 0 den Wert 1 sin(x) hat, erhalten wir u ¨ber die Potenzreihe den Grenzwert limx→0 x = 1 ohne ¨ die geometrischen Uberlegungen von Seite 302. Nachdem wir gesehen haben, dass Potenzreihen gliedweise differenzierbar sind, stellt sich nun die Frage nach gliedweiser Integration. Diese l¨ asst sich aber aufgrund der gleichm¨aßigen Konvergenz der Potenzreihen sofort mit Satz 16.3 beantworten: Innerhalb des Konvergenzbereichs einer Potenzreihe darf man gliedweise integrieren. Beispiel 16.10 8

8

1

exp(x) dx = 0

∞ 1 0 k=0

=

∞  k=0

 xk dx = k!

1 = (k + 1)!



k=0 ∞ 

k=1

8

1 0

1 ∞   xk+1 xk dx = k! (k + 1)! 0 k=0 ∞

1  1 1 =− + = −1 + e. k! 0! k! k=0

16.5 Der Zusammenhang zwischen Potenzreihen und Taylor-Reihen Wir sind zu Potenzreihen gelangt, indem wir allgemeine Koeffizienten f¨ ur Taylor-Reihen betrachtet haben (siehe Seite 460). Insbesondere ist damit jede Taylor-Reihe eine ∞Potenzreihe. Unklar ist an dieser Stelle noch, ob auch jede Potenzreihe k=0 ak (x − x0 )k eine Taylor-Reihe ist, d. h., ob sich ihre (k)

Koeffizienten darstellen lassen als ak = f k!(x0 ) mit den Ableitungen einer an einer Stelle x0 beliebig oft differenzierbaren Funktion f , z. B. der Grenzfunktion der Reihe. Dazu betrachten wir eine auf ]x0 − , x0 + [ konvergente Potenzreihe mit Konvergenzradius  > 0 und Grenzfunktion f . Durch Einset(0) zen von x0 in die Potenzreihe erh¨alt man sofort a0 = f (x0 ) = f 0!(x0 ) . Nach Satz 16.6 ist  die Grenzfunktion f beliebig oft differenzierbar auf ]x0 −, x0 +[ ∞ mit f  (x) = k=1 kak (x − x0 )k−1 . Damit ist f  (x0 ) = a1 . Gliedweises Ableiuhrt zu f  (x0 ) = 2!·a2 . Entsprechend erh¨ alt man ten der Potenzreihe von f  f¨ durch fortgesetztes Ableiten f (k) (x0 ) = k! · ak . Damit haben wir gezeigt:

478

Kapitel 16. Potenzreihen

Jede Potenzreihe mit Konvergenzradius  > 0 ist die Taylor-Reihe ihrer Grenzfunktion. Eine Potenzreihe konvergiert auf ]x0 − , x0 + [ gegen genau eine Grenzfunktion, und ihre Koeffizienten ergeben sich aus den Ableitungen dieser Grenzfunktion an der Stelle x0 . Wenn man umgekehrt mit einer Funktion f beginnt und dazu an der Stelle x0 die Taylor-Reihe berechnet, dann konvergiert diese Potenzreihe innerhalb ihres Konvergenzintervalls gegen eine Grenzfunktion g. Insbesondere wissen wir jetzt, dass alle Ableitungen von f und g an der Stelle x0 u ¨bereinstimmen. Heißt das aber auch, dass f und g im Konvergenzintervall gleich sind? Im Allgemeinen ist das leider nicht der Fall. Es ist nicht schwierig nachzurechen, dass die Funktion exp(− x1 ), x > 0, f (x) := 0, x ≤ 0, trotz der st¨ uckweisen Definition auf R beliebig oft differenzierbar ist. Außerdem sind alle Ableitungen an der Stelle x0 = 0 gleich null: f (k) (x0 ) = 0, origen Taylor-Reihe k ∈ N0 . Damit sind aber alle Koeffizienten der zugeh¨ gleich null, und die Grenzfunktion dieser trivialen Potenzreihe ist die Nullfunktion mit Konvergenzradius  = ∞, die aber offensichtlich nicht mit f u ¨bereinstimmt. Wir k¨onnen zwar mit der Formel von Cauchy-Hadamard (Satz 16.5) ausrechnen, wo eine Taylor-Reihe konvergiert, wir wissen dann aber nicht, ob sie tats¨achlich gegen die Funktion konvergiert, aus deren Ableitungen die Taylor-Reihe aufgebaut wurde. Wenn wir das zeigen sollen, dann m¨ ussen wir das mittels des Verhaltens der Taylor-Restglieder u ufen. ¨berpr¨ Wir fassen die Ergebnisse u ¨ber Taylor-Reihen zusammen: • Da eine Taylor-Reihe eine Potenzreihe ist, kann ihr Konvergenzradius mit der Formel von Cauchy-Hadamard bestimmt werden. Allerdings kann der Konvergenzradius null sein. • Falls die Taylor-Reihe von f konvergiert, muss sie nicht notwendigerweise gegen f konvergieren. • Die Taylor-Reihe konvergiert genau dann gegen f (x), wenn das Restglied ur n → ∞ gegen null geht. In diesem der Taylor-Entwicklung Rx0 ,n+1,f (x) f¨ Fall stimmen Taylor-Reihe (als Grenzfunktion) und Ausgangsfunktion der Taylor-Reihe (Funktion, mit deren Ableitungen die Taylor-Reihe berechnet wird) u ¨berein.

479

16.6. Die komplexe Exponentialfunktion

16.6 Die komplexe Exponentialfunktion ¨ Uber die Entwicklung der Exponentialfunktion als Potenzreihe wird die Bezeichnung ejϕ := cos(ϕ) + j sin(ϕ) in der Euler’schen Gleichung (Definition 5.4 auf Seite 158) verst¨andlich. Dazu setzen wir in die Exponentialreihe die komplexe Zahl jϕ ein. Das geht, da hier lediglich Potenzen von jϕ gebildet werden. Die zun¨ achst nur f¨ ur reelle Zahlen definierte Exponentialfunktion kann so auch f¨ ur imagin¨are Zahlen einen Sinn bekommen: exp(jϕ) = = =

∞  (jϕ)k k=0 ∞  k=0 ∞ 

k!

=

∞   (jϕ)2k k=0 ∞

(jϕ)2k+1 + (2k)! (2k + 1)!



(jϕ)2k  (jϕ)2k+1 + (2k)! (2k + 1)! k=0

 ϕ2k+1 ϕ +j = cos(ϕ) + j sin(ϕ). (−1) (−1)k (2k)! (2k + 1)!

k=0

k

2k



k=0

Hier haben wir zuerst Summanden zu geraden und ungeraden Indizes zusammengefasst, also in der unendlichen Summe Klammern gesetzt. Das ist erlaubt, da die Potenzreihen absolut konvergent sind. Die Aufspaltung in zwei Summen ist dann erlaubt, da die Grenzwerte der beiden einzelnen Summen als Potenzreihen von Kosinus und Sinus existieren. urzende SchreibNachdem wir zun¨achst ejϕ := cos(ϕ)+j sin(ϕ) nur als abk¨ weise verwendet haben, sehen wir nun, dass sich dahinter tats¨ achlich eine Erweiterung der reellen Exponentialfunktion f¨ ur imagin¨ are Zahlen verbirgt. Entsprechend kann man sich u ¨berlegen, dass exp(z) := eRe(z) ej Im(z) eine Erweiterung der reellen Exponentialfunktion auf alle komplexen Zahlen ist, die selbst f¨ ur alle z ∈ C eine Potenzreihendarstellung exp(z) =

∞  zk k=0

k!

besitzt und f¨ ur die die bereits bekannten Rechenregeln der reellen Exponentialfunktion auch f¨ ur komplexes z gelten. Damit haben wir nun nachtr¨ aglich die Definition 5.5 auf Seite 159 gerechtfertigt.  ∞ F¨ ur Potenzreihen einer komplexen Variable k=0 ak (z − z0 )k kann man einen Konvergenzradius  ebenfalls mit der Formel von Cauchy-Hadamard berechnen (siehe Seite 473). Die Potenzreihe konvergiert innerhalb der Kreisscheibe {z ∈ C : |z − z0 | < }. Daher wird  als Radius bezeichnet. ∞ Beispiel 16.11 Die komplexe geometrische Reihe k=0 z k = 1 + z + z 2 + . . . mit ak = 1, k ∈ N0 , besitzt als Konvergenzradius den Kehrwert des

480

Kapitel 16. Potenzreihen

Grenzwerts (vgl. Beispiel 16.7)    ak+1   = lim 1 = 1.  r := lim  k→∞ ak  k→∞ Somit konvergiert die Reihe f¨ ur alle z innerhalb des Einheitskreises |z−0| < 1. ¨ Sie ist divergent f¨ ur alle z ∈ C mit |z| > 1. Uber die Konvergenz auf dem Einheitskreis |z| = 1 macht die Formel von Cauchy-Hadamard keine Aussage. Die Ableitung von Funktionen einer komplexen Variable wird u ¨ber einen komplexen Differenzenquotienten f  (z0 ) := lim

z→z0

f (z0 ) − f (z) z0 − z

(z ∈ C)

definiert. Innerhalb der Kreisscheibe ist die Grenzfunktion der Potenzreihe beliebig oft komplex differenzierbar. Sie heißt auf dieser Menge analytisch oder holomorph. Mit holomorphen Funktionen besch¨ aftigt sich die Funktionentheorie. Wir werden die komplexe Ableitung kurz aus Sicht der Differenzialrechnung f¨ ur Funktionen mit mehreren Variablen in Band 2 auf Seite 25 betrachten.

Literaturverzeichnis Heuser(2009). Heuser, H.: Lehrbuch der Analysis Teil 1. Teubner, Wiesbaden, 2009.

Kapitel 17

Aufgaben zu Teil II 17.1 Folgen Aufgabe 17.1 Untersuchen Sie die Folgen auf Monotonie und Beschr¨ anktheit und geben Sie – falls vorhanden – das Infimum und Supremum der Menge der Folgenglieder (der Wertemenge) an: a) an = 1 + n + ln(n),

b) bn =

3n , n+1

c) cn =

1 . n2 + 1

Aufgabe 17.2 Bestimmen Sie Kandidaten f¨ ur die Grenzwerte der Folgen, und bestimmen Sie zu jedem ε > 0 jeweils eine Stelle n0 , ab der alle Glieder in einer ε-Umgebung des jeweiligen Grenzwerts liegen: a) an = 10−n ,

b) bn =

√ n

4,

c) cn =

n2 . n2 + 2

Aufgabe 17.3 Man zeige mit der ε-n0 -Definition des Folgengrenzwerts 1 lim √ = 0. n + 2 + sin(n)

n→∞

Hinweis: Man sch¨atze in einem ersten Schritt geeignet durch Weglassen ab.

Ergänzende Information Die elektronische Version dieses Kapitels enthält Zusatzmaterial, auf das über folgenden Link zugegriffen werden kann https://doi.org/10.1007/978-3-662-68367-5_17.

© Der/die Autor(en), exklusiv lizenziert an Springer-Verlag GmbH, DE, ein Teil von Springer Nature 2023 S. Goebbels und S. Ritter, Mathematik verstehen und anwenden: Differenzial- und Integralrechnung, Lineare Algebra, https://doi.org/10.1007/978-3-662-68367-5_17

481

482

Kapitel 17. Aufgaben zu Teil II

Aufgabe 17.4 Zeigen Sie, dass die Folgen den jeweils angegebenen Grenzwert besitzen: 1 a) an = 2 + (−1)n 2 , lim an = 2, n→∞ n 4 − 4n + n2 , lim bn = −1, b) bn = 2 + 3n − n√2 n→∞ √ c) cn = n + 1 − n, lim cn = 0, n→∞ 1 + 2 + ··· + n 1 , lim dn = . d) dn = 2 n→∞ n +n+1 2 Bei a) verwende man die Definition des Folgengrenzwerts, bei b) – d) verwende man bekannte S¨atze u ¨ber Folgengrenzwerte. Bei c) hilft die dritte Binomische Formel. Aufgabe 17.5 Berechnen Sie die Folgengrenzwerte: 3n3 + 4n + 7 3n3 + 4n2 + 7 3n3 + 4n2 + 7 , b) lim , c) lim . n→∞ 6n3 + 2n + 1 n→∞ 6n2 + 2n + 1 n→∞ 6n4 + 2n2 + n

a) lim

Aufgabe 17.6 Die durchschnittliche Inflationsrate w¨ ahrend der Existenz der D-Mark (1948–2002) betrug ca. 2,7%. Wir gehen f¨ ur die Rechnung von einer konstanten Inflationsrate aus. Welchen Wert hatte Die D-Mark 2002 im Vergleich zu 1948, und wie groß war die Halbwertszeit der D-Mark?

17.2 Reihen Aufgabe 17.7 Man pr¨ ufe mit dem Quotientenkriterium, ob ∞  k=0

∞  1 k2 und [(k + 1)!]2 πk k=0

konvergieren. Aufgabe 17.8 Man pr¨ ufe die alternierende Reihe ∞ 

(−1)k e−k

k=1

auf Konvergenz. Aufgabe 17.9 Untersuchen Sie die folgenden Reihen auf Konvergenz: a)

∞  5k k=1

5k

,

∞  32k , b) (2k)! k=1

c)

∞  k=1

k−1 1 k· , 3

∞  (−1)k+1 d) . k · 52k−1 k=1

483

17.3. Funktionengrenzwerte und Stetigkeit

Aufgabe 17.10 Zeigen Sie, dass die folgenden (Funktionen-) Reihen (punktweise) f¨ ur jedes x ∈ R konvergieren: a)

∞  k=1

1 , 2 k + x4

b)

∞  sin(kx2 ) k=1

k 3/2

f¨ ur x ∈ R.

Aufgabe 17.11 Man berechne den Grenzwert von ∞  k=1

1 . −1

4k 2

Hinweis: In den Partialsummen addieren sich viele Terme zu 0 (Teleskopsumme).

17.3 Funktionengrenzwerte und Stetigkeit Aufgabe 17.12 Gegeben ist die Funktion |9−3x| ur x = 3, 3−x , f¨ f (x) = 0, f¨ ur x = 3. Welche der folgenden Grenzwerte existieren, und welchen Wert haben sie? limx→0 f (x), limx→3− f (x), limx→3+ f (x), limx→3 f (x), limx→∞ f (x). Aufgabe 17.13 F¨ ur welche der folgenden Funktionen f (x) existiert an der Stelle x0 der rechtsseitige bzw. linksseitige Grenzwert? Ist f (x) an der Stelle asst sich f (x) an der Stelle x0 stetig erg¨ anzen? x0 stetig bzw., l¨ x , x0 = 0, b) f (x) = |x − 1|, x0 = 1, |x| 2 √ ur x < 0, x − 2, f¨ x = 0. c) f (x) = 1 − x, x0 = 1, d) f (x) = , f¨ u r x > 0, 0 ln 1+x e2

a) f (x) =

Aufgabe 17.14 Zeigen Sie mit der ε-δ-Definition der Stetigkeit: a) Die Funktion f (x) = 4x − 4 ist stetig ur alle x ∈ R.   f¨ 2x2 · sin x1 , x = 0, ist stetig in x0 = 0. b) Die Funktion f (x) = 0, x = 0, 0, x < 0, c) Die Funktion σ(x) = ist unstetig in x0 = 0. 1, x ≥ 0,

484

Kapitel 17. Aufgaben zu Teil II

17.4 Ableitungen Aufgabe 17.15 Man berechne die Ableitungen der folgenden Funktionen: x2 + 3x + 10 , f2 (x) = sin(x)[x2 + 2x + 1], x+1 f3 (x) = e1+sin(x) , f4 (x) = x2 cos(x) .

f1 (x) =

Aufgabe 17.16 Differenzieren Sie folgende Funktionen f (x) einmal nach x:  a) f (x) = (2 − 2x2 )9 , b) f (x) = (1 + x2 )(1 + x)3 , c) f (x) = 3 4 (1 − x)7 , x3 1 − x2 1 − 2x √ , e) f (x) = , f) f (x) = , 1+x (1 − 2x)4 x  √ 2 g) f (x) = 1 + x, h) f (x) = tan(1 − 3x3 ), i) f (x) = e−4x ,  5 5 j) f (x) = e3x , k) f (x) = 3((3x) ) , l) f (x) = cos(x ln(x)). d) f (x) =

Aufgabe 17.17 Untersuchen Sie, ob folgende Funktionen f (x) an der Stelle x0 differenzierbar sind: a) f (x) = |x + 1|, x0 = ±1, |x − 1|, f¨ ur x ≥ 0, x = 0. b) f (x) = ur x < 0, 0 1 + cos(x + π2 ), f¨ Aufgabe 17.18 Differenzieren Sie folgende Funktionen nach x:

  2 sin2 (x) − cos(2x) √ , b) ln , c) xcos(1−x) , a) ln xe x √ √  1−x . d) x2 arctan x , e) √ 1+x Aufgabe 17.19 Bestimmen Sie die ersten Ableitungen der folgenden Funktionen f¨ ur konstante Parameter a, δ, ω ∈ R: a) f (t) = a sin(ωt + ϕ), b) f (t) = a e−δt cos(ωt + ϕ),

1 , c) f (ϕ) = cos ϕ  d) f (ϕ) = a 1 + cos(ϕ). Aufgabe 17.20 Berechnen Sie die Ableitung der Funktion f (x) = |ex − 1|, x ∈ [−1, 1].

485

17.5. Integrale

Aufgabe 17.21 Zeigen Sie, dass die Funktion f (x) = 2x − arctan(x), x ∈ R, monoton steigend ist. Berechnen Sie an der Stelle y0 = 2 − π4 die Ableitung der Umkehrfunktion. Aufgabe 17.22 a) Stellen Sie die Gleichung der Tangente an den Funktions2 im Punkt (1, f (1)) auf. graphen von f (x) = arctan(x) ln(x2 ) b) Unter welchem Winkel α schneidet der Graph der Funktion y = 2x die x-Achse? Aufgabe 17.23 Zeigen Sie mittels Vollst¨andiger Induktion die folgende Verallgemeinerung der Produktregel: Die Funktionen f1 , . . . , fn seien an der Stelle x0 differenzierbar. Dann gilt:  n  n n    fk (x0 ) = fk (x0 ) · fi (x0 ). k=1

i=1 i=k

k=1

Aufgabe 17.24 Nach dem Mittelwertsatz gibt es im Intervall [−1, 1] Stellen ξ, an denen die Funktion f (x) = 2x3 − 3x2 − x + 5 eine Tangente mit der gleichen Steigung wie die Gerade durch die Punkte (−1, f (−1)), (1, f (1)) hat. Bestimmen Sie alle diese Stellen. Aufgabe 17.25 Berechnen Sie die folgenden Grenzwerte mit den Regeln von L’Hosptal: sin(4x) 1 − cosh(x) x9 + 29 , b) lim , c) lim 7 , 2 x→0 x→0 x→−2 x + 27 x 2x

1 tan(3x) 1 d) lim3π , e) lim artanh(x), f) lim x · cos −1 , x→∞ x→0 x x x→ 2 tan(5x)

a) lim

g)

lim x2 · ex .

x→−∞

Aufgabe 17.26 Mit dem Satz von L’Hospital berechne man ex − 1 a) lim x→0 sin(x)

b) lim

x→∞

x2 x+1 ( ) . x

17.5 Integrale Aufgabe 17.27 Man berechne das bestimmte Integral mann’schen Zwischensummen. Dabei kann die Formel

91 0

x2 dx mit Rie-

486

Kapitel 17. Aufgaben zu Teil II n 

k2 =

k=0

n(n + 1)(2n + 1) 6

hilfreich sein. Aufgabe 17.28 Berechnen Sie mittels partieller Integration 8

π 2

0

x · cos(2x) dx.

Aufgabe 17.29 Berechnen Sie mittels Substitution t = x2 das Integral 8 1 exp(x2 ) · 2x dx. 0

Aufgabe 17.30 L¨osen Sie die folgenden Integrale mit einer geeigneten Substitution: 8 8 8 2 −3 3 sin(x) dx, b) dx, dx, c) a) 3x−1 3x + 1 e cos5 (x) 8 80 2ex dx, e) 3x2 (x3 + 1)3 dx. d) e2x + 1 Aufgabe 17.31 L¨osen Sie die folgenden Aufgaben mit Hilfe partieller Integration: 8 e 8 b) x10 · ln(x) dx, a) x · e−3 x dx, 1

8

π

c) 0

x2 · cos(x) dx,

8

π/2

d) 0

x · sin(x) cos(x) dx.

Aufgabe 17.32 L¨osen Sie die folgenden Integrale: 8 8 1 2x · (x2 + 1)100 dx, b) x · (x + 1)1000 dx, a) 0 8 8 8 1 x−2 1 √ √ c) dx, d) dx, e) dx. 4711 2 (x + 1) 1−x 4 − x2 Aufgabe 17.33 Berechnen Sie Partialbruchzerlegungen von a)

x2

3x − 8 , − 6x + 8

b)

x+2 , (x − 2)3

c)

x2

x−1 , +x−6

d)

2x + 1 . (x − 2)2

Aufgabe 17.34 Berechnen Sie jeweils mittels Partialbruchzerlegung 8 3 8 2 8x 2x + 1 dx, dx. 2 2 0 x + 4x + 4 2 x +x−2

487

17.6. Satz von Taylor und Kurvendiskussion

Aufgabe 17.35 L¨osen Sie die folgenden Integrale mit oder ohne Partialbruchzerlegung: 8 8 8 x+1 2x2 − 22 (2x)3 + 8 dx, c) dx, b) dx, a) x2 (x + 2)2 (x − 1) (x − 1)(x + 2)2 8 8 8 x+4 16x − 4 x4 dx, e) dx, f) dx, d) x2 + 3 x2 − 4x + 8 x2 − 6x + 5 8 x2 + 15x + 8 dx. g) 3 x − 3x2 − 9x − 5 Aufgabe 17.36 Gegeben sei die Funktion f (x) =

4 (x+2)2 ,

x > −2.

a) Legt man im Punkt (0, f (0)) eine Tangente an den Funktionsgraphen von f (x), so schneidet diese die x-Achse an einer Stelle x0 . Bestimmen Sie x0 . b) Der Funktionsgraph schließt zwischen x = 0 und x = u mit der x-Achse ein endliches Fl¨achenst¨ uck ein. Berechnen Sie den Inhalt F (u) dieser Fl¨ ache, also eine Stammfunktion von f . c) Welchen Wert hat das uneigentliche Integral 8 ∞ 4 dx = lim F (u)? u→∞ (x + 2)2 0 Aufgabe 17.37 f (x) = 4x4 −16x2 +16 schließt mit der x-Achse eine endliche Fl¨ache ein. Berechnen Sie ihre Gr¨oße. Aufgabe 17.38 Berechnen Sie die uneigentlichen Integrale, sofern sie konvergieren: 8 1 8 ∞ −2x e dx, b) ln(x) + 2 dx, a) 8

1 2



c) 0

0

2x dx, 1 + x2

8

1

d) 0



x |x − 1|

dx.

Hinweis: Bei b) verwende man die Regel von L’Hospital.

17.6 Satz von Taylor und Kurvendiskussion Aufgabe 17.39 Entwickeln Sie die Funktion f (x) an der Stelle x0 in ein Taylor-Polynom vom Grad n: a) f (x) = cos(x), c) f (x) =

√ 1 + x,

π , 2

n = 3,

b) f (x) = x5 ,

x0 = 0,

n = 3,

1 d) f (x) = √ , 1+x

x0 =

x0 = 2,

n = 6,

x0 = 0, n = 2.

488

Kapitel 17. Aufgaben zu Teil II 3

Aufgabe 17.40 F¨ uhren Sie f¨ ur die Funktion f (x) = 2xx2−8x +1 eine Kurvendiskussion durch. Untersuchen Sie dazu den maximalen Definitionsbereich, Symmetrien, Unstetigkeitsstellen, asymptotisches Verhalten, Extrema, Wendepunkte und Schnittpunkte mit den Koordinatenachsen. Aufgabe 17.41 Untersuchen Sie die Funktionen f (x) = sin(ln(x)) und f (x) =

cos(ln(x)) : x

a) Geben Sie jeweils den maximalen Definitionsbereich, Nullstellen und die Unstetigkeitsstellen an. unden Sie Ihre Antwort. b) Existieren limx→∞ f (x) und limx→0+ f (x)? Begr¨ c) Berechnen Sie f  und f  . d) Bestimmen Sie mit den zuvor berechneten Ableitungen die lokalen Minima von f . Aufgabe 17.42 Untersuchen Sie die Funktion f (x) = exp(sin2 (x) + 2 sin(x) + 1) − 1 : a) Geben Sie den maximalen Definitionsbereich, Wertebereich, Nullstellen und die Unstetigkeitsstellen an. b) Begr¨ unden Sie, ob limx→∞ f (x) und limx→−∞ f (x) existieren. c) Berechnen Sie f  und f  . d) Bestimmen Sie mit den zuvor berechneten Ableitungen mindestens eine Stelle, an der ein lokales Maximum von f liegt. Aufgabe 17.43 Untersuchen Sie die beiden reellen Funktionen



x−1 x−1 und f (x) = exp . f (x) = ln exp(x) x2 + 3 a) Geben Sie jeweils den maximalen Definitionsbereich, die Nullstellen und die Unstetigkeitsstellen an. Sie k¨onnen verwenden, dass ex > x gilt. b) Berechnen Sie limx→∞ f (x) und limx→1+ f (x) bzw. limx→−∞ f (x). c) Berechnen Sie f  und f  . d) Bestimmen Sie mit den zuvor berechneten Ableitungen lokale Extrema der Funktionen. Wie lautet jeweils der Wertebereich? Aufgabe 17.44 Welchen Durchmesser und welche H¨ ohe hat ein Zylinder mit einem vorgegebenen Volumen V von genau einem Liter, wenn seine Oberfl¨ache minimal sein soll? Aufgabe 17.45 Seien die reellen Funktionen f , g und h gegeben mit f (x) = g(h(x)), h : D ⊂ R → R, f : D → R und g : E ⊂ R → R, so dass der Wertebereich h(D) der Funktion h im Definitionsbereich E der Funktion g enthalten ist: h(D) ⊂ E. Die a¨ußere Funktion g sei streng monoton steigend.

489

17.7. Potenzreihen

Zeigen Sie, dass die Stellen, an denen die lokalen und globalen Maxima der Funktionen f und h liegen, identisch sind. Zeigen Sie, dass ebenso die Stellen der Minima u ¨bereinstimmen.

17.7 Potenzreihen Aufgabe 17.46 Beweisen Sie mittels des Quotientenkriteriums den folgenden  Satz: ∞ Sei k=0 ak (x − x0 )k eine Potenzreihe mit Konvergenzradius , so dass der Grenzwert    ak+1    r := lim  k→∞ ak  existiert. Dann gilt: a) Ist r = ∞, so ist  = 0. b) Ist 0 < r < ∞, so ist  =

1 . r

c) Ist r = 0, so ist  = ∞. Aufgabe 17.47 Bestimmen Sie den Konvergenzbereich der Potenzreihen (bei c) nur den Konvergenzradius) a)

∞  k=1

k xk ,

b)

∞  (x − 4)k k=1

kk

,

c)

∞  kk k=0

k!

xk .

Aufgabe 17.48 Berechnen Sie den Konvergenzradius  der folgenden Potenzreihen um den Entwicklungsmittelpunkt 0: a)

∞  k=1

xk = x + x2 + x3 + . . . , b)

∞  1 2 1 3 xk x x = x + + + . . . , c) . 2 k 4 9 kk

∞  xk k=1

k=1

Aufgabe 17.49 Man entwickle die folgenden Funktionen in eine Potenzreihe um 0 und bestimme den Konvergenzradius: a) x4 + 3x2 + 3x, b) ln(x + 1), 1 1 c) sinh(x) = (ex − e−x ), d) f¨ ur x0 = 0. 2 x − x0 Aufgabe 17.50 Man untersuche die Potenzreihen um den Punkt 0 aus Aufgabe 17.48 und Aufgabe 17.49, f¨ ur die der Konvergenzradius  < ∞ ist, auf Konvergenz in den Punkten − und .

490

Kapitel 17. Aufgaben zu Teil II

Aufgabe 17.51 Ist eine Funktion f in eine Potenzreihe um x0 mit Konvergenzradius  > 0 entwickelbar, so ist f nach Satz 16.6 auf ]x0 − , x0 + [ beliebig oft differenzierbar, und man erh¨alt die ebenfalls auf ]x0 − , x0 + [ konvergente Potenzreihe der Ableitung f  durch gliedweises Differenzieren. 1 . Berechnen Sie damit eine Potenzreihe f¨ ur x+1

Teil III Lineare Algebra In diesem Teil des Buchs vertiefen wir die Lineare Algebra. Wir haben bereits Gleichungssysteme gel¨ost und Determinanten von Matrizen berechnet. Jetzt wollen wir uns die damit verbundenen Strukturen genauer ansehen. Dazu rechnen wir zun¨achst mit Vektoren (Pfeilen) im R2 und R3 und mit den von ihnen eingeschlossenen Winkeln. Wir werden sehen, dass man f¨ ur viele andere Objekte genauso rechnen kann, wenn gewisse Voraussetzungen erf¨ ullt sind. Diese Voraussetzungen sind in der Definition des Vektorraums zusammengefasst. Als ein Beispiel f¨ ur Vektorr¨ aume betrachten wir L¨ osungsmengen homogener linearer Gleichungssysteme und werden dadurch unsere fr¨ uheren Berechnungen besser verstehen. Ein weiteres wichtiges Thema sind die linearen Abbildungen. Sie erhalten die Struktur von Vektorr¨ aumen und lassen sich oft u ¨ber Matrizen darstellen. Matrizen besitzen Eigenwerte und Eigenvektoren, die viel u origen linearen Abbil¨ber das Verhalten der zugeh¨ dungen aussagen und insbesondere in Band 2 des Buchs angewendet werden. Dieser Buchteil endet mit einem weiterf¨ uhrenden Kapitel u ¨ber Funktionalanalysis. Streng genommen geh¨ort es nicht zur Linearen Algebra, sondern es ist zwischen der Analysis und der Linearen Algebra angesiedelt. Hier werden Begriffe der Analysis wie Grenzwerte auf Vektorr¨ aume u ¨bertragen. So werden beispielsweise stetige lineare Abbildungen betrachtet. Eine Anwendung der Funktionalanalysis ist das bereits im ersten Buchteil kurz angesprochene iterative L¨osen großer linearer Gleichungssysteme. Dabei entsteht eine Folge von N¨aherungsl¨osungen. Bei einigen Verfahren kann die Konvergenz dieser Folge von Vektoren gegen eine L¨osung des Gleichungssystems mit dem Banach’schen Fixpunktsatz untersucht werden.

Kapitel 18

Vektoren in der Ebene und im Raum Viele physikalische Gr¨oßen sind durch Angabe eines reellen Werts bestimmt, wie z. B. die Masse, die Temperatur oder die Leistung. Man bezeichnet sie als Skalare. Feldst¨arken und Kr¨afte wirken dagegen in eine Richtung, und auch Geschwindigkeiten werden nicht allein durch ihren Betrag, sondern erst durch Angabe der Richtung eindeutig. Das sind Vektoren. Ein dreidimensionales CAD-Modell l¨asst sich auf einem Bildschirm, durch den ein Beobachter das Objekt betrachtet, perspektivisch darstellen. Wo muss man in der Bildschirmebene einen Punkt des Objektes einzeichnen? Liegen im dreidimensionalen Raum das Auge des Betrachters und das Objekt auf unterschiedlichen Seiten der Bildschirmebene, dann kann man durch jeden f¨ ur den Betrachter sichtbaren Punkt des Objekts und durch das Auge jeweils eine Gerade legen, die die Bildschirmebene schneidet. Der Schnittpunkt ist die korrekte perspektivische Darstellung des Punktes auf dem Bildschirm. Die Analytische Geometrie ist ein Teilgebiet der Geometrie, in dem solche geometrischen Zusammenh¨ange mittels Vektoren ausgedr¨ uckt werden. In diesem Kapitel besch¨aftigen wir uns elementar mit diesen Vektoren als Elemente des R2 oder R3 , die wir addieren und mit Skalaren multiplizieren k¨ onnen. Mit dem Skalarprodukt werden Winkel zwischen den Vektoren berechnet und wird Orthogonalit¨at erkl¨art. Mit dem Vektorprodukt lassen sich im R3 Vektoren konstruieren, die senkrecht zu vorgegebenen stehen. Zum Abschluss sehen wir uns systematisch Geraden und Ebenen an. Die Betrachtungen in diesem Kapitel kommen noch ohne die Definition des Vektorraums aus (siehe Kapitel 19), mit der sich viele der Ergebnisse u ¨ber R2 und R3 hinaus verallgemeinern lassen.

© Der/die Autor(en), exklusiv lizenziert an Springer-Verlag GmbH, DE, ein Teil von Springer Nature 2023 S. Goebbels und S. Ritter, Mathematik verstehen und anwenden: Differenzial- und Integralrechnung, Lineare Algebra, https://doi.org/10.1007/978-3-662-68367-5_18

493

494

Kapitel 18. Vektoren in der Ebene und im Raum

18.1 Vektoren: Grundbegriffe und elementare Rechenregeln

Definition 18.1 (Vektor) Ein Vektor a ist eine Gr¨ oße, die durch einen Betrag |a| und eine Richtung charakterisiert ist. In der Ebene oder im Raum werden Vektoren durch Pfeile veranschaulicht. Ein Vektor a l¨asst sich durch einen Anfangspunkt A und einen Endpunkt B −−→ festlegen. Man schreibt a = AB. Dieser Pfeil zeigt von A nach B und hat damit eine Richtung. Den Begriff Richtung verwenden wir anschaulich ohne weitere Definition. Den Abstand von A und B bezeichnet man als Betrag |a| ≥ 0. Der Betrag ist also die L¨ange des Pfeils. Zwei Vektoren a und b sind gleich, a = b, wenn sie in Betrag und, falls der Betrag ungleich null ist, in der Richtung u ¨bereinstimmen. Mit dieser Festlegung kann man den Anfangspunkt eines Vektors beliebig w¨ahlen. Durch den Vektor ist der Endpunkt festgelegt. Bereits in Kapitel 6.2 haben wir von Zeilen- und Spaltenvektoren als Eleurze sehen, dass die hier betrachmente des Rn gesprochen. Wir werden in K¨ teten Pfeile u onnen. ¨ber Zeilen- und Spaltenvektoren dargestellt werden k¨ Damit gibt es dann auch keine doppelte Verwendung des Begriffs Vektor“. ” In Kapitel 19 werden wir den Begriff des Vektors noch wesentlich weiter und unabh¨angig von der Anschauung axiomatisch genau fassen. Wir werden alle mathematischen Objekte Vektor nennen, f¨ ur die Rechenregeln gelten, die wir f¨ ur die Pfeile identifizieren. Dazu geh¨oren insbesondere auch die Matrizen, die wir bei linearen Gleichungssystemen verwendet haben, aber auch Funktionen.

Abb. 18.1 Vektoren des R2 als Pfeile

Von besonderer Bedeutung sind die folgenden Vektoren. • Ein Vektor a mit Betrag |a| = 0 heißt Nullvektor 0. Dem Nullvektor wird keine Richtung zugeordnet. • Ein Vektor e mit Betrag |e | = 1 heißt Einheitsvektor.

Vektoren im Sinne von Zeigern haben wir schon bei Zeigerdiagrammen in Kapitel 4.9.5 kennengelernt. Mit ihnen konnten wir Wechselstr¨ ome ausrechnen.

18.1. Vektoren: Grundbegriffe und elementare Rechenregeln

495

18.1.1 Vektorarithmetik Um mit Vektoren zu rechnen, m¨ ussen wir zun¨ achst die Rechenoperationen f¨ ur Vektoren erkl¨aren. Diese sind f¨ ur uns nicht neu, wir haben sie schon beim Rechnen mit Zeigerdiagrammen und Matrizen verwendet. Sie bilden das Verhalten physikalischer Vektoren wie Kr¨ afte oder Feldst¨ arken ab. Definition 18.2 (Multiplikation mit einem Skalar, kollineare Vektoren) Es seien a und b zwei Vektoren. Dann gilt: a) Der Vektor λ · a, λ ∈ R, hat den |λ|-fachen Betrag (L¨ ange) von a. F¨ ur λ > 0 zeigt λ · a in dieselbe Richtung wie a, f¨ ur λ < 0 zeigt λ · a in die zu a entgegengesetzte Richtung. b) Haben a und b gleiche oder entgegengesetzte Richtung oder ist ein Vektor 0, d. h., gilt a = λ·b oder b = λ·a mit λ ∈ R, so heißen a und b zueinander kollinear. Die Summe von zwei Vektoren kann geometrisch festgelegt werden (vgl. Abbildung 18.2): Definition 18.3 (Vektoraddition) F¨ ur Vektoren a und b ist die Sum me a + b definiert als der Vektor, der der Diagonalen des Parallelogramms entspricht, das durch a und b aufgespannt wird. Um auch die Richtung des Vektors festzulegen, verwendet man als Anfangspunkt von b den Endpunkt von a. Dann ist a + b der Vektor mit dem Anfangspunkt von a und dem Endpunkt von b. F¨ ur die Vektoraddition und die Multiplikation mit einem Skalar k¨ onnen wir folgende Rechenregeln formulieren: Satz 18.1 (Vektorarithmetik) F¨ ur Vektoren a, b, c in der Ebene oder im Raum gelten: a) Regeln zur Vektoraddition: i Kommutativgesetz: a + b = b + a. ii Assoziativgesetz: a + (b + c) = (a + b) + c. iii Es gibt ein eindeutiges neutrales Element 0 (der Pfeil mit L¨ ange null), so dass a + 0 = a f¨ ur jeden Vektor a gilt. iv Zu jedem a existiert bez¨ uglich der Addition genau ein inverses Element −a, so dass a +(−a) = 0. Der zu a inverse Vektor entsteht durch

496

Kapitel 18. Vektoren in der Ebene und im Raum

Multiplikation mit dem Skalar −1, also −a = (−1) · a. Bei der Addition mit einem inversen Vektor schreiben wir kurz ein Minuszeichen: a − b := a + (−b) = a + (−1) · b. v Es gilt die Dreiecksungleichung |a + b| ≤ |a| + |b|. b) Regeln zur Multiplikation mit einem Skalar: i Zu jedem a und jedem λ ∈ R ist ein Produkt b = λ · a = a · λ erkl¨ art. ii Das Produkt mit einem Skalar ist assoziativ: (λμ) · a = λ · (μ · a). iii 1 · a = a. ullen die Disc) Die Vektoraddition und Multiplikation mit einem Skalar erf¨ tributivgesetze λ(a + b) = λa + λb,

(λ + μ)a = λa + μa.

Wir werden einen großen Teil dieser Regeln als Grundlage f¨ ur die allgemeinen Vektorraumaxiome in Kapitel 19 verwenden, so dass wir damit die Ergebnisse f¨ ur die Pfeile auf viele andere mathematische Objekte u onnen. ¨bertragen k¨

Abb. 18.2 Regeln der Vektorarithmetik

Das erste Distributivgesetz aus Satz 18.1 c) ist f¨ ur Pfeile in Abbildung 18.4 dargestellt. Daraus k¨onnen wir direkt f¨ ur r > 1 die Strahlens¨ atze ablesen: Zwei parallele Geraden schneiden zwei Strahlen mit gleichem Ursprung. F¨ ur die Streckenverh¨altnisse gilt mit den Bezeichnungen aus Abbildung 18.4: a) Erster Strahlensatz: OD OC , = OB OA

18.1. Vektoren: Grundbegriffe und elementare Rechenregeln

497

d. h., das Verh¨ altnis der Abschnittsl¨angen ist auf beiden Strahlen identisch. Es gilt n¨amlich r|a + b| r|a| OD OC =r= = . =  |a| OB OA |a + b| b) Zweiter Strahlensatz: OC CD , = OA AB d. h., das Verh¨altnis der Parallelenabschnitte entspricht dem Verh¨ altnis der Abschnittsl¨angen eines Strahls. Der Satz gilt, da r|a| r|b| CD OC = =r= = .  | a | AB OA |b|

18.1.2 Koordinaten und Komponenten Wir haben zwar Rechenregeln f¨ ur Vektoren in Form von Pfeilen kennengelernt, aber damit kann man nicht gut rechnen. So wie wir Wechselstromzeiger durch komplexe Zahlen ersetzt haben, die ein Zahlenpaar aus Real- und Ima-

Abb. 18.3 Regeln der skalaren Multiplikation

498

Kapitel 18. Vektoren in der Ebene und im Raum

Abb. 18.4 Distributivgesetz als Strahlensatz

gin¨arteil sind, stellen wir hier die Zeiger der Ebene ebenfalls u ¨ber Zahlenpaare und die Zeiger im dreidimensionalen Raum u ¨ber Tupel mit drei Elementen dar. Dazu ben¨otigen wir ein rechtwinkliges Koordinatensystem mit x-, y- und ggf. z-Achse. Bei drei Achsen verwendet man ein Rechtssystem, das u ¨ber die Rechte-Hand-Regel“ festgelegt ist: Zeigt der Daumen der rechten Hand ” in Richtung x und der Zeigefinger in Richtung y, so zeigt der gespreizte Mittelfinger in Richtung z. Diese Festlegung passt zum Vektorprodukt, das wir sp¨ater einf¨ uhren. Jeden Punkt A der Ebene oder B des dreidimensionalen Raums k¨ onnen wir mit dem Koordinatensystem u ¨ber eine x-, eine y- und ggf. eine z-Koordinate ausdr¨ ucken: A = (x, y) bzw. B = (x, y, z). Dabei k¨ onnen wir entweder eine Darstellung als Zeilen- oder alternativ als Spaltenvektor w¨ ahlen (siehe Kapitel 6.2). In diesem Kapitel schreiben wir Punkte als Zeilenvektoren. Die Ebene entspricht somit der Menge R2 = R × R = {(x, y) : x ∈ R, y ∈ R} , und der dreidimensionale Raum ist mit dem Kreuzprodukt darstellbar als R3 = R×R×R. Der Punkt O = (0, 0) bzw. O = (0, 0, 0) heißt der Nullpunkt oder Ursprung. −→ Jeden Punkt A identifizieren wir mit einem Ortsvektor a := OA. Das war zuvor in der Ebene der Zeiger zu einer komplexen Zahl. Umgekehrt ist jeder Vektor (Pfeil) als Ortsvektor und damit als Punkt darstellbar, da es nur auf seine L¨ange und Richtung ankommt und als sein Startpunkt der Nullpunkt gew¨ahlt werden kann. Damit besitzt jeder Vektor eine Koordinatendarstellung u asentiert. ¨ber den Punkt, den er als Ortsvektor repr¨ Der Vektor a von O zum Punkt A = (x, y) der Ebene entspricht also einem Zahlenpaar

−→ x a := OA = ∈ R2 , y

18.1. Vektoren: Grundbegriffe und elementare Rechenregeln

499

wobei wir x und y auch die Koordinaten von a nennen. Entsprechend sind Vektoren im dreidimensionalen Raum u ¨ber drei Koordinaten als Elemente von R3 darstellbar. Wir schreiben hier etwas unsauber“ ein Gleichheitszeichen zwischen ei” nem Pfeil und einem Spaltenvektor, da beides Darstellungen des gleichen Vektors sind. Wenn man als Startpunkt eines Vektors den Nullpunkt w¨ ahlt, dann spricht man von seiner Rolle als Ortsvektor, sonst hat er die Rolle eines freien Vektors. Aber egal welchen Startpunkt man w¨ ahlt: Es ist stets der gleiche Vektor. Wir haben R2 und R3 zun¨achst als Mengen von Zeilenvektoren (Punkten) geschrieben, jetzt sind es Mengen von Spaltenvektoren. Aus dem Zusammenhang wird stets ersichtlich sein, was gemeint ist. Man unterscheidet hier nicht, da die sp¨ater u aume bis ¨ber diese Mengen von Vektoren definierten Vektorr¨ auf die Schreibweise identisch sind. F¨ ur Vektoren in Koordinatendarstellung verwenden wir in diesem Kapitel aber zur Abgrenzung gegen Punkte die Spaltenschreibweise. Dazu benutzen wir aber auch die platzsparendere Zeilenschreibweise und transponieren einen Zeilenvektor (siehe Definition 6.10 auf Seite 196). Umgekehrt transpo−→ nieren wir aber auch einen Ortsvektor OA in Spaltenschreibweise, um den als Zeilenvektor geschriebenen Punkt A aus dem Ortsvektor zu erhalten. Mit



1 1 wird also ein Punkt und mit (1, 2) = der zugeh¨ orige (1, 2) = 2 2 Ortsvektor geschrieben.

Abb. 18.5 Punkt und zugeh¨ origer Ortsvektor im R2

Zwei Vektoren sind genau dann gleich, wenn sie dieselben Koordinaten besitzen. Denn nur dann stimmen L¨ange und Richtung u ¨berein. Die Vektoraddition aus Definition 18.1 heißt, dass die Koordinaten des Summenvektors die Summen der einzelnen Koordinaten sind. In der Ebene gilt z. B. f¨ ur a = (a1 , a2 ) und b = (b1 , b2 ) (vgl. Abbildung 18.6)

a 1 + b1 . a + b = a 2 + b2 Entsprechend erh¨alt man mit λ ∈ R die Koordinaten des skalaren Vielfachen λa, indem man die Koordinaten von a mit λ multipliziert:

500

Kapitel 18. Vektoren in der Ebene und im Raum

λ · a =

λ · a1 λ · a2

.

Das ist konsistent mit den Rechenoperationen f¨ ur Matrizen. −−→ Die Koordinatendarstellung des freien Vektors“ v = AB erh¨ alt man u ¨ber ” die Darstellung als Differenz zweier Ortsvektoren und deren Koordinatendarstellungen zu (vgl. Abbildung 18.7)



−−→ −−→ −→ a1 b1 − a1 b1 − = . v = AB = OB − OA = b2 a2 b2 − a 2

Abb. 18.6 Summe und skalares Vielfaches von Vektoren in Koordinatenschreibweise

B v

OB

A

Abb. 18.7 Differenz von Vektoren

O

OA

−−→ Die L¨ ange oder der Betrag des Vektors AB vom Punkt A = (a1 , a2 ) zum Punkt B = (b1 , b2 ) in der Ebene ist die L¨ange der Strecke zwischen den Punkten A und B, die mit dem Satz von Pythagoras (Abbildung 2.3 auf Seite 50) berechnet wird: −−→ −→ |OB − OA| := |(b1 , b2 ) − (a1 , a2 ) | = |(b1 − a1 , b2 − a2 )|  = (b1 − a1 )2 + (b2 − a2 )2 . V¨ ollig analog ergibt sich  die L¨ange (bzw. der Betrag) eines Vektors c = (c1 , c2 , c3 ) u ¨ber |c| = c21 + c22 + c23 . Das folgt aus zweimaliger Anwendung

18.1. Vektoren: Grundbegriffe und elementare Rechenregeln

501

 des Satzes des Pythagoras, indem mit der L¨ a nge ange c21 + c22 die Gesamtl¨  2 2 2 2 ( c1 + c2 ) + c3 berechnet wird. Eine besondere Rolle kommt Vektoren in Richtung der Koordinatenachsen zu, die die L¨ange eins haben. Dies sind die Standard-Einheitsvektoren e1 , e2 der Ebene bzw. e1 , e2 , e3 des dreidimensionalen Raums. Ihre Koordinatendarstellung lautet ⎛ ⎞ ⎛ ⎞ ⎛ ⎞



1 0 0 1 0 , e2 = bzw. e1 = ⎝ 0 ⎠ , e2 = ⎝ 1 ⎠ , e3 = ⎝ 0 ⎠ . e1 = 0 1 0 0 1 Ein beliebiger Vektor a ∈ R2 (oder a ∈ R3 ) kann als Summe aus Vielfachen dieser Standard-Einheitsvektoren geschrieben werden (vgl. Abbildung 18.8): a = a1 · e1 + a2 · e2

(a = a1 · e1 + a2 · e2 + a3 · e3 ).

In dieser Darstellung bezeichnet man die Vektoren a1e1 und a2e2 als Komponenten, und die Skalare a1 und a2 sind die Koordinaten von a. Der Begriff der Komponente wird aber nicht einheitlich verwendet. Wir haben damit bereits Eintr¨age bzw. Elemente einer Matrix bezeichnet, die, da Spaltenvektoren auch Matrizen sind, nach der jetzt verwendeten Sprechweise eigentlich Koordinaten heißen m¨ ussten. Das ist aber nicht u ¨blich. Aus dem Zusammenhang ist aber stets klar, ob unter einer Komponente eine Koordinate oder - wie in diesem Kapitel - ein Vektor zu dieser Koordinate gemeint ist.

Abb. 18.8 Darstellung eines Vektors als Summe von Vielfachen der Standard-Einheitsvektoren

Beispiel 18.1 a) F¨ ur die Vektoren a = (1, 2) und b = (2, −5) sind die  Summe a + b und die Differenz a − b gegeben durch







3 1 2 1+2  = , a + b = + = 2 + (−5) −3 2 −5





1 2 −1 a − b = − = . 2 −5 7

 √ √ √ Die Betr¨age lauten |a| = 12 + 22 = 5 und |b| = 22 + (−5)2 = 29. b) F¨ ur a = (1, 4) und λ = 3 bzw. μ = −2 erh¨ alt man

502

Kapitel 18. Vektoren in der Ebene und im Raum

1 3 λ · a = 3 · = , 4 12



1 −2 μ · a = −2 · = . 4 −8

c) F¨ ur den Vektor a = 3e1 − 2e2 lauten die Koordinaten a1 = 3 und a2 = −2. Die Komponenten sind a1 = 3e1 und a2 = −2e2 . Es gilt  √ |a| = 32 + (−2)2 = 13. d) F¨ ur die Vektoren a und b in R3 mit den Koordinaten a1 = 1, a2 = 1, a3 = −1 und b1 = 1, b2 = 2, b3 = 3 hat der Vektor c = 2a − b die Koordinatendarstellung ⎛ ⎞ ⎛ ⎞ ⎛ ⎞ 1 1 1 c = 2 · ⎝ 1 ⎠ − ⎝ 2 ⎠ = ⎝ 0 ⎠ −1 3 −5 ange von c ist bzw. in Komponentenform: c = e1 − 5e3 . Die L¨  √ |c| = 12 + 02 + (−5)2 = 26.

18.2 Skalarprodukt und Orthogonalit¨at Das Skalarprodukt l¨asst sich durch den Begriff der mechanischen Arbeit aus der Physik motivieren: Ein Wagen bewegt sich l¨ angs des geraden Wegs s aufgrund der konstanten Zugkraft F . Die Kraft F und der Weg s schließen den Winkel α ein (siehe Abbildung 18.9). Die verrichtete Arbeit, die geleistet

Abb. 18.9 Zur Berechnung der Arbeit als Skalarprodukt  und Weg s aus Kraft F

wird, wenn der Wagen um s verschoben wird, berechnet sich als Produkt aus dem Anteil der Kraft in Richtung des Weges Fs = |F | cos(α) und dem zur¨ uckgelegten Weg |s|: W = |F | cos(α) · |s| = |F | · |s| · cos(α). Diese Art der Multiplikation heißt das Skalarprodukt der beiden Vektoren F und s.

18.2. Skalarprodukt und Orthogonalit¨ at

503

18.2.1 Definition des Skalarprodukts

Definition 18.4 (Skalarprodukt) Es seien a und b Vektoren in der Ebene R2 oder im Raum R3 , die den Winkel ϕ einschließen. Das Skalarprodukt (inneres Produkt) a · b ist definiert durch a · b = |a| · |b| · cos(ϕ).

(18.1)

In Worten: Das Skalarprodukt von a und b ist gleich dem Produkt aus den Betr¨agen beider Vektoren und dem Kosinus des eingeschlossenen Winkels ϕ. Ausgehend von a misst man einen Winkel im Gegenuhrzeigersinn (im mathematisch positiven Sinn) zum Vektor b. Allerdings spielt hier wegen der Achsensymmetrie des Kosinus die Richtung keine Rolle. Das Produkt |b| · cos(ϕ) entspricht der (vorzeichenbehafteten) L¨ ange der  Projektion des Vektors b in die Richtung von a, siehe Abbildung 18.10.

Abb. 18.10 Zur Definition des Skalarprodukts



! Achtung

Das Skalarprodukt ist ein Produkt zwischen Vektoren und liefert als Ergebnis eine reelle Zahl. Dagegen ist das Ergebnis des Produkts eines Vektors mit einem Skalar (skalares Produkt) wieder ein Vektor.

Wir werden sp¨ater nicht nur den Vektorbegriff viel allgemeiner fassen. Auch der Begriff Skalarprodukt“ wird in Kapitel 19.3 axiomatisch so ein” gef¨ uhrt, dass z. B. auch Winkel zwischen Funktionen erkl¨ art sind. Das soeben definierte Skalarprodukt ist dann nur eines von vielen m¨ oglichen Skalarprodukten. Allerdings ist es die Urform und wird daher Standardskalarprodukt im R2 bzw. R3 genannt. Bereits das Vorzeichen des Skalarprodukts sagt viel u ¨ber die Lage zweier Vektoren a, b = 0 aus:

504

Kapitel 18. Vektoren in der Ebene und im Raum

• F¨ ur 0 < ϕ < π2 und 32 π < ϕ < 2π gilt a · b > 0, da cos(ϕ) > 0 ist. • F¨ ur π2 < ϕ < 23 π gilt a · b < 0, da cos(ϕ) < 0 ist. • F¨ ur ϕ = 0 haben a und b die gleiche Richtung, es gilt a ·b = |a|·|b|. Speziell folgt √ a · a = |a|2 bzw. |a| = a · a. • F¨ ur ϕ = π haben die Vektoren a und b entgegengesetzte Richtung, es gilt a · b = −|a| · |b|. • F¨ ur ϕ = π2 und ϕ = 32 π stehen a und b aufeinander senkrecht, und es gilt a · b = 0. Man nennt a und b dann orthogonal (vgl. Kapitel 18.2.4), und man schreibt a ⊥ b.



! Achtung

Beim Skalarprodukt darf nicht wie beim Produkt von reellen Zahlen gek¨ urzt werden: Man kann aus a ·b1 = a ·b2 nicht schließen, dass b1 = b2 ist. Lediglich die Anteile von b1 und von b2 in Richtung des Vektors a stimmen u ¨berein. Die Gleichung a · b = p l¨asst sich also bei gegebenem a und p nicht eindeutig nach b aufl¨osen.

18.2.2 Rechenregeln, Koordinatenform und Winkelberechnung

Satz 18.2 (Rechenregeln des Skalarprodukts) Es seien a, b und c Vekur das toren in der Ebene R2 oder im Raum R3 und r ∈ R. Dann gelten f¨ Skalarprodukt folgende Rechenregeln: a) Kommutativgesetz, Symmetrie: a · b = b · a, b) Distributivgesetz: a · (b + c) = a · b + a · c, c) 0 · a = 0 (hier ist es unerheblich, dass der Winkel ϕ nicht eindeutig ist), d) Cauchy-Schwarz’sche Ungleichung: |a · b| ≤ |a| · |b|, e) Homogenit¨ at: (r · a) · b = r · (a · b). Beweis a) Das Kommutativgesetz folgt direkt aus der Definition, da Kosinus eine gerade Funktion ist und damit die Orientierung des eingeschlossenen Winkels unerheblich ist. b) Das Distributivgesetz ist in Abbildung 18.11 veranschaulicht: Die Projektion von b + c auf a ist gleich der Summe der Projektionen von b und c auf a. Da das Skalarprodukt jeweils durch Multiplikation mit a entsteht, folgt die Gleichheit.

505

18.2. Skalarprodukt und Orthogonalit¨ at

c) Dies folgt direkt aus der Definition und |0| = 0. d) Die Cauchy-Schwarz’sche Ungleichung folgt aus der Definition des Skalarprodukts und der Absch¨atzung | cos(ϕ)| ≤ 1: |a · b| = |a| · |b| · | cos(ϕ)| ≤ |a| · |b|. e) F¨ ur r = 0 ist nichts zu zeigen. Sei α der Winkel zwischen a und b. Ist r > 0, so ist α auch der Winkel zwischen r · a und b und |(r · a) · b| = |r · a| · |b| · cos(α) = r · |a| · |b| · cos(α) = r · (a · b). Ist r < 0, so ist der Winkel zwischen r · a und b gleich α + π, und es ergibt sich ebenfalls |(r · a) · b| = |r| · |a| · |b| · cos(α + π) = −|r| · |a| · |b| · cos(α) = r · (a · b). 

Abb. 18.11 Zum Beweis von Satz 18.2: Die Summe der Projektionen von b und c auf a ist gleich der Projektion von b + c auf a

In R2 gelten die Beziehungen ei · ei = 1,

ei · ek = 0

f¨ ur k = i,

i, k ∈ {1, 2}.

Mit dem Distributivgesetz erh¨alt man unter Verwendung der Komponentendarstellung f¨ ur das Skalarprodukt a · b = (a1 · e1 + a2 · e2 ) · (b1 · e1 + b2 · e2 ) = a1 b1 (e1 · e1 ) + a1 b2 (e1 · e2 ) + a2 b1 (e2 · e1 ) + a2 b2 (e2 · e2 ) = a1 b1 · 1 + a1 b2 · 0 + a2 b1 · 0 + a2 b2 · 1 = a1 b1 + a2 b2 . Damit haben wir gezeigt: Satz 18.3 (Koordinatenform des Skalarprodukts in R2 und R3 ) • Das Skalarprodukt der Vektoren a = (a1 , a2 ) und b = (b1 , b2 ) in R2 wird berechnet, indem man a und b koordinatenweise multipliziert und

506

Kapitel 18. Vektoren in der Ebene und im Raum

die Produkte addiert: a · b = a1 b1 + a2 b2 .

(18.2)

 √ |a| = a · a = a21 + a22 .

(18.3)

F¨ ur den Betrag von a gilt

• Entsprechend gilt im Raum R3 : Das Skalarprodukt der Vektoren a = (a1 , a2 , a3 ) und b = (b1 , b2 , b3 ) wird berechnet, indem man a und b koordinatenweise multipliziert und die Produkte addiert: a · b = a1 b1 + a2 b2 + a3 b3 .

(18.4)

F¨ ur den Betrag von a gilt |a| =

 √ a · a = a21 + a22 + a23 .

(18.5)

Mit Hilfe des Skalarprodukts kann man den Winkel zwischen zwei Vektoren a = 0 und b = 0 berechnen. Umstellung von (18.1) liefert ' ( a · b a · b cos(ϕ) = bzw. ϕ = arccos . |a| |b| |a| |b| Beispiel 18.2 a) F¨ ur die Vektoren ⎛ ⎞ ⎛ ⎞ 1 1 a = ⎝ 2 ⎠ , b = ⎝ −2 ⎠ , 4 2



⎞ −4 1 c = · ⎝ −4 ⎠ 4 3

berechnet man a ·b = 1 · 1 + 2 · (−2) + 4 · 2 = 5,

a ·c =

1 · (1 · (−4) + 2 · (−4) + 4 · 3) = 0. 4

Das erste Skalarprodukt ist positiv, d. h., die Vektoren a und b bilden einen spitzen Winkel. Die Vektoren a und c sind orthogonal. b) F¨ ur den eingeschlossenen Winkel ϕ zwischen den Vektoren a = 4e1 − 3e3 ,

b = e1 − 2e2 + 2e3

erhalten wir ' ϕ = arccos

4 · 1 + 0 · (−2) + (−3) · 2   2 4 + 02 + (−3)2 · 12 + (−2)2 + 22

(

507

18.2. Skalarprodukt und Orthogonalit¨ at



2 = arccos − 15

≈ 1,7045 . . .

bzw. ϕ ≈ 97,66◦ .

18.2.3 Anwendungen des Skalarprodukts in der Geometrie Mit dem Skalarprodukt lassen sich elementare Aussagen aus der Geometrie ableiten und beweisen. Beispiel 18.3 Der Kosinus-Satz (siehe Seite 132) besagt, dass f¨ ur ein Dreieck mit Seitenl¨angen a,b und c sowie dem Winkel γ zwischen den Seiten zu a und b als Verallgemeinerung des Satzes von Pythagoras gilt: c2 = a2 + b2 − 2ab cos(γ).

Abb. 18.12 Vektorieller Beweis des Kosinus-Satzes

Fassen wir die Seiten des Dreiecks als Vektoren a, b und c = a − b auf (siehe Abbildung 18.12), so gestaltet sich der Beweis mit dem Skalarprodukt so: |c|2 = (a − b) · (a − b) = |a|2 − 2a · b + |b|2 = |a|2 − 2|a||b| cos(γ) + |b|2 . Satz 18.4 (Satz von Thales (ca. 624–546 v. Chr.)) Verbindet man die Endpunkte der Grundlinie eines Halbkreises mit einem Punkt auf dem Halbkreis zu einem Dreieck, so ist dieses rechtwinklig. Diese Konstruktion wird als Thaleskreis bezeichnet. Beweis Mit den Vektoren aus Abbildung 18.13 gilt a = u + v ,

b = u − v ,

|u| = |v |

(Kreisradien) und

508

Kapitel 18. Vektoren in der Ebene und im Raum

a · b = (u + v ) · (u − v ) = |u|2 − |v |2 = 0.

Wegen a · b = 0 ⇐⇒ a ⊥ b folgt daraus die Behauptung des Satzes von Thales. 

a

Abb. 18.13 Zum Beweis des Satzes von Thales

u

v

b u

Beispiel 18.4 (Ausrichtung von Linien um eine Mittellinie) In Katasteramtsdaten sind beispielsweise Mauern, Hecken und Gleise als einzelner Streckenzug dargestellt, der die Mitte beschreibt. Dabei sind St¨ utzpunkte angegeben, die durch gerade Linien verbunden werden. Wenn wir die Objekte in einem virtuellen Stadtmodell zeichnen wollen, dann m¨ ussen wir um die vorhandene Mittellinie zwei Randlinien legen. Wie erhalten wir an den Stellen, an denen Knicke sind, die St¨ utzpunkte f¨ ur die Randlinien? Dazu betrachten wir einen Abschnitt, der vom Punkt (x0 , y0 ) u ¨ber den Punkt (x1 , y1 ) zum Punkt (x2 , y2 ) verl¨auft, siehe Abbildung 18.14. Zwischen (x0 , y0 ) und (x1 , y1 ) beschreibe der Einheitsvektor

1 y 0 − y1 , a :=  (y0 − y1 )2 + (x1 − x0 )2 x1 − x0 der senkrecht zur Mittellinie steht, den Abstand von der Mitte zum Rand. Entsprechend beschreibt der Einheitsvektor

1 y 1 − y2 b :=  (y1 − y2 )2 + (x2 − x1 )2 x2 − x1 den Abstand zwischen Mitte und Rand im Sektor von (x1 , y1 ) bis (x2 , y2 ). Dass die Vektoren orthogonal zur jeweiligen Mittellinie stehen, erkennt man durch Ausrechnen des Skalarprodukts. Sie sind durch den Vorfaktor Einheitsvektoren. Die Diagonale“ a + b des von a und b aufgespannten Parallelogramms ” beschreibt die Richtung von der Knickstelle (x1 , y1 ) zum zu berechnenden St¨ utzpunkt der Randlinie. Entlang dieses Vektors sei r der Abstand von der Mitte zum Rand. Damit ist r = 1/ cos(α), wobei α der Winkel im rechtwinkr a +b) bzw. zwischen ligen Dreieck zwischen dem Einheitsvektor a und | a+

b| · ( r ¨ · (a + b) und dem Einheitsvektor b ist. Uber das Skalarprodukt erhalten |

a+ b|

509

18.2. Skalarprodukt und Orthogonalit¨ at

wir cos(α): cos(α) =

(a + b) · b a · (a + b) = . |a + b| |a + b|

Der Vektor von (x1 , y1 ) zum Knick des Randes ist damit das r-fache des zur L¨ ange 1 normierten Vektors a + b: |a + b| a + b 1 a + b = = (a + b).    |a + b| a · (a + b) |a + b| a · (a + b)

a+ b



a

α

b

(x1, y1)

(x0, y0)

(x2, y2)

Abb. 18.14 Ausrichtung paralleler Linien: Jedes Gleis besteht aus zw¨ olf Linien (vier Kanten des Bahndamms, vier Kanten pro Schiene), die parallel zur Oberleitung konstruiert wurden. Bei einem Stadtmodell wurden ebenso Dach¨ uberst¨ ande mittels zum Grundriss paralleler Linien hinzugef¨ ugt, siehe [Goebbels und Pohle-Fr¨ ohlich(2023)]

18.2.4 Orthogonale Projektion und Lot In der Physik, vor allem in der Mechanik, ben¨otigt man oft die Zerlegung eines Vektors b in einen Anteil“ u, der zu einem gegebenen Vektor a parallel ist ” (d. h., u ist ein skalares Vielfaches von a), und einen dazu senkrechten Anteil v gem¨aß b = u + v . Ist beispielsweise b eine Kraft, so ist der Anteil dieser Kraft in Richtung von a der Vektor u. Der Vektor u heißt orthogonale Projektion oder kurz

510

Kapitel 18. Vektoren in der Ebene und im Raum

Projektion von b auf a, der Vektor v = b − u wird als Lot von b auf a bezeichnet. Beide Vektoren sind tats¨achlich eindeutig festgelegt:

v

b Abb. 18.15 Zerlegung des Vektors b in Projektion  u und Lot v auf den Vektor a

u

a

Satz 18.5 (Projektion und Lot) Es seien b und a = 0 Vektoren in der Ebene R2 oder im Raum R3 . Der Vektor b l¨asst sich eindeutig als Summe eines zu a parallelen Anteils u und eines zu a senkrechten Anteils v schreiben: b = u + v . Dabei sind u und v eindeutig festgelegt u ¨ber: u =

b · a a |a|2

und v = b −

b · a a. |a|2

Beweis Offensichtlich gilt f¨ ur die angegebenen Vektoren u und v , dass b = u + v . Als Vielfaches von a ist u parallel zu a. Dass v senkrecht zu a steht, rechnen wir mit dem Skalarprodukt nach: b · a a · v = a · b − 2 a · a = a · b − b · a = 0. |a| Damit hat die angegebene Zerlegung die gew¨ unschten Eigenschaften. Es bleibt die Eindeutigkeit zu zeigen. Ist u parallel zu a, so handelt es sich um ein skalares Vielfaches u = λa. Da in Summe b entsteht, ist v = b − λa. Da v senkrecht zu a steht, gilt: 0 = a · (b − λa) = a · b − λ|a|2 , so dass wie angegeben λ =

a· b |

a|2

sein muss.



Beispiel 18.5 F¨ ur die Vektoren b = (1, 1, 2) und a = (2, 1, 0) bestimmen wir die Zerlegung von b in Projektion und Lot bez¨ uglich a. Wir berechnen b ·a = 1 · 2 + 1 · 1 + 2 · 0 = 3 und |a|2 = a ·a = 22 + 12 + 02 = 5. Weiter folgt die Zerlegung b = u + v mit

18.3. Vektorprodukt und Spatprodukt

⎛ ⎞ 2 b · a 3⎝ ⎠ 1 u =  a = |a|2 5 0

511

⎛ ⎞ ⎛ ⎞ ⎛ ⎞ 1 2 −1 3 1 und v = b − u = ⎝ 1 ⎠ − ⎝ 1 ⎠ = ⎝ 2 ⎠ . 5 5 2 0 10

18.3 Vektorprodukt und Spatprodukt Neben dem Skalarprodukt werden zwei weitere Produkte von Vektoren f¨ ur die Anwendungen ben¨otigt.

18.3.1 Vektorprodukt Wie beim Skalarprodukt gibt es auch f¨ ur das Vektorprodukt eine Motivation aus der Mechanik. Wir betrachten eine Masse in einem Punkt P , der gemeinsam mit einem weiteren Punkt O in einer Ebene liegt. Senkrecht zur Ebene verl¨auft durch O eine Drehachse (siehe Abbildung 18.16). Die Masse ist an der Drehachse befestigt und kann nur in der vorgegebenen Ebene um O gedreht werden. Auf die Masse im Punkt P wirkt die Kraft F , die u ¨ber einen Vektor in der gew¨ahlten Ebene dargestellt werden kann. Sie hat also in diesem Beispiel keine Komponente parallel zum Verlauf der Drehachse. Die Masse wird durch die Kraft in eine Drehbewegung versetzt, man sagt: Die Kraft F erzeugt ein Drehmoment M um die Drehachse. −−→ • Gilt nun r := OP ⊥ F , so ist M = |F | · |r|, d. h., es gilt das Hebelgesetz: Kraft mal Kraftarm“. ” • Zeigt F in Richtung von r, dann wird kein Moment erzeugt, d. h., es ist M = 0.

 Abb. 18.16 Die Kraft F erzeugt ein Drehmoment, das einem Vektor in Richtung der Drehachse nach oben entspricht

Im allgemeinen Fall schließen die Vektoren r und F einen Winkel ϕ ein. Hier −−→ zerlegt man F in das Lot F1 senkrecht zu OP und die Projektion F2 parallel −−→ zu OP . Dann liefert nur F1 mit |F1 | = |F | sin(ϕ) einen Beitrag zum Moment: M = |F1 | · |r | = |F | sin(ϕ) · |r |.

512

Kapitel 18. Vektoren in der Ebene und im Raum

Das Drehmoment M sagt noch nichts u ¨ber die Richtung der Drehung aus. M¨ochten wir sowohl das Drehmoment als auch den Drehsinn in einer Gr¨ oße  einf¨ angeben, so k¨onnen wir einen Drehmomentvektor M uhren, dessen Betrag M ist und der parallel zur Drehachse liegt, also senkrecht zu der  wird so gew¨ Ebene, in der sich r und F befinden. Die Orientierung von M ahlt,   dass r, F , M ein Rechtssystem bilden, siehe Seite 498, d. h., zeigt der Daumen in Richtung von r und der Zeigefinger in Richtung von F , dann zeigt der . gespreizte Mittelfinger in Richtung von M Die Rechenoperation, die im Beispiel den Vektoren r und F den Vektor  M zuordnet, nennt man Vektorprodukt, Kreuzprodukt oder auch ¨ außeres Produkt. Es hat vielf¨altige Anwendungen, z. B. kann man damit auch die Richtung der Lorentzkraft berechnen, die auf eine bewegte Ladung in einem Magnetfeld wirkt. In der 3D-Computergrafik ben¨ otigt man Vektoren, die senkrecht zu Fl¨achen stehen und die mit dem Vektorprodukt berechnet werden. Der Winkel zwischen diesen Vektoren und dem einfallenden Licht entscheidet dann u ¨ber die Helligkeit der Fl¨ache. Definition 18.5 (Vektorprodukt im R3 ) Es seien a, b Vektoren im Raum R3 , die einen Winkel ϕ ∈ [0, 2π[ einschließen. Das Vektorprodukt (¨ außere Produkt) c = a × b ist der eindeutige Vektor mit folgenden Eigenschaften: a) Der Betrag ist |c| = |a| · |b| · | sin(ϕ)|

(18.6)

und entspricht damit dem Fl¨acheninhalt des von a und b aufgespannten Parallelogramms, b) c ist orthogonal zu a und b, c) a, b und c bilden ein Rechtssystem.

Abb. 18.17 Definition des Vektorprodukts im R3

Abbildung 18.17 veranschaulicht den Inhalt von Definition 18.5. Man beachte die Interpretation des Betrags von a × b als Maßzahl des Fl¨ acheninhalts

18.3. Vektorprodukt und Spatprodukt

513

des von a und b aufgespannten Parallelogramms, der mit dem Inhalt des Rechtecks mit den Kantenl¨angen |a| und |b|| sin(ϕ)| u ¨bereinstimmt. F¨ ur das Vektorprodukt gelten folgende Rechenregeln: Satz 18.6 (Rechenregeln des Vektorprodukts) F¨ ur die Vektoren a, b, c ∈ R3 gelten die folgenden Rechenregeln: a) Anti-Kommutativgesetz: a × b = −b × a, b) Distributivgesetze:

a × (b + c) = (a × b) + (a × c), (a + b) × c = (a × c) + (b × c),

c) a × a = a × 0 = 0 (bei 0 spielt wieder die fehlende Eindeutigkeit von ϕ keine Rolle), d) a × b = 0 ⇐⇒ a und b sind parallel, oder einer der beiden Vektoren ist der Nullvektor, e) a × (λ · b) = λ · (a × b), λ ∈ R. Beweis (Skizze) a) Vertauscht man Daumen und Zeigefinger, so zeigt der Mittelfinger in die entgegengesetzte Richtung wie zuvor. b) Die Distributivgesetze sind schwieriger nachzuweisen als beim Skalarprodukt und werden hier nicht ausgef¨ uhrt. c) Der Winkel zwischen a und a ist ϕ = 0, so dass nach Definition a × a = 0. Wegen |0| = 0 folgt auch a × 0 = 0 mit der Definition. d) a × b ist genau dann 0, wenn die L¨ange eines Vektors null ist oder der Sinus des Winkels null ergibt. e) Unter Ber¨ ucksichtigung, dass sich durch Multiplikation mit einer negativen Zahl die Richtung von b a¨ndert, folgt dies unmittelbar aus der Definition.  Damit erhalten wir f¨ ur die Vektorprodukte der Standard-Einheitsvektoren: ei × ei = 0, e1 × e2 = −e2 × e1 = e3 , e2 × e3 = −e3 × e2 = e1 , e3 × e1 = −e1 × e3 = e2 . Unter Verwendung der Komponentendarstellung der Vektoren a × b ergibt sich mit den Rechenregeln eine praktisch viel einfachere M¨ oglichkeit zur Berechnung des Vektorprodukts: a × b = (a1 · e1 + a2 · e2 + a3 · e3 ) × (b1 · e1 + b2 · e2 + b3 · e3 ) = a1 b1 · (e1 × e1 ) + a1 b2 · (e1 × e2 ) + · · · + a3 b3 · (e3 × e3 ) = a1 b2 · e3 − a1 b3 · e2 − a2 b1 · e3 + a2 b3 · e1 + a3 b1 · e2 − a3 b2 · e1 = (a2 b3 − a3 b2 ) · e1 + (a3 b1 − a1 b3 ) · e2 + (a1 b2 − a2 b1 ) · e3 .

514

Kapitel 18. Vektoren in der Ebene und im Raum

Satz 18.7 (Koordinatenform des Vektorprodukts) F¨ ur zwei Vektoren a = (a1 , a2 , a3 ) und b = (b1 , b2 , b3 ) ∈ R3 ist ⎛ ⎞ a 2 b3 − a 3 b2 a × b = ⎝ a3 b1 − a1 b3 ⎠ . a 1 b2 − a 2 b1 Dieses Ergebnis l¨asst sich u ¨ber das formale Ausrechnen von Determinanten merken: ⎞ ⎛    a 2 b2  ⎜  a 3 b3  ⎟  ⎜  ⎟ ⎛ ⎞ ⎟  e1 e2 e3  ⎜  a 2 b3 − a 3 b2  ⎜  a 3 b3  ⎟   ⎟ = ⎝ a 3 b1 − a 1 b3 ⎠ .  a × b =  a1 a2 a3  = ⎜ ⎟ ⎜  b1 b2 b3  ⎜ a 1 b1 ⎟ a 1 b2 − a 2 b1 ⎜ ⎟ ⎝  a 1 b1  ⎠    a 2 b2  Beispiel 18.6 F¨ ur die Vektoren a = 2e1 −e2 +3e3 und b = −e2 +4e3 erhalten wir ⎛ ⎞ ⎛ ⎞ ⎛ ⎞ ⎛ ⎞ 2 0 (−1) · 4 − 3 · (−1) −1 ⎠ = ⎝ −8 ⎠ 3·0−2·4 c := a × b = ⎝ −1 ⎠ × ⎝ −1 ⎠ = ⎝ 3 4 2 · (−1) − (−1) · 0 −2 = −e1 − 8e2 − 2e3 . Hintergrund: Vektorprodukt u art ¨ ber die Cramer’sche Regel erkl¨ Zu zwei Vektoren (x1 , y1 , z1 ) und (x2 , y2 , z2 ) , die wechselseitig keine Vielfachen voneinander sind, ist ein dritter Vektor (x3 , y3 , z3 ) gesucht, der senkrecht zu den beiden gegebenen steht. Die Skalarprodukte mit diesem Vektor m¨ ussen also null sein:



x1 x 3 + y 1 y 3 + z1 z3 = 0 x2 x3 + y2 y3 + z2 z3 = 0.

Damit haben wir bereits zwei Gleichungen f¨ ur die drei Unbekannten x3 , y3 und z3 . Als dritte Gleichung verlangen wir, dass f¨ ur ein a = 0

515

18.3. Vektorprodukt und Spatprodukt

⎤ y 1 z1 y 2 z2 ⎦ = a y 3 z3    y 1 z1 x ⇐⇒ det · x3 − det 1 y 2 z2 x2 ⎡

x1 det ⎣ x2 x3

  x z1 · y3 + det 1 z2 x2

 y1 · z3 = a y2

ist. Das von den drei Zeilenvektoren aufgespannte Parallelepiped soll somit das Volumen |a| haben. Zudem wird die Richtung (das Vorzeichen) des zu den beiden anderen senkrecht stehenden Vektors (x3 , y3 , z3 ) festgelegt. Insgesamt haben wir nun ein lineares Gleichungssystem mit drei Gleichungen. Dieses hat die Matrix ⎤ ⎡ y1 z1 x1 ⎥ ⎢  y2   z2 ⎥  x2 A := ⎢ ⎣ x 1 z1 x1 y1 ⎦ y 1 z1 − det det det y 2 z2 x 2 z2 x 2 y2 und die Inhomogenit¨at (0, 0, a) . W¨ahlen wir speziell a := det(A), dann erhalten wir die L¨osung mit der Cramer’schen-Regel (auf das Nachrechnen, dass die Determinante tats¨achlich ungleich null ist, verzichten wir):    0  z1 y1    0  y z 2  2      x 1 z1   x 1 y 1        det(A) −   x2 z2   x2 y2    y z   1 =  1 = y1 z2 − z1 y 2 , x3 = y 2 z2  det(A)     0 z1 x1     0   x2   z2     y 1 z1   x 1 y1           y2 z2  det(A)  x2 y2    x 1 z1    = z1 x2 − x1 z2 , y3 = = − x 2 z2  det(A)    y1 0  x1   0    y2   x2   x 1 z1    y 1 z1          y2 z2  −  x2 z2  det(A)   x y  1 =  1 z3 = = x 1 y2 − x 2 y1 . x 2 y2  det(A) Dies ist genau der Vektor, den man u ¨ber das Vektorprodukt von (x1 , y1 , z1 ) und (x2 , y2 , z2 ) erh¨alt. Jetzt sehen wir uns noch an, was die Wahl a = det(A) bedeutet. Wenn wir diese Determinante nach der letzten Zeile entwickeln, dann erhalten wir det(A) = x23 + y32 + z32 = |(x3 , y3 , z3 ) |2 als Volumen des von (x1 , y1 , z1 ) , (x2 , y2 , z2 ) und (x3 , y3 , z3 ) aufgespannten Parallelepipeds. Aufgrund der konstruierten Orthogonalit¨ at hat das von acheninhalt (x1 , y1 , z1 ) , (x2 , y2 , z2 ) aufgespannte Parallelogramm den Fl¨

516

Kapitel 18. Vektoren in der Ebene und im Raum

|(x3 , y3 , z3 ) |2 /|(x3 , y3 , z3 ) | = |(x3 , y3 , z3 ) |, wie in der Definition des Vektorprodukts gefordert.

Beispiel 18.7 (Orientierung eines Dreiecks) Beim Zeichnen von Objekten mit dem Computer ist es wichtig zu wissen, welche Fl¨ achen sichtbar und welche unsichtbar sind. Soll eine Fl¨ache nur gezeichnet werden, wenn man sie von der einen, nicht aber von der anderen Seite sieht, so kann der Umlaufsinn der Eckpunkte genutzt werden. Dieser kehrt sich bei Betrachtung von der anderen Seite um. Nur einseitig sichtbare Fl¨ achen liegen z. B. bei Oberfl¨achen geschlossener K¨orper vor. Ist der Umlaufsinn mathematisch positiv, dann wird gezeichnet, sonst ist die Fl¨ache vom Betrachter abgewandt und kann weggelassen werden. Wir betrachten in der Bildschirmebene das Dreieck mit den Eckpunkten (x0 , y0 ), (x1 , y1 ) und (x2 , y2 ). Durch die Reihenfolge der Eckpunkte ist der Umlaufsinn vorgegeben. Die beiden Vektoren a := (x0 − x1 , y0 − y1 , 0) ,

b := (x2 − x1 , y2 − y1 , 0) ,

aß der zeigen ausgehend von (x1 , y1 , 0) nach (x0 , y0 , 0) und (x2 , y2 , 0). Gem¨ 3  Rechte-Hand-Regel erhalten wir u ¨ber das Vektorprodukt a × b ∈ R einen Vektor, der den Umlaufsinn des Dreiecks anzeigt: • Ist die dritte Koordinate von a × b gr¨oßer null, so wird das Dreieck im Uhrzeigersinn, d. h. im mathematisch negativen Sinn, umlaufen. • Ist die dritte Koordinate kleiner null, so wird das Dreieck entgegen des Uhrzeigersinns, d. h. im mathematisch positiven Sinn, umlaufen.

18.3.2 Spatprodukt Drei Vektoren a, b und c, die nicht in einer Ebene liegen, spannen einen Spat oder ein Parallelepiped auf (siehe Abbildung 18.18). Definition 18.6 (Spatprodukt) F¨ ur die Vektoren a, b, c ∈ R3 heißt die Zahl [a, b, c ] := (a × b) · c (18.7) das Spatprodukt.



! Achtung

Wie benutzen die Klammer-Notation f¨ ur das Spatprodukt nur lokal in diesem Abschnitt. Wenn wir Vektoren als Spalten in eine Matrix schreiben,

18.3. Vektorprodukt und Spatprodukt

517

verwenden wir in anderen Abschnitten die gleiche Schreibweise. Aus dem Zusammenhang ist dar¨ uber hinaus aber stets klar, ob eine Matrix oder das Spatprodukt gemeint ist.

Der Betrag des Spatprodukts ist das Volumen des von den drei Vektoren aufgespannten Spats. Denn |a × b| gibt den Inhalt der Grundfl¨ ache des durch a und b aufgespannten Spats an. Die L¨ange der Projektion von c auf a × b ist die H¨ohe     c · (a × b)   (a × b) h= (18.8)   |a × b|2 des Spats. Das Volumen ist somit |a × b| ·

|c · (a × b)| |a × b| = |c · (a × b)| = |(a × b) · c|. |a × b|2

Bilden a, b und c ein Rechtssystem, so ist das Spatprodukt nicht-negativ, und auf den Betrag kann verzichtet werden.

Abb. 18.18 Durch die Vektoren a, b und c aufgespanntes Parallelepiped (Spat)

Rechnen wir das Spatprodukt ⎛ ⎞ ⎛ ⎞ a 2 b3 − a 3 b2 c1 a b c + a 2 b3 c 1 + a 3 b1 c 2 [a, b, c ] = ⎝ a3 b1 − a1 b3 ⎠ · ⎝ c2 ⎠ = 1 2 3 −a3 b2 c1 − a1 b3 c2 − a2 b1 c3 a 1 b2 − a 2 b1 c3 in dieser allgemeinen Form aus, so erkennen wir die Sarrus’sche Regel wieder. Das Spatprodukt l¨asst sich als Determinante einer (3 × 3)-Matrix berechnen:    a1 a2 a3    [a, b, c ] =  b1 b2 b3  .  c1 c2 c3 

518

Kapitel 18. Vektoren in der Ebene und im Raum

Diese Darstellung eignet sich als Merkregel f¨ ur die Anwendung. Satz 18.8 (Rechenregeln des Spatprodukts) F¨ ur Vektoren a, b und c 3 im Raum R und das Spatprodukt gelten folgende Rechenregeln: a) [a, b, c ] = [c, a, b ] = −[a, c, b ] = −[c, b, a ] = [b, c, a ], b) [a, b, c ] = 0 ⇐⇒ a, b und c liegen in einer Ebene, wobei weder a noch b noch c der Nullvektor sein muss (aber sein kann). Beweis a) Eine Determinante ¨andert ihr Vorzeichen, wenn man zwei Zeilen oder Spalten vertauscht (siehe Folgerung 7.1 d) auf Seite 210). Damit folgen die Gleichungen aus der obigen Determinanten-Darstellung des Spatprodukts. b) Das Volumen des von den Vektoren aufgespannten Spats (und damit das Spatprodukt) ist genau dann null, wenn die Vektoren in einer Ebene liegen.  Beispiel 18.8 Mit dem Spatprodukt kann einfach nachgepr¨ uft werden, ob drei Vektoren in einer Ebene liegen: a) Die drei Vektoren a1 = (3, 2, −1) , a2 = (−3, −4, 2) und a3 = (12, 6, −3) liegen in einer Ebene, da    3 2 −1    −3 −4 2  = 36 + 48 + 18 − 48 − 36 − 18 = 0.   12 6 −3  b) b1 = (1, 1, 4) , b2 = (1, −2, 1) und b3 = (3, −3, 4) liegen nicht in einer Ebene, da   1 1 4   [b1 , b2 , b3 ] =  1 −2 1  = −8 + 3 − 12 − (−24) − (−3) − 4 = 6 = 0.  3 −3 4 

18.4 Anwendungen des Skalar-, Vektor- und Spatprodukts Beispiel 18.9 (Sinus-Satz) Auf Seite 133 haben wir den Sinus-Satz bewiesen: In einem Dreieck mit Seitenl¨angen a, b und c sowie den Seiten gegen¨ uberliegenden Winkeln α, β und γ gilt

18.4. Anwendungen des Skalar-, Vektor- und Spatprodukts

519

b c a = = . sin(α) sin(β) sin(γ)

Abb. 18.19 Vektorieller Beweis des Sinussatzes

Nun wiederholen wir den Beweis unter Verwendung des Vektorprodukts. Dazu fassen wir die Seiten als Vektoren auf, wobei c = a + b sei. Das Vektorprodukt mit c von rechts ergibt (beachte c × c = 0) 0 = (a × c) + (b × c) ⇐⇒ a × c = c × b. Bei gleichen Vektoren m¨ ussen die Betr¨age gleich sein (beachte 0 < α, β < π, sin(α) > 0, sin(β) > 0): |a||c | sin(β) = |b||c | sin(α). Damit ergibt sich eine Aussage des Sinussatzes: |b| |a| = . sin(α) sin(β) Die zweite Gleichung folgt analog. Beispiel 18.10 (Dreiecksberechnung) Die Punkte A = (1, 0, 1) , B = (2, 1, 0) und C = (1, 1, 0) sind die Ecken eines r¨ aumlichen Dreiecks. Den Punkten in R3 entsprechen die Ortsvektoren ⎛ ⎞ ⎛ ⎞ ⎛ ⎞ 1 2 1 −→ ⎝ ⎠ −−→ ⎝ ⎠ −−→ ⎝ ⎠ OA = 0 , OB = 1 und OC = 1 . 1 0 0 Die Seitenvektoren und Seitenl¨angen des Dreiecks sind −−→ −−→ a = OC − OB = (−1, 0, 0) mit |a| = 1, √ → −−→ b = − OA − OC = (0, −1, 1) mit |b| = 2, √ −−→ −→ c = OB − OA = (1, 1, −1) mit |c| = 3.

520

Kapitel 18. Vektoren in der Ebene und im Raum

Zur Kontrolle pr¨ ufen wir, dass die Summe der Vektoren den Nullvektor ergibt: ur die Winkel zwischen den Schenkeln des Dreiecks a + b + c = (0, 0, 0) . F¨ (siehe Abbildung 18.20) erhalten wir u ¨ber das Skalarprodukt

Abb. 18.20 Zur Dreiecksberechnung

√ π 2 cos(γ) ⇐⇒ γ = 2 √ √ (−b ) · c = |b||c| cos(α) ⇐⇒ 2 = 2 3 cos(α) ⇐⇒ α=0,6155... √ (−c ) · a = |c||a| cos(β) ⇐⇒ 1 = 3 cos(β) ⇐⇒ β=0,9553... (−a) · b = |a||b| cos(γ) ⇐⇒ 0 =

Zur Kontrolle rechnen wir α + β + γ = π. Die Fl¨ache des Dreiecks mit den Eckpunkten A, B, C ist gleich der halben Fl¨ache des Parallelogramms, das von a und b aufgespannt wird. Wir u ufen dies gleich dreifach: ¨berpr¨ √ |a × b| = 2, a × b = (0, 1, 1) , √ c × b = (0, −1, −1) , |c × b| = 2, √ a × c = (0, −1, −1) , |a × c |= 2. Die Fl¨ache des Dreiecks betr¨agt also



2 2

Fl¨acheneinheiten.

Beispiel 18.11 (Tetraedervolumen) Es seien a, b, c ∈ R3 drei Vektoren, die nicht in einer Ebene liegen. Dann spannen a, b und c ein Tetraeder auf (siehe Abbildung 18.21). Die Grundfl¨ache G ist gleich der halben Fl¨ ache des  Parallelogramms, das von a und b aufgespannt wird. Die H¨ ohe h entspricht der H¨ohe des Spats u ¨ber der Ebene von a und b. Das Volumen des Tetraeders berechnet sich mit der Formel V =

1 G · h. 3

Mit G = 12 |a × b| und h nach (18.8) erhalten wir    c · (a × b)  1 1 1 1   V = · |a × b| ·  (a × b) = |(a × b) · c| = |[a, b, c ]|.  |a × b|2  6 3 2 6

521

18.5. Geraden in der Ebene und im Raum

F¨ ur a = (−1, 0, 0) , b = (0, −1, 1) und c = (1, 2, 3) erhalten wir das Volumen des Tetraeders  ⎡ ⎤  −1 0 0   1 1 5 V = |[a, b, c ]| = det ⎣ 0 −1 1 ⎦ = . 6 6 6 1 2 3 

c

h b

Abb. 18.21 Volumen eines Tetraeders

a

18.5 Geraden in der Ebene und im Raum 18.5.1 Darstellungsformen von Geraden Aus der Schule kennen Sie die Gerade in der Ebene R2 als Funktion y = f (x) = mx + b mit Steigung m und f (0) = b. In Kapitel 4.6.1 wurde dieser Funktionstyp bereits diskutiert. F¨ ur die x-Achse als Gerade gilt beispielsweise y = f (x) = 0. Die y-Achse ist auch eine Gerade in der Ebene, l¨ asst sich aber nicht in dieser Form beschreiben. Man ben¨otigt daher andere Darstellungen f¨ ur Geraden. Lemma 18.1 (Koordinatengleichung der Gerade in R2 ) Die Elemente der L¨osungsmenge g der linearen Gleichung a 1 x 1 + a2 x 2 = c

(18.9)

mit (a1 , a2 ) = (0, 0) und c ∈ R bilden eine Gerade in der Ebene R2 . Man nennt (18.9) die Koordinatengleichung oder kurz die Gleichung der Gerade g. Wir k¨onnen die L¨osungen (x1 , x2 ) entweder als Punkte der Gerade auffassen, dann schreiben wir sie als Zeilenvektor, oder wir schreiben sie als Spaltenvektor (x1 , x2 ) , dann sind sie die Ortsvektoren der Punkte der Gerade.

522

Kapitel 18. Vektoren in der Ebene und im Raum

Wir sehen sofort, dass es sich bei den L¨osungen um die Punkte einer Gerade 1 x1 . Sonst ist a1 = 0 und handelt: Ist a2 = 0, so ist x2 = f (x1 ) := c−a a2 c−a2 x2 x1 = g(x2 ) := a1 . Die Graphen der Funktionen f und g sind Geraden. Die y-Achse wird nun mit g(x) = 0 durch die Gleichung x1 = 0 beschrieben. Ist eine Gerade u ¨ber eine Koordinatengleichung gegeben, so hat man keine unmittelbare Vorstellung von ihrem Verlauf. Das ist bei der PunktRichtungsform anders. Eine Gerade g ist eindeutig festgelegt durch einen Ortsvektor x0 eines beliebigen Punkts auf der Gerade und einen Richtungsvektor v = 0. Man erh¨alt jeden Ortsvektor x von g, indem man zu x0 ein Vielfaches des Richtungsvektors λ v addiert (vgl. Abbildung 18.22). Lemma 18.2 (Punkt-Richtungsform der Gerade) Es seien x0 und v Vektoren in der Ebene R2 oder im Raum R3 . Dann sind die Vektoren x = x0 + λv ,

λ∈R

(18.10)

Ortsvektoren der Punkte einer Gerade g in der Ebene oder im Raum. Der Punkt des Ortsvektors x0 heißt Aufpunkt und der Vektor v = 0 heißt Richtungsvektor von g. Man nennt (18.10) die Punkt-Richtungsform oder Parameterform von g.

Abb. 18.22 PunktRichtungsform einer Gerade

In der Ebene betrachten wir den Zusammenhang zwischen (18.9) und (18.10) etwas genauer: Ein Vektor n ∈ R2 mit n · v = 0 (d. h. n ⊥ v ) wird als Normalenvektor von g bzw. von v bezeichnet. Zu v = (v1 , v2 ) stehen beispielsweise n = (−v2 , v1 ) oder n = (v2 , −v1 ) senkrecht. Bilden wir mit x = x0 + λv und dem Normalenvektor n = (n1 , n1 ) das Skalarprodukt, so folgt · v ⇐⇒ n1 x1 + n2 x2 = n · x0 , n · x = n · x0 + λ n  =0

und wir erhalten eine Koordinatengleichung von g. Da jede Gerade durch zwei verschiedene Punkte festgelegt ist und wir damit eine Punkt-Richtungsform

523

18.5. Geraden in der Ebene und im Raum

angeben k¨onnen, haben wir jetzt gezeigt, dass es zu jeder Gerade in R2 auch eine Koordinatengleichung gibt. Geht man umgekehrt von der Koordinatengleichung (18.9) f¨ ur g aus, so erh¨alt man (wie im folgenden Beispiel) die Punkt-Richtungsform, indem man in der unterbestimmten linearen Gleichung (18.9) eine Variable (d. h. eine uckt. Koordinate x1 oder x2 ) frei w¨ahlt und die jeweils andere damit ausdr¨ Beispiel 18.12 a) Die Gerade g ⊂ R2 sei gegeben durch die Gleichung 2x1 + 3x2 = 1. Wir bestimmen eine Punkt-Richtungsform von g, indem wir in osen: x1 = 12 (1 − 3t). In der Gleichung x2 := t setzen und nach x1 aufl¨ Vektorschreibweise folgt

3

1 x1 −2 , t ∈ R. = 2 +t x2 0 1 b) Die Gerade g ⊂ R2 sei in Punkt-Richtungsform gegeben durch



3 2 x = +λ , λ ∈ R. 1 −1 Wir berechnen eine Koordinatengleichung von g. Wegen v = (2, −1) ist n = (1, 2) ein Normalenvektor von g. Bildung des Skalarprodukts mit n liefert





1 1 x1 3 1 2 = · ⇐⇒ x1 + 2x2 = 5. · +λ · 2 x2 2 1 2 −1   =0

Eine Gerade g in R3 kann in Punkt-Richtungsform (18.10) mit dem Ortsvektor x0 ∈ R3 des Aufpunkts und dem Richtungsvektor v ∈ R3 dargestellt werden. Die Darstellung von g in Koordinatenform ben¨ otigt in Erweiterung zu (18.9) zwei lineare Gleichungen f¨ ur x = (x1 , x2 , x3 ) ∈ g: a 1 x 1 + a2 x 2 + a 3 x 3 = c 1 , ∧ b 1 x 1 + b 2 x 2 + b3 x 3 = c 2

(18.11)

mit c1 , c2 ∈ R, wobei die Vektoren (a1 , a2 , a3 ) und (b1 , b2 , b3 ) nicht kollinear sind. Um von der Koordinatenform (18.11) auf eine Punkt-Richtungsform umzurechnen, l¨ost man das unterbestimmte lineare Gleichungssystem. Umgekehrt erh¨alt man aus der Punkt-Richtungsform die Koordinatenform, indem man ausnutzt, dass der Richtungsvektor v senkrecht zu a = (a1 , a2 , a3 ) und b = (b1 , b2 , b3 ) stehen muss. Das sieht man, indem man die Punkt-Richtungsform in (18.11) einsetzt, denn beispielsweise kann a · (x0 + λv ) = c1 ⇐⇒ λ · a · v = c1 − a · x0 nur f¨ ur alle λ ∈ R gelten, wenn a · v = 0 ist.

524

Kapitel 18. Vektoren in der Ebene und im Raum

W¨ahlt man einen zu v orthogonalen Vektor a = (0, 0, 0), so erh¨ alt man die rechte Seite c1 in (18.11) durch Einsetzen des Ortsvektors x0 des Aufpunkts in die linke Seite der Gleichung. Die zweite Gleichung erh¨ alt man entsprechend u ¨ber einen weiteren orthogonalen Vektor b, der nicht kollinear zu a ist. Beispiel 18.13 a) Die Gerade g ⊂ R3 sei gegeben durch die beiden Gleichungen 2x1 + 2x2 + x3 = 1 ∧ x1 − x2 + x3 = 0. Wir bestimmen eine Punkt-Richtungsform von g, indem wir das lineare Gleichungssystem l¨osen:      3 1 1 0 1 −1 1 0 2 2 1 1 4 4 ⇐⇒ ⇐⇒ 1 . 1 −1 1 0 0 4 −1 1 0 1 − 14 4 Setzen wir x3 = t, so erhalten wir x2 = 14 (1 + t) und x1 = ⎛ 3⎞ ⎞ ⎛1⎞ −4 x1 4 1 1 ⎠, ⎠ ⎝ ⎝ ⎠ ⎝ x x = = 4 +t 2 4 x3 0 1 ⎛

1 4

− 34 t, also

t ∈ R.

b) Die Gerade g ⊂ R3 sei in Punkt-Richtungsform gegeben durch ⎛ ⎞ ⎛ ⎞ 1 1 g : x = ⎝ 2 ⎠ + λ ⎝ −1 ⎠ , λ ∈ R. 0 1 Wir berechnen Koordinatengleichungen von g. Aus der Forderung n · v = 0 bzw. n1 − n2 + n3 = 0 bestimmen wir die beiden nicht kollinearen Normalenvektoren n1 = (1, 1, 0) und n2 = (0, 1, 1) . Wir bilden das Skalarprodukt der Punkt-Richtungsform mit n1 und n2 und erhalten die Gleichungen n1 · x = n1 · x0 und n2 · x = n2 · x0 . Im Beispiel: x1 + x2 = 3 und x2 + x3 = 2.

18.5.2 Typische Aufgabenstellungen f¨ur Geraden Wir beginnen mit der Konstruktion einer Gerade durch zwei vorgegebene x ahlen wir den ersten als Aufpunkt, so ergibt sich der Punkte x 0 und  1 . W¨ Richtungsvektor als die Differenz der beiden Ortsvektoren v = x1 − x0 . Wir erhalten x = x0 + λ · (x1 − x0 ).

525

18.5. Geraden in der Ebene und im Raum

F¨ ur λ = 0 folgt x = x0 , f¨ ur λ = 1 folgt x = x1 . Um festzustellen, ob ein gegebener Punkt x 2 auf g liegt, untersucht man, ob ein λ ∈ R existiert mit x2 = x0 + λ · v .

Beispiel 18.14 Wir legen die Gerade g durch die Punkte x 0 = (1, 2, 3) und ahlen. Ein Richtungsvekx 1 = (1, 0, 2), indem wir den ersten als Aufpunkt w¨ tor ist v = x1 − x0 = (0, −2, −1) , und eine Punkt-Richtungsform lautet ⎛ ⎞ ⎛ ⎞ 1 0 x = ⎝ 2 ⎠ + λ · ⎝ −2 ⎠ 3 −1 bzw. in Koordinaten x1 = ⎛ 1,⎞x2 =⎛2−2λ, ⎞ x3⎛= 3−λ. ⎞ Der Punkt x3 = (1, 6, 5) 1 1 0 liegt auf g, denn es gilt ⎝ 6 ⎠ = ⎝ 2 ⎠ − 2 ⎝ −2 ⎠. Der Punkt x 4 = (2, 0, 3) 5 3 −1 ⎛ ⎞ ⎛ ⎞ ⎛ ⎞ 2 1 0 liegt nicht auf g, denn ⎝ 0 ⎠ = ⎝ 2 ⎠ +λ ⎝ −2 ⎠ besitzt keine L¨ osung λ ∈ R. 3 3 −1

Als zweite Anwendung betrachten wir die Lage zweier Geraden in R3 an drei Beispielen. Beispiel 18.15 a) Die Geraden ⎛ ⎞ ⎛ ⎞ 1 2 g1 : x = ⎝ 0 ⎠ + λ ⎝ 1 ⎠ 1 0

und

g2 :

⎛ ⎞ ⎛ ⎞ 1 1 x = ⎝ 2 ⎠ + λ ⎝ 1 ⎠ 0 1

haben keinen Schnittpunkt. Das lineare Gleichungssystem in λ, μ f¨ ur g 1 ∩ g2 : ⎛ ⎞ ⎛ ⎞ ⎛ ⎞ ⎛ ⎞ ⎛ ⎞ ⎛ ⎞ ⎛ ⎞ 1 2 1 1 2 1 0 ⎝ 0 ⎠ + λ ⎝ 1 ⎠ = ⎝ 2 ⎠ + μ ⎝ 1 ⎠ ⇐⇒ λ ⎝ 1 ⎠ − μ ⎝ 1 ⎠ = ⎝ 2 ⎠ 1 0 0 1 0 1 −1 bzw. ⎡

2 −1 ⎣ 1 −1 0 −1

⎤ ⎡ 2 −1 0 2 ⎦ ⇐⇒ ⎣ 1 −1 −1 0 1

⎤ ⎡ 1 0 0 2 ⎦ ⇐⇒ ⎣ 1 0 1 0 1

⎤ −2 3⎦ 1

besitzt keine L¨osung. Die erste und die zweite Gleichung widersprechen sich. b) Die Geraden ⎛ ⎞ ⎛ ⎞ ⎛ ⎞ ⎛ ⎞ 1 7 2 1 g1 : x = ⎝ 0 ⎠ + λ ⎝ 1 ⎠ und g2 : x = ⎝ 2 ⎠ + λ ⎝ 1 ⎠ 2 0 0 1

526

Kapitel 18. Vektoren in der Ebene und im Raum

haben genau einen Schnittpunkt. Das lineare Gleichungssystem in λ, μ f¨ ur g 1 ∩ g2 : ⎛ ⎞ ⎛ ⎞ ⎛ ⎞ ⎛ ⎞ ⎛ ⎞ ⎛ ⎞ ⎛ ⎞ 1 2 7 1 2 1 6 ⎝ 0 ⎠ + λ ⎝ 1 ⎠ = ⎝ 2 ⎠ + μ ⎝ 1 ⎠ ⇐⇒ λ ⎝ 1 ⎠ − μ ⎝ 1 ⎠ = ⎝ 2 ⎠ 2 0 0 1 0 1 −2 bzw. ⎡ 2 −1 ⎣ 1 −1 0 −1

⎤ ⎡ 2 6 2 ⎦ ⇐⇒ ⎣ 1 −2 0

0 0 1

⎤ ⎡ 1 8 4 ⎦ ⇐⇒ ⎣ 1 2 0

0 0 1

⎤ ⎡ 1 0 4 4 ⎦ ⇐⇒ ⎣ 0 1 2 0 0

⎤ 4 2⎦ 0

besitzt die L¨osung λ = 4 und μ = 2. Der Schnittpunkt ist (9, 4, 2). c) Die Geraden ⎛ ⎞ ⎛ ⎞ ⎛ ⎞ ⎛ ⎞ 1 7 2 6 g1 : x = ⎝ 0 ⎠ + λ ⎝ −1 ⎠ und g2 : x = ⎝ −3 ⎠ + λ ⎝ −3 ⎠ 2 1 5 3 sind identisch. Das lineare Gleichungssystem in λ, μ f¨ ur g 1 ∩ g 2 : ⎛ ⎞ ⎛ ⎞ ⎛ ⎞ ⎛ ⎞ 1 2 7 6 ⎝ 0 ⎠ + λ ⎝ −1 ⎠ = ⎝ −3 ⎠ + μ ⎝ −3 ⎠ 2 1 5 3 ⎞ ⎞ ⎛ ⎞ ⎛ ⎛ 6 6 2 ⇐⇒ λ ⎝ −1 ⎠ − μ ⎝ −3 ⎠ = ⎝ −3 ⎠ 3 3 1 bzw.



2 −6 ⎣ −1 3 1 −3

⎤ ⎡ 1 −3 6 −3 ⎦ ⇐⇒ ⎣ 0 0 3 0 0

⎤ 3 0⎦ 0

besitzt die L¨osung λ − 3μ = 3 bzw. λ = 3 + 3μ, μ = λ3 − 1. Jeder Punkt, der u ¨ber die eine Punkt-Richtungsform erreicht werden kann, wird damit auch u ¨ber die jeweils andere erreicht. Also sind g1 und g2 identisch. Beispiel 18.15 zeigt exemplarisch, dass die Schnittmenge zweier Geraden genau der L¨osungsmenge eines linearen Gleichungssystems der Koordinaten entspricht. F¨ ur dieses Gleichungssystem gibt es folgende L¨ osungsm¨ oglichkeiten (vgl. Kapitel 6.3.2): • Es existiert keine L¨osung. Dann haben g1 und g2 keinen Schnittpunkt. Die beiden Geraden sind entweder parallel oder windschief (nur in R3 ). Im Falle der Parallelit¨at von g1 und g2 ist v1 ein Vielfaches von v2 , und es folgt v1 × v2 = 0.

527

18.5. Geraden in der Ebene und im Raum

• Es existiert genau eine L¨osung λ, μ ∈ R. Dann haben g1 und g2 genau einen Schnittpunkt. • Es existieren unendlich viele L¨osungen λ, μ ∈ R. Dann sind g1 und g2 identisch. Eine weitere wichtige Aufgabe ist die Berechnung des Abstands eines 2 Punkts x ¨ber x = x0 + λv , λ ∈ R, mit Aufpunkt 1 ∈ R zu der Gerade g, die u 2 x0 ∈ R und Richtung v ∈ R2 definiert ist. Um den Abstand von x1 zu g zu berechnen, f¨allt man das Lot von x1 auf g. Der Lotfußpunkt xL ∈ g hat die ur den Lotvektor hat man Darstellung xL = x0 + λLv mit λL ∈ R. F¨ l = xL − x1 entsprechend der Abbildung 18.23. Die Forderung l ⊥ v bzw. l · v = 0 liefert durch Bildung des Skalarprodukts mit v die Bedingung v · l = v · (x0 + λLv − x1 ) ⇐⇒ 0 = v · (x0 − x1 ) + λL |v |2  =0

⇐⇒ λL =

v · (x1 − x0 ) . |v |2

Mit λL erh¨alt man xL und daraus l = xL − x1 . Der Abstand des Punktes x 1 zu den Punkten der Gerade g ist genau die L¨ange des Lotvektors l.

Abb. 18.23 Lot von einem Punkt auf eine Gerade

Beispiel 18.16 Wir berechnen den Abstand des Punkts x 1 = (1, 0, 1) zur Gerade g : x = (1, 2, 3) + λ(0, −2, 1) . Hier ist der Aufpunkt x 0 = (1, 2, 3), der Richtungsvektor v = (0, −2, 1) mit |v |2 = 5, und wir erhalten ⎛ ⎞ ⎛ ⎞ 0 0 v · (x1 − x0 ) 1 2 λL = = ⎝ −2 ⎠ · ⎝ −2 ⎠ = |v |2 5 5 1 −2 und weiter

528

Kapitel 18. Vektoren in der Ebene und im Raum

⎛ ⎞ ⎛ ⎞ ⎛ ⎞ 1 0 1 2 6 xL = ⎝ 2 ⎠ + ⎝ −2 ⎠ = ⎝ 5 ⎠ , 5 17 1 3 5  36 sowie |l| = 25 + L¨ angeneinheiten.

144 25

=



180 5 .



⎛ ⎞ ⎛ ⎞ 0 1 l = ⎝ 65 ⎠ − ⎝ 0 ⎠ = ⎝ 65 ⎠ , 17 12 1 5 5 1



Der Abstand von x1 und g betr¨ agt



180 5

18.6 Ebenen im Raum 18.6.1 Darstellungsformen von Ebenen im Raum Eine Ebene E in R3 ist eindeutig bestimmt durch einen Punkt x 0 der Ebene und zwei nicht kollineare Richtungsvektoren v und w  (siehe Definition 18.2 auf Seite 495), d. h., v l¨asst sich nicht als Vielfaches von w  schreiben und umgekehrt. Analog zu Lemma 18.2 gilt: Lemma 18.3 (Punkt-Richtungsform der Ebene) Die Ortsvektoren x der Ebene E ⊂ R3 , die durch einen Punkt x 0 geht und durch die nicht kollinearen Richtungsvektoren v und w  aufgespannt wird (d. h. v × w  = 0), werden beschrieben durch die Gleichung  x = x0 + λ · v + μ · w,

λ, μ ∈ R.

(18.12)

Man nennt diese Darstellung Parameterform der Ebenengleichung oder Punkt-Richtungsform von E. Man bezeichnet den Punkt x 0 als Aufpunkt der Parameterform. Je nach Verwendung fassen wir E als Menge aller Ortsvektoren x auf, die mit (18.12) darstellbar sind, oder wir interpretieren die Elemente von E als Punkte x .

Abb. 18.24 PunktRichtungsform einer Ebene

529

18.6. Ebenen im Raum

x Beispiel 18.17 a) Gegeben sind die drei Punkte x 0 = (1, 1, 0),  1 = (2, 0, 2) alt man, inund x2 = (4, 2, 1). Die Ebene E durch die drei Punkte erh¨ dem ein Punkt als Aufpunkt gew¨ahlt wird. Die Richtungsvektoren erh¨ alt man als die Differenzen der Ortsvektoren der beiden anderen Punkte zum Ortsvektor des Aufpunkts. W¨ahlen wir x 0 = (1, 1, 0) als Aufpunkt, so  1 = x2 − x0 = (3, 1, 1) die folgt mit v1 = x1 − x0 = (1, −1, 2) und w Punkt-Richtungsform ⎛ ⎞ ⎛ ⎞ ⎛ ⎞ 1 1 3 E : x = ⎝ 1 ⎠ + λ ⎝ −1 ⎠ + μ ⎝ 1 ⎠ , λ, μ ∈ R. 0 2 1 alt man mit v2 = W¨ahlt man hingegen x 1 = (2, 0, 2) als Aufpunkt, erh¨  2 = x2 − x1 die Punkt-Richtungsform x0 − x1 , w ⎛ ⎞ ⎛ ⎞ ⎛ ⎞ 2 −1 2 E : x = ⎝ 0 ⎠ + λ ⎝ 1 ⎠ + μ ⎝ 2 ⎠ , λ, μ ∈ R. 2 −2 −1 Beide Punkt-Richtungsformen beschreiben dieselbe Ebene E. b) Der Punkt x 3 = (8, 2, 4) liegt in E, denn das lineare Gleichungssystem  1 bzw. λv1 + μw  1 = x3 − x0 ist l¨ osbar: x3 = x0 + λv1 + μw ⎡ ⎤ ⎡ ⎤ ⎡ ⎤ ⎡ ⎤ 1 3 7 0 4 8 1 −1 −1 1 0 1 ⎣ −1 1 1 ⎦ ⇐⇒ ⎣ 1 −1 −1 ⎦ ⇐⇒ ⎣ 0 1 2 ⎦ ⇐⇒ ⎣ 0 1 2 ⎦ . 2 1 4 0 3 6 0 0 0 0 0 0 Es gilt x3 = x0 + v1 + 2w  1. Alternativ zur Punkt-Richtungsform l¨asst sich eine Ebene durch eine Koordinatengleichung beschreiben. Lemma 18.4 (Koordinatengleichung der Ebene in R3 ) In R3 bilden die L¨osungsvektoren x = (x1 , x2 , x3 ) der linearen Gleichung a1 x 1 + a2 x 2 + a3 x 3 = c

(18.13)

mit (a1 , a2 , a3 ) = (0, 0, 0) und c ∈ R die Ortsvektoren einer Ebene E. Man nennt (18.13) die Koordinatengleichung oder kurz die Gleichung von E. Da hier eine Gleichung mit drei Unbekannten verwendet wird, k¨ onnen zwei der Variablen x1 , x2 , x3 beliebig gew¨ahlt werden und bestimmen den Wert einer dritten Variable. Wir erhalten also zwei Freiheitsgrade, die eine Ebene ausmachen.

530

Kapitel 18. Vektoren in der Ebene und im Raum

Der Zusammenhang zwischen der Punkt-Richtungsform (18.12) und der Koordinatengleichung (18.13) l¨asst sich analog zu den Betrachtungen f¨ ur Geraden mit einem Normalenvektor n von E darstellen. Ausgehend von der  erhalten wir zun¨ achst mit Punkt-Richtungsform x = x0 + λv + μw n := v × w  einen Normalenvektor von E, d. h. einen Vektor, der senkrecht auf beiden Richtungsvektoren steht. Die Bildung des Skalarprodukts von n = (n1 , n2 , n3 ) mit einem Vektor x = (x1 , x2 , x3 ) der Ebene E ergibt · v +μ n ·w  n · x = n · x0 + λ n    =0

=0

⇐⇒

n · x = n · x0 ,

oder ausgeschrieben n1 x1 + n2 x2 + n3 x3 = c,

c = n · x0 .

Da man f¨ ur jede Ebene aus drei Punkten eine Punkt-Richtungsform konstruieren kann, hat nun insbesondere jede Ebene auch eine Darstellung als Koordinatengleichung. Lemma 18.5 (Koordinatenform der Ebene in R3 ) Jeder Ortsvektor x der Ebene E ⊂ R3 , die durch den Punkt x 0 geht und den Normalenvektor n besitzt, erf¨ ullt die Gleichung n · x = c

mit c := n · x0

bzw.

n · (x − x0 ) = 0.

(18.14)

Umgekehrt ist jede L¨osung der Gleichung ein Ortsvektor eines Punkts der Ebene. Man nennt diese Darstellung Koordinatenform der Ebenengleichung. Ist E in Koordinatenform gegeben, so erh¨alt man eine Darstellung in PunktRichtungsform u ¨ber drei Vektoren als L¨osungen der Koordinatengleichung, die nicht auf einer Gerade liegen. Alternativ kann man zum Normalenvektor zwei orthogonale Vektoren v , w  bestimmen. Zusammen mit einem Punkt x 0 der Ebene als L¨osung der Koordinatengleichung hat man dann die Daten f¨ ur die Punkt-Richtungsform. Beispiel 18.18 a) F¨ ur die Ebene ⎛ ⎞ ⎛ ⎞ ⎛ ⎞ 1 1 3 E : x = ⎝ 1 ⎠ + λ ⎝ −2 ⎠ + μ ⎝ 1 ⎠ 0 2 1 erhalten wir den Normalenvektor

531

18.6. Ebenen im Raum



⎞ ⎛ ⎞ ⎛ ⎞ 1 3 −4 n = ⎝ −2 ⎠ × ⎝ 1 ⎠ = ⎝ 5 ⎠ . 2 1 7 Bildung des Skalarprodukts von n mit der Punkt-Richtungsform von E ergibt die Koordinatengleichung ⎛ ⎞ ⎛ ⎞ ⎛ ⎞ ⎛ ⎞ −4 −4 x1 1 ⎝ 5 ⎠ · ⎝ x2 ⎠ = ⎝ 5 ⎠ · ⎝ 1 ⎠ ⇐⇒ −4x1 + 5x2 + 7x3 = 1. x3 7 7 0 b) Ist E durch eine Koordinatengleichung gegeben, z. B. E:

−2x1 + 3x2 + 4x3 = 1,

so kann man daraus den Normalenvektor n = (−2, 3, 4) ablesen. Durch zielgerichtetes Raten“ findet man leicht die beiden nicht kollinearen und ”  = (3, 2, 0) . Jetzt ben¨ otizu n senkrechten Vektoren v = (2, 0, 1) und w gen wir noch einen Punkt x0 der Ebene, den wir ebenfalls leicht aus der Gleichung ablesen: Wegen −2 · 1 + 3 · 1 + 4 · 0 = 1 liegt x 0 = (1, 1, 0) in der Ebene. Insgesamt ergibt sich: ⎛ ⎞ ⎛ ⎞ ⎛ ⎞ 1 2 3 E : x = ⎝ 1 ⎠ + λ ⎝ 0 ⎠ + μ ⎝ 2 ⎠ , λ, μ ∈ R. 0 1 0 W¨ahlt man als Normalenvektor n0 einer Ebene E speziell einen Vektor der L¨ange 1, etwa indem man einen beliebigen Normalenvektor n zu n0 := |

nn| normiert, so ist der Betrag der Konstante c in der Ebenengleichung n0 · x = c der Abstand von E zum Nullpunkt. Man sieht dies wie folgt: Der Ortsvektor d ∈ E eines Punkts der Ebene mit k¨ urzestem Abstand zu 0 ist parallel zu n0 , d. h. d = dn0 mit d ∈ R. Setzen wir x = d in die Ebenengleichung ein, so ergibt sich n0 · d = n0 · x0

⇐⇒

dn0 · n0 = n0 · x0

⇐⇒

d = n0 · x0 .

Wir w¨ahlen nun die Richtung n0 so, dass d = n0 · x0 ≥ 0 ist und erhalten: Satz 18.9 (Hesse’sche Normalform) Jede Ebene E ⊂ R3 besitzt eine Darstellung u ¨ber die Hesse’sche Normalform n0 · x = d mit d = n0 · x0 . ullt. Dabei Ein Punkt x geh¨ort genau dann zu E, wenn x die Gleichung erf¨ ist x0 Ortsvektor eines beliebigen Punkts der Ebene, und der Normalenange 1, f¨ ur den einheitsvektor n0 von E ist ein Normalenvektor der L¨

532

Kapitel 18. Vektoren in der Ebene und im Raum

d = n0 · x0 ≥ 0 ist. Die Zahl d = n0 · x0 ist der Abstand der Ebene E zum Nullpunkt.

Beispiel 18.19 F¨ ur die Ebene E : 2x1 + x √2 − x3 = 4 erhalten wir einen Normalenvektor n = (2, 1, −1) . Mit |n| = 6 erhalten wir die Hesse’sche Normalform 4 1 1 2 E : √ x1 + √ x2 − √ x3 = √ . 6 6 6 6 Der Abstand von E zum Ursprung betr¨agt d =

√4 . 6

Wir k¨onnen jetzt den Abstand einer Ebene zum Nullpunkt ablesen. Zur Berechnung des Abstands α eines beliebigen Punkts x 1 zu der Ebene E in der Hesse’schen Normalform n0 · x = d verwenden wir den Ansatz x1 = x + αn0 mit einem Vektor x ∈ E (siehe Abbildung 18.25). Wir bilden das

Abb. 18.25 Abstand eines Punkts zur Ebene E

Skalarprodukt n0 · x1 = n0 · x + α n0 · n0  

⇐⇒

n0 · x1 = d + α

=1

agt und erhalten α = n0 · x1 − d. Der Abstand von x 1 zu E betr¨ |α| = |n0 · x1 − d|. Beispiel 18.20 Wir berechnen den Abstand des Punkts x 1 = (2, 2, 3) zur Ebene in Punkt-Richtungsform ⎛ ⎞ ⎛ ⎞ ⎛ ⎞ 1 1 0 E : x = ⎝ 0 ⎠ + λ ⎝ 1 ⎠ + μ ⎝ 1 ⎠ . 1 0 1

533

18.6. Ebenen im Raum

Zun¨achst gewinnen wir die Hesse’sche Normalform von E. Ein Normalenvektor n lautet ⎛ ⎛ ⎞ ⎛ ⎞ ⎛ ⎞ ⎞ 1 1 0 1 1 n = ⎝ 1 ⎠ × ⎝ 1 ⎠ = ⎝ −1 ⎠ bzw. n0 = √ ⎝ −1 ⎠ . 3 1 0 1 1 Die Hesse’sche Normalform von E ergibt sich zu ⎛ ⎞ 1 1 2 E : n0 · x = n0 · ⎝ 0 ⎠ ⇐⇒ √ (x1 − x2 + x3 ) = √ . 3 3 1 Mit dem Ansatz x1 = x + αn0 f¨ ur einen Vektor x ∈ E bestimmen wir α als zu E. Also: Abstand von x 1 n0 · x1 = n0 · x + α bzw.

⇐⇒

2 α = n0 · x1 − √ 3

⎞ ⎛ ⎞ 1 2 2 3 2 1 1 α = √ ⎝ −1 ⎠ · ⎝ 2 ⎠ − √ = √ − √ = √ . 3 3 3 3 3 1 3 ⎛

agt Der Abstand von x 1 zu E betr¨

√1 . 3

18.6.2 Typische Aufgabenstellungen f¨ur Ebenen Wir betrachten abschließend noch zwei Problemstellungen der Analytischen Geometrie, wie sie in den Anwendungen (und in Klausuren) h¨ aufig vorkommen. onnen folgende SituaBeim Schnitt von zwei Ebenen E1 und E2 in R3 k¨ tionen auftreten: • E1 ∩ E2 = ∅, d. h., E1 und E2 sind parallel, • E1 ∩ E2 = g, d. h., E1 und E2 schneiden sich in einer Gerade g, • E1 = E2 , d. h., E1 und E2 sind gleich. Liegen die Ebenen E1 und E2 als Gleichung (Koordinatenform oder Hesse’sche Normalform) vor, so l¨ost man ein lineares Gleichungssystem mit zwei Gleichungen in drei Variablen. Ansonsten bietet es sich an, die Ebenen in Koordinatenform umzurechnen. Beispiel 18.21 Wir bilden die Schnittmenge der Ebenen E1 :

2x1 + x2 − x3 = 1

und E2 :

x1 + x2 + x3 = 3.

534

Kapitel 18. Vektoren in der Ebene und im Raum

Die Normalenvektoren lesen wir direkt aus den Gleichungen ab: n1 = (2, 1, −1) und n2 = (1, 1, 1) . Mit n1 und n2 kann der Schnittwinkel von E1 und E2 als Winkel zwischen den Normalenvektoren berechnet werden: cos(ϕ) =

2 n1 · n2 = √ √ , so dass z. B. ϕ = 1,08... ≈ 61,87◦ . |n1 | |n2 | 6 3

Damit wissen wir, dass die Ebenen nicht parallel verlaufen oder identisch sind. Sie schneiden sich also in einer Gerade, die wir u ¨ber ein Gleichungssystem berechnen:       1 0 −2 −2 1 0 −2 −2 2 1 −1 1 ⇐⇒ ⇐⇒ . 3 5 1 1 1 3 1 1 1 0 1 3 W¨ahlt man x3 = t, so folgt x2 = 5 − 3t und x1 = −2 + 2t bzw. die PunktRichtungsform der Schnittgerade ⎛ ⎞ ⎛ ⎞ −2 2 g : x = ⎝ 5 ⎠ + t ⎝ −3 ⎠ , t ∈ R. 0 1 alt man u Die Schnittmenge einer Gerade g mit einer Ebene E in R3 erh¨ ¨ber ein lineares Gleichungssystem mit drei Gleichungen (zwei f¨ ur die Gerade und eine Gleichung f¨ ur die Ebene) und drei Unbekannten. Entsprechend dem Verhalten von linearen Gleichungssystemen (vgl. Kapitel 6.3.2) k¨ onnen hier die folgenden F¨alle auftreten: • E ∩ g = ∅, d. h., g verl¨auft parallel zu E, • E ∩ g = xS , d. h., E und g schneiden sich in genau einem Punkt, • E ∩ g = g, d. h., g verl¨auft in E, g ⊂ E. Beispiel 18.22 Wir berechnen die Schnittmenge der Gerade g mit der Ebene E in Punkt-Richtungsform ⎛ ⎞ ⎛ ⎞ ⎛ ⎞ ⎛ ⎞ ⎛ ⎞ 1 1 1 0 2 g : x = ⎝ 2 ⎠ + t ⎝ 0 ⎠ und E : x = ⎝ 2 ⎠ + λ ⎝ 1 ⎠ + μ ⎝ 1 ⎠ . 0 1 3 0 1 Aus x ∈ g und x ∈ E erhalten wir das lineare Gleichungssystem ⎛ ⎞ ⎛ ⎞ ⎛ ⎞ ⎛ ⎞ ⎛ ⎞ 1 1 1 0 2 ⎝2⎠ + t⎝0⎠ = ⎝2⎠ + λ⎝1⎠ + μ⎝1⎠. 0 1 3 0 1 Wir rechnen in erweiterter Matrixschreibweise weiter:

535

Literaturverzeichnis



1 0 −2 ⎣ 0 −1 −1 1 0 −1

⎤ ⎡ ⎤ ⎡ 1 0 −2 0 1 0 0 0 0 ⎦ ⇐⇒ ⎣ 0 1 1 0 ⎦ ⇐⇒ ⎣ 0 1 0 3 0 0 1 3 0 0 1

⎤ 6 −3 ⎦ . 3

Also folgt t = 6, λ = −3 und μ = 3. Der Schnittpunkt lautet (7, 2, 6).

Literaturverzeichnis Goebbels und Pohle-Fr¨ ohlich(2023). Goebbels, St. und Pohle-Fr¨ ohlich, R.: Automatic Reconstruction of Roof Overhangs for 3D City Models. In: Proceedings of the 18th International Joint Conference on Computer Vision, Imaging and Computer Graphics Theory and Applications: GRAPP, 2023, S. 145–152, https://doi.org/10.5220/ 0011604200003417.

Kapitel 19

Vektorr¨aume Nachdem wir uns mit Vektoren im Anschauungsraum R2 bzw. R3 besch¨ aftigt haben, u ¨bertragen wir nun die dabei entdeckten Strukturen in allgemeinere Situationen. Wir haben eine Menge von Objekten wie z. B. Pfeile vorgefunden, f¨ ur die eine (Vektor-) Addition erkl¨art ist. Außerdem konnten wir die Objekte mit Zahlen (Skalaren) multiplizieren. F¨ ur diese Skalarmultiplikation und die Vektoraddition gelten gewisse Rechenregeln. Damit ist f¨ ur die Menge der Objekte eine Struktur vorgegeben. In der Mathematik nennt man eine Menge mit einer Struktur einen Raum. Bei der von uns betrachteten Struktur spricht man von einem Vektorraum. ¨ Sie fragen sich zu Recht, warum es n¨otig ist, die vorangehenden Uberlegungen zu verallgemeinern. Wir werden schnell sehen, dass man in vielen Zusammenh¨angen auf Vektorr¨aume trifft – und dann hilft die allgemeine Theorie, so dass man die ben¨otigten Aussagen nicht jeweils neu herleiten muss. Konkret bildet zum Beispiel die L¨osungsmenge eines homogenen linearen Gleichungssystems einen Vektorraum. Die Eigenschaften, die wir f¨ ur allgemeine Vektorr¨aume finden, helfen uns, bei einer technischen Aufgabenstellung die Gleichungen richtig aufzustellen, damit wir u ¨ber das Gleichungssystem eine eindeutige L¨osung erhalten. Wir vertiefen diesen Aspekt in Kapitel 21 am Beispiel der Berechnung von Str¨omen und Spannungen in elektrischen Netzwerken. Auch bei Differenzialgleichungen werden wir in Band 2 auf Eigenschaften von Vektorr¨aumen zur¨ uckgreifen. Die Vektoren werden dann Funktionen sein. Nahezu alle mathematischen Objekte lassen sich im Kontext von Vektorr¨aumen verstehen, so bilden sowohl die Polynome als auch die (m × n)-Matrizen Vektorr¨aume.

© Der/die Autor(en), exklusiv lizenziert an Springer-Verlag GmbH, DE, ein Teil von Springer Nature 2023 S. Goebbels und S. Ritter, Mathematik verstehen und anwenden: Differenzial- und Integralrechnung, Lineare Algebra, https://doi.org/10.1007/978-3-662-68367-5_19

537

538

Kapitel 19. Vektorr¨ aume

Der zentrale Begriff in einem Vektorraum ist die Linearkombination, eine Summe der Produkte von Skalaren und Vektoren. Dar¨ uber werden in diesem Kapitel alle wichtigen Begriffe wie Erzeugendensystem und lineare Unabh¨ angigkeit eingef¨ uhrt. Jedes linear unabh¨angige Erzeugendensystem (eine Basis) besitzt in einem Vektorraum gleich viele Elemente. Diese Anzahl ist die Dimension des Vektorraums, und sie stimmt mit der umgangssprachlichen Bedeutung des Begriffs u ¨berein. Skalarprodukt, Winkelbegriff und damit die Orthogonalit¨at lassen sich aus dem Anschauungsraum u ¨bertragen.

19.1 Definition des Vektorraums Wir beginnen mit der abstrakten Definition des Vektorraums, indem wir die Vektoren des Anschauungsraums durch Elemente einer beliebigen Menge ersetzen. Die als Axiome formulierten Rechenregeln k¨ onnen wir aus dem Anschauungsraum u ¨bernehmen.

19.1.1 Vektorraumaxiome Vielleicht betrachten Sie beim Lesen der folgenden Definition noch einmal den Satz 18.1 auf Seite 495 und die Abbildungen 18.2 und 18.3. Definition 19.1 (Vektorraum) Eine Menge V bildet einen Vektorraum (V, +; K, · ) u ¨ber K = R oder K = C, falls in V eine Vektoraddition +“ und ” eine Multiplikation ·“ mit Skalaren aus K erkl¨ art ist, so dass die folgenden ” Axiome gelten: a) Regeln zur Vektoraddition: Seien a, b, c ∈ V . i Zu je zwei Elementen a, b ∈ V ist eine eindeutige Summe c = a +b ∈ V erkl¨art. ii Diese Addition ist kommutativ: a + b = b + a. iii Die Addition ist assoziativ: a + (b + c) = (a + b) + c. ur jedes a ∈ V gilt: iv Es gibt ein neutrales Element 0 ∈ V , so dass f¨ a + 0 = a. v Zu jedem a ∈ V existiert bez¨ uglich der Addition ein inverses Element −a ∈ V , so dass a + (−a) = 0. Wir benutzen statt b + (−a) die Kurzschreibweise b − a.

b) Regeln zur Multiplikation mit einem Skalar: Seien λ, μ ∈ K und a, b ∈ V . i Zu jedem a ∈ V und jedem λ ∈ K ist ein Produkt b = λ · a = a · λ ∈ V eindeutig erkl¨art.

539

19.1. Definition des Vektorraums

ii Das Produkt mit einem Skalar ist assoziativ: (λμ) · a = λ · (μ · a). iii 1 · a = a, wobei 1 ∈ K. iv Addition in K, Vektoraddition und Multiplikation mit einem Skalar erf¨ ullen die Distributivgesetze λ · (a + b) = λ · a + λ · b,

(λ + μ) · a = λ · a + μ · a.

Die Elemente von V heißen Vektoren. Die Multiplikation mit einem Skalar bindet enger als die Vektoraddition, daher haben wir bei den Distributivgesetzen auf entsprechende Klammern verzichtet. Wie bei der Multiplikation von Zahlen werden wir auch das Malzeichen h¨aufig weglassen. Statt u orper K ¨ber R oder C kann man Vektorr¨aume u ¨ber beliebige K¨ definieren, siehe Definition 2.7 auf Seite 51. ur −1 ∈ K. −a • −a ist (zun¨achst) nicht gleichbedeutend mit (−1) · a f¨ ist (zun¨achst) nur ein Symbol f¨ ur ein inverses Element. Wir werden im Anschluss zeigen, dass aufgrund der Axiome das inverse Element eindeutig ist und −a berechnet werden kann u ¨ber (−1)·a. Aber das ist eine Aussage, die bewiesen werden muss. • Die Multiplikation mit einem Skalar wird als skalare Multiplikation oder Skalarmultiplikation bezeichnet. Das Ergebnis ist ein Vektor. In Kapitel 18.2 haben wir das Skalarprodukt eingef¨ uhrt. Mit dem Skalarprodukt werden zwei Vektoren auf einen Skalar abgebildet, u ¨ber den man den Winkel zwischen den Vektoren berechnen kann. Obwohl beide Multiplikationen a¨hnlich bezeichnet werden, handelt es sich um v¨ ollig unterschiedliche Begriffe! • Da 0 ∈ V gefordert ist, kann die Menge V nicht leer sein. Der einfachste Vektorraum besteht nur aus diesem (eindeutigen, s. u.) Nullvektor und heißt Nullvektorraum. Wenn aus dem Zusammenhang klar ist, welcher K¨ orper verwendet wird, schreiben wir statt (V, +; K, ·) auch kurz nur V , wobei wir die Doppelbezeichnung von V als Menge und als Vektorraum in Kauf nehmen. Beispiel 19.1 Wir haben bereits mehrere Vektorr¨ aume kennengelernt: a) (R, +; R, · ) ist ein Vektorraum. Dabei ist die Vektoraddition die normale“ ” Addition und die Multiplikation mit einem Skalar die normale“ Multipli” kation in R. Analog ist (C, +; C, · ) ein Vektorraum. b) Da die Multiplikation einer reellen Zahl mit einer komplexen Zahl eine komplexe Zahl ist, ist auch (C, +; R, · ) ein Vektorraum. c) (R, +; C, · ) ist jedoch kein Vektorraum, da die Multiplikation mit dem Skalar j aus der Menge V = R hinausf¨ uhrt.

540

Kapitel 19. Vektorr¨ aume

d) In Kapitel 18 haben wir die Vektorr¨aume (R2 , +; R, · ) und (R3 , +; R, · ) als Menge von Pfeilen mit einer geometrisch erkl¨ arten Addition und skalaren Multiplikation erkl¨art. Die Axiome des Vektorraums k¨ onnen daf¨ ur geometrisch bewiesen werden, siehe Satz 18.1 und die Abbildungen 18.2 und 18.3. Man beachte, dass auch komplexe Zahlen x + jy als Punkte (x, y) und damit als Ortsvektoren dargestellt werden k¨onnen (siehe Kapitel 5.3). Dabei haben wir auch die komplexe Addition bereits mittels Pfeilen visualisiert, so dass der Vektorraum der Pfeile der Ebene gleichbedeutend ist mit dem Vektorraum (C, +; R, · ). e) Im vorangehenden Punkt haben wir Vektoren der Ebene und des Raums als Spaltenmatrizen ihrer Koordinaten dargestellt. Nun sind (Rn , +; R, · ) mit $ % Rn = a = (a1 , . . . , an ) : a1 , . . . , an ∈ R und (Cn , +; C, · ) mit der koordinatenweisen Addition und koordinatenweisen skalaren Multiplikation ⎞ ⎞ ⎛ ⎞ ⎛ ⎞ ⎛ ⎛ a1 a 1 + b1 λ · a1 b1 ⎟ ⎜ ⎟ ⎜ ⎟ ⎜ ⎜ . ⎟ .. a +b = ⎝ ... ⎠ + ⎝ ... ⎠ = ⎝ ⎠ , λ·a = ⎝ .. ⎠ , λ ∈ R bzw. C, . an

bn

a n + bn

λ · an

nicht nur f¨ ur n = 2 oder n = 3 Standardbeispiele f¨ ur Vektorr¨ aume. Wir werden diese R¨aume allgemein f¨ ur jedes n ∈ N verwenden. Wir fassen die Vektoren dieser R¨aume (also die n-Tupel) alternativ als Zeilen- oder Spaltenvektoren auf. Das ergibt sich jeweils aus dem Zusammenhang. Relevant wird die Schreibweise nur bei der Multiplikation einer Matrix mit einem Vektor. Spaltenvektoren werden von rechts, Zeilenvektoren von links gegen eine Matrix multipliziert. f) (Cm×n , +; C, · ) ist ein Vektorraum mit der gleichen Struktur wie der Vektorraum (Cm · n , +; C, · ). g) Die Menge der Funktionen von D ⊆ R → R ist ebenfalls ein reeller Vektorraum mit den Verkn¨ upfungen (vgl. Kapitel 4.1): (f + g)(x) := f (x) + g(x),

(c · f )(x) := cf (x).

(19.1)

Man beachte, dass auf der jeweils linken Seite mit Funktionen gerechnet wird, w¨ahrend auf der rechten Seite mit Funktionswerten gearbeitet wird. h) Die Menge der Polynome Pn vom Grad ≤ n mit reellen Koeffizienten ist ein Vektorraum u uhren die Addition zweier ¨ber K = R. Insbesondere f¨ Polynome und die Multiplikation mit einem Skalar nicht aus dieser Menge hinaus, der Grad bleibt ≤ n. i) Der vielleicht f¨ ur die Anwendungen wichtigste Vektorraum wird durch die Menge der L¨osungen eines homogenen linearen Gleichungssystems gegeben. Mit ihm besch¨aftigen wir uns intensiv in Kapitel 21.

541

19.1. Definition des Vektorraums

Auf den Vektorraumaxiomen baut die gesamte Theorie der Linearen Algebra auf. Als Beispiel zeigen wir mit den Axiomen einige anscheinend offensichtliche Rechenregeln. Allerdings sind sie nicht Teil der Vektorraumdefinition und m¨ ussen daher bewiesen werden. Lemma 19.1 (Folgerungen aus den Vektorraumaxiomen) a) Der Nullvektor ist eindeutig. b) Jedes Vielfache des Nullvektors ist wieder der Nullvektor: λ · 0 = 0 f¨ ur jedes λ ∈ K. c) Multipliziert man den Skalar Null mit einem beliebigen Vektor a ∈ V , so entsteht der Nullvektor: 0 · a = 0. (19.2) d) F¨ ur jeden Vektor a ist das bez¨ uglich der Vektoraddition inverse Element −a eindeutig. e) Man erh¨alt das zu a ∈ V bez¨ uglich der Vektoraddition inverse Element −a, indem man a mit dem Skalar −1 multipliziert: −a = (−1) · a. Beweis Wir benutzen die Vektorraumeigenschaften a)i-v) und b)i-iv) aus Definition 19.1. a) Seien 0 und a zwei Nullvektoren, dann gilt f¨ ur den Nullvektor a nach a)iv), dass 0 + a = 0. Aufgrund der Kommutativit¨ at a)ii) ist aber auch ur den Nullvektor 0 ist schließlich a = 0, und die a + 0 = 0. Nach a)iv) f¨ beiden Nullvektoren sind gleich. b) Da a)iv) b)iv) λ · 0 = λ · (0 + 0) = λ · 0 + λ · 0 gilt, erhalten wir durch Addition eines laut a)v) existierenden inversen Elements −(λ · 0) zu λ · 0 mit a)i) und a)iii): λ · 0 = λ · 0 =⇒ λ · 0 + λ · 0 = λ · =⇒ (λ · 0 + λ · 0) − λ

0 · 0 = λ · 0 − λ · 0   = 0

=⇒ λ · 0 + (λ · 0 − λ · 0) = 0,   =

0

so dass λ · 0 = 0 nach a)iv) ist. c) Der Beweis dieser Regel ist analog: Da b)iv)

0 · a = (0 + 0) · a = 0 · a + 0 · a

542

Kapitel 19. Vektorr¨ aume

gilt, erhalten wir durch Addition eines laut a)v) existierenden inversen Elements −(0 · a) zu 0 · a mit a)i) und a)iii): 0 · a = 0 · a =⇒ 0 · a +0 · a = 0 · a =⇒ 0 · a +(0 · a − 0 · a) = 0 · a − 0 · a,     = 0

= 0

so dass 0 · a = 0 nach a)iv) ist. d) Es seien b und c zwei inverse Elemente von a bez¨ uglich der Addition. Dann gilt a +b = 0 = a +c. Aufgrund der Kommutativit¨ at a)ii) ist b +a = c +a. Addieren wir auf beide Seiten das gleiche inverse Element −a, so ist mit mit a)i) und a)iii): (b + a) − a = (c + a) − a =⇒ b + (a − a) = c + (a − a),     = 0

= 0

so dass nach a)iv) b = c ist. e) F¨ ur jeden Vektor a ist b)iii) b)iv) (19.2) a + (−1) · a = 1 · a + (−1) · a = (1 − 1) · a = 0 · a = 0.

Damit ist aber nach a)v) und d) genau (−1) · a das inverse Element zu a. 

19.1.2 Linearkombinationen und Erzeugendensysteme Jeden Pfeil in der Ebene, also jeden Vektor (x, y) aus (R2 , +; R, ·) kann man in Komponentendarstellung schreiben als Summe von gestreckten oder gestauchten Pfeilen in Richtung der beiden Koordinatenachsen und damit als eine Linearkombination“ von nur zwei festgelegten Pfeilen (1, 0) und ” (0, 1) : (x, y) = x · (1, 0) + y · (0, 1) . Definition 19.2 (Linearkombination) Sind a1 , . . . , an ∈ V , so nennt man x1a1 + x2a2 + · · · + xnan ∈ V mit x1 , x2 , . . . , xn ∈ K eine Linearkombination der Vektoren a1 , . . . , an .

Beispiel 19.2 a) In R2 kombinieren wir den Vektor x = (1, 2) aus den Vektoren a = (0, 1) und b = (7, 1) linear. Wir suchen dazu nach λ, μ ∈ R mit

543

19.1. Definition des Vektorraums

x = λ · a + μ · b ⇐⇒





1 0 7 1 = 7μ =λ· +μ· ⇐⇒ 2 1 1 ∧ 2 = λ + μ.

Damit ist μ = 17 und λ = 13 x = 13 a + 17 · b. 7 . Also gilt  7 · b) Mit den n-dimensionalen Standard-Einheitsvektoren ⎛ ⎞ ⎛ ⎞ ⎛ ⎞ 0 0 1 ⎜0⎟ ⎜0⎟ ⎜1⎟ ⎜ ⎟ ⎜ ⎟ ⎜ ⎟ e1 = ⎜ . ⎟ , e2 = ⎜ . ⎟ , . . . , en = ⎜ . ⎟ , ⎝ .. ⎠ ⎝ .. ⎠ ⎝ .. ⎠ 0

0

(19.3)

1

kann jeder Vektor x ∈ Rn als Linearkombination ⎛ ⎞ x1 ⎜ x2 ⎟ ⎜ ⎟ x = ⎜ . ⎟ = x1 · e1 + x2 · e2 + · · · + xn · en ⎝ .. ⎠ xn dargestellt werden. Dies ist die Summe der Komponenten, siehe Seite 501. c) Der Vektor x = (0, 0, 1) ist nicht durch a = (1, 0, 0) und b = (0, 1, 0) linear kombinierbar, da das folgende Gleichungssystem keine L¨ osung besitzt: ⎛ ⎞ ⎛ ⎞ ⎛ ⎞ 0 1 0 0 = λ, ⎝ 0 ⎠ = λ · ⎝ 0 ⎠ + μ · ⎝ 1 ⎠ ⇐⇒ ∧ 0 = μ, 1 0 0 ∧ 1 = 0. Im Beispiel haben wir gesehen, wie sich bestimmte Vektoren aus gegebenen Vektoren linear kombinieren lassen. Wie sieht nun die Menge aller Vektoren aus, die sich als Linearkombination von einigen vorgegebenen Vektoren schreiben lassen? Lemma 19.2 (Lineare H¨ ulle) Hat man einen Vektorraum (V, +; K, ·) und Vektoren a1 , . . . , an ∈ V , so ist die Menge {x = λ1a1 + · · · + λnan : λk ∈ K} zusammen mit der Addition in V und Multiplikation mit Skalaren aus K selbst bereits wieder ein Vektorraum. Er heißt die lineare H¨ ulle der Vektoren a1 , . . . , an . Sie wird von diesen Vektoren aufgespannt oder erzeugt. Das rechnet man sofort nach, da die Vektoraddition und die Multiplikation mit einem Skalar nicht aus der von a1 , . . . , an ∈ V aufgespannten Menge f¨ uhrt. Die Vektorraumaxiome sind somit erf¨ ullt, da sie f¨ ur V gelten. Dieses

544

Kapitel 19. Vektorr¨ aume

Argument formulieren wir wegen seiner praktischen Bedeutung im Anschluß explizit als Satz 19.1. Definition 19.3 (Erzeugendensystem) Eine (endliche) Menge {a1 , ur V , wenn . . . , an } ⊆ V heißt genau dann ein Erzeugendensystem f¨ jeder Vektor b ∈ V als Linearkombination der Vektoren a1 , . . . , an geschrieben werden kann, falls also V die lineare H¨ ulle von a1 , . . . , an ist. Wir sagen in diesem Fall, dass die Vektoren a1 , . . . , an ein Erzeugendensystem bilden. Beispiel 19.3 a) Nach Beispiel 19.2 b) bilden die drei Vektoren (1, 0, 0) , (0, 1, 0) und (0, 0, 1) ein Erzeugendensystem des R3 . b) Ein Erzeugendensystem f¨ ur (C3 , +; C, · ) ist beispielsweise ⎧⎛ ⎞ ⎛ ⎞ ⎛ ⎞ ⎛ ⎞⎫ 1 ⎬ 0 0 ⎨ 1 ⎝0⎠, ⎝1⎠, ⎝0⎠, ⎝1⎠ . ⎭ ⎩ 0 1 0 0 Denn jeder Vektor x ∈ C3 l¨asst sich damit als komplexe Linearkombination schreiben: ⎛ ⎞ ⎛ ⎞ ⎛ ⎞ ⎛ ⎞ ⎛ ⎞ 1 0 0 1 x1 ⎝ x 2 ⎠ = x1 ⎝ 0 ⎠ + x 2 ⎝ 1 ⎠ + x 3 ⎝ 0 ⎠ + 0 ⎝ 1 ⎠ . x3 0 0 1 0 Offensichtlich ist der letzte Vektor gar nicht erforderlich, die ersten drei bilden bereits ein Erzeugendensystem. Das gegebene Erzeugendensystem ist also nicht minimal.

19.1.3 Unterr¨aume Die lineare H¨ ulle von Vektoren {a1 , a2 , . . . , an } liefert einen Vektorraum, der im Ausgangsvektorraum V enthalten ist. Man spricht daher von einem Untervektorraum oder kurz einem Unterraum: Definition 19.4 (Unterraum) Seien (V, +; K, ·) und (U, +; K, ·) Vektorr¨aume mit U ⊆ V und mit gleicher Vektoraddition und skalarer Multiplikation, so heißt (U, +; K, ·) ein Unterraum des Vektorraums (V, +; K, ·). Unterr¨aume werden sp¨ater z. B. beim L¨osen linearer Gleichungssysteme ben¨otigt. Um zu pr¨ ufen, dass eine Teilmenge U eines Vektorraums V einen Unterraum bildet, muss man wie zuvor bei der linearen H¨ ulle nur zeigen, dass

19.1. Definition des Vektorraums

545

die Addition und skalare Multiplikation nicht aus der Menge U hinausf¨ uhren. Alle Rechenregeln, die f¨ ur V gelten, gelten automatisch auch f¨ ur U . Satz 19.1 (Unterraum-Kriterium) Es sei (V, +; K, ·) ein Vektorraum mit U ⊆ V . Dann ist (U, +; K, ·) genau dann ein Unterraum von (V, +; K, ·), wenn gilt: • F¨ ur alle a, b ∈ U ist a + b ∈ U , und • f¨ ur alle a ∈ U und alle λ ∈ K folgt λ · a ∈ U . Da ein Unterraum ein Vektorraum ist, muss er zwangsl¨ aufig den Nullvektor enthalten. Jeder Vektorraum V besitzt mindestens als Unterr¨ aume den Raum V selbst und den Nullvektorraum {0}. F¨ ur die geometrische Interpretation von Vektoren des Rn unterscheiden wir jetzt nicht mehr explizit zwischen Punkten und Ortsvektoren, d. h., Punkte sind bei Vektorraumbetrachtungen als Ortsvektoren zu verstehen. Beispiel 19.4 a) Eine durch den Ursprung verlaufende Gerade U in R2 ist ein Unterraum von R2 . Es ist geometrisch offensichtlich, dass Summen und skalare Vielfache von Vektoren aus U wieder auf der Gerade U liegen. Somit ist das Unterraum-Kriterium f¨ ur U erf¨ ullt. b) Mit der gleichen Begr¨ undung ist eine durch den Ursprung 0 verlaufende Ebene in R3 ein Unterraum. c) Geraden und Ebenen, die in R3 nicht durch den Ursprung verlaufen, sind keine Unterr¨aume, da sie den Nullvektor nicht enthalten. d) F¨ ur V = R3 ist die Menge U = {x = (x1 , x2 , x3 ) : x3 = 0} ein Unterraum von V , denn mit a, b ∈ U und λ ∈ R folgt ⎛ ⎞ ⎛ ⎞ ⎛ ⎞ ⎛ ⎞ ⎛ ⎞ a1 b1 a 1 + b1 a1 λ · a1 ⎝ a2 ⎠ + ⎝ b2 ⎠ = ⎝ a2 + b2 ⎠ ∈ U, λ · ⎝ a2 ⎠ = ⎝ λ · a2 ⎠ ∈ U. 0 0 0 0 0 Dieser Unterraum ist zwar formal nicht der R2 , hat aber die exakt gleiche Struktur. e) Der Raum der Polynome Pn vom Grad ≤ n ist ein Unterraum des Vektorraums aller Funktionen: Die Summe zweier Polynome aus Pn ist wieder ein Polynom aus Pn , und das skalare Vielfache eines Polynoms aus Pn ist wieder aus Pn .

546

Kapitel 19. Vektorr¨ aume

19.2 Lineare Unabh¨angigkeit, Basis und Dimension 19.2.1 Lineare Unabh¨angigkeit und lineare Abh¨angigkeit Beispiel 19.3 zeigt ein Erzeugendensystem, das nicht minimal ist. F¨ ur die Suche nach minimalen Erzeugendensystemen ben¨ otigen wir: Definition 19.5 (Lineare Unabh¨ angigkeit und Abh¨ angigkeit) Sei (V, +; K, · ) ein Vektorraum. Die Vektoren a1 , . . . , an ∈ V heißen linear unabh¨ angig genau dann, wenn die Gleichung x1a1 + x2a2 + · · · + xnan = 0,

x ∈ Kn

nur die L¨osung x = (x1 , x2 , . . . , xn ) = 0 besitzt. Anderenfalls heißen sie linear abh¨ angig. Wir nennen eine endliche Menge von Vektoren linear (un-) abh¨angig genau dann, wenn die Eigenschaft f¨ ur die Elemente gilt.

Lineare Unabh¨angigkeit von Vektoren bedeutet, dass man den Nullvektor nur als triviale Linearkombination dieser Vektoren schreiben kann. Mit anderen Worten besagt die Definition: Die Vektorena1 , . . . , an sind genau dann linear unabh¨ angig, wenn  n  xkak = 0 =⇒ x1 = · · · = xn = 0 . k=1

Die Vektoren a1 , . . . , an sind genau dann linear abh¨ angig, wenn n  xkak = 0 und (x1 , x2 , . . . , xn ) = 0. es x1 , x2 , . . . , xn ∈ K gibt mit k=1

Beispiel 19.5 Die Vektoren ⎛ ⎞ ⎛ ⎞ ⎛ ⎞ 1 0 0 ⎝0⎠, ⎝1⎠, ⎝0⎠ 0 0 1 sind linear unabh¨angig in (R3 , +; R, · ), (C3 , +; R, · ) und (C3 , +; C, · ), da ⎛ ⎞ ⎛ ⎞ ⎛ ⎞ ⎛ ⎞ ⎡ ⎤⎛ ⎞ ⎛ ⎞ 1 0 0 0 1 0 0 x1 0 x1 ⎝ 0 ⎠ + x2 ⎝ 1 ⎠ + x3 ⎝ 0 ⎠ = ⎝ 0 ⎠ ⇐⇒ ⎣ 0 1 0 ⎦ ⎝ x2 ⎠ = ⎝ 0 ⎠ x3 0 0 1 0 0 0 1 0 nur die L¨osung x1 = x2 = x3 = 0 besitzt.

19.2. Lineare Unabh¨ angigkeit, Basis und Dimension

547

Lemma 19.3 (Charakterisierung der linearen Unabh¨ angigkeit) Eine a¨quivalente Formulierung der linearen Unabh¨ angigkeit von n > 1 Vektoren ist: Keiner der Vektoren ist als Linearkombination ” (19.4) der anderen n − 1 Vektoren darstellbar.“ Beweis a) Wir zeigen mittels Widerspruch, dass aus der linearen Unabh¨ angigkeit die Aussage (19.4) folgt. Wir nehmen an, dass ein Vektor durch die anderen Vektoren darstellbar ist, also (19.4) nicht gilt; o. B. d. A. sei a1 durch die anderen darstellbar: a1 = x2a2 + · · · + xnan =⇒ a1 − x2a2 − · · · − xnan = 0, d. h., die Vektoren sind im Widerspruch zur Voraussetzung linear abh¨ angig. Die Annahme ist falsch, und stattdessen gilt (19.4). b) Umgekehrt folgt aus (19.4) die lineare Unabh¨ angigkeit: W¨ aren die Vektoren nicht unabh¨angig, so g¨abe es eine nicht-triviale Linearkombination des Nullvektors, z. B. x1 = 0 und x1a1 + x2a2 + · · · + xnan = 0. Dann ist aber im Widerspruch zu (19.4): a1 = −

xn x2 a2 − · · · − an . x1 x1

Folglich m¨ ussen die Vektoren linear unabh¨angig sein.  Linear unabh¨angige Vektoren sind eigenst¨andig und k¨ onnen nicht durch die anderen ersetzt werden. Beispiel 19.6 a) Der Vektor 0 ist linear abh¨ angig, da c · 0 = 0 f¨ ur jedes c ∈ K. Betrachtet man n Vektoren, von denen einer 0 ist, so sind diese linear abh¨angig. Ist ein einzelner Vektor linear abh¨ angig, so muss es sich um 0 handeln. b) Zwei Vektoren a, b sind linear abh¨angig genau dann, wenn es Skalare λ1 und λ2 gibt mit λ1 = 0 oder λ2 = 0, so dass λ1 · a + λ2 · b = 0. Dann gilt a = −

λ2  ·b λ1

λ1 oder b = − · a, λ2

d. h., a und b sind kollinear. Insbesondere sind zwei gleiche Vektoren a = b linear abh¨angig. Das l¨asst sich mit der Mengen-Notation nicht ausdr¨ ucken, da die Menge dieser Vektoren einelementig ist. Statt von linear abh¨ angigen Mengen von Vektoren wird daher oft von linear abh¨ angigen Familien von Vektoren gesprochen, die das mehrfache Vorkommen von Vektoren erlauben.

548

Kapitel 19. Vektorr¨ aume

c) Die Vektoren a, b, c ∈ R3 sind linear abh¨angig, wenn sie in einer Ebene (oder auf einer Gerade) liegen. Dann nennt man a, b, c auch komplanar. d) Die drei Vektoren in R2





1 2 1 a1 = , a2 = , a3 = 2 1 1 sind linear abh¨angig, denn der Nullvektor kann als nicht-triviale Linearkombination aus den drei Vektoren dargestellt werden:



2 −3 1 0 + + = . a1 + (−3) · a2 + a3 = 1 −3 2 0 Alternativ erkennt man die lineare Abh¨angigkeit auch daran, dass ein Vektor als Linearkombination der u ¨brigen geschrieben werden kann: a2 = e) Die drei Vektoren in R3 ⎛ ⎞ 1 a1 = ⎝ 1 ⎠ , 0

1 1 · a1 + · a3 . 3 3

⎛ ⎞ 0 a2 = ⎝ 1 ⎠ , 0

⎛ ⎞ 0 a3 = ⎝ 1 ⎠ 1

sind linear unabh¨angig, denn der Nullvektor kann nur trivial als Linearkombination aus den drei Vektoren dargestellt werden. Aus ⎞ ⎛ λ1 0 = λ1 · a1 + λ2 · a2 + λ3 · a3 = ⎝ λ1 + λ2 + λ3 ⎠ λ3 folgt λ1 = 0, λ3 = 0 und somit auch λ2 = 0. f) Die Vektoren ⎛ ⎞ ⎛ ⎞ ⎛ ⎞ 1 0 1 ⎝1⎠, ⎝0⎠, ⎝1⎠ 0 1 1 sind linear abh¨angig in (R3 , +; R, · ), da ⎛ ⎞ ⎛ ⎞ ⎛ ⎞ 1 0 1 0 = 1 · ⎝ 1 ⎠ + 1 · ⎝ 0 ⎠ − 1 · ⎝ 1 ⎠ . 1 1 0 Insbesondere sehen wir, dass der Vektor (1, 1, 1) als Summe (und damit als Linearkombination) der Vektoren (1, 1, 0) und (0, 0, 1) darstellbar ist.

549

19.2. Lineare Unabh¨ angigkeit, Basis und Dimension

Es gibt aber noch eine weitere wichtige Beobachtung: Je zwei der Vektoren sind linear unabh¨angig. Bei zwei Vektoren entspricht das genau der Kollinearit¨at (Definition 18.2, Seite 495). Aus der paarweisen linearen Unabh¨angigkeit folgt also nicht die lineare Unabh¨ angigkeit aller Vektoren. g) Wie zuvor schon f¨ ur den R3 gesehen, sind in Rn die Standard-Einheitsvektoren ⎛ ⎞ ⎛ ⎞ ⎛ ⎞ 0 0 1 ⎜0⎟ ⎜1⎟ ⎜0⎟ ⎜ ⎟ ⎜ ⎟ ⎜ ⎟ (19.5) e1 = ⎜ . ⎟ , e2 = ⎜ . ⎟ , . . . , en = ⎜ . ⎟ ⎝ .. ⎠ ⎝ .. ⎠ ⎝ .. ⎠ 0

0

1

linear unabh¨angig. h) Man beachte, dass zwei Funktionen f, g : D ⊆ R → R gleich sind, wenn alle Funktionswerte u ¨bereinstimmen. Damit sind f1 , f2 , . . . , fk : D → R linear unabh¨angig genau dann, wenn aus ur alle x ∈ D 0 = c1 f1 (x) + c2 f2 (x) + · · · + ck fk (x) f¨ folgt, dass c1 = c2 = · · · = ck = 0. angig: Die Monome 1, x, x2 , . . . , xn sind als Funktionen auf R linear unabh¨ Aus 0 = c0 + c1 x + c2 x2 + · · · + cn xn folgt durch Einsetzen von x = 0 sofort c0 = 0. Ableiten beider Seiten ergibt 0 = c1 + 2c2 x + · · · + ncn xn−1 . Wir setzen wieder x = 0 ein und erhalten c1 = 0. Dies kann man fortsetzen, so dass c0 = c1 = · · · = cn = 0 gilt. Die Monome sind also linear unabh¨angig.

Abb. 19.1 Zwei linear unabh¨ angige Vektoren spannen eine Ebene auf. Drei Vektoren sind linear unabh¨ angig (links) bzw. linear abh¨ angig (rechts)

Wir h¨atten die lineare Unabh¨angigkeit der Monome auch direkt mit einem Koeffizientenvergleich des Polynoms 0 mit dem Polynom c0 + c1 x + c2 x2 + · · · + cn xn sehen k¨onnen. Umgekehrt funktioniert ein Koeffizientenvergleich immer, wenn es um die Koeffizienten linear unabh¨ angiger Vektoren geht: Sind a1 , . . . , an linear unabh¨angig, dann gilt:

550

Kapitel 19. Vektorr¨ aume

x1a1 + · · · + xnan = c1a1 + · · · + cnan ⇐⇒ x1 = c1 ∧ . . . ∧ xn = cn . Die Richtung ⇐=“ ist offensichtlich. Die umgekehrte Richtung ist die linea” ren Unabh¨angigkeit (x1 − c1 )a1 + · · · + (xn − cn )an = 0 =⇒ (x1 − c1 ) = ankt sich daher nicht · · · = (xn − cn ) = 0. Der Koeffizientenvergleich beschr¨ auf Polynome, sondern kann auch bei linear unabh¨ angigen Funktionen wie 1, sin(kx), cos(kx), k ∈ N, genutzt werden (wobei die lineare Unabh¨ angigkeit f¨ ur diese Funktionen mit Satz 19.10 und den in Band 2, Kapitel 11.3.2, berechneten Integralen bzw. Skalarprodukten folgt).

19.2.2 Basis und Dimension Mit Hilfe eines Erzeugendensystems lassen sich alle Vektoren eines Vektorraums V als Linearkombination schreiben. Die Frage nach einem (minimalen) Erzeugendensystem mit einer m¨oglichst kleinen Anzahl von Vektoren f¨ uhrt auf den Begriff der Basis. Definition 19.6 (Basis) Es sei V ein Vektorraum. Die n-elementige Menge der Vektoren B := {a1 , a2 , . . . , an } ⊆ V heißt genau dann eine Basis von V , wenn sie linear unabh¨angig ist und ein Erzeugendensystem von V bildet.

Satz 19.2 (Basisdarstellung) Es sei die n-elementige B = {a1 , a2 , . . . , an } eine Basis von V . Dann kann jeder Vektor x ∈ V als Linearkombination x = λ1 · a1 + λ2 · a2 + · · · + λn · an =

n  k=1

λk · ak

geschrieben werden. Diese Darstellung ist (bez¨ uglich der Faktoren λ1 , λ2 , . . . , λn ) eindeutig. Beweis Da B insbesondere ein Erzeugendensystem ist, l¨ asst sich x als Linearkombination schreiben. Die Eindeutigkeit der Darstellung sieht man wie folgt ein. Angenommen, es gibt zwei Darstellungen von x, x = λ1a1 + · · · + λnan und x = μ1a1 + · · · + μnan . Dann folgt 0 = x − x = (λ1 − μ1 )a1 + · · · + (λn − μn )an , und aus der linearen Unabh¨angigkeit von a1 , . . . , an folgt λ1 = μ1 , . . . , λn =  μn .

19.2. Lineare Unabh¨ angigkeit, Basis und Dimension

551

Beispiel 19.7 In R2 bilden die Vektoren



1 1 und a2 = a1 = 0 1 eine Basis. a1 und a2 sind linear unabh¨angig:





0 1 1 0 λ 1 + λ2 = , + λ2 · = ⇐⇒ λ1 · 0 λ2 0 1 0 d. h., es folgt λ2 = 0 und λ1 = 0. Außerdem bilden sie ein Erzeugendensystem: Jeder Vektor x = (x1 , x2 ) kann als Linearkombination von a1 und a2 geschrieben werden:





1 1 x1 = (x1 − x2 ) · + x2 · . x = x2 0 1 Beispiel 19.8 a) Eine Basis von (R3 , +; R, · ) bzw. von (C3 , +; C, · ) ist ⎧ ⎛ ⎞ ⎛ ⎞ ⎛ ⎞⎫ 1 0 0 ⎬ ⎨ B := e1 := ⎝ 0 ⎠ , e2 := ⎝ 1 ⎠ , e3 := ⎝ 0 ⎠ . ⎩ ⎭ 0 0 1 b) Allgemeiner ist {e1 , e2 , . . . , en } wie in (19.5) die Standardbasis von (Rn , +; R, · ) bzw. von (Cn , +; C, · ). c) Eine andere Basis von (C3 , +; C, · ) ist ⎧⎛ ⎞ ⎛ ⎞ ⎛ ⎞⎫ 0 0 ⎬ ⎨ 2 ⎝1⎠, ⎝3⎠, ⎝0⎠ . ⎩ ⎭ 1 4 j d) Diese Mengen sind aber kein Erzeugendensystem und damit keine Basis von (C3 , +; R, · ). Dieser Vektorraum hat z. B. die Basis ⎧⎛ ⎞ ⎛ ⎞ ⎛ ⎞ ⎛ ⎞ ⎛ ⎞ ⎛ ⎞⎫ 0 0 ⎬ j 0 0 ⎨ 1 ⎝0⎠, ⎝1⎠, ⎝0⎠, ⎝0⎠, ⎝j ⎠, ⎝0⎠ . ⎭ ⎩ 0 0 j 1 0 0 e) Der reelle Vektorraum der Polynome Pn von Grad ≤ n hat eine Basis {1, x, x2 , x3 , . . . , xn }. Die lineare Unabh¨angigkeit der Monome haben wir bereits auf Seite 549 gezeigt. Zudem ist klar, dass sie ein Erzeugendensystem bilden.

Lemma 19.4 (Existenz einer Basis) Hat man in einem Vektorraum (V, +; K, ·) mit V = {0} ein Erzeugendensystem mit m Vektoren, so gibt es eine Basis mit n ≤ m Vektoren.

552

Kapitel 19. Vektorr¨ aume

Beweis Ist im Erzeugendensystem der Nullvektor vorhanden, so kann er wegen V = {0} weggelassen werden. Falls das resultierende Erzeugendensystem dann noch linear abh¨angig ist, so hat es mindestens zwei Vektoren, und man kann einen Vektor a als Linearkombination der anderen schreiben. L¨ asst man a weg, hat man immer noch ein Erzeugendensystem. Solange linear abh¨ angige Erzeugendensysteme entstehen, wiederholt man diesen Schritt. Das danach verbleibende Erzeugendensystem (mit mindestens einem Vektor) ist linear unabh¨angig und damit eine Basis.  Satz 19.3 (Austauschsatz) Sei die n-elementige Menge {a1 , . . . , an } eine Basis in (V, +; K, · ). Weiter sei b = c1a1 + c2a2 + · · · + cnan eine Linearkombination mit c1 = 0. Dann ist auch {b, a2 , . . . , an } eine Basis. Beweis Zum Nachweis der Basis-Eigenschaft m¨ ussen wir zeigen, dass die Vektoren {b, a2 , . . . an } ein linear unabh¨angiges Erzeugendensystem bilden. a) Wir zeigen zun¨achst die lineare Unabh¨angigkeit. Aus der Gleichung 0 = d1b + d2a2 + . . . dnan = d1 [c1a1 + . . . cnan ] + d2a2 + . . . dnan = (d1 c1 )a1 + (d1 c2 + d2 )a2 + . . . (d1 cn + dn )an folgt wegen der linearen Unabh¨angigkeit von a1 , . . . , an das Gleichungssystem d1 c1 = 0 ∧ d1 c2 + d2 = 0 ∧ · · · ∧ d1 cn + dn = 0. Da c1 = 0 gilt, ist d1 = 0. Damit sind aber auch d2 = d3 = · · · = dn = 0, und die lineare Unabh¨angigkeit ist bewiesen. b) Wir m¨ ussen noch zeigen, dass es sich um ein Erzeugendensystem handelt. Jeder Vektor a ∈ V hat nach Voraussetzung eine Darstellung a = d1a1 + d2a2 + · · · + dnan . Damit kann er aber wegen a1 =

1  [b − c2a2 − · · · − cnan ] c1

auch so geschrieben werden:   1  [b − c2a2 − · · · − cnan + d2a2 + · · · + dnan a = d1 c1     d1  d1 c 2 d1 cn a2 + · · · + dn − an . = b + d2 − c1 c1 c1 Somit handelt es sich auch bei {b, a2 , . . . an } um ein Erzeugendensystem. 

19.2. Lineare Unabh¨ angigkeit, Basis und Dimension

553

Satz 19.4 (Anzahl der Vektoren einer Basis) Der Vektorraum V habe eine Basis mit n Vektoren. Dann haben alle Basen dieses Vektorraums genau n Vektoren. Beweis Seien {a1 , a2 , . . . , an } und {b1 , b2 , . . . , bm } Basen mit n bzw. m Elementen. n • Fall m > n: b1 ist darstellbar als eine Linearkombination k=1 ckak . Da b1 = 0 ist, muss mindestens ein ck = 0 sein. Wir sortieren o. B. d. A. die ak so um, dass c1 = 0 ist. Nach Austauschsatz ist damit auch {b1 , a2 , . . . , an } n angig eine Basis. Jetzt ist b2 = d1b1 + k=2 dkak . Da b1 und b2 linear unabh¨ sind, muss ein dk , k ≥ 2, ungleich 0 sein. Wir sortieren die Vektoren so um, dass d2 = 0. Nach dem Austauschsatz ist damit auch {b1 , b2 , . . . , an } eine Basis. Dieses Argument l¨asst sich nun fortsetzen, so dass {b1 , b2 , . . . , bn } eine Basis ist. Damit kann aber bn+1 als Linearkombination der Vektoren b1 , . . . , bn geschrieben werden – im Widerspruch zur linearen Unabh¨ angigkeit. • Fall m < n: Analog erh¨alt man einen Widerspruch mit vertauschten Basen. Damit bleibt nur n = m.



Wir haben damit die vielleicht wichtigste charakteristische Gr¨ oße eines Vektorraums entdeckt und geben ihr einen Namen: Definition 19.7 (Dimension) Man sagt, dass ein Vektorraum mit einer Basis aus n Vektoren die Dimension n besitzt, Bezeichnung: dim V = n. Beispiel 19.9 a) (R3 , +; R, · ) hat die Dimension 3. Das passt zur umgangssprachlichen Formulierung dreidimensionaler Raum“ und zur bisherigen ” informellen Verwendung des Begriffs Dimension“. ” 3 b) (C , +; C, · ) hat ebenfalls die Dimension 3. 3 c) Dagegen hat (C , +; R, · ) die Dimension 6. d) (Cm×n , +; C, · ) hat die Dimension m · n. Folgerung 19.1 (Bedeutung der Dimension) Sei V ein Vektorraum der Dimension n, d. h., V besitzt eine Basis aus n Vektoren. a) Weniger als n Vektoren k¨onnen kein Erzeugendensystem bilden. b) Es sind nie mehr als n Vektoren linear unabh¨ angig. Beweis a) H¨atte man ein Erzeugendensystem mit weniger als n Vektoren, dann g¨abe es nach Lemma 19.4 auch eine Basis mit weniger als n Vektoren.

554

Kapitel 19. Vektorr¨ aume

Das w¨are aber ein Widerspruch dazu, dass bei der Dimension n alle Basen n Vektoren haben (Satz 19.4). b) H¨atte man m > n linear unabh¨angige Vektoren, so gibt es zwei F¨ alle: • Sie sind ein Erzeugendensystem. Das w¨ are wieder ein Widerspruch zu Satz 19.4. • Sie sind kein Erzeugendensystem und damit keine Basis des Vektorraums. Sei {a1 , . . . , an } die vorhandene Basis mit n Elementen. Dann l¨asst sich mindestens ein Vektor ak nicht als Linearkombination der m linear unabh¨angigen Vektoren b1 , . . . , bm schreiben. In einer Linearkombination des Nullvektors λak +

m  i=1

λibi = 0 ⇐⇒ λak = −

m 

λibi

i=1

muss damit λ = 0 sein. Dann sind aber wegen der linearen Unabh¨ angigkeit von b1 , . . . , bm alle anderen Koeffizienten gleich null, und man hat schon m + 1 linear unabh¨angige Vektoren. Man kann nun so lange weitere Elemente der Basis erg¨anzen, bis man schließlich ein linear unabh¨angiges Erzeugendensystem (eine Basis) hat. Das hat aber mehr als n Elemente im Widerspruch zum Satz 19.4.  Mittels der Folgerung k¨onnen wir direkt zeigen, dass nicht alle Vektorr¨ aume eine endliche Dimension haben: Lemma 19.5 (Unendlich-dimensionaler Vektorraum) raum aller Polynome auf R hat keine endliche Dimension.

Der Vektor-

Beweis F¨ ur jedes n ∈ N sind die Polynome 1, x, x2 , . . . , xn linear unabh¨angig, so dass wegen Folgerung 19.1 b) die Dimension des Vektorraums der Polynome ≥ n sein muss.  Satz 19.5 (Basissatz) Es sei V ein Vektorraum und dim(V ) = n ≥ 1. a) Sind die Vektoren a1 , . . . , an linear unabh¨angig, so bilden sie eine Basis. b) Ist die Menge der Vektoren {a1 , . . . , an } ein Erzeugendensystem, so ist sie eine Basis. Beweis a) Sei x ∈ V beliebig. Wegen dim(V ) = n sind n + 1 Vektoren nach Folgerung 19.1 stets linear abh¨angig. Insbesondere gilt dies f¨ ur x, a1 , . . . , an . Also existiert eine Linearkombination λ1 · a1 + λ2 · a2 + · · · + λn · an + λn+1 · x = 0

19.2. Lineare Unabh¨ angigkeit, Basis und Dimension

555

mit mindestens einem λk = 0, 1 ≤ k ≤ n + 1. Nun ist λn+1 = 0 nicht m¨oglich, denn sonst w¨are λ1 · a1 + · · · + λn · an = 0 mit einem λk = 0, angig 1 ≤ k ≤ n, entgegen der Annahme, dass {a1 , . . . , an } linear unabh¨ ist. Also folgt x = −

λ2 λn λ1 · a1 − · a2 − · · · − · an , λn+1 λn+1 λn+1

und x ist als Linearkombination aus {a1 , . . . , an } darstellbar. Damit ist angig{a1 , . . . , an } ein Erzeugendensystem, das wegen der linearen Unabh¨ keit eine Basis ist. are. b) Ist n = 1, so ist a1 = 0, da sonst kein Erzeugendensystem gegeben w¨ aren Der einzelne Vektor ist damit linear unabh¨angig, {a1 } ist eine Basis. W¨ im Fall n ≥ 2 die Vektoren nicht linear unabh¨ angig, so k¨ onnte man einen als Linearkombination der anderen schreiben. L¨ asst man ihn weg, so hat man immer noch ein Erzeugendensystem. Das hat aber weniger als n Elemente im Widerspruch zu Folgerung 19.1.  Schreibt man die Vektoren einer Basis des Rn (oder des Cn ) als Spalten (oder Zeilen) in eine (n × n)-Matrix, so ist diese invertierbar, denn jeder StandardEinheitsvektor kann aus den Spalten (Zeilen) kombiniert werden, so dass das Gauß-Verfahren zur Berechnung der inversen Matrix zu einer L¨ osung f¨ uhrt (vgl. Seite 195). Insbesondere ist damit die Determinante der Matrix ungleich null (vgl. Seite 217 und (7.4) auf Seite 223). Hat man umgekehrt eine Matrix A mit von null verschiedener Determinante, so sind die Spalten (Zeilen) eine Basis des Rn . Denn da die Matrix invertierbar ist, kann der Nullvektor nur als triviale Linearkombination der Spalten (Zeilen) dargestellt werden (A · x = 0 ⇐⇒ x = A−1 · 0 = 0), die Spalten (Zeilen) sind linear ¨ unabh¨angig und bilden nach Satz 19.5 eine Basis. Uber die Berechnung einer Determinante kann man also die Basiseigenschaft pr¨ ufen: Satz 19.6 (Basis und Determinante) Die Menge {a1 , a2 , . . . , an } ⊆ Rn ist genau dann eine Basis des Vektorraums (Rn , +; R, ·), wenn die (n × n)-Matrix A, deren Spalten (oder alternativ Zeilen) genau die Vektoren a1 , a2 , . . . , an sind, eine Determinante ungleich null hat. Die Bedeutung der Determinante wird anschaulich f¨ ur 2 × 2-Matrizen klarer: Hier entspricht der Betrag der Determinante dem Fl¨ acheninhalt des von den Zeilen- oder Spaltenvektoren aufgespannten Parallelogramms, siehe (7.1) auf Seite 212. Der Fl¨acheninhalt ist genau dann ungleich null, wenn keiner der beiden Vektoren als Vielfaches des anderen geschrieben werden kann. Genau dann bilden sie eine Basis des R2 .

556

Kapitel 19. Vektorr¨ aume

19.3 Skalarprodukt und Norm Der Begriff des Vektorraums abstrahiert vom Anschauungsraum. Statt Mengen von Pfeilen kann man nun Mengen von beliebigen Objekten betrachten, sofern f¨ ur diese eine Addition und eine Multiplikation mit Skalaren erkl¨ art ist, die den Vektorraumaxiomen gen¨ ugt. Die Axiome stellen sicher, dass sich diese Verkn¨ upfungen wie die entsprechenden Verkn¨ upfungen f¨ ur Pfeile verhalten. Jetzt u ¨bertragen wir die Begriffe L¨ange“ und Winkel“ auf beliebige Ele” ” mente eines Vektorraums. Dazu m¨ ussen wir auch das Skalarprodukt allgemeiner fassen. Wir nutzen als Vorlage Eigenschaften aus Satz 18.2.

19.3.1 Euklid’scher Raum und Skalarprodukt

Definition 19.8 (Euklid’scher Raum) Ein Euklid’scher Raum ist ein reeller Vektorraum (V, +; R, ·) mit einem Skalarprodukt, d. h. einer Abbildung · “ : V × V → R, ” die f¨ ur beliebige Vektoren a, b, c ∈ V und Skalare λ ∈ R die folgenden Regeln (Axiome) erf¨ ullt: a) Positive Definitheit: Das Skalarprodukt eines Vektors mit sich selbst ist nicht-negativ: a · a ≥ 0. Aus a · a = 0 folgt a = 0. b) Symmetrie: Es gilt das Kommutativgesetz a · b = b · a. c) Homogenit¨ at: (λa) · b = λ(a · b). d) Additivit¨ at (Distributivgesetz): (a + b) · c = a · c + b · c. Wie zuvor sind Skalarprodukt und Skalarmultiplikation aus der Definition des Vektorraums zwei unterschiedliche Verkn¨ upfungen, die nur einen ¨ ahnlichen Namen besitzen. Daher wird h¨aufig (aber nicht in diesem Buch) das Skalarprodukt mit spitzen Klammern geschrieben: < a, b >:= a · b. Die Homogenit¨at und die Additivit¨at f¨ uhren dazu, dass ein Skalarprodukt wegen der Symmetrie in beiden Argumenten linear ist, also z. B. (λa + μb) · c = λ(a · c) + μ(b · c). Man beachte aber, dass (λa) · (λb) = λ2 (a · b) ist. Sofort aus der Definition des allgemeinen Skalarprodukts folgt: a · 0 = 0 · a = (0 0) · a = 0 (0 · a) = 0,

(19.6)

557

19.3. Skalarprodukt und Norm

¨ d. h., die Regel zur positiven Definitheit in der Definition kann als Aquivalenz geschrieben werden. Beispiel 19.10 a) Der Anschauungsraum R3 ist mit dem Skalarprodukt (siehe Definition 18.4 auf Seite 503 und Satz 18.3 auf Seite 505) a · b = |a| · |b| · cos(ϕ) = a1 · b1 + a2 · b2 + a3 · b3 ein Euklid’scher Raum. Dabei ist ϕ der Winkel zwischen a und b. b) Das Skalarprodukt unter a) l¨asst sich direkt auf den Raum Rn mit allgemeiner Dimension n ∈ N u ¨bertragen. Mit dem Standardskalarprodukt a · b :=

n  k=1

ak · bk

wird er ebenfalls zu einem Euklid’schen Raum. F¨ ur die Definition ben¨ otigt man keinen Winkelbegriff. Die Axiome sind leicht zu verifizieren: a · a = a · b = (λa) · b = (a + b) · c =

n  k=1 n  k=1 n  k=1 n 

a2k ≥ 0, > 0 genau dann, wenn mindestens ein ak = 0, ak · bk =

n  k=1

λ ak · bk = λ

bk · ak = b · a, n  k=1

(ak + bk ) · ck =

k=1

ak · bk = λ (a · b),

n  k=1

a k · ck +

n  k=1

bk · ck = a · c + b · c.

Damit haben die Vektoren a = (1, 2, 3, 4) ∈ R4 und b = (4, 3, 2, 1) ∈ R4 das Standardskalarprodukt a · b =

4  k=1

ak · bk = 4 + 6 + 6 + 4 = 20.

F¨ ur die Standardskalarprodukte der Standard-Einheitsvektoren gilt 1, falls i = k, i, k = 1, . . . , n. ei · ek = 0, falls i = k, c) Die auf dem Intervall [−1, 1] stetigen Funktionen bilden einen Unterraum des Vektorraums aller reellen Funktionen auf diesem Intervall. Im Vektorraum C[−1, 1] der stetigen Funktionen ist durch 8 f • g :=

1 −1

f (x) · g(x) dx

(19.7)

558

Kapitel 19. Vektorr¨ aume

ein Skalarprodukt erkl¨art. Die Eigenschaften pr¨ uft man leicht nach, so ist 91 ur alle x ∈ [−1, 1] f • f = −1 f 2 (x) dx ≥ 0 und f • f = 0 ⇐⇒ f (x) = 0 f¨ wegen der Stetigkeit von f . Damit ist • positiv definit. Die Symmetrie ist offensichtlich, und die Additivit¨at und Homogenit¨ at folgen aus den Eigenschaften des bestimmten Integrals. Es macht durchaus Sinn, auf Rn nicht nur das Standardskalarprodukt zu betrachten. So wird beispielsweise beim CG-Verfahren, einem Algorithmus zum iterativen L¨osen großer Gleichungssysteme, ein Skalarprodukt u ¨ber eine Matrixmultiplikation definiert (vgl. Band 2, S. 44). Hintergrund: Skalarprodukt f¨ ur einen komplexen Vektorraum

Definition 19.9 (Skalarprodukt) Sei (V, +; C, ·) ein komplexer Vektorraum. Eine Abbildung ”

· “ :

V × V → C

heißt Skalarprodukt, falls sie f¨ ur beliebige Vektoren a, b, c ∈ V und Skalare λ ∈ C die folgenden Regeln (Axiome) erf¨ ullt: a) Positive Definitheit: Das Skalarprodukt eines Vektors mit sich selbst ist eine nicht-negative reelle Zahl: a · a ≥ 0. Aus a · a = 0 folgt a = 0. b) Die Abbildung ist hermitesch: a · b = b · a. Diese Eigenschaft ersetzt die bei reellen Vektorr¨ aumen geforderte Symmetrie. Wegen a · a = a · a ist insbesondere das Skalarprodukt eines Vektors mit sich selbst eine reelle Zahl. Das m¨ ussten wir bei der positiven Definitheit damit gar nicht fordern. c) Multiplikation mit einem Skalar: (λa) · b = λ(a · b), aber a · (λb) = λ(a · b). Homogenit¨at liegt also nur beim zweiten Argument vor. Zieht man aus dem ersten Argument einen Skalar vor das Skalarprodukt, so muss man ihn komplex konjugieren. d) Additivit¨ at in beiden Argumenten: (a + b) · c = a · c + b · c,

a · (b + c) = a · b + a · c.

559

19.3. Skalarprodukt und Norm

Das komplexe Standardskalarprodukt zweier komplexer Vektoren a = (a1 , a2 , . . . , an ) und b = (b1 , b2 , . . . , bn ) ∈ Cn ist definiert als a · b :=

n  k=1

ak · bk .

(19.8)

19.3.2 Betrag, Norm und Abstand Mit dem Skalarprodukt l¨asst sich nach dem Vorbild des Anschauungsraums und konsistent zu den zuvor verwendeten Bezeichnungen ein L¨ angen- und Abstandsbegriff in allgemeinen Vektorr¨aumen einf¨ uhren. Definition 19.10 (Betrag, Norm und Abstand) Es sei V ein Euklid’scher Raum und a, b ∈ V . √ • |a| := a · a ist der Betrag oder die Norm von a. • Ein Vektor a mit Norm 1 (also |a| = 1) heißt Einheitsvektor. • d(a, b) := |b − a| ist der Abstand von a und b. In einem komplexen Vektorraum mit einem komplexen Skalarprodukt werden diese Begriffe genauso definiert. Beispiel 19.11 a) F¨ ur Vektoren in Rn ergibt das Standardskalarprodukt den Betrag : ; n √ ; a2k , (19.9) |a| = a · a = < k=1

der auch Euklid’sche Norm heißt. F¨ ur n = 2 und n = 3 ist das die bekannte Definition von Seite 500, die mit dem Satz von Pythagoras u ¨bereinstimmt. achlich Insbesondere sind die Standard-Einheitsvektoren e1 , e2 und e3 tats¨ Einheitsvektoren in Richtung der Koordinatenachsen. √ b) Der Vektor a ∈ R4 mit Koordinaten a = (2, −3, 2, 1) hat den Betrag  √ 2 |a| = 22 + (−3)2 + 2 + 12 = 4. Der Vektor ea = 41 a ist der Einheitsvektor, der in die gleiche Richtung wie a zeigt (Richtungseinheit von a). c) Die beiden Vektoren a = (1, 2, 3, 4) und b = (4, 3, 2, 1) in R4 haben den Abstand

560

Kapitel 19. Vektorr¨ aume

 (a1 − b1 )2 + (a2 − b2 )2 + (a3 − b3 )2 + (a4 − b4 )2  √ = (−3)2 + (−1)2 + 12 + 32 = 20.

d(b, a) = |a − b| =

Die Begriffe L¨ange“ und Abstand“ sind in Rn geometrisch nachvollzieh” ” bar, in einem Funktionenraum kann man den Abstand dagegen nutzen, um zu beschreiben, wie gut eine Funktion f durch eine Funktion g angen¨ ahert wird (siehe beispielsweise die Berechnung eines Fourier-Koeffizienten auf Seite 40 in Band 2). Beispiel 19.12 In C[−1, 1] mit dem Skalarprodukt • aus (19.7) betrachten wir f (x) = 1 und g(x) = x. Dann ist 8

1

2

[d(f, g)] = (f − g) • (f − g) =

(f (x) − g(x))2 dx

1  1 8 (1 − x)2 dx = − (1 − x)3 = . 3 3 −1 −1

8

=

−1

1



Die Funktionen haben also den Abstand

8 3.

Satz 19.7 (Eigenschaften des Skalarprodukts und des Betrags) F¨ ur Vektoren x und y eines Euklid’schen Raums V gilt a) |x| = 0 ⇐⇒ x = 0, b) |λ · x| = |λ| · |x| f¨ ur alle λ ∈ R, c) Cauchy-Schwarz’sche Ungleichung: |x · y | ≤ |x| · |y |, d) Dreiecksungleichung: |x + y | ≤ |x| + |y |. Beweis a) Dies ist nichts anderes als (19.6) zusammen mit der positiven Definitheit  siehe Definition 19.8 a).  des Skalarprodukts, b) |λ · x| = (λ · x) · (λ · x) = λ2 (x · x) = |λ| · |x|. c) Wir zeigen die Ungleichung f¨ ur y = 0, d. h. |y | > 0. F¨ ur y = 0 ist die Ungleichung 0 ≤ 0 offensichtlich erf¨ ullt (vgl. a)). F¨ ur jedes λ ∈ R gilt: 0 ≤ (x − λy ) · (x − λy ) = x · x − λ(y · x) − λ(x · y ) + λ2 (y · y ) = |x|2 − 2λ(x · y ) + λ2 |y |2 .

W¨ahlen wir nun speziell λ := 0 ≤ |x|2 − 2



y |

y |2 ,

so erhalten wir

(x · y )2 (x · y )2 (x · y )2 + = |x|2 − . 2 2 |y | |y | |y |2

Damit ist |x · y |2 ≤ |x|2 |y |2 ,

19.4. Orthogonalit¨ at, Orthogonal- und Orthonormalsysteme

561

und die Ungleichung folgt durch Ziehen der Wurzel auf beiden Seiten, da die Betr¨age nicht-negativ sind. d) Mit der Definition des Skalarprodukts und der Cauchy-Schwarz’schen Ungleichung folgt: |x + y |2 = (x + y ) · (x + y ) = x · x + 2x · y + y · y = |x|2 + 2x · y + |y |2 ≤ |x|2 + 2 |x| |y | + |y |2 = (|x| + |y |)2 , und Ziehen der Wurzel ergibt |x + y | ≤ |x| + |y |.



Der Satz gilt auch f¨ ur komplexe Vektorr¨aume mit einem komplexen Skalarprodukt. Lediglich im Beweis zu b) und c) muss man die komplexe Konjugation beachten.

19.4 Orthogonalit¨at, Orthogonal- und Orthonormalsysteme Rechte Winkel sind in Wohnungen praktisch, da man gut M¨ obel platzieren kann. Auch beim Rechnen mit Vektoren erleichtern sie die Arbeit erheblich. Besonders angenehm sind Basen, deren Vektoren orthogonal (senkrecht) zueinander stehen. Noch sch¨oner wird es, wenn auch die L¨ angen der Basisvektoren zu eins normiert sind: Man spricht von einer orthonormalen Basis.

19.4.1 Winkel und Orthogonalit¨at Mit Hilfe des Skalarprodukts l¨asst sich in einem Euklid’schen Raum ein (abstrakter) Winkelbegriff einf¨ uhren. Aus der Cauchy-Schwarz’schen Ungleichung |a · b| ≤ |a| · |b| folgt f¨ ur alle a, b ∈ V −1 ≤

a · b ≤ 1. |a| · |b|

In Anlehnung an das Skalarprodukt aus Definition 18.4, das wir elementargeometrisch f¨ ur Vektoren in der Ebene und im Raum eingef¨ uhrt haben, wird

die Zahl | a a|·|·b b| als Kosinus eines Winkel ϕ ∈ [0, π] interpretiert. Definition 19.11 (Winkel und Orthogonalit¨ at) Es sei (V, +; R, ·) ein Euklid’scher Raum mit Skalarprodukt ·“. ” • F¨ ur a, b = 0 heißt die Zahl ϕ = ϕ(a, b) ∈ [0, π] mit

562

Kapitel 19. Vektorr¨ aume

cos(ϕ) =

a · b |a| · |b|

der Winkel zwischen a und b. • Zwei Vektoren a, b ∈ V heißen orthogonal (a ⊥ b) genau dann, wenn a · b = 0. In diesem Fall ist ϕ(a, b) = π2 . • Entsprechend sind ein Vektor a ∈ V und eine Menge U ⊆ V orthogonal (a ⊥ U ) genau dann, wenn a · b = 0 f¨ ur alle b ∈ U gilt. Die hier definierte Orthogonalit¨at entspricht genau der Definition auf Seite onnen wir aber auch 504 f¨ ur das Standardskalarprodukt in R2 oder R3 . Jetzt k¨ von orthogonalen Vektoren in h¨oheren Dimensionen und abstrakten R¨ aumen sprechen. Man beachte, dass bei Verwendung eines komplexen Skalarprodukts

onnen in einem komplexen Vektorraum die Zahl | a a|·|·b b| komplex ist. Damit k¨ wir den Arkuskosinus in der Regel nicht berechnen. Ist der Wert aber null, so nennen wir auch in diesem Fall die Vektoren orthogonal. Beispiel 19.13 Die Vektoren a = (3, −1, 1, 5) und b = (−2, 2, 3, 1) sind hinsichtlich des Standardskalarprodukts im R4 orthogonal, denn es ist a · b = 3 · (−2) + (−1) · 2 + 1 · 3 + 5 · 1 = 0. Weiter gilt   √ |a| = 32 + (−1)2 + 12 + 52 = 6 und |b| = (−2)2 + 22 + 32 + 12 = 18. Beispiel 19.14 (Suchmaschinen) Suchmaschinen im Internet k¨ onnen das ¨ einer Anfrage mit Standardskalarprodukt in Rn nutzen, um die Ahnlichkeit einer Internetseite zu bewerten. Dazu z¨ahlt man alle relevanten W¨ orter der Anfrage und schreibt die Anzahlen in einen Vektor. Jede Stelle des Vektors entspricht dabei genau einem aussagekr¨aftigen Wort der jeweiligen Sprache. Die Raumdimension n ist also sehr groß, da mehrere zehntausend W¨ orter einer Sprache zu ber¨ ucksichtigen sind. Ebenso wird das mit der Anfrage zu vergleichende Dokument in einen Vektor u uhrt. Anfrage und Dokument ¨berf¨ sind dann ¨ahnlich, wenn das Skalarprodukt der beiden Vektoren dividiert durch die Betr¨age bzw. Normen der Vektoren nahe bei 1 ist. Dies ist der Kosinus des Winkels zwischen den Vektoren, der damit nahe bei Null liegt. Anfrage und Dokument sind also ¨ahnlich, wenn die zugeh¨ origen Vektoren fast in die gleiche Richtung zeigen. Beispiel 19.15 In C[−1, 1] mit dem Skalarprodukt • aus (19.7) betrachten wir wieder f (x) = 1 und g(x) = x. Dann ist 8 f •g =



1 −1

1 · x dx =

1 2 x 2

1 = 0. −1

19.4. Orthogonalit¨ at, Orthogonal- und Orthonormalsysteme

563

Die Funktionen sind orthogonal in diesem Vektorraum. Das heißt aber nicht, dass die Graphen im Schnittpunkt senkrecht zueinander stehen. Sind a und b zueinander orthogonale Vektoren, so gilt wegen a · b = 0: |a + b|2 = (a + b) · (a + b) = |a|2 + 2a · b + |b|2 = |a|2 + |b|2 . Damit haben wir gezeigt: Satz 19.8 (Pythagoras in allgemeinen Euklid’schen R¨ aumen) Es seien a und b zueinander orthogonale Vektoren in einem Euklid’schen Raum. Dann gilt |a + b|2 = |a|2 + |b|2 . Insbesondere haben wir damit den Satz von Pythagoras in Rn f¨ ur beliebiges n zur Verf¨ ugung.

19.4.2 Orthogonal- und Orthonormalsysteme Die Vektoren der Standardbasis des R3 , n¨amlich e1 = (1, 0, 0), e2 = (0, 1, 0), e3 = (0, 0, 1), stehen paarweise senkrecht aufeinander und bilden das Grundger¨ ust f¨ ur ein kartesisches Koordinatensystem. Dieser Begriff wird nun allgemeiner gefasst: Definition 19.12 (Orthogonalsystem und Orthonormalsystem) Es sei (V, +; R, ·) ein Euklid’scher Raum. • Sind die Vektoren einer Menge U ⊆ V paarweise orthogonal und ungleich 0, so bezeichnet man U als Orthogonalsystem. • Ein Orthogonalsystem U aus lauter Einheitsvektoren (d. h. Vektoren mit Betrag eins) heißt Orthonormalsystem. • Ein Orthonormalsystem U , das zugleich Basis von V ist, heißt Orthonormalbasis. F¨ ur ein Orthonormalsystem U = {c1 , . . . , cm } mit m Elementen gilt 1, falls i = k, i, k = 1, . . . , m. (19.10) ci · ck = δi,k := 0, falls i = k,

564

Kapitel 19. Vektorr¨ aume

Das Kronecker-Delta δi,k wird h¨aufig als abk¨ urzende Schreibweise f¨ ur eine Fallunterscheidung verwendet, bei der bei nicht u ¨bereinstimmenden Indizes der Wert Null und sonst die Zahl Eins verlangt wird. Beispiel 19.16 a) Die Vektoren a und b aus Beispiel 19.13 bilden ein Oruglich des Standardskalarprodukts. Da die thogonalsystem U in R4 bez¨ Betr¨age nicht 1 sind, ist U kein Orthonormalsystem. Ein Orthonormalsystem erh¨alt man, indem man die beiden Vektoren normiert: ea =

1 · a, 6

1 eb = √ · b. 18

Es handelt sich nicht um eine Orthonormalbasis von R4 , da eine Basis vier Vektoren enth¨alt. b) Die Standardbasis US = {e1 , . . . , en } ⊂ Rn ist eine Orthonormalbasis ur das Standardskalarprodukt. Jede Teilmenge von US ist ein von Rn f¨ Orthonormalsystem in Rn .

19.4.3 Euklid’sche R¨aume endlicher Dimension Wir betrachten im Folgenden Euklid’sche R¨aume V endlicher Dimension n. Vektorr¨aume wie die Polynome beliebigen Grades schließen wir damit aus. Mit einer Orthonormalbasis gestaltet sich dann vieles relativ einfach. Beispielsweise erhalten wir die Komponenten eines Vektors a ∈ V bez¨ uglich einer Orthonormalbasis unmittelbar u ¨ber das Skalarprodukt von a mit den Basisvektoren. Daneben l¨asst sich die Berechnung des Skalarprodukts auf das uckf¨ uhren, die R¨ aume verhalten sich wie der Standardskalarprodukt in Rn zur¨ Rn . Satz 19.9 (Basisdarstellung, Skalarprodukt und Satz von Pythagoras) Es sei U = {c1 , . . . , cn } eine Orthonormalbasis im Euklid’schen ur i, k ∈ {1, . . . , n}. Raum V , d. h. ci · ck = δi,k f¨ a) F¨ ur a ∈ V gilt die Komponentendarstellung a =

n  i=1

ai · ci

mit

ak = a · ck ,

k = 1, . . . , n.

Analog zur Standardbasis der Ebene oder des dreidimensionalen Anschauungsraums nennt man die Summanden ai · ci die Komponenten von a zur Basis U , die Faktoren ai heißen Koordinaten. b) Das Skalarprodukt von zwei Vektoren a und b in V kann u ¨ber das Standardskalarprodukt der Koordinaten in Rn berechnet werden:

565

19.4. Orthogonalit¨ at, Orthogonal- und Orthonormalsysteme n 

a · b =

i=1

ai · b i .

c) Der Betrag eines Vektors a ∈ V ist gleich dem Betrag der Koordinaten im Raum Rn mit dem Standardskalarprodukt: |a|2 =

n 

a2i .

i=1

Beweis a) Da U insbesondere ein Erzeugendensystem ist, hat a eine Darn stellung als Linearkombination a = i=1 ai · ci , wobei wir noch die Koussen. Das Skalarprodukt von a mit ck lautet effizienten ai ausrechnen m¨ n  ai ci · ck , und mit (19.10) folgt a · ck = ak . a · ck = i=1

b) F¨ ur das Skalarprodukt von a =

n 

ai · ci mit b =

i=1

a · b =

n  i=1

' ai · ci ·

n  k=1

( bk · ck

=

n  i=1

ai ·

n  k=1

n 

k=1

bk · ck erh¨ alt man

bk ci · ck =   =δi,k

c) erh¨alt man aus b), wenn man b = a setzt.

n  i=1

ai · bi . 

Satz 19.10 (Lineare Unabh¨ angigkeit eines Orthonormalsystems) Bildet die n-elementige Menge {a1 , . . . , an } ein Orthonormalsystem, dann ist {a1 , . . . , an } linear unabh¨angig. In einem Euklid’schen Raum V der Dimension n hat ein Orthonormalsystem U also h¨ochstens n Vektoren. n Beweis Angenommen, es ist 0 = i=1 λiai . Dann folgt durch Bildung des Skalarprodukts mit ak : 0 = 0 · ak =

n  i=1

λi ai · ak = λk ,  

k = 1, . . . , n.

δi,k

Damit kann 0 nur trivial linear kombiniert werden, und {a1 , . . . , an } ist linear unabh¨angig.  Ein Orthonormalsystem U ist genau dann eine Basis von V , wenn es n Vektoren enth¨alt.

566

Kapitel 19. Vektorr¨ aume

Beispiel 19.17 Gegeben sei das Orthonormalsystem U in R2 aus den Vektoren



1 1 1 2 , c2 = √ . c1 = √ 5 2 5 −1 uglich U . F¨ ur Wir bestimmen die Komponenten des Vektors a = (3, 4) bez¨ die Koordinaten erh¨alt man 11 1 a · c1 = √ (3 · 1 + 4 · 2) = √ , 5 5

2 1 a · c2 = √ (3 · 2 + 4 · (−1)) = √ 5 5

und damit die Komponentendarstellung a =

11 √ 5

· c1 +

√2 5

· c2 .

19.4.4 Gram-Schmidt’sches Orthonormierungsverfahren In einem Euklid’schen Raum V kann man aus jeder m-elementigen linear unabh¨angigen Menge U = {a1 , . . . , am } ein Orthonormalsystem machen, das den gleichen Unterraum wie die Vektoren aus U erzeugt. Bei einem endlichdimensionalen Raum l¨asst sich so insbesondere eine Orthonormalbasis gewinnen. Das Gram-Schmidt’sche Orthonormierungsverfahren liefert dieses Orthonormalsystem Uo = {c1 , . . . , cm } schrittweise: • Da die Vektoren aus U linear unabh¨angig sind, sind sie vom Nullvektor verschieden und haben einen Betrag gr¨oßer null. Damit k¨ onnen wir den ersten Vektor a1 zu einem Einheitsvektor normieren: c1 :=

a1 . |a1 |

• Der zweite Vektor a2 l¨asst sich als Summe eines Vektors, der senkrecht zum ersten Vektor steht (Lot), und eines Vektors, der parallel zum ersten Vektor liegt (Projektion), schreiben. Das geschieht genau so, wie es in Kapitel 18.2.4 f¨ ur den Anschauungsraum beschrieben ist. Den senkrechten Anteil erhalten wir u ¨ber d2 := a2 − (a2 · c1 ) c1 , denn d2 · c1 = a2 · c1 − (a2 · c1 ) c1 · c1 = 0.   =1

Hier ben¨otigt man, dass c1 normiert ist. Da das auch in den folgenden ange eins Schritten wichtig ist und d2 im Allgemeinen noch nicht die L¨ hat, wird auch dieser Vektor normiert: c2 :=

d2 . |d2 |

19.4. Orthogonalit¨ at, Orthogonal- und Orthonormalsysteme

567

• F¨ ur die n¨achsten Schritte verallgemeinern wir die Vorgehensweise des vorherigen Schritts. Angenommen, c1 , . . . , cl liegen bereits vor, dann wird der n¨achste Vektor so konstruiert, dass er orthogonal zu allen diesen Vektoren steht: l  (al+1 · ck ) ck . dl+1 := al+1 − k=1

Wie f¨ ur d2 rechnet man nach, dass dl+1 tats¨ achlich senkrecht zu den zuvor konstruierten Vektoren steht und muss nun nur noch normieren: cl+1 :=

dl+1 , |dl+1 |

l = 1, . . . , m − 1.

Beispiel 19.18 a) Als erstes einfaches Beispiel f¨ ur das Gram-Schmidt’sche Verfahren betrachten wir die Vektoren a1 = (1, 0) und a2 = (1, 1) . Im ersten Schritt ist lediglich a1 zu normieren:

a1 1 c1 = = . 0 |a1 | Im zweiten Schritt betrachten wir



1 1 0 − (1 · 1 + 1 · 0) = . d2 := a2 − (a2 · c1 ) c1 = 1 0 1

0 . 1 b) Wir wollen das System der linear unabh¨angigen Vektoren in R4 ⎛ ⎞ ⎛ ⎞ ⎛ ⎞ 0 1 1 ⎜0⎟ ⎜0⎟ ⎜1⎟ ⎜ ⎟ ⎟ ⎜ ⎟ a1 = ⎜ ⎝ 1 ⎠ , a2 = ⎝ 0 ⎠ , a3 = ⎝ 1 ⎠ 1 0 0 Wegen |d2 | = 1 erhalten wir c2 =

nach dem Verfahren von Gram-Schmidt orthonormieren. Zun¨ achst wird der erste Vektor d1 := a1 normiert: c1 =

1 d1 = √ (1, 0, 1, 0) .  2 |d1 |

Ein dazu orthogonaler Vektor ist ⎛ ⎛ ⎞ ⎛ ⎞ ⎞ 1 1 1 ⎜ ⎜1⎟ ⎟ ⎟ 1 ⎜ 1 ⎜0⎟ 1 ⎜ 2⎟ ⎟ d2 = a2 − (a2 · c1 ) c1 = ⎜ ⎝ 0 ⎠ − √2 · √2 ⎝ 1 ⎠ = 2 ⎝ −1 ⎠ . 0 0 0

568

Kapitel 19. Vektorr¨ aume

Der entsprechende Einheitsvektor lautet c2 =

1 d2 = √ (1, 2, −1, 0) .  6 |d2 |

Der folgende Vektor ist zu c1 und zu c2 orthogonal: d3 = a3 − (a3 · c1 ) c1 − (a3 · c2 ) c2 ⎛ ⎛ ⎞ ⎛ ⎛ ⎞ ⎞ ⎞ −1 1 1 0 ⎜ ⎜0⎟ ⎟ ⎟ ⎟ 1 ⎜ 1 ⎜ 1 1 ⎜0⎟ ⎜ 2⎟ 1 ⎜ 1⎟ ⎟ =⎜ ⎝ 1 ⎠ − √2 · √2 ⎝ 1 ⎠ − (−1) · √6 · √6 ⎝ −1 ⎠ = 3 ⎝ 1 ⎠ . 3 0 0 1 Die Normierung ergibt c3 =

1 d3 = √ (−1, 1, 1, 3) . 12 |d3 |

Die Menge Uo = {c1 , c2 , c3 } ist das gesuchte Orthonormalsystem.

19.4.5 Orthogonale Projektion Die Zerlegung eines Vektors b in R3 als Summe b = u + v mit einem Vektor u, der parallel zu einem gegebenen Vektor a liegt (Projektion auf a), und einem Vektor v , der senkrecht zu a steht (Lot), ist nach Satz 18.5 f¨ ur das Standardskalarprodukt in R3 gegeben durch u =

b · a a |a|2

und v = b −

b · a a. |a|2

Diesen Sachverhalt haben wir bei der Herleitung des Gram-Schmidt’schen Verfahrens bereits f¨ ur allgemeine Euklid’sche R¨ aume ausgenutzt. Außerdem haben wir dort ab dem dritten Schritt Vektoren berechnet, die senkrecht auf mehreren Vektoren stehen. Das l¨asst sich nun verallgemeinern, indem wir Vektoren auf Unterr¨aume projizieren (vgl. Abbildung 19.2). Definition 19.13 (Orthogonale Projektion) Es sei V ein Euklid’scher Raum, und U sei ein endlich-dimensionaler Unterraum von V . F¨ ur den Vektor a ∈ V definieren wir die orthogonale Projektion von a auf U als den Vektor p(a|U ) mit | p(a|U ) − a| ≤ |q − a| f¨ ur alle q ∈ U.

19.4. Orthogonalit¨ at, Orthogonal- und Orthonormalsysteme

569

Diese Definition ist so noch nicht in Ordnung, denn es ist zun¨ achst nicht klar, ob es tats¨ achlich ein eindeutiges Minimum p(a|U ) gibt. Um dies zu finden, benutzen wir eine orthogonale Basis {c1 , . . . , cm } des Unterraums U , die man immer aus einer beliebigen Basis von U mittels des Verfahrens von Gram-Schmidt berechnen kann.

Abb. 19.2 Orthogonale Projektion

Satz 19.11 (Projektionsdarstellung) Es sei V ein Euklid’scher Raum mit einem Unterraum U , der von einem Orthonormalsystem mit m verschiedenen Vektoren c1 , . . . , cm erzeugt wird. Die orthogonale Projektion eines Vektors a ∈ V auf den Unterraum U ist gegeben durch p(a|U ) =

m  i=1

(a · ci ) ci .

Der Lotvektor l := a − p(a|U ) steht senkrecht auf allen Elementen von U (d. h. l ⊥ U ), daher der Name orthogonale Projektion“. ” In jedem Schritt des Gram-Schmidt-Verfahrens wird eine Projektion auf den Unterraum, der von den bereits berechneten Vektoren aufgespannt wird, durchgef¨ uhrt. Beweis Im Satz ist der Kandidat f¨ ur das in der Definition geforderte Minimum angegeben: m  (a · ci ) ci ∈ U. p := p(a|U ) = i=1

¨ Analog zu den Uberlegungen beim Gram-Schmidt’schen Orthogonalisierungsverfahren steht l = a − p senkrecht auf jedem Element von U : Wegen m  (a ·ci ) (ci ·ck ) = a ·ck folgt (a − p) ·ck = 0 f¨ ur k = 1, . . . , m. Weiter p ·ck = i=1

gilt (a − p) · q = 0 f¨ ur einen beliebigen Vektor q ∈ U , denn q l¨ asst sich als Linearkombination aus {c1 , . . . , cm } darstellen.

570

Kapitel 19. Vektorr¨ aume

Jetzt zeigen wir, dass p der eindeutige Vektor aus U ist, der einen minimalen Abstand zu a hat (so dass die vorangehende Definition sinnvoll ist). Dazu sei q ∈ U beliebig gew¨ahlt: p − q )|2 = ((a − p ) + ( p − q )) · ((a − p ) + ( p − q )) |a − q |2 = |(a − p ) + ( 2 2 p − q | + 2(a − p ) · ( p − q ), = |a − p | + | wobei der letzte Summand wegen p − q ∈ U und a − p ⊥ U verschwindet. Damit ist p − q |2 = |a − q |2 , |a − p |2 + |   ≥0

und wir erhalten |a − p | ≤ |a − q |, p ist minimal. Da f¨ ur p = q sogar |a − p | < |a − q | gilt, haben wir auch die Eindeutigkeit des Minimums bei p gezeigt. Beispiel 19.19 Wir betrachten die Vektoren





1 1 1 2 3 , c2 = √ . a = , c1 = √ 4 5 2 5 −1

Die Komponenten a1 = (a · c1 ) c1 =

11 5

1 , 2

a2 = (a · c2 ) c2 =

2 5



2 −1



von a bez¨ uglich der Orthonormalbasis {c1 , c2 } sind die orthogonalen Projektionen von a auf die Richtungen c1 und c2 bzw. auf die von ihnen erzeugten Teilr¨aume. Als ein weiteres Beispiel zeigt Abbildung 19.3 die Projektion von farbigen Laserscanpunkten auf Fassaden eines 3-D-Stadtmodells des Landes NRW. Im Stadtmodell liegt jede Fassade in einer Ebene U . Da in der Realit¨ at aber Fassaden nie ganz eben sind, werden zur Texturierung auch Laserscanpunkte a verwendet, die maximal einen Meter vor oder hinter der Fassade liegen. Diese werden orthogonal als Vektor p(a|U ) in die Ebene projiziert, so dass die so gefundene Stelle eingef¨arbt werden kann.

Abb. 19.3 Wandtexturen, die durch Orthogonalprojektion von Laserscandaten erzeugt wurden

19.4. Orthogonalit¨ at, Orthogonal- und Orthonormalsysteme

571

19.4.6 Orthogonale Matrizen In Kapitel 6.5 haben wir orthogonale Matrizen A u ¨ber die Eigenschaft uhrt. Damals konnten wir aber die Bezeichnung noch nicht A−1 = A eingef¨ ugung verstehen. Jetzt haben wir das Standardskalarprodukt in Rn zur Verf¨ und wissen, dass Vektoren genau dann senkrecht zueinander stehen, wenn ihr Skalarprodukt null ist. Folgerung 19.2 (Eigenschaften einer orthogonalen Matrix) Ist A ∈ Rn×n eine orthogonale Matrix, d. h. A · A = A · A = E (siehe Definition 6.13 auf Seite 200), so gilt bez¨ uglich des Standardskalarprodukts in Rn : a) Die Spaltenvektoren von A stehen senkrecht zueinander. b) Die Zeilenvektoren von A stehen senkrecht zueinander. c) Bei Multiplikation mit A bleibt der Betrag eines Vektors erhalten. d) Bei der Multiplikation mit orthogonalen Matrizen bleibt der Kosinus des Winkels zwischen Vektoren erhalten. Verwendet man das komplexe Standardskalarprodukt (19.8) von Seite 559, so gelten die Punkte a), b) und c) nicht nur f¨ ur reelle orthogonale Matrizen, sondern auch f¨ ur komplexe unit¨are Matrizen A ∈ Cn×n (siehe Hintergrundinformationen auf Seite 201). Dabei stehen komplexe Spalten- oder Zeilenvektoren paarweise senkrecht zueinander, wenn ihr komplexes Standardskalarprodukt null ist. Beweis a) Bildet man das Skalarprodukt zweier verschiedener Spalten i = k, so ergibt sich der Eintrag der i-ten Zeile und k-ten Spalte von A · A = E, also 0. b) Analog zu a) folgt die Orthogonalit¨at der Zeilen aus A · A = E. c) F¨ ur a ∈ Rn ist √ √ √  |A · a| = (A · a) · (A · a) = a · A · A · a = a · a = a · a = |a|. d) Seien a, b ∈ Rn mit a = 0 = b. Das Skalarprodukt der Bildvektoren ist (A · a) · (A · b) = a · A · A · b = a · A−1 · A · b = a · b = a · b. F¨ ur den Kosinus des Winkels ϕ zwischen a und b folgt mit c) cos(ϕ) =

(Aa) · (Ab) a · b = , |a||b| |Aa||Ab|

d. h., der Kosinus des Winkels zwischen den Vektoren a, b und der Kosinus des Winkels zwischen Aa und Ab sind gleich. 

572

Kapitel 19. Vektorr¨ aume

Orthogonale Matrizen sind sogar genau die Matrizen, f¨ ur die c) oder d) gilt: Lemma 19.6 (Charakterisierung orthogonaler Matrizen) Sei A ∈ ¨ sind: Rn×n . Aquivalent a) A ist orthogonal. b) (A · x) · (A · y ) = x · y f¨ ur alle x, y ∈ Rn . c) |A · x| = |x| f¨ ur alle x ∈ Rn . Orthogonale Matrizen sind also genau die Matrizen, die bei der Multiplikation l¨angenerhaltend sind. Beweis Nach Beweis der Folgerung 19.2 d) folgt b) aus a). Indem wir y = x setzen, folgt aus b) die Aussage c). Das Lemma ist also bewiesen, wenn wir c) =⇒ a) zeigen k¨onnen. Seien dazu a1 , . . . , an die n Zeilenvektoren der Matrix A. Nach c) ist 2

|ak | = |A

2 · a k|

=

n  i=1

2

2

[ai · ak ] = |ak | +

n  i=1,i =k

[ai · ak ]2 .

Damit muss jeder (nicht-negative) Summand der verbleibenden Summe null sein, die Zeilenvektoren von A stehen also senkrecht zueinander. A · A = ussen noch zeigen, D = D = A · A ist damit eine Diagonalmatrix. Wir m¨ dass die Hauptdiagonalelemente dk = 1 sind. Dazu multiplizieren wir mit dem Standard-Einheitsvektor ek , der eine 1 an der k-ten Stelle hat: c)

ek = e ek = (Aek ) · (Aek ) = |A · ek |2 = |ek |2 = 1. dk = e k D k A · A

 Beispiel 19.20 Die Spaltenvektoren der Matrix A aus (6.4) stehen senkrecht aufeinander, da die Matrix orthogonal ist (siehe Seite 198). A beschreibt eine Drehung. Dreht man zwei Spaltenvektoren a und b um den gleichen Winkel durch Multiplikation mit A, so bleibt der Winkel zwischen diesen Vektoren gleich. Allgemeiner beschreiben orthogonale Matrizen Drehungen oder Spiegelungen. Folgerung 19.3 (Orthogonale Matrix als orthonormale Basis) a) Die Spalten und ebenso die Zeilen einer orthogonalen Matrix A ∈ Rn×n bilden eine Orthonormalbasis des Rn . alt man eib) Hat man umgekehrt eine Orthonormalbasis des Rn , so erh¨ ne orthogonale Matrix A, indem man die Basisvektoren als Zeilen oder Spalten von A verwendet.

19.4. Orthogonalit¨ at, Orthogonal- und Orthonormalsysteme

573

Beweis a) Nach ihrer Definition ist die Matrix A invertierbar, die n Spalten sind damit linear unabh¨angig und bilden eine Basis des Rn . Außerdem stehen die Spalten senkrecht zueinander (siehe Folgerung 19.2). Der Betrag der k-ten Spalte ist die Wurzel aus dem Eintrag an der Stelle (k, k) der Matrix A · A = E und ist damit 1. b) Seien die Spalten von A eine orthonormale Basis. Dann ist A · A = E,  so dass A = A−1 und A orthogonal ist. Zusammenfassend sind damit ¨aquivalent: • • • • • • • •

A ist orthogonal. (A · x) · (A · y ) = x · y f¨ ur alle x, y ∈ Rn . |A · x| = |x| f¨ ur alle x ∈ Rn . −1 A =A . A · A = E. A · A = E. Die Spalten von A bilden eine Orthonormalbasis des Rn . Die Zeilen von A bilden eine Orthonormalbasis des Rn .

Kapitel 20

Lineare Abbildungen Die lineare Abbildung ist in der Linearen Algebra das, was in der Analysis eine stetige Funktion ist. Das liegt daran, dass beide Arten von Abbildungen die jeweils untersuchten Eigenschaften erhalten. Stetige Abbildungen bilden Intervalle [a, b] des Definitionsbereichs auf Intervalle [c, d] des Wertebereichs ab (siehe Seite 323) und zeigen ein entsprechendes Verhalten f¨ ur die in der Analysis wichtigen kleinen Umgebungen. Lineare Abbildungen erhalten die lineare Struktur, d. h., es spielt keine Rolle, ob man Vektoren zuerst addiert und mit Skalaren multipliziert und dann abbildet, oder ob man sie zuerst abbildet und dann verkn¨ upft. Geometrische Transformationen wie Drehungen, Spiegelungen und Streckungen werden u ¨ber lineare Abbildungen dargestellt. So wie wir Drehungen bereits u uckt haben, lassen sich f¨ ur endlich-di¨ber ein Matrixprodukt ausgedr¨ mensionale Vektorr¨aume alle linearen Abbildungen u ¨ber Matrizen schreiben. Hier erwartet uns nichts Neues, wir betrachten lediglich den Matrix-Begriff aus einer anderen Perspektive. Aber auch die Differenziation von Funktionen und die Bildung der Stammfunktion sind lineare Abbildungen. Diese lassen sich f¨ ur unendlich-dimensionale Vektorr¨aume von Funktionen dann aber nicht mehr mit Matrizen darstellen.

© Der/die Autor(en), exklusiv lizenziert an Springer-Verlag GmbH, DE, ein Teil von Springer Nature 2023 S. Goebbels und S. Ritter, Mathematik verstehen und anwenden: Differenzial- und Integralrechnung, Lineare Algebra, https://doi.org/10.1007/978-3-662-68367-5_20

575

576

Kapitel 20. Lineare Abbildungen

20.1 Lineare Abbildungen und Matrizen Eine lineare Funktion f : R → R mit f (x) = a · x beschreibt eine Gerade durch den Koordinatenursprung mit der Steigung a ∈ R. F¨ ur x1 , x2 ∈ R gilt f (x1 + x2 ) = a · (x1 + x2 ) = a · x1 + a · x2 = f (x1 ) + f (x2 ), f (λx1 ) = a · (λ · x1 ) = λ · (a · x1 ) = λ · f (x1 ), λ ∈ R. Diese beiden Eigenschaften nennt man Linearit¨ at. Abbildungen mit diesen Eigenschaften heißen linear. Hier besch¨aftigen wir uns mit linearen Abbildungen zwischen Vektorr¨aumen: Definition 20.1 (Lineare Abbildung) Es seien V und W Vektorr¨ aume u ¨ber R (oder C). Eine Abbildung L : V → W , x → L(x) heißt linear genau dann, wenn f¨ ur alle x, y ∈ V und λ ∈ R (bzw. C) gilt: • Additivit¨ at: L(x + y ) = L(x) + L(y ), • Homogenit¨ at: L(λ · x) = λ · L(x). Auf der linken Seite der Gleichungen zur Additivit¨ at und Homogenit¨ at wird die Addition und Skalarmultiplikation des Vektorraums V verwendet, w¨ahrend auf der rechten Seite die entsprechenden Verkn¨ upfungen in W gemeint sind. Im Folgenden formulieren wir f¨ ur reelle Vektorr¨ aume, u ¨berall kann aber ohne Probleme R durch C ersetzt werden. Lemma 20.1 (Eigenschaften linearer Abbildungen) Gegeben sei eine lineare Abbildung L : V → W : a) Der Nullvektor 0 in V wird auf den Nullvektor 0 in W abgebildet: L(0) = L(0 · x) = 0 · L(x) = 0. Umgekehrt kann es aber auch Vektoren x = 0 mit L(x) = 0 geben. b) Das Bild einer Linearkombination von Vektoren ist gleich der Linearkombination der Bildvektoren: L(λ1 · x1 + λ2 x2 ) = λ1 · L(x1 ) + λ2 · L(x2 ),

x1 , x2 ∈ V, λ1 , λ2 ∈ R.

Beispiel 20.1 a) L : Rn → Rn , x → L(x) := x heißt die identische Abbildung. Sie ist offensichtlich linear und entspricht der Multiplikation mit der Einheitsmatrix.

20.1. Lineare Abbildungen und Matrizen

577



cos(ϕ) · x1 − sin(ϕ) · x2 x1 → . b) L : R → R , x2 sin(ϕ) · x1 + cos(ϕ) · x2 2 Die Abbildung ordnet jedem Vektor in R den um den Winkel ϕ gedrehten Vektor zu. Diese Drehung haben wir bereits auf Seite 184 u ¨ber die (orthogonale) Matrix   cos(ϕ) − sin(ϕ) A = A(ϕ) = sin(ϕ) cos(ϕ)

2

2

als Matrix-Vektorprodukt dargestellt: L(x) = A(ϕ) · x f¨ ur alle x ∈ R2 . c) L : R3 → R3 , x → L(x) := −x. Dies ist eine Spiegelung im Ursprung. Man erh¨ alt sie auch durch Multiplikation mit der (orthogonalen) Matrix (−1) · E, wobei E die Einheitsmatrix ist. ⎛ ⎞

x1 x1 3 2 ⎝ ⎠ . d) P : R → R , x2 → x2 x3 Dies ist eine Projektion des dreidimensionalen Raums auf die Ebene. Sie kann ebenfalls mit einer Matrix beschrieben werden: P (x) = A · x f¨ ur alle x ∈ R3 mit   1 0 0 A= . 0 1 0 ' 1(

3 x1 2 2 e) T : R → R , → x12 x2 x2 ist eine Abbildung, die nicht linear ist. Zum Beispiel ist



5 4 2 4 23 T 2· = = 2T = . 1 4 1 2 f) L : Rn → Rn , x → L(x) := 0 heißt die Nullabbildung und ist ebenfalls linear. Man kann sie auch durch Multiplikation mit einer Matrix, deren Elemente alle 0 sind, beschreiben. g) Es sei P der (unendlich-dimensionale) Vektorraum der Polynome. Dann wertet die Abbildung T : P → R, p → p(1) das Polynom p an der Stelle 1 aus. Jedem Polynom p ∈ P wird so sein Funktionswert an der Stelle x = 1 zugeordnet. T ist linear. Lineare Abbildungen, die in die reellen (oder komplexen) Zahlen abbilden, nennt man lineare Funktionale. Man beachte, dass (R, +; R, ·) und (C, +; C, ·) Vektorr¨ aume sind. h) Die Menge der stetig differenzierbaren reellwertigen Funktionen auf einem Intervall [a, b] bildet bez¨ uglich der u ¨blichen Addition von Funktionen und Multiplikation mit reellen Zahlen einen (unendlich-dimensionalen) Vektorraum V , den wir mit V = C 1 [a, b] bezeichnen. Ebenso bilden die auf [a, b] d ist stetigen Funktionen einen Vektorraum W = C[a, b]. Die Ableitung dx eine lineare Abbildung von V → W , denn es gilt

578

Kapitel 20. Lineare Abbildungen

d d d (f (x) + g(x)) = f (x) + g(x), dx dx dx d d (λf (x)) = λ · f (x), λ ∈ R. dx dx Wie das Beispiel zeigt, lassen sich lineare Abbildungen auf endlich-dimensionalen Vektorr¨aumen durch Matrizen u ¨bersichtlich darstellen. Mit der Definition k¨onnen wir unmittelbar nachrechnen: Lemma 20.2 (Matrix-Vektor-Multiplikation ist eine lineare Abbildung) Sei A eine reelle (m × n)-Matrix. Die Abbildung L : Rn → Rm , x → L(x) := A · x ist linear. y = A · x ∈ Rm ist das Bild bzw. der Funktionswert von x unter der Abbildung L.

Beispiel 20.2 a) Wir betrachten die Matrix ⎡ ⎤ 3 0 2 A = ⎣ −1 −6 0 ⎦ . 0 5 2 Die Matrix A beschreibt eine lineare Abbildung y = A · x des R3 in sich. In Koordinatenform lautet die Abbildung y1 = 3 x1 + 2x3 y2 = −x1 − 6 x2

y3 = 5 x 2 + 2 x 3 .

Der Vektor (1, 2, 3) wird dabei in den Vektor (9, −13, 16) u uhrt. ¨berf¨ b) Die Matrix   1 2 3 A= −4 5 6

definiert eine lineare Abbildung des Raums R3 in die Ebene R2 . Speziell wird (1, −1, 1) auf (2, −3) abgebildet. c) Eine Gerade in R2 oder R3 hat eine Punkt-Richtungsdarstellung x + λ · v , λ ∈ R. Als Bild der Gerade unter einer linearen Abbildung L entsteht die Menge L(x + λ · v ) = L(x) + λ · L(v ), λ ∈ R

d. h., das Bild ist bei L(v ) = 0 wieder eine Gerade und im Fall L(v ) = 0 ein einzelner Punkt.

Wir haben in Lemma 20.2 gesehen, dass die Multiplikation einer Matrix A mit einem Vektor x eine lineare Abbildung ist. Es stellt sich Frage, ob umgekehrt alle linearen Abbildungen L : Rn → Rm durch eine Matrix A ∈

579

20.1. Lineare Abbildungen und Matrizen

Rm×n mit L(x) = A · x darstellbar sind. Das legen einige der vorangehenden Beispiele nahe. Der folgende Satz erkl¨art sich direkt mit Lemma 20.1: Wenn wir mit L ein Element x ∈ V nach W abbilden, dann l¨asst sich L(x) als Linearkombination von Bildern der Basisvektoren aus V darstellen. Satz 20.1 (Darstellung als Matrix) Zu jeder linearen Abbildung L : Rn → Rm , x → L(x) gibt es genau eine (m × n)-Matrix A mit L(x) = A · x,

x ∈ Rn .

asst sich ein Beweis Mit den Standard-Einheitsvektoren e1 , e2 , . . . , en in Rn l¨ beliebiger Vektor x = (x1 , . . . , xn ) als Linearkombination schreiben: x = x1 · e1 + x2 · e2 + · · · + xn · en . Das Bild y von x unter der linearen Abbildung L ist y = L(x) = x1 · L(e1 ) + x2 · L(e2 ) + · · · + xn · L(en ) ⎛ ⎞ x1 ⎜ x2 ⎟ ⎜ ⎟ = [L(e1 ), L(e2 ), . . . , L(en )] · ⎜ . ⎟ = A · x.   ⎝ .. ⎠ =:A∈Rm×n xn  Die k-te Spalte der Abbildungsmatrix A ist das Bild des k-ten Standard-Einheitsvektors von Rn . Beispiel 20.3 a) Wir betrachten den R2 und L : R2 → R2 mit der linearen Abbildung



x x+y L = . y 3x − 2y ¨ Uber die Bilder der Standard-Einheitsvektoren





1 1 0 1 L(e1 ) = L = , L(e2 ) = L = 0 3 1 −2 erhalten wir die Matrixdarstellung  1 L(x) = 3

 1 · x. −2

b) Ebenso erhalten wir f¨ ur die lineare Abbildung L : R2 → R3 , die u ¨ber

580

Kapitel 20. Lineare Abbildungen



L

x1 x2





⎞ 3x2 = ⎝ x1 − x2 ⎠ x1 + x2

definiert ist, mit ⎛ ⎞ ⎛ ⎞



0 3 1 0 L(e1 ) = L = ⎝ 1 ⎠ und L(e2 ) = L = ⎝ −1 ⎠ 0 1 1 1 die Matrixdarstellung ⎡

0 L(x) = ⎣ 1 1

⎤ 3 −1 ⎦ · x. 1

Beispielsweise wird x = (1, 2) auf L(x) = (6, −1, 3) abgebildet.

Allgemein k¨onnen wir jede lineare Abbildung von einem endlich-dimensionalen Vektorraum in einen anderen endlich-dimensionalen Vektorraum u ¨ber ¨ eine Matrix beschreiben, da man die R¨aume durch Ubergang zu Koordinaten bez¨ uglich einer Basis in R¨aume Rn und Rm u uhren kann (siehe Kapitel ¨berf¨ 18.1.2 und Seite 564). Bei unendlich-dimensionalen Vektorr¨ aumen wie dem der Polynome beliebigen Grades ist die Darstellung u ¨ber eine Matrix (mit endlich vielen Zeilen und Spalten) nicht m¨oglich.

20.2 Linearkombination und Verkettung linearer Abbildungen Wie wir eben gesehen haben, h¨angen lineare Abbildungen und Matrizen eng zusammen. Die Summe, das skalare Vielfache und die Verkettung linearer Abbildungen lassen sich bei endlich-dimensionalen Vektorr¨ aumen u ¨ber entsprechende Matrix-Operationen berechnen. F¨ ur die Summe zweier linearer Abbildungen und das skalare Vielfache gilt: Satz 20.2 (Summe und skalares Vielfaches von linearen Abbildungen) Es seien L : Rn → Rm und S : Rn → Rm lineare Abbildungen mit zugeh¨origen (m × n)-Matrizen A und B.

a) Die Summe L + S : Rn → Rm , x → L(x) + S(x) ist eine lineare Abbildung, und die zugeh¨orige (m × n)-Matrix lautet A + B. b) Mit λ ∈ R ist das skalare Vielfache λ · L : Rn → Rm , x → λ · L(x) eine lineare Abbildung mit zugeh¨origer (m × n)-Matrix λ · A.

581

20.2. Linearkombination und Verkettung linearer Abbildungen

Beweis Mit der Linearit¨at von L und S folgt (L + S)(x + y ) Linearit¨ at

=

Definition L+S

=

L(x + y ) + S(x + y )

L(x) + L(y ) + S(x) + S(y )

Definition L+S

=

(L + S)(x) + (L + S)(y ),

und mit λ ∈ R folgt (L + S)(λ · x)

Definition L+S

=

Definition L+S

=

L(λ · x) + S(λ · x)

Linearit¨ at

=

λ · (L(x) + S(x))

λ · (L + S)(x).

F¨ ur die Abbildungsmatrix von L + S gilt: (L + S)(x) = L(x) + S(x) = A · x + B · x = (A + B) · x. Entsprechend erh¨ alt man f¨ ur λ · L die Matrix λA.  uglich Die Menge der linearen Abbildungen von Rn nach Rm ist eine bez¨ Addition und skalarer Multiplikation abgeschlossene Teilmenge des Vektorraums aller Abbildungen von Rn nach Rm und damit nach dem UnterraumKriterium (Satz 19.1 auf Seite 545) selbst ein Vektorraum. Dem Matrixprodukt entspricht die Verkettung der zugeh¨ origen Abbildungen: Satz 20.3 (Verkettung linearer Abbildungen) Es sei L : Rl → Rn eine lineare Abbildung mit (n × l)-Matrix A und S : Rn → Rm ebenfalls linear mit (m × n)-Matrix B. Dann ist die Verkettung oder Verschachtelung orige S ◦ L : Rl → Rm , x → S(L(x)), eine lineare Abbildung, und die zugeh¨ (m × l)-Matrix lautet C = B · A. Beweis Mit der Linearit¨at von L und S folgt (S ◦ L)(x + y ) = S(L(x + y )) = S(L(x) + L(y )) = S(L(x)) + S(L(y )) = (S ◦ L)(x) + (S ◦ L)(y ) und mit λ ∈ R entsprechend (S ◦ L)(λ · x) = S(L(λ · x)) = S(λ · L(x)) = λ · S(L(x)) = λ · (S ◦ L)(x). F¨ ur die Abbildungsmatrix von S ◦ L gilt: (S ◦ L)(x) = S(A · x) = B · A · x. Beispiel 20.4 (Vektorgrafik und homogene Koordinaten) Wenn wir uns in einem Computerspiel oder in einer Simulation durch eine 3-D-Szene bewegen, dann m¨ ussen die Objekte je nach Position verschoben und je nach Blickwinkel gedreht werden. Dies geschieht durch die Multiplikation mit Matrizen. In Beispiel 20.1 haben wir bereits gesehen, wie Punkte in der Ebene

582

Kapitel 20. Lineare Abbildungen

Abb. 20.1 Die Reihenfolge bei der Matrixmultiplikation spielt eine Rolle. Links ist die Startszene (Campus S¨ ud der Hochschule Niederrhein) abgebildet, daneben ist das Resultat einer Drehung in der x-y-Ebene um 16 Grad mit anschließender Drehung in der x-z-Ebene um 44 Grad abgebildet. Zum rechten Bild f¨ uhrt die umgekehrte Reihenfolge der Drehungen

durch Multiplikation mit einer Matrix gedreht werden k¨ onnen. Eine Verschiebung l¨asst sich so aber nicht darstellen. Hier wird ein Trick angewendet: Eine weitere Koordinate, die stets 1 ist, wird eingef¨ uhrt. Punkte im R3 werden dann mittels sogenannter homogener Koordinaten in R4 beschrieben. Der Punkt (x, y, z) ∈ R3 wird also als (x, y, z, 1) ∈ R4 geschrieben, so dass er mit 4 × 4-Matrizen multipliziert werden kann. Eine Drehung um den Winkel ϕ in der x-y-Ebene l¨asst sich nun durch Multiplikation mit der Matrix ⎡ ⎤ cos(ϕ) − sin(ϕ) 0 0 ⎢ sin(ϕ) cos(ϕ) 0 0 ⎥ ⎥ A = A(ϕ) = ⎢ ⎣ 0 0 1 0⎦ 0 0 0 1 beschreiben. Entsprechend lassen sich Drehungen in anderen Ebenen formulieren. Eine Addition des Vektors d = (d1 , d2 , d3 ) (Verschiebung im R3 ) erhalten wir durch Multiplikation mit ⎡ ⎤ 0 0 0 d1 ⎢ ⎥  = ⎢ 0 0 0 d2 ⎥ . T = T(d) ⎣ 0 0 0 d3 ⎦ 0 0 0 1 Um diese Verschiebung auszudr¨ ucken, ben¨otigen wir die Eins im vierten Eintrag der Vektoren. Die Hintereinanderausf¨ uhrung mehrerer Drehungen und Verschiebungen entspricht der Multiplikation der zugeh¨origen Matrizen. Dass diese nicht kommutativ ist, sieht man in Abbildung 20.1, bei der einerseits zun¨ achst in der x-y-Ebene und dann in der x-z-Ebene gedreht und andererseits in umgekehrter Reihenfolge gedreht wird. Beispiel 20.5 Gegeben seien die linearen Abbildungen S : R2 → R2 , y → S(y ) = B · y und L : R2 → R2 , x → L(x) = A · x mit Abbildungsmatrizen

583

20.2. Linearkombination und Verkettung linearer Abbildungen



1 2 A= 3 4





und

 0 1 B= . 1 0

Wir berechnen die Abbildungsvorschrift der Verkettung S ◦ L : R2 → R2 :  

x1 + 2x2 1 2 x1 = A · x = x2 3x1 + 4x2 3 4  B · (A · x) =

0 1

1 0



x1 + 2x2 3x1 + 4x2



=

3x1 + 4x2 x1 + 2x2

= C · x,

wobei wir die Matrix C durch Einsetzen der Standard-Einheitsvektoren erhalten:



  3 4 3 4 B · (A · e1 ) = , B · (A · e2 ) = , also C = . 1 2 1 2 Die Matrix C erh¨alt man auch direkt durch C = B · A. Beispiel 20.6 Obwohl die Ableitung eine lineare Operation ist, besitzt sie keine Matrixdarstellung. Da die zugrunde liegenden R¨ aume der stetig differenzierbaren Funktionen bzw. der stetigen Funktionen nicht endlich-dimensional sind, ist dies auch nicht zu erwarten. Wir betrachten den Vektorraum der Polynome vom Grad h¨ ochstens n Pn = {pn (x) = an xn + an−1 xn−1 + · · · + a1 x + a0 : an , . . . , a0 ∈ R}. Es gilt dim(Pn ) = n + 1. Jedes Polynom p ∈ Pn kann durch den Vektor seiner Koeffizienten p = (an , an−1 , . . . , a1 , a0 ) ∈ Rn+1 dargestellt werden. Es ist ⎛ ⎞ nan . ⎟ → ⎜ − ⎜ . ⎟ p (x) = nan xn−1 +(n−1)an−1 xn−2 +· · ·+2a2 x+a1 ⇐⇒ p = ⎜ . ⎟ ∈ Rn . ⎝ 2a2 ⎠ a1 Die Ableitung ist eine lineare Abbildung von Pn → Pn−1 bzw. bez¨ uglich der Koeffizienten eine lineare Abbildung von Rn+1 → Rn und besitzt die Matrixdarstellung ⎞ ⎛ ⎞ ⎡ ⎛ ⎤ an nan n 0 0 ⎟ ⎜ ⎜ .. ⎟ ⎢ 0 n − 1 ⎥ ⎜ an−1 ⎟ 0 0 ⎜ . ⎟ ⎢ ⎥ ⎜ .. ⎟ ⎟=⎢ ⎜ ⎥·⎜ . ⎟ . ⎟ ⎝ 2a2 ⎠ ⎣ 0 0 .. 0⎦ ⎜ ⎝ a1 ⎠ a1 0 0 0 ... 1 0 a0 Die Matrixdarstellung ist m¨oglich, da Pn und Pn−1 endlich-dimensionale Vektorr¨aume sind.

584

Kapitel 20. Lineare Abbildungen

20.3 Kern und Bild einer linearen Abbildung, Dimensionssatz

Definition 20.2 (Kern einer linearen Abbildung) Es sei L : V → W eine lineare Abbildung. Die Menge ? @ Kern(L) := x ∈ V : L(x) = 0 heißt der Kern von L. Die Menge Bild(L) := {L(x) ∈ W : x ∈ V } ist das Bild von L. Das Bild einer linearen Abbildung L ist ihre Wertemenge, wie wir sie aus Definition 1.4 kennen. Neu ist lediglich der Begriff Kern. Der Kern ist die Menge aller der Vektoren, die durch L auf den Nullvektor abgebildet werden. Ist L u ¨ber eine Matrix A definiert, also L(x) = A · x, so ist der Kern genau die L¨osungsmenge des homogenen linearen Gleichungssystems A · x = 0. Allgemeiner gilt: Satz 20.4 (Kern und Bild sind Vektorr¨ aume) Der Kern der linearen Abbildung L : V → W ist ein Unterraum von V , und das Bild von L ist ein Unterraum von W . Beweis Seien x, y ∈ Kern(L), d. h. L(x) = L(y ) = 0. Dann folgt mit der Linearit¨at von L: 0 = L(x) + L(y ) = L(x + y ), d. h. x + y ∈ Kern(L). Mit λ ∈ R folgt: L(λx) = λ · L(x) = λ · 0 = 0, d. h. λx ∈ Kern(L). Damit ist aber der Kern bereits ein Unterraum (siehe Satz 19.1 auf Seite 545). Entsprechend zeigt man die Unterraumeigenschaft von Bild(L).  Beispiel 20.7 a) F¨ ur die lineare Abbildung L : R2 → R2 mit



 x x+y 1 L = , d. h. L(x) = A · x mit A = y 3x − 2y 3

 1 , −2

sind Kern(L) und Bild(L) zu bestimmen. F¨ ur den Kern suchen wir die osungen des Vektoren x ∈ R2 mit L(x) = 0, d. h., wir suchen nach L¨ homogenen linearen Gleichungssystems A · x = 0:       1 1 0 1 1 0 1 0 0 ⇐⇒ ⇐⇒ ⇐⇒ x = 0. 3 −2 0 0 1 0 0 1 0

20.3. Kern und Bild einer linearen Abbildung, Dimensionssatz

585

  Das System besitzt nur die

L¨osung

x = 0, und es ist Kern(L) = {0}. Da 1 1 und L(e2 ) = linear unabh¨ angig sind, ist Bild(L) = L(e1 ) = 3 −2 R2 . b) Die Abbildung L : R2 → R2 sei erkl¨art durch



  x x+y 1 1 L = , also L(x) = A · x = · x. y −x − y −1 −1 Den Kern von L erhalten wir als L¨osung des homogenen Gleichungssystems     1 1 0 1 1 0 ⇐⇒ ⇐⇒ x + y = 0, −1 −1 0 0 0 0 also als die Gerade y = −x. Diese geht durch den Ursprung, da es sich beim Kern(L) um einen Unterraum des R2 handelt. Die Koordinaten der Vektoren des Bildes unterscheiden sich offenbar nur durch ihr Vorzeichen, sie sind also von der Gestalt (z, −z) und befinden sich somit ebenfalls auf einer Gerade durch den Ursprung. Wir betrachten den Zusammenhang zwischen der Dimension des Kerns und des Bildes der linearen Abbildung L : V → W . Das Bild entspricht ja gerade dem Unterraum in W , den man durch Anwendung von L auf alle Vektoren aus V erh¨alt. Beim Abbilden mittels L geht aber einiges verloren“: ” Alle Vektoren, die im Kern von L liegen, werden auf den Nullvektor in W abgebildet. Sie leisten keinen Beitrag zur Dimension des Bildes. Satz 20.5 (Dimensionssatz) Es sei L : V → W eine lineare Abbildung und dim V sei endlich. Dann gilt dim V = dim Bild(L) + dim Kern(L). Die lineare Abbildung im zuletzt betrachteten Beispiel bildet den R2 in den R2 ab. Die Dimension von Kern(L) und Bild(L) ist jeweils eins, was die Aussage des Satzes best¨atigt (aber nat¨ urlich nicht beweist). a) Die Dimension des Kerns einer linearen Abbildung L wird auch als Defekt von L bezeichnet. b) Die Dimension des Bildes einer linearen Abbildung L wird als Rang von L bezeichnet. c) Der Dimensionssatz lautet damit: dim V = Defekt(L) + Rang(L). Nach Satz 20.1 besitzt jede lineare Abbildung L : Rn → Rm eine Abbildungsmatrix A ∈ Rm×n mit L(x) = A · x. Entsprechend werden die Begriffe

586

Kapitel 20. Lineare Abbildungen

Kern und Bild auch auf Matrizen bezogen, und in dieser Form werden wir sp¨ater den Dimensionssatz beweisen. Allerdings haben sich bei Matrizen andere Begriffe eingeb¨ urgert, die wir kurz vorstellen. Definition 20.3 (Nullraum, Spaltenraum und Zeilenraum einer Matrix) • Der Kern der linearen Abbildung L : Rn → Rm , x → A·x mit A ∈ Rm×n heißt Nullraum von A, kurz N (A). • Das Bild der linearen Abbildung L : Rn → Rm , x → A ·x mit A ∈ Rm×n ist die lineare H¨ ulle der Spaltenvektoren a1 , a2 , . . . , an von A. Dieser Raum ist der Spaltenraum von A, kurz S(A). ulle der m • Als Zeilenraum von A ∈ Rm×n bezeichnet man die lineare H¨ Zeilenvektoren z1 , z2 , . . . , zm von A, kurz Z(A).  Beispiel 20.8 a) Wir bestimmen den Nullraum der Matrix A =

 1 2 . 4 8

Das zugeh¨orige homogene lineare System A · x = 0 lautet     1 2 0 1 2 0 ⇐⇒ . 4 8 0 0 0 0 den einSetzen wir x2 = t, so folgt x1 = −2t, % $ t ∈ R, d. h. wir erhalten dimensionalen Nullraum N (A) = (−2t, t) ∈ R2 : t ∈ R . Der ebenfalls eindimensionale Spaltenraum wird  vom Vektor (1, 4) erzeugt. 1 2 b) Den Nullraum der Matrix A = erhalten wir durch L¨ osung von 3 2 A · x = 0.     1 2 0 1 2 0 ⇐⇒ , 3 2 0 2 0 0 d. h. x1 = 0 und x2 = 0. Also ist N (A) = {0}. Der Spaltenraum ist der R2 . c) Wir beschreiben den Spalten- und Zeilenraum der Matrix ⎡ ⎤ 1 0 A = ⎣1 1⎦. 0 1 Der zweidimensionale Spaltenraum von A wird von a1 = (1, 1, 0) und a2 = (0, 1, 1) aufgespannt und liegt in R3 . Er beschreibt damit eine Ebene durch den Ursprung. Der Zeilenraum von A ist ein Unterraum des R2 und wird von z1 = (1, 0), z2 = (1, 1), und z3 = (0, 1) erzeugt. Da z1 , z3 linear unabh¨angig sind, ist Z(A) = R2 .

20.3. Kern und Bild einer linearen Abbildung, Dimensionssatz

587

Mit den Begriffen Nullraum und Spaltenraum liest sich der Dimensionssatz (Satz 20.5) f¨ ur Matrizen so: Satz 20.6 (Dimensionssatz f¨ ur Matrizen) F¨ ur die Matrix A ∈ Rm×n m×n (oder C ) gilt n = dim S(A) + dim N (A).

Bevor wir den Satz in dieser Form beweisen, setzen wir uns intensiver mit dem Null-, dem Zeilen- und dem Spaltenraum auseinander. Lemma 20.3 (Elementare Zeilenumformungen) Elementare Zeilenumformungen (wie beim Gauß-Verfahren) ¨andern die L¨ osungsmenge eines linearen Systems A · x = b nicht. Folglich lassen sie den Nullraum N (A) und den Zeilenraum Z(A) unver¨andert. Anders formuliert: Entsteht die Matrix B aus der Matrix A durch elementare Zeilenumformungen, so gilt Z(A) = Z(B) und N (A) = N (B).

Man k¨onnte vermuten, dass eine analoge Aussage auch f¨ ur Spaltenr¨ aume gilt. 

 1 2 sind linear abh¨ angig. Der 4 8 Spaltenraum S(A) wird z. B. durch a1 = (1, 4) aufgespannt. Die Matrix   1 2 B= 0 0 Beispiel 20.9 Die Spalten der Matrix A =

entsteht aus A durch elementare Zeilenumformung, ihre Spalten sind ebenfalls linear abh¨angig, aber es ist S(A) = S(B). Elementare Zeilenumformungen k¨onnen also den Spaltenraum einer Matrix ¨ andern. Der Spaltenraum bleibt unter elementaren Spaltenumformungen, die wir zuvor bei der Berechnung von Determinanten eingesetzt haben, unver¨ andert. Bei diesen Umformungen ¨andert sich jedoch der Zeilenraum. Satz 20.7 (Spaltenvektoren von Matrizen) Die Matrix B = [b1 , . . . , bn ] gehe aus der Matrix A = [a1 , . . . , an ] durch elementare Zeilenumformungen hervor. Die Spaltenvektoren von A sind genau dann linear unabh¨angig, wenn die Spaltenvektoren von B linear unabh¨ angig sind. Die Vektoren a1 , . . . , an bilden genau dann eine Basis von S(A), wenn die Vektoren b1 , . . . , bn eine Basis von S(B) bilden.

588

Kapitel 20. Lineare Abbildungen

Beweis Die Matrizen A und B haben denselben Nullraum, d. h., die L¨ osungsmengen von A · x = 0 und B · x = 0 sind gleich. Wir k¨ onnen die Gleichungen in der Form x1 · a1 + · · · + xn · an = 0 bzw. x1 · b1 + · · · + xn · bn = 0 schreiben. Die erste Gleichung besitzt genau dann eine nicht-triviale L¨ osung, wenn die zweite Gleichung eine nicht-triviale L¨ osung hat. Damit sind die angig, wenn b1 , . . . , bn linear Vektoren a1 , . . . , an genau dann linear (un-) abh¨ (un-) abh¨angig sind.  Diese Aussage gilt auch, wenn man nur einige ausgew¨ ahlte Spaltenvektoren betrachtet. Zeilenumformungen ¨andern an ihrer linearen (Un-) Abh¨ angigkeit nichts. Mit Gauß’schen Zeilenumformungen kann man jede Matrix in eine Gestalt bringen, bei der in jeder Zeile der erste von null verschiedene Koeffizient auf eins normiert ist und in der Spalte, in der dieser Koeffizient steht, keine weiteren von null verschiedenen Eintr¨age stehen. In dieser Darstellung, die wir normierte Zeilenstufenform nennen, kann man beispielsweise die L¨ osungen eines linearen Gleichungssystems ablesen (vgl. Beispiel 20.11). Mittels Zeilenumformungen sind wir auch in der Lage, zu einer gegebenen Menge von Vektoren eine Basis zu konstruieren. Angenommen, die Menge hat m Vektoren aus Rn , dann schreiben wir diese in eine (m × n)-Matrix, transformieren diese Matrix mit Hilfe elementarer Zeilenumformungen in die normierte Zeilenstufenform und lesen die Basisvektoren des Zeilenraums ab. Beispiel 20.10 Wir bestimmen eine Basis der linearen H¨ ulle der drei Vekulle toren v1 = (1, 1), v2 = (2, 0) und v3 = (2, 1). Die Basis der linearen H¨ besteht aus h¨ochstens zwei Vektoren. v1 , v2 , v3 spannen den Zeilenraum der Matrix ⎡ ⎤ 1 1 ⎣2 0⎦ 2 1 auf. Die normierte Zeilenstufenform der Matrix ergibt sich u ¨ber ⎡ ⎤ ⎡ ⎤ ⎡ ⎤ 1 1 1 1 1 0 ⎣ 0 −2 ⎦ und ⎣ 0 1 ⎦ zu ⎣ 0 1 ⎦ . 0 −1 0 0 0 0 Da die Zeilenvektoren (1, 0) und (0,1) vom Nullvektor verschieden sind, bilden sie eine Basis des Zeilenraums und damit eine Basis der linearen H¨ ulle der Vektoren v1 , v2 , v3 . Mit der Zeilenstufenform kann man neben linear unabh¨ angigen Zeilenvektoren auch direkt linear unabh¨angige Spaltenvektoren ablesen und abz¨ ahlen:

20.3. Kern und Bild einer linearen Abbildung, Dimensionssatz

589

Satz 20.8 (Basis des Spaltenraums) Es sei B ∈ Rm×n eine Matrix in normierter Zeilenstufenform. Eine Basis des Zeilenraums von B erh¨ alt man aus denjenigen Zeilenvektoren von B, die ungleich dem Nullvektor sind. Zu dieser Basis des Zeilenraums bilden wir ein System von Spaltenvektoren: Wir nehmen die Spalte k als Vektor genau dann auf, wenn es in der Basis des Zeilenraums einen Vektor gibt, dessen erster von null verschiedener Eintrag an der Stelle k vorkommt. Diese Spaltenvektoren bilden (wie im folgenden Beispiel) eine Basis des Spaltenraums von B. Insbesondere sieht man nun direkt, dass Zeilen- und Spaltenraum einer Matrix in Zeilenstufenform die gleiche Dimension haben.

Beispiel 20.11 Wir bestimmen eine Basis des Zeilen- und Spaltenraums der (4 × 5)-Matrix ⎡ ⎤ 1 0 0 0 1 ⎢0 1 0 0 2⎥ ⎥ B=⎢ ⎣0 0 0 1 3⎦. 0 0 0 0 0 Die Matrix B hat normierte Zeilenstufenform. Die Vektoren z1 = (1, 0, 0, 0, 1), z2 = (0, 1, 0, 0, 2) und z3 = (0, 0, 0, 1, 3) bilden eine Basis von Z(B) in R5 . Eine Basis von S(B) in R4 bilden die zu den f¨ uhrenden Einsen der Zeilen ausgew¨ahlten Vektoren b1 = (1, 0, 0, 0) , b2 = (0, 1, 0, 0) und b3 = (0, 0, 1, 0) . Es sei A eine reelle (m × n)-Matrix, und B sei eine normierte Zeilenstufenmatrix von A, die u ¨ber Gauß-Umformungen aus A entstanden ist. Wegen Lemma 20.3 ist Z(A) = Z(B) und insbesondere dim Z(A) = dim Z(B). Soeben haben wir gesehen, dass dim Z(B) = dim S(B). Betrachten wir die Vektoren einer Basis des Spaltenraums von B, so sind nach Satz 20.7 (und der anschließenden Bemerkung, da in der Basis nicht alle Spaltenvektoren enthalten sein m¨ ussen) auch die zugeh¨origen Spalten in A linear unabh¨ angig (und keine weiteren), d. h. dim S(B) = dim S(A). Insgesamt haben wir gezeigt: Der Zeilenraum und der Spaltenraum einer Matrix haben die gleiche Dimension: dim Z(A) = dim S(A). Die Idee der Herleitung dieser Aussage ist ganz einfach: Man formt eine Matrix mit Zeilenumformungen so lange um, bis man sieht, dass es eine Basis des Zeilen- und eine Basis des Spaltenraums mit gleich vielen Elementen gibt. Die Umformungen ¨andern die Dimensionen der Zeilen- und Spaltenr¨ aume nicht.

590

Kapitel 20. Lineare Abbildungen

Definition 20.4 (Rang einer Matrix) Da Zeilenraum und Spaltenraum einer Matrix die gleiche Dimension haben, spricht man vom Rang der Matrix A: dim S(A) = dim Z(A) =: Rang(A).

Beispiel 20.12 a) Die Matrix ⎡

1 ⎢0 A=⎢ ⎣0 0

2 1 0 0

3 2 0 0

4 3 1 0

⎤ 5 4⎥ ⎥ 2⎦ 0

hat vier Zeilen und f¨ unf Spalten, d. h. A ∈ R4×5 . Es ist Rang(A) = dim S(A) = dim Z(A) = 3. Nach (dem noch zu beweisenden) Satz 20.6 besitzt der Nullraum von A die Dimension dim N (A) = 5 − dim S(A) = 5 − 3 = 2. Dies leuchtet auch ein: Die Anzahl der f¨ uhrenden Einsen ist 3, und die Zahl der freien Variablen bei Verwendung der Matrix in einem Gleichungssystem ist 2. b) Die Matrix A = [4 6 9] hat eine Zeile und drei Spalten, d. h. A ∈ R1×3 , Rang(A) = dim S(A) = dim Z(A) = 1. Der Zeilenraum ist eine Gerade durch den Ursprung in R3 . Der Nullraum ist die Ebene 4x1 + 6x2 + 9x3 = 0, hat also Dimension 2, dim N (A) = 3 − 1 = 2. Wir tragen noch den Beweis des Dimensionssatzes f¨ ur Matrizen nach, der zugleich den Dimensionssatz f¨ ur lineare Abbildungen zeigt: Beweis (zu Satz 20.6) Nach Lemma 20.3 a¨ndern elementare Zeilenumformungen weder den Nullraum noch den Zeilenraum. Mit ihnen gelangt man zu einer Matrix in normierter Zeilenstufenform. An dieser kann man ablesen, dass die Dimension des Zeilenraums plus die Dimension des Nullraums n ergibt. Damit hat man f¨ ur die urspr¨ ungliche Matrix n = dim Z(A) + dim N (A) = Rang(A) + dim N (A) = dim S(A) + dim N (A). 

591

20.4. Umkehrabbildung und inverse Matrix

20.4 Umkehrabbildung und inverse Matrix Wir haben mit der Definition 1.7 auf Seite 12 f¨ ur Abbildungen die Begriffe in” jektiv“ (jedes Element des Bildes wird nur einmal angenommen), surjektiv“ ” (jedes Element der Zielmenge wird angenommen) und bijektiv“ (injektiv ” und surjektiv) erkl¨art. Diese Begriffe sind insbesondere auf lineare Abbildungen anwendbar. Eine bijektive lineare Abbildung L : V → W hat demnach eine Umkehrabbildung, f¨ ur die gilt: L−1 (L(v )) = v ,

v ∈ V

und

L(L−1 (w))  = w, 

w  ∈ W.

Beispiel 20.13 a) L : R2 → R3 , (x1 , x2 ) → (x1 , x2 , 0) ist injektiv, aber nicht surjektiv. Jeder Bildvektor (x1 , x2 , 0) in R3 hat genau ein Urbild, aber es ist (0, 0, 1) ∈ Bild(L). b) L : R3 → R2 , (x1 , x2 , x3 ) → (x1 , x2 ) ist surjektiv, aber nicht injektiv. Jeder Vektor (x1 , x2 ) liegt in Bild(L), aber L((1, 1, 0)) = L((1, 1, 1)) = (1, 1). c) Die Drehung um den Winkel ϕ, definiert durch (6.4) auf Seite 184



cos(ϕ) · x1 − sin(ϕ) · x2 x1 → L : R2 → R2 , x2 sin(ϕ) · x1 + cos(ϕ) · x2 ist bijektiv und hat eine anschauliche Umkehrabbildung: Man dreht um den Winkel −ϕ:



cos(ϕ) · x1 + sin(ϕ) · x2 x1 → . L−1 : R2 → R2 , x2 − sin(ϕ) · x1 + cos(ϕ) · x2 Im Rest dieses Abschnitts beschr¨anken wir uns auf lineare Abbildungen L : Rn → Rn , die beschrieben werden durch (n × n)-Matrizen: L(x) = A · x f¨ ur alle x ∈ Rn . Die Bedingung, dass L injektiv ist, also L(x1 ) = A · x1 = L(x2 ) = A · x2 =⇒ x1 = x2 , f¨ uhrt auf die ¨aquivalente Bedingung A · x1 − A · x2 = A · (x1 − x2 ) = 0 =⇒ x1 − x2 = 0. Also ist L genau dann injektiv, wenn das Gleichungssystem Ax = 0 nur die eindeutige L¨osung x = 0 hat, und das ist damit ¨ aquivalent, dass A−1 existiert (siehe Satz 7.6 und (7.4), Seite 222 f). Es gilt also

592

Kapitel 20. Lineare Abbildungen

Satz 20.9 (Matrix einer injektiven Abbildung) Sei L : Rn → Rn mit L(x) = A · x eine lineare Abbildung mit der dazugeh¨ origen (n × n)Matrix A. Dann ist L injektiv genau dann, wenn die Matrix A regul¨ ar (d. h. invertierbar) ist. Ist eine lineare Abbildung L : Rn → Rn injektiv, so ist dim Kern(L) = 0 und damit dim Bild(L) = n − dim Kern(L) = n, und sie ist damit automatisch auch surjektiv. L ist also bijektiv und damit invertierbar. Wir betrachten nun eine bijektive lineare Abbildung L : Rn → Rn mit zugeh¨origer Matrix A. Wird der Vektor x auf b abgebildet, so gilt A · x = b. F¨ ur die Beschreibung der Umkehrabbildung L−1 stellt man sich die Aufgabe, eine Matrix B zu finden, die den Vektor b auf den Vektor x abbildet: B · b = B · (A · x) = x. Die Matrix B ist genau durch die inverse Matrix zu A gegeben: B = A−1 . Satz 20.10 (Invertierbare lineare Abbildung) Es sei A eine (n × n)Matrix und L die lineare Abbildung L : Rn → Rn , x → L(x) = A · x. Dann sind folgende Aussagen a¨quivalent (vgl. Seite 228): • A ist regul¨ar, d. h. invertierbar mit inverser Matrix A−1 . • det A = 0. • Das homogene lineare Gleichungssystem A · x = 0 hat nur die triviale L¨osung x = 0. • F¨ ur jedes b ∈ Rn hat das inhomogene lineare Gleichungssystem A · x = b genau eine L¨ osung. • Die lineare Abbildung L ist bijektiv. • Der Kern von L besteht nur aus dem Nullvektor, dim Kern(L) = 0. • Die Spalten von A sind linear unabh¨angig, dim S(A) = n. • Die Zeilen von A sind linear unabh¨angig, dim Z(A) = n. • Der Rang der Matrix A ist n. Trifft eine der Aussagen zu, so ist die zu A inverse Matrix A−1 die Matrix der Umkehrabbildung L−1 , d. h., es gilt L−1 (x) = A−1 · x,

x ∈ Rn .

Beispiel 20.14 Betrachten wir die lineare Abbildung L : R2 → R2 mit  



1 1 x+y x , also L(x) = A · x mit A = . = L 3x + 2y 3 2 y

593

20.4. Umkehrabbildung und inverse Matrix

Wegen Kern(L) = {0} ist L umkehrbar. die Inverse der Matrix A:    1 1 1 1 1 0 1 ⇐⇒ 3 2 0 1 0 −1 −3  −2 −1 −1 −1 also L (x) = A · x mit A = 3

Die Abbildungsmatrix von L−1 ist   1 0 0 ⇐⇒ 1 0 1  1 . −1

 −2 1 , 3 −1

Beispiel 20.15 (Rechnen mit Texturkoordinaten) Einem texturierten 3D-Geb¨audemodell, das aus ebenen Wand- und Dachpolygonen besteht, sollen Fenster, T¨ uren, Dachh¨auschen, Schornsteine und Wandvorspr¨ unge hinzugef¨ ugt werden. Dazu werden die entsprechenden Objekte in den Texturbildern markiert, siehe Abbildung 20.2. Die Positionen der Markierungen m¨ ussen dann aus dem 2D-Koordinatensystem des jeweiligen Texturbildes in das 3D-Koordinatensystem des Modells umgerechnet werden. Wir gehen hier davon aus, dass die Texturbilder bereits perspektivisch entzerrt sind. F¨ ur jedes Polygon des Modells mit positivem Fl¨ acheninhalt ist eine injektive Abbildung T : R2 → R3 gesucht, die einem Ortsvektor (u, v) eines Punkts des Texturbildes einen zugeh¨origen Ortsvektor (x, y, z) eines Punkts auf der Ebene durch das Polygon zuordnet. Zur Berechnung von T seien p1 , p2 und p3 Eckpunkte des Polygons, so dass p2 − p1 und p3 − p1 linear unabh¨ angig sind. Da der Fl¨acheninhalt ungleich null sein soll, gibt es diese Punkte. Beispielsweise k¨onnen zun¨achst p1 und p2 als Eckpunkte mit maximalen Abstand gew¨ahlt werden. Dann wird p3 so zur Vermeidung von Rundungsproblemen p2 − p1 )| als Fl¨ acheninhalt des von den drei ausgew¨ahlt, dass |( p3 − p1 ) × ( Ecken aufgespannten Parallelogramms maximal wird. Zu diesen drei Punkten seien t1 , t2 und t3 ∈ R2 die zugeh¨origen Texturkoordinaten, so dass auch angig sind. Damit gilt die beiden Vektoren t2 − t1 und t3 − t1 linear unabh¨ aufgrund der perspektivischen Entzerrung: p1 )+b(p3 − p1 ). (u, v) = t1 +a(t2 −t1 )+b(t3 −t1 ) ⇐⇒ (x, y, z) = p1 +a(p2 − Sei A die Matrix mit der ersten Spalte t2 − t1 und der zweiten Spalte t3 − t1 . Wegen der linearen Unabh¨angigkeit der Spalten ist A invertierbar. Wenn wir zu (u, v) die Faktoren a, b ∈ R als L¨osung des linearen Gleichungssystems A(a, b) = (u, v) − t1 ⇐⇒ (a, b) = A−1 ((u, v) − t1 ) berechnen, erhalten wir den gesuchten Punkt (x, y, z) = T ((u, v) ) = p1 + a(p2 − p1 ) + b(p3 − p1 ). Mit der Matrix B ∈ R3×2 , deren erste Spalte p2 − p1 und deren zweite p3 − p1 ist, ergibt sich dann T ((u, v) ) = p1 + B · A−1 · ((u, v) − t1 ) = B · A−1 · (u, v) + p1 − B · A−1 · t1 . Die Abbildung T ist affin-linear (vgl. Beispiel 4.1 auf Seite 90) und wird zu einer linearen Abbildung L mit der Matrix B·A−1 ∈ R3×2 , wenn p1 = 0 ∈ R3

594

Kapitel 20. Lineare Abbildungen

und t1 = 0 ∈ R2 gew¨ahlt werden. Die Dimension ihres Bildes ist dann zwei, die des Kerns ist null (Abbildung ist injektiv). Da L aber nicht surjektiv ist, ist L auch nicht invertierbar. Das sieht man sofort auch daran, dass die Matrix B · A−1 nicht quadratisch ist.

Abb. 20.2 Links ist ein mit Geodaten der Stadt Krefeld berechnetes texturiertes 3DModell gezeigt. Die Fenster, T¨ uren und Dachh¨ auschen sind lediglich als Bild auf die entsprechenden Wand- und Dachfl¨ achen gelegt. In der Mitte sind einige der Texturbilder mit Markierungen zu Objekten versehen, die dort dem Modell hinzugef¨ ugt werden sollen. Das 3D-druckbare Ergebnis ist im rechten Bild zu sehen

20.5 Koordinaten- und Basistransformationen ∗ uglich einer Basis des Rn eine eindeutige DarEin Vektor x ∈ Rn besitzt bez¨ stellung als Linearkombination aus den Basisvektoren. Bei vielen Anwendungen arbeitet man mit mehreren Basen und man muss die Darstellungen von x bez¨ uglich einer Basis in die Darstellung bez¨ uglich einer anderen Basis umrechnen. Wir betrachten im Vektorraum Rn die Basis A := {a1 , . . . , an } und die Basis B := {b1 , . . . , bn }. Der Vektor x ∈ Rn besitze die Darstellungen als Linearkombination x =

n 

xA,kak

k=1

und x =

n 

xB,kbk .

k=1

In A hat x die Koordinaten xA = (xA,1 , . . . , xA,n ), in B gilt entsprechend xB = (xB,1 , . . . , xB,n ). Wir definieren die Basismatrix A := [a1 , . . . , an ] als die Matrix mit den Basisvektoren ak als Spalten und entsprechend B := [b1 , . . . , bn ]. Dann folgt x = A · xA

und x = B · xB .

¨ Den Ubergang von A zu B nennt man Basistransformation. Die dabei stattfindende Koordinaten¨anderung heißt Koordinatentransformati-

20.5. Koordinaten- und Basistransformationen ∗

595

on. Bei einem Basiswechsel kann man den neuen Koordinatenvektor xB aus dem alten Koordinatenvektor xA berechnen. Satz 20.11 (Koordinatentransformation) Es sei A eine Basis mit Basismatrix A = [a1 , . . . , an ] und B eine Basis mit Basismatrix B = uglich A die Koordinaten xA [b1 , . . . , bn ]. Der Vektor x ∈ Rn besitze bez¨ und bez¨ uglich B die Koordinaten xB . Dann gilt xB = T · xA xA = T

−1

· xB

mit mit

T T

−1

:= B−1 · A,

:= A

−1

(20.1)

· B.

Beweis Die Matrizen A und B sind wegen der Basiseigenschaft der Spalten invertierbar. Aus x = A · xA = B · xB folgt (20.1) durch Multiplikation mit einer inversen Basismatrix.  Die Matrix T = T(A, B) heißt Transformationsmatrix. Die Koordinatentransformation ist eine umkehrbare lineare Abbildung. Die Spaltenvektoren ak von A haben in ihrer Basis A die Koordinatendarstellung (ak )A = ek . Daher sind nach (20.1) die Spalten von T ihre Koordinatenvektoren in der Basis B. Damit k¨onnen wir mittels T auch die Basen ineinander umrechnen. Mit der Transformationsmatrix T = B−1 · A ist A = B · T: Die k-te Spalte von A (d. h. der Basisvektor ak ) ist die Linearkombination der Spalten von B (d. h. der Basisvektoren bi ) mit den skalaren Faktoren ti,k : n  ak = ti,k · bi , T = [ti,k ]i,k=1,...,n . i=1

Umgekehrt folgt aus B = A·T−1 : Die k-te Spalte von B (d. h. der Basisvektor bk ) ist die Linearkombination der Spalten von A (d. h. der Basisvektoren ai ) (−1) (−1) mit den skalaren Faktoren ti,k (wobei ti,k nicht der Kehrwert 1/ti,k ist): bk =

n  i=1

(−1)

ti,k · ai ,

(−1)

T−1 = [ti,k ]i,k=1,...,n .

Sind A und B Orthonormalbasen, so gilt A−1 = A bzw. B−1 = B , und f¨ ur die Transformationsmatrizen T und T−1 folgt ebenfalls T = B · A

und

T−1 = A · B = (B · A) = T .

Wir betrachten nun die Auswirkung eines Basiswechsels auf die Matrix einer linearen Abbildung.

596

Kapitel 20. Lineare Abbildungen

Satz 20.12 (Transformation der Matrix einer linearen Abbildung) uglich der Basis A besitze Es sei L eine lineare Abbildung von Rn → Rn . Bez¨ L die Abbildungsmatrix K, d. h. es gelte (L(x))A = K · xA . Bez¨ uglich der Basis B besitze L die Abbildungsmatrix M: (L(x))B = M · xB . Dann gilt mit der Transformationsmatrix T(A, B): K = T−1 · M · T.

(20.2)

Beweis Nach (20.1) ist xB = T · xA und (L(x))B = T · (L(x))A . Damit erhalten wir (L(x))A = T−1 · (L(x))B = T−1 · M · xB = T−1 · M · T · xA . ur alle Vektoren xA ∈ Rn Andererseits ist (L(x))A = K · xA . Da beides f¨ und damit auch f¨ ur die Standardeinheitsvektoren ek gilt, stimmen die Matrizen u ¨berein. Denn Multiplikation mit ek liefert genau die k-te Spalte der jeweiligen Matrix: K = T−1 · M · T.  Matrizen, die die gleiche lineare Abbildung bez¨ uglich unterschiedlicher Basen beschreiben, bekommen einen Namen: ¨ Definition 20.5 (Ahnlichkeit von Matrizen) Zwei (n × n)-Matrizen K und M heißen genau dann zueinander ¨ ahnlich, wenn es eine invertierbare (n × n)-Matrix T gibt mit K = T−1 · M · T. Wir werden sp¨ater in den Kapiteln 22.2 und 22.3 noch sehen, dass eine komplexe (n × n)-Matrix immer ¨ahnlich zu einer Diagonalmatrix oder einer Tridiagonalmatrix mit Eintr¨agen auf nur zwei Diagonalen ist. Beispiel 20.16 a) Die Vektoren a1 = (1, 1) und a2 = (0, 2) bilden eiuglich ne Basis des R2 . Wir berechnen die Transformationsmatrizen bez¨ ur einen belieA = {a1 , a2 } und der Standardbasis B = {e1 , e2 } in R2 . F¨

20.5. Koordinaten- und Basistransformationen ∗

597

bigen Vektor c mit Koordinaten c1 und c2 bez¨ uglich der Standardbasis B berechnen wir die Koordinaten (x1 , x2 ) := cA :





1 0 c1 = x 1 c1 = x1 · + x2 · ⇐⇒ . c = c2 ∧ c2 = x1 + 2x2 1 2 In Matrixschreibweise:

c1 c2





 1 0 x1 = · . x2 1 2

Durch Linksmultiplikation mit der inversen Matrix folgt

  1 0 x1 c1 = · . x2 c2 − 12 12 b) Wir betrachten in R2 die Basen



1 1 , a2 = A = a1 = −1 2

und





1 0 B = e1 = , e2 = . 0 1

uglich A erkl¨ art durch Die lineare Abbildung L : R2 → R2 sei bez¨ L(a1 ) = 2a1 ,

L(a2 ) = a1 − a2 .

Die Abbildungsmatrix K von L bez¨ uglich A lautet: 

  2 1 2 , = K = [(L(a1 ))A , (L(a2 ))A ] = 0 −1 0

 1 . −1

Nun bestimmen wir die Abbildungsmatrix M von L bez¨ uglich B. Die Transformationsmatrix lautet   1 1 −1 . T=B ·A=A= 2 −1 Die dazu inverse Matrix erhalten wir u ¨ber      1 3 0 1 1 1 0 1 1 ⇐⇒ ⇐⇒ 2 −1 0 1 0 −3 −2 1 0

0 1

1 3 2 3

1 3 − 13

 .

Wegen K = T−1 · M · T ⇐⇒ M = T · K · T−1 ist die gesuchte Abbildungsmatrix  2 2     1 1 1 1 2 1 3 3 3 = M= · · 32 1 . 10 1 2 −1 0 −1 − 3 3 3 3

Kapitel 21

L¨osungstheorie linearer Gleichungssysteme Nach dem einf¨ uhrenden Kapitel 6.3.2 gleichen Namens haben wir nun das n¨ otige R¨ ustzeug, uns noch einmal intensiver mit linearen Gleichungssystemen zu besch¨aftigen und diese insbesondere im Kontext der Vektorr¨ aume zu betrachten. Anschließend wenden wir die Theorie f¨ ur die Berechnung von Str¨omen und Spannungen in einem Netzwerk an.

21.1 L¨osungsraum eines linearen Gleichungssystems Hat man ein Gleichungssystem mit einer (n × n)-Matrix A, dann ist es genau dann f¨ ur jede Inhomogenit¨at eindeutig l¨osbar, wenn die Spalten der Matrix at eindeutig linear aus den eine Basis des Cn bilden, so dass jede Inhomogenit¨ Spaltenvektoren kombiniert werden kann. Insbesondere ist nach Satz 19.6 dazu ¨aquivalent, dass det A = 0 ist und es eine inverse Matrix A−1 gibt. Diese Bedingung haben wir bereits aus anderer Sicht in Kapitel 7.2 kennengelernt. Nun besch¨aftigen wir uns aber auch mit dem Fall, dass A nicht invertierbar ist oder dass die Anzahl der Gleichungen nicht mit der Anzahl der Variablen u ¨bereinstimmt. Die L¨osungsmenge eines homogenen Gleichungssystems A · x = 0 mit ussen wir nach Satz A ∈ Cm×n ist ein Unterraum des Cn . Um das zu sehen, m¨ 19.1 lediglich zeigen, dass auch Summen und skalare Vielfache von L¨ osungen wieder L¨osungen sind.

© Der/die Autor(en), exklusiv lizenziert an Springer-Verlag GmbH, DE, ein Teil von Springer Nature 2023 S. Goebbels und S. Ritter, Mathematik verstehen und anwenden: Differenzial- und Integralrechnung, Lineare Algebra, https://doi.org/10.1007/978-3-662-68367-5_21

599

600

Kapitel 21. L¨ osungstheorie linearer Gleichungssysteme

Lemma 21.1 (Struktur homogener L¨ osungen) Addiert man zwei homogene L¨osungen x und y eines linearen Gleichungssystems (also A · x = 0 und A · y = 0), so erh¨alt man wieder eine homogene L¨ osung: A · (x + y ) = A · x + A · y = 0 + 0 = 0. Multipliziert man eine homogene L¨osung x mit einer Zahl c, so ist das Ergebnis wieder eine homogene L¨osung: A · (c · x) = c · (A · x) = c · 0 = 0. Der Unterraum der homogenen L¨osungen ist gleich dem Nullraum der Matrix A des Gleichungssystems und gleich dem Kern der zugeh¨ origen linearen Abbildung. Die Menge der L¨osungen eines inhomogenen Gleichungssystems A · x = b = 0 ist kein Vektorraum. Addiert man zwei L¨ osungen x und y , so ist bereits x + y keine inhomogene L¨osung mehr und damit nicht in der Menge enthalten: A · (x + y ) = A · x + A · y = b + b = b. Interessant ist dennoch die Betrachtung der Differenz zweier inhomogener L¨ osungen: Lemma 21.2 (Struktur inhomogener L¨ osungen) Man erh¨ alt alle L¨osungen eines inhomogenen linearen Gleichungssystems A · x = b, indem man eine inhomogene L¨osung berechnet und dann L¨ osungen des homogenen Gleichungssystems A · x = 0 hinzuaddiert. Beweis Die Differenz zweier inhomogener L¨osungen x und y ist eine homogene L¨osung: A · (x − y ) = A · x − A · y = b − b = 0.

Kennt man also alle homogenen L¨osungen (L¨ osungen von A · x = 0), so ben¨otigt man nur eine inhomogene L¨osung, um alle inhomogenen L¨ osungen zu erhalten.  Beispiel 21.1 Betrachten wir das homogene (unterbestimmte) reelle Gleichungssystem (vgl. (6.8) auf Seite 191) ⎤ ⎡ 1 0 0 1 3 0 ⎢0 1 0 1 2 0⎥ x1 = −x4 −3x5 ⎥ ⎢ ⎢ 0 0 1 2 1 0 ⎥ bzw. ∧ x2 = −x4 −2x5 ⎥ ⎢ ⎣0 0 0 0 0 0⎦ ∧ x3 = −2x4 −1x5 , 0 0 0 0 0 0 so ist die L¨osungsmenge

21.1. L¨ osungsraum eines linearen Gleichungssystems

⎧⎛ ⎞ x1 ⎪ ⎪ ⎪ ⎟ ⎪ ⎨⎜ ⎜ x2 ⎟ ⎜ x3 ⎟ ∈ R5 ⎜ ⎟ ⎪ ⎪ ⎝ x4 ⎠ ⎪ ⎪ ⎩ x5

601

⎫ ⎛ ⎞ ⎛ ⎞ ⎞ x1 −3 −1 ⎪ ⎪ ⎪ ⎜ x2 ⎟ ⎜ −2 ⎟ ⎜ −1 ⎟ ⎪ ⎬ ⎜ ⎟ ⎜ ⎜ ⎟ ⎟ ⎜ ⎟ ⎜ ⎟ ⎟ x −1 −2 , x ∈ R :⎜ , x = x + x 4⎜ 5⎜ ⎜ 3⎟ ⎟ 4 5 ⎟ ⎪ ⎪ ⎝ 0⎠ ⎝ x4 ⎠ ⎝ 1⎠ ⎪ ⎪ ⎭ x5 1 0 ⎛

ein Vektorraum mit Erzeugendensystem % $ (−1, −1, −2, 1, 0) , (−3, −2, −1, 0, 1) . Die beiden Vektoren des Erzeugendensystems ergeben sich als L¨ osungen, wenn man eine der beiden freien Variablen x4 oder x5 zu 1 und die jeweils andere zu 0 w¨ahlt. Dadurch erh¨alt man linear unabh¨ angige Vektoren, also eine Basis. Die Menge der homogenen L¨osungen ist also hier ein Vektorraum der Dimension zwei. Die Dimension stimmt mit der Anzahl der freien Variablen u ¨berein.

Lemma 21.3 (L¨ osbarkeit eines linearen Gleichungssystems) Das lineare Gleichungssystem A · x = b ist genau dann l¨ osbar, wenn b ∈ S(A),  d. h. wenn die Inhomogenit¨at b im Spaltenraum von A liegt.

Beispiel 21.2 a) Hat man ein Gleichungssystem, dessen Matrix die (n × n)Einheitsmatrix E ist, also Ex = b, so kann man f¨ ur jede Inhomogenit¨ at b  die eindeutige L¨osung x = b direkt ablesen. Das passt auch zum vorangehenden Lemma, denn der Spaltenraum der Matrix ist der Vektorraum Rn oder Cn . b) Das lineare System ⎡ ⎤ ⎛ ⎞ ⎛ ⎞ 7 2 1 2 x1 ⎣ 6 4 −3 ⎦ · ⎝ x2 ⎠ = ⎝ 4 ⎠ x3 5 9 6 −5 ist l¨osbar, denn die rechte Seite l¨asst sich als Linearkombination der Spalten von A schreiben: ⎞ ⎛ ⎞ ⎛ ⎛ ⎞ ⎛ ⎞ 7 2 1 2 1 · ⎝ 6 ⎠ + 1 · ⎝ 4 ⎠ + 2 · ⎝ −3 ⎠ = ⎝ 4 ⎠ . 5 −5 6 9 Eine L¨osung des Gleichungssystems kann man direkt an den Faktoren der Linearkombination ablesen: x1 = 1, x2 = 1 und x3 = 2. c) Der Spaltenraum S(A) der Matrix   1 2 3 A= 0 0 4

602

Kapitel 21. L¨ osungstheorie linearer Gleichungssysteme

ist der gesamte Vektorraum C2 , da wir bereits mit der ersten Spalte (1, 0) und der dritten Spalte (3, 4) jeden Vektor aus C2 linear kombinieren k¨onnen. Damit l¨asst sich ein zugeh¨origes Gleichungssystem f¨ ur jede Inhomogenit¨at l¨osen. Die L¨osung ist aber nicht eindeutig. Beispielsweise er  + λ(−2, 1, 0) , halten wir f¨ ur b = (1, 2) die L¨osungen x = − 12 , 0, 12 λ ∈ C. Beispiel 21.3 Wir betrachten ein weiteres homogenes Gleichungssystem mit einer (m × n)-Matrix f¨ ur m = 4 und n = 5: ⎛ ⎞ ⎡ ⎛ ⎞ ⎤ x 2 1 3 2 1 ⎜ 1⎟ 0 ⎢ 0 0 1 3 1 ⎥ ⎜ x2 ⎟ ⎜ 0 ⎟ ⎢ ⎥⎜ ⎟ ⎜ ⎟ ⎣ 0 0 0 1 3 ⎦ ⎜ x3 ⎟ = ⎝ 0 ⎠ ⇐⇒ ⎝ x4 ⎠ 0 0 0 0 0 0 x5 ⎛ ⎞ ⎛ ⎞ ⎛ ⎞ ⎛ ⎞ ⎛ ⎞ ⎛ ⎞ 1 3 2 1 0 2 ⎜0⎟ ⎜1⎟ ⎜3⎟ ⎜1⎟ ⎜0⎟ ⎜0⎟ ⎜ ⎟ x1 + ⎜ ⎟ x2 + ⎜ ⎟ x3 + ⎜ ⎟ x4 + ⎜ ⎟ x5 = ⎜ ⎟ . ⎝0⎠ ⎝0⎠ ⎝1⎠ ⎝3⎠ ⎝0⎠ ⎝0⎠ 0 0 0 0 0 0 Eine Variable kann frei gew¨ahlt werden, wenn der zugeh¨ orige Spaltenvektor der Matrix des Gleichungssystems sich als Linearkombination der anderen Spalten schreiben l¨asst. Im Beispiel kann die letzte Spalte, die zur Variable x5 geh¨ort, aus den anderen linear kombiniert werden: ⎛ ⎞ ⎛ ⎞ ⎛ ⎞ ⎛ ⎞ 1 2 3 1 ⎜1⎟ ⎜3⎟ ⎜1⎟ ⎜0⎟ ⎜ ⎟ = 3 ⎜ ⎟ − 8 ⎜ ⎟ + 19 ⎜ ⎟ . ⎝3⎠ ⎝1⎠ ⎝0⎠ ⎝0⎠ 0 0 0 0 Hat man sich f¨ ur eine Variable entschieden, betrachtet man die Matrix ohne die entsprechende Spalte und pr¨ uft, ob sich eine weitere Spalte als Linearkombination der restlichen schreiben l¨asst. Ist das so, so kann man auch die dazugeh¨orende Variable frei w¨ahlen. Im Beispiel kann nun z. B. die erste Spalte als zweimal die zweite geschrieben werden. Dies l¨ asst sich fortsetzen, bis nur noch eine Menge von k linear unabh¨ angigen Spalten u ¨brig bleibt. Dann ist keine der verbleibenden Spalten mehr eine Linearkombination von anderen (siehe (19.3)). Daf¨ ur l¨asst sich aber jede der weggelassenen Spalten als Linearkombination der verbleibenden schreiben. Im Beispiel sind keine weiteren Variablen frei w¨ahlbar, und die Spalten ⎛ ⎞ ⎛ ⎞ ⎛ ⎞ 1 3 2 ⎜0⎟ ⎜1⎟ ⎜3⎟ ⎜ ⎟,⎜ ⎟,⎜ ⎟ ⎝0⎠ ⎝0⎠ ⎝1⎠ 0 0 0

21.1. L¨ osungsraum eines linearen Gleichungssystems

603

sind linear unabh¨angig. Dies ist eine Basis eines Unterraums von C4 mit Dimension 3. Hat man ein Gleichungssystem mit n Variablen, so ist dieses u ¨ber eine (m× n)-Matrix A darstellbar. Die Dimension des Raums der homogenen L¨ osungen ist die Dimension des Nullraums dim N (A). Nach dem Dimensionssatz f¨ ur Matrizen (Satz 20.6 auf Seite 587) gilt n = dim S(A) + dim N (A), d. h., die Dimension des Spaltenraums, die gleich dem Rang der Matrix ist, plus die Dimension des Raums homogener L¨osungen ist gleich der Anzahl der Variablen: Satz 21.1 (Dimensionssatz f¨ ur Gleichungssysteme) Die Dimension des Vektorraums der L¨osungen eines homogenen linearen Gleichungssystems A · x = 0 mit n Variablen (also A ∈ Cm×n ) ist n − Rang(A). Ist man also an einer eindeutigen L¨osung interessiert, so muss ausschließlich 0 eine homogene L¨osung sein, d. h. n − Rang(A) = n − dim S(A) = 0. Der Spaltenraum kann aber nur dann die Dimension n haben, wenn die Matrix mindestens n Zeilen hat, d. h., wenn mindestens n Gleichungen existieren. F¨ ur n Unbekannte braucht man n Gleichungen. Beispiel 21.4 (Schnittgerade zweier Ebenen) Wir suchen die Schnittgerade zwischen zwei Ebenen im R3 , die u ¨ber die Gleichungen n1 · x = d1 und n2 · x = d2 gegeben sind. Dabei sind n1 = (n1,1 , n1,2 , n1,3 ) und ahlt man die Norn2 = (n2,1 , n2,2 , n2,3 ) Normalenvektoren der Ebenen. W¨ malenvektoren als Normaleneinheitsvektoren mit L¨ ange eins und d1 > 0, d2 > 0, so sind die beiden Gleichungen Hesse’sche Normalformen (siehe Seite 531) und d1 bzw. d2 ist jeweils der Abstand der Ebene zum Nullpunkt. Zeigen die Normalenvektoren in unterschiedliche Richtungen, d. h., sind sie linear unabh¨angig, dann bilden alle L¨osungen x = (x1 , x2 , x3 ) beider Gleichungen eine Gerade. Eine Anwendung ist beispielsweise die Rekonstruktion von D¨achern aus Laserscandaten (3-D-Punktwolke). Mit Methoden der Bildverarbeitung (z. B. Hough-Transformation) k¨ onnen hier Ebenen erkannt und die Hesse’schen Normalformen aufgestellt werden. F¨ ur die Berechnung der R¨ander der Dachfl¨achen werden dann die Schnittgeraden der Ebenen ben¨otigt, vgl. Abbildung 21.1. Zur Bestimmung der Schnittgerade m¨ ussen wir das unterbestimmte lineare Gleichungssystem ⎛ ⎞  x1

 d1 n1,1 n1,2 n1,3 ⎝ ⎠ x2 = n2,1 n2,2 n2,3 d2 x3 l¨osen. Obwohl die Matrix nicht quadratisch ist, k¨ onnen wir die L¨ osung mit der Cramer’schen Regel (siehe Seite 225) berechnen. Die beiden Zeilen der Matrix

604

Kapitel 21. L¨ osungstheorie linearer Gleichungssysteme

Abb. 21.1 Links sind die Punkte markiert, die Dachfl¨ achenebenen eines Geb¨ audes zugeordnet werden k¨ onnen. Daneben sind die Schnittgeraden und Geraden durch Stufen zwischen den Ebenen eingezeichnet. Daraus wird das rechts abgebildete 3-D-Modell berechnet

sind laut Voraussetzung linear unabh¨angig, so dass der Rang der Matrix 2 ist. Wenn wir eine Gerade als L¨osungsmenge erwarten, dann muss das laut Dimensionssatz auch genau so sein: Die L¨osungsmenge ist ein Vektorraum der Dimension eins, also muss der Rang 3 − 1 = 2 sein. Damit gibt es aber auch zwei linear unabh¨angige Spalten. Wir k¨onnen nun drei F¨ alle unterscheiden: Die Spalten 1 und 2 sind linear unabh¨angig, 2 und 3 sind unabh¨ angig oder 1 und 3 sind unabh¨angig. Wir betrachten jetzt nur den ersten Fall, die beiden anderen l¨ost man v¨ollig analog. Bei linear unabh¨ angigen Spalten 1 und 2 osbare w¨ahlen wir einmal die Variable x3 = 0 und l¨osen dann das eindeutig l¨ Gleichungssystem  

d1 n1,1 n1,2 x1 = , A := , A x2 d2 n2,1 n2,2 f¨ ur x1 und x2 mit der Cramer’schen Regel:   d1 n2,2 − d2 n1,2 d1 n1,2 / det A = x1 = det d2 n2,2 n1,1 n2,2 − n2,1 n1,2   n1,1 d2 − n2,1 d1 n1,1 d1 / det A = x2 = det . n2,1 d2 n1,1 n2,2 − n2,1 n1,2 Damit haben wir einen Punkt gefunden, der auf der gesuchten Gerade liegt. Mit einem weiteren Punkt ist die Gerade aber eindeutig bestimmt. Diesen erhalten wir, indem wir z. B. x3 = 1 w¨ahlen und das resultierende Gleichungssystem



d1 − n1,3 x1 = A x2 d2 − n2,3 l¨ osen. Die Cramer’sche Regel f¨ uhrt zu   (d1 − n1,3 )n2,2 − (d2 − n2,3 )n1,2 d − n1,3 n1,2 / det A = x1 = det 1 d2 − n2,3 n2,2 n1,1 n2,2 − n2,1 n1,2

21.2. Berechnung von linearen elektrischen Netzwerken ∗



n x2 = det 1,1 n2,1

605

 n1,1 (d2 − n2,3 ) − n2,1 (d1 − n1,3 ) d1 − n1,3 / det A = . d2 − n2,3 n1,1 n2,2 − n2,1 n1,2

21.2 Berechnung von linearen elektrischen Netzwerken ∗ Dies ist ein Vertiefungskapitel, das sich damit besch¨ aftigt, wie die Lineare Algebra (und Graphentheorie) bei der Berechnung von elektrischen Netzwerken mittels des Maschenstromverfahrens hilft. Insbesondere zeigt sich die Bedeutung der linearen Unabh¨angigkeit bei der Konstruktion ausreichend vieler Gleichungen.

21.2.1 Elektrische Netzwerke und Graphen Im Einf¨ uhrungsbeispiel (6.1) zu linearen Gleichungssystemen auf Seite 176 (siehe Abbildung 6.1) haben wir die Str¨ome in einem elektrischen Netzwerk berechnet und dabei die Kirchhoff’schen Regeln verwendet. Auf diese Art k¨onnen beliebige (lineare) Gleich- oder Wechselstromschaltungen analysiert werden. Um f¨ ur große Netzwerke einen strukturierten Ansatz zu finden, der auch mit einem Computerprogramm implementiert werden kann, wird die Schaltung zun¨achst in einen Graphen u uhrt, aus dem dann das Glei¨berf¨ chungssystem gewonnen wird. In (6.1) nennen wir die Spannungen U1 und U2 um in U4 und U5 , damit wir Spannungen und Str¨ome in den Netzwerkzweigen konsistent durchnummerieren k¨onnen. Das umbenannte Netzwerk ist in Abbildung 21.2 (links) dargestellt.

I1 U4

I2 R1

I3 R2

I1, U1

U5 Abb. 21.2 Beispielnetzwerk mit zugeh¨ origem Graphen

I2, U2

I3, U3

606

Kapitel 21. L¨ osungstheorie linearer Gleichungssysteme

Definition 21.1 (Graph) Ein (ungerichteter) Graph G = (V, E) ist eine Struktur, die aus einer Menge V von Knoten (vertices) und einer Menge E von Kanten (edges) besteht, wobei jeder Kante e ∈ E genau zwei Knoten v1 und v2 ∈ V zugeordnet sind. Man sagt, die Kante e verbindet die Knoten v1 und v2 . Da wir ungerichtete Graphen betrachten, verbindet e sowohl v1 mit v2 als auch v2 mit v1 . In der Elektrotechnik wird statt von Kanten von Zweigen gesprochen. Ein Teilgraph von V ist ein Graph, dessen Knotenmenge eine Teilmenge von V und dessen Kantenmenge eine Teilmenge von E ist, so dass nur Knoten des Teilgraphen verbunden werden. Wir werden im Folgenden nur endliche Graphen betrachten, d. h. Graphen ¨ mit einer endlichen Anzahl von Knoten und Zweigen. Ublicherweise werden Graphen mittels geometrischer Diagramme visualisiert. Dabei werden die Knoten durch Punkte und die Zweige durch Linien dargestellt. Eine kompakte Einf¨ uhrung in Graphen und Algorithmen f¨ ur Graphen ist z. B. [Goebbels und Rethmann(2014), Kap. 2]. Aus einem elektrischen Netzwerk erh¨alt man einen Graphen, indem man die Knotenpunkte der Leiter als Knoten des Graphen interpretiert und die Verbindung zweier Knotenpunkte durch Zweipolelemente wie Widerst¨ ande, Kondensatoren, Spulen und Spannungsquellen als Zweige auffasst (siehe Abbildung 21.2). Kurzschlusszweige sind nicht erlaubt. Ideale Stromquellen werden nicht u ¨ber Zweige dargestellt. Sie speisen einen Strom an einem Knoten ein, der an einem anderen wieder abfließt. Definition 21.2 (Graphenbegriffe) Sei G = (V, E) ein (ungerichteter) Graph, vgl. Abbildung 21.3. • Zwei Knoten u, v ∈ V heißen genau dann benachbart, wenn sie durch einen Zweig verbunden sind. • Eine Zweigefolge von u0 := u nach un := v ist eine endliche Folge von Zweigen e1 , e2 , . . . , en ∈ E, so dass e1 den Knoten u0 mit einem Knoten u1 ∈ V verbindet, e2 den Knoten u1 mit einem Knoten u2 ∈ V verbindet usw. Schließlich m¨oge en den Knoten un−1 mit un = v verbinden. Diese Zweigefolge schreiben wir kurz mittels der zugeh¨ origen ange n > benachbarten Knoten u0 , u1 , · · · , un . Die Zweigefolge hat die L¨ 0. u und v heißen Endknoten der Zweigefolge. • Ist u = v, so heißt die Zweigefolge geschlossen, sonst heißt sie offen. • Ein Weg ist eine offene Zweigefolge, bei der alle Knoten verschieden sind. • Ein Kreis ist eine geschlossene Zweigefolge, bei der alle Knoten mit Ausnahme des Anfangs- oder des Endknotens voneinander verschieden sind. • Ein Graph heißt genau dann zusammenh¨ angend, wenn zu je zwei Knoten u = v, u, v ∈ V ein Weg existiert, der u mit v verbindet.

21.2. Berechnung von linearen elektrischen Netzwerken ∗

607

• Ein (ungerichteter) zusammenh¨angender Graph ohne Kreise heißt ein Baum (vgl. Abbildung 21.4).



! Achtung

In der Literatur gibt es unterschiedliche Definitionen f¨ ur Wege (und Pfade). Hier ist genau auf die Definition des jeweiligen Autors zu achten.

Ein elektrisches Netzwerk wird zu einem zusammenh¨ angenden Graphen. Eine Masche in einem elektrischen Netzwerk entspricht genau einem Kreis im zugeh¨origen Graphen. Wir verwenden daher den Begriff Masche als Synonym f¨ ur Kreis.

Abb. 21.3 Darstellung eines Graphen, Graph-Begriffe

Lemma 21.4 (Erhalt des Zusammenhangs) Erzeugt man einen Graphen, indem man aus einer Masche eines zusammenh¨ angenden Graphen einen Zweig entfernt, so ist auch der so reduzierte Graph zusammenh¨ angend. Beweis Der entfernte Zweig m¨oge die Knoten u und v verbinden. Da er Teil einer Masche ist, gibt es einen Weg W zwischen u und v und damit auch zwischen v und u, der den Zweig nicht verwendet. Jeder Weg, der im Ausgangsgraphen zwei Knoten verbindet, wird zu einem Weg im reduzierten Graphen, indem man die Zweige zwischen u und v durch die Zweigefolge von W ersetzt und dann solche Zweige eliminiert, die dazu f¨ uhren, dass ein Knoten mehrfach durchlaufen wird. Da der Ausgangsgraph zusammenh¨ angend ist, gilt dies damit auch f¨ ur den reduzierten Graphen. 

608

Kapitel 21. L¨ osungstheorie linearer Gleichungssysteme

Abb. 21.4 Zwei Darstellungen eines Baums

Man kann die Knoten eines Baums so anordnen, dass der Graph tats¨ achlich wie ein Baum mit einer Wurzel (hier ist nicht die Rechenoperation gemeint!) und Bl¨ attern aussieht (siehe Abbildung 21.4). Jeder Knoten kann als Wurzel gew¨ahlt werden. Im Gegensatz zu einem realen Baum wird u ¨blicherweise die Wurzel ganz oben eingezeichnet. Eine Reihe tiefer werden die Knoten angeordnet, die direkt mit der Wurzel verbunden sind. In der n¨ achsten Reihe die Knoten, die mit Knoten der vorangehenden Reihe verbunden sind. Da es keine Maschen gibt, k¨onnen diese nur mit genau einem Knoten der Vorg¨ angerreihe verbunden sein. G¨abe es zwei Zweige zu Knoten der Vorg¨ angerreihe, g¨ abe es eine Masche u onnen ¨ber einen gemeinsamen Vorg¨anger dieser Knoten. Auch k¨ keine Knoten innerhalb einer Reihe u ¨ber eine Kante verbunden sein, da es sonst eine Masche g¨abe. Setzt man diese Konstruktion fort, erreicht man schließlich alle Knoten, da der Graph zusammenh¨ angend ist. Gibt es zu einem Knoten keinen Folgeknoten in der n¨ achsten Reihe, heißt atter. In einer er ein Blatt. In Abbildung 21.4 sind v1 , v4 , v5 , v7 und v8 Bl¨ anderen Darstellung des Baumes k¨onnte eines dieser Bl¨ atter aber auch die Wurzel sein, die in der Elektrotechnik als Masse bezeichnet wird. Die Masse kann damit frei gew¨ahlt werden. Das entscheidende Charakteristikum dieser Baumdarstellung ist, dass jeder Knoten mit Ausnahme der Wurzel genau einen Vorg¨ anger hat. Lemma 21.5 (Anzahl der Zweige eines Baums) Knoten hat genau n − 1 Zweige.

Ein Baum mit n

Beweis Wir z¨ahlen die Zweige in der zuvor beschriebenen Baumdarstellung: Jeder der n − 1 Knoten ohne die Wurzel hat genau einen Zweig zum Vorg¨angerknoten. Dies sind genau n − 1 Zweige.  Lemma 21.6 (Spannender Baum) Zu jedem zusammenh¨ angenden Graphen mit n Knoten gibt es einen Baum mit n Knoten, der Teilgraph ist.

21.2. Berechnung von linearen elektrischen Netzwerken ∗

609

Beweis Wie bei der obigen Darstellung des Baums beginnt man mit einem Knoten und konstruiert zeilenweise den Baum. Gibt es zu einem Knoten mehr als einen Zweig zur vorangehenden Reihe, so l¨asst man dabei einfach alle bis auf einen Zweig weg. Ebenso l¨asst man alle Zweige weg, die Knoten innerhalb einer Reihe miteinander verbinden.  Einen solchen Teilgraphen nennen wir maximalen Baum oder Ger¨ ust des Ausgangsgraphen. Die Zweige des Ausgangsgraphen, die nicht zu diesem Baum geh¨oren, heißen Verbindungszweige bez¨ uglich dieses Baums.

21.2.2 Maschengleichungen Zun¨achst wird der Begriff Lineare Unabh¨angigkeit“ in einem neuen Zusam” menhang außerhalb von Vektorr¨aumen definiert. Wir werden sp¨ ater sehen, dass sich daraus linear unabh¨angige Zeilenvektoren der Matrix eines Gleichungssystems ergeben. Definition 21.3 (Lineare Unabh¨ angigkeit von Maschen) Eine Menge von Maschen (Kreisen) eines endlichen Graphen heißt genau dann linear unabh¨ angig, wenn die Maschen in eine Reihenfolge gebracht werden k¨onnen, so dass jede Masche mindestens einen Zweig enth¨ alt, der in den vorangehenden Maschen nicht enthalten ist.

Abb. 21.5 Maximale B¨ aume und daraus gewonnene linear unabh¨ angige Maschen

610

Kapitel 21. L¨ osungstheorie linearer Gleichungssysteme

Satz 21.2 (Anzahl unabh¨ angiger Maschen) Ein zusammenh¨ angender Graph mit n Knoten und m Zweigen besitzt m − n + 1 linear unabh¨ angige Maschen, aber nicht mehr. Beweis a) Wir konstruieren zun¨achst m − n + 1 linear unabh¨ angige Maschen: Der Graph besitzt einen maximalen Baum mit n − 1 Zweigen und keine Maschen. Jede Masche des Ausgangsgraphen muss daher einen Zweig besitzen, der nicht zum Baum geh¨ort, also einen Verbindungszweig. Umgekehrt ist jeder der m − n + 1 Verbindungszweige Teil einer Masche, da die Knoten sowohl durch den Zweig als auch durch den Baum verbunden sind. Wir erhalten m − n + 1 linear unabh¨angige Maschen, indem wir jeweils genau einen Verbindungszweig und Zweige des Baums ausw¨ ahlen. Der Verbindungszweig ist nur in dieser Masche und sorgt damit f¨ ur die lineare Unabh¨angigkeit. Es gibt also m − n + 1 linear unabh¨ angige Maschen. b) Jetzt zeigen wir, dass es nicht mehr als m − n + 1 linear unabh¨ angige Maschen geben kann. Wir nehmen an, es g¨ abe k > m − n + 1 linear unabh¨angige Maschen. Die Letzte besitzt wegen der linearen Unabh¨ angigkeit einen Zweig, der in den anderen nicht vorkommt. Entfernt man diesen Zweig, bleibt der verbleibende Graph zusammenh¨ angend (Lemma 21.4). Der Restgraph hat außerdem k − 1 linear unabh¨ angige Maschen, da in diesen der entfernte Zweig nicht vorkommt. Jetzt entfernt man iteriert aus jeder Masche einen Zweig, bis man schließlich einen zusammenh¨ angenden Graphen mit m − k < m − (m − n + 1) = n − 1 Zweigen hat. Da er n Knoten hat, m¨ usste er aber n − 1 Zweige haben, um zusammenh¨ angend zu sein. Wegen des Widerspruches kann es nicht mehr als m − n + 1 linear unabh¨angige Maschen geben.  Im Teil a) des Beweises haben wir ein Verfahren kennengelernt, um eine maximale Menge linear unabh¨angiger Maschen zu finden: Man w¨ ahlt einen maximalen Baum aus. Jeder Verbindungszweig zu diesem Baum liefert dann zusammen mit Zweigen des Baums eine Masche, so dass die Menge aller dieser Maschen linear unabh¨angig ist. In Abbildung 21.5 sind die linear unabh¨ angigen Maschen zu allen maximalen B¨aumen des Beispiels angegeben. Wendet man nun auf ein elektrisches Netzwerk die Maschenregel auf linear unabh¨angige Maschen an, so erh¨alt man bei n Knoten und m Zweigen m − n + 1 homogene lineare Gleichungen f¨ ur m Spannungen zwischen den Knoten. In Matrixschreibweise ergeben die Gleichungen linear unabh¨ angige Zeilenvektoren, da man keine als Linearkombination der anderen schreiben kann: Da jeder Verbindungszweig in genau einer Masche vorkommt, kommt jede Spannung eines Verbindungszweigs als Variable nur in genau einer Gleichung vor. Die Matrix des zugeh¨origen Gleichungssystems hat den Rang m − n + 1. Dies ist der Grund, warum man die Maschen als linear unabh¨ angig bezeichnet.

21.2. Berechnung von linearen elektrischen Netzwerken ∗

611

Im Beispiel erh¨alt man so f¨ ur die beiden linear unabh¨ angigen Maschen des mittleren maximalen Baums in Abbildung 21.5 die beiden Gleichungen =0 U1 +U2 −U2 +U3 = 0.

21.2.3 Knotengleichungen Wendet man die Knotenregel auf alle Knoten an, erh¨ alt man n Gleichungen f¨ ur die m Str¨ome in den Zweigen. An jedem Knoten ist die Summe der Str¨ ome gleich null. Dabei werden zum Knoten fließende Str¨ ome positiv und wegfließende negativ gewertet. Hinzu kommen die ebenfalls orientierten Str¨ ome von Stromquellen. Da jeder Zweig genau zwei Knoten verbindet, wird jeder Zweigstrom in einem Knoten positiv und in einem zweiten negativ addiert. Ebenso tritt jeder Strom einer Stromquelle bei einem Knoten positiv und bei einem negativ auf. Summiert man alle Gleichungen, so ergibt sich 0 = 0. Damit f¨ uhren h¨ochstens n − 1 dieser Gleichungen zu linear unabh¨ angigen Zeilen in der Matrix des Gleichungssystems. W¨ahlt man n − 1 beliebige Knoten aus, so sind die Zeilenvektoren der zugeh¨origen Gleichungen linear unabh¨angig. Das sieht man, indem man einen (existierenden) maximalen Baum ausw¨ahlt und als Wurzel den nicht ausgew¨ahlten Knoten nimmt. Zeichnet man den Baum in Baumstruktur mit dieser Wurzel an der Spitze und durchl¨auft alle Knoten von Ebene zu Ebene von den Bl¨attern zur Wurzel, dann kommt mit jeder Knotengleichung ein Strom zu dem Zweig neu zum Gleichungssystem dazu, der den Knoten mit dem u ¨bergeordneten Knoten der n¨achsten Ebene verbindet. Alle Knoten mit Ausnahme der Wurzel liefern also sukzessive mindestens eine neue Stromvariable f¨ ur das Gleichungssystem. Das Gleichungssystem ist bei fehlenden Stromquellen homogen, anderenfalls treten die Str¨ome der Stromquellen als Inhomogenit¨ at auf. Im Beispiel findet man eine Gleichung f¨ ur die Str¨ome: I1 −I2 −I3 = 0. Insgesamt hat man so ein Gleichungssystem mit m − n + 1 + n − 1 = m linear unabh¨angigen Zeilen (Gleichungen) f¨ ur die gesuchten m Str¨ ome und m Spannungen. Im Beispiel: U1 +U2 −U2 +U3

=0 =0 I1 −I2 −I3 = 0.

612

Kapitel 21. L¨ osungstheorie linearer Gleichungssysteme

21.2.4 Gleichungen zwischen Spannungen und Str¨omen Bislang wurden die Zweipole, die die Zweige bilden, nicht ber¨ ucksichtigt. F¨ ur jeden Zweig ist die Stromst¨arke an allen Bauteilen gleich, die Spannungen addieren sich. Zudem k¨onnen an Widerst¨anden, Kondensatoren und Spulen Spannungen und Str¨ome mittels der Widerst¨ande bzw. Impedanzen ineinander umgerechnet werden. Als Inhomogenit¨aten kommen die Spannungen der Spannungsquellen hinzu. F¨ ur jeden der k Zweige mit mindestens einem komplexen Widerstand (k ≤ m) kommt so eine (evtl. inhomogene) Gleichung zwischen der Spannung der beiden Knoten des Zweigs und dem Strom des Zweigs hinzu. Die zuvor aus den Kirchhoff’schen Regeln gewonnenen m Gleichungen enthalten entweder nur Str¨ome oder nur Spannungen. Jede der hinzukommenden Gleichungen betrifft einen anderen Strom bzw. eine andere Spannung. Damit erhalten wir ein Gleichungssystem mit Rang m + k. Gibt es keinen Zweig, der nur aus einer idealen Spannungsquelle besteht, so sind alle Str¨ ome und Spannungen eindeutig u ber das Gleichungssystem mit Rang 2m bestimmt, das nun z. B. ¨ mittels des Gauß’schen Eliminationsverfahrens gel¨ ost werden kann. Besitzen Zweige lediglich eine ideale Spannungsquelle und keine weiteren Zweipole, so ist die Situation nicht so eindeutig. Hier ist die Spannung zwischen den Knoten des Zweigs direkt durch eine Inhomogenit¨ at bestimmt. Parallelschaltung von zwei Spannungsquellen kann daher dazu f¨ uhren, dass sich der Rang durch diese Gleichung nicht erh¨ oht, so dass das (inhomogene) Gleichungssystem ggf. sogar unl¨osbar wird. Bei realen Spannungsquellen tritt dieses Problem nicht auf. Sie k¨onnen als ideale Spannungsquelle mit in Reihe geschaltetem Widerstand aufgefasst werden, so dass das Gleichungssystem den vollen Rang 2m hat (s. o.). Im Beispiel kommen so die drei Gleichungen U1 U2 U3 hinzu und f¨ uhren zum ⎡ 1 1 ⎢ 0 −1 ⎢ ⎢0 0 ⎢ ⎢1 0 ⎢ ⎣0 1 0 0

−R1 I2

= −U4 =0 −R2 I3 = −U5

vollst¨andigen Gleichungssystem ⎤⎛ ⎞ ⎛ ⎞ 0 0 0 0 U1 0 ⎟ ⎜ ⎟ ⎜ 1 0 0 0⎥ ⎥ ⎜ U2 ⎟ ⎜ 0 ⎟ ⎜ U3 ⎟ ⎜ 0 ⎟ 0 1 −1 −1 ⎥ ⎥⎜ ⎟ = ⎜ ⎟, ⎟ ⎜ ⎟ ⎜ 0 0 0 0⎥ ⎥ ⎜ I1 ⎟ ⎜ −U4 ⎟ 0 ⎦ ⎝ I2 ⎠ ⎝ 0 ⎠ 0 0 −R1 I3 1 0 0 −R2 −U5

dessen eindeutige L¨osung man nach einigen Gauß-Umformungen ablesen kann:

613

Literaturverzeichnis



1 ⎢0 ⎢ ⎢0 ⎢ ⎢0 ⎢ ⎣0 0

0 1 0 0 0 0

0 0 1 0 0 0

0 0 0 1 0 0

0 0 0 0 1 0

⎤⎛ ⎞ ⎛ −U4 0 U1 ⎜ U4 ⎟ ⎥ ⎜ 0 ⎥ ⎜ U2 ⎟ ⎜ ⎜ U4 ⎟ ⎥ ⎜ 0 ⎥ ⎜ U3 ⎟ ⎜ = ⎜ U4 + U4 +U5 ⎟ ⎥ ⎜ 0 ⎥ ⎜ I 1 ⎟ ⎜ R1 R2 ⎜ U4 0 ⎦ ⎝ I2 ⎠ ⎝ R1 U4 +U5 I3 1

⎞ ⎟ ⎟ ⎟ ⎟ ⎟. ⎟ ⎟ ⎠

R2

Insgesamt haben wir eine Variante des Maschenstromverfahrens zur Berechnung aller Str¨ome und Spannungen beschrieben: ¨ Uberf¨ uhre das elektrische Netzwerk in einen Graphen. W¨ahle einen maximalen Baum aus. Stelle die Maschengleichungen u ¨ber die Verbindungszweige des Graphen auf. d) Stelle die Knotengleichungen auf. e) Komplettiere das Gleichungssystem u o¨ber die Beziehungen zwischen Str¨ men und Spannungen. f) L¨ose das Gleichungssystem z. B. mittels des Gauß-Verfahrens oder der Cramer’schen Regel.

a) b) c)

Als weiteren L¨osungsalgorithmus, der auf den Kirchhoff’schen Gesetzen beruht, verwendet man das Knotenpotenzialverfahren. Dieses wird haupts¨ achlich bei der numerischen Berechnung von Netzwerken mit Simulatoren eingesetzt, da man keinen maximalen Baum finden muss und h¨ aufig an Potenzialen und nicht an Str¨omen interessiert ist. Beim Knotenpotenzialverfahren berechnet man die Potenziale ϕ1 , . . . , ϕn der n Netzwerkknoten. Genauer kann man ein Potenzial beliebig festlegen (Erde) und muss nur n − 1 Potenziale als Spannungsdifferenz zur Erde berechnen. Dies ist genau die Anzahl der linear unabh¨angigen Zeilen der Knotengleichungen. Die Spannung zwischen zwei Knoten vi und vk eines Zweigs ist die Potenzialdifferenz ϕi − ϕk der Knoten. Der Strom des Zweigs in Richtung von vi nach vk ist das Produkt dieser Differenz ϕi − ϕk mit dem komplexen Widerstand des Zweigs. Eingesetzt f¨ ur die Str¨ome in den n − 1 Knotengleichungen (Spannungsquellen werden zuvor durch Stromquellen ersetzt) erh¨alt man n − 1 Gleichungen f¨ ur die gesuchten n − 1 Potenziale.

Literaturverzeichnis Goebbels und Rethmann(2014). Goebbels, St. und Rethmann, J.: Mathematik f¨ ur Informatiker. Springer Vieweg, Heidelberg, 2014.

Kapitel 22

Eigenwerte und Eigenvektoren In der Elektrotechnik, bei mechanischen Schwingungen, bei chemischen Reaktionen sowie bei Aufgabenstellungen aus den Wirtschaftswissenschaften sucht man oft nach Gleichgewichtszust¨anden. Durch die Modellierung des Problems ist dabei eine Matrix A ∈ Rn×n gegeben, und man sucht einen Vektor d ∈ Rn , den die Matrix bis auf ein skalares Vielfaches nicht ¨ andert, d. h., die beiden aufig A Vektoren d und A · d sollen in Rn parallel liegen. Dazu muss zwangsl¨ eine quadratische Matrix mit gleicher Zeilen- und Spaltenanzahl n sein. In diesem Kapitel sehen wir, wie man diese Vektoren findet. Außerdem untersuchen wir, wie man mittels Eigenvektoren und ihrer Verallgemeinerung zu Hauptvektoren Matrizen in eine Normalform u uhren kann, an der wichti¨berf¨ ge Eigenschaften der Matrix sichtbar werden und die z. B. f¨ ur das L¨ osen von Differenzialgleichungssystemen (Band 2) eingesetzt werden kann.

22.1 Eigenwerte und Eigenvektoren ¨ Beispiel 22.1 Uber Verkehrsz¨ahlungen wurde ermittelt, dass 80% der Pendler, die mit ¨offentlichen Verkehrsmitteln ihre Arbeitsst¨ atte erreichen, auch im n¨ achsten Jahr wieder mit ¨offentlichen Verkehrsmitteln fahren werden. 20% wollen allerdings auf das Auto umsteigen. Von den Autofahren wollen auch im n¨achsten Jahr 60% dem Auto treu bleiben, dagegen wollen 40% auf ¨ offentliche Verkehrsmittel wechseln. Ist an die Zahl der Autofahrer im Jahr n, und ur die Nutzerzahl des ¨offentlichen Nahverkehrs, dann kann dieses steht on f¨ Verhalten als Matrixmultiplikation

© Der/die Autor(en), exklusiv lizenziert an Springer-Verlag GmbH, DE, ein Teil von Springer Nature 2023 S. Goebbels und S. Ritter, Mathematik verstehen und anwenden: Differenzial- und Integralrechnung, Lineare Algebra, https://doi.org/10.1007/978-3-662-68367-5_22

615

616

Kapitel 22. Eigenwerte und Eigenvektoren



an+1 on+1





 0,6 0,2 an = 0,4 0,8 on  

(22.1)

A:=

dargestellt werden. Verkehrsplaner suchen nach einem station¨ aren Zustand, f¨ ur den sich die Nutzerzahlen nicht ver¨ andern, also nach einem Fixpunkt-Vektor, der durch Multiplikation mit der Matrix A auf sich selbst abgebildet wird. Als lineares Gleichungssystem geschrieben, wird nach nichttrivialen L¨osungen von A · d = d gesucht. A · d und d sollen hier also nicht nur parallel, sondern sogar gleich sein.

Definition 22.1 (Eigenvektor, Eigenwert) Ein Vektor d = 0 aus Rn (oder Cn ) heißt Eigenvektor zum Eigenwert s ∈ C der (n × n)-Matrix A genau dann, wenn  A · d = s d. Im Eingangsbeispiel sind also Eigenvektoren zu einem Eigenwert 1 gesucht. Eigenwerte und ihre Eigenvektoren k¨onnen viel u ¨ber die Struktur einer Matrix preisgeben (das sehen wir uns sp¨ater z. B. mit Satz 22.5 an). Die Matrix bildet einen Eigenvektor auf ein skalares Vielfaches seiner selbst ab. Dies ist eine Art von Resonanz. Bei linearen Differenzialgleichungssystemen, die z. B. bei der Berechnung von Schaltungen auftreten, erh¨ alt man L¨ osungen u ¨ber Eigenwerte und Eigenvektoren (siehe Kapitel 7 in Band 2). Auch werden Eigenvektoren in der Statistik eingesetzt (siehe Abbildung 17.6 in Band 2 auf Seite 485). Beispiel 22.2 a) Wir zeigen, dass d = (1, 1) ein Eigenvektor der Matrix   1 1 A= −3 5 zum Eigenwert s = 2 ist. Es gilt   1 1 1 2   A·d= · = = 2d. −3 5 1 2 b) In Abbildung 22.1 sehen wir Eigenvektoren, die bei der Bildmanipulation auftreten. Eine Spiegelung an der y-Achse entspricht einer Multiplikation der Vektoren (bzw. Punkte) mit der Matrix A (oben rechts), B bewirkt eine zus¨atzliche Spiegelung an der x-Achse (unten links):     −1 0 −1 0 A= , B= . 0 1 0 −1

22.1. Eigenwerte und Eigenvektoren

617

Schließlich ist unten rechts auch noch eine Drehung (Multiplikation mit (6.4), Seite 184) dargestellt.

Abb. 22.1 Eigenvektoren zu Spiegelungen und Drehungen: Spiegelt man das Ausgangsbild (links oben) an der y-Achse, so ist der Vektor (0, 1) ein Eigenvektor zum Eigenwert s = 1, der Vektor (1, 0) ein Eigenvektor zum Eigenwert s = −1. Der Vektor (1, 1) ist kein Eigenvektor (rechts oben). Spiegelt man an der x- und an der y-Achse (unten links), so sind alle Vektoren Eigenvektoren zum Eigenwert s = −1. Dreht man wie rechts unten abgebildet um den Mittelpunkt um einen Winkel, der kein Vielfaches von π ist, so ist kein Vektor ein Eigenvektor zu einem reellen Eigenwert

c) Hier ist (j, 1) ein Eigenvektor zum Eigenwert 1 − j:  

1 1 j j = (1 − j) . −1 1 1 1 Wir haben in der Definition den Nullvektor als Eigenvektor ausgeschlossen, da so einige der folgenden Aussagen leichter zu formulieren sind. Denn jede Zahl w¨are Eigenwert zum Nullvektor, w¨ahrend sonst zu einem Eigenvektor der Eigenwert eindeutig bestimmt ist. Dagegen ist der Eigenwert 0 erlaubt. Ein Eigenvektor d zum Eigenwert 1 erf¨ ullt A · d = d und ist damit analog zu Definition 13.2 ein Fixpunkt der Abbildung f : Cn → Cn , d → A · d (vgl. Abbildung 22.1). Wie beim Pendlerproblem sucht man bei Fixpunktverfahren einen station¨aren Zustand als L¨osung, so z. B. bei der Nullstellenberechnung mit dem Newton-Verfahren auf Seite 349 oder bei der iterativen L¨ osung linearer Gleichungssysteme (siehe Seite 204). Wie berechnet man nun die Eigenwerte einer Matrix A ∈ Rn×n oder Cn×n ? Die Gleichung A · d = s d ist a¨quivalent zu A · d = s E · d bzw.

618

Kapitel 22. Eigenwerte und Eigenvektoren

(A − s E) · d = 0. Damit dieses homogene lineare Gleichungssystem nicht-triviale L¨ osungen besitzt, muss die Determinante der Koeffizientenmatrix A − s E verschwinden, det(A − s E) = 0.

Definition 22.2 (Charakteristisches Polynom) Sei A eine (n × n)Matrix und E die (n×n)-Einheitsmatrix. p(s) = det(A−sE) ist ein Polynom der Variable s ∈ C. Es wird charakteristisches Polynom der Matrix A genannt. Der Grad von p ist gleich der Anzahl n der Zeilen und der Spalten von A. Die Gleichung p(s) = det(A − s E) = 0

(22.2)

heißt charakteristische Gleichung. Die Nullstellen des charakteristischen Polynoms p(s) sind die Eigenwerte von A: Lemma 22.1 (Berechnung von Eigenwerten) Die Eigenwerte s sind genau die L¨osungen der charakteristischen Gleichung    a1,1 − s a1,2  . . . a1,n    a2,1  a − s . . . a 2,2 2,n   det(A − sE) =  .  = 0. . . .. ..  ..     an,1 an,2 . . . an,n − s  Beweis Die Zahl s ist ein Eigenwert genau dann, wenn (A − sE) · d = 0 f¨ ur ein d = 0. Das ist a¨quivalent mit der Existenz einer nicht-trivialen Linearkombination der Spalten von A − sE, die 0 ergibt, was wiederum a ¨quivalent zur linearen Abh¨angigkeit der Spalten ist. Wegen Folgerung 7.1 ist diese a ¨quivalent mit det(A − sE) = 0.    1 1 Beispiel 22.3 Die Matrix A = besitzt ein charakteristische Poly−1 1 nom mit den Nullstellen s1,2 = 1 ± j:   1 − s 1   det(A − sE) =  = (1 − s)2 + 1 = s2 − 2s + 2. −1 1 − s 

22.1. Eigenwerte und Eigenvektoren

619

Da die charakteristische Gleichung p(s) = 0 nach dem Fundamentalsatz der Algebra (siehe Satz 5.1 auf Seite 168) h¨ochstens n verschiedene (komplexe) Nullstellen hat, besitzt eine (n × n)-Matrix h¨ ochstens n Eigenwerte. Eigenvektoren d zum Eigenwert s erh¨alt man wegen (A − sE) · d = 0 als nicht-triviale L¨osungen d = 0 dieses Gleichungssystems. Der Nullvektor ist zwar auch immer L¨osung eines homogenen linearen Gleichungssystems, ist aber wie bereits betont als Eigenvektor laut Definition explizit ausgeschlossen. Die Menge der Eigenvektoren zum Eigenwert s zuz¨ uglich 0 ist als L¨osungsmenge von (A − sE) · d = 0 ein Unterraum von Rn bzw. Cn . Man nennt diesen Unterraum den Eigenraum zu s. Um Eigenwertaufgaben zu l¨osen, kann daher wie folgt vorgegangen werden: a) Bestimme alle Nullstellen des charakteristischen Polynoms det(A − sE). Diese sind die Eigenwerte der Matrix A. b) F¨ ur jeden Eigenwert s m¨ ussen alle nicht-trivialen L¨ osungen des homogenen linearen Gleichungssystems (A − sE) · d = 0 gefunden werden. Diese sind dann die Eigenvektoren von A zum Eigenwert s. Beispiel 22.4 a) Wir bestimmen die Eigenwerte und Eigenvektoren von   1 3 A= . 4 2 Die charakteristische Gleichung lautet   1 − s 3   det(A − s E) =  = (1 − s)(2 − s) − 12 = s2 − 3s − 10 = 0. 4 2 − s Dies ist eine quadratische Gleichung f¨ ur s mit den L¨ osungen s1 = −2 und s2 = 5. Wir berechnen nun die Eigenvektoren zu den Eigenwerten. • F¨ ur s1 = −2 erh¨alt man das homogene lineare Gleichungssystem       1+2 3   3 3 0 1 1 0 d = 0 ⇐⇒ ⇐⇒ , 4 2+2 4 4 0 0 0 0 d. h., ein Eigenvektor zum Eigenwert s1 = −2 ist d1 = (1, −1) . Auch ein beliebiges skalares Vielfaches von d1 ist Eigenvektor von A zu s1 . Man w¨ahlt d1 so einfach wie m¨oglich. • F¨ ur s2 = 5 erh¨alt man das homogene lineare Gleichungssystem       1−5 3   −4 3 0 −4 3 0 d = 0 ⇐⇒ ⇐⇒ , 4 2−5 4 −3 0 0 0 0 d. h., ein Eigenvektor zum Eigenwert s2 = 5 ist d2 = (3, 4) . b) F¨ ur das Pendlerproblem (22.1), mit dem wir das Kapitel begonnen haben, wird nach Eigenwerten der Matrix

620

Kapitel 22. Eigenwerte und Eigenvektoren



0,6 A= 0,4

0,2 0,8



gesucht. Die Eigenwerte sind L¨osungen der charakteristischen Gleichung    0,6 − s 0,2  p(s) = det(A − s E) =  = s2 − 1,4 s + 0,4 0,4 0,8 − s  = (s − 1)(s − 0,4) = 0,

und als Nullstellen von p(s) erh¨alt man s = 1 und s = 0,4. Wir haben damit Gl¨ uck (vgl. Aufgabe 24.22), dass s = 1 tats¨ achlich Eigenwert der Matrix ist und wir so einen Eigenvektor bestimmen k¨ onnen. Dazu l¨ osen wir das homogene lineare System       −0,4 0,2 0 2 −1 0 −0,4 0,2 0 ⇐⇒ ⇐⇒ . 0,4 −0,2 0 0 0 0 0 0 0 Wir erhalten einen Eigenvektor d1 = (1, 2) . Alle Eigenvektoren zum Eigenwert 1 haben die Gestalt r · d1 , r ∈ R \ {0}. Der Eigenwert s = 0,4 wird f¨ ur die L¨osung des Pendlerproblems nicht ben¨ otigt. Dennoch bestimmen ¨ wir zur Ubung auch einen Eigenvektor zu s = 0,4:     1 1 0 0,2 0,2 0 ⇐⇒ . 0,4 0,4 0 0 0 0 Wir lesen einen Eigenvektor d2 = (1, −1) ab. Alle Eigenvektoren zum Eigenwert 0,4 sind r · d2 , r ∈ R \ {0}. Der Eigenvektor d1 = (1, 2) bedeutet f¨ ur das Pendlerproblem, dass im station¨aren Zustand 13 der Pendler mit dem Auto und 23 mit ¨ offentlichen Verkehrsmitteln fahren. c) Wir bestimmen die Eigenwerte der (orthogonalen) Matrix, die einen Punkt im R2 um den Winkel ϕ um den Ursprung dreht:   cos(ϕ) − s − sin(ϕ) = [cos(ϕ) − s]2 + sin2 (ϕ) det sin(ϕ) cos(ϕ) − s = cos2 (ϕ) + sin2 (ϕ) −2s cos(ϕ) + s2 .   =1



Also sind die Eigenwerte s = cos(ϕ) ± cos2 (ϕ) − 1. Einen reellen Eigenwert gibt es nur f¨ ur ϕ = kπ, k ∈ Z, also wenn man um das Vielfache von 180 Grad dreht. Dieser ist dann entweder 1 (falls ϕ = 2kπ) oder −1 (falls ϕ = (2k + 1)π). Jeder Vektor d ∈ R2 mit d = 0 ist dann Eigenvektor, da   0 0 A − sE = . 0 0

621

22.1. Eigenwerte und Eigenvektoren

Die Eigenvektoren zum selben Eigenwert bilden zusammen mit dem Nullvektor den Eigenraum genannten Unterraum. Eigenr¨ aume zu verschiedenen Eigenwerten s = t k¨onnen nur den Nullvektor gemeinsam haben: Aus A · d = s d = t d folgt (s − t) d = A · d − A · d = 0 und somit d = 0. Dar¨ uber hinaus gilt sogar: Lemma 22.2 (Lineare Unabh¨ angigkeit von Eigenvektoren) Eigenvektoren zu unterschiedlichen Eigenwerten sind linear unabh¨ angig. Dieses Lemma gilt nur deshalb, weil wir in der Definition den Nullvektor als Eigenvektor ausgeschlossen haben: Beweis Seien d1 , . . . , dn Eigenvektoren zu unterschiedlichen Eigenwerten angig. Wir f¨ uhren diese s1 , . . . , sn . Annahme: Diese Vektoren sind linear abh¨ Annahme zum Widerspruch. Lineare Abh¨angigkeit bedeutet, dass es Skalare r1 , . . . , rn gibt, die nicht alle gleich 0 sind, so dass r1 d1 + r2 d2 + · · · + rn dn = 0; o. B. d. A. sei r1 = 0, dann ist r2 rn d1 = − d2 − · · · − dn . r1 r1 Da d1 als Eigenvektor ungleich 0 ist, sind nicht alle A auf die Gleichung an und erhalten

(22.3) rk r1

= 0. Wir wenden nun

r2 rn A · d1 = − A · d2 − · · · − A · dn r1 r1 r2 s2  rn sn   =⇒ s1 d1 = − d2 − · · · − dn . r1 r1 • Falls s1 = 0 ist, folgt weiter: r2 s2  rn sn  d1 = − d2 − · · · − dn . r1 s1 r1 s1 Subtrahieren wir nun von (22.3) diese Gleichung, so erhalten wir



0 = r2 s2 − 1 d2 + · · · + rn sn − 1 dn . r1 s1 r1 s1   Da die Eigenwerte unterschiedlich sind, sind die Faktoren ssk1 − 1 ungleich 0. • Ist s1 = 0, so m¨ ussen alle anderen Eigenwerte s2 , . . . , sn von 0 verschieden sein (unterschiedliche Eigenwerte), und es ist

622

Kapitel 22. Eigenwerte und Eigenvektoren

0 = − r2 s2 d2 − · · · − rn sn dn . r1 r1 Oben haben wir bereits gesehen, dass nicht alle rrk1 = 0 sind. Damit sind aber in beiden F¨allen die Vektoren d2 , . . . , dn linear abh¨ angig. Der Beweis l¨ asst sich nun sukzessive fortsetzen, bis man schließlich die lineare Abh¨ angigkeit von dn erh¨alt, die aber im Widerspruch zu dn = 0 als Eigenvektor steht. Also ist die Annahme falsch, und die Vektoren sind linear unabh¨ angig.  Satz 22.1 (Eigenschaften von Eigenwerten) Es sei A ∈ Rn×n oder Cn×n . Dann gilt: a) A ist genau dann invertierbar, falls s = 0 kein Eigenwert von A ist.  so ist f¨ b) Ist s Eigenwert von A mit einem zugeh¨origen Eigenvektor d, ur k ∈ N die Zahl sk Eigenwert von Ak = A  · A· · · A k-mal

 mit dem gleichen Eigenvektor d.  c) Sei A invertierbar und d ein Eigenvektor zum Eigenwert s der Matrix A. Dann ist d ebenfalls ein Eigenvektor zum Eigenwert 1s der Inversen A−1 . Beweis a) s = 0 ist Eigenwert genau dann, wenn det A = det(A−0·E) = 0, also genau dann, wenn A nicht invertierbar ist.  = A · (sd)  = s(A · d)  = s2 d usw. b) A2 · d = A · (A · d) c) Nach a) ist s = 0 und 1 Ad = sd ⇐⇒ A−1 Ad = sA−1 d ⇐⇒ d = sA−1 d ⇐⇒ A−1 d = d. s  Setzt man in das charakteristische Polynom p(s) einer (n × n)-Matrix A die Matrix ein, d. h. berechnet man p(A), so entsteht die Nullmatrix. Das ist der Satz von Cayley-Hamilton. Da A eine quadratische Matrix ist, lassen sich die Potenzen von A durch entsprechend h¨ aufige Multiplikation mit A wie in Satz 22.1 erzeugen, und p(A) ist tats¨achlich eine wohldefinierte (n×n)Matrix. Wir beweisen den Satz f¨ ur den Spezialfall, dass es eine Basis des Cn aus Eigenvektoren von A gibt. Jeder Vektor l¨asst sich dann als Linearkombination von Eigenvektoren schreiben. Die Nullmatrix ist genau die Matrix, die bei Multiplikation mit jedem Vektor den Nullvektor liefert. Wir m¨ ussen also nur zeigen, dass die Multiplikation von p(A) mit jedem Eigenvektor den Nullvektor ergibt. Sei dazu d ein Eigenvektor zum Eigenwert s. Wegen Ak d = Ak−1 sd = sAk−1 d = s2 Ak−2 d = · · · = sk d

623

22.1. Eigenwerte und Eigenvektoren

 Da s ein Eigenwert ist, gilt aber p(s) = 0 und damit ist p(A)d = p(s)d.   p(A)d = 0. Eigenwerte werden uns sp¨ater beim L¨osen von Differenzialgleichungssystemen helfen. Daf¨ ur ben¨otigen wir auch die folgende Aussage: Lemma 22.3 (Konjugiert komplexe Eigenwerte) Ist s ∈ C ein komplexer Eigenwert der reellen Matrix A ∈ Rn×n , so ist auch s ein Eigenwert. Ist d = d1 + j d2 , d1 , d2 ∈ Rn ein Eigenvektor zu s, so ist d := d1 − j d2 ein Eigenvektor zu s. Beweis Komplexe Nullstellen des reellen charakteristischen Polynoms der reellen Matrix A treten immer in Paaren von konjugiert-komplexen Zahlen auf (siehe Seite 170). Damit ist mit s auch s ein Eigenwert. Das sehen wir aber auch, indem wir alle Zahlen der Gleichung (A − sE)d = 0 konjugieren: (A − sE)d = 0 ⇐⇒ (A − sE)d = 0, da die Eintr¨age der Matrix A reell sind, also A = A. Insbesondere ist damit  d ein Eigenvektor zum Eigenwert s. Besonders angenehm verhalten sich Eigenwerte symmetrischer, reeller Matrizen: Satz 22.2 (Eigenwerte symmetrischer Matrizen) Es sei A ∈ Rn×n eine symmetrische Matrix, d. h. A = A . a) Alle Eigenwerte von A sind reell. b) Alle reellen Eigenvektoren zu verschiedenen (reellen) Eigenwerten sind orthogonal bez¨ uglich des (reellen) Standardskalarprodukts. Beweis a) Ist s ∈ C ein Eigenwert mit Eigenvektor d = (d1 , d2 , . . . , dn ) ∈ Cn , so ist nach Lemma 22.3 d ein Eigenvektor zum Eigenwert s. Damit betrachten wir das Produkt des Zeilenvektors sd mit dem Spaltenvektor d :  · d = d A · d sd · d = (Ad)

A =A

=

d Ad = d · sd = sd · d .

n Wegen d = 0 ist d · d = k=1 |dk |2 = 0, so dass s = s gilt. Das bedeutet aber s ∈ R. b) Die Orthogonalit¨at von Eigenvektoren d1 und d2 ∈ Rn zu verschiedenen Eigenwerten s1 = s2 folgt direkt aus A = A :

624

Kapitel 22. Eigenwerte und Eigenvektoren

s1 (d1 · d2 ) = s1 (d1 · d2 ) = (s1 d1 ) · d2 = (Ad1 ) · d2 = d1 A d2 = d Ad2 = d s2 d2 = s2 (d1 · d2 ). 1

1

Damit ist (s1 − s2 )(d1 · d2 ) = 0, und da die Eigenwerte verschieden sind, stehen die Vektoren senkrecht zueinander.  Hintergrund: Eigenwerte selbstadjungierter Matrizen Analog zu symmetrischen reellen Matrizen verhalten sich selbstadjungierte komplexe Matrizen. Der zuvor gezeigte Satz ist ein Spezialfall des folgenden: Satz 22.3 (Eigenwerte selbstadjungierter Matrizen) Es sei A ∈ Cn×n eine selbstadjungierte (hermitesche) Matrix, d. h. A = A∗ := A . a) Alle Eigenwerte von A sind reell. b) Alle Eigenvektoren zu verschiedenen (reellen) Eigenwerten sind orthogonal bez¨ uglich des komplexen Standardskalarprodukts (19.8) auf Seite 559, d. h., ihr komplexes Standardskalarprodukt ist null. Beweis Der Beweis verl¨auft wie zuvor: a) Sei s ∈ C ein Eigenwert mit Eigenvektor d ∈ Cn , d = 0. Insbesondere ist  2 ungleich null. Wegen das komplexe Standardskalarprodukt d · d = |d|  · d = (A · d)  · d = sd · d = sd · d sd · d = d · Ad = (A∗ · d) muss daher s = s und damit s reell sein. b) Sind d1 und d2 ∈ Cn Eigenvektoren zu verschiedenen (laut a) reellen) uglich des komplexen StanEigenwerten s1 = s2 ∈ R, so sind diese bez¨ dardskalarprodukts orthogonal (s1 = s1 ):     s1 d1 · d2 = s1 d1 · d2 = (A · d1 ) · d2 = d1 A∗ · d2 = d1 A · d2     = d1 · s2 d2 = s2 d1 · d2 , denn wegen s1 = s2 muss d1 · d2 gleich null sein.



Linear unabh¨angige Eigenvektoren zum gleichen Eigenwert sind in der Regel nicht orthogonal zueinander. Sie k¨onnen mit dem Verfahren von GramSchmidt (siehe Seite 566) orthogonalisiert werden. Beispiel 22.5 a) In Beispiel 22.3 haben wir die konjugiert komplexen Eigenwerte der Matrix

625

22.1. Eigenwerte und Eigenvektoren



1 1 A= −1 1



s1 = 1 + j und s2 = 1 − j bereits berechnet. Als Eigenvektoren sind nun zu den Eigenwerten nicht-triviale L¨osungen des homogenen Systems (A − sE) · d = 0, d. h.   1−s 1 d1 0 · = , −1 1 − s 0 d2 zu bestimmen. F¨ ur s = 1 + j ergibt sich    −j 1 0 1 j ⇐⇒ −1 −j 0 −1 −j

  1 0 ⇐⇒ 0 0

j 0

 0 . 0

W¨ahlen wir d2 = 1, so ergibt sich d1 = −j, und wir erhalten einen Eigenvektor d1 = (−j, 1) . Einen Eigenvektor d2 zu s = 1 − j k¨ onnen wir ohne  Rechnung durch komplexe Konjugation bestimmen: d2 = d1 = (j, 1) ist Eigenvektor zu s = 1 − j. b) Wir bestimmen die Eigenwerte und Eigenvektoren der Matrix ⎡ ⎤ 1 1 0 A = ⎣ 0 2 0⎦. (22.4) −1 1 2 Die charakteristische Gleichung von A lautet det(A − sE) = (2 − s)(1 − s)(2 − s) = (1 − s)(2 − s)2 = 0. Also hat die Matrix A die Eigenwerte 1 und 2 und besitzt somit zwei Eigenr¨aume. Eigenwerte zu s = 2 erhalten wir u ¨ber ⎡ ⎤ ⎛ ⎞ ⎛ ⎞ 0 −1 1 0 d1 ⎣ 0 0 0 ⎦ · ⎝ d2 ⎠ = ⎝ 0 ⎠ . d3 0 −1 1 0 Die allgemeine L¨osung ist durch d1 = t, d2 = t, d3 = r mit reellen Parametern t, r gegeben. Damit sind die Eigenvektoren zum Eigenwert s = 2 die von Null verschiedenen Vektoren der Form ⎛ ⎞ ⎛ ⎞ ⎛ ⎞ t 1 0 d = ⎝ t ⎠ = t ⎝ 1 ⎠ + r ⎝ 0 ⎠ . r 0 1 angig sind, Da die Vektoren d1 = (1, 1, 0) und d2 = (0, 0, 1) linear unabh¨ bilden sie eine Basis des Eigenraums von A zu s = 2. F¨ ur s = 1 ergibt sich aus

626

Kapitel 22. Eigenwerte und Eigenvektoren



0 ⎣ 0 −1

1 1 1

⎤ ⎛ ⎞ ⎛ ⎞ 0 d1 0 0 ⎦ · ⎝ d2 ⎠ = ⎝ 0 ⎠ d3 1 0

die allgemeine L¨osung d1 = t, d2 = 0, d3 = t mit t ∈ R. Die Eigenvektoren zum Eigenwert s = 1 sind die von Null verschiedenen Vektoren der Form d = (t, 0, t) = t(1, 0, 1) , so dass d3 = (1, 0, 1) den Eigenraum zu s = 1 aufspannt. Falls man ohne exakte Berechnung nur absch¨ atzen m¨ ochte, welche Zahlen als Eigenwerte in Frage kommen, dann hilft die folgende Aussage. Satz 22.4 (Kreissatz von Gerschgorin) Es sei A ∈ Rn×n oder Cn×n . Dann liegt jeder Eigenwert s von A in mindestens einem der Kreise Ki ⊂ C, 1 ≤ i ≤ n: ⎧ ⎫ n ⎨ ⎬  |ai,k | . Ki = z ∈ C : |z − ai,i | ≤ ri := ⎩ ⎭ k=1,k =i

Beweis Sei d ein Eigenvektor zum Eigenwert s ∈ C mit dominierendem ur alle k ∈ {1, . . . , n}. Als Eigenvektor ist d nicht Eintrag di , d. h. |di | ≥ |dk | f¨ der Nullvektor, so dass |di | > 0 ist. Mit diesem Index i rechnen wir jetzt: A · d = sd =⇒ ai,1 d1 + ai,2 d2 + · · · + ai,n dn = s · di n  =⇒ (s − ai,i ) · di = ai,k dk k=1,k =i

=⇒ |s − ai,i | ≤

  n   dk  |ai,k | ·   ≤ |ai,k | = ri . di k=1,k = i k=1,k =i  n 

≤1

Damit ist s ∈ Ki .



22.2 Diagonalisierung von Matrizen ∗ Wir interessieren uns zum Abschluss der Linearen Algebra daf¨ ur, ob zu einer gegebenen Matrix A ∈ Rn×n oder Cn×n eine invertierbare Matrix X ∈ Rn×n (bzw. Cn×n ) existiert, so dass D := X−1 · A · X eine Diagonalmatrix mit den Diagonalelementen d1 , . . . , dn ist. Die Transformationsmatrix X entspricht der Matrix T, mit der in Kapitel 20.5 Basiswechsel f¨ ur die Matrizen linearer Abbildungen beschrieben werden. A ist dann a hnlich zur Diagonalmatrix D, ¨

22.2. Diagonalisierung von Matrizen ∗

627

und Vieles wird einfacher: Am = (X·D·X−1 )m = X·D·(X−1 ·X)·D·· · ··(X−1 ·X)·D·X−1 = X·Dm ·X−1 . Dabei ist Dm ebenfalls eine Diagonalmatrix mit den Diagonalelementen m dm 1 , . . . , dn . Die Potenzierung wird also sehr einfach. Potenzen von Matrizen findet man z. B. bei Iterationsverfahren, bei denen man A stets auf das n¨ achste Zwischenergebnis anwendet. Dazu sehen wir uns sp¨ ater noch einmal das Pendlerproblem an. Hat man ein Gleichungssystem A·x = b, so ist dieses gel¨ ost, wenn man eine Diagonalisierung mit Diagonalelementen dk = 0 hat: X · D · X−1 · x = b ⇐⇒ x = X · D−1 · X−1 ·b, wobei D−1 eine Diagonalmatrix mit Diagonalelementen 1 1 d1 , . . . , dn ist. Zudem wird uns die Diagonalisierung bei der L¨ osung linearer Differenzialgleichungssysteme helfen (siehe Kapitel 7 in Band 2). Es lohnt daher, die Existenz von X zu untersuchen. Definition 22.3 (Diagonalisierbarkeit) Eine Matrix A ∈ Rn×n oder Cn×n heißt genau dann diagonalisierbar, wenn es eine Matrix X ∈ Rn×n oder Cn×n gibt, so dass X−1 · A · X eine Diagonalmatrix ist. Sei A diagonalisierbar mit einer entsprechenden Matrix X, und seien x1 , . . . , xn die Spalten von X. Dann folgt aus A · X = X · D: A · xk = xk dk . Die Spalten von X sind also Eigenvektoren von A. Da X invertierbar ist, m¨ ussen die Spalten von X linear unabh¨angig sein: Es gibt n linear unabh¨ angige Eigenvektoren. Hat man umgekehrt n linear unabh¨angige Eigenvektoren zu (nicht notwendigerweise verschiedenen) Eigenwerten d1 , . . . , dn , so kann man diese in eine Matrix X als Spalten schreiben. X ist invertierbar, und X−1 · A · X ist eine Diagonalmatrix D mit den Eigenwerten als Hauptdiagonalelemente: X−1 · A · X = X−1 · X · D = D. Damit haben wir bewiesen: Satz 22.5 (Diagonalisierbarkeit einer Matrix A ∈ Rn×n oder Cn×n ) Eine Matrix A ∈ Rn×n oder Cn×n ist genau dann diagonalisierbar, wenn sie n linear unabh¨angige Eigenvektoren hat.

628

Kapitel 22. Eigenwerte und Eigenvektoren

Beispiel 22.6 a) Wir untersuchen die Matrix des Pendlerproblems aus (22.1) mit   0,6 0,2 A= 0,4 0,8 auf Diagonalisierbarkeit. A besitzt die Eigenwerte s1 = 1 und s2 = 0,4 mit den Eigenvektoren x1 = (1, 2) und x2 = (1, −1) . Eine Eigenvektormatrix ist gegeben durch     1 1 1 1 1 . X= , und die Inverse ist X−1 = 2 −1 3 2 −1 Es gilt

 X−1 · A · X =

1 0

 0 . 0,4

Als Anwendung der Diagonalisierung berechnen wir die Pendlerverteilung im Jahr n ausgehend von den Startwerten a0 und o0 = 1 − a0 . Mit An = X · Dn · X−1 erhalten wir:  

 

1 1 1 0 1 an 1 1 a0 = 0 0,4n 1 − a0 2 −1 on 3 2 −1 



n 1 1 + 0,4n [3a0 − 1] 1 1 0,4 1 = . = 3a0 − 1 3 2 −(0,4n ) 3 2 − 0,4n [3a0 − 1] Damit erhalten wir unabh¨angig von der Startsituation limn→∞ an = 13 und limn→∞ on = 23 . Der Grenzwert bedeutet, dass irgendwann nahezu 23 der Pendler mit ¨offentlichen Verkehrsmitteln fahren werden. Das kann bei der Planung ber¨ ucksichtigt werden. b) Wir bestimmen eine Eigenvektormatrix X, die die Matrix ⎡ ⎤ 1 1 0 A = ⎣ 0 2 0⎦ −1 1 2 aus (22.4) diagonalisiert. Zu den Eigenwerten s1 = 1 und s2 = 2 haben wir bereits die Eigenvektoren x1 = (1, 0, 1) (zu s1 = 1) und x2 = (1, 1, 0) sowie x3 = (0, 0, 1) (zu s2 = 2) gefunden. Die beiden Vektoren zu s2 = 2 sind so ausgew¨ahlt, dass sie linear unabh¨angig sind. Da es drei linear unabh¨angige Eigenvektoren gibt, ist die Matrix A diagonalisierbar mit ⎡ ⎤ ⎡ ⎤ 1 0 0 1 1 0 X = ⎣ 0 1 0 ⎦ , X−1 · A · X = ⎣ 0 2 0 ⎦ . 0 0 2 1 0 1

22.2. Diagonalisierung von Matrizen ∗

c) Die Matrix

 A=

1 1 0 1

629

 mit det(A − sE) = (1 − s)2

ist nicht diagonalisierbar. Denn man findet zum doppelten Eigenwert s = 1 nur die Eigenvektoren (c, 0) , 0 = c ∈ C, und hat damit nicht n = 2 linear unabh¨angige Eigenvektoren. Es gibt keine festgelegte Reihenfolge f¨ ur die Spaltenvektoren der Eigenvektormatrix X. Daher f¨ uhrt eine Vertauschung der Spalten von X zu einer entsprechenden Vertauschung der Hauptdiagonalelemente von D = X−1 · A · X. Da nach Lemma 22.2 Eigenvektoren zu unterschiedlichen Eigenwerten linear unabh¨angig sind, erhalten wir mit Satz 22.5 die folgende hinreichende Bedingung f¨ ur Diagonalisierbarkeit: Satz 22.6 (Kriterium f¨ ur Diagonalisierbarkeit) Besitzt eine Matrix A ∈ Cn×n n paarweise verschiedene Eigenwerte, so ist A diagonalisierbar. Es gibt aber auch diagonalisierbare Matrizen wie (22.4), die weniger als n verschiedene Eigenwerte besitzen. Diese haben dann k linear unabh¨ angige Eigenvektoren zu k-fachen Eigenwerten. Beispiel 22.7 Zum Abschluss kommen wir noch einmal auf den goldenen Schnitt zur¨ uck. Wir k¨onnen die Fibonacci-Folge (siehe Seite 265) (an )∞ n=1 mit a0 := 0, a1 := 1, an := an−1 + an−2 f¨ ur n ≥ 2 auch so angeben:

 

an 1 1 an−1 = . 1 0 an−1 an−2   =:A

 Da det

1−s 1



1 = s2 − s − 1 die Nullstellen s = −s √

1 2

±



5 2

besitzt, hat die

Matrix A diese beiden Eigenwerte. Dabei ist 12 + 25 = Φ der goldene Schnitt, und f¨ ur den zweiten Eigenwert gilt:  √  √  √ 5 5 1 1 − + 2 2 2 2 1 5 1 √ − = =− . 5 1 2 2 Φ + 2

2

Zum Eigenwert Φ erh¨alt man als L¨osung des entsprechenden homogenen Gleichungssystems einen Eigenvektor (Φ, 1) , und zum Eigenwert − Φ1 erh¨ alt man analog den Eigenvektor (− Φ1 , 1) . Die Matrix A ist also diagonalisierbar mit     1 1 Φ1 Φ − Φ1 −1 und X = √ . X= 1 1 5 −1 Φ

630

Kapitel 22. Eigenwerte und Eigenvektoren

Damit erhalten wir:

 n−1   n−1  Φ 0 an 1 1 a1 1 −1 = = X X 1 0 0 an−1 a0 0 − Φ1 

 n−1 0 Φ n−1 X−1 1  =X 0 0 − Φ1      Φn−1 0 1 Φ − Φ1 1 1 Φ1  1 n−1 = √ 0 1 −1 Φ 0 −Φ 5 1   n−1  

1 Φ 0 1 Φ −Φ 1  1 n−1 = √ −1 1 1 0 − 5 Φ ' n (  

 n−1 1 Φ Φn − − Φ1 1 1 Φ −Φ n−1 = √  n−1 .  = √ 1 − − Φ1 5 1 5 Φn−1 − − Φ1 Dies ist die Binet-Formel f¨ ur die Fibonacci-Folge. Damit ist aber n  Φn − − Φ1 an lim = lim = Φ,   n→∞ an−1 n→∞ Φn−1 − − 1 n−1

(22.5)

Φ

 n  n−1 denn wegen 0 < Φ1 < 1 ist limn→∞ − Φ1 = limn→∞ − Φ1 = 0. Damit an tats¨achlich gegen den goldenen Schnitt strebt die Folge der Quotienten an−1 Φ. Symmetrische Matrizen lassen sich besonders sch¨ on diagonalisieren. Durch eine sukzessive Konstruktion kann man zeigen, dass sich jede symmetrische reelle Matrix A zu einer Diagonalmatrix mit den reellen Eigenwerten auf der Hauptdiagonalen diagonalisieren l¨asst. Insbesondere gibt es einen vollen Satz von n zueinander orthogonalen Eigenvektoren (vgl. Satz 22.2) und damit eine Transformationsmatrix X, deren Spalten eine Orthonormalbasis bilden und f¨ ur die somit X−1 = X gilt. Satz 22.7 (Diagonalisierbarkeit symmetrischer Matrizen) Sei A eine reelle Matrix. Dann sind a¨quivalent: a) A ist symmetrisch. b) Es existiert eine orthogonale Matrix X ∈ Rn×n und eine Diagonalmatrix D ∈ Rn×n mit D = X−1 AX = X AX. Wir beweisen nur die Richtung b) =⇒ a), f¨ ur die umgekehrte Richtung siehe [Arens et al.(2022), S. 667f]: Gilt b), so hat A die Darstellung A = XDX . Damit ist A = (XDX ) = (X ) D X = XDX = A, d. h., A ist symmetrisch.

22.3. Hauptvektoren und Jordan-Normalform ∗

631

Entsprechend (vgl. Hintergrundinformationen auf Seite 624) sind f¨ ur jede komplexe Matrix A ∈ Cn×n ¨aquivalent: a) A ist selbstadjungiert. b) Es existiert eine unit¨are Matrix X ∈ Cn×n und eine reelle Diagonalmatrix D ∈ Rn×n mit D = X−1 AX = X∗ AX. Symmetrische und selbstadjungierte Matrizen lassen sich zu einer reellen Diagonalmatrix diagonalisieren. Generell kann man eine Matrix zu einer komplexen Diagonalmatrix diagonalisieren, wenn sie mit ihrer Adjungierten ullt. Solche kommutiert, d. h. wenn sie die Bedingung A∗ · A = A · A∗ erf¨ Matrizen heißen normal. Insbesondere sind offensichtlich reelle symmetrische und komplexe selbstadjungierte Matrizen normal, da A∗ · A = A · A = A · A∗ .

22.3 Hauptvektoren und Jordan-Normalform ∗ Selbst wenn man eine Matrix verwendet, die nicht gen¨ ugend linear unabh¨angige Eigenvektoren hat, um diagonalisierbar zu sein, so kann man sie unter Zuhilfenahme von sogenannten Hauptvektoren zumindest in eine komplexe Matrix mit nur zwei besetzten Diagonalen bringen. Damit lassen sich Differenzialgleichungssysteme l¨osen (vgl. Band 2, Kapitel 7.5.2). Definition 22.4 (Hauptvektoren) Seien A ∈ Cn×n und s ∈ C ein Eigenwert von A. Ein Vektor d ∈ Cn heißt genau dann Hauptvektor von A zu s, wenn es ein k ∈ N gibt mit (A − sE)k d = 0. Der Hauptvektor d heißt genau dann von k-ter Stufe, wenn (mit (A − sE)0 = E) (A − sE)k d = 0, aber (A − sE)k−1 d = 0. Eigenvektoren sind Hauptvektoren der Stufe 1, da (A−sE)1 d = (A−sE)d =  wobei d = 0 nach Definition ist. 0 und (A − sE)0 d = Ed = d, Ist d ein Hauptvektor der Stufe k > 1, so ist (A − sE)d ein Hauptvektor der Stufe k − 1. So kann man durch fortgesetzte Multiplikation mit (A − sE) eine Kette von k Hauptvektoren erzeugen. Lemma 22.4 (Lineare Unabh¨ angigkeit von Hauptvektoren) Die k  1 ≤ l ≤ k einer Kette zu einem HauptHauptvektoren dl := (A − sE)k−l d, angig. vektor dk = d der Stufe k sind (komplex) linear unabh¨

632

Kapitel 22. Eigenwerte und Eigenvektoren

Beweis Falls die Vektoren nicht linear unabh¨angig sind, dann m¨ usste es mindestens einen Koeffizienten ci = 0 geben, so dass c1 d1 + c2 d2 + · · · + ck dk = 0 asst sich der ist. In dieser Gleichung sei l der gr¨oßte Index mit cl = 0. Dann l¨ Hauptvektor dl der Stufe l als Linearkombination von Hauptvektoren kleinerer Stufen schreiben. Dann w¨are aber (A − sE)l−1 dl = 0 im Widerspruch zur Definition eines Hauptvektors der Stufe l. Folglich kann der Nullvektor nur als triviale Linearkombination geschrieben werden, die Vektoren sind linear unabh¨angig.  Lemma 22.5 (Charakterisierung von Hauptvektoren) Seien A ∈ Cn×n und s ∈ C ein Eigenwert von A. Hauptvektoren zum Eigenwert s sind genau die von 0 verschiedenen L¨osungen d der Gleichung (A − sE)n d = 0. Beweis Man sieht sofort, dass jeder Hauptvektor zu einer Stufe k ≤ n L¨osung der Gleichung ist und umgekehrt. Hauptvektoren einer Stufe k > n kann es aber wegen der linearen Unabh¨angigkeit der Vektoren einer Kette mit k Vektoren (Lemma 22.4) im n-dimensionalen Raum Cn nicht geben.  Ist s ein Eigenwert von A der Vielfachheit k, dann existieren genau k komplex linear unabh¨angige Hauptvektoren von A zu s (die den Hauptraum der Dimension k zum Eigenwert s erzeugen und in Ketten organisiert sind). Gibt es darunter mehr als einen Eigenvektor und damit mehr als eine Kette, so kann die volle Stufe k bei Hauptvektoren nicht erreicht werden. Wie Eigenvektoren sind (abgesehen von 0) auch Hauptvektoren zu unterschiedlichen Eigenwerten linear unabh¨angig, insgesamt findet man stets einen vollen Satz von n linear unabh¨angigen Hauptvektoren. Auf den (hinsichtlich der Dimension und Struktur der Hauptr¨aume) aufw¨andigen Beweis verzichten wir hier, vgl. [Arens et al.(2022), Kapitel 18.8] und die dort zitierte Literatur. Beispiel 22.8 a) Die Matrix  A=

0 0

0 0



hat das charakteristische Polynom p(s) = s2 und damit den doppelten angige EigenvekEigenwert s = 0. (1, 0) und (0, 1) sind linear unabh¨  toren. Es gibt hier keinen Hauptvektor d der Stufe 2, da die Bedingung ullbar ist. Es gibt daf¨ ur aber zwei linear un(A − sE)1 d = 0 nicht erf¨ abh¨angige Hauptvektoren der Stufe 1, n¨amlich z. B. die beiden gefundenen Eigenvektoren. Diese bilden Ketten der L¨ange 1. b) Die folgende Matrix A hat das charakteristische Polynom (2 − s)3 (5 − s)5 , den dreifachen Eigenwert 2 und den f¨ unffachen Eigenwert 3:

22.3. Hauptvektoren und Jordan-Normalform ∗

⎡ ⎢ ⎢ ⎢ ⎢ ⎢ A := ⎢ ⎢ ⎢ ⎢ ⎢ ⎣

2 1 0 0 0 0 0 0

0 2 0 0 0 0 0 0

0 0 2 0 0 0 0 0

633

0 0 0 3 1 0 0 0

0 0 0 0 3 1 0 0

0 0 0 0 0 3 0 0

0 0 0 0 0 0 3 1

0 0 0 0 0 0 0 3

⎤ ⎥ ⎥ ⎥ ⎥ ⎥ ⎥. ⎥ ⎥ ⎥ ⎥ ⎦

Sei ek ∈ C8 der Einheitsvektor, der als k-ten Eintrag eine Eins und sonst nur Nullen aufweist. Zum Eigenwert 2 gibt es einen Hauptvektor e1 der Stufe 2 und zwei Hauptvektoren e2 und e3 der Stufe 1 (also Eigenvektoren), die linear unabh¨angig sind. Zu 3 gibt es eine Kette“, bestehend aus je ” einem Hauptvektor e4 der Stufe 3, einem Hauptvektor e5 der Stufe 2 und einem Eigenvektor (Stufe 1) e6 , sowie eine Kette, bestehend aus je einem Hauptvektor e7 der Stufe 2 und einem Eigenvektor e8 , so dass alle Hauptbzw. Eigenvektoren linear unabh¨angig sind. Die Hauptvektoren zu einem Eigenwert der Vielfachheit k k¨ onnen so ermittelt werden: ur die (A − sE)k−1 dk = a) Berechne eine L¨osung dk von (A − sE)k dk = 0, f¨ 0. Falls es keine L¨osung gibt, versuche linear unabh¨ angige L¨ osungen von (A − sE)k−1 dk = 0 mit (A − sE)k−2 dk = 0 zu bestimmen. Gibt es auch hier keine L¨osungen, dann mache mit der Aufgabe (A − sE)k−2 dk = 0 mit (A − sE)k−3 dk = 0 weiter usw. b) Hat man so Hauptvektoren dr einer Stufe r gefunden, erh¨ alt man mittels dr−1 = (A − sE)dr , dr−2 = (A − sE)dr−1 usw., zu jedem dieser Hauptvektoren r − 1 weitere. Falls damit die gesuchte Anzahl k noch nicht erreicht wird, muss mit dem ersten Schritt weitergemacht werden. Dabei werden neue Hauptvektoren, die zu bereits gefundenen linear abh¨ angig sind, nicht ber¨ ucksichtigt. Bei der Diagonalisierung haben wir eine Matrix X erstellt, deren Spalten linear unabh¨angige Eigenvektoren sind. Jetzt benutzen wir eine Transformationsmatrix X, deren Spalten Hauptvektoren sind. Gibt es zum Eigenwert s eine Kette von Hauptvektoren, beginnend mit dr der Stufe r, und sind oridr−1 = (A − sE)dr , dr−2 = (A − sE)dr−1 , . . . , d1 = (A − sE)d2 zugeh¨ ge Hauptvektoren kleinerer Stufen, so schreiben wir sie beginnend mit dr in Spalten i, i + 1, . . . , i + r − 1 der Matrix X. Entsprechend tragen wir alle gefundenen linear unabh¨angigen Ketten und Eigenvektoren als Spalten in X ein. Damit entsteht eine invertierbare Matrix X ∈ Cn×n . ur die nach Definition von dr−1 Die Matrix AX hat die i-te Spalte Adr , f¨ gilt: Adr = sdr + dr−1 . Die n¨achste lautet Adr−1 = sdr−1 + dr−2 usw. Da d1 ein Eigenvektor ist, steht schließlich in der i + r − 1-ten Spalte Ad1 = sd1 . Damit k¨onnen wir AX = XT schreiben, wobei T eine Matrix mit maximal

634

Kapitel 22. Eigenwerte und Eigenvektoren

zwei besetzten Diagonalen ist. Die Kette von Hauptvektoren, die in der Spalte i von X beginnt, f¨ uhrt dabei zu einem K¨astchen in T, dessen linke obere Ecke an der Position (i, i) liegt. F¨ ur eine Kettenl¨ange r = 3 sieht es so aus: s 0 1 s 0 1

0 0. s

Zu jeder Kette von Hauptvektoren erh¨alt man ein entsprechendes K¨ astchen um die Hauptdiagonale in T, wobei der Eigenwert auf der Hauptdiagonalen steht. Darunter kennzeichnen Einsen die zusammengeh¨ orende Kette. Hat man mehrere Ketten, so sieht T beispielsweise wie die Matrix A in Beispiel 22.8 b) aus, die aus K¨astchen zu vier Ketten besteht. Die Matrix T = X−1 AX heißt eine Jordan-Normalform von A. Wenn man die Hauptvektoren einer Kette in umgekehrter Reihenfolge (beginnend mit dem Eigenvektor) in X eintr¨agt, so stehen die Einsen oberhalb der Hauptdiagonalen. Auch dann spricht man von einer Jordan-Normalform. Jede quadratische Matrix ist also zu einer Matrix in Jordan-Normalform ¨ahnlich (siehe Definition 20.5 auf Seite 596). Damit kann man jede lineare ochstens zwei besetzAbbildung von Cn nach Cn u ¨ber eine Matrix mit h¨ ten Diagonalen ausdr¨ ucken, was beim Rechnen eine große Erleichterung sein kann. Beispiel 22.9 A in Beispiel 22.8 b) ist bereits T = A und X = E. Mehr Arbeit macht ⎡ 2 0 0 0 ⎢ 1 2 0 0 ⎢ 2 1 −2 A=⎢ ⎢ 4 ⎣ −2 −1 1 4 0 0 1 2

in Jordan-Normalform mit ⎤ 0 0⎥ ⎥ 0⎥ ⎥. 0⎦ 3

Das charakteristische Polynom det(A−sE) = (2−s)2 (3−s)[(1−s)(4−s)+2] = (2−s)3 (3−s)2 liefert den dreifachen Eigenwert 2 und den doppelten Eigenwert 3. Wir berechnen eine Kette von Hauptvektoren zum Eigenwert 2: ⎡

0 ⎢ 1 ⎢ (A − 2E)2 = ⎢ ⎢ 4 ⎣ −2 0

⎤2 ⎡ ⎤ 0 0 0 0 0 0 0 0 0 ⎢ 0 0 0 0 0 0⎥ 0 0 0⎥ ⎢ ⎥ ⎥ ⎢ ⎥ 2 −1 −2 0 ⎥ = ⎢ 2 0 −1 −2 0 ⎥ ⎥, ⎣ −1 0 −1 1 2 0⎦ 1 2 0⎦ 0 1 2 1 0 0 2 4 1

635

Literaturverzeichnis



0 ⎢0 ⎢ (A − 2E)3 = ⎢ ⎢0 ⎣0 0

⎤ 0 0 0 0 0 0 0 0⎥ ⎥ 0 −1 −2 0 ⎥ ⎥. 0 1 2 0⎦ 0 3 6 1

Da beispielsweise (A−2E)3 ·(1, 0, 0, 0, 0) = 0, aber (A−2E)2 ·(1, 0, 0, 0, 0) = (0, 0, 2, −1, 0) = 0 ist, haben wir einen Hauptvektor der Stufe 3 gefunden, den wir in die erste Spalte der Transformationsmatrix X schreiben. Eine andere Wahl und damit ein anderes X w¨are auch m¨ oglich. Die beiden weiteren Hauptvektoren der zugeh¨origen Kette sind (A − 2E) · (1, 0, 0, 0, 0) = (0, 1, 4, −2, 0) und (A−2E)·(0, 1, 4, −2, 0) = (0, 0, 2, −1, 0) . Diese schreiben wir in die Spalten zwei und drei von X. Entsprechend verfahren wir nun mit dem doppelten Eigenwert 3: ⎤2 ⎡ 1 −1 0 0 0 0 ⎢ −2 ⎢ 1 −1 ⎥ 0 0 0 ⎢ ⎢ ⎥ ⎢ 2 −2 −2 0 ⎥ (A − 3E)2 = ⎢ ⎢ 4 ⎥ = ⎢ −6 ⎣ 4 ⎣ −2 −1 ⎦ 1 1 0 0 0 0 1 2 0 ⎡

0 0 0 1 0 0 4 2 2 2 −1 −1 0 0 0

⎤ 0 0⎥ ⎥ 0⎥ ⎥. 0⎦ 0

Da (A − 3E)2 · (0, 0, 1, −1, 0) = 0, aber (A − 3E) · (0, 0, 1, −1, 0) = (0, 0, 0, 0, −1) = 0 ist, haben wir einen Hauptvektor der Stufe 2 gefunden, den wir in die vierte Spalte der Transformationsmatrix X schreiben. Dabei haben wir direkt auch den Haupt- bzw. Eigenvektor (0, 0, 0, 0, −1) gewonnen, der X komplettiert. Insgesamt erhalten wir X−1 AX = T mit ⎡ ⎤ ⎤ ⎡ 2 0 0 0 0 1 0 0 0 0 ⎢0 ⎢1 2 0 0 0⎥ 1 0 0 0⎥ ⎢ ⎥ ⎥ ⎢ ⎥ und T = ⎢ 0 1 2 0 0 ⎥ . 0 4 2 1 0 X=⎢ ⎢ ⎥ ⎥ ⎢ ⎣ 0 −2 −1 −1 ⎣0 0 0 3 0⎦ 0⎦ 0 0 0 0 −1 0 0 0 1 3

Literaturverzeichnis Arens et al.(2022). Arens, T. et al.: Mathematik. Springer Spektrum, Heidelberg, 2022.

Kapitel 23

Normierte Vektorr¨aume: Lineare Algebra trifft Analysis ∗ In diesem Kapitel wollen wir die Lineare Algebra mit der Analysis verbinden. Der Betrag einer reellen Zahl wird dabei durch eine Norm ersetzt. Die Norm legt einen Abstandsbegriff f¨ ur Vektoren (und damit eine Topologie, siehe Hintergrundinformationen auf Seite 317) fest, so dass man u ¨ber Grenzwerte und die Stetigkeit von Abbildungen zwischen Vektorr¨ aumen, insbesondere auch zwischen Funktionen- oder Folgenr¨aumen sprechen kann. Wir betrachten aber keine beliebigen Abbildungen, sondern lineare Abbildungen. Das Teilgebiet der Mathematik, das sich mit der Stetigkeit linearer Abbildungen besch¨ aftigt, ist die Funktionalanalysis. In Band 2, Teil I, werden wir die Analysis auch f¨ ur nicht notwendigerweise lineare Abbildungen auf dem Rn betreiben. Dabei handelt es sich aber um eine zwar wichtige, aber geradlinige Erweiterung des Buchteils II. Dagegen bietet die Funktionalanalysis tats¨ achlich neue interessante Einsichten. Sie ist aber auch f¨ ur Anwendungen wichtig. So k¨ onnen wir nun die im ersten Teil des Buchs erw¨ahnten iterativen L¨ osungsverfahren f¨ ur lineare Gleichungssysteme hinsichtlich Konvergenz untersuchen. Die in diesem Abschnitt eingef¨ uhrten Sobolev-R¨aume werden beim L¨ osen partieller Differenzialgleichungen eingesetzt, und das Prinzip gleichgradiger Beschr¨ anktheit hilft, Stabilit¨atsbegriffe der Regelungstechnik zu verstehen.

23.1 Norm Wir haben bereits eine Euklid’sche Norm u ¨ber ein Skalarprodukt in Kapitel 19.3.2 definiert. Im Folgenden setzen wir aber kein Skalarprodukt voraus, die Euklid’sche Norm ist Spezialfall des folgenden Begriffs. © Der/die Autor(en), exklusiv lizenziert an Springer-Verlag GmbH, DE, ein Teil von Springer Nature 2023 S. Goebbels und S. Ritter, Mathematik verstehen und anwenden: Differenzial- und Integralrechnung, Lineare Algebra, https://doi.org/10.1007/978-3-662-68367-5_23

637

638

Kapitel 23. Normierte Vektorr¨ aume: Lineare Algebra trifft Analysis ∗

Definition 23.1 (Norm) Sei V ein reeller oder komplexer Vektorraum, K = R oder K = C. Eine Abbildung  ·  =  · V : V → [0, ∞[ heißt eine Norm auf V, falls f¨ ur alle x, y ∈ V und r ∈ K gilt:

• Aus x = 0 folgt x = 0, • rx = |r|x (absolute Homogenit¨ at), • x + y  ≤ x + y  (Dreiecksungleichung).

(V,  · ) heißt normierter Vektorraum oder linear normierter Raum. Insbesondere folgt aus der Dreiecksungleichung auch die bei Absch¨ atzungen hilfreiche Dreiecksungleichung nach unten. Sie entspricht genau der Formel (3.6) auf Seite 78 f¨ ur Betr¨age von reellen Zahlen: | x − y  | ≤ x − y ,

(23.1)

denn x − y  = x − y + y  − y  ≤ x − y  + y  − y  = x − y  und analog −(x − y ) = y  − x ≤ y − x = x − y . aume) Beispiel 23.1 (Normierte Vektorr¨ • Offensichtlich ist der Betrag eine Norm f¨ ur die Vektorr¨ aume (R, +; R, ·) und (C, +; C, ·). ur jedes p ∈ [1, ∞[ die Abbildungen • Auf dem Vektorraum (Rn , +; R, ·) sind f¨  · p : Rn → [0, ∞[ mit (x1 , x2 , . . . , xn )p := (|x1 |p + |x2 |p + · · · + |xn |p )1/p Normen. F¨ ur p = 2 erh¨alt man den Betrag f¨ ur Vektoren des Rn , der gem¨ aß dem Satz von Pythagoras den geometrischen Abstand zum Nullvektor angibt und sich dar¨ uber hinaus auch aus dem Standardskalarprodukt ergibt. Wir werden auch die Wahl p = ∞ zulassen: (x1 , x2 , . . . , xn )∞ := max{|x1 |, |x2 |, . . . , |xn |}. • Hat man einen endlich-dimensionalen Vektorraum, dann kann man jeden Vektor eindeutig als Linearkombination von endlich vielen Basisvektoren schreiben. Dem Vektor sind so eindeutig die Koeffizienten dieser Linearkombination zugeordnet. Eine Norm erh¨alt man, indem man eine der zuvor diskutierten Normen des Vektorraums (Rn , +; R, ·) auf die Koeffizienten anwendet. • Wir erhalten einen normierten Vektorraum lp von Folgen (xk )∞ k=1 mit der Norm

639

23.1. Norm

' (xk )∞ k=1 p

:=

(xk )∞ k=1 lp

:=

∞  k=1

(1/p |xk |

p

f¨ ur 1 ≤ p < ∞, indem wir nur solche Folgen in den Vektorraum nehmen, f¨ ur die die unendliche Summe eine endliche Zahl ergibt. Dass es sich hier um eine Norm handelt, muss nachgerechnet werden. Darauf verzichten wir hier aber. Insbesondere ist der Nachweis der Dreiecksungleichung nicht trivial (und nutzt die H¨older-Ungleichung). F¨ ur p = ∞ setzen wir (xk )∞ k=1 ∞ := sup{|xk | : k ∈ N} und definieren l∞ als Menge aller beschr¨ankten Folgen. Die Gegenst¨ ucke ur Funktionen die Lp -R¨ aume, die wir weiter unten der Folgenr¨aume lp sind f¨ besprechen, siehe Seite 643. • Der Vektorraum der auf dem Intervall [a, b] stetigen Funktionen wird mit C[a, b] bezeichnet. Mittels f C[a,b] := max |f (x)| x∈[a,b]

wird dieser normiert. Da |f | stetig ist, nimmt |f | auf dem Intervall [a, b] ein Maximum an (siehe Satz 11.7 auf Seite 322), so dass die Norm wohldefiniert ist. Die Eigenschaften einer Norm ergeben sich sofort. Vielfach sind Normen wie in Kapitel 19.3.2 u ¨ber Skalarprodukte definiert. Wir werden sp¨ater dazu unterschiedliche Skalarprodukte verwenden. Diese lassen sich nicht unterscheiden, wenn wir sie mit dem Multiplikationszeichen schreiben. Daher verwenden wir lokal in diesem Kapitel 23 eine Notation mittels Klammern, bei der wir u ¨ber einen Index dem Skalarprodukt einen Namen geben k¨onnen. Ist der Vektorraum X u ¨ber ein Skalarprodukt normiert, dann bezeichnen wir es mit (·, ·)X . uhren dazu, dass  · X mit Die Eigenschaften eines Skalarprodukts (·, ·)X f¨  ullt. Wir erinnern dazu xX := (x, x)X die Eigenschaften einer Norm erf¨ an die Definition 19.8 des Skalarprodukts f¨ ur Vektorr¨ aume u orper ¨ber dem K¨ R auf Seite 556 und an die Definition 19.9 auf Seite 558 f¨ ur Vektorr¨ aume u ¨ber C. Die normierten Vektorr¨aume sind u aume (siehe ¨brigens Topologische R¨ Hintergrundinformationen auf Seite 317), bei denen die Topologie durch die Norm erzeugt wird. Zu δ > 0 l¨asst sich beispielsweise u ¨ber {x ∈ V : x − x0 V < δ} eine offene Umgebung des Vektors x0 definieren. Dabei k¨onnen wir u ¨ber die Norm den Abstand eines Vektors x zu einem Vektor x0 angeben. Mit den offenen Umgebungen l¨asst sich dann eine Topologie analog wie f¨ ur die reellen Zahlen festlegen.

640

Kapitel 23. Normierte Vektorr¨ aume: Lineare Algebra trifft Analysis ∗

¨ Definition 23.2 (Aquivalente Normen) Zwei Normen  · a und  · b auf einem Vektorraum V heißen ¨ aquivalent genau dann, wenn es reelle ur alle x ∈ V . Konstanten c, C > 0 gibt mit cxa ≤ xb ≤ Cxa f¨ Offensichtlich gilt auch xb ≤ Cxa ≤

C xb f¨ ur alle x ∈ V. c

¨ Aquivalente Normen erzeugen die gleiche Topologie. Hinsichtlich der Begriffe Stetigkeit und Konvergenz wird es keine Unterschiede geben, so dass die Normen austauschbar sind. Lemma 23.1 (Normen auf einem endlich-dimensionalen Vektorraum) Sind ·a und ·b Normen auf dem gleichen endlich-dimensionalen Vektorraum V , dann sind sie a¨quivalent. Wir verzichten auf einen Beweis, der u uhrt ¨ber ein Stetigkeitsargument gef¨ werden kann.

23.2 Banach- und Hilbert-R¨aume

Definition 23.3 (Cauchy-Folge und Konvergenz) Eine Folge (xk )∞ k=1 von Vektoren eines normierten Vektorraums (V,  · V ) heißt (v¨ ollig analog zu Folgen reeller oder komplexer Zahlen) eine Cauchy-Folge genau dann, ur alle n, m > n0 wenn es zu jedem ε > 0 eine Stelle n0 ∈ N gibt, so dass f¨ gilt: xn − xm V < ε.

Eine Folge (xk )∞ k=1 heißt (in der Norm) konvergent gegen einen (eindeutigen) Grenzwert x genau dann, wenn lim xn − xV = 0.

n→∞

Konvergiert eine Folge von Vektoren, dann konvergiert insbesondere die Folge der Normen gegen die Norm des Vektorgrenzwerts. Die Folge der Normen ist damit eine konvergente Folge reeller Zahlen, denn wegen (23.1) ist

641

23.2. Banach- und Hilbert-R¨ aume

0 ≤ | xn V − xV | ≤ xn − xV → 0,

n → ∞,

also lim xn V = xV .

n→∞

(23.2)

In Kapitel 16.2 besprechen wir die gleichm¨ aßige Konvergenz einer Folge von Funktionen. Dabei handelt es sich ebenfalls um eine Konvergenz in einer ur Norm, n¨amlich der Supremum-Norm f B[a,b] := supx∈[a,b] |f (x)|, die f¨ beschr¨ankte Funktionen erkl¨art ist und f¨ ur stetige Funktionen mit f C[a,b] u ¨bereinstimmt. Ist V endlich-dimensional, dann folgt mit Lemma 23.1 aus der Konvergenz einer Folge in einer Norm automatisch auch die Konvergenz in allen anderen (dann ¨aquivalenten) Normen auf V . Entsprechend ist dann eine Cauchy-Folge in einer Norm auch eine Cauchy-Folge in allen anderen Normen. Wir wissen, dass jede Cauchy-Folge reeller Zahlen konvergent gegen eine reelle Zahl ist. Dahinter steckt die Vollst¨andigkeit der reellen Zahlen. Diese Eigenschaft m¨ochte man auch f¨ ur normierte Vektorr¨ aume besitzen. Sie ist aber nicht generell gegeben. Vielmehr sind vollst¨ andige R¨ aume ausgezeichnet: Definition 23.4 (Banach-Raum) Ist in einem normierten Vektorraum V jede Cauchy-Folge (in der Norm) konvergent gegen ein Element des Vektorraums, dann heißt dieser vollst¨ andig. Ein vollst¨ andiger normierter Vektorraum wird als Banach-Raum bezeichnet. Ist die Norm durch ein Skalarprodukt auf V definiert, dann nennt man den Banach-Raum einen HilbertRaum. Banach-R¨aume sind in vielen Anwendungen der Ingenieurmathematik zumindest f¨ ur die Theorie sehr wichtig, um die Existenz und Eindeutigkeit von L¨osungen (z. B. im Zusammenhang mit Differenzialgleichungen) zu beweisen. Beispiel 23.2 (Banach-Raum der reellen Vektoren) Der f¨ ur 1 ≤ p ≤ ∞ mit  · p normierte Vektorraum (Rn , +; R, ·) ist ein Banach-Raum. Hat man eine Cauchy-Folge (xk )∞ k=1 von Vektoren, so ist auch jede einzelne Koordinatentenfolge eine Cauchy-Folge und damit wegen der Vollst¨ andigkeit der reellen Zahlen konvergent gegen einen Koordinatengrenzwert in R. Der aus diesen Grenzwerten zusammengesetzte Vektor ist dann Grenzwert von (xk )∞ k=1 (vgl. mit (1.1) f¨ ur  · 2 auf Seite 7 in Band 2). So folgt auch, dass (Cn , +; C, ·) ein Banach-Raum ist. Aufgrund dieser Argumentation, aber auch da auf dem endlich-dimensionalen Vektorraum Rn oder Cn alle Normen ¨aquivalent sind, bedeutet Konvergenz in einer  · p -Norm auch automatisch Konvergenz in allen anderen Normen. Der Teil I in Band 2 besch¨aftigt sich im Wesentlichen mit Funktionen aume mit der  · 2 von (Rn , +; R, ·) in (Rm , +; R, ·), wobei beide Vektorr¨ Norm ausgestattet und damit Banach-R¨aume sind. Da diese Norm u ¨ber das

Kapitel 23. Normierte Vektorr¨ aume: Lineare Algebra trifft Analysis ∗

642

Standard-Skalarprodukt gebildet wird, sind diese Vektorr¨ aume sogar HilbertR¨aume. Beispiel 23.3 (Banach-Raum der stetigen Funktionen) Wir zeigen, dass der Vektorraum C[a, b] der reellen, auf [a, b] stetigen Funktionen zusammen mit der Maximum-Norm  · C[a,b] ein Banach-Raum ist. Sei dazu (fk )∞ k=1 eine Cauchy-Folge stetiger Funktionen, d. h., zu jedem ε > 0 existiere ur m, n > n0 (ε) gilt: ein n0 (ε) ∈ N, so dass f¨ fn − fm C[a,b] := max{|fn (x) − fm (x)| : x ∈ [a, b]} < ε. Wir m¨ ussen zeigen, dass diese Cauchy-Folge gegen eine stetige Funktion f in der Maximum-Norm konvergiert. Zun¨achst beschaffen wir uns einen Kandidaten f¨ ur diese Grenzfunktion. F¨ ur jedes x ∈ [a, b] ist die Zahlenfolge (fk (x))∞ k=1 eine Cauchy-Folge, die damit gegen einen reellen Grenzwert f (x) konvergiert. ¨ Uber diese punktweise Konvergenz ist damit die Grenzfunktion erkl¨ art. Aus der Cauchy-Bedingung l¨asst sich f¨ ur ε = 2−n eine streng monoton wachsende Folge nat¨ urlicher Zahlen (kn )∞ ¨ber kn > n0 (2−n ) finden mit n=1 u fkn+1 − fkn C[a,b] < 2−n . urlich auch punktweise gegen f . Damit Die Folge (fkn )∞ n=1 konvergiert nat¨ erhalten wir f¨ ur f und ein n ∈ N die Darstellung:   l−1  [fki+1 (x) − fki (x)] f (x) = lim fkl (x) = lim fkn (x) + l→∞

l→∞

= fkn (x) +

∞  i=n

i=n

[fki+1 (x) − fki (x)].

Da wir noch nicht wissen, ob f stetig ist und damit ein Maximum annimmt, verwenden wir zun¨achst f B[a,b] := sup{|f (x)| : x ∈ [a, b]}. Damit gilt unter Verwendung der geometrischen Summe (3.2) von Seite 69 und der geometrischen Reihe (10.1), siehe Seite 275: D D ∞ ∞ D D  D D ≤ fki+1 − fki C[a,b] f − fkn B[a,b] = D [fki+1 − fki ]D D D i=n


4/ε2 gilt: fn −

2 f m 2

  24 8 1/n  √ 1/n 1 1 √ dx = 2 x 1/m = dx = x x 1/m 1/m # # # 1 1 1 −2 ≤2 < ε. =2 n m n 8

1/n

Man findet hier aber keine Riemann-integrierbare Grenzfunktion, da f (x) =  1 1/4 auf ]0, ∞] nicht beschr¨ankt ist. x Mit dem Lebesgue-Integral (das insbesondere auch f¨ ur unbeschr¨ ankte Funktionen erkl¨art ist und f¨ ur Funktionen, die sogar den Funktionswert ∞“ ” auf Mengen vom Maß null annehmen, sinnvoll ist) lassen sich dagegen die Funktionenr¨aume so definieren, dass sie vollst¨ andig sind. Der Vektorraum Lp [a, b] mit der Norm  · p , 1 ≤ p < ∞, besteht aus den messbaren Funktionen f , f¨ ur die (im Sinne des Lebesgue-Integrals) f p < ∞ ist. Statt aume ohne Problef¨ ur Funktionen auf dem Intervall [a, b] k¨onnen wir Lp -R¨ me direkt auch f¨ ur Funktionen u ¨ber beliebigen messbaren Mengen A (auch unbeschr¨ankten Mengen und Mengen mit unendlichem Maß) erkl¨ aren und verwenden hier [a, b] nur f¨ ur eine einfachere Darstellung. Wie oben bereits beschrieben, sind die Elemente des Raums streng genommen keine einzelnen ¨ Funktionen, sondern Aquivalenzklassen von Funktionen, die hinsichtlich der Norm gleich sind, d. h., die f. u ¨. gleich sind. Man kann dann mit einem beliebi¨ gen Repr¨asentanten der Aquivalenzklasse rechnen. Aus reiner Bequemlichkeit zur Vermeidung von Fallunterscheidungen l¨asst man ±∞ als Funktionswer” te“ zu. Man beachte aber, dass aus der Lebesgue-Integrierbarkeit folgt, dass f h¨ochstens auf einer Menge vom Maß null die Werte“ ±∞ annehmen kann, ” so dass diese beim Rechnen keine Rolle spielen. Die Funktion f l¨ asst sich durch eine gleichwertige reellwertige Funktion f˜ ersetzen mit f = f˜ f. u ¨. Bislang haben wir p = ∞ ausgeschlossen. Aber auch f¨ ur diese Parameterwahl entsteht ein wichtiger Banach-Raum – der Raum der wesentlich beschr¨ ankten Funktionen. Eine (messbare) Funktion f ∈ L∞ [a, b] muss nicht beschr¨ankt sein, aber sie muss auf einer Menge [a, b] \ N beschr¨ ankt sein, wobei N eine Menge vom Lebesgue-Maß null ist, also m(N ) = 0. Die Norm (das wesentliche Supremum) ist dann so definiert: 7 f ∞ := inf

> sup x∈[a,b]\N

|f (x)| : N ⊂ [a, b] ist messbar, m(N ) = 0 .

23.3. Lp -R¨ aume

645

Man beachte, dass die Definition f B[a,b] = sup |f (x)| x∈[a,b]

nicht sinnvoll ist, wenn Funktionen gleich sein d¨ urfen, obwohl sie sich auf einer Menge vom Maß null unterscheiden. Dann k¨ onnten gleiche Funktionen eine unterschiedliche Norm haben. Daher verwendet man f B[a,b] nur in Verbindung mit beschr¨ankten Funktionen, bei denen jeder Funktionswert wichtig ist. Die Lp -Normen sind tats¨achlich Normen. Schwierig ist nur das Nachrechnen der Dreiecksungleichung, die hier Minkowski-Ungleichung heißt: f + gp ≤ f p + gp . F¨ ur p = 1 und p = ∞ ergibt sich die Minkowski-Ungleichung direkt aus der Dreiecksungleichung f¨ ur Betr¨age. F¨ ur 1 < p < ∞ folgt sie (nicht-trivial) aus der H¨ older-Ungleichung f · g1 ≤ f r gs

(23.3)

f¨ ur 1r + 1s = 1, r, s ≥ 1, wobei r = ∞ oder s = ∞ zugelassen ist mit Kehrwert 0. ur Die Lp [a, b]-R¨aume sind ineinander enthalten, es gilt Lp [a, b] ⊆ Lq [a, b] f¨ 1 ≤ q ≤ p ≤ ∞. Wir wenden zum Beweis die H¨ o lder-Ungleichung f¨ u r q < p   p q mit r = q , s = 1/ 1 − p und g(x) = 1 an: q

f qq = f q · 11 ≤ f q  pq 11/(1− q ) = f qp (b − a)1− p . p

Gilt also f p < ∞, so ist auch f q < ∞. Hier ist wichtig, dass das aume Lebesgue-Maß m([a, b]) = b − a endlich ist. Betrachtet man die Lp -R¨ auf einem unbeschr¨ankten Intervall (z. B. R) oder einer messbaren Menge mit unendlichem Lebesgue-Maß, dann liegen die R¨ aume nicht ineinander. Hintergrund: Vollst¨ andigkeit der Lp -R¨ aume Wir haben oben gesehen, dass das Riemann-Integral nicht zu einem vollst¨ anaume digen Funktionenraum f¨ uhrt. Wir u ¨berlegen uns nun, dass die Lp -R¨ tats¨achlich vollst¨andig sind (wobei im Folgenden [a, b] durch eine beliebige messbare Menge ausgetauscht werden darf, selbst wenn sie unendliches Lebesgue-Maß hat). Dabei beschr¨anken wir uns auf den Fall 1 ≤ p < ∞. Der folgende technische Beweis basiert im Wesentlichen auf den Eigenschaften des Lebesgue-Integrals, die in den S¨atzen 14.11 und 14.12 (Seite 437) formuliert sind. Wir m¨ ussen zeigen, dass jede Cauchy-Folge konvergiert. Sei

Kapitel 23. Normierte Vektorr¨ aume: Lineare Algebra trifft Analysis ∗

646

p dazu (fk )∞ k=1 eine Cauchy-Folge in L . Nach Definition der Cauchy-Folge −n eine Stelle n0 = n0 (2−n ), so dass f¨ ur alle m, i > n0 gibt es zu ε = 2 −n gilt: fm − fi p < 2 . Damit existiert analog zu Beispiel 23.3 eine Teilfolge urlichen Zahlen mit fkn − fkn+1 p < 2−n . Es gen¨ ugt zu zei(kn )∞ n=1 der nat¨ gen, dass diese Teilfolge in Lp konvergiert. Daraus folgt wieder wie im Beweis zu Satz 9.8 (Seite 270, Teil b) die Konvergenz der gesamten Folge in Lp . Also zeigen wir die Konvergenz der Teilfolge in Lp : Wir definieren ¨ahnlich wie in Beispiel 23.3 eine Folge von Hilfsfunktionen

hn (x) :=

n−1  i=1

|fki+1 (x) − fki (x)|.

Durch die Summation nicht-negativer Zahlen ist diese Folge (wie auch die ur jeden Wert x monoton wachsend (wie es im Satz 14.11 Folge |hn (x)|p ) f¨ gefordert ist). Sie konvergiert damit gegen eine Grenzfunktion h, die aber an Stellen x Funktionswerte ∞ annimmt, wenn die Folge f¨ ur x unbeschr¨ ankt ist. Mit der Dreiecksungleichung und der Formel (3.2) f¨ ur die geometrische Summe (Seite 69) erhalten wir hn p ≤

n−1  i=1

fki+1 − fki p
0 ein δ > 0 existiert, so dass f¨ ur alle x ∈ V mit x0 − xV < δ ur jedes x0 ∈ V stetig, so heißt S stetig gilt: S(x0 ) − S(x)W < ε. Ist sie f¨ auf V . Viele Eigenschaften stetiger reeller Funktionen u ¨bertragen sich daher auf stetige Abbildungen S zwischen normierten Vektorr¨ aumen. Hat man beispiels, die im Raum V gegen x0 konvergiert, dann gilt weise eine Folge (xn )∞ n=1 limn→∞ S(xn ) = S(x0 ) = S(limn→∞ xn ) in W , also lim S(xn ) − S(x0 )W = 0.

n→∞

(23.5)

Wir beweisen das kurz: Zu jedem ε > 0 verwenden wir das nach der Definition der Stetigkeit existierende δ > 0. Wegen der Konvergenz der Folge (xn )∞ n=1 gibt es zu δ ein n0 ∈ N, so dass f¨ ur alle n > n0 gilt: xn −x0 V < δ. Damit ist f¨ ur n > n0 aber aufgrund der Definition der Stetigkeit S(xn )−S(x0 )W < ε, und die Konvergenz der Folge S(xn ) gegen S(x0 ) in W ist gezeigt. Aus (23.5) folgt wegen (23.2) f¨ ur die Folge der Normen der sp¨ ater noch ben¨otigte reelle Grenzwert lim S(xn )W = S(x0 )W .

n→∞

(23.6)

Insbesondere gilt der Banach’sche Fixpunktsatz (siehe Satz 13.5 auf Seite 364) in der folgenden Fassung, die ohne die Einschr¨ ankung auf reelle Funktionen viel anwendungsfreundlicher ist. So k¨onnen numerische Verfahren oft als Abbildungen eines normierten Vektorraums in sich selbst aufgefasst werden. Satz 23.1 (Banach’scher Fixpunktsatz f¨ ur normierte Vektorr¨ aume) Sei (V,  · V ) ein Banach-Raum und 0 ≤ λ < 1. Jede Abbildung S : (V,  · V ) → (V,  · V ), die eine Kontraktion im Sinne von ur alle x, y ∈ V S(x) − S(y )V ≤ λx − y V f¨ ist, besitzt genau einen Fixpunkt x0 , d. h. S(x0 ) = x0 , und dieser ist ahlbarem x1 ∈ V und der Grenzwert jeder Folge (xn )∞ n=1 mit beliebig w¨

23.4. Stetige Abbildungen zwischen normierten Vektorr¨ aumen

649

xn+1 := S(xn ). Es gelten die A-priori-Absch¨ atzung x0 − xn V ≤

λn−1 · x2 − x1 V 1−λ

(23.7)

und die A-posteriori-Absch¨ atzung x0 − xn V ≤

λ · xn − xn−1 V . 1−λ

Man beachte, dass aus der Bedingung der Kontraktion sofort die Stetigkeit an jeder Stelle in V folgt. Der Beweis des Satzes l¨ asst sich direkt aus dem zu Satz 13.5 und den Herleitungen der Fehlerabsch¨ atzungen (13.4) und (13.5) u ¨bertragen. Bislang haben wir noch nicht die Linearit¨ at von Abbildungen vorausgesetzt. Liegt dieser wichtige Spezialfall vor, so wird der Begriff der Stetigkeit ganz besonders einfach. Definition 23.5 (Operatornorm) Eine lineare Abbildung (ein linearer ankt, falls Operator) L : (V,  · V ) → (W,  · W ), V = {0}, heißt beschr¨ die Operatornorm L[V,W ] := sup

0 =

x∈V

LxW xV

endlich ist. D D D D = DL  x xV D gilt, kann man sich in der Definition auf Vektoren W x beschr¨anken, die zu eins normiert sind: Da

L

xW 

x V

L[V,W ] =

sup

x∈V mit 

xV =1

LxW .

F¨ ur x = 0 gilt LxW =

LxW xV ≤ L[V,W ] xV . xV

Ist x = 0, so gilt die Absch¨atzung ebenfalls: LxW = 0W = 0 = L[V,W ] · 0 = L[V,W ] xV . Insgesamt haben wir damit die ganz wichtige Normabsch¨ atzung

(23.8)

Kapitel 23. Normierte Vektorr¨ aume: Lineare Algebra trifft Analysis ∗

650

LxW ≤ L[V,W ] xV

(23.9)

gezeigt. Damit erh¨alt man auch sofort eine Normabsch¨ atzung f¨ ur die Verkettung (Hintereinanderausf¨ uhrung) L◦S = L(S(·)) zweier linearer Abbildungen L : U → W und S : V → U . Da f¨ ur alle x ∈ V (L ◦ S)(x)W = L(S(x))W ≤ L[U,W ] S(x)U ≤ L[U,W ] S[V,U ] xV ist, folgt L ◦ S[V,W ] ≤ L[U,W ] S[V,U ] .

(23.10)

Die linke Seite kann aber echt kleiner als die rechte sein, im Allgemeinen gilt nicht die Gleichheit. Ist V endlich-dimensional, dann ist die Operatornorm grunds¨ atzlich endur lich. Um das zu sehen, sei {x1 , . . . xn } eine Basis des Raums. Dann gilt f¨ jeden Vektor x = r1 x1 + · · · + rn xn ∈ V : LxW = L(r1 x1 + · · · + rn xn )W = r1 L(x1 ) + · · · + rn L(xn )W n n   ≤ |rk |L(xk )W ≤ max{L(x1 )W , . . . , L(xn )W } |rk |. k=1

k=1

n

ur x auf V , wie wir bereits erw¨ ahnt haben Nun definiert k=1 |rk | eine Norm f¨ und wie man leicht nachrechnen kann. Da V endlich-dimensional ist, ist diese Norm laut Lemma 23.1 ¨aquivalent zu  · V : LxW ≤ C1

n  k=1

|rk | ≤ C2 xV .

Das aber ist die Beschr¨anktheit von L. Lemma 23.2 (Normierter Vektorraum der linearen Abbildungen) Seien V und W normierte Vektorr¨aume. Die Menge der beschr¨ ankten linearen Abbildungen von V nach W bildet mit der Operatornorm selbst einen normierten Vektorraum. Die Aussage des Lemmas l¨asst sich unmittelbar anhand der Definition u ¨berpr¨ ufen. Aus der Beschr¨anktheit L[V,W ] ≤ C einer linearen Abbildung L : V → W folgt ihre Stetigkeit auf V . Denn mit (23.9) folgt sofort Lx − Ly W = L(x − y )W ≤ Cx − y V

651

23.4. Stetige Abbildungen zwischen normierten Vektorr¨ aumen

f¨ ur alle x, y ∈ V . Das ist nicht nur die Stetigkeit von L an jeder Stelle x, sondern sogar die gleichm¨aßige Stetigkeit: Zu ε > 0 existiert ein δ := ε/C unabh¨angig von x, so dass f¨ ur alle y mit x − y V < δ gilt: Lx − Ly W < ε. Umgekehrt ist es nicht schwer indirekt zu beweisen, dass jede stetige lineare Abbildung automatisch beschr¨ankt ist. Wir nehmen dazu an, dass die Abbildung L nicht beschr¨ankt ist. Damit gibt es f¨ ur jede Zahl n ∈ N einen Vektor 0 = xn ∈ V , so dass L(xn )W ≥ nxn V . Die Folge yn :=

1 n

x n V

xn konvergiert in V gegen den Nullvektor, da

D D D D 1 xn V 1 D  x = 0. lim yn − 0V = lim D n D = lim D n→∞ n→∞ n n→∞ n  xn V xn V V Da L stetig ist, muss wegen (23.5) auch 0 = lim L(yn ) − L(0)W = lim L(yn )W = lim n→∞

n→∞

n→∞

1 L(xn )W nxn V

gelten. Im Widerspruch dazu ist aber die rechte Seite nach Wahl der Vektoren xn gr¨oßer oder gleich eins. Wir haben bewiesen: Lemma 23.3 (Stetigkeit linearer Abbildungen) Bei linearen Abbildungen zwischen normierten Vektorr¨aumen sind die Begriffe Stetigkeit auf dem Vektorraum, gleichm¨aßige Stetigkeit und Beschr¨ anktheit identisch. In der Numerik und in den Ingenieurswissenschaften ist daneben der Begriff der Stabilit¨at u ¨blich. Wenn eine lineare Abbildung als stabil bezeichnet wird, ist damit die Stetigkeit/Beschr¨anktheit gemeint. Beispiel 23.4 (Ableitungsoperator) Die Menge der auf einem Intervall [a, b] stetig differenzierbaren Funktionen ist ein Vektorraum C (1) [a, b], der mit f C (1) [a,b] := max{f C[a,b] , f  C[a,b] } normiert werden kann. Dabei entsteht ein Banach-Raum. Um das nachzurechnen, ben¨otigt man Satz 16.2 auf Seite 467. Eine besonders wichtige beschr¨ankte lineare Abbildung L : C (1) [a, b] → C[a, b] ist die Ableitung: L(f ) := f  . Die Linearit¨at ist durch die Linearit¨at der Ableitung gegeben. Die Beschr¨anktheit folgt sofort aus L(f )C[a,b] = f  C[a,b] ≤ f C (1) [a,b] ,

652

Kapitel 23. Normierte Vektorr¨ aume: Lineare Algebra trifft Analysis ∗

so dass die Operatornorm kleinergleich eins ist. F¨ ur f (x) = exp(x) ist außerdem L(exp(x))C[a,b] =  exp(x)C[a,b] =  exp(x)C (1) [a,b] , so dass die Operatornorm gleich eins ist: L[C (1) [a,b],C[a,b]] = 1. Man beachte, dass f¨ ur die Beschr¨anktheit tats¨ achlich die Verwendung der ur [a, b] = [0, 2π] und jedes k ∈ N ist C (1) [a, b]-Norm wichtig ist: F¨ L(sin(k · x)) =

d sin(k · x) = k cos(kx). dx

Die Maximum-Normen sind  sin(k · x)C[0,2π] = 1, k cos(k · x)C[0,2π] = k. Damit kann f¨ ur jedes C ≥ 0 ein k > C gew¨ahlt werden mit k = L(sin(k · x))C[0,2π] ≤ C sin(c · x))C[0,2π] = C, so dass der Ableitungsoperator bei Verwendung der Maximum-Norm nicht beschr¨ankt ist. d ist dadurch entstanden, Die Namensgebung Differenzialoperator f¨ ur dx dass es sich tats¨achlich um eine beschr¨ankte lineare Abbildung (einen beschr¨ankten linearen Operator) handelt. Die linken Seiten von Differenzialgleichungen, die wir in Band 2, Teil II, betrachten, sind Linearkombinationen von Differenzialoperatoren und k¨onnen so ebenfalls h¨ aufig als beschr¨ ankte lineare Abbildungen verstanden werden. Allerdings sind die im vorangehenden Beispiel gew¨ahlten Supremum-Normen in der Praxis vielfach zu einschr¨ ankend, da die gesuchten L¨osungsfunktionen nicht gen¨ ugend glatt sind. Deshalb wird mittels partieller Integration ein schw¨acherer Ableitungsbegriff f¨ ur Funktiouhrt. Indem man die lp -Norm des Vektors der nen aus den Lp -R¨aumen eingef¨ Lp -Normen der Funktion und ihrer sogenannten schwachen Ableitungen bis zu einer vorgegebenen Ordnung verwendet, entsteht ein Banach-Raum, der als Sobolev-Raum bezeichnet wird (siehe Kapitel 23.6). Dieser spielt beim L¨osen (partieller) Differenzialgleichungen eine wichtige Rolle. Namensgeber der Funktionalanalysis sind die Funktionale. Eine lineare Abbildung eines Vektorraums in die reellen oder komplexen Zahlen K heißt ein lineares Funktional. Ist V ein normierter Vektorraum und fasst man K ebenfalls als normierten Vektorraum (mit dem Betrag als Norm) auf, so k¨onnen wir den Vektorraum der beschr¨ankten linearen Funktionale auf V betrachten, der gleich dem Vektorraum der beschr¨ ankten linearen Abbildungen von V nach K ist. Dieser Vektorraum heißt der Dualraum zu V und wird mit V ∗ bezeichnet. Mit Funktionalen hatten wir auch schon zu tun, nur haben wir sie nicht so genannt.

Beispiel 23.5 (Integral als Funktional) Auf dem normierten Vektorraum (C[a, b], ·C[a,b] ) der auf dem Intervall [a, b] stetigen Funktionen ist beispiels9b weise die Abbildung F (f ) := a f (x) dx, F : C[a, b] → R ein beschr¨ anktes

23.4. Stetige Abbildungen zwischen normierten Vektorr¨ aumen

653

lineares Funktional. Die Linearit¨at folgt sofort aus der des Integrals. Das Funktional ist beschr¨ankt, da |F (f )| ≤ (b − a)f C[a,b] . Damit ist insbesondere die Operatornorm 9   b  f (x) dx   a |F (f )| sup = sup F C[a,b]∗ := F [C[a,b],R] = 0 ≡f ∈C[a,b] f C[a,b] 0 ≡f ∈C[a,b] supx∈[a,b] |f (x)| kleiner oder gleich b − a. Sie ist sogar genau gleich b − a, da die Funktion f (x) = 1 in C[a, b] enthalten ist. Wichtige Beispiele f¨ ur lineare Funktionale sind die Distributionen, also verallgemeinerte Funktionen, siehe die Hintergrundinformationen in Band 2 ab Seite 377. Die Delta-Distribution (der Dirac-Stoß, die Impulsfunktion) wird z. B. in der Regelungstechnik eingesetzt, um das Verhalten linearer zeitinvarianter Systeme vollst¨andig zu ermitteln.

23.4.2 Matrix-Normen Die Frage, ob eine lineare Abbildung beschr¨ ankt ist, wird bei unendlichdimensionalen Vektorr¨aumen wie Funktionenr¨ aumen wichtig. Der tats¨ achliche Wert einer Operatornorm wird aber h¨aufig auch bei linearen Abbildungen zwischen endlich-dimensionalen R¨aumen ben¨ otigt. Diese Abbildungen k¨ onnen als Matrixmultiplikation dargestellt werden. Eine Matrix-Norm ist definiert als Operatornorm der durch die Matrix beschriebenen linearen Abbildung. Sei beispielsweise A ∈ Rm×n eine Matrix, die eine lineare Abbildung von Rn in Rm beschreibt, oder A ∈ Cm×n eine Matrix, die eine lineare Abbildung von Cn in Cm festlegt. Wir statten sowohl Rn bzw. Cn als auch Rm bzw. Cm mit der  · p -Norm aus. Dann ist Ap :=

sup

0 =

x∈Rn bzw. Cn

Axp . xp

Generell sind Matrix-Normen quadratischer Matrizen A ∈ Cn×n mindestens so groß wie der betragsm¨aßig gr¨oßte Eigenwert s der Matrix A. Ist d = 0 ein Eigenvektor zu s, dann folgt aus  p = Ad  p ≤ Ap d  p  p = sd |s|d direkt Ap ≥ |s|. Der betragsm¨aßig gr¨oßte Eigenwert heißt der Spektralradius der Matrix A. Er kann mit dem Satz von Gerschgorin (Seite 626) abgesch¨atzt werden. Von besonderer Bedeutung sind die Normen zu p = 1, p = 2 und p = ∞. ange des Vektors und wird daDie  · 2 -Vektornorm misst die Euklid’sche L¨

Kapitel 23. Normierte Vektorr¨ aume: Lineare Algebra trifft Analysis ∗

654

her oft verwendet, z. B. in Band 2, Teil I, als Betrag. Die dar¨ uber definierte Matrix-Norm A2 einer m × n-Matrix A heißt Spektralnorm von A, denn sie kann, bei reellwertigem A, als Wurzel des Spektralradius der quadratischen symmetrischen Matrix A A ∈ Rn×n berechnet werden. Diese Matrix hat nur reelle nicht-negative Eigenwerte, so dass der Spektralradius gleich dem gr¨oßten Eigenwert von A A ist. Diese Darstellung der Matrix-2-Norm wird im Beispiel 2.4 auf Seite 41 des zweiten Bands mittels mehrdimensionaler Extremwertrechnung hergeleitet. F¨ ur Matrizen mit komplexen Eintr¨ agen muss A durch die Adjungierte A∗ ersetzt werden, dann ist A2 die Wurzel des gr¨oßten Eigenwertbetrags von A∗ A. Lemma 23.4 (Matrix-Normen zu p = 1 und p = ∞) F¨ ur eine Matrix A ∈ Rm×n oder Cm×n ist m 

A1 = max

1≤i≤n

k=1

|ak,i |,

A∞ = max

1≤i≤m

n 

k=1

|ai,k |.

Bei der Matrix-1-Norm wird das Maximum u ¨ber die absoluten Spaltensummen (Spaltensummennorm) der Matrix gebildet, bei der Matrix-∞-Norm wird dagegen das Maximum u ¨ber die absoluten Zeilensummen (Zeilensummennorm) berechnet. Beweis a) Wir bestimmen A1 : Dazu verwenden wir die Standard-Einheitsvektoren ei ∈ Rn ⊂ Cn , die als i-ten Eintrag eine 1 und sonst nur Null-Eintr¨age besitzen. Dann ist ei 1 = 1 und A1 ≥ Aei 1 =

m  k=1

|ak,i |

m ur die f¨ ur jedes 1 ≤ i ≤ n, so dass A1 ≥ max1≤i≤n k=1 |ak,i | folgt. F¨ umgekehrte Absch¨atzung sei y ∈ Rn bzw. Cn ein beliebiger Vektor:  n  m  n m  m  n        Ay 1 = ak,i yi  ≤ |ak,i | · |yi | = |ak,i | · |yi |    i=1 k=1 k=1 i=1 k=1 i=1     n n m m     max |ak,i | · |yi | = max |ak,i | · |yi | ≤ i=1



=

1≤i≤n

max

1≤i≤n

m  k=1

k=1



1≤i≤n

k=1

i=1

|ak,i | y 1 .

m Damit folgt aber A1 ≤ max1≤i≤n k=1 |ak,i |, und zusammen haben wir die Darstellung der Matrix-1-Norm bewiesen.

655

23.4. Stetige Abbildungen zwischen normierten Vektorr¨ aumen

b) Wir bestimmen A∞ : Sind in der i-ten age gleich n Zeile von A alle Eintr¨ null, so gilt offensichtlich A∞ ≥ k=1 |ai,k | = 0. Anderenfalls sei bei einer reellen Matrix A yi := (sign(ai,1 ), sign(ai,2 ), . . . , sign(ai,n )) . In Verallgemeinerung dieser Definition setzen wir bei einer komplexen Matrix A yi := (e−jϕi,1 , e−jϕi,2 , . . . , e−jϕi,n ) , wobei ϕi,k der Winkel der komplexen Zahl ai,k in Polarform ist. Damit ist ur reelles ai,k , ai,k e−jϕi,k = |ai,k |ejϕi,k e−jϕi,k = |ai,k |. Insbesondere gilt f¨ dass sign(ai,k ) = e−jϕi,k . Damit ist yi ∞ = 1, und es gilt ebenfalls   n n    Ayi ∞   = Ayi ∞ ≥  ai,k e−jϕi,k  = |ai,k |. A∞ ≥   yi ∞ k=1

k=1

So k¨onnen  wir f¨ ur jedes 1 ≤ i ≤ m absch¨ atzen und erhalten A∞ ≥ n ur die umgekehrte Absch¨ atzung benutzen wir die max1≤i≤m k=1 |ai,k |. F¨ Definition der Operatornorm in der Variante (23.8). Sei dazu y ein belieage des Vektors biger Vektor mit y ∞ = 1. Insbesondere sind alle Eintr¨ betragsm¨aßig h¨ochstens eins. Der Betrag des i-ten Eintrags des Vektors Ay l¨asst sich damit so absch¨atzen:   n n n n        ai,k yk  ≤ |ai,k | · |yk | ≤ |ai,k | · y ∞ = |ai,k |,    k=1

k=1

k=1

so dass auch A∞ ≤ max

1≤i≤m

n  k=1

k=1

|ai,k |

gilt.



23.4.3 Kondition, Stabilit¨at und Konsistenz Matrix-Normen werden in der numerischen Mathematik z. B. benutzt, um auszudr¨ ucken, wie genau die L¨osung eines (eindeutig l¨ osbaren) linearen Gleichungssystems oder eines anderen Problems berechnet werden kann. Gegeben sei beispielsweise ein lineares Gleichungssystem Ax = b, A ∈ Rn×n mit det A = 0 und b ∈ Rn . Der exakte Algorithmus (die Abbildung) f berechnet x = f (b) := A−1b. Bei der numerischen L¨ osung des Problems mit dem Computer werden die gegebenen Daten aber nicht nur mit endlich vielen Bits gespeichert und damit gerundet, sondern in praktischen Anwendungen kom-

Kapitel 23. Normierte Vektorr¨ aume: Lineare Algebra trifft Analysis ∗

656

men auch noch Messfehler hinzu. Also hat man es beispielsweise mit einem ˜ Vektor b statt b zu tun. Außerdem werden Probleme oft nur n¨ aherungsweise und unter Verwendung der Computer-Arithmetik mit einer Abbildung f˜ ˜ := f˜(˜b) statt f (b). Diesen und nicht exakt mit f gel¨ost. Damit erh¨alt man x Fehler kann man u. a. auf die folgenden beiden Weisen absch¨ atzen: ˜ ˜ f˜(b) − f (b)p = f˜(b) − f˜(b) + f˜(b) − f (b)p ˜ ≤ f˜(b) − f˜(b)p + f˜(b) − f (b)p ,     Konsistenz

Stabilit¨ at

˜ ˜ ˜ ˜ f˜(b) − f (b)p = f˜(b) − f (b) + f (b) − f (b)p ˜ ˜ ˜ ≤ f˜(b) − f (b)p + f (b) − f (b)p .     Konsistenz

Kondition

Die Konsistenz ist der Fehler, den der Algorithmus bei exakter Eingabe macht. Die Stabilit¨ at ist gleichbedeutend mit der Stetigkeit des Algorith˜ ˜ mus f˜: Die Abweichung f˜(b) − f˜(b)p soll klein sein, wenn b − bp klein genug ist. Mittels der Konsistenz k¨onnen wir die Stabilit¨ at auf die Kondition zur¨ uckf¨ uhren: ˜ ˜ ˜ ˜ f˜(b) − f˜(b)p ≤ f˜(b) − f (b)p + f (b) − f (b)p + f (b) − f˜(b)p .         Stabilit¨ at

Konsistenz

Kondition

Konsistenz

Die Kondition entspricht der Stetigkeit und damit der Gutm¨ utigkeit der exakten Berechnungsabbildung f und ist eine Eigenschaft des gegebenen Problems, nicht aber des L¨osungsalgorithmus. Wie die vorangehende Absch¨ atzung zeigt, beeinflusst sie aber die Stabilit¨at eines L¨ osungsalgorithmus. Das gew¨ unschte stetige Verhalten des gegebenen Problems k¨ onnen wir so f¨ ur das Gleichungssystem etwas genauer beschreiben und quantisieren: ˜ ˜ ˜ ˜ f (b) − f (b)p = A−1b − A−1bp = A−1 (b − b)p ≤ A−1 p b − bp . Die nur durch das Gleichungssystem vorgegebene Konstante A−1 p wird auch als absolute Kondition des Gleichungssystems (hinsichtlich der Norm) ¨ bezeichnet. Ublicher ist aber die Verwendung der relativen Kondition, bei der die Gr¨oßen der Inhomogenit¨at und der L¨osung x = f (b) = 0 ber¨ ucksichtigt werden. Unter Verwendung von bp = Axp ≤ Ap xp ⇐⇒ ergibt sich

1 Ap ≤ xp bp

23.4. Stetige Abbildungen zwischen normierten Vektorr¨ aumen

657

˜ ˜ A−1b − A−1bp x − f (b)p 1 ˜ = ≤ A−1 p b − bp xp xp xp ˜ b − bp ≤ Ap A−1 p . bp Die Zahl Ap A−1 p heißt (hinsichtlich der Norm) die Kondition der Maoßten trix A. W¨ahlen wir p = 2, so ist A2 gleich der Wurzel aus dem gr¨ Eigenwert smax von A A (und A A hat nur reelle, nicht-negative Eigenoßten werte), siehe Seite 654. Entsprechend ist A−1 2 die Wurzel des gr¨ Eigenwerts von (A−1 ) A−1 . Wegen Satz 6.5 auf Seite 197 ist (A−1 ) A−1 = (A )−1 A−1 = (AA )−1 . Falls nun zus¨atzlich AA = A A gilt (z. B. falls A symmetrisch ist), so sind nach Satz 22.1 a) und c) auf Seite 622 die Eigenwerte von (A−1 ) A−1 gleich den Kehrwerten der Eigenwerte von A A. Damit ist A−1 2 gleich der Wurzel aus dem Kehrwert des kleinsten Eigenwerts smin > 0 von A A, # smax A2 A−1 2 = . smin Generell wird der Begriff Kondition in der Numerik f¨ ur ein Problem mit Eingabe und daraus berechneter Ausgabe so verwendet: Kondition :=

¨ relative Anderung der Ausgabe . ¨ relative Anderung der Eingabe

Die Kondition eines Problems l¨asst sich durch Vorkonditionierung beeinflussen. So kann beispielsweise ein Gleichungssystem Ax = b durch Multiplikation mit einer invertierbaren Matrix C in ein neues Gleichungssystem CAx = Cb u uhrt werden. Betrachten wir auf der rechten Seite beliebige Eingabe¨berf¨ vektoren c, so berechnet sich die Kondition des Systems CAx = c u ¨ber die Matrix CA, die hoffentlich eine bessere (gleich kleinere) Kondition als A hat. Eine Strategie besteht darin, C mit geringem Aufwand so zu bestimmen, dass sich die Matrix ¨ahnlich wie A−1“ verh¨alt. Bei der Jacobi-Vorkonditionierung ” w¨ahlt man z. B. C als Diagonalmatrix, deren Diagonalelemente genau die Kehrwerte der Diagonalelemente von A sind. Eine zweite Technik zur Vorkonditionierung eines Gleichungssystems Ax = b basiert auf der Substitution des Variablenvektors durch x = Cy mit einer ebenfalls invertierbaren Matrix C. Dann wird das Gleichungssystem ACy = b mit der neuen Matrix AC gel¨ost, so dass man im Nachgang aus der L¨ osung y auch x erh¨alt.

Kapitel 23. Normierte Vektorr¨ aume: Lineare Algebra trifft Analysis ∗

658

Einige Algorithmen setzen symmetrische Matrizen voraus (wie das Verfahren der konjugierten Gradienten, vgl. Band 2, S. 44). Dann ist es bei der Vorkonditionierung hilfreich, wenn man beide Vorkonditionierungsans¨ atze kombiniert und neben der Substitution x = Cy die gesamte Gleichung mit C multipliziert. Nun ist C ACy = C b zu l¨osen. So erh¨alt man zu einer symmetrischen Matrix A auch eine symmetrische Matrix C AC = (C AC) .

23.4.4 Fixpunktverfahren f¨ur lineare Gleichungssysteme Unter Verwendung einer Matrix-Norm k¨onnen wir uns nun die Konvergenz des Jacobi- und des Gauß-Seidel-Verfahrens zur iterativen L¨ osung von Gleichungssystemen noch einmal genauer ansehen. Sie berechnen die L¨ osung x ∈ Cn des Gleichungssystems Ax = b u ¨ber die Fixpunktiteration x(k+1) = S(x(k) ) := B · x(k) + c, siehe (6.12) auf Seite 206. Wenn wir zeigen k¨ onnen, dass S : (Cn ,  · p ) → n (C ,  · p ) eine Kontraktion ist, dann folgt die Konvergenz der Verfahren mit dem Banach’schen Fixpunktsatz (Satz 23.1). Wegen S(x) − S(y )p = B(x − y )p ≤ Bp x − y p liegt Konvergenz vor, falls Bp < 1 ist. Das erkennt man auch an der Fehlerdarstellung (6.14) auf Seite 206, die zur folgenden Fehlerabsch¨ atzung f¨ uhrt: x(k+1) − xp

= (23.10)



B(k+1) (x(0) − x)p ≤ B(k+1) p · x(0) − xp Bk+1 · x(0) − xp . p

Da man aber den Fixpunkt x zun¨achst nicht kennt, ist die rechte Seite dieser Absch¨atzung in der Praxis nicht brauchbar. Hier ist die A-priori-Absch¨ atzung (23.7) besser geeignet: x(k+1) − xp ≤

Bkp · x(2) − x(1) p . 1 − Bp

Man ben¨otigt also die tats¨achliche Gr¨oße der Matrix-Norm. Wir betrachten dazu die etwas einfachere Matrix B = −D−1 (L + U) des Jacobi-Verfahrens mit ihren Eintr¨agen (siehe Seite 206, ai,i = 0)

bi,k =

a

, − ai,k i,i 0,

i = k, i = k.

659

23.4. Stetige Abbildungen zwischen normierten Vektorr¨ aumen

Um zu einer besonders einfachen Bedingung an B zu gelangen, verwenden wir die Maximum-Norm p = ∞. Man beachte, dass aus einer Konvergenz der Folge (x(k) )∞ k=1 in der p = ∞-Norm automatisch auch die Konvergenz in jeder anderen Norm auf dem endlich-dimensionalen Vektorraum Cn folgt (vgl. Lemma 23.1). Wegen Lemma 23.4 ist B∞ = max

1≤i≤n

n  k=1

1 1≤i≤n |ai,i |

|bi,k | = max

n  k=1,k =i

|ai,k |.

B∞ ist kleiner als eins, falls die quadratische Matrix A streng diagonaldominant ist, d. h., wenn f¨ ur alle i ∈ {1, . . . , n} gilt: |ai,i | >

n  k=1,k =i

|ai,k |.

Streng diagonaldominante Matrizen sind invertierbar nach Satz 22.1a) (Seite 622), denn aufgrund des Kreissatzes von Gerschgorin (Satz 22.4 auf Seite 626) besitzen sie keinen Eigenwert null. Wir wissen, dass der Betrag jedes Eigenwerts von B kleiner B∞ ist (Seite 653). Ist A streng diagonaldominant, dann ist B∞ < 1, und der Spektralradius der Matrix B ist kleiner Eins. Das folgt u ¨brigens auch direkt mit dem Kreissatz aus der strengen Diagonaldominanz. Mit etwas mehr Aufwand als beim Jakobi-Verfahren l¨ asst sich auch f¨ ur das Gauß-Seidel-Verfahren zeigen, dass es z. B. f¨ ur strikt diagonaldominante Matrizen A konvergiert, vgl. [Meister(2015), S. 82]. Neben dem Jacobi- und Gauß-Seidel-Verfahren kann man leicht weitere Fixpunktiterationen zum L¨osen eines Gleichungssystems Ax = b aufstellen. Dazu ben¨otigt man eine invertierbare Matrix C ∈ Rn×n . Mit der Einheitsmatrix E ∈ Rn×n ist 0 = −Ax + b ⇐⇒ Cx = Cx − Ax + b ⇐⇒ x = (E − C−1 A)x + C−1b. Aus dieser Fixpunktgleichung erhalten wir die Iterationsvorschrift x(k+1) = (E − C−1 A)x(k) + C−1b. Konvergenz liegt vor, falls eine Matrix-Norm von E − C−1 A kleiner eins ist. F¨ ur die spezielle Wahl C = E ergibt sich das Richardson-Verfahren x(k+1) = (E − A)x(k) + b. Jacobi- bzw. Gauß-Seidel-Verfahren entstehen aus dem Richardson-Verfahren durch Vorkonditionierung (siehe Seite 657), indem beide Seiten des Gleichungssystems mit den Matrizen D−1 bzw. (D+L)−1 (in den Bezeichnungen von Seite 206) multipliziert werden.

660

Kapitel 23. Normierte Vektorr¨ aume: Lineare Algebra trifft Analysis ∗

23.5 Einige zentrale S¨atze der Funktionalanalysis Wir beginnen mit einem Satz von Stefan Banach und Hugo Steinhaus bzw. Hans Hahn u ¨ber Operatornormen, der im englischsprachigen Raum als uni” form boundedness principle“ bekannt ist: Satz 23.2 (Prinzip gleichgradiger Beschr¨ anktheit) Sei X ein Banach-Raum (der nicht nur aus 0 besteht) und Y ein normierter Vektorraum. Weiter sei L eine Menge beschr¨ankter (d. h. stetiger) linearer Abbildungen von X nach Y . Falls f¨ ur jeden einzelnen Vektor x ∈ X die Zahlenmenge ankt ist (punktweise der Normen der Bilder {L(x)Y : L ∈ L} beschr¨ Beschr¨anktheit), dann ist auch die Menge der Operatornormen {L[X,Y ] : L ∈ L} beschr¨ankt. Man hat also zun¨achst nur f¨ ur jedes einzelne x ∈ X eine Schranke. Daraus wird dann eine gemeinsame Schranke f¨ ur alle Operatornormen kondensiert. Der Satz eignet sich sehr gut zur Konstruktion von Gegenbeispielen, wenn man ihn indirekt (r¨ uckw¨arts) anwendet: Weiß man, dass die Normen einer Menge von Operatoren nicht beschr¨ankt sind, dann muss es ein Gegenbeispiel ankt ist. So wird x ∈ X geben, f¨ ur das {L(x)Y : L ∈ L} nicht beschr¨ im Rahmen von Hintergrundinformationen auf Seite 312 des zweiten Bands gezeigt, dass nicht jede stetige periodische Funktion als Fourier-Reihe (Reihe von Sinus- und Kosinus-Funktionen) geschrieben werden kann. Hintergrund: Beweis des Prinzips gleichgradiger Beschr¨ anktheit Es gibt einen nicht-konstruktiven Beweis mit dem Baire’schen Kategoriensatz, siehe z. B. [Heuser(2006), S. 246 f.]. Dabei wird nur die Existenz eines Gegenbeispiels x bei nicht beschr¨ankten Operatornormen bewiesen, das Beispiel x wird aber nicht angegeben. Neben diesem nicht-konstruktiven Beweis gibt es aber auch eine konstruktive Variante, bei der das Gegenbeispiel x mit dem Prinzip des gleitenden H¨ockers u ¨ber eine Reihe konstruiert wird. Beim Beweis u unglich von Banach und ¨ber einen gleitenden H¨ocker, wie er urspr¨ Hahn gef¨ uhrt wurde, nimmt man an, dass die Operatornormen unbeschr¨ ankt sind, dass es also eine Folge (Ln )∞ n=1 von Elementen aus L gibt, deren Operatornormen gegen unendlich Aus dieser Folge konstruiert man ein streben. ∞ ur das (Ln (x))∞ ankt Gegenbeispiel als Reihe x = k=1 xnk ∈ X, f¨ n=1 unbeschr¨ ∞ ist. Dabei w¨ahlt man eine Teilfolge (Lnk )k=1 und Vektoren xnk so aus, dass ur k → ∞ gegen unendlich strebt und Lnk , angewendet auf die anLnk (xnk ) f¨ deren Summanden xni , i = k, keinen signifikanten Beitrag liefert. In diesem ahrend Sinne ist f¨ ur Lnk der Summand xnk der H¨ocker; hier passiert etwas, w¨ utig verhalten. sich die anderen Summanden f¨ ur Lnk gutm¨

661

23.5. Einige zentrale S¨ atze der Funktionalanalysis

In [Sokal(2011)] finden Sie einen vereinfachten konstruktiven Beweis, bei dem eine Cauchy-Folge aufgebaut wird, die gegen das Gegenbeispiel konvergiert. Dabei dient quasi der gesamte Reihenbeginn als H¨ ocker, wenn man die Cauchy-Folge als Reihe auffasst. Dieser elementare Beweis wird hier in etwas modifizierter Form wiedergegeben. Wir beginnen mit einer Hilfsaussage: Lemma 23.5 (Absch¨ atzung der Operatornorm) Sei L : X → Y eine beschr¨ankte lineare Abbildung vom normierten Vektorraum X = {0} in den normierten Vektorraum Y . F¨ ur jedes x ∈ X und jedes R > 0 gilt: sup

u∈X:

uX =R

L(x + u)Y ≥ R · L[X,Y ] .

(23.11)

Beweis Sei v ∈ X mit v X = R. Dann ist auch  − v X = R, und es gilt unter Verwendung der Dreiecksungleichung der Norm: sup

u∈X:

uX =R

L(x + u)Y ≥ max{L(x + v )Y , L(x − v )Y }

1 1 [L(x + v )Y + L(x − v )Y ] ≥ [L(x + v ) − L(x − v )Y ] 2 2 1 (23.12) = [L(x + v − x + v )Y ] = L(v )Y . 2 ≥

¨ Nun liefert der Ubergang zum Supremum u ¨ber alle v ∈ X mit v X = R die Aussage (23.11), da zu 0 = u ∈ X der Vektor v = R  u uX die Norm R hat: L[X,Y ] = sup

0 =

u∈X

sup u∈X:

uX =R

1 L(u)Y L(v )Y sup L(v )Y , = sup = uX  v  R X 

v X =R 

v X =R

L(x + u)Y

(23.13)

(23.12)



sup L(v )Y



v X =R

(23.13)

=

R · L[X,Y ] . 

Damit zeigen wir das Prinzip gleichgradiger Beschr¨ anktheit mittels Widerspruch. Beweis Falls die Menge der Operatornormen unbeschr¨ ankt ist, dann k¨ onnen wir eine Folge von Abbildungen w¨ahlen mit Ln [X,Y ] ≥ 4n .

(23.14)

Darauf wenden wir das Lemma iterativ beginnend mit x0 := 0 an, indem wir ahlen, dass zu einem xn einen n¨achsten Vektor xn+1 := un + xn so w¨

Kapitel 23. Normierte Vektorr¨ aume: Lineare Algebra trifft Analysis ∗

662

un X = 3−n =: Rn und wir mindestens

3 4

(23.15)

des Supremums in (23.11) erhalten:

Ln+1 (xn+1 )Y = Ln+1 (xn + un )Y ≥ =

3 Rn Ln+1 [X,Y ] 4

3 −n 3 Ln+1 [X,Y ] . 4

(23.16)

Die so konstruierte Folge ist eine Cauchy-Folge, da f¨ ur n > m unter Verwendung der geometrischen Summe (3.2) von Seite 69 gilt: D n−1 D n−1 D D  D D uk D ≤ uk X xn − xm X = D D D k=m

(23.15)

=

n−1 

k=m

X

∞ 

3−k
0 ein n0 ∈ N w¨ n > m > n0 gilt: xn − xm X < ε. Da X ein Banach-Raum ist, konvergiert die Cauchy-Folge in X gegen einen Grenzwert x = x0 + lim

l→∞

l 

uk = x0 +

k=0

∞ 

uk =

k=0

∞  k=0

uk = xn +

∞ 

uk .

k=n

F¨ ur das Gegenbeispiel x ist die punktweise Beschr¨ anktheit verletzt: D ' D ' (D (D ∞ ∞ D D D D   D D D D uk D ≥ Ln (xn )Y − DLn uk D Ln (x)Y = DLn xn + D D D   D k=n k=n Y Y H¨ ocker   kleiner Rest D ' (D m D D  (23.6) D D = Ln (xn )Y − lim DLn uk D m→∞ D D k=n D Y D m m D D  D D = Ln (xn )Y − lim D Ln (uk )D ≥ Ln (xn )Y − lim Ln (uk )Y m→∞ D m→∞ D k=n

(23.16) 3



4

3−n+1 Ln [X,Y ] − 

(23.15)

= Ln [X,Y ] = Ln [X,Y ]



∞ 

Ln [X,Y ] uk X

k=n ∞ 

3 −n+1 3 − 4

k=n

Y



−k

3

k=n

3 −n+1 3 3 3 − + 4 2 2



1 1− n 3



663

23.5. Einige zentrale S¨ atze der Funktionalanalysis

 = Ln [X,Y ]

3 −n+1 3 −n 3 − 3 4 2

3 = Ln [X,Y ] 3−n 4

(23.14)





3 4n 3−n = 4

n−1 4 → ∞, 3

n → ∞,

im Widerspruch zur Voraussetzung der punktweisen Beschr¨ anktheit.



Das Prinzip der gleichgradigen Beschr¨anktheit hilft aber nicht nur bei solch negativen Aussagen. Es gibt beispielsweise in der digitalen Signalverarbeitung bzw. Regelungstechnik unterschiedlich erscheinende Stabilit¨ atsbegriffe, die aber so unterschiedlich gar nicht sind, wie wir mit Satz 23.2 zeigen. Ein lineares zeitinvariantes Abtastsystem u uhrt eine Eingangsfolge ¨berf¨ ∞ in eine Ausgangsfolge (y ) als L¨ o sung einer sogenannten Diffe(xk )∞ k k=0 k=0 renzengleichung yk + an−1 yk−1 + · · · + a0 yk−n = bn xk + bn−1 xk−1 + · · · + b0 xk−n , (23.17) ur k < 0. Tats¨achlich sieht man in dieser Gleichung keine wobei xk = yk := 0 f¨ Differenzen. Wenn man aber Ableitungen durch Differenzen ann¨ ahert, dann bekommt man Linearkombinationen von Abtastwerten, wie sie auf beiden Seiten der Gleichung mit den allgemeinen Koeffizienten angegeben sind. Man beachte, dass die Differenzengleichung f¨ ur jede Eingangsfolge (xk )∞ k=0 eine eindeutige L¨osung hat, die sukzessive beginnend mit y0 berechnet werden kann (n ≥ 2): y0 = bn x0 , y1 = −an−1 y0 + bn x1 + bn−1 x0 , y2 = −an−1 y1 − an−2 y0 + bn x2 + bn−1 x1 + bn−2 x0 , . . . ¨ Uber die eindeutige L¨osung der Differenzengleichung wird eine lineare Abbildung L definiert, die einer Eingangsfolge die Ausgangsfolge zuordnet: ∞ L((xk )∞ k=0 ) = (yk )k=0 . Die Abbildung ist auf dem Vektorraum der (reellen) Folgen definiert, und sie bildet in den gleichen Vektorraum ab. Tats¨ achlich ist L eine lineare Abbildung, da jede Linearkombination von Folgen auf die Linearkombination ihrer Bilder abgebildet wird. Das passt zur Bezeichnung lineare zeitinvariante Systeme. Das Attribut zeitinvariant r¨ uhrt daher, dass eine (nach rechts) verschobene Eingangsfolge zu einer entsprechend verschobenen Ausgangsfolge f¨ uhrt. In der Regelungstechnik werden die Ausgangsfolgen h¨ aufig mit der ZTransformation berechnet, siehe Beispiel 10.11 auf Seite 287. Arbeitet man nicht mit den Differenzen diskreter Abtastwerte, sondern mit kontinuierlichen ¨ Signalen, so spricht man von linearen zeitinvarianten Ubertragungssystemen, die h¨aufig mittels Laplace-Transformation berechnet werden, siehe Band 2, Kapitel 13.3.

664

Kapitel 23. Normierte Vektorr¨ aume: Lineare Algebra trifft Analysis ∗

Ein lineares Abtastsystem heißt BIBO-stabil ( bounded input – bounded ” output“) genau dann, wenn zu jeder beschr¨ ankten Eingangsfolge (xk )∞ k=0 ∞ auch die zugeh¨orige Ausgangsfolge (yk )∞ ankt ist. k=0 := L((xk )k=0 ) beschr¨ Wir zeigen mit dem Prinzip gleichgradiger Beschr¨ anktheit, dass die BIBOStabilit¨at gleichbedeutend ist mit der Stetigkeit bzw. Beschr¨ anktheit der linearen Abbildung L : l∞ → l∞ : Satz 23.3 (BIBO-Stabilit¨ at und Stetigkeit bei Abtastsystemen) Ein lineares zeitinvariantes Abtastsystem ist genau dann BIBO-stabil, wenn es eine von den Eingangsfolgen unabh¨angige Konstante C gibt, so dass f¨ ur und der zugeh¨ o rijedes Paar aus einer beschr¨ankten Eingangsfolge (xk )∞ k=0 ∞ gen Ausgangsfolge (yk )∞ k=0 = L((xk )k=0 ) gilt: ∞ (yk )∞ k=0 ∞ := sup |yk | ≤ C(xk )k=0 ∞ := C sup |xk |, k∈N0

(23.18)

k∈N0

d. h., L ist beschr¨ankt mit L[l∞ ,l∞ ] ≤ C. Beweis Falls eine Konstante C wie im Satz angegeben existiert, dann folgt sofort die Definition der BIBO-Stabilit¨at. Die umgekehrte Richtung ist wesentlich schwieriger. Ihr Beweis ist eine Konsequenz aus dem Prinzip gleichgradiger Beschr¨anktheit. Wir betrachten dazu eine Folge linearer Funktioankten Folgen l∞ nale Lm : l∞ → R auf dem Banach-Raum der beschr¨ mit Werten im Banach-Raum der reellen Zahlen, die u ¨ber Lm ((xk )∞ k=0 ) := ∞ L((xk )k=0 )m = ym definiert ist. Lm liefert also das m-te Folgenglied der Ausgangsfolge. ankt (und Wir zeigen zun¨achst, dass jedes dieser Funktionale Lm beschr¨ damit stetig) ist. Zu zeigen ist also, dass es eine Konstante Cm gibt, so dass ∞ ∞ ur alle Folgen (xk )∞ |Lm ((xk )∞ k=0 )| ≤ Cm (xk )k=0 ∞ f¨ k=0 ∈ l .

Aufgrund der Differenzengleichung gilt: |Lm ((xk )∞ k=0 )| = |ym | = | − an−1 ym−1 − · · · − a0 ym−n + bn xm + bn−1 xm−1 + · · · + b0 xm−n | ≤ max{|y0 |, . . . , |ym−1 |}

n−1  k=0

|ak | +

(xk )∞ k=0 ∞

n 

k=0

|bk |.

Wir sch¨atzen nun den gr¨oßten Wert von |y0 |, . . . , |ym−1 | entsprechend ab und fahren iterativ fort, bis der gr¨oßte Wert |y0 | = |bn ||x0 | ≤ |bn |(xk )∞ k=0 ∞ ist. Grob abgesch¨atzt ergibt sich

665

23.5. Einige zentrale S¨ atze der Funktionalanalysis

⎡ ⎣ |Lm ((xk )∞ k=0 )| ≤ =:

'n−1 m   i=0

k=0

(i ⎤  n   |ak | ⎦ |bk | (xk )∞ k=0 ∞ k=0

Cm (xk )∞ k=0 ∞ .

ankt und damit EleDie linearen Funktionale Lm sind also einzeln beschr¨ mente des Dualraums von l∞ . Wir wissen noch nichts u ¨ber das Verhalten otigen wir die der Folge der Konstanten Cm . Um hier weiterzukommen, ben¨ Voraussetzung der Stabilit¨at. ∞ Stabilit¨at bedeutet, dass f¨ ur jede Eingangsfolge (xk )∞ die zugeh¨ orik=0 ∈ l ∞ ∞ ankt ist. Dage Betragsfolge der Ausgangsfolge (|Ln ((xk )k=0 |))n=0 beschr¨ mit besagt das Prinzip der gleichgradigen Beschr¨ anktheit, dass die Menge {Ln [l∞ ,R] } der Operatornormen beschr¨ankt ist. Es gibt also eine von n und der Eingangsfolge unabh¨angige Schranke C ∈ R, so dass ∞ |yn | = |Ln ((xk )∞ k=0 )| ≤ C(xk )k=0 ∞ ∞ ist. Damit haben wir (yn )∞ n=0 ∞ ≤ C(xk )k=0 ∞ bewiesen.



Weitere positive Anwendungen des Prinzips gleichgradiger Beschr¨ anktheit eine Folge von linearen sind Konvergenzuntersuchungen. Sei dazu (Ln )∞ n=1 beschr¨ankten Abbildungen von einem Banach-Raum X in sich selbst, Ln : X → X. Falls f¨ ur jedes x ∈ X gilt: lim Ln (x) − xX = 0,

n→∞

(23.19)

so nennen wir die Folge einen Approximationsprozess auf X. Hier haben wir die Vorstellung, dass z. B. Ln (x) ein einfacheres Objekt als x ist, z. B. ein Polynom vom Grad n, wobei x eine stetige Funktion sein kann. Hat man so einen Approximationsprozess, dann sind die Operatornormen nach dem Prinzip der gleichgradigen Beschr¨anktheit gemeinsam beschr¨ ankt. Denn f¨ ur jedes einzelne x ∈ X konvergiert wegen (23.2) die Folge Ln (x)X gegen xX und ist damit beschr¨ankt. Hat man umgekehrt die Beschr¨ anktheit der Operatornormen, so kann man daraus unter Zusatzbedingungen auf (23.19) schließen. Ohne Zusatzbedingungen kann es nicht funktionieren, da z. B. Ln (x) := 0 keinen Approximationsprozess bilden. Als Zusatzeigenschaft gen¨ ugt es aber, wenn (23.19) nicht f¨ ur alle x, sondern nur f¨ ur alle x ∈ U f¨ ur einen Untervektorraum U ⊆ X gilt, der dicht in X ist. U ist dicht in X genau dann, wenn es zu jedem x ∈ X und jedem ε > 0 ein u ∈ U gibt, so dass x − uX < ε. Man kommt also mit Vektoren aus U beliebig nahe an jedes Element von X heran: Folgerung 23.1 (Satz von Banach-Steinhaus) Sei X = {0} ein ankten Abbildungen Banach-Raum. Eine Folge (Ln )∞ n=1 von linearen beschr¨ Ln : X → X ist genau dann ein Approximationsprozess, wenn

666

Kapitel 23. Normierte Vektorr¨ aume: Lineare Algebra trifft Analysis ∗

• die Folge der Operatornormen beschr¨ankt ist mit Ln [X,X] ≤ M f¨ ur alle n∈N • und es einen in X dichten Untervektorraum U gibt mit ur alle u ∈ U. lim Ln (u) − uX = 0 f¨

n→∞

Beweis Die schwierige Richtung, dass ein Approximationsprozess die beiden Bedingungen der Folgerung erf¨ ullt, haben wir bereits auf das Prinzip der gleichgradigen Beschr¨anktheit zur¨ uckgef¨ uhrt (Konvergenz f¨ ur alle u ∈ U ist trivial, wenn sie f¨ ur alle x ∈ X vorliegt). Jetzt m¨ ussen wir umgekehrt zeigen, dass die beiden Bedingungen zu einem Approximationsprozess f¨ uhren. Sei dazu x ∈ X und ε > 0. Dann gibt es ein u ∈ U und ein n0 ∈ N, so dass ε , 2[M + 1] ε ur alle n > n0 . < f¨ 2

x − uX < Ln (u) − uX

Zusammen erhalten wir f¨ ur n > n0 : Ln (x) − xX = Ln (x − u) − (x − u) + Ln (u) − uX ≤ [Ln [X,X] + 1]x − uX + Ln (u) − uX < [M + 1]

ε ε + = ε. 2[M + 1] 2

Da ε > 0 beliebig gew¨ahlt werden kann, ist die Konvergenz f¨ ur alle x ∈ X bewiesen.  Mit dem Satz von Banach-Steinhaus kann man z. B. zeigen, dass Fourierur 1 < p < ∞ konvergieren, vgl. Band 2, Kapitel Reihen in den Lp -R¨aumen f¨ 11.5. Stetige Abbildungen haben genau die Eigenschaft, dass die Urbilder offener Mengen ebenfalls offen sind (siehe Definition 11.9). Der folgende Satz k¨ ummert sich um die umgekehrte Richtung [Heuser(2006), S. 241 ff.]: Satz 23.4 (Satz von Banach-Schauder, Satz u ¨ ber die offene Abbildung) Seien X = {0} und Y Banach-R¨aume und L eine beschr¨ ankte (d. h. stetige) lineare Abbildung von X in Y . Falls L surjektiv ist (d. h., jedes Element von Y kommt als Bild vor), dann bildet L offene Mengen auf offene Mengen (hinsichtlich den von den Normen induzierten Topologien) ab.

Eine beschr¨ankte bijektive Abbildung L von einem Banach-Raum X auf einen Banach-Raum Y besitzt eine lineare Umkehrabbildung L−1 . Als direkte Konankt), da sequenz des Satzes von Banach-Schauder ist L−1 stetig (d. h. beschr¨ hinsichtlich L−1 die Urbilder offener Mengen wieder offen sind.

23.5. Einige zentrale S¨ atze der Funktionalanalysis

667

Der n¨achste Hauptsatz widmet sich der Fortsetzbarkeit beschr¨ ankter Funktionale: Satz 23.5 (Satz von Hahn-Banach) Sei X ein normierter Vektorraum und U ein Unterraum von X. Ist F : U ⊆ X → R ein lineares Funktional, so dass eine Konstante C ∈ [0, ∞[ existiert mit ur alle x ∈ U, |F (x)| ≤ CxX f¨ dann kann F von U auf ganz X unter Beibehaltung der Schranke fortgesetzt werden: Es gibt ein lineares Funktional F˜ : X → R mit F (x) = F˜ (x) f¨ ur alle x ∈ U, ˜ ur alle x ∈ X. |F (x)| ≤ CxX f¨ Im Beweis des Satzes werden aus der Definition der Norm nur die absolute Homogenit¨at und die Dreiecksungleichung verwendet. Daher findet man ihn auch in allgemeinerer Form, bei der die Normen durch schw¨ achere Halbnormen oder sublineare Funktionale ersetzt sind. Ein Beweis steht z. B. in [Heuser(2006), S. 228 f.]. In Hilbert-R¨aumen haben beschr¨ankte lineare Funktionale eine besonders einfache Darstellung, siehe z. B. [Heuser(2006), S. 319 f.]: Satz 23.6 (Riesz’scher Darstellungssatz) Sei H = {0} ein Hilbertanktes lineares FunkRaum mit dem Skalarprodukt (·, ·)H und F ein beschr¨ tional auf H. Dann gibt es genau ein Element f ∈ H, so dass ur alle x ∈ H. F (x) = (f, x)H f¨ Damit gilt außerdem F H ∗ = fH . Da umgekehrt durch einen Vektor f ∈ H ein beschr¨ anktes lineares Funktional ankte lineare F (x) := (f, x)H definiert wird, gibt es eine bijektive, beschr¨ Abbildung zwischen H und dem Dualraum H ∗ . In diesem Sinne entspricht der Hilbert-Raum seinem Dualraum. Der Darstellungssatz hat praktische Anwendungen, z. B. beim L¨ osen von Differenzialgleichungen mit der Finite-Elemente-Methode (siehe Band 2, Kaaumen. pitel 9.3). Dazu ben¨otigt man aber Ableitungen in Lp -R¨

Kapitel 23. Normierte Vektorr¨ aume: Lineare Algebra trifft Analysis ∗

668

23.6 Sobolev-R¨aume Um sinnvoll in den Lp -R¨aumen einen Ableitungsbegriff einzuf¨ uhren, verallgemeinern wir die klassische Definition der Ableitung mittels partieller Integration. Sei ϕ eine auf [a, b] beliebig oft differenzierbare Funktion (Testfunktion) ur alle k ∈ N0 , dann gilt f¨ ur eine n-mal stetig mit ϕ(k) (a) = ϕ(k) (b) = 0 f¨ differenzierbare Funktion f : 8

b

f (n) (x)ϕ(x) dx a

8

= [f (n−1) (x)ϕ(x)]ba −

= (−1)

b

f (n−1) (x)ϕ (x) dx = (−1)1 a

= −[f (n−2) (x)ϕ (x)]ba + 8

8

b

f (n−1) (x)ϕ (x) dx a

8

b

f (n−2) (x)ϕ(2) (x) dx a

b

2

f (n−2) (x)ϕ(2) (x) dx a

8

b

f (x)ϕ(n) (x) dx.

= · · · = (−1)n

a

Die rechte Seite macht auch dann Sinn, wenn f gar nicht differenzierbar ist. Diese wird jetzt genutzt, um eine schwache Ableitung zu definieren. In Band 2 verwenden wir in den Hintergrundinformationen auf Seite 377 den gleichen Trick, um Ableitungen f¨ ur verallgemeinerte Funktionen (Distributionen) einzuf¨ uhren. Definition 23.6 (Schwache Ableitung) Genau dann heißt eine Lebesgue-integrierbare Funktion f auf einem Intervall [a, b] schwach differenzierbar mit schwacher Ableitung g, wenn g Lebesgue-integrierbar ist und f¨ ur alle Testfunktionen ϕ, d. h. f¨ ur alle auf [a, b] beliebig oft differenur alle k ∈ N0 , gilt: zierbaren Funktionen ϕ mit ϕ(k) (a) = ϕ(k) (b) = 0 f¨ 8

8

b a

g(x)ϕ(x) dx = −

b

f (x)ϕ (x) dx. a

Entsprechend heißt g eine schwache n-te Ableitung von f auf [a, b] genau dann, wenn f¨ ur alle Testfunktionen ϕ gilt: 8

8

b

b

f (x)ϕ(n) (x) dx.

g(x)ϕ(x) dx = (−1)n a

a

Hat man zwei schwache n-te Ableitungen g und h einer Funktion f , dann gilt 9b laut Definition a [g(x) − h(x)]ϕ(x) dx = 0. Man kann sich u ¨berlegen, dass

669

Literaturverzeichnis

diese Gleichung nur dann f¨ ur alle Testfunktionen ϕ erf¨ ullt sein kann, falls g = h f. u ¨. Damit sind schwache Ableitungen in diesem Sinne eindeutig. Hinsichtlich der Notation unterscheidet man nicht zwischen den normalen“ und ” den schwachen Ableitungen. Existiert eine klassische Ableitung, dann stimmt diese mit der entsprechenden schwachen u ¨berein. Das haben wir eingangs mit der partiellen Integration nachgerechnet. Definition 23.7 (Sobolev-R¨ aume) Sei 1 ≤ p < ∞. Der Vektorraum der ur 1 ≤ k ≤ Funktionen f ∈ Lp [a, b], die k-te schwache Ableitungen f (k) f¨ n besitzen, die ebenfalls in Lp [a, b] enthalten sind, heißt Sobolev-Raum W n,p [a, b]. Er besitzt die Norm  f n,p :=

n  k=0

 p1 f (k) pp

.

Tats¨achlich sind die Sobolev-R¨aume vollst¨andige normierte Vektorr¨ aume, also Banach-R¨aume. In Band 2 behandeln wir Funktionen mit mehreren Variablen und greifen in diesem Zusammenhang die Definition der Lp - und Sobolev-R¨aume wieder auf.

Literaturverzeichnis Heuser(2006). Heuser, H.: Funktionalanalysis. Teubner, Wiesbaden, 2006. Meister(2015). Meister, A.: Numerik linearer Gleichungssysteme. Springer Spektrum, Wiesbaden, 2015. Sokal(2011). Sokal, A. D.: A really simple elementary proof of the uniform boundedness theorem. Am. Math. Mon. 118 (5), 2011, S. 450–452.

Kapitel 24

Aufgaben zu Teil III 24.1 Rechnen mit Vektoren im Anschauungsraum Aufgabe 24.1 Im Rechteck mit den Eckpunkten O = (0, 0), A = (2, 0), B = (2, 8) und C = (0, 8) sei P der Mittelpunkt der Strecke BC und Q der Mittelpunkt der Strecke AB. Wie lautet die Komponentendarstellung der −−→ −−→ −→ −−→ Vektoren OP , OQ, AC, QP ∈ R2 ? Aufgabe 24.2 Welche Werte kann a1 annehmen, wenn a = (a1 , 3, −2) den Betrag |a| = 4 besitzt? Aufgabe 24.3 Gegeben sind a = (1, −1, 1) , b = (2, 0, 1) und c = (1, 0, −1) . Berechnen Sie:

a) die Skalarprodukte a · b, b · c und a · c, b) die Vektorprodukte a × c, b × c und (a + b) × c, c) das Spatprodukt [a × c] · b.

Aufgabe 24.4 Die Summe von a mit einem Vielfachen des Vektors b soll senkrecht zum Vektor c stehen. Wie muss das Vielfache gew¨ ahlt werden? Berechnen Sie eine allgemeinen L¨osung, und wenden Sie das Ergebnis auf die konkreten Vektoren a = (1, 1, 1) , b = (0, 1, −1) und c = (−1, 3, 5) an. Aufgabe 24.5 Berechnen Sie alle Vektoren, die senkrecht zum Vektor a = (0, 1, 2) stehen. Ergänzende Information Die elektronische Version dieses Kapitels enthält Zusatzmaterial, auf das über folgenden Link zugegriffen werden kann https://doi.org/10.1007/978-3-662-68367-5_24.

© Der/die Autor(en), exklusiv lizenziert an Springer-Verlag GmbH, DE, ein Teil von Springer Nature 2023 S. Goebbels und S. Ritter, Mathematik verstehen und anwenden: Differenzial- und Integralrechnung, Lineare Algebra, https://doi.org/10.1007/978-3-662-68367-5_24

671

672

Kapitel 24. Aufgaben zu Teil III

Aufgabe 24.6 Ermitteln Sie die Projektion u und das Lot v von a = (1, 2, 3) auf b = (3, 2, 1) . Aufgabe 24.7 Bestimmen Sie die Hesse’sche Normalform der Gerade g : 8x + 15y + 34 = 0 in R2 . Aufgabe 24.8 Gegeben sei die Gerade g : 3x+4y+15 = 0 in R2 . Welche der Punkte P1 = (−5, 0), P2 = (−9, 3) und P3 = (1, 0) liegen auf g? Berechnen Sie den (k¨ urzesten) Abstand der u ¨brigen Punkte zur Gerade. auft eine Gerade Aufgabe 24.9 Durch P1 = (3, 2, 2) und P2 = (6, 3, 4) verl¨ g. Bestimmen Sie: a) eine Parameterdarstellung von g, b) die Koordinaten des Schnittpunkts von g mit der y-z-Ebene, c) die Koordinaten des Fußpunkts des Lots von P0 = (1, 1, 1) auf g, d) den Abstand d des Punkts P0 von g. Aufgabe 24.10 Beweisen Sie die folgenden Regeln f¨ ur das Vektorprodukt: a) a + b + c = 0 =⇒ a × b = b × c = c × a, b) a ⊥ b =⇒ a × (a × (a × (a × b))) = |a|4 b.

Aufgabe 24.11 Berechnen Sie den Schnittpunkt der drei Ebenen x+y −z = 1, x − 4y + z = −2, x + y + z = 3. Eine weitere Ebene soll durch diesen Schnittpunkt und parallel zur Ebene x + 2y + 3z = 0 verlaufen. Bestimmen Sie die Punkt-Richtungsform von E.

Aufgabe 24.12 Durch P1 = (0, 0, 1), P2 = (1, −1, 0) und P3 = (1, 1, 1) verl¨auft im R3 die Ebene E. a) Bestimmen Sie die Punkt-Richtungsform von E. b) Berechnen Sie eine (Koordinaten-) Gleichung von E. c) Ermitteln Sie die Hesse’sche Normalform von E. Aufgabe 24.13 Bestimmen Sie zu den Ebenen E1 : 4x+3y−9z = 6 und E2 : x+12y −6z = 9 die Punkt-Richtungsform der Schnittgerade g. Berechnen Sie außerdem den Winkel zwischen 0◦ und 90◦ zwischen den Normalenvektoren der beiden Ebenen, den wir als Winkel zwischen den beiden Ebenen auffassen.

24.2 Vektorr¨aume Aufgabe 24.14 Zeigen Sie, dass die folgenden Vektoren in (C3 , +; C, ·) linear abh¨angig sind: ⎛ ⎞ ⎛ ⎞ ⎛ ⎞ ⎛ ⎞ ⎛ ⎞ ⎛ ⎞ ⎛ ⎞ ⎛ ⎞ ⎛ ⎞ 1 1 1 1 0 1 0 0 1 a) ⎝ 0 ⎠ , ⎝ 0 ⎠ , ⎝ 1 ⎠ , b) ⎝ 0 ⎠ , ⎝ 1 ⎠ , ⎝ 1 ⎠ , ⎝ 1 ⎠ , c) ⎝ 0 ⎠ , ⎝ 1 ⎠. 0 0 1 1 0 0 1 0 1

673

24.2. Vektorr¨ aume

Aufgabe 24.15 Wir untersuchen die Menge L aller auf ]0, ∞[ definierten Logarithmenfunktionen einschließlich der Nullfunktion, d. h., f ∈ L genau dann, wenn ur alle x ∈]0, ∞[) , (f (x) = 0 f¨ ur alle x ∈]0, ∞[ oder f (x) = loga (x) f¨ wobei a > 0 und a = 1 ist. Zeigen Sie, dass L einen Unterraum des Vektorraums der auf ]0, ∞[ definierten reellen Funktionen bildet. Aufgabe 24.16 Untersuchen Sie die folgenden Vektoren auf lineare Unabh¨angigkeit im Vektorraum (R3 , +; R, ·) bzw. im Vektorraum der reellen Funktionen auf R, und berechnen Sie die lineare H¨ ulle, d. h. den von den Vektoren erzeugten Unterraum: a) a = (−1, 1, 1) , b = (1, −1, −1) . b) a = (1, 1, −1) , b = (−1, 0, 1) , c = (2, 1, −3) . c) f (x) = ex , g(x) = e−x . d) f (x) = ex , g(x) = e−x , h(x) = cosh(x). Aufgabe 24.17 In dieser Aufgabe besch¨aftigen wir uns mit Koordinatentransformationen. Dazu untersuchen wir, wie sich die Darstellung eines Vek¨ tors bez¨ uglich einer Basis beim Ubergang zu einer anderen Basis ¨ andert. Wir 3 , die wir A = { a , a2 , a3 } und beschr¨ a nken uns hier auf zwei Basen des R 1 @ ? B = b1 , b2 , b3 nennen. Ein beliebiger Vektor c ∈ R3 besitzt jeweils eine eindeutige Linearkombination bzgl. A und B: c = x1a1 + x2a2 + x3a3

bzw. c = y1b1 + y2b2 + y3b3 ,

wobei cA = (x1 , x2 , x3 ) und cB = (y1 , y2 , y3 ) die Koordinaten von c bez¨ uglich der jeweiligen Basis sind. a) Bestimmen Sie die Matrix MAB , die die Koordinaten (x1 , x2 , x3 ) von c uglich B bez¨ uglich der Basis A in die Koordinaten (y1 , y2 , y3 ) von c bez¨ transformiert. uglich der b) Bestimmen Sie die Matrix MBA , die die Koordinaten von c bez¨ Basis B in die Koordinaten von c bez¨ uglich A umrechnet. ur die konkreten Basisvektoren c) Wie lauten die Matrizen MAB und MBA f¨ a1 = (1, 0, 0) , a2 = (0, 1, 0) , a3 = (0, 0, 1) und b1 = (1, 0, 0) , b2 = ¨ uhren Sie die Koordinaten (1, 2, 3) (1, 0, 1) , b3 = (0, 1, 1) ? Uberf¨ A und uglich der Basis A in Koordinaten der Basis B. (0, 1, 2)A bez¨ Aufgabe 24.18 Zeigen Sie, dass a = (3, 4, 0) , b = (0, 0, 3) und c = (0, 1, 0) im R3 linear unabh¨angig sind. Berechnen Sie eine Orthonormalbasis (Gram-Schmidt’sches Verfahren).

674

Kapitel 24. Aufgaben zu Teil III

24.3 Matrizen und lineare Abbildungen Aufgabe 24.19 Bestimmen Sie den Rang der Matrizen und des Nullraums: ⎡ ⎡ ⎤ ⎡ ⎤ 1 0 1 4 9 5 2 1 0 4 ⎢0 1 0 A = ⎣1 5 3⎦, B = ⎣3 1 0 2⎦, C = ⎢ ⎣2 0 1 0 1 0 3 0 6 5 0 2 0

die Dimension 0 1 0 1

1 0 1 0

⎤ 0 1⎥ ⎥. 0⎦ 1

Aufgabe 24.20 Es sei L : R3 → R3 die lineare Abbildung mit L(e1 ) := −2e2 ,

L(e2 ) := 3e1 + e3 ,

L(e3 ) := 0,

wobei e1 , e2 und e3 die Standard-Einheitsvektoren sind. a) Geben Sie die Abbildungsmatrix A von L an, und berechnen Sie das Bild des Vektors (1, 2, 3) . b) Bestimmen Sie Kern(L) und Bild(L), und verifizieren Sie den Dimensionssatz. Aufgabe 24.21 Bestimmen Sie trizen  1 a) A = 3

alle Eigenwerte und Eigenvektoren der Ma   1 −3 1 , b) A = . 3 1 −3

Aufgabe 24.22 a) Bestimmen Sie die Eigenwerte und jeweils einen zugeh¨ origen Eigenvektor f¨ ur die Matrix A. Bilden die normierten Eigenvektoren ein Orthonormalsystem? ⎡ ⎤ −1 −2 0 1 −2 ⎦ . A := ⎣ −2 0 −2 −1 b) Zeigen Sie, dass 1 Eigenwert von  A := mit a + c = 1 und b + d = 1 ist.

a c

b d



Kleine Formelsammlung Logik Kommutativgesetze: A ∧ B = B ∧ A, A ∨ B = B ∨ A Assoziativgesetze: (A∧B)∧C = A∧(B ∧C), (A∨B)∨C = A∨(B ∨C) Distributivgesetze: A ∧ (B ∨ C) = (A ∧ B) ∨ (A ∧ C), A ∨ (B ∧ C) = (A ∨ B) ∧ (A ∨ C) De Morgan’sche Regeln: ¬(A ∧ B) = (¬A) ∨ (¬B), ¬(A ∨ B) = (¬A) ∧ (¬B)

Mengenlehre Kommutativgesetze: A ∩ B = B ∩ A, A ∪ B = B ∪ A Assoziativgesetze: (A∩B)∩C = A∩(B ∩C), (A∪B)∪C = A∪(B ∪C) Distributivgesetze: A ∩ (B ∪ C) = (A ∩ B) ∪ (A ∩ C), A ∪ (B ∩ C) = (A ∪ B) ∩ (A ∪ C) De Morgan’sche Regeln: CG (A ∩ B) = (CG A) ∪ (CG B), CG (A ∪ B) = (CG A) ∩ (CG B)

Potenzrechnung Ganzzahliger Exponent: xn = x · · · · · x , x−n :=  · x 

1 xn ,

n mal

x = 0, n ∈ N

Produkt von Potenzen: xα+β = xα xβ , [xα ]β = xαβ , x−α =

1 xα

Binomialkoeffizienten und Summenformeln n Fakult¨ at: n! := 1 · 2 · 3 · · · n = k=1 k, 0! := 1 Binomialkoeffizient:

n! n , n, m ∈ N0 mit n ≥ m := (n − m)! m! m © Der/die Herausgeber bzw. der/die Autor(en), exklusiv lizenziert an Springer-Verlag GmbH, DE, ein Teil von Springer Nature 2023 S. Goebbels und S. Ritter, Mathematik verstehen und anwenden: Differenzial- und Integralrechnung, Lineare Algebra, https://doi.org/10.1007/978-3-662-68367-5

675

676

Kleine Formelsammlung

Rechenregeln:







n n n n n+1 = , + = m n−m m−1 m m Binomischer Lehrsatz:

n  n k n−k a b (a + b)n = k k=0 Binomische Formeln: (a + b)2 = a2 + 2ab + b2 , (a − b)2 = a2 − 2ab + b2 , (a − b)(a + b) = a2 − b2 Formel vom kleinen Gauß: n  n(n + 1) k= 2 k=1 Geometrische Summe bzw. Reihe: F¨ ur q ∈ R, q = 0 und |q| < 1 gilt: n ∞ n+1   1 − q 1 , . qk = qk = 1−q 1−q k=0  k=0 ∞ Harmonische Reihe: k=1 k1 = ∞

Reelle Zahlen und Funktionen 1 1 1 1 1 1 Euler’sche Zahl: e = 0! + 1! + 2! + 3! + 4! + 5! + · · · = 2,7182818 . . . Kreiszahl: π = 3,14159265 . . . Dreiecksungleichung: |a + b| ≤ |a| + |b| Exponentialfunktion: exp(x) := ex Rechenregeln f¨ ur die Exponentialfunktion: exp(x + y) = ex+y = ex ey = exp(x) exp(y), exp(xy) = exy = [ex ]y = [exp(x)]y ,

exp(0) = e0 = 1,

exp(1) = e1 = e, 1 1 exp(−x) = e−x = x = e exp(x) Nat¨ urlicher Logarithmus: ln(exp(x)) = x, x ∈ R; exp(ln(x)) = x, x > 0 Rechenregeln f¨ ur den Logarithmus: ln(x) + ln(y) = ln(xy), ln(x) − ln(y) = ln (x/y) , ln(1) = 0, ln(e) = 1, − ln(x) = ln (1/x) Potenz und Logarithmus zur Basis 0 < a = 1: ln(x) ax = ex ln(a) , loga (x) = ln(a) Hyperbelfunktionen: ex + e−x ex − e−x , cosh(x) := , sinh(x) := 2 2 cosh(x) sinh(x) tanh(x) := , coth(x) := cosh(x) sinh(x)

Kleine Formelsammlung

677

Trigonometrische Funktionen: Ankathete Gegenkathete , cos(x) = , sin(x) = Hypotenuse Hypotenuse cos(x) sin(x) , cot(x) = tan(x) = cos(x) sin(x) Umrechnung des Winkels α vom Grad- ins Bogenmaß: α2π/360 Periode: cos(x + 2π) = cos(x), sin(x + 2π) = sin(x)   Umrechnung von Sinus zum Kosinus: sin x + π2 = cos(x) Trigonometrischer Satz des Pythagoras: sin2 (x) + cos2 (x) = 1 Additionstheoreme: cos(x + y) = cos(x) cos(y) − sin(x) sin(y), sin(x + y) = sin(x) cos(y) + cos(x) sin(y), cos(x − y) = cos(x) cos(y) + sin(x) sin(y),

sin(x − y) = sin(x) cos(y) − cos(x) sin(y),



x−y x+y sin sin(x) − sin(y) = 2 cos 2 2

Komplexe Zahlen Rechenregeln: j 2 = −1, (x1 + jy1 ) + (x2 + jy2 ) = x1 + x2 + j(y1 + y2 ), (x1 + jy1 ) · (x2 + jy2 ) = x1 x2 − y1 y2 + j(x1 y2 + y1 x2 ) Konjugation: x + jy = x − jy, z1 + z2 = z1 + z2 , z1 · z2 = z1 · z2 Division: x 1 x 2 + y1 y2 x 2 y1 − x 1 y2 x1 + jy1 = +j x2 + jy2 x22 + y22 x22 + y22 Betrag:   |x + jy| := x2 + y 2 = (x + jy)(x + jy)

Polarkoordinaten: x + jy = rejϕ mit  y  x |ejϕ | = cos2 (ϕ) + sin2 (ϕ) = 1, r = |x+jy|, ϕ = arccos = arcsin r r Multiplikation in Polarkoordinatendarstellung: r1 ejϕ1 r2 ejϕ2 = r1 r2 ej(ϕ1 +ϕ2 ) Division in Polarkoordinatendarstellung: r1 r1 ejϕ1 = ej(ϕ1 −ϕ2 ) jϕ 2 r2 e r2 Potenzierung in Polarkoordinatendarstellung:  jϕ n re = rn ejnϕ jϕ n-te Wurzeln aus re , also L¨osungen von z n = rejϕ , sind √ ϕ+2kπ n rej n , 0 ≤ k < n

678

Kleine Formelsammlung

p-q-Formel: p z 2 + pz + q = 0 ⇐⇒ z = − + 2

#  p 2 2

p − q oder z = − − 2

#  p 2 2

−q

Grenzwerte lim xn = ∞, n > 0;

1 = 0; x

lim ex = 0;  a x sin(x) = 1; lim 1 + = ea lim ln(x) = ∞; lim ln(x) = −∞; lim x→∞ x→∞ x→0+ x→0 x x

x→∞

lim

x→±∞

lim ex = ∞;

x→∞

x→−∞

Ableitungen und Integrale Linearit¨ at der Ableitung: (f + g) (x) = f  (x) + g  (x), (cf ) (x) = cf  (x) Produktregel: (f · g) (x) = f  (x)g(x) + f (x)g  (x) Quotientenregel:  f  (x)g(x) − f (x)g  (x) f (x) = g g(x)2 Kettenregel: d f (g(x)) = (f ◦ g) (x) = f  (g(x))g  (x) dx Ableitung der Umkehrfunktion: 1  f −1 (x) =  −1 f (f (x)) Satz von L’Hospital: Seien limx→∞ f (x) = limx→∞ g(x) = 0 oder limx→∞ f (x) = ± limx→∞ g(x) = ±∞. Dann gilt f (x) f  (x) = lim  , lim x→∞ g(x) x→∞ g (x) sofern der rechte Grenzwert (auch uneigentlich) existiert (entsprechend f¨ ur Grenzwerte an einer Stelle und f¨ ur x → −∞) Berechnung des Integrals mittels Fundamentalsatz: 8 b f  (x) dx = f (b) − f (a) a

679

Kleine Formelsammlung

Linearit¨ at des Integrals: 8 b 8 cf (x) + dg(x) dx = c a

8

b

b

f (x) dx + d a

Partielle Integration: 8 b b 8  f (x)g  (x) dx = f (x)g(x) − a

a

g(x) dx a

b

f  (x)g(x) dx a

Substitutionsregel: Mit t = g(x) ist formal dt = g  (x) dx und 8 b 8 g(b) 8 β 8 g−1 (β)  f (g(x))g (x) dx = f (t) dt, f (t) dt = f (g(x))g  (x) dx. a

g(a)

α

g −1 (α)

Ableitungen und Stammfunktionen elementarer Funktionen auf ihrem Definitionsbereich: Ableitung

Stammfunktion 9 k k+1 x dx = xk+1 + c, k = −1 9 1 9 x dx = ln(|x|) + c exp(x) 9 ex dx = ex + c 9 cos(x) dx = sin(x) + c dx = − cos(x) + c 9 sin(x) 1 dx = tan(x) + c 2 9 cos1(x) √ dx = arcsin(x) + c 2 9 1−x 1 √ dx = − arccos(x) + c 2 9 1−x 1 dx = arctan(x) + c 9 1+x2 cosh(x) dx = sinh(x) + c 9 sinh(x) dx = cosh(x) + c 9 1 dx = tanh(x) + c 2 9 cosh1 (x) √ dx = arsinh(x) + C x2 +1 √ = ln(x + x2 + 1) + c 9 d √ 1 √ 1 dx = arcosh(x) + C, x > 1 dx arcosh(x) = x2 −1 x2 −1 √ = ln(x + x2 − 1) + c 9 d 1 1 |x| < 1 2 dx = artanh(x) + c, dx artanh(x) = 1−x2 , |x| < 1 9 1−x d 1 1 arcoth(x) = , |x| > 1 dx = arcoth(x) + c, |x| > 1. dx 1−x2 1−x2 d k+1 = (k + 1) xk dx x d 1 dx ln(|x|) = x d x d x dx e = dx exp(x) = e = d dx sin(x) = cos(x) d dx cos(x) = − sin(x) d 1 dx tan(x) = cos2 (x) d √ 1 dx arcsin(x) = 1−x2 d √ 1 arccos(x) = − dx 1−x2 d 1 dx arctan(x) = 1+x2 d dx sinh(x) = cosh(x) d dx cosh(x) = sinh(x) d 1 dx tanh(x) = cosh2 (x) d √ 1 dx arsinh(x) = x2 +1

Index A A-posteriori-Absch¨ atzung 366, 649 A-priori-Absch¨ atzung 366, 649 Abbildung 9 auf 12 hermitesche 558 identische 576 lineare 576 Abel’sche Gruppe 52 abgeleitete Funktion 337 abgeschlossen 296 abgeschlossene Menge 318 abgeschlossenes Intervall 58 Ableitung 332, 337 logarithmische 347 schwache 668 absolut konvergent 281 absolute Homogenit¨ at 638 absoluter Fehler 352 Abstand 559 Abszisse 89 abz¨ ahlbar 45 Additionstheorem 134 Additivit¨ at 556, 558, 576 Adjungierte 198 affin-lineare Funktion 90 ahnliche Matrizen 596 ¨ algebraische Funktion 114 algebraische Gleichung 82 allgemeing¨ ultig 16 Allmenge 7 Allquantor 24 alternierende harmonische Reihe 277 Amplitude 137 analytisch 480 Analytische Geometrie 493 Anti-Kommutativgesetz 513 Antisymmetrie 31 Apfelm¨ annchen 249

Approximation 59 Approximationsprozess 665 aquivalente Normen 640 ¨ ¨ Aquivalenz 23 Arbeit 502 Arbeitspunkt 352 AreaKosinushyperbolikus 146 Kotangenshyperbolikus 146 Sinushyperbolikus 146 Tangenshyperbolikus 146 Argument 10 arithmetisches Mittel 79 ArkusFunktion 140 kosinus 141 sinus 140 tangens 141 assoziativ 496, 538, 539 Assoziativgesetz 8, 17, 51, 495 Asymptote 450 Aufpunkt 528 aufspannen 543 Aussage 14 Aussageform 20 aussagenlogische Formel 15 außeres ¨ Lebesgue-Maß 432 Produkt 512 Austauschsatz 552 Axiom 26 B Banach’scher Fixpunktsatz 364, 648 Banach-Raum 641 Bandmatrix 202 Barometrische H¨ ohenformel 122 Basis 42, 550 -matrix 594

© Der/die Herausgeber bzw. der/die Autor(en), exklusiv lizenziert an Springer-Verlag GmbH, DE, ein Teil von Springer Nature 2023 S. Goebbels und S. Ritter, Mathematik verstehen und anwenden: Differenzial- und Integralrechnung, Lineare Algebra, https://doi.org/10.1007/978-3-662-68367-5

681

682

Index

-transformation 594 Orthonormal- 563 Baum 607 Bedingung hinreichende 22 notwendige 22 Bernoulli’sche Ungleichung 78 beschr¨ ankt 95, 247, 649 nach oben 53, 95, 247 nach unten 54, 95, 247 bestimmt divergent 264, 276, 299, 304 Betrag 74, 154, 494, 500, 559 Betragsfunktion 102 gleichung 83 ungleichung 86 Beweis 26 direkter 26 durch Widerspruch 27 indirekter 27 BIBO-stabil 664 bijektiv 12 Bild 9, 10, 584 Bildmenge 10 Binet-Formel 630 Binomialkoeffizient 38 Binomische Formel 73 Binomischer Satz 72 biquadratische Gleichung 82 Bisektionsverfahren 320 Blatt 608 Blindwiderstand 167 Bruch 40 C Caesar-Code 13 Cantor-Diagonalisierung 45 Cardan’sche Formel 172 CauchyBedingung 279 Folge 269, 640 Hadamard-Formel 473 Kriterium 270, 279 Produkt 282 Schwarz’sche Ungleichung 504, 560 charakteristische Funktion 434 Gleichung 618 charakteristisches Polynom 618 Cramer’sche Regel 225 D Dampfdruck

126

De Morgan’sche Regeln 8, 18 Dedekind’sche Schnitte 55 Defekt 585 Definitionsbereich 10 dekadischer Logarithmus 119 Delta-Umgebung 296 Determinante 210 diagonalisierbar 627 Diagonalmatrix 178 dicht 66 Differenz 6 Differenzenquotient 332 Differenzial 351 Differenzialquotient 332 differenzierbar 332 einseitig 336 linksseitig 336 rechtsseitig 336 schwach 668 Dimension 553 Dimensionssatz 585, 587, 603 Dirichlet-Funktion 303 disjunkt 4 Disjunktion 16 disjunktive Normalform 19 Diskriminante 63 Distributivgesetz 8, 17, 51, 496, 504, 513, 539 divergent 251, 276 bestimmt 264, 276, 299, 304 unbestimmt 276 doppelt-logarithmische Darstellung 125 Drehmoment 511 Drehmomentvektor 512 Dreiecksmatrix 201 Dreiecksungleichung 78, 155, 496, 560, 638 nach unten 78, 155 dualer Logarithmus 119 Dualraum 652 Dualsystem 18 Durchschnitt 6 dyadisches Produkt 198 E Ebene Hesse’sche Normalform 531 Parameterform 528 Punkt-Richtungsform 528 e-Funktion 116 Eigenraum 619 vektor 616

683

Index wert 616 eineindeutig 12 Einerkomplement 33 einfach-logarithmische Darstellungen einfache Funktion 434 Einheitsmatrix 179 vektor 494, 559 einseitig differenzierbar 336 Eintr¨ age einer Matrix 178 Einzelschritt-Verfahren 205 Element 3, 177 einer Matrix 178 inverses 495, 538 neutrales 495, 538 elementare Funktion 393 elementfremd 4 Endknoten 606 Entwicklungsmittelpunkt 460 erf¨ ullbar 16 erweitern 41 erzeugen 543 Erzeugendensystem 544 Euklid’sche Norm 559 Euklid’scher Algorithmus 36 Raum 556 Euler’sche Gleichung 158 Eulerform 158 Existenzquantor 25 Exponent 42 Exponentialform 158 funktion 116 funktion zur Basis a 119 reihe 459 Extremum 322

125

glied 246 h¨ aufungspunkt 266 kompaktheit 268 Folgerung 21 Format 178 Formel von Cauchy-Hadamard 473 freier Vektor 499 Frequenz 137 Fundamentalsatz der Algebra 168 der Differenzial- und Integralrechnung 390 Funktion 9 abgeleitete 337 affin-lineare 90 algebraische 114 analytische 480 charakteristische 434 einfache 434 elementare 393 ganzrationale 103 gebrochen-rationale 113 holomorphe 480 konkave 445 konvexe 445 lineare 576 messbare 433 periodische 96 rationale 103 reelle 89 st¨ uckweise lineare 91 transzendente 116 wesentlich beschr¨ ankte 644 Funktionalanalysis 637 Funktionenfolge 461 Funktionenreihe 464 Funktionsgraph 9, 89 Funktionswert 10

F

G

Faktorzerlegung 169 Fakult¨ at 37 Falk-Schema 182 Fehler -rechnung 352 absoluter 352 relativer 353 Fibonacci-Zahl 265 Fixpunkt 364, 648 Folge 246 alternierende 247 arithmetische 247 Folgen-

Gammafunktion 418 ganze Zahl 30 ganzrationale Funktion 103 Gleichung 81 ganzrationale Gleichung h¨ oherer Ordnung 82 Gauß’sche Zahlenebene 153 GaußAlgorithmus 186 Jordan-Verfahren 188 Seidel-Verfahren 205 gebrochen-rationale

684 Funktion 113 Gleichung 82 Ungleichung 85 geometrische Folge 247 Reihe 275, 277 Summe 69 geometrisches Mittel 79 Gerade 104 Parameterform 522 Punkt-Richtungsform 522 Punkt-Steigungsform 105 Zwei-Punkte-Form 104 gerade 94 Ger¨ ust 609 Gesamtschritt-Verfahren 204 gleich 151, 179 gleichm¨ aßig konvergent 463 stetig 325 goldener Schnitt 64, 266, 629 goniometrische Form 156 gr¨ oßter gemeinsamer Teiler 35 Grad 103 Gram-Schmidt’sches Orthonormierungsverfahren 566 Graph 606 Grenzfunktion 461 Grenzwert 251, 276, 298, 300 linksseitiger 304 rechtsseitiger 305 uneigentlicher 264, 304 gr¨ oßte untere Schranke 54 Gruppe 52 Abel’sche 52 kommutative 52 H halboffenes Intervall 58 Halteproblem 27 harmonische Reihe 277 Schwingung 137, 139 Hauptdiagonale 178 Hauptraum 632 Hauptsatz der Differenzial- und Integralrechnung 390 Hauptvektor 631 Hauptwert 140, 163 Heaviside-Funktion 312 hebbare Unstetigkeitsstelle 326 hermitesch 558 Hesse’sche Normalform 531

Index Hilbert’sches Hotel 46 Hilbert-Raum 641 Hilfssatz 26 hinreichende Bedingung 22 Hochpunkt 322 H¨ older-Ungleichung 645 holomorph 480 homogen 176 homogene Koordinaten 582 homogenes Gleichungssystem Homogenit¨ at 504, 556, 576 Hom¨ oomorphismus 318 Horner-Schema 33, 111 Hyperbelfunktionen 144 kosinus 144 kotangens 144 sinus 144 tangens 144

599

I imagin¨ are Einheit 150 Imagin¨ arteil 150 Impedanz 167 Implikation 21 Index 57 Infimum 54 Inhalt 432 inhomogen 176 inhomogenes Gleichungssystem 600 injektiv 12 innerer Punkt 296 inneres Produkt 503 Integral 380 -funktion 389 unbestimmtes 389 uneigentliches 416 integrierbar 380 uneigentlich 416 Interpolationspolynom 105, 413 Intervall 58 -schachtelung 58 abgeschlossenes 58 offenes 58 Invariante 36 inverse Matrix 193 inverses Element 495, 538 invertierbar 193 irrational 57, 58 J Jacobi-Verfahren 204 Jordan-Normalform 634

685

Index K Kante 606 Karnaugh-Veitch-Diagramm 20 kartesische Darstellung 150 K¨ astchensatz 218 Kehrwertfunktion 114 Kern 584 Kette von Hauptvektoren 631 Kettenregel 340 kleinstes gemeinsames Vielfaches 36 Knoten 606 benachbarte 606 Koeffizient 103, 180 Koeffizientenmatrix 185 vergleich 108, 549 kollinear 495 Kombination 38 kommutativ 538 kommutative Gruppe 52 Kommutativgesetz 8, 17, 51, 495, 504 komplanar 548 Komplement 4 komplexe n-te Wurzel 163 komplexe Zahl 149 Eulerform 158 Exponentialform 158 kartesische Darstellung 150 komplexer Widerstand 167 Komponente 501, 564 einer Matrix 178 Kondition 656, 657 konjugiert komplexe Zahl 151 Konjunktion 16 konjunktive Normalform 19 konkav 445 Konsistenz 656 konstante Folge 247 Kontraktion 364 konvergent 251, 276, 298, 299, 461, 640 absolut 281 aßig 463 gleichm¨ punktweise 461 Konvergenzradius 471 konvex 445 Koordinate 498, 499, 564 Koordinaten -form 530 -gleichung 521, 529 -transformation 595 K¨ orper 51 Kosinus 128 Kosinus-Satz 132

Kosinushyperbolikus 144 Kotangens 128 Kotangenshyperbolikus 144 Kreis 606 Kreisfrequenz 137 Kreissatz von Gerschgorin 626 Kreuzprodukt 6 kritische Stelle 114, 328 Kronecker-Delta 564 kubische Splinefunktion 356 kubisches Polynom 109 Kurvendiskussion 446 K¨ urzen 41 L Lagrange’sches Interpolationspolynom 106 Knotenpolynom 106 Lagrange-Darstellung 441 L¨ ange 500, 606 LebesgueIntegral 429 integrierbar 435 Maß 430, 432 messbar 430, 432, 433 σ-Algebra 430 integrierbar 435 leere Menge 4 Leibniz’sche Zinseszinsformel 70 LeibnizFormel f¨ ur Determinanten 221 Kriterium 292 Regel 354 Leitkoeffizient 103 Lemma 26 Lenz’sche Regel 131 lexikographisch 32 Lexikographische Ordnung 32 Limes 251 linear abh¨ angig 546 normierter Raum 638 unabh¨ angig 546, 609 lineare Abbildung 575 Funktion 576 Gleichung 81 H¨ ulle 543 Ungleichung 84 lineares Funktional 577, 652 Gleichungssystem 176 Linearfaktoren 169

686 Linearit¨ at 383, 576 Linearkombination 180, 542, 550 triviale 546 linksgekr¨ ummt 445 linksseitig bestimmt divergent 304 differenzierbar 336 konvergent 304 stetig 311 linksseitige punktierte Umgebung 296 linksseitiger Grenzwert 304 logarithmische Ableitung 347 logarithmisches Integrieren 400 Logarithmus dekadischer 119 dualer 119 zur Basis a 119 lokales Extremum 445 Lot 510 Lotvektor 569 Lp -Norm 643 LR-Zerlegung 202 LU-Zerlegung 202 M M¨ achtigkeit 142 MacLaurin-Entwicklung 440 MacLaurin-Reihe 458 Majorante 284 Mandelbrot-Menge 248 Masche 607 Masse 608 mathematisch positiver Sinn 129 Matrix 177 -Element 178 -Norm 653 adjungierte 198 diagonalisierbare 627 erweiterte 187 hermitesche 199 inverse 193 normale 631 orthogonale 200 quadratische 178 schiefsymmetrische 199 selbstadjungierte 199 symmetrische 199 maximaler Baum 609 Maximum 53 globales 321 lokales 322 relatives 322

Index striktes globales 321 striktes lokales 322 Menge 3 abgeschlossene 296, 318 leere 4 offene 296, 318 m-fache Nullstelle 107 Minimum 54 globales 321 lokales 322 relatives 322 striktes globales 321 striktes lokales 322 Minkowski-Ungleichung 645 Minorante 284 Mittelpunktsregel 414 Mittelwertsatz der Differenzialrechnung 361 Mittelwertsatz der Integralrechnung 387 modulo 52 Modus Ponens 26 Monom 103 monoton 93, 249 fallend 93, 249 wachsend 93, 249 Monte-Carlo-Methode 250 m-Tupel 179 Multilinearform 219 Multiplikation mit einem Skalar 558 N nat¨ urliche Zahl 30 nat¨ urlicher Logarithmus 117 Negation 16 neutrales Element 495, 538 der Addition 152 der Multiplikation 152 Newton-Cotes-Formeln 415 Newton-Verfahren 349 n-mal stetig differenzierbar 354 Norm 559, 638 Euklid’sche 559 Normaleneinheitsvektor 531 Normalparabel 90 normierte Zeilenstufenform 588 normierter Vektorraum 638 normiertes Polynom 103 notwendige Bedingung 22 n-te Potenz 42 n-te Wurzel 42, 64 Nullabbildung 577 Nullfolge 251 Nullmatrix 178

687

Index Nullphasenwinkel 137 Nullpunkt 498 Nullraum 586 Nullstelle 92 mit Vielfachheit 169 Nullstellensatz von Bolzano Nullvektor 494, 539 Nullvektorraum 539

320

O obere Schranke 53, 247 Obersumme 378 offen 296 offene Menge 318 offenes Intervall 58 Operatornorm 649 Ordinate 89 Ordnung einer Polstelle 329 Ordnungsrelation 31 ordnungsvollst¨ andiger geordneter K¨ orper 55 orthogonal 200, 504, 562 orthogonale Projektion 509, 568 Orthogonalsystem 563 Orthonormalbasis 563 Orthonormalsystem 563, 565 Ortsvektor 498 P Paare 6 Parallelepiped 516 Parameterform 522, 528 Partialbruchzerlegung 405 partielle Integration 395 Pascal’sches Dreieck 39 Periode 43, 96 primitive 96 periodische Funktion 96 Permutation 37 Phase 137 Phasenwinkel 137 Ph¨ onix-Methode 397 Pivot-Suche 188 Pol 327 Polarform 156 Polarkoordinaten 156 Polstelle 327 Polynom 103 Faktorzerlegung 169 Polynomdivision 108 positive Definitheit 556, 558 Potenz 42

Potenzfunktion 115 Potenzmenge 4 Potenzregel 42 Potenzreihe 460 p-q-Formel 63 Pr¨ adikat 21 Pr¨ adikatenlogik 21 Primfaktorzerlegung 34 primitive Periode 96 Primzahl 34 Prinzip gleichgradiger Beschr¨ anktheit 660 Produkt dyadisches 198 Produktregel 338 Produktzeichen 69 Projektion 441, 510 orthogonale 509, 510, 568 Prozentrechnung 42 Punkt-Richtungsform 522, 528 Punkt-Steigungsform 105 punktierte δ-Umgebung 296 punktsymmetrisch zum Ursprung 94 punktweise konvergent 461 Q Quadrant 90 quadratische Gleichung 81 quadratische Matrix 178 quadratische Ungleichung 84 Quadraturformel 413 Quantoren 24 Quotientenkriterium 288 Quotientenregel 338 R Radizieren 162 Rang 585, 590 rationale Funktion 103 rationale Zahl 40 Raum 537 Realteil 150 Rechteckregel 414 rechtsgekr¨ ummt 445 rechtsseitig bestimmt divergent 304 differenzierbar 336 konvergent 304 stetig 311 rechtsseitige punktierte Umgebung 296 Umgebung 296

688

Index

rechtsseitiger Grenzwert 305 Rechtssystem 498 reelle Funktion 89 reelle Zahl 55 Reflexivit¨ at 31 regul¨ ar 193, 222, 592 Reihe 261, 273, 276 alternierende harmonische 277 Funktionen- 464 MacLaurin- 458 Potenz- 460 rekursiv 37 relativer Fehler 353 Restklasse 52 Restklassenring 52 Richardson-Verfahren 659 Richtung 494 Richtungsvektor 522, 528 RiemannIntegral 380 integrierbar 380 Oberintegral 380 Unterintegral 380 Zwischensumme 382 Riesz’scher Darstellungssatz 667 Ring 52 RSA 52 S S¨ agezahnfunktion 97 Sarrus’sche Regel 212 Sattelpunkt 360, 446 Satz 26 Satz von Arzela, Osgood und Lebesgue Banach-Schauder 666 Banach-Steinhaus 665 Beppo-Levi 437 Bolzano 320 Bolzano-Weierstraß 268 Cayley-Hamilton 622 Fermat 359 Gerschgorin 626 Hahn-Banach 667 Heine-Borel 297 Lebesgue 437 L’Hospital 370, 372 Moivre 160 Pythagoras 50, 132, 559, 563 Rolle 360 Taylor 441 Thales 507 Vieta 110, 169

471

Scheinleistung 403 Schranke gr¨ oßte untere 54 kleinste obere 53 obere 53, 247 untere 54 schwach differenzierbar 668 schwache Ableitung 668 Schwebung 139 Schwingungsdauer 137 Sekantenverfahren 350 Signumfunktion 102 Simpson-Regel 415 singul¨ ar 193, 222 Sinus 128 Sinus Cardinalis 312 Sinus-Satz 133 Sinushyperbolikus 144 Skalar 179, 493 skalare Multiplikation 539 skalares Vielfaches 180 Skalarmultiplikation 539 Skalarprodukt 503, 539, 556, 558 Sobolev-Raum 652, 669 SOR-Verfahren 206 Spalte 177 Spaltenindex 177 matrix 178 raum 586 summennorm 654 vektor 178 Spat 516 Spatprodukt 516 Spektral - norm 654 Spektralradius 653 Spline 107, 355 kubischer 356 Sprungstelle 326 St¨ utzstelle 413 stabil 315 BIBO 664 Stabilit¨ at 656 Stammfunktion 389 Standardbasis 551 skalarprodukt 503, 557 Standard-Einheitsvektor 501, 543 station¨ arer Zustand 616 stetig 311, 318 differenzierbar 337 fortsetzbar 326

689

Index ¨ Ubertragungsprinzip 307 Umkehrabbildung 12 funktion 12, 89 unbestimmtes Integral 389 uneigentlich integrierbar 416 uneigentliches Integral 416 unerf¨ ullbar 16 ungerade 94 unit¨ ar 201 Unstetigkeitsstelle erster Art 326 hebbare 326 Pol 327 Sprungstelle 326 zweiter Art 327 unterbestimmtes Gleichungssystem untere Schranke 54 Unterraum 544 Untersumme 378 Untervektorraum 544 dichter 665 Urbild 10 Ursprung 498

gleichm¨ aßig 325 linksseitig 311 rechtsseitig 311 stetig erg¨ anzbar 326 Stetigkeit 648 Stirling’sche Formel 423 Strahlensatz 496 streng diagonaldominant 659 streng monoton fallend 93, 249 wachsend 93, 249 st¨ uckweise lineare Funktion 91 Substitutionsregel 397 Summe 495 Summenzeichen 66 Supremum 53 surjektiv 12 Symmetrie 556 symmetrisch zur y-Achse 94 T Tangens 128 Tangenshyperbolikus 144 Tautologie 16 TaylorEntwicklung 440 Polynom 440 Reihe 458 Summe 440 Teilgraph 606 Teilmenge 4 Teil¨ uberdeckung 297 Teleskopprodukt 69 Teleskopsumme 67 Thaleskreis 507 Tiefpunkt 322 Topologie 296, 318 Topologischer Raum 318 total geordnet 31 Transformationsmatrix 595 transitiv 23 Transitivit¨ at 31 transzendente Funktion 116 Trapezregel 414 Tridiagonalmatrix 202 Tupel 6

V

U u ahlbar 60 ¨ berabz¨ u ¨ berbestimmtes Gleichungssystem

192

Vandermonde-Matrix 223 Vektor 178, 493, 494, 512, 539 Vektorprodukt 512 raum 537 Vektorraum normierter 638 Venn-Diagramm 6 verallgemeinerter Mittelwertsatz der Differenzialrechnung 362 Verbindungszweig 609 Vereinigung 6 Verfahren Gesamtschritt- 204 Jacobi- 204 Newton- 349 Richardson- 659 RSA- 52 Sekanten- 350 Gauß- 186 Gauß-Seidel- 205 SOR- 206 Vergleichskriterium 284, 420, 464 Verkettung 100 Volladdierer 18 Vollst¨ andigkeitsaxiom 55 vollst¨ andig 49, 641

191

690

Index

Vollst¨ andige Induktion 47 Vorkonditionierung 657 Vorzeichenfunktion 102 W Wahrheitswert 14 Weg 606 Weierstraß-Funktion 465 Wendepunkt 445 Wertebereich 10 Wertedifferenz 351 Wertemenge 10, 246 wesentlich beschr¨ ankt 644 wesentliches Supremum 644 Winkel 506, 562 Winkelgeschwindigkeit 137 Wirkwiderstand 167 Wurzel 42, 608 Wurzelfunktion 115 Wurzelgleichung 82 Wurzelkriterium 291 Wurzelziehen 162 Z Zahlenebene

153

Zahlengerade 50 Zeiger 166 Zeigerdiagramm 137 Zeile 177 Zeilenindex 177 matrix 178 raum 586 summennorm 654 vektor 178 Zerlegung 378 Zielmenge 10 Zinseszinsformel 70 Z-Transformation 287 Z-Transformierte 287 zusammenh¨ angend 606 Zwei-Punkte-Form 104 Zweierkomplement 34 Zweig 606 Zweigefolge 606 geschlossene 606 offene 606 Zwischenpunktwahl 381 Zwischenwertsatz 320