Mathematische Methoden der Physik: Anwendungen und Theorie von Funktionen, Distributionen und Tensoren [2., ergänzte Auflage] 9783111059228, 9783111058252

The work teaches all the basic mathematical methods and tools needed by the physicist, both in graduate study and in pra

221 88 13MB

German Pages 352 Year 2023

Report DMCA / Copyright

DOWNLOAD FILE

Polecaj historie

Mathematische Methoden der Physik: Anwendungen und Theorie von Funktionen, Distributionen und Tensoren [2., ergänzte Auflage]
 9783111059228, 9783111058252

Table of contents :
Vorwort zur 1. Auflage
Vorwort zur 2. Auflage
Inhalt
1 Funktionentheorie
2 Spezielle Funktionen
3 Grundlagen der Funktionalanalysis
4 Orthogonale Funktionen
5 Tensorrechnung
6 Distributionen
A Anhang
Literatur
Symbole
Stichwortverzeichnis

Citation preview

Michael Karbach Mathematische Methoden der Physik De Gruyter Studium

Weitere empfehlenswerte Titel Festkörperphysik Rudolf Gross, Achim Marx, 2022 ISBN 978-3-11-078234-9, e-ISBN (PDF) 978-3-11-078239-4

Festkörperphysik Aufgaben und Lösungen Rudolf Gross, Achim Marx, Dietrich Einzel, Stephan Geprägs, 2023 ISBN 978-3-11-078235-6, e-ISBN (PDF) 978-3-11-078253-0

Thermodynamik Hauptsätze, Prozesse, Wärmeübertragung Herbert Windisch, 2023 ISBN 978-3-11-107964-6, e-ISBN (PDF) 978-3-11-108019-2

Analysis Walter Rudin, 2022 ISBN 978-3-11-075042-3, e-ISBN (PDF) 978-3-11-075043-0

Abstract Algebra An Introduction with Applications Derek J. S. Robinson, 2022 ISBN 978-3-11-068610-4, e-ISBN (PDF) 978-3-11-069116-0

Quantenmechanik Eine Einführung in die Welt der Wellen und Wahrscheinlichkeiten Holger Göbel, 2022 ISBN 978-3-11-065935-1, e-ISBN (PDF) 978-3-11-065936-8

Michael Karbach

Mathematische Methoden der Physik �

Anwendungen und Theorie von Funktionen, Distributionen und Tensoren 2., ergänzte Auflage

Mathematics Subject Classification 2020 Primary: 30-01, 33-01, 44-01, 46-01; Secondary: 42C05, 33D45 Autor Prof. Dr. Michael Karbach Bergische Universität Fakultät für Mathematik und Naturwissenschaften Gaußstr. 20 42097 Wuppertal Deutschland [email protected]

ISBN 978-3-11-105825-2 e-ISBN (PDF) 978-3-11-105922-8 e-ISBN (EPUB) 978-3-11-105980-8 Library of Congress Control Number: 2023935141 Bibliografische Information der Deutschen Nationalbibliothek Die Deutsche Nationalbibliothek verzeichnet diese Publikation in der Deutschen Nationalbibliografie; detaillierte bibliografische Daten sind im Internet über http://dnb.dnb.de abrufbar. © 2023 Walter de Gruyter GmbH, Berlin/Boston Coverabbildung: Michael Karbach, erzeugt mit MatLab Satz: VTeX UAB, Lithuania Druck und Bindung: CPI books GmbH, Leck www.degruyter.com

Vorwort zur 1. Auflage Die Vorlesung Mathematische Methoden der Physik, auf der dieses Buch basiert, wurde zum ersten Mal im Sommersemester 2003 an der Bergischen Universität Wuppertal, für Studierende des 3. und 4. Studiensemesters im Studiengang B. Sc. in Physik als vierstündige Vorlesung mit zwei Übungsstunden gehalten. Die Studierenden hören zeitgleich die Vorlesungen Theoretische Elektrodynamik und Experimentelle Quantenmechanik und haben als Vorkenntnisse die Vorlesungen Analysis I/II und Lineare Algebra I besucht. In den Folgejahren ist der Umfang des Skriptes immer weiter angewachsen, da viele Wünsche der Studierenden bezüglich des behandelten Stoffes berücksichtigt wurden. Deswegen geht der hier dargelegte Stoffumfang deutlich über ein Semester hinaus, sodass eine Auswahl der Themen getroffen werden muss. Ergänzende Abschnitte und solche, die nicht für den weiteren Verlauf zwingend gebraucht werden, sind mit einem * gekennzeichnet. Bei der Auswahl der Themen ist zu beachten, dass einige Abschnitte aufeinander aufbauen. Im Zuge der Studiengang-Reakkreditierung im Jahr 2011 wurde das Modul Mathematische Methoden der Physik auf eine dreistündige Vorlesung mit einstündiger Übung reduziert. Dies erforderte eine weitere Reduzierung des Stoffumfangs. Die Kapitel Gruppentheorie und Approximationen wurden dabei in eigenständige Vorlesungen ausgelagert. Der jetzige Inhalt deckt sich weitestgehend mit der zugehörigen Modulbeschreibung. Lediglich die Kapitel Spezielle Funktionen und Tensorrechnung sind nicht Teil der Modulbeschreibung. Erstere wurden als kleine Referenz für wichtige Funktionen der Physik aufgenommen und dienen als Anwendungsbeispiel des ersten Kapitels. Die Tensorrechnung wurde explizit auf Wunsch der Studierenden aufgenommen, sie ergänzt die parallel stattfindenden Vorlesung Theoretische Elektrodynamik. Um den tatsächlichen Bedürfnissen der Studierenden im Semesterverlauf gerecht zu werden, wurde die Reihenfolge der Themen in der Vorlesung anders gesetzt. Insbesondere wird typischerweise die Tensorrechnung vergleichsweise früh in der Elektrodynamik benötigt und wird deswegen innerhalb der Funktionentheorie eingeschoben. Ein Ziel der Vorlesung und des Buches ist es, eine kompakte und soweit es geht, geschlossene Darstellung von grundlegenden mathematischen Methoden der Physik zu vermitteln. Die benötigten Rechentechniken und Methoden werden recht früh in den verschiedenen Vorlesungen, insbesondere der Theoretischen Physik, benötigt. Aufgrund der Restriktionen, die das gesamte Curriculum des Bachelor-Studiums mit sich bringt, gibt es aber wenig bis keinen Spielraum, die entsprechenden Vorlesungen fundiert mathematisch zeitpassend zu besuchen. Dies gilt speziell für Studierende, die vornehmlich experimentell orientiert sind. An dieser Stelle sei jedoch deutlich betont, dass es nicht das Ziel des Buches und der zugehörigen Vorlesung ist, die einschlägigen Vorlesungen der Mathematik zu ersetzen. Insbesondere wird allen Interessierten empfohlen, die Grundvorlesungen Einführung in die Funktionentheorie und Einführung in die Funktionalanalysis im Laufe des Studiums zu hören. Erfahrungsgemäß verzichten jedoch viele Studierende auf diese Vorlesungen, https://doi.org/10.1515/9783111059228-201

VI � Vorwort zur 1. Auflage nicht zuletzt, um auch diesen Studierenden die wichtigsten Methoden nahezubringen, wurde diese Vorlesung konzipiert. Ein weiterer Grund ist jedoch der, dass Vorlesungen über Orthogonale Funktionen, Distributionen und Tensorrechnung nicht an allen Universitäten regelmäßig angeboten werden. Die Darstellung des Stoffes in diesem Buch ist bewusst kompakt gehalten. Trotz der vielfältigen Themenbereiche wurde versucht, so weit wie möglich eine einheitliche Notation zu verwenden, um den verschiedenen Themen somit eine gemeinsame Struktur und Notation zu geben. Dies ist nicht immer einfach, da in den diversen Gebieten zum Teil unterschiedliche Notationen und Konventionen existieren. Alle Definition und Aussagen wurden als solche abgegrenzt, dies nicht mit dem Ziel eine mögliche mathematische Strenge zu implizieren, sondern mit dem Ziel, die Aussagen vom begleitenden Text abzugrenzen und möglichst klar die Aussagen zu benennen. Die ganz überwiegende Anzahl von Aussagen wurden auch bewiesen, wobei gelegentlich die volle mathematische Strenge nicht gegeben ist. In der Vorlesung selbst wurden nur die konstruktiven Beweise vorgeführt, solche, die Einsicht in Rechentechniken geben. Bei der Präsentation und Auswahl des Stoffes wurde besonders auf eine anwendungsorientierte Darstellung geachtet, die den Erfordernissen des Physikers in seiner Arbeit Rechnung trägt. Überall wo es zur Anschauung und dem Verständnis hilfreich ist ergänzen farbige Grafiken, mit zum Teil aufwendigen Darstellungen, die jeweilige Thematik. Die überwiegende Zahl der Grafiken wurden mit MatLab 20171 erstellt.2 Praktisch zu allen Themen gibt es detaillierte Beispiele und Übungsaufgaben mit Lösungen. Diese sind im Text integriert und schließen immer an ein zuvor diskutiertes Thema an oder ergänzen selbiges. Wuppertal, 26. April 2017,

1 Alle Programme sollten auch mit der Openscource-Alternative Octave lauffähig sein. 2 Quelltext: www.degruyter.com/books/978-3-11-045665-3

M. Karbach

Vorwort zur 2. Auflage Die vorliegende Neuauflage wurde umfassend überarbeitet und verbessert. Es wurden zahlreiche kleinere Optimierungen und Ergänzungen vorgenommen und darüber hinaus neue Unterkapitel hinzugefügt. Im Kapitel zur Funktionentheorie wurde ein neues Kapitel über Äquipotential- und Stromlinien hinzugefügt, das einen wichtigen Anwendungsbereich aus der Physik behandelt. Das Kapitel zu speziellen Funktionen wurde ebenfalls erweitert und umfasst nun auch die Gamma- und Betafunktion sowie den Polylogarithmus. Das Kapitel zur Tensorrechnung erfuhr eine grundlegende Überarbeitung und wurde um neue Kapitel zu krummlinigen Koordinatensystemen erweitert. Darüber hinaus wurden insgesamt über 100 Übungsaufgaben an den Ende der Kapitel hinzugefügt, die relevante Aspekte aus der Physik abdecken und zur Vertiefung der Thematik beitragen. Wuppertal, 16. März 2023,

https://doi.org/10.1515/9783111059228-202

M. Karbach

Inhalt Vorwort zur 1. Auflage � V Vorwort zur 2. Auflage � VII 1 1.1 1.1.1 1.1.2 1.1.3 1.2 1.2.1 1.2.2 1.2.3 1.2.4 1.2.5 1.2.6 1.2.7 1.3 1.3.1 1.3.2 1.3.3 1.3.4 1.3.5 1.4 1.4.1 1.4.2 1.5 1.5.1 1.5.2 1.5.3

Funktionentheorie � 1 Komplexe Zahlen und Funktionen � 1 Allgemeine Eigenschaften � 2 Verallgemeinerte komplexe Zahlen* � 6 Polarkoordinaten � 8 Holomorphe Funktionen � 14 Komplex differenzierbar � 14 Reell differenzierbar � 17 Lokal konstante Funktionen � 26 Konforme Abbildungen � 27 Äquipotential- und Stromlinien* � 34 Biholomorphe Funktionen � 35 Möbius-Transformation* � 37 Cauchy Integralsatz � 41 Wegintegrale � 42 Stammfunktion in ℂ � 46 Cauchy Integralsatz � 51 Anwendungen zum Cauchy Integralsatz � 58 Allgemeine Cauchy Integralformel � 67 Potenzreihen � 73 Taylor- und Laurent-Reihen � 73 Analytische Fortsetzung* � 78 Der Residuensatz � 82 Singularitäten � 82 Residuensatz � 88 Anwendungen des Residuensatzes* � 97

2 2.1 2.2 2.2.1 2.3 2.4

Spezielle Funktionen � 109 Logarithmusfunktion � 109 Arcus-Funktionen � 113 Area-Funktionen* � 121 Gamma- und Betafunktion � 125 Polylogarithmus* � 135

3 3.1

Grundlagen der Funktionalanalysis � 143 Vektorräume und Algebren � 143

X � Inhalt 3.2 3.2.1 3.2.2 3.2.3 3.2.4 3.3 3.4 3.4.1 3.4.2 3.4.3 3.4.4

Metrische und normierte Räume � 149 Metrische Räume � 149 Normierte Räume � 150 Matrixnormen � 153 Innenproduktraum � 157 Banach- und Hilberträume � 161 Orthogonale Funktionensysteme � 166 Orthogonalität � 166 Spezielle orthonormale Funktionensysteme � 167 Orthonormalbasen � 174 Separabilität* � 179

4 4.1 4.1.1 4.1.2 4.1.3 4.1.4 4.1.5 4.1.6 4.2 4.2.1 4.2.2 4.2.3 4.2.4 4.3 4.3.1 4.3.2 4.3.3

Orthogonale Funktionen � 185 Fourierreihen und Fourier-Integrale � 185 Stückweise stetige Funktionen � 185 Fouriersummen � 190 Der Satz von Fejér � 195 Fourier-Integraltheorem � 199 Fourier-Transformation � 203 Laplace-Transformation � 210 Orthogonale Polynome � 212 Legendre-Polynome � 215 Hermite-Polynome � 221 Laguerre-Polynome � 226 Tschebyscheff-Polynome* � 233 Kugelflächenfunktionen � 239 Assoziierte Legendre-Funktionen � 239 Kugelflächenfunktionen � 244 Anwendungen � 250

5 5.1 5.1.1 5.2 5.3 5.4 5.4.1 5.4.2 5.5 5.5.1 5.5.2 5.5.3

Tensorrechnung � 255 Euklidische Räume � 255 Affine Vektoren und Tensoren � 257 Allgemeine Koordinatentransformationen � 258 Kontravariante und kovariante Tensoren � 262 Der metrische Tensor � 266 Krummlinige Koordinaten im Ed � 272 Ableitungen krummliniger Basisvektoren � 275 Tensoren in der Physik � 278 Verallgemeinerter Kronecker-Tensor und der ϵ-Tensor � 278 Duale Basis im Euklidischen Raum E3 � 281 Differential-Operatoren in E3 � 283

Inhalt

6 6.1 6.2 6.2.1 6.2.2 6.2.3 6.2.4 6.2.5

Distributionen � 289 Raum der Testfunktionen � 289 Distributionen � 291 Distributionen in der Physik � 293 Rechnen mit Distributionen � 302 Tensorprodukt von Distributionen* � 306 Differentialgleichungen* � 309 Distributionen auf Mannigfaltigkeiten* � 311

A A.1 A.2 A.3 A.4 A.5 A.6

Anhang � 319 Ungleichungen � 319 Potenzreihen � 320 Differentiation � 321 Implizite Funktionen � 323 Jacobi-Determinante � 325 Integralrechnung � 327

Literatur � 331 Symbole � 333 Stichwortverzeichnis � 337



XI

1 Funktionentheorie Im Folgenden werden Kenntnisse aus den Grundvorlesungen der Analysis I/II und Linearen Algebra im Wesentlichen vorausgesetzt. Standardlehrbücher der Analysis mit einer langen Historie sind die von O. Forster Analysis 1 und 2, [1, 2] und K. Königsberger Analysis 1 und 2, [3, 4]. Neuere Lehrbücher mit einem besonderen Augenmerk auf eine didaktische und sehr ausführliche Darstellung des Lehrstoffs sind die von K. Fritzsche [5, 6]. Ein über die Jahre sich zum Standardwerk etabliertes Lehrbuch der Linearen Algebra ist das gleichnamige Buch von G. Fischer [7], das es auch in einer ausführlichen und didaktisch aufbereiteten Version gibt [8]. Zu Nachschlagezwecken sind die wesentlichen Resultate und Sätze der Analysis und Linearen Algebra im Anhang zusammengestellt. Elementare Grundkenntnisse über komplexe Zahlen werden ebenfalls als bekannt vorausgesetzt. Die Darstellung des hier präsentierten Stoffes orientiert sich stark an den bekannten Lehrbüchern der Funktionentheorie von W. Fischer/I. Lieb [9], sowie von R. Remmert [10, 11]. Im letzteren Lehrbuch werden zusätzlich viele geschichtliche Hintergründe zur Funktionentheorie gegeben. Eine didaktisch ausführliche Darstellung findet sich im Lehrbuch Grundkurs Funktionentheorie von K. Fritzsche [12]. Anwendungsorientierter ist das Lehrbuch Applied Complex Variables von J. W. Dettman [13]. Ein umfangreiches englischsprachiges Standardlehrwerk mit auch fortgeschrittenen Themen ist das Buch Complex Analysis von S. Lang [14]. Der hier ausgewählte Stoffumfang stellt einen kleinen und mehr anwendungsorientierten Auszug aus der allgemeinen Funktionentheorie dar, so wie er vielfältig in der Physik gebraucht wird. Die Darstellung soll die genannten Lehrbüchern nicht ersetzen. Im ersten Abschnitt wiederholen wir die Grundlagen der komplexen Zahlen und Funktionen. Dieser Teil sollte in den wesentlichen Zügen bekannt sein. Im zweiten Abschnitt führen wir den Begriff der Holomorphie und die komplexe Differenzierbarkeit ein und erläutern die Unterschiede zur reellen Differenzierbarkeit im ℝ2 . Der dritte Abschnitt beschäftigt sich mit der Integralrechnung im komplexen, insbesondere mit dem komplexen Wegintegral. Potenzreihen von komplexen Funktionen und analytische Fortsetzungen von komplexen Funktionen betrachten wir in den Folgeabschnitten. Im letzten Abschnitt wird der Residuensatz formuliert und ausführlich diskutiert.

1.1 Komplexe Zahlen und Funktionen In diesem Abschnitt fassen wir kurz elementare Eigenschaften komplexer Zahlen und Funktionen zusammen. Im Wesentlichen soll dies eine kompakte Zusammenfassung der Definitionen und der verwendeten Notation darstellen, wie sie in [9] oder in [10, 11] zu finden sind. Der Zusammenhang zwischen dem Körper der komplexen Zahlen ℂ und dem Raum ℝ2 sei in den Grundzügen als bekannt vorausgesetzt. Hier verweisen wir https://doi.org/10.1515/9783111059228-001

2 � 1 Funktionentheorie zum vertiefenden Studium auf die ausführlichen Darstellungen in den oben genannten Lehrbüchern. 1.1.1 Allgemeine Eigenschaften Die komplexe Ebene sei im Folgenden mit ℂ bezeichnet und Teilmengen davon mit 𝕌. Wir betrachten komplexwertige Abbildungen ℂ ⊃ 𝕌 ∋ z 󳨃→ f (z) ∈ ℂ, die wir auch schlicht als komplexe Funktionen bezeichnen. Wenn nicht anders behauptet sei 𝕌 eine offene und nicht leere Umgebung. Solche eine Menge nennen wir auch Bereich von ℂ. Darüber hinaus verwenden wir durchgehend für komplexe Zahlen z, w ∈ ℂ die Notation: z := x + iy,

w := u + iv,

x, y, u, v ∈ ℝ,

mit der imaginären Einheit i, für die gilt: i2 := −1.

(1.1)

Wir nennen x und y den Real- und Imaginärteil von z und schreiben dafür: x = Rz,

y = Iz.

Die Multiplikation zweier komplexen Zahlen z und w ist definiert durch: zw := (x + iy)(u + iv) = xu − yv + i(xv + yu).

(1.2)

Die Menge der komplexen Zahlen ℂ bilden einen nicht geordneten Körper. Eine wesentliche Eigenschaft komplexer Zahlen ist die Konjugation. Definition 1.1 (Konjugation). Die zu einer komplexen Zahl z komplex konjugierte Zahl ist definiert durch: z̄ := x − iy. Die Konjugation einer komplexwertigen Funktion f ist definiert durch f ̄(z) := f (z).



Oft wird in der Physik auch z ̄ ≡ z∗ für die komplex konjugierte Zahl geschrieben. Wir verwenden durchgehend die erste Variante.

Die konjugierte Funktion ist eine an der reellen Achse gespiegelte Funktion.

1.1 Komplexe Zahlen und Funktionen

� 3

Aus der Definition und der Multiplikationsregel (1.2) folgen die Rechenregeln: z̄̄ = z,

(z + w) = z̄ + w,̄

zw = z̄w.̄

Real- und Imaginärteil von z können über x=

z + z̄ , 2

y=

z − z̄ , 2i

(1.3)

ausgedrückt werden. Ebenso wie für die komplexe Zahl z vereinbaren wir im Folgenden, dass f im Allgemeinen immer komplexwertig ist. Den Real- und Imaginärteil von f bezeichnen wir mit g, h und schreiben: f (x, y) = g(x, y) + ih(x, y),

(1.4)

mit g(x, y) = Rf (x, y),

h(x, y) = If (x, y).

Je nach Situation kennzeichnen wir die Abhängigkeiten vom Argument der Funktion f in der Form f (z) oder f (x, y), so wie dies in der Physik oft üblich ist und meinen damit ein und dieselbe Funktion.

Eine wichtige Eigenschaft einer komplexen Zahl oder Funktion ist der Betrag: Definition 1.2 (Betrag). Der Betrag einer Funktion f (z) ist definiert durch: |f |(z) := |f (z)| ≡ √f (z)f ̄(z).

(1.5) ◼

Unmittelbar aus der Definition folgt: 2

2

|f (z)| = √[Rf (z)] + [If (z)] , und damit |z| = √x 2 + y2 . Der Betrag |z| ist positiv sofern z ≠ 0 ist und |z| = 0 gilt genau dann, wenn z = 0 ist. Der Betrag (1.5) ist eine Normfunktion und erfüllt somit die Dreiecksungleichung |z + z′ | ≤ |z| + |z′ |. Betrachten wir ein einfaches Beispiel einer komplexen Funktion und die bisher eingeführten Größen. Beispiel 1.1. Gegeben sei die Funktion: ℝ2 ∋ (x, y) 󳨃→ f (x, y) = x 2 + y2 + i2xy, dann ist die komplex konjugierte Funktion und der Betrag gegeben durch:

4 � 1 Funktionentheorie f ̄(x, y) = x 2 + y2 − i2xy,

|f (x, y)| = √x 4 + y4 + 6x 2 y2 .

Der Betrag |f (x, y)| = |f (z)| ist in der Abbildungen in einem 3d-Plot dargestellt. In Abbildung 1.1 sind zusätzlich mit demselben Farbschema der Fläche die Niveaulinien, in der (x, y)-Ebene dargestellt. Benutzen wir die Gl. (1.3), dann folgt die Darstellung der Funktion durch die Variable z: f (z) = zz̄ + (z2 − z̄2 )/2



f ̄(z) = zz̄ − (z2 − z̄2 )/2.



Abb. 1.1: Die Betragsfunktion und die Niveaulinien (Linien mit konstantem Betrag cst = |f (z)| auch Konturlinie genannt) in der (x, y)-Ebene der Funktion: [−2, 2]×2 ∋ (x, y) 󳨃→ f (x, y) = x 2 + y 2 + i2xy. Die Farben kodieren den Betrag der Funktion.

Mit Hilfe des Betrags lässt sich die Inverse einer von Null verschiedenen komplexen Zahl z wie folgt schreiben: z−1 =

z̄ , |z|2

z ≠ 0.

(1.6)

Wenn die komplexen Zahlen z1 , z2 als Vektoren im ℝ2 aufgefasst werden, dann können wir auch einen Winkel und die Orthogonalität zwischen z1 und z2 definieren. Hierzu benutzen wir wie üblich das Skalarprodukt. Definition 1.3 (Skalarprodukt). In ℂ ist ein Skalarprodukt definiert über: ℂ × ℂ ∋ (z1 , z2 ) 󳨃→ ⟨z1 | z2 ⟩ := R(z̄1 z2 ) ∈ ℝ.

(1.7) ◼

Wir verwenden hier die Schreibweise des Skalarproduktes in der sogenannten Braket-Notation ⟨⋅ | ⋅⟩, wie sie in der Physik im Allgemeinen verwendet wird und durch P. A. M. Dirac im Rahmen einer Einführung in die Quantenmechanik eingeführt wurde [15]. In der Mathematik verwendet man typischerweise die Schreibweisen (⋅, ⋅), (⋅|⋅).

Die Eigenschaften des Skalarproduktes werden ausführlich in Abschnitt 3.2.4 diskutiert. Diese folgen unmittelbar aus der Definition:

1.1 Komplexe Zahlen und Funktionen

⟨z1 | z2 ⟩ = R(x1 x2 + y1 y2 + i(x1 y2 − x2 y1 )) = x1 x2 + y1 y2 = R(z1 z̄2 ).

� 5

(1.8)

Damit ergibt sich mit Hilfe der Cauchy-Schwarz’schen Ungleichung [siehe Gl. (A.1a) mit p = q = 2, n = 1]: |⟨z1 | z2 ⟩| ≤ |z1 ||z2 |,

∀z1 , z2 ∈ ℂ,

oder expliziter −1 ≤

⟨z1 | z2 ⟩ ≤ 1, |z1 ||z2 |

z1 , z2 ≠ 0.

Aus dieser Ungleichung definiert sich der Cosinus des Winkels Φ ≡ ∠(z1 , z2 ) zwischen den komplexen Zahlen z1 , z2 ≠ 0 über: cos(Φ) :=

⟨z1 | z2 ⟩ . |z1 ||z2 |

Aus der Definition des Betrags und Gl. (1.8) folgt dann der Cosinussatz: |z1 + z2 |2 = |z1 |2 + |z2 |2 + 2⟨z1 | z2 ⟩,

∀z1 , z2 ∈ ℂ.

Zwei von Null verschiedene komplexe Zahlen sind dann orthogonal, wenn das Skalarprodukt verschwindet: z1 ⊥ z2

⇐⇒

⟨z1 | z2 ⟩ = 0

⇐⇒

cos Φ = 0

Dies ist äquivalent zur Definition im ℝ2 . Beispiel 1.2. Betrachten wir zwei Beispiele und die grafische Darstellung in der komplexen Ebene ℂ ≅ ℝ2 . (i)

z1 = −1, z2 = −i, dann gilt:

(ii)

⟨z1 | z2 ⟩ = R(i) = 0. z3 = 1 + i/2, z4 = 1/2 + 3i/2, dann gilt

z̄1 z2 = i,

z̄3 z4 = 5(1 + i)/4,

⟨z3 | z4 ⟩ = R(5(1 + i)/4) = 5/4.

6 � 1 Funktionentheorie 1.1.2 Verallgemeinerte komplexe Zahlen* Komplexe Zahlen können auf verschiedene Weisen verallgemeinert werden. Der folgende Ergänzungsabschnitt gibt einen kurzen Überblick über Erweiterungen der komplexen Zahlen und deren Einbettung und Darstellungen in algebraische Strukturen. Verallgemeinerungen der komplexen Zahlen ergeben sich aus Erweiterungen der definierenden Gleichung für die imaginäre Einheit i in (1.1). Erste Verallgemeinerungen der komplexen Zahlen gehen auf W. Clifford (1845–1879) zurück, der sogenannte doppelt komplexe Zahlen mit der Eigenschaft i2 = +1 einführte. Anwendungen dieser doppelt komplexen Zahlen gibt es in der Nichteuklidischen Geometrie [16]. Der Geometer R. Study (1862–1930) erweiterte die komplexen Zahlen zu dualen Zahlen (Dynamen [17]), für die gilt i2 = 0. Diese Zahlen finden Anwendungen im Bereich der Mechanik und Robotik [18]. Systematisch eingeführt wurde dies von I. M. Yaglom [19]. Wir geben hier eine verkürzte Darstellung an, die sich auf ein paar wesentliche Merkmale und Definitionen beschränkt und die doppelt und duale komplexen Zahlen einschließt. Definition 1.4 (Allgemeine komplexe Zahlen). Die Menge der allgemeinen komplexen Zahlen ist definiert durch: ℂpq := {z = x + iy | x, y ∈ ℝ, i2 = pi − q, p, q ∈ ℝ}, wobei wir für den Fall p = 0 schreiben ℂq := ℂ0q .



Die Spezialfälle p = 0 und q = 1, 0, −1 repräsentieren die gewöhnlichen komplexen Zahlen, dualen Zahlen bzw. doppelt komplexen Zahlen. Die gewöhnlichen komplexen Zahlen sind dann gegeben durch ℂ ≡ ℂ1 . Die Konjugation ist weiterhin definiert durch z̄ := x − iy, und der Betrag in ℂq lautet: |z|q := √|x 2 + qy2 |. Für q > 0 ergibt sich eine elliptische Geometrie, für q = 0 eine parabolische und für q < 0 eine hyperbolische Geometrie. Wie aus dem Betrag zu erkennen ist, hat der Fall q = −1 die geometrische Struktur der speziellen Relativitätstheorie. Der Betrag |z|q ist für q ≤ 0 nur eine Halbnorm, da aus |z|q = 0 nicht z = 0 folgt. Die geometrische Struktur der allgemeinen komplexen Zahlen und ihre Anwendung in der Physik ist von I. M. Yaglom umfassend diskutiert worden, siehe hierzu [16]. Im folgenden Beispiel betrachten wir eine Matrix-Darstellung von verallgemeinerten komplexen Zahlen ℂq . Die Darstellung des Körpers der komplexen Zahlen ℂ ist auch durch reelle nichtsinguläre 2 × 2 -Matrizen möglich. Um dies kurz zu skizzieren definieren wir zunächst den Begriff der Matrix-Darstellung von Gruppen.

1.1 Komplexe Zahlen und Funktionen

� 7

Definition 1.5 (Matrix-Darstellung). Eine n-dimensionale Matrix-Darstellung einer Gruppe G ist ein Homomorphismus: G ∋ g 󳨃→ T(g) ∈ GLn (𝕂), mit n ∈ ℕ, dem Körper 𝕂 = ℝ(ℂ) und der allgemeinen linearen Gruppe GLn (𝕂) := {T = (Tij ), 1 ≤ i, j ≤ n | Tij ∈ 𝕂, det T ≠ 0}, der Menge der nicht singulären n × n -Matrizen in 𝕂. ◼ Aufgrund der Homomorphismus-Eigenschaft gilt: T(g1 )T(g2 ) = T(g1 g2 ),

T(g −1 ) = T−1 (g),

T(e) = 1,

für alle g1 , g2 , g ∈ G und dem neutralen Element e ∈ G. Betrachten wir als Beispiel die Darstellung von verallgemeinerten komplexen Zahlen ℂq . Beispiel 1.3. Gegeben sei die Menge der Matrizen x y

Mq := {Zq ∈ GL2 (ℝ) | Zq (x, y) := (

−qy ) , q > 0, x, y ∈ ℝ} . x

Eine zweidimensionale reelle Matrix-Darstellung der verallgemeinerten komplexen Zahlen z ∈ ℂq , ist gegeben durch: ℂq ∋ z = x + iy 󳨃→ Zq (z) ≡ Zq (x, y) ∈ Mq . Dann gilt für die Darstellung des Eins-Elementes 1 und der imaginären Einheit i aus ℂq : 1 Zq (1) = ( 0

0 ) =: 1, 1

Zq (i) = (

0 1

−q ) =: I, 0

womit folgt Zq (z) = x1 + yI, sowie I2 = −q1. Die verallgemeinerten komplexen Zahlen ℂq sind kommutativ: z1 z2 = z2 z1 . Die Matrizen im Allgemeinen nicht, deswegen muss noch gezeigt werden, dass Mq eine kommutative Untergruppe von GL2 (ℝ) bildet, betrachten wir dazu: Zq (z1 )Zq (z2 ) = (x1 1 + y1 I)(x2 1 + y2 I) = (x1 x2 − qy1 y2 )1 + (x1 y2 + y1 x2 )I ∈ Mq . Die Kommutativität ist daraus unmittelbar ersichtlich, denn: Zq (z1 )Zq (z2 ) = Zq (z1 z2 ) = Zq (z2 z1 ) = Zq (z2 )Zq (z1 ). Eine Normfunktion - man achte dabei auf q > 0 - auf Mq ist über die Determinante gegeben und wir erhalten:

8 � 1 Funktionentheorie |z|q = √det Zq (z) = √x 2 + qy2 ≥ 0. Für q = 1 reduziert sich dies auf den bekannten Fall für die komplexen Zahlen ℂ = ℂ1 . Die adjungierte Matrix Z̄ q (z) definieren wir dann über die HomomorphismusEigenschaft und der Relation z̄ = z−1 |z|2 aus (1.6): x z̄ 󳨃→ Z̄ q (z) = Zq (z)−1 det Zq (z) = ( −y

qy ̄ ) = Zq (z). x

Ein Skalarprodukt (1.7) kann mithilfe der Spur Sp T ≡ T11 + T22 in Mq definiert werden: ⟨z1 | z2 ⟩Mq :=

Sp(T̄ q (z1 )Tq (z2 )) 2

=

Sp(Tq (z̄1 z2 )) 2

= x1 x2 + qy1 y2 = ⟨z1 | z2 ⟩.



Damit schließen wir diese Ergänzung zu den verallgemeinerten komplexen Zahlen ab und gehen über zu der Polarkoordinatendarstellung komplexer Zahlen.

1.1.3 Polarkoordinaten Für das praktische Rechnen und zur besseren Interpretation ist die Darstellung der komplexen Zahlen durch Polarkoordinaten wichtig. Eine dabei und im Allgemeinen besonders wichtige Funktion ist die komplexe Exponentialfunktion: ℂ ∋ z 󳨃→ ez = ex+iy ∈ ℂ.

(1.9)

Setzen wir die Definition und die Eigenschaften der Exponentialfunktion im Reellen voraus, dann definieren wir diese im Komplexen über eine entsprechende Reihendarstellung: zn . n! n=0 ∞

ez := ∑ Diese Darstellung ist wohldefiniert, denn

󵄨󵄨 ∞ n 󵄨󵄨 ∞ 󵄨󵄨 z 󵄨󵄨 |z|n |ez | = 󵄨󵄨󵄨 ∑ 󵄨󵄨󵄨 ≤ ∑ = e|z| . 󵄨󵄨 󵄨󵄨 n! n! 󵄨n=0 󵄨 n=0 Die Exponentialfunktion genügt der Funktionalgleichung: ez1 ez2 = ez1 +z2 ,

e0 = 1,

∀z1 , z2 ∈ ℂ,

die ebenso als Definition hätte verwendet werden können.

1.1 Komplexe Zahlen und Funktionen

� 9

Der Real- und Imaginärteil von ex+iy ist in der Abbildung 1.2 dargestellt. Für den Betrag folgt unmittelbar aus der Funktionalgleichung: |ez | = |ex eiy | = ex √eiy e−iy = ex .

Abb. 1.2: Real- und Imaginärteil der komplexen Exponentialfunktion ez aus Gl. (1.9) zusammen mit Niveaulinien in der (x, y)-Ebene.

Nun leiten wir die Euler’sche Formel ab, die nicht nur in der Physik eine sehr wichtige Relation ist. Lemma 1.1 (Euler’sche Formel). Für alle z ∈ ℂ gilt: eiz = cos z + i sin z. Beweis. Der Beweis wird mittels der Definition der Exponentialfunktion über die Reihendarstellung geführt: ∞ 2n 2n ∞ 2n+1 2n+1 (iz)n i z i z =∑ +∑ n! (2n)! (2n + 1)! n=0 n=0 n=0 ∞

eiz = ∑

∞ (−)n z2n+1 (−)n z2n +i∑ (2n)! (2n + 1)! n=0 n=0 ∞

=∑

= cos z + i sin z. Im letzten Schritt wurden die aus der reellen Analysis bekannten Darstellungen der trigonometrischen Funktionen verwendet, sowie analog zu ez die absolute Konvergenz der Reihendarstellungen. Leonhard Euler hat diese Relation zuerst 1748 in seiner Arbeit Introductio in analysin infinitorum veröffentlicht [20]. Für den Fall z = π folgt die bekannte Darstellung eiπ = −1.

Aus der Euler’schen Formel leiten sich unmittelbar die nützlichen Relationen für die trigonometrischen Funktionen ab:

10 � 1 Funktionentheorie

cos z =

eiz + e−iz , 2

sin z =

eiz − e−iz , 2i

∀z ∈ ℂ.

(1.10)

Aus diesen Gleichungen erhalten wir die Beziehung zwischen trigonometrischen und hyperbolischen Funktionen über cos(iz) = cosh z und sin(iz) = i sinh z. Die trigonometrischen und hyperbolischen Funktionen mit komplexen Argumenten können über die Additionstheoreme in Real- und Imaginärteil zerlegt werden, betrachte hierzu die folgende Aufgabe. Zeige die Relationen: cos(x + iy) = cos x cosh y − i sin x sinh y, sin(x + iy) = sin x cosh y + i cos x sinh y, cosh(iy) = cos(y), sinh(iy) = i sin(y). Lösung: Dazu wird die Relation (1.10) mit z = x + iy verwendet: (cos x + i sin x)e−y + (cos x − i sin x)ey 2 ey + e−y ey − e−y = cos x − i sin x = cosh y cos x − i sinh y sin x, 2 2 −y (cos x + i sin x)e − (cos x − i sin x)ey sin(x + iy) = 2i ey − e−y ey + e−y sin x + i cos x = cosh y sin x + i sinh y cos x. = 2 2

cos(x + iy) =

Daraus folgt für den Spezialfall mit der Ersetzung: (x, y) → (0, iy): cos(i2 y) = cos(y) = cosh(iy), sin(i2 y) = − sin(y) = i sinh(iy).



Die Polarkoordinaten-Darstellung von komplexen Zahlen wird nun mithilfe der komplexen Exponentialfunktion definiert. Definition 1.6 (Polarkoordinaten). Die Darstellung einer komplexen Zahl z in der komplexen Ebene ℂ mit z = r(cos φ + i sin φ) = reiφ ,

r = |z|,

φ ∈ ]−π, π],

(1.11)

nennen wir Polarkoordinaten-Darstellung und arg z ≡ φ das Argument von z, das in der Physik oft als Phase bezeichnet wird. ◼ Daraus folgt |Rz| ≤ |z| und |Iz| ≤ |z|, sowie arg z̄ = − arg z. Den Winkel φ = arg z aus (1.11) nennt man auch den Hauptwert. Dieser kann durch die atan2-Funktion ausgedrückt werden:

1.1 Komplexe Zahlen und Funktionen

� 11

ℝ2 ∋ (x, y) 󳨃→ φ = atan2(y, x) ∈ [−π, π], mit der Definition arctan(y/x) { { { { { {arctan(y/x) + π atan2(y, x) := { { arctan(y/x) − π { { { { {sign(y)π/2

: x > 0,

: x < 0, y ≥ 0, : x < 0, y < 0,

(1.12)

: x = 0.

Hier ist die Funktion arctan der Hauptwert der Arcustangens-Funktion, deren Zweige in der Abbildung 1.3 dargestellt sind.

Abb. 1.3: Die atan2(y, x)-Funktion für die drei Zweige aus Gl. (1.12).

Die Notation atan2 wurde zuerst in Programmiersprachen eingeführt und ist in den meisten wissenschaftlichen Programmiersprachen neben der arctan-Funktion als solche definiert.

Die Multiplikation in Polarkoordinaten-Darstellung ist damit gegeben durch: z1 z2 = r1 r2 ei(φ1 +φ2 ) . Statt des Intervalls ]−π, π] werden wir auch das Intervall [0, 2π[ verwenden. Jedes halboffene Intervall der Länge 2π kann in der Polarkoordinaten-Darstellung äquivalent genutzt werden.

Die Multiplikation zweier komplexen Zahlen stellt somit eine Drehstreckung dar, dies wird im folgenden Beispiel veranschaulicht. Beispiel 1.4. Betrachte die komplexen Zahlen z1 = (1 + i)/2, z2 und = (1 + i√3)/2, dann folgt für die Beträge und Argumente: r1 = |z1 | =

1 , √2

φ1 = atan2(1/2, 1/2) = arctan(1) =

π , 4

12 � 1 Funktionentheorie r2 = |z2 | = 1,

π φ2 = atan2(√3/2, 1/2) = arctan(√3) = . 3

Damit folgt zum einen für das Produkt aus (1.2): z1 z2 =

1 + i 1 + i√3 1 1 = (1 − √3) + i (1 + √3), 2 2 4 4

und zum anderen in Polarkoordinaten-Darstellung mit dem Argument von z1 z2 : φ1 + φ2 = arg(z1 z2 ) = π + arctan(

7π 1 + √3 ) = π − arctan(2 + √3) = . 12 1 − √3

Damit gilt schließlich in Polarkoordinaten: z1 z2 =

1 i7π/12 e . √2

In Abbildung 1.4 ist die Addition und die Multiplikation grafisch dargestellt.



Abb. 1.4: Die Addition und Multiplikation der komplexen Zahlen z1 = (1 + i)/2 = eiπ/4 und z2 = (1 + i√3)/2 = eiπ/3 . Die Länge der Vektoren, also die Beträge der komplexen Zahlen, sind gegeben durch |z1 | = r1 = 1/√2, |z2 | = r2 = 1 und

|z1 z2 | = 1/√2, sowie |z1 + z2 | = √2 + √3/2.

Betrachten wir noch kurz den Winkel Φ = ∠(z1 , z2 ) zwischen zwei von Null verschiedenen komplexen Zahlen, den wir aus dem Skalarprodukt mit Polarkoordinaten ableiten können: cos Φ =

⟨z1 | z2 ⟩ = cos φ1 cos φ2 + sin φ1 sin φ2 = cos(φ1 − φ2 ). |z1 ||z2 |

Wir definieren einen Winkel Φ ∈ [0, 2π[ zwischen z1 und z2 ausgehend von z1 in mathematisch positiver Drehrichtung, also entgegen dem Uhrzeigersinn:

1.1 Komplexe Zahlen und Funktionen

φ2 − φ1 Φ = ∠(z1 , z2 ) = arg(z2 /z1 ) := { 2π + φ2 − φ1

� 13

: φ2 > φ1 ,

: φ2 ≤ φ1 .

Gegeben sei die sogenannte Kardinalsinus-Funktion:1 ℂ ∋ z 󳨃→ sinc(z) := {

sin z z

1

: z ≠ 0,

: z = 0.

(1.13)

Gib Real- und Imaginärteil, sowie den Betrag der Funktion sinc(z) an und stelle den Realteil und Betrag grafisch dar. Lösung: Zunächst sei bemerkt, dass die Funktion in z = 0 stetig fortgesetzt ist. Wir verwenden sin z = sin(x + iy) = sin x cosh y + i cos x sinh y und berechnen zuerst den Realteil über (1.3): R(

sin z sin z ̄ (x − iy) sin(x + iy) + (x + iy) sin(x − iy) sin z )= + = z 2z 2z ̄ 2(x 2 + y 2 ) =

x sin x cosh y + y cos x sinh y . x2 + y 2

Analog folgt für den Imaginärteil: I(

sin z sin z sin z ̄ x cos x sinh y − y sin x cosh y )= − = . z 2iz 2iz ̄ x2 + y 2

Zur Berechnung des Betrages verwenden wir (1.5) und erhalten damit: | sinc z| = √

sin(x + iy) sin(x − iy) (sin x cosh y)2 + (cos x sinh y)2 =√ . 2 2 x +y x2 + y 2

1 Die Kardinalsinus-Funktion geht auf P. M. Woodward (1953) zurück.



14 � 1 Funktionentheorie

1.2 Holomorphe Funktionen Wir übernehmen hier die aus der reellen Analysis bekannte Definition der Differenzierbarkeit und übertragen diese auf komplexe Zahlen. Es wird immer angenommen, dass 𝕌 ein Bereich aus ℂ ist, also insbesondere offen und nicht leer ist. Wir führen zunächst die komplexe Differenzierbarkeit ein und vergleichen diese dann mit der reellen Differenzierbarkeit und arbeiten deren Unterschiede heraus.

1.2.1 Komplex differenzierbar Die Differenzierbarkeit kann auf verschiedene äquivalente Weisen definiert werden. Eine ausführliche und vergleichende Diskussion in der reellen Analysis wird z. B. im Lehrbuch Analysis 1 [3] gegeben. Eine der möglichen Definitionen übertragen wir auf den Körper der komplexen Zahlen. Definition 1.7 (Komplex differenzierbar). Eine komplexe Funktion f auf 𝕌 ⊂ ℂ heißt in f z0 ∈ 𝕌 komplex differenzierbar, wenn es eine in z0 stetige Funktion Δz0 : 𝕌 → ℂ gibt mit der Eigenschaft: f (z) = f (z0 ) + (z − z0 )Δfz0 (z),

∀z ∈ 𝕌.

f

Die Funktion Δz0 (z0 ) heißt die Ableitung von f nach z im Punkt z0 , für die es verschiedene Schreibweisen gibt, die allesamt in der Physik gebräuchlich sind: Δfz0 (z0 ) ≡

df df (z) 󵄨󵄨󵄨 󵄨󵄨 (z ) ≡ 𝜕z f (z0 ) ≡ f ′ (z0 ). ≡ dz 󵄨󵄨z=z0 dz 0



Genauso wie im Reellen folgt deswegen, aufgrund der Differenzierbarkeit der Funktion f in z0 , die Stetigkeit der Funktion f (z). Definieren wir ζ := z − z0 , dann nennen wir Δfz0 (z0 + ζ ) =

f (z0 + ζ ) − f (z0 ) , ζ

ζ ≠ 0,

den Differenzenquotient und den Grenzwert lim Δfz0 (z0 + ζ ) = f ′ (z0 ),

ℂ∋ζ →0

(1.14)

den Differentialquotient. Über den Differenzen- und Differentialquotienten kann die komplexe Differenzierbarkeit ebenso definiert werden. Für unsere Zwecke hier ist jedoch der Zugang über die Definition 1.7 geeigneter. f Aufgrund der Stetigkeit von Δz0 (z) in z0 muss der Limes unabhängig vom Weg in ℂ sein. Betrachten wir statt eines einzelnen Punktes z0 Umgebungen von Punkten in ℂ bzw.

1.2 Holomorphe Funktionen

� 15

Bereiche 𝕌, dann führt dies auf den Begriff der Holomorphie von komplexwertigen Funktionen. Definition 1.8 (holomorph). Eine Funktion f ist holomorph in 𝕌, wenn sie überall in 𝕌 komplex differenzierbar ist. Eine im Punkt z0 ∈ ℂ holomorphe Funktion ist eine in einer Umgebung des Punktes z0 komplex differenzierbare Funktion. ◼ In der Physik nennt man solche Funktionen auch analytische Funktionen. Für eine auf ganz 𝕌 komplex differenzierbare Funktion f (z) schreiben wir dann auch, wie im Reellen üblich, Ableitungen als: f ′ (z) = f (1) (z) =

df (z) . dz

Für höhere Ableitungen verwenden wir analog die Notation: f ′′ (z) = f (2) (z) =

d2 f (z) , dz2

...,

f (n) (z) =

dn f (z) , dzn

wobei gelegentlich, wenn die Situation es erfordert, die Schreibweise f (0) (z) = f (z) verwendet wird. An dieser Stelle geben wir ohne Beweise, die aus der reellen Analysis bekannten Differentiations-Eigenschaften an. Diese können direkt aus dem Reellen übertragen werden. Satz 1.1 (Ableitungsregeln). Es seien in z0 komplex differenzierbare Funktionen f1 (z) und f2 (z) gegeben, dann gilt: (f1 + f2 )′ (z0 ) = f1′ (z0 ) + f2′ (z0 ),

(f1 f2 )′ (z0 ) = f1′ (z0 )f2 (z0 ) + f1 (z0 )f2′ (z0 ),

(f1 /f2 )′ (z0 ) =

f1′ (z0 )f2 (z0 ) − f1 (z0 )f2′ (z0 ) f2 (z0 )2

für f2 (z0 ) ≠ 0.

Ebenso gilt die aus der reellen Analysis bekannte Kettenregel auch im Komplexen. Satz 1.2 (Kettenregel). Es sei f1 : 𝕌1 → 𝕌2 in z0 ∈ 𝕌1 komplex differenzierbar und f2 : 𝕌2 → ℂ in w0 = f1 (z0 ) ∈ 𝕌2 komplex differenzierbar, dann ist (f2 ∘ f1 )(z) in z0 komplex differenzierbar und es gilt: (f2 ∘ f1 )′ (z0 ) =

df2 (f1 (z)) (z0 ) = f2′ (w0 )f1′ (z0 ). dz

Betrachten wir die komplexe Differenzierbarkeit für verschiedene wichtige Beispiele und diskutieren dabei die gerade eingeführten Größen. Beispiel 1.5. Sei ℂ ∋ z 󳨃→ f (z) = zn , n ∈ ℕ, dann folgt mit Hilfe des Differentialquotientens (1.14) für alle z0 ∈ ℂ:

16 � 1 Funktionentheorie n

n (z0 + ζ )n − zn0 n n l−1 n−1 = lim ∑ ( )zn−l = ( )zn−1 0 ζ 0 = nz0 . ζ l 1 ζ →0 ζ →0 l=1

Δzz0 (z0 ) = lim

Dies gilt für jeden beliebigen Weg ζ → 0, damit ist das Monom pn (z) := zn überall in ℂ komplex differenzierbar und damit auch jedes Polynom n-ter Ordnung. ⬦ Damit sind auch alle Polynome p(z) komplex differenzierbar. Rationale Funktionen p(z)/q(z) sind bis auf die Menge der Nullstellen des Polynoms q(z) komplex differenzierbar. Im nächsten Beispiel betrachten wir eine sehr einfache nirgends komplex differenzierbare Funktion. Beispiel 1.6. Sei ℂ ∋ z 󳨃→ f (z) = z,̄ dann gilt mit ζ = reiφ , φ ∈ ]−π, π]: f (z0 + reiφ ) − f (z0 ) z̄0 + re−iφ − z̄0 = lim = e−2iφ , r→0 r→0 reiφ reiφ

Δzz0 (z0 ) = lim ̄

∀φ.

Damit ist der Limes (1.14) nicht eindeutig und es gibt keine in z0 ∈ ℂ stetige Funktion Δzz̄0 (z0 ). Das bedeutet, f (z) = z̄ ist in z0 ∈ ℂ nicht komplex differenzierbar. Da dies für alle z0 ∈ ℂ gilt, ist z̄ nirgendwo in ℂ komplex differenzierbar, obwohl es eine lineare Funktion in z̄ ist. ⬦ Deswegen ist bei der Betrachtung der komplexen Differenzierbarkeit von Funktionen in denen explizit z̄ vorkommt besondere Vorsicht angebracht. Ganz analog geht die Argumentation im folgenden dritten Beispiel. Beispiel 1.7. Sei ℂ ∋ z 󳨃→ f (z) = Rz, dann folgt: ΔRz z0 (z0 ) = lim

ζ →0

R(z0 + ζ ) − R(z0 ) Rζ = lim . ζ ζ →0 ζ

Wählen wir zwei verschiedene Wege mit α ∈ ℝ, α → 0, dann folgt einerseits mit ζ = α: Rz ΔRz z0 (z0 ) = 1 und andererseits mit ζ = iα: Δz0 (z0 ) = 0, jeweils für alle z0 ∈ ℂ. Damit folgt, Rz ist nicht komplex differenzierbar. ⬦ Ebenso ist die Funktion f (z) = Iz nicht komplex differenzierbar. Es kann gezeigt werden, dass eine stetige Funktion f (z) holomorph in 𝕌 ist, wenn der Grenzwert des Differentialquotients in jedem Punkt z0 ∈ 𝕌 entlang zweier beliebiger nicht kollinearer Geraden durch z0 gleich ist. Wir erkennen aus den Beispielen, dass es einfache stetige Funktionen gibt, die nirgends komplex differenzierbar sind. Dies ist eine Eigenschaft, die es in dieser einfachen Form im Reellen nicht gibt. Die Eigenschaft der Holomorphie geht damit über die Differenzierbarkeit im Reellen hinaus, indem sie deutlich einschränkender ist. Diskutiere die komplexe Differenzierbarkeit der folgenden Funktionen ℂ ∋ z 󳨃→ fn (z): f1 (z) := sinc z;

f2 (z) := |z|2 ;

f3 (z) :=

az + b , cz + d

a, b, c, d ∈ ℂ.

1.2 Holomorphe Funktionen

� 17

Lösung: n = 1: Die Funktion f1 (z) = sinc z ist in Gl. (1.13) definiert, sie ist in z = 0 stetig fortgesetzt. Da sin z und z in ganz ℂ komplex differenzierbar sind gilt für z ≠ 0: z cos z − sin z z→0 d sinc z = 󳨀→ 0. dz z2 Dies ist konsistent mit der direkten Darstellung der komplexen Differenzierbarkeit in z0 = 0 über den Differentialquotienten: lim Δsinc 0 (ζ) = lim

ζ→0

ζ→0

sinc ζ − 1 = 0. ζ

n = 2: Bei der Funktion f2 (z) = |z|2 = zz ̄ ist wiederum der Fall z = 0 besonders zu betrachten. Die Funktion zz̄ ist das Produkt einer komplex differenzierbaren Funktion und einer nirgends komplex differenzierbaren Funktion. Hier könnte man eventuell erwarten, dass auch zz̄ nirgends komplex differenzierbar ist. Schauen wir uns deswegen den Differenzenquotienten an und setzen, wie in den Beispielen zuvor ζ = reiφ : lim Δzz0z (z0 + ζ) = lim

r→0

̄

r→0

(z0 + reiφ )(z0̄ + re−iφ ) − |z0 |2 = z0̄ + e−2iφ z0 . reiφ

Das bedeutet, dass für z0 ≠ 0 die Funktion zz̄ nicht komplex differenzierbar ist, aber für z0 = 0 ist sie komplex ̄ differenzierbar und es gilt Δzz 0 (0) = 0. n = 3: Die Funktion f3 (z) ist der Quotient zweier linearer Funktionen und damit in z ∈ ℂ \ {−d/c} definiert und stetig. Ist c = 0, so handelt es sich um eine einfache lineare Funktion. Nehmen wir an c ≠ 0, dann kann man schreiben: f3 (z) =

a bc − ad + . c c(cz + d)

Das bedeutet f3 (z) = a/c ist konstant für ad = bc und damit ebenso trivial. Deswegen nehmen wir an, dass des Weiteren gilt ad ≠ bc, dann ist f3 (z) eine sogenannte Möbius-Transformation und es gilt für die Ableitung: f3′ (z) =

ad − bc , (cz + d)2

z ∈ ℂ \ {−d/c}.

Die Möbius-Transformation werden wir später noch ausführlich besprechen.



Im nächsten Abschnitt diskutieren wir in Analogie zur komplexen Differenzierbarkeit die reelle Differenzierbarkeit von komplexen Funktionen. 1.2.2 Reell differenzierbar Für das Verständnis der komplexen Differenzierbarkeit ist es wichtig, den genauen Zusammenhang der komplexen Differenzierbarkeit in ℂ und der reellen Differenzierbarkeit in ℝ2 zu verstehen. Deswegen betrachten wir als Nächstes komplexwertige Funktionen, die wir über die Beziehung (1.4) nach den reellen Variablen x und y differenzieren wollen. Hierzu benötigen wir zunächst den Begriff der reellen Differenzierbarkeit komplexwertiger Funktionen.

18 � 1 Funktionentheorie Definition 1.9 (Reell differenzierbar). Eine Funktion f : 𝕌 → ℂ heißt im Punkt z0 ∈ 𝕌 f f reell differenzierbar, wenn es in z0 = x0 + iy0 stetige Funktionen Δx0 (x, y) und Δy0 (x, y) gibt, so dass gilt: f (x, y) = f (x0 , y0 ) + (x − x0 )Δfx0 (x, y) + (y − y0 )Δfy0 (x, y). f

(1.15)

f

Die Funktionen Δx0 (x0 , y0 ) und Δy0 (x0 , y0 ) nennen wir die partiellen Ableitungen nach x bzw. y im Punkt z0 , und schreiben dafür äquivalent: 𝜕f (x, y) 󵄨󵄨󵄨 󵄨󵄨 := 𝜕x f (x, y)|(x0 ,y0 ) ≡ 𝜕x f (x0 , y0 ), 𝜕x 󵄨󵄨(x0 ,y0 ) 𝜕f (x, y) 󵄨󵄨󵄨 󵄨 󵄨󵄨 Δfy0 (x0 , y0 ) = := 𝜕y f (x, y)󵄨󵄨󵄨(x ,y ) ≡ 𝜕y f (x0 , y0 ). 0 0 𝜕y 󵄨󵄨(x0 ,y0 )

Δfx0 (x0 , y0 ) =

f



f

Im Punkt (x0 , y0 ) sind die Funktionen Δx0 (x, y) und Δy0 (x, y) eindeutig bestimmt und mit Gl. (1.4) folgt: 𝜕x f (x, y) = 𝜕x g(x, y) + i𝜕x h(x, y), 𝜕y f (x, y) = 𝜕y g(x, y) + i𝜕y h(x, y).

Daraus folgt wiederum 𝜕x f = 𝜕x f ̄ und 𝜕y f = 𝜕y f ̄. Beispiel 1.8. In Beispiel 1.6 haben wir gesehen, dass f (z) = z̄ nirgendwo komplex differenzierbar ist, aber z̄ ist reell differenzierbar, denn zum einen gilt: z̄ = z̄0 + (x − x0 ) − i(y − y0 ) und zum anderen müssen für die reelle Differenzierbarkeit von z̄ stetige Funktionen Δzx̄0 = Δzx̄0 (x, y) und Δzȳ0 = Δzȳ0 (x, y) geben, so dass gilt: ̄ ̄ z̄ = z̄0 + (x − x0 )Δzx0 + (y − y0 )Δzy0 .

Wählt man Δzx̄0 = 1 und Δzȳ0 = −i, so sind diese stetig, woraus die reelle Differenzierbarkeit folgt. ⬦ Es muss demnach noch eine weitere Eigenschaft von reell differenzierbare Funktionen geben, damit diese auch komplex differenzierbar sind. Um diese zu finden drücken wir zunächst Gl. (1.15) durch die komplexen Variablen z, z̄ aus und führen die WirtingerAbleitungen ein. Satz 1.3 (Wirtinger-Ableitungen). Eine Funktion f ist in z0 ∈ U genau dann reell differenf f zierbar, wenn es in z0 stetige Funktionen Δz0 (z) und Δ̄ z0 (z) gibt, so dass gilt: f (z) = f (z0 ) + (z − z0 )Δfz0 (z) + (z̄ − z̄0 )Δ̄ fz0 (z).

(1.16)

1.2 Holomorphe Funktionen

� 19

An der Stelle z = z0 gilt: 1 Δfz0 (z0 ) = [𝜕x f (z0 ) − i𝜕y f (z0 )] = 𝜕z f (z0 ), 2 ̄Δf (z0 ) = 1 [𝜕x f (z0 ) + i𝜕y f (z0 )] = 𝜕z̄ f (z0 ). z0 2

(1.17a) (1.17b)

Diese Ableitungen nennt man auch die Wirtinger-Ableitungen der Funktion f . Beweis. Setzen wir 1 x − x0 = (z − z0 + z̄ − z̄0 ), 2

y − y0 =

1 (z − z0 − z̄ + z̄0 ) 2i

in Gl. (1.15) ein und stellen entsprechend nach z = x + iy und z0 = x0 + iy0 um, so ergibt sich die Relation: f (z) = f (z0 ) + (z − z0 )

f

f

Δx0 (z) − iΔy0 (z) 2

+ (z̄ − z̄0 )

f

f

Δx0 (z) + iΔy0 (z) 2

.

Ein anschließender Vergleich mit (1.16) ergibt die Übereinstimmung mit (1.17). Die Umkehrung ist durch Umstellung ebenso leicht zu zeigen. Die Gl. (1.17) formulieren wir noch einmal in verkürzter Differential-Operator-Form der Wirtinger-Ableitungen: 𝜕z = (𝜕x − i𝜕y )/2,

𝜕z̄ = (𝜕x + i𝜕y )/2.

Der Zusammenhang zwischen der komplexen und reellen Differenzierbarkeit wird durch den folgenden wichtigen Satz ausgedrückt. Satz 1.4. Für eine Funktion f : 𝕌 → ℂ sind die folgenden Aussagen äquivalent: (i) f (z) ist in z0 ∈ 𝕌 komplex differenzierbar. (ii) f (z) ist in z0 ∈ 𝕌 reell differenzierbar und es gilt 𝜕z̄ f (z)|z0 = 0. Beweis. Es gelte zunächst Aussage (i) und damit auch Gl. (1.7), woraus mit Gl. (1.16) folgt: f f f f Δ̄ z0 (z) = 0, insbesondere also 0 = Δ̄ z0 (z0 ) = 𝜕z̄ f (z)|z0 = 0 und damit Δx0 (z0 ) = −iΔy0 (z0 ), woraus folgt: f (z) = f (z0 ) + (z − z0 )Δfz0 (z) = f (z0 ) + (x − x0 )Δfx0 (z) + i(y − y0 )Δfx0 (z). Damit ist also f (z) = f (x, y) reell differenzierbar und es ist 𝜕z̄ f (z0 ) = 0. Nun gelte Aussage (ii). Aus dem Satz 1.3 folgt dann: f (z) = f (z0 ) + (z − z0 )Δfz0 (z) + (z̄ − z̄0 )Δ̄ fz0 (z),

20 � 1 Funktionentheorie f f mit in z0 stetigen Funktionen Δz0 (z) und Δ̄ z0 (z). Des Weiteren gilt nach Voraussetzung f̄ Δz (z0 ) = 𝜕z̄ f (z0 ) = 0. Nun müssen wir die Darstellung (1.7) zeigen, dazu definieren wir: 0

̄ z̄ f z− Δ̄ z (z) 0 Δ̂̄ fz0 (z) := { 0 z−z0 0

: z ≠ z0 ,

: z = z0 .

f f Da gilt |(z̄ − z̄0 )/(z − z0 )| = 1 und Δ̄ z0 (z0 ) = 0, ist Δ̄̂ z0 in z0 stetig. Setzt man dann Δ(z) := f f Δz (z) + Δ̂̄ z (z), so ergibt sich die Darstellung: 0

0

f (z) = f (z0 ) + (z − z0 )Δ(z), f f f mit Δ(z0 ) = Δz0 (z0 ), da gilt Δ̂̄ z0 (z0 ) = Δ̄ z0 (z0 ) = 𝜕z̄ f (z0 ) = 0.

Fassen wir abschließend zusammen: Damit eine reell differenzierbare Funktion f auch komplex differenzierbar ist, muss zusätzlich noch die Gl. 𝜕z̄ f = 0 gelten. Deswegen ist f (z) = z̄ aus den Beispielen (1.6) und (1.7) nirgends komplex differenzierbar, da gilt 𝜕z̄ z̄ = 1. Dies formulieren wir noch um und erhalten so die Cauchy-Riemann’schen Differentialgleichungen. Lemma 1.2 (Cauchy-Riemann). Sei f (z) = g(x, y) + ih(x, y) in z komplex differenzierbar, dann gilt: 𝜕z f (z) =

𝜕x f (x, y) − i𝜕y f (x, y) 2

(1.18)

,

und die reellen Funktionen g(x, y) und h(x, y) genügen den Cauchy-Riemann’schen Differentialgleichungen (CRD): 𝜕z̄ f (z) = 0,

(1.19)

𝜕x g(x, y) = +𝜕y h(x, y),

(1.20a)

oder explizit reell geschrieben:

𝜕y g(x, y) = −𝜕x h(x, y).

(1.20b)

Beweis. Die Aussage (1.18) ist identisch mit (1.17b). Die Gl. (1.20) folgen aus dem Satz 1.4: 0 = 𝜕x f (x, y) + i𝜕y f (x, y) = [𝜕 x g(x, y) − 𝜕y h(x, y)] +i [𝜕 y g(x, y) + 𝜕x h(x, y)] . ⏟⏟⏟⏟⏟⏟⏟⏟⏟⏟⏟⏟⏟⏟⏟⏟⏟⏟⏟⏟⏟⏟⏟⏟⏟⏟⏟⏟⏟⏟⏟⏟⏟⏟⏟⏟⏟⏟⏟⏟⏟ ⏟⏟⏟⏟⏟⏟⏟⏟⏟⏟⏟⏟⏟⏟⏟⏟⏟⏟⏟⏟⏟⏟⏟⏟⏟⏟⏟⏟⏟⏟⏟⏟⏟⏟⏟⏟⏟⏟⏟⏟⏟ =0

=0

Die Cauchy-Riemann’sche Differentialgleichung (1.19) kann so interpretiert werden, dass holomorphe Funktionen f (z) nicht von z̄ abhängen, dabei fasst man z, z̄ als unabhängige Variablen auf, obwohl dieses offensichtlich nicht der Fall ist. Betrachten

1.2 Holomorphe Funktionen

� 21

wir in diesem Zusammenhang noch einmal die Beispiele (1.6) und (1.7), dann folgt zum einen: 𝜕z̄ z̄ = 1,

∀z ∈ ℂ,

und zum anderen 𝜕z̄ |z|2 = z,

∀z ∈ ℂ;

also ist z̄ nirgendwo komplex Differenzierbar und |z|2 nur in z = 0. Analog gilt dies für f (z) = Rz: 1 𝜕z̄ Rz = , 2

∀z ∈ ℂ.

Die Cauchy-Riemann’schen Differentialgleichungen kann man nutzen, um komplexwertige Funktionen durch ihre Real- und Imaginärteile darzustellen oder eben als Test zur komplexen Differenzierbarkeit einer Funktion. Um dies zu verdeutlichen, schauen wir uns die folgenden Beispiele und Aufgaben an. Beispiel 1.9. Betrachte die komplexe Exponentialfunktion (1.10): e(z) ≡ e(x, y) := ex cos y + iex sin y,

∀z = x + iy ∈ ℂ.

Diese Funktion ist offenbar reell differenzierbar und ebenso sind die CRD erfüllt: 𝜕x ex cos y = ex cos y = 𝜕y ex sin y,

𝜕y ex cos y = −ex sin y = −𝜕x ex sin y.

Deswegen ist e(z) auch komplex differenzierbar und es gilt 𝜕z e(z) =

𝜕x e(x, y) − i𝜕y e(x, y)

2 1 x = (e cos y + iex sin y − i(−ex sin y + iex cos y)) = ex eiy = ez = e(z). 2



Beispiel 1.10. Betrachte die reelle Differenzierbarkeit der Funktion ℂ ∋ z 󳨃→ f (z) := 3z2 z̄ − z̄3 . Aus der CRD folgt: 𝜕z̄ f (z) = 3(z2 − z̄2 ). Damit f komplex differenzierbar ist muss gelten: z2 = z̄2 , woraus unmittelbar folgt xy = 0. Die Funktion ist damit auf der reellen und imaginären Achse komplex differenzierbar, außerhalb nicht. ⬦

22 � 1 Funktionentheorie In der folgenden Aufgabe soll eine komplexe Funktion auf Differenzierbarkeit untersucht werden, die in der Form f = f (x, y) gegeben ist. Diskutiere die Differenzierbarkeit der komplexen Funktion ℝ2 ∋ (x, y) 󳨃→ f (x, y) = x 3 y 2 + ix 2 y 3 , und stelle die Funktion in einem 3d-Plot mit Niveaulinien grafisch dar. Lösung: Die CRD lauten: 𝜕x g(x, y) = 3x 2 y 2 = 𝜕y h(x, y),

𝜕y g(x, y) = 2x 3 y = −𝜕x h(x, y) = −2xy 3 . Daraus folgt die Gleichung: xy = 0, womit die Funktion f (x, y) nur auf den Koordinatenachsen komplex differenzierbar ist. Da es keine Umgebung für die komplex differenzierbaren Punkte auf den Koordinatenachsen gibt, ist die Funktion auf den Koordinatenachsen nicht holomorph. In Abbildung 1.5 sind die linke und rechte Seite der CRD (1.20) dargestellt. Die Linien xy = 0 sind in der (x − y)-Ebene zusammen mit den Niveaulinien ebenfalls dargestellt.

Abb. 1.5: Die Ableitungen 𝜕y g(x, y) = 2x 3 y und −𝜕x h(x, y) = −2xy 3 der komplexen Funktion f (x, y) = g(x, y) + ih(x, y) zusammen mit den Niveaulinien in der (x − y)-Ebene im Intervall [−2, 2] × [−2, 2]. ̄ dass f nicht holomorph ist: Es folgt mithilfe der Variablentransformation (x, y) → (z, z), f (z) = z

2 (z + z)̄ 2 (z − z)̄ 2 z = − 4 (z2 − z2̄ ) . 2 2 2 2 (2i)

Für die Wirtinger-Ableitungen 𝜕z ̄ gilt in Polarkoordinaten z = |z|eiφ : 𝜕z ̄ f (z) =

i|z|4 sin(2φ) zz ̄ 2 |z|4 i2φ (z − z2̄ ) = (e − e−2iφ ) = . 4 4 2

Letztere Größe verschwindet, wenn z = 0 oder φ = 0, ±π/2, also z = Rz bzw. z = Iz ist.



Zum Abschluss stellen wir noch die Rechenregeln der Wirtinger-Ableitungen 𝜕z , 𝜕z̄ zusammen ohne diese zu beweisen (siehe dazu die Aufgabe am Ende des Kapitels). Lemma 1.3 (Wirtinger-Ableitungen). Eine reell differenzierbare Funktion f = g + ih erfüllt die folgenden Gleichungen der Wirtinger-Ableitungen:

1.2 Holomorphe Funktionen

𝜕z f = 𝜕z̄ f ̄, 𝜕z̄ z = 0,

𝜕z̄ f = 𝜕z f ̄, 𝜕z z̄ = 0,

1 1 𝜕x g = (𝜕x f + 𝜕x f ̄), 𝜕y g = (𝜕y f + 𝜕y f ̄), 2 2 1 1 𝜕x h = (𝜕x f − 𝜕x f ̄), 𝜕y h = (𝜕y f − 𝜕y f ̄), 2i 2i 𝜕x f = 𝜕z f + 𝜕z̄ f , 𝜕y f = i𝜕z f − i𝜕z̄ f .

� 23

(1.21a) (1.21b) (1.21c) (1.21d) (1.21e)

Die Operatoren 𝜕z und 𝜕z̄ bilden damit einen linearen Vektorraum über ℂ. Eine direkte Folgerung aus den Wirtinger-Ableitungen führt auf den Begriff der harmonischen Funktionen. Hierzu drücken wir den Laplace-Operator Δ noch durch die WirtingerAbleitungen aus: Δ := 𝜕x2 + 𝜕y2 = 4𝜕z 𝜕z̄ . Lemma 1.4 (Harmonische Funktionen). Es sei f = g + ih eine in ganz 𝕌 komplex differenzierbare Funktion, wobei g = g(x, y) und h = h(x, y) zweimal reell stetig partiell differenzierbare Funktionen in 𝕌 seien, dann gilt: Δg(x, y) = 0,

Δh(x, y) = 0,

∀z = x + iy ∈ 𝕌.

(1.22)

Funktionen f = g + ih, die Gl. (1.22) erfüllen, nennt man harmonische Funktionen. Beweis. Dies ist eine unmittelbare Folgerung aus den CRD (1.20) und den Voraussetzungen: 𝜕x (𝜕x g) = 𝜕x (𝜕y h) = 𝜕y (𝜕x h) = −𝜕y (𝜕y g). Analog folgt der zweite Fall. Die verlangte zweimalige Differenzierbarkeit wird sich später aufgrund der komplexen Differenzierbarkeit als überflüssig erweisen. Eine Funktion f (z) ist genau dann harmonisch, wenn ihr Real- und Imaginärteil harmonisch ist. Harmonische Funktionen nennt man in der Physik auch Potentialfunktionen. Eine der wichtigsten harmonischen Funktionen in der Physik ist die komplexe Exponentialfunktion, für die gilt: Δez = (𝜕x2 + 𝜕y2 )ex+iy = (1 + i2 ) = 0. Damit sind auch die komplexen trigonometrischen und hyperbolischen Funktionen harmonische Funktionen. Betrachten wir als Beispiel eine typische Anwendung. Beispiel 1.11. Gegeben sei die reelle Funktion g(x, y) = x 3 − 3xy2 . Gesucht ist die holomorphe Funktion f (z), für die gilt f (x, y) = g(x, y) + ih(x, y) mit f (i) = 1. Zunächst stellt

24 � 1 Funktionentheorie man fest, dass g eine harmonische Funktion ist, da gilt: Δg(x, y) = 0. Betrachten wir die CRD, aus denen folgt: 𝜕x g(x, y) = 3(x 2 − y2 ) = 𝜕y h(x, y). Integrieren wir beide Seiten über y, so erhalten wir: h(x, y) = ∫ dy3(x 2 − y2 ) + ξ(x) = 3x 2 y − y3 + ξ(x), mit einer zu bestimmenden Funktion ξ(x). Aus der zweiten CRD folgt 𝜕y g(x, y) = −6xy = −𝜕x h(x, y) = −6xy − ξ ′ (x). Das bedeutet ξ(x) = c ist konstant und damit folgt: f (x, y) = x 3 − 3xy2 + i(3x 2 y − y3 ) + ic = (x + iy)3 + ic. Die Konstante bestimmt man aus der Bedingung f (i) = f (0, 1) = 1, woraus unmittelbar folgt, c = 1 − i und damit letztlich: f (x, y) = f (z) = z3 + i + 1.



Es sei f (z) = f (x, y) eine holomorphe Funktion mit einem Realteil g(x, y) = sin x cosh y. Bestimme f (z) mit der Bedingung f (0) = 1. Lösung: Die CRD lauten: 𝜕x g(x, y) = cos x cosh y = 𝜕y h(x, y),

𝜕y g(x, y) = sin x sinh y = −𝜕x h(x, y).

Das bedeutet für den Imaginärteil aus der ersten Gleichung: h(x, y) = cos x sinh y + ξ(x). Benutzen wir nun die zweite CRD, so folgt: 𝜕y g(x, y) = sin x sinh y = −𝜕x h(x, y) = sin x sinh y + ξ ′ (x). Dies bedeutet aber, dass ξ(x) = c konstant ist und insgesamt gilt: f (x, y) = sin x cosh y + i cos x sinh y + ic. Mithilfe der Relation cos iy = cosh y und sin iy = i sinh y schreiben wir: f (x, y) = sin x cos iy + cos x sin iy + ic = sin(x + iy) + ic = sin z + ic = f (z). Damit bestimmt sich die Konstante über 1 = f (0) = ic, und insgesamt f (z) = 1 + sin z.



1.2 Holomorphe Funktionen

� 25

Oft liegen Probleme vor, die besonders einfach in Polarkoordinaten beschrieben werden können. In diesen Fällen ist es dann nützlich die CRD in Polarkoordinaten (r, φ) auszudrücken. Lemma 1.5 (CRD in Polarkoordinaten). Gegeben sei eine holomorphe Funktion f : 𝕌 → ℂ mit Polarkoordinaten-Darstellung f (reiφ ) = g(r, φ) + ih(r, φ), dann lauten die CRD in Polarkoordinaten (r, φ): r

𝜕g(r, φ) 𝜕h(r, φ) = , 𝜕r 𝜕φ

r

𝜕h(r, φ) 𝜕g(r, φ) =− , 𝜕r 𝜕φ

(1.23)

und der Laplace-Operator für zweimal stetig partiell differenzierbare Funktion ist gegeben durch: 1 1 1 1 Δ = 𝜕r2 + 𝜕r + 2 𝜕φ2 = 𝜕r r𝜕r + 2 𝜕φ2 . r r r r

(1.24)

Beweis. Wir gehen aus von den Wirtinger-Ableitungen 𝜕z , 𝜕z̄ und z = reiφ , dann folgt mit Hilfe der Kettenregel: 𝜕z 𝜕z̄ 𝜕 + 𝜕 ̄ = eiφ 𝜕z + e−iφ 𝜕z̄ , 𝜕r z 𝜕r z 𝜕z̄ 𝜕z 𝜕 + 𝜕 ̄ = ireiφ 𝜕z − ire−iφ 𝜕z̄ . 𝜕φ = 𝜕φ z 𝜕φ z 𝜕r =

Dies können wir nach 𝜕z , 𝜕z̄ umstellen und erhalten 𝜕z =

e−iφ (r𝜕r − i𝜕φ ), 2r

𝜕z̄ =

eiφ (r𝜕r + i𝜕φ ). 2r

Daraus folgt analog zum kartesischen Fall mit Hilfe der CRD 0 = 𝜕z̄ f =

eiφ (r𝜕r + i𝜕φ )(g + ih) 2r

durch Koeffizientenvergleich von Real- und Imaginärteil die Gl. (1.23). Betrachten wir den Laplace-Operator Δ und drücken diesen durch die Polarkoordinaten-Darstellung von 𝜕z und 𝜕z̄ aus: i i Δ = 4𝜕z 𝜕z̄ = e−iφ (𝜕r − 𝜕φ )eiφ (𝜕r + 𝜕φ ) r r i i 1 i i 1 = 𝜕r2 − 2 𝜕φ + 𝜕r 𝜕φ + 𝜕r + 2 𝜕φ − 𝜕φ 𝜕r + 2 𝜕φ2 r r r r r r 1 1 = 𝜕r2 + 𝜕r + 2 𝜕φ2 . r r

26 � 1 Funktionentheorie Hier wurde die zweimal stetige Differenzierbarkeit ausgenutzt um die Vertauschung der Differentiationen sicherzustellen. Nach Zusammenfassung der ersten beiden Terme folgt die Aussage (1.24). Schauen wir uns hierzu die Aufgabe an. Bestimme für If (reiφ ) := √r sin(φ/2) die holomorphe Funktion f (z), für die gilt f (1) = 1. Lösung: Die CRD in Polarkoordinaten lauten: r

𝜕g(r, φ) 𝜕h(r, φ) √r = = cos(φ/2), 𝜕r 𝜕φ 2 𝜕h(r, φ) 𝜕g(r, φ) r = −r =− sin(φ/2). 𝜕φ 𝜕r 2√r

Aus der ersten Gleichung folgt nach Integration über r: g(r, φ) = √r cos(φ/2) + ξ(φ), woraus dann aus der zweiten CRD folgt: ξ ′ (φ) = 0



ξ = c.

Aus der Bedingung f (1) = 1 folgt c = 0, so dass wir letztlich mit z = reiφ erhalten: f (z) = √r(cos(φ/2) + i sin(φ/2)) = √reiφ = √z



1.2.3 Lokal konstante Funktionen Im Folgenden sind lokal konstante Funktionen besonders wichtig, deswegen fassen wir wesentliche Eigenschaften in einem Lemma zusammen: Lemma 1.6 (Lokal konstante Funktionen). Auf einem Bereich 𝕌 sei eine Funktion f (z) gegeben, dann gilt: (i) Äquivalent zur Konstanz von f (z) auf 𝕌, ist die Aussage: f (z) ist in ganz 𝕌 holomorph, und es gilt: 𝜕z f (z) = 0, ∀z ∈ 𝕌. (ii) Nimmt die holomorphe Funktion f (z) in 𝕌 entweder nur rein reelle oder rein imaginäre Werte an, so ist die Funktion konstant. (iii) Genügt die holomorphe Funktion f der Gleichung |f (z)| = 1, ∀z ∈ 𝕌, dann ist f (z) konstant auf 𝕌. Beweis. (i) Es reicht nur die eine Richtung zu betrachten, sei also 𝜕z f (z) = 0, ∀z ∈ 𝕌. Da f (z) holomorph ist gilt 𝜕z̄ f = 0 und deswegen mit (1.21e) 𝜕z f = 𝜕x f = 𝜕x g + i𝜕x h. Mit den

1.2 Holomorphe Funktionen

� 27

CRD und der Voraussetzung 𝜕z f = 0 folgt dann: 𝜕x g = 𝜕y g = 0 und 𝜕x h = 𝜕y h = 0. Damit folgt mit Ergebnissen aus der reellen Analysis, dass f konstant sein muss. (ii) Nehmen wir an g = Rf = f und h = If = 0, dann folgt aus den CRD: 𝜕x g = 𝜕y h = 0 und 𝜕x h = −𝜕y g = 0, also gilt: 1 𝜕z f = (𝜕x − i𝜕y )g = 0. 2 Den Fall mit rein imaginärem f behandelt man analog. (iii) Betrachten wir 1 = |f (z)|2 = g 2 + h2 . Nach Differentiation dieser Gleichung folgt: g𝜕z g + h𝜕z h = 0, woraus nach Multiplikation mit g und den Gl. (1.20) folgt: 0 = g 2 𝜕x g + hg𝜕x h = g 2 𝜕x g − hg𝜕y g = g 2 𝜕x g + h2 𝜕x g = (g 2 + h2 )𝜕x g = 𝜕x g. Entsprechend zeigt man 𝜕x h = 0. Zusammen folgt: 𝜕z f = 𝜕x g + i𝜕x h = 0, so dass f also lokal konstant ist. Lokal konstante Funktionen sind im Allgemeinen keine konstanten Funktionen. Betrachte hierzu beispielsweise eine Funktion f , die auf wechselseitig disjunkten Mengen 𝕌j ⊂ ℂ definiert ist, mit f |𝕌j = j, j = 1, . . . , n, dann ist f jeweils lokal konstant in 𝕌j , aber insgesamt nicht konstant in 𝕌 = 𝕌1 ∪ ⋅ ⋅ ⋅ ∪ 𝕌n , n ≥ 2.

1.2.4 Konforme Abbildungen Nicht nur zur Diskussion konformer Abbildung benötigen wir Wege in der komplexen Ebene. Wir übertragen den Begriff der Wege und Tangenten an Kurven aus dem ℝ2 auf ℂ ≃ ℝ2 . Zunächst fassen wir die im Folgenden verwendete Terminologie in einer einzigen Definition zusammen: Definition 1.10 (Weg in ℂ). Es sei Intervall 𝕀 = [a, b] ⊂ ℝ gegeben, dann bezeichnen wir eine differenzierbare Abbildung γab : 𝕀 ∋ t 󳨃→ γab (t) ∈ ℂ als einen Weg in ℂ und beziehen die Differenzierbarkeit auf den Real- und Imaginärteil von γab (t). Den zu −1 = γba . Gilt überall auf dem Weg γab entgegengesetzten Weg bezeichnen wir mit γab ′ 𝜕t γab (t) ≡ γab (t) ≠ 0, nennen wir den Weg glatt. Die Bildmenge Sp γab ≡ γab ([a, b]) nennen wir die Spur von γab . Wenn Anfangs- und Endpunkt eines Weges gleich sind: γab (a) = γab (b), nennen wir den Weg geschlossen. ◼ Wenn die Anfangs- und Endpunkte a und b eines Weges für die Diskussion nicht von Bedeutung sind lassen wir diese in der Notation auch weg und schreiben kurz γ(t) = γab (t).

Betrachten wir einige Wegbeispiele, die wir im Folgenden oft verwenden werden und beginnen mit Kreislinien oder Teilkreislinien.

28 � 1 Funktionentheorie Beispiel 1.12. Die positiv orientierte Kreislinie um einen Punkt z0 ∈ ℂ mit Radius r ist die Abbildung: [0, 2π[ ∋ t 󳨃→ κzr0 (t) := z0 + reit ∈ ℂ,

r > 0.

(1.25)

Dies ist ein stetig differenzierbarer Weg mit 𝜕t κzr0 (t) = ireit = i(κzr0 (t)−z0 ). Die Spur ist gegeben durch: Sp κzr0 = {z ∈ ℂ | |z − z0 | = r}. Verläuft der Weg entgegengesetzt, so nennen

wir dies die negativ orientierte Kreislinie und schreiben hierfür: (κzr0 )−1 (t) = κzr0 (−t). Ist das Parameterintervall [0, π[, so beschreibt dies einen Halbkreis. Des Weiteren werden beliebige Intervalle 𝕀 ⊂ [0, 2π[ verwendet, um Teilkreislinien zu konstruieren. ⬦ Ein weitere Gruppen von Wegen sind Geraden (Strecken) zwischen Punkten in ℂ. Beispiel 1.13. Eine Gerade zwischen den Punkten za und zb ist parametrisiert durch: [0, 1] ∋ t 󳨃→ γza zb (t) := za + t(zb − za ). Hieraus folgen die Eigenschaften: 𝜕t γza zb (t) = zb − za ,

γ−za ,−zb (t) = −γza zb (t),

γza zb (1 − t) = γzb za (t).



Aus der reellen Analysis wissen wir, dass ein Tangentialvektor einer glatten Kurve γ(t) im Punkt t0 durch γ′ (t0 ) gegeben ist. Dies überträgt sich auf Wege in ℂ. Insbesondere ist der Winkel zwischen zwei Geraden vom Ursprung zu den Punkten z1 und z2 gleich ∠(z1 , z2 ). Für zwei beliebige glatte Wege γi : 𝕀i ∋ ti → γi (ti ) ∈ 𝕌 sei z0 = γ1 (t10 ) = γ2 (t20 ) ein Schnittpunkt, dann sind γi′ (ti0 ) die orientierten Richtungsvektoren (Tangentialvektoren) der beiden Wege im Punkt z0 . Der eingeschlossene Winkel der beiden Richtungsvektoren ist ∠(γ1′ (t10 ), γ2′ (t20 )). Dies führt zur Definition des Schnittpunktwinkels von Wegen. Definition 1.11 (Schnittpunktwinkel). Der Schnittpunktwinkel zwischen zwei Wegen γi , i = 1, 2 im Schnittpunkt z0 := γ1 (t10 ) = γ2 (t20 ) ist definiert über: ∢z0 (γ1 , γ2 ) := ∠(γ1′ (t10 ), γ2′ (t20 )).



Betrachten wir explizit das folgende Beispiel von Geraden (Strecken) und Halbkreisen sowie deren Schnittpunkte und Tangenten. Beispiel 1.14. Gegeben seien Ursprungsgeraden zu den Punkten z1 := 2−i und z2 := 1+i, sowie eine positiv orientierte Halbkreislinie, parametrisiert durch: [0, 1] ∋ ti 󳨃→ γi = ti zi ,

[−π/2, π/2] ∋ τ 󳨃→ κ01 (τ) = eiτ .

1.2 Holomorphe Funktionen

� 29

Abb. 1.6: Darstellung der Wege γ1 (t), γ2 (t) und κ01 (τ), sowie den Tangentialvektoren 𝜕τ κ01 (τi0 ) an der Kreislinie in den beiden Schnittpunkten z10 = (2 − i)/√5 und z20 = (1 + i)/√2 mit den Geraden bei t10 = 1/√5, τ10 = − arctan(1/2) und t20 = 1/√2, τ20 = π/4.

Betrachten wir Schnittpunkte der Wege und beginnen mit den Geraden γ1 , γ2 im Punkt z0 = 0, also ti0 = 0. Der dort eingeschlossene Winkel ist gegeben durch: ∢0 (γ1 , γ2 ) = ∠(γ1′ (0), γ2′ (0)) = arg(z2 /z1 ) = arctan(3) = φ2 − φ1 , mit φ1 = arg(z1 ) = − arctan(1/2) und φ2 = arg(z2 ) = arctan(1) = π/4. Dies ist das bekannte Ergebnis für Winkel zwischen zwei komplexen Zahlen. Als nächstes betrachten wir die Schnittpunkte der Strecken mit dem Halbkreis, die gegeben sind durch die Gleichungen zi0 = γi (ti0 ) = κ01 (τi0 ), daraus folgt: t10 = 1/√5,

τ10 = − arctan(1/2),

z10 = (2 − i)/√5,

t20 = 1/√2,

τ20 = π/4,

z20 = (1 + i)/√2.

Damit folgt für den Winkel der Tangenten: ∢zi0 (γi , κ01 ) = ∠(γi′ (ti0 ), κ01 (τi0 )) = arg( ′

ieiτi0 π ) = arg(eiπ/2 ) = . iτ i0 2 e

Die beiden Tangenten stehen, wie bekannt, je senkrecht aufeinander. Alle hier diskutierten Punkte und Kurven sind in der Abb. 1.6 dargestellt. ⬦ Im nächsten Schritt betrachten wir Abbildungen von Wegen γ durch reell differenzierbare Funktionen f nach ℂ. Da wir die Schnittwinkel von abgebildeten Wegen untersuchen wollen, wird die Ableitung von (f ∘ γ)(t) benötigt. Lemma 1.7. Es sei eine in 𝕌 reell differenzierbare Funktion f : 𝕌 → ℂ gegeben, so wie ein Weg γ : 𝕀 ∋ t → 𝕌, dann gilt: (f ∘ γ)′ (t) = 𝜕z f (γ(t))γ′ (t) + 𝜕z̄ f (γ(t))γ̄ ′ (t).

(1.26)

30 � 1 Funktionentheorie Dies folgt unmittelbar aus der reellen Differenzierbarkeit in (1.16). Für eine komplex differenzierbare Funktion reduziert sich dies auf: (f ∘ γ)′ (t) = 𝜕z f (γ(t))γ′ (t). Wir interpretieren die Ableitungen der Wege γ′ (t) als nicht normierte Tangentialvektoren, wobei das Verhältnis von Imaginär- zu Realteil die Steigung der Tangente ist. Für glatte Wege ist dies immer von Null verschieden. Nach einer Abbildung des Weges über eine reell differenzierbare Funktion f ∘ γ, kann dies in einem Punkt z0 verschwinden, sofern 𝜕z f (z0 ) = 𝜕z̄ f (z0 ) = 0 gilt. Allerdings bedeutet dies nicht, dass dann in diesem Punkt z0 der Tangentialvektor verschwindet, wie das folgende Beispiel zeigt. Beispiel 1.15. Gegeben sei der Weg [0, 1] ∋ t 󳨃→ γ(t) = tz1 und die Funktion f (z) = z2 , dann gilt γ′ (0) = z1 und (f ∘ γ)′ (t) = 𝜕t (tz1 )2 = 2tz21 , was in t = 0 verschwindet. Ein Tangentialvektor im Punkt z0 = 0 existiert aber für die quadratische Funktion z2 . ⬦ Die nicht normierten Tangentialvektor an Kurven (Trajektorien) von sich bewegenden Punkten im ℝd , sind in der Physik direkt mit deren Geschwindigkeitsvektoren verbunden.

Das Beispiel zeigt, dass Punkte z0 für die gilt f ′ (z0 ) = 0, besonders betrachtet werden müssen. Wir definieren nun den Begriff der winkeltreuen Abbildungen. Definition 1.12 (Konforme Abbildungen). Eine stetig reell differenzierbare Abbildung f : 𝕌1 → 𝕌2 mit nicht verschwindender Ableitung nennen wir winkeltreu in z0 , wenn für beliebige glatte Wege γi mit z0 := γ1 (t10 ) = γ2 (t20 ) gilt: ∢w0 (f ∘ γ1 , f ∘ γ2 ) = ∢z0 (γ1 , γ2 ),

w0 = f (z0 ).

Lokal winkeltreue, orientierungserhaltende und umkehrbare Abbildungen nennen wir lokal konform, falls f auch global injektiv ist, nennen wir f konform. ◼ Der folgende Satz beschreibt den Zusammenhang zwischen holomorphen Funktionen und konformen Abbildungen. Satz 1.5. Eine holomorphe Funktion f : 𝕌 → ℂ mit f ′ (z) ≠ 0 für z ∈ 𝕌 ist lokal konform. Beweis. Die Winkeltreue zweier Wege γi in z0 ∈ 𝕌, mit w0 = f (z0 ), folgt aus: ∢w0 (f ∘ γ1 , f ∘ γ2 ) = ∠((f ∘ γ1 )′ (t10 ), (f ∘ γ2 )′ (t20 ))

= ∠(f ′ (z0 )γ1′ (t10 ), f ′ (z0 )γ2′ (t20 ))

= arg(f ′ (z0 )γ2′ (t20 )/f ′ (z0 )γ1′ (t10 ))

= arg(γ2′ (t20 )/γ1′ (t10 )) = ∢z0 (γ1 , γ2 ).

1.2 Holomorphe Funktionen

� 31

Die Umkehrbarkeit der Abbildung folgt aus dem Satz über implizite Funktionen im ℝ2 (siehe Anhang A.3). Eine Funktion f (x, y) = g(x, y)+ih(x, y) ist in (x0 , y0 ) lokal umkehrbar, wenn die Funktionaldeterminante nicht verschwindet und die partiellen Ableitungen stetig sind. Für die Funktionaldeterminante gilt: 󵄨󵄨 𝜕(g, h) 󵄨󵄨 󵄨󵄨 󵄨 = |f ′ (z0 )|2 ≠ 0. |J(f )|x0 ,y0 = det 󵄨󵄨󵄨 󵄨 󵄨󵄨 𝜕(x, y) 󵄨󵄨󵄨x0 ,y0 Diese Gleichung zeigt man mithilfe der Wirtinger-Ableitungen (siehe zugehörige Aufgabe am Ende des Kapitels). Man müsste im Prinzip noch die Stetigkeit der partiellen Ableitungen fordern, aber wir werden später sehen, dass dies für holomorphe Funktionen automatisch erfüllt ist.

Eine nicht orientierungserhaltende Abbildung diskutieren wir im folgenden Beispiel einer nicht holomorphen Funktion. Beispiel 1.16. Betrachten wir die Abbildung: ℂ ∋ z 󳨃→ f (z) = i + z,̄ sowie zwei glatte Wege ℝ ∋ t 󳨃→ γi (t), i = 1, 2. Nehme an, die Wege besitzen in z0 = γ1 (t10 ) = γ2 (t20 ) einen Schnittpunkte, mit w0 = f (z0 ), dann folgt mit (1.26): ∢w0 (f ∘ γ1 , f ∘ γ2 ) = arg((f ∘ γ2 )′ (t20 )/(f ∘ γ1 )′ (t10 )) = arg(𝜕z̄ f (z0 )γ̄2′ (t20 )/𝜕z̄ f (z0 )γ̄1′ (t10 )) = arg(γ̄2′ (t20 )/γ̄1′ (t10 )) = − arg(γ2′ (t20 )/γ1′ (t10 )) = −∢z0 (γ1 , γ2 ). Die Abbildung ist damit nicht orientierungserhaltend, aber für die Beträge gilt: |∢w0 (f ∘ γ1 , f ∘ γ2 )| = |∢z0 (γ1 , γ2 )|. Betrachte die beiden Wege γi : [−1/2, 3/2] ∋ t 󳨃→ γi (t) ∈ Sp γab , die definiert sind durch: γ1 (t) := t + iαt,

γ2 (t) := t + iβt 2 ,

mit α, β > 0 und die Funktion: 2

ℂ ∋ z 󳨃→ f (z) := ez .



32 � 1 Funktionentheorie

Überprüfe die Winkeltreue der Abbildung f für die gegebenen Wege in ihren Schnittpunkten und stelle die Wege, und Abbildungen zusammen mit den Tangenten grafisch dar. Lösung: Zunächst sind die Schnittpunkte z0 zu bestimmen. Die Bestimmungsgleichung für die Wegparameter ti0 lauten: 2 z0 = γ1 (t10 ) = t10 + iαt10 = γ2 (t20 ) = t20 + iβt20 .

Daraus ergeben sich zwei mögliche Schnittpunkte z0 : (i)

t10 = t20 ≡ t0 = 0, mit z10 = 0, α α (ii) t10 = t20 ≡ t0 = , mit z20 = (1 + iα). β β Für die Berechnung der Winkel benötigen wir die Tangential-Ableitungen: 1 + iα

γ1′ (t0 ) = {

1 + iα

: t0 = 0,

1 γ2′ (t0 ) = { 1 + i2α

: t0 = α/β,

: t0 = 0,

: t0 = α/β.

Dann folgt für die beiden Fälle (i), (ii) für die Winkel: ∢z0 (γ1 , γ2 ) = arg(

arg(1/(1 + iα)) : t0 = 0, γ2′ (t0 ) )={ γ1′ (t0 ) arg((1 + i2α)/(1 + iα)) : t0 = α/β, − arctan(α)

={

arctan(α/(1 + 2α2 ))

: t0 = 0,

: t0 = α/β.

In Abbildung 1.7 sind die Wege γ1,2 durch gestrichelte Kurven für den Fall α = β = 1 dargestellt. Die beiden Schnittpunkte der Kurven sind durch grüne bzw. schwarze offene Punkte markiert.

Abb. 1.7: Die beiden Wege γ1,2 für den Fall α = β = 1 und die Abbildungen f ∘ γ1,2 . Die offenen grünen Punkte gehören zum Schnittpunkt z10 = 0 und dem abgebildeten Schnittpunkt bei f (0) = 1. Die schwarzen offenen Punkte gehören zum Schnittpunkt z20 = 1 + i und dem abgebildeten Schnittpunkt bei f (1 + i) = ei2 . In allen Punkten sind die zugehörigen Tangentenlinien Linien eingezeichnet. Die normierten Tangentialvektoren im Punkt w01 = 1, sind durch gepunktete Linien dargestellt.

1.2 Holomorphe Funktionen

� 33

Betrachten wir im nächsten Schritt die Abbildung f (z), dann gilt für die Schnittpunkte: (i)

z10 = 0 :

(ii)

z20 =

f (z10 ) = 1,

α(1 + iα) : β

f (z20 ) = e(1−α

2

)α2 /β2

(cos(2α3 /β2 ) + i sin(2α3 /β2 )).

2

Die Funktion f (z) = ez ist holomorph, aber f ′ (z)|z=0 = 0. Führen wir die Abkürzungen c1t = cos(2αt 2 ) und s1t = sin(2αt 2 ), bzw. c2t = cos(2βt 3 ) und s2t = sin(2βt 3 ) ein, dann folgt zunächst allgemein für die Tangentenabbildungen (f ∘ γi )′ (t): (f ∘ γ1 )′ (t) = 2(t + iαt)e(1−α = 2te(1−α

2 2

)t

2 2

)t

((1 − α2 )c1t − 2αs1t + i(2αc1t + (1 − α2 )s1t )),

(f ∘ γ2 )′ (t) = 2(t + iβt 2 )e(1−β = 2te(1−β

(c1t + is1t )(1 + iα)

2 2 2

t )t

2 2 2

t )t +i2βt 3

(1 + i2βt)

((1 − 2β2 t 2 )c2t − 3βts2t + i(3βtc2t + (1 − 2β2 t 2 )s2t )).

Betrachten wir nun die beiden Schnittpunkte der Abbildungen einzeln. (i) t0 = 0, z10 = 0, w10 = 1: Für beide Wege gilt (f ∘ γi )′ (0) = 0, aber es existiert trotzdem ein Tangentialvektor in z10 = 0, da Real- und Imaginärteil einen gemeinsamen Vorfaktor haben, der verschwindet: lim

t→0

2α/(1 − α2 ) : α ≠ 1 I(f ∘ γ1 )′ (t) ={ ′ R(f ∘ γ1 ) (t) −∞ : α = 1,

lim

t→0

I(f ∘ γ2 )′ (t) = 0. R(f ∘ γ2 )′ (t)

Deswegen existieren die normierten Tangentialvektoren lim

t→0

(f ∘ γ1 )′ (t) 1 − α2 + i2α = , |(f ∘ γ1 )′ (t)| 1 + α2

lim

t→0

(f ∘ γ2 )′ (t) = 1, |(f ∘ γ2 )′ (t)|

die in der Abbildung durch gepunktete Linien dargestellt sind. Der Fall α = 1 mit einer senkrechten und waagerechten Tangente ist in der Abbildung als gepunktete Linie eingezeichnet. Für den Schnittpunktwinkel in wi0 = (f ∘ γi )(0) = 1 gilt ∢1 (f ∘ γ1 , f ∘ γ2 ) = lim arg((f ∘ γ2 )′ (t)/(f ∘ γ1 )′ (t)) t→0

= arg(

1 ) = −2 arctan(α) 1 − α2 + i2α

= 2∢0 (γ1 , γ2 ).

(ii)

Der Winkel nach der Transformation ist damit doppelt so groß. Betrachten wir den zweiten Schnittpunkt. t0 = α/β, z20 = α(1 + iα)/β, w20 = f (z20 ): Analog ergibt sich mit den Abkürzungen c = cos(2α3 /β2 ) und s = sin(2α3 /β2 ): ∢w20 (f ∘ γ1 , f ∘ γ2 ) = arg((f ∘ γ2 )′ (t0 )/(f ∘ γ1 )′ (t0 )) = arg(

(1 − 2α2 )c − 3αs + i(3αc + (1 − 2α2 )s) ) (1 − α2 )c − 2αs + i(2αc + (1 − α2 )s)

34 � 1 Funktionentheorie = arctan(α/(1 + 2α2 )) = ∢z20 (γ1 , γ2 ). Die Winkel sind in diesem Fall identisch und sind in der Abbildung durch schwarze offene Punkte und entsprechenden Tangentenlinien zu sehen. ⬦

1.2.5 Äquipotential- und Stromlinien* Betrachten wir eine analytische Funktion f (x, y) = g(x, y) + ih(x, y) und definieren die Gradienten 𝜕x g ), 𝜕y g

∇g := (

𝜕x h ). 𝜕y h

∇h := (

Des Weiteren betrachten wir Wege im ℝ2 , auf denen g bzw. h konstant sind: γg (t) := {(xg (t), yg (t)) ∈ ℝ2 , t ∈ ℝ | g(xg (t), yg (t)) = g0 }, γh (t) := {(xh (t), yh (t)) ∈ ℝ2 , t ∈ ℝ | h(xh (t), yh (t)) = h0 }.

Diese Linien nennt man in der Physik auch Äquipotentiallinien oder auch Niveaulinien und Stromlinien. Die Tangentialvektoren sind dann gegeben durch γg′ (t) = (xg′ (t), y′g (t))t , γh′ (t) = (xh′ (t), y′h (t))t und auf den Linien gilt dg = (𝜕x g)xg′ + (𝜕y g)y′g = ⟨∇g | γg′ ⟩, dt dh 0= = (𝜕x h)xh′ + (𝜕y h)y′h = ⟨∇h | γh′ ⟩. dt

0=

Das bedeutet, die Gradienten stehen senkrecht auf den Niveaulinien, dies ist in Abbildung 1.8 exemplarisch dargestellt.

Abb. 1.8: Wege γg (t), γh (t) auf denen jeweils g und h konstant sind mit g(xg (t), yg (t)) = g0 und h(xh (t), yh (t)) = h0 . Im Punkt (x0 , y0 ) schneiden sich die Linien und es gilt γg (x0 , y0 ) = γh (x0 , y0 ).

1.2 Holomorphe Funktionen

� 35

Betrachten wir einen Punkt (x0 , y0 ), in dem sich die Wege kreuzen, dann stehen die Gradienten senkrecht aufeinander, denn aufgrund der CRD gilt: ⟨∇g | ∇h⟩|(x0 ,y0 ) = (𝜕x g𝜕x h + 𝜕y g𝜕y h)|(x0 ,y0 ) = (𝜕y h𝜕x h − 𝜕x h𝜕y h)|(x0 ,y0 ) = 0. Anders ausgedrückt, die Niveaulinien der Real- und Imaginärteile einer analytischen Funktion schneiden sich orthogonal.

1.2.6 Biholomorphe Funktionen Betrachten wir nun holomorphe und lokal bijektive Funktionen. Definition 1.13 (Biholomorph). Eine Funktion f : 𝕌1 → 𝕌2 zwischen offenen Gebieten 𝕌1,2 heißt biholomorph, wenn sie holomorph und bijektiv ist und die Umkehrfunktion f −1 : 𝕌2 → 𝕌1 holomorph ist. Wir nennen die Funktion lokal biholomorph in z0 , wenn es Umgebungen 𝕌z0 und 𝕌f (z0 ) gibt, so dass f eingeschränkt auf 𝕌z0 biholomorph ist. ◼ Wie im Reellen folgt aufgrund der Stetigkeit der Umkehrfunktion, die in 𝕌 keine verschwindende Ableitung besitzen: ′

(f −1 ) (w) =

1 , f ′ (z)

w = f (z), f ′ (z) ≠ 0,

∀z ∈ 𝕌.

Ohne Beweis sei der folgende Satz genannt. Satz 1.6. Eine holomorphe Funktion f : 𝕌 → ℂ, ist genau dann in z0 ∈ 𝕌 lokal biholomorph, wenn f ′ (z0 ) ≠ 0 gilt. Die Funktion f (z) = z2 ist in ℂ× := ℂ \ {0} holomorph und f ′ (z) ≠ 0 aber nicht injektiv. Sie ist aber lokal biholomorph und stellt ein einfaches Beispiel einer lokal invertierbaren Funktion dar, die selbst holomorph ist. An diesem Beispiel illustrieren wir den Phasenplot von komplexen Funktionen, bei dem das Argument der komplexen Zahl farbig dargestellt wird. Beispiel 1.17. Wir schauen uns das Abbild der rechten Halbebene ℍ< := {z ∈ ℂ× | −π/2 < arg z < π/2} unter der Abbildung ℍ< ∋ z 󳨃→ z2 an. Ein Ausschnitt der Halbebene ist in der linken Abbildung als sogenannter Phasenplot dargestellt, wobei die Phase φ = arg z von z = reiφ ∈ ℍ< farbig entsprechend der Legende kodiert ist. Die Ebene ℍ< wird unter der Abbildung f (z) = z2 in die geschlitzte komplexe Ebene ℂ− := {z ∈ ℂ | π < arg z < π}

36 � 1 Funktionentheorie bijektiv abgebildet und in der rechten Abbildung in einem Phasenplot dargestellt (siehe Abbildung 1.9).

Abb. 1.9: Die Legende zeigt die Farbkodierung des Argumentes. Die dicken schwarzen Linie sind jeweils nicht in ℍ< bzw. ℂ− enthalten. Die Kreise rechts in der Grafik sind Niveaulinien.

Durch das Quadrieren wird die Phase verdoppelt und somit die komplexe Ebene bis auf die negative reelle Achse abgebildet. In der rechten Halbebene ℍ< gilt f ′ (z) = 2z ≠ 0. Des Weiteren besitzt f (z) = z2 eine holomorphe Umkehrfunktion f −1 (f (z)) = z, die gegeben ist durch: ℂ− ∋ w 󳨃→ f −1 (w) = w1/2 ∈ ℍ< . Damit ist die Abbildung f : ℍ< → ℂ− biholomorph.



Der Phasenplot ist eine geeignete Methode, um das Argument einer komplexen Funktion darzustellen. Eine andere Form der visuellen Darstellung komplexer Funktionen f : 𝕌1 → 𝕌2 ist die Abbildung von Niveaulinien konstanten Real- und Imaginärteils. Hierbei wird ein Gitternetz aus einer Menge 𝕌1 in ein Gitternetz 𝕌2 abgebildet. Für konforme Abbildung sind dann alle Schnittwinkel der Gitter winkel- und orientierungstreu. Betrachten wir als Beispiel wiederum eine quadratische Funktion. Beispiel 1.18. Gegeben sei die obere Halbebene ℍ+ := {z ∈ ℂ | Iz > 0}, die in der Abbildung (1.10) als Ausschnitt mit grau eingefärbten Kacheln dargestellt ist. Die reelle Achse ist schwarz markiert und gehört nicht zu ℍ+ . Betrachten wir die Abbildung: ℍ+ ∋ z 󳨃→ f (z) := −z2 ∈ ℂ− .

1.2 Holomorphe Funktionen

� 37

Eine komplexe Zahl z ∈ ℍ+ schreibt sich in Polarkoordinaten als z = reiφ mit 0 < φ < π, ′ damit folgt für die Abbildung f (z) = −z2 = r 2 ei2(φ−π/2) = r 2 ei2φ mit −π/2 < φ′ < π/2. Aufgrund der Erkenntnisse des vorherigen Beispiels ist das Abbild die geschlitzte komplexe Ebene ℂ− . Damit ist die Abbildung biholomorph und konform und ist in der rechten Abbildung dargestellt (siehe Abbildung 1.10). Man beachte, dass z = 0 ≠ ℍ+ gilt. Die unterschiedlich grau gefärbten quadratischen Kacheln der oberen Halbebene werden auf die entsprechenden grauen Felder rechts abgebildet. Exemplarisch sind rote und blaue Tangenten für einen orientierten Schnittpunktwinkel eingezeichnet.

Abb. 1.10: Links dargestellt ist die obere Halbebene ℍ+ und die Linien konstanten Real- und Imaginärteils. Die verschiedenen Grauwerte kennzeichnen die Spalten. Rechts dargestellt ist die konforme Abbildung f (z) = −z2 des grauen Gitters. Die einzelnen dicken blauen und roten Linien sind exemplarische Tangenten in einem Schnittpunktwinkel und deren Abbildung.

Die Umkehrabbildung ist gegeben durch: ℂ− ∋ w 󳨃→ f −1 (w) = √−w ∈ ℍ+ .



1.2.7 Möbius-Transformation* Eine wichtige Klasse biholomorpher Abbildungen sind die Möbius-Transformationen. Hier schauen wir uns nur deren elementare Eigenschaften an. Für weiterführende Diskussionen sei auf Fischer und Lieb [9] verwiesen.

38 � 1 Funktionentheorie Definition 1.14 (Möbius-Transformation (MT)). Gegeben seien die Matrizen a c

A=(

b ) ∈ GL2 (ℂ). d

Die Möbius-Transformation ist definiert durch die Abbildung: {ℂ \ −d/c} ∋ z 󳨃→ TA (z) :=

az + b ∈ ℂ. cz + d

Die Menge der Transformationen wird mit 𝕄T := {TA | A ∈ GL2 (ℂ)} bezeichnet.



Die Definition über Matrizen A ∈ GL2 ist nicht eindeutig, da TA = TαA gilt und somit alle αA, α ≠ 0 bezüglich der Definition äquivalent sind. Auf diese Diskussion gehen wir an dieser Stelle nicht ein, siehe hierzu etwa die Ausführungen in [9].

Die Möbius-Transformation ist eine sogenannte gebrochen lineare Transformation. Zur Definition der MT ist es nicht nötig auf die Gruppe GL2 (ℂ) zurückzugreifen, es würde ausreichen die Bedingung ad − bc ≠ 0 zu fordern. Die Definition ist lediglich gewählt um den existierenden Gruppenhomorphismus zwischen GL2 und der Gruppe der MT herzustellen. Um dies zu sehen betrachten wir die Komposition zweier MöbiusTransformationen TAi (z), i = 1, 2: (TA1 ∘ TA2 )(z) =

(a1 a2 + b1 c2 )z + a1 b2 + b1 d2 . (c1 a2 + d1 c2 )z + c1 b2 + d1 d2

(1.27)

Die resultierende Abbildung ist wieder eine MT und es gilt: TA1 A2 = TA1 ∘ TA2 . Daraus folgt die Assoziativität TA1 ∘ (TA2 ∘ TA3 ) = (TA1 ∘ TA2 ) ∘ TA3 . Setzt man a = d = 1 und b = c = 0, dann gilt T1 (z) = z, dies stellt ein neutrales Element dar, wobei zu beachten ist, dass ebenso Tα1 = z gilt (siehe ). Benutzt man die Relation (1.27) so folgt für die inverse MT: TA−1 (z) = −

dz − b = T(det A)A−1 (z) = TA−1 (z). cz − a

Damit bildet die Menge der Möbius-Transformationen 𝕄T eine Gruppe. Der Gruppenhomorphismus ist gegeben durch GL2 (ℂ) ∋ A 󳨃→ TA (z) =

az + b ∈ 𝕄T . cz + d

Betrachten wir nun Elementartypen von Möbius-Transformationen für spezielle Matrizen A und erweitern zunächst, wie im Reellen, die komplexen Zahlen durch Hinzunahme von ∞.

1.2 Holomorphe Funktionen

� 39

Definition 1.15 (Erweiterte komplexe Zahlen). Die erweiterten komplexen Zahlen sind definiert durch: ℂ∗ := ℂ ∪ {∞}, zusammen mit den Rechenregeln z + ∞ = ∞ + z := ∞, z ⋅ ∞ = ∞ ⋅ z := ∞,

z/∞ := 0,

z/0 := ∞,

z ∈ ℂ∗ ,

z ∈ ℂ∗ \ {0}.



Als erste elementare MT sei die Inversion betrachtet, die definiert ist durch: ℂ∗ ∋ z 󳨃→ TJ (z) :=

1 ∈ ℂ∗ , z

0 1

J := (

1 ). 0

Die Inversion ist in Abbildung 1.11 dargestellt.

Abb. 1.11: Links ist ein Ausschnitt der komplexen Ebene mit einem orthogonalen achsenparallem Gitter dargestellt, rechts die Abbildung TJ (z) = 1/z des Gitters.

Vollständige Kreise werden durch vollständige Geraden erzeugt. Die Kreise würden sich also schließen, wenn wir statt des Ausschnittes die komplette komplexe Ebene betrachten würden. Die Abbildung TJ (z) ist in ℂ× konform, denn TJ′ (z) = −1/z2 ≠ 0,

z ∈ ℂ× .

In der rechten Abbildung zeigt sich dies durch die senkrecht aufeinander stehenden Tangenten in den Schnittpunkten der Kreislinien. Die reelle und imaginäre Achse sind

40 � 1 Funktionentheorie invariant unter TJ (z) und können als Grenzfälle von Kreisen mit unendlichem Radius aufgefasst werden. Die lineare Transformation mit c = 0 ist eine weitere MT und definiert durch: TL (z) :=

a/d 0

b a z+ , d d

L := (

b/d ) 1

a, d ≠ 0.

Eine Matrix a 0

b ) ∈ GL2 (ℂ), 1

L=(

repräsentiert damit eine lineare MT. Damit kann eine allgemeine MT (c ≠ 0) als Komposition einer Inversion und einer linearen Transformation (Drehstreckungen) geschrieben werden. Dazu beachten wir, dass gilt A = L2 JL1 mit: c 0

L1 = (

d ), 1

b − ad/c 0

L2 = (

a/c ). 1

Aufgrund der Homomorphismus-Eigenschaft folgt dann: TA (z) = (TL2 ∘ TJ ∘ TL1 )(z) = (TL2 ∘ TJ )(cz + d) = TL2 ( =−

det A 1 a + . c cz + d c

1 ) cz + d

Aufbauend auf der allgemeinen MT betrachten wir als weiteres Beispiel einer biholomorphen Abbildung eine spezielle MT, die sogenannte Caley-Abbildung. Beispiel 1.19 (Caley-Abbildung). Die Caley-Abbildung ist eine Abbildung der oberen Halbebene ℍ+ in die offene Einheitskreisscheibe 𝔼 := {z ∈ ℂ | |z| < 1}, die definiert ist durch ℍ+ ∋ z 󳨃→ TC (z) :=

z−i ∈ 𝔼, z+i

1 1

mit C = (

−i ), +i

(1.29)

und in Abbildung 1.12 ist TC (z) dargestellt. Die nicht zu ℍ+ gehörige reelle Achse wird auf den Rand 𝜕𝔼 der offenen Kreisscheibe abgebildet. Die Inverse Caley-Abbildung ist gegeben durch: TC−1 (z) = TC−1 (z) = T2i C−1 (z) = i Dies sei exemplarisch verifiziert:

1+z , 1−z

z ∈ ℍ+ .

1.3 Cauchy Integralsatz

� 41

Abb. 1.12: Links ist ein Ausschnitt der komplexen Ebene ℂ mit einem orthogonalen achsenparallem Gitter in ℍ+ dargestellt. Die einzeln markierten Punkte sind: ∘ : z = 0, ∗ : z = −1, × : z = 1, ⬦ : z = i und ◻ : z = 4i. Die rechte Grafik stellt die Abbildung TC (z) des Gitters zusammen mit den abgebildeten Punkten aus ℍ+ dar. Der Punkt ‘+ : z = 1’ in der rechten Abbildung gehört zu x = ±∞ in der linken Abbildung.

(TC−1 ∘ TC )(z) = TC−1 (

1+ z−i )=i z+i 1−

z−i z+i z−i z+i

=i

2z = z. 2i

Des Weiteren gilt für die Ableitung: d 2i T (z) = ≠ 0, dz C (z + i)2 damit ist TC (z) biholomorph in ℍ+ .

∀z ∈ ℍ+ , ⬦

Die Caley-Abbildung und deren Eigenschaften werden später bei der Diskussion von Funktionen gebraucht. Die Caley-Transformation ist eine für die Physik wichtige Transformation und wird zum Beispiel bei der Lösung von Potentialproblemen aus der Elektrodynamik gebraucht, indem Kreisgeometrien auf Rechteckgeometrien zurückgeführt werden.

1.3 Cauchy Integralsatz Zur Formulierung des Cauchy Integralsatzes benötigen wir Wegintegrale in der komplexen Ebene, die wir im ersten Abschnitt einführen und aus dem Reellen übertragen. Darauf aufbauend führen wir den Begriff der Stammfunktion ein. In den sich daran anschließenden Abschnitten diskutieren wir ausführlich den Cauchy Integralsatz und

42 � 1 Funktionentheorie seine vielfältigen Anwendungen in der Mathematik und Physik. Eine wichtige Anwendungen im Bereich der Potentialtheorie wird das Dirichlet-Randwertproblem sein, welches ausführlich an einem Beispiel illustriert wird.

1.3.1 Wegintegrale In diesem Abschnitt beschäftigen wir uns mit Wegintegralen in der komplexen Ebene. Alle Konzepte der Wegintegrale im ℝ2 können dabei im Wesentlichen übernommen werden. Zunächst definieren wir den Begriff des Integrationsweges in ℂ. Dies wird eine Fortsetzung des Wegbegriffes aus der Definition 1.10 sein. Definition 1.16 (Integrationsweg). Ein Integrationsweg in 𝕌 ist ein stückweiser stetig differenzierbarer Weg [a, b] ∋ t 󳨃→ γab (t) ∈ Sp γab ⊂ 𝕌, mit γab (a) = za und γab (b) = zb . Wir nennen einen Integrationsweg γab geschlossen, wenn jeder Punkt z ∈ Sp γab genauso oft als Anfangs- und Endpunkt vorkommt. ◼ Betrachten wir die Komposition einer Abbildungen γ : 𝕀 = [a, b] → Sp γab ⊂ 𝕌 aus einem kompakten Intervall 𝕀 mit einer Abbildung f : 𝕌 → ℂ. Diese Abbildung f ∘ γ : 𝕀 → ℂ integrieren wir entlang des Weges γ. Das Integrationsintervall 𝕀 ist dabei reell. Durch getrennte Betrachtung von Real- und Imaginärteil der Funktion f lässt sich der Begriff des Integrals einer komplexwertigen Funktion aus der reellen Analysis dann direkt übertragen. Definition 1.17 (Komplexes Integral). Es sei f : 𝕀 → ℂ eine stückweise stetige Funktion, dann definieren wir das komplexe Integral über die Funktion f als: b

b

b

∫ dt f (t) := ∫ dt Rf (t) + i ∫ dt If (t), a

a

a

a, b ∈ ℝ.

(1.30) ◼

Wir verwenden hier den Begriff der stückweisen Stetigkeit aus der reellen Analysis. Die auftretenden Integrale sind wohl definierte reellwertige Integrale. Als Nächstes führen wir den Begriff des komplexen Wegintegrals ein. Nachdem wir das allgemeine komplexwertige Integral in (1.30) und Integrationswege eingeführt haben, definieren wir das Wegintegral in der komplexen Ebene. Definition 1.18. Das komplexe Wegintegral einer stetige Funktion f : Sp γab → ℂ über den Integrationsweg γab : [a, b] → Sp γab ist definiert durch: b

∫ dz f (z) := ∫ dt 𝜕t γab (t)f (γab (t)).

γab

a

(1.31)

1.3 Cauchy Integralsatz �

43

Die Länge eines Integrationsweges γab ist definiert durch: b

L[γab ] := ∫ dt |𝜕t γab (t)|.



a

Betrachten wir wiederum elementare aber wichtige Beispiele. Beispiel 1.20. (i) Sei f (z) = 1/(z − z0 ), dann ist das Wegintegral über die positiv orientierte Kreislinie κzr0 gegeben durch: (1.25)



∫ dz f (z) = ∫ dt ire 0

κzr

0

it

f (κzr0 (t))



= ∫ dt i = i2π.

(1.32)

0

Das Ergebnis hängt nicht vom Radius r ab! Die Länge des Integrationsweges ist L[κzr0 ] = r2π. (ii) Es sei eine Gerade γ̂za zb gegeben, dann gilt für das Wegintegral einer komplexwertigen Funktion f (sofern das Integral existiert): 1

∫ dz f (z) = ∫ dt (zb − za )f (γza zb (t)) 0

γ̂za zb

z=γza zb (t)

=

zb

∫ dz f (z).

za

Die rechte Seite sieht genau so aus wie im Reellen, es wird lediglich über die Gerade von za nach zb im Komplexen integriert. Die Länge des Integrationsweges ist L[γ̂za zb ] = |zb − za |. (iii) Betrachten wir noch ein Beispiel bei dem das Ergebnis vom betrachteten Integrationsweg abhängt. Die Funktion sei f (z) = |z| und die Wege seien der Halbkreis um den Ursprung in der oberen Halbebene κ01 : [0, π] ∋ t 󳨃→ ei(π−t) und die Gerade γ̂−1,1 : [−1, 1] ∋ t 󳨃→ t vom selben Anfangspunkt κ01 (0) = γ̂−1,1 (−1) = −1 zum selben Endpunkt κ01 (π) = γ̂−1,1 (1) = 1. Für die beiden Wegintegrale folgt: π

∫ dz |z| = ∫ dt 𝜕t κ01 (t)1 = κ01 (π) − κ01 (0) = 2, κ01

0

+1

∫ dz |z| = ∫ dt |t| = 1. γ̂−1,1

−1

Der Wert hängt somit vom Weg ab. Wäre die zu integrierende Funktion f (z) = z, so wären beide Integrale gleich Null. ⬦

44 � 1 Funktionentheorie Kommen wir zu den Grundeigenschaften von Wegintegralen. Zunächst ist es wichtig, dass das Wegintegral nicht von der gewählten Parametrisierung der Spur Sp γ abhängig ist. Lemma 1.8 (Unabhängigkeit der Wegparametrisierung). Gegeben seien zwei Wege γi : 𝕀i → Sp γi , die dieselbe Spur besitzen Sp γ1 = Sp γ2 und stetig bijektiv durch τ : 𝕀2 → 𝕀1 aufeinander abgebildet werden, so dass gilt: γ2 = γ1 ∘ τ mit 𝜕t τ(t) > 0. Dann gilt für eine stetige Funktion f (z): ∫ dz f (z) = ∫ dz f (z).

γ1

γ2

Beweis. Wir gehen von der Definition des Wegintegrals für den zweiten Weg aus, führen eine Substitution durch und beachten t ′ = τ(t). Anfangs- und Endpunkte sind gleich: γ1 (a′ ) = γ2 (a) = za und γ1 (b′ ) = γ2 (b) = zb . Damit folgt: b

b

∫ dz f (z) = ∫ dt 𝜕t γ2 (t)f (γ2 (t)) = ∫ dt 𝜕τ γ1 (τ(t))𝜕t τ(t)f (γ1 (τ(t)))

γ2

a

a

τ(b)

= ∫ dτ𝜕τ γ1 (τ)f (γ1 (τ)) = ∫ dz f (z). γ1

τ(a)

Lemma 1.9 (Wegumkehrung). Für einen Integrationsweg γab : [a, b] → Sp γab und eine auf diesem Weg stetige Funktion f : Sp γab → ℂ gilt für das Wegintegral des umgekehrten −1 Integrationsweges γab := γba : [b, a] → Sp γab : ∫ dz f (z) = − ∫ dz f (z).

γab

γba

Beweis. Dies folgt direkt aus der Definition: b

a

′ ′ (t)f (γab (t)) = − ∫ dt γba (t)f (γba (t)) = − ∫ dz f (z). ∫ dz f (z) = ∫ dt γab

γab

a

γba

b

Lemma 1.10 (Wegaddition). Es seien zwei Integrationswege γi : [ai , bi ] → Sp γi gegeben, für die gilt: γ1 (b1 ) = γ2 (a2 ), dann gilt für den zusammengesetzten Weg: γ = γ1 + γ2 : [a1 , b2 ] → Sp γ: ∫ dz f (z) = ∫ dz f (z) + ∫ dz f (z). γ

γ1

γ2

Beweis. Dies folgt direkt aus der Additivität des Integrals.

1.3 Cauchy Integralsatz �

45

Unmittelbar klar ist dann auch die Verallgemeinerung auf mehrere Teilwege: ∫ dz f (z) = ∑ ∫ dz f (z). i γ i

∑i γi

Lemma 1.11 (Wegintegralabschätzung). Für einen stückweise stetigen Integrationsweg γ : 𝕀 → Sp γ und eine auf Sp γ stetige Funktion f (z) gilt: 󵄨󵄨 󵄨󵄨 󵄨󵄨 󵄨 󵄨󵄨∫ dz f (z)󵄨󵄨󵄨 ≤ L[γ] max |f (z)|. 󵄨󵄨 󵄨󵄨 z∈Sp γ γ Beweis. Es gilt zunächst für einen stetigen Integrationsweg: 󵄨󵄨 b 󵄨󵄨 󵄨󵄨 󵄨󵄨󵄨 b 󵄨󵄨 󵄨󵄨 󵄨󵄨 󵄨󵄨 ′ ′ 󵄨󵄨∫ dz f (z)󵄨󵄨 = 󵄨󵄨∫ dt γ (t)f (γ(t))󵄨󵄨󵄨 ≤ ∫ dt |γ (t)||f (γ(t))| ≤ L[γ] max |f (z)|. 󵄨󵄨 󵄨󵄨 󵄨󵄨 󵄨󵄨 z∈Sp γ 󵄨a 󵄨 a γ Setzt sich der Weg aus stückweise stetigen Integrationswegen zusammen, so benutzen wir die Additivität des Wegintegrals. Schauen wir uns all diese Aspekte an konkreten Beispielen an. Beispiel 1.21. Betrachte den aus zwei Strecken und einem Teilkreis zusammengesetzten Integrationsweg γ = γ1 + γ2 + γ3 aus Abbildung 1.13. Berechne explizit die beiden Wegintegrale: Ii := ∫ dzfi (z), γ

f1 (z) = z,̄

f2 (z) = sin z.

Abb. 1.13: Ein geschlossener stückweise stetiger Integrationsweg γ = γ1 + γ2 + γ3 , der zusammengesetzt ist aus zwei Strecken und einem Viertelkreis mit Radius r um den Ursprung.

Die Parametrisierung der Teilwege lautet: [0, r] ∋ t 󳨃→ γ1 (t) = t,

46 � 1 Funktionentheorie [0, π/2] ∋ t 󳨃→ γ2 (t) = reit ,

[0, r] ∋ t 󳨃→ γ3 (t) = i(r − t).

Damit folgt für das erste Integral I1 : r

π/2

r

0

0

0

I1 = ∫ dz z̄ = ∫ dt t + ∫ dt rieit reit + ∫ dt (−i)i(r − t) γ

πr 2 r 2 πr 2 r2 +i − =i . = 2 2 2 2

Wie man leicht nachrechnet, ist das Integral für die Funktion f (z) = z gleich Null. Betrachten wir das zweite Integral I2 und rechnen die Teilintegrale explizit nur über die Definition (1.30) von komplexen Integralen aus. Im nächsten Kapitel über komplexe Stammfunktionen werden wir sehen, dass dies schneller geht. r

π/2

it

it

r

I2 = ∫ dt sin t + ∫ dt rie sin(re ) + ∫ dt (−i) sin(i(r − t)) 0

0

π/2

= − cos r + cosh r − ∫ dt 0

0

d cos(reit ) dt

󵄨π/2 = cosh r − cos r − cos(reit )󵄨󵄨󵄨0 = 0.



Das Beispiel zeigt, das geschlossene Wegintegral über die nicht holomorphe Funktion f1 (z) = |z| verschwindet nicht, wohingegen das geschlossene Wegintegral über die holomorphe Funktion f2 (z) = sin z verschwindet. Den Grund hierfür können wir durch den Begriff der Stammfunktion, den wir aus der reellen Analysis kennen, auflösen. Betrachten wir nun Stammfunktion von komplexwertigen Funktionen. 1.3.2 Stammfunktion in ℂ In diesem Abschnitt führen wir den Begriff der Stammfunktion im Komplexen ein, so wie wir ihn aus der reellen Analysis mit den bekannten Eigenschaften kennen. Definition 1.19 (Stammfunktion). Es sei f : 𝕌 → ℂ eine stetige Funktion. Eine Funktion F : 𝕌 → ℂ heißt Stammfunktion von f , wenn F holomorph ist und dF(z)/dz = f (z), z ∈ 𝕌 gilt. Man sagt F(z) ist eine lokale Stammfunktion auf 𝕌, wenn es zu jedem Punkt z0 ∈ 𝕌 eine Umgebung 𝕌z0 ⊂ 𝕌 gibt, so dass F(z) mit z ∈ 𝕌z0 eine Stammfunktion von f (z) ist. ◼ Zunächst betrachten wir den Hauptsatz der Integralrechnung, der sich mit der Existenz von Stammfunktionen beschäftigt.

1.3 Cauchy Integralsatz

� 47

Satz 1.7 (Stammfunktion). Es sei f : 𝕌 → ℂ eine stetige Funktion, die eine Stammfunktion besitzt, des Weiteren sei γ : [a, b] → Sp γ ⊂ 𝕌 ein Integrationsweg mit za = γ(a) und zb = γ(b), dann gilt: ∫ dz f (z) = F(zb ) − F(za ). γ

Beweis. Im Allgemeinen ist der Integrationsweg zusammengesetzt aus stückweise stetigen Teilwegen. Wir beschränken uns auf den Fall, dass der gesamte Integrationsweg γ stetig ist. Den Fall eines aus stückweise stetigen Funktionen zusammengesetzten Weges ist dann klar. Betrachten wir die linke Seite und setzen die Definition aus Gl. (1.31) ein, so ergibt sich: b

∫ dz f (z) = ∫ dt 𝜕t γ(t)f (γ(t)) γ

a

b

b

= ∫ dt 𝜕t γ(t) a

dF(z) 󵄨󵄨󵄨 d 󵄨󵄨 = ∫ dt F(γ(t)) dz 󵄨󵄨z=γ(t) dt a

= F(γ(b)) − F(γ(a)) = F(zb ) − F(za ). Der Satz besagt, bei Vorhandensein einer Stammfunktion hängt das Integral nur von den Endpunkten des Integrationsweges ab. Dies ist dann ganz analog zum reellen Fall. Gehen wir als Nächstes zu geschlossenen Wegen in zusammenhängenden Integrationsgebieten über. Dazu benötigen wir den Begriff des Gebietes. Definition 1.20 (Gebiet). Wir nennen die Teilmenge 𝔾 ⊂ ℂ ein Gebiet, wenn für je zwei Punkte za , zb ∈ 𝔾 ein Integrationsweg γza zb existiert mit Sp γza zb ⊂ 𝔾. Das Gebiet bezeichnet man dann auch als zusammenhängend. ◼ Lemma 1.12. Für eine auf dem Gebiet 𝔾 stetige Funktion f : 𝔾 → ℂ mit Stammfunktion F(z), gilt für jeden innerhalb von 𝔾 geschlossenen Integrationsweg γ: ∫ dz f (z) = 0.

(1.33)

γ

Falls Gl. (1.33) für jeden geschlossenen Integrationsweg γ gilt, dann besitzt f auf 𝔾 eine Stammfunktion. Beweis. Der erste Teil des Beweises ist eine Folgerung aus Satz 1.7 über Stammfunktionen, denn für einen geschlossenen Integrationsweg gilt γ : [a, b] → Sp γ und γ(b) = γ(a). Betrachten wir die andere Richtung und konstruieren eine Stammfunktion von f . Hierzu nehmen wir einen beliebigen aber festen Punkt z′ ∈ 𝔾. Zu jedem Punkt z ∈ 𝔾 existiert nach Voraussetzung ein Integrationsweg γz′ z in 𝔾, den wir frei wählen. Dann definieren wir die Funktion F:

48 � 1 Funktionentheorie 𝔾 ∋ z 󳨃→ F(z) := ∫ dζf (ζ ), γz′ z

z′ ∈ 𝔾.

(1.34)

Die Funktion F(z) ist wegunabhängig, denn sei γ̃z′ z ein zweiter Weg von z′ nach z, so gilt für den geschlossenen Weg γ = γz′ z + γ̃z−1′ z : 0=

dζf (ζ ) = ∫ dζf (ζ ) − ∫ dζf (ζ ).



γz′ z

γz′ z +γ̃−1′

z z

γ̃z′ z

Damit sind die beiden Wegintegrale gleich und die Darstellung (1.34) unabhängig vom Weg und somit eine sinnvolle Definition. Nun zeigen wir, dass die Stammfunktionseigenschaft dF(z)/dz = f (z) für alle z ∈ 𝔾 gilt. Dazu betrachten wir den geschlossenen Weg, wie er in Abbildung 1.14 dargestellt ist.

Abb. 1.14: Zusammengesetzter Integrationsweg γ = γz′ z + γzẑ 0 + γz−1 ′z

0

im Gebiet 𝔾. Der Punkt z′ ∈ 𝔾 ist beliebig, aber fest. Der Weg γzẑ 0 ist die Strecke zwischen den Punkten z ≠ z0 .

Die Integration über den geschlossenen Weg γ ergibt: 1

0 = ∫ dz f (z) = γ

dz f (z) = F(z) − F(z0 ) + ∫ dt (z0 − z)f (z + t(z0 − z)).

∫ γz′ z +γ̂zz0 +γz

0



0z

Diese Gleichung stellen wir um zu: 1

F(z) − F(z0 ) = ∫ dt f (z + t(z0 − z)) =: ΔFz0 (z). z − z0 0

Für die so definierte Funktion gilt: ΔFz0 (z0 ) = f (z0 ). Des Weiteren ist die Funktion stetig, denn es gilt: |ΔFz0 (z) − ΔFz0 (z0 )| ≤ max |f (z0 + t(z − z0 )) − f (z0 )|. 0≤t≤1

Da nach Voraussetzung f (z) stetig ist, ist die linke Seite beschränkt und damit ist die Funktion ΔFz0 (z) stetig. Insgesamt haben wir eine explizite Darstellung einer stetigen Funktion ΔFz0 (z) der Form (1.7) konstruiert, für die gilt:

1.3 Cauchy Integralsatz �

ΔFz0 (z0 ) =

49

dF(z) 󵄨󵄨󵄨 󵄨󵄨 = F ′ (z0 ) = f (z0 ). dz 󵄨󵄨z=z0

Die in Gl. (1.34) definierte Funktion ist damit eine Stammfunktion. Schauen wir wir uns explizite Beispiele für Monome pn (z) = zn und verschiedene Integrationswege an. Beispiel 1.22. Gegeben seien elementare Polynome pn (z) := zn , n ≠ −1 und ein stetiger Integrationsweg γab zwischen den Punkten za und zb , dann folgt: zb

b

∫ dz pn (z) =

γab

′ (t)pn (γab (t)) ∫ dt γab a

= ∫ dz pn (z) = za

pn+1 (zb ) − pn+1 (za ) . n+1

Die Integrationswege sind völlig beliebig in ℂ gewählt. Die Stammfunktion von pn (z), n ≠ −1 ist damit gegeben durch pn+1 (z)/(n + 1), so wie im Reellen. ⬦ Im nächsten Beispiel schauen wir uns wiederum die Elementarpolynome pn (z) an, lassen aber auch n = −1 zu und betrachten zwei konkrete Integrationswege. Beispiel 1.23. Berechne die Wegintegrale über γ1 und γ2 aus Abbildung 1.15 über die Monome pn (z), n ∈ ℤ. Abb. 1.15: Der Weg γ1 = κ0R über die Kreislinie um den Ursprung mit Radius R und der zusammengesetzte Weg −1 ̂ ̂ + κ0̆R + γ−R,−r + κ0̆r γ2 = γrR über die Halbkreislinien mit Radien r und R, sowie Strecken zwischen −R, −r und r, R.

Obwohl wir im vorherigen Beispiel den Fall n ≠ 1 schon diskutiert haben, werden wir im Folgenden allgemein für beliebiges n ∈ ℤ rechnen, um den Unterschied deutlich zu machen. Betrachten wir zunächst den Fall des ersten Integrationsweges über die positiv orientierte Kreislinie γ1 (t) = κ0R (t), t ∈ [0, 2π[: 2π

n

∫ dz pn (z) = ∫ dt iReit (Reit ) = iRn+1 2πδ−1,n = i2πδ−1,n .

γ1

0

Für n ≠ −1 verschwindet das geschlossene Wegintegral für jeden beliebigen Kreisring, im Einklang mit dem zuvor erzielten Ergebnis, da es sich um einen geschlossenen Weg

50 � 1 Funktionentheorie handelt. Für n = −1 erhalten wir ebenfalls ein bekanntes Ergebnis (1.32), das Integral ist von Null verschieden und unabhängig von R. Die Größe 1 :n=m δnm = { 0 : n ≠ m heißt Kronecker-Tensor und spielt eine wichtige Rolle bei der Diskussion von Tensoren in späteren Kapiteln.

Betrachten wir den zusammengesetzten Integrationsweg γ2 = γ̂rR + κ̆ 0R + γ̂−R,−r − κ̆ 0r , so ergibt sich für n ≠ −1 aus dem vorherigen Beispiel aufgrund des geschlossenen Integrationsweges: ∫ dz pn (z) = 0,

(n ≠ −1).

γ2

Sei nun n = −1, dann gilt: ∫ dz p−1 (z) = ( ∫ + ∫ + ∫ − ∫)dz

γ2

γ̂rR r

= ∫ dz R

γ̂−R,−r

κ̆0R

κ̆0r

1 z

−R

π

π

−r

0

0

1 1 + ∫ dz + ∫ dt i − ∫ dt i z z

= 0. Das Wegintegral über p−1 (z) = 1/z hängt also vom Integrationsweg ab!



Obwohl das Lemma 1.12 weitreichende Konsequenzen hat, ist es doch für die praktische Anwendbarkeit begrenzt, da es oft schwierig ist nachzuweisen, dass ein Wegintegral für alle möglichen Wege verschwindet. Im nächsten Abschnitt bringen wir die Aussage in eine auch anwendungsorientierte Form. Zunächst benötigen wir noch die Aussage über die Vertauschbarkeit von Differentiation nach einem Parameter und der Integration. Satz 1.8 (Parameterabhängige Integrale). Es sei 𝕄 eine offene Umgebung von ℂ und es sei eine stetige Funktion f : Sp γab × 𝕄 ∋ (ζ , z) 󳨃→ f (ζ , z) ∈ ℂ gegeben, die nach z komplex differenzierbar sei, dann gilt: d ∫ dζf (ζ , z) = ∫ dζ 𝜕z f (ζ , z). dz γab

γab

(1.35)

1.3 Cauchy Integralsatz

� 51

Beweis. Der Beweis folgt aus dem entsprechenden Satz für parameterabhängige Integrale der reellen Analysis (vergleiche auch Forster: Analysis III [21]) zusammen mit der Darstellung (1.30). 1.3.3 Cauchy Integralsatz Nun kommen wir zum Integralsatz von Cauchy zunächst für konvexe Gebiete, die wie folgt definiert sind. Definition 1.21 (Konvexes Gebiet). Wir nennen ein Gebiet 𝔾 ⊂ ℂ konvex, wenn für alle Punktepaare za , zb ∈ 𝔾 die ganze Gerade γ̂za zb zwischen den Punkten in 𝔾 liegt, also Sp γ̂za zb ⊂ 𝔾. Ein Dreieck mit den Eckpunkten z0 , z1 und z2 als konvexe Menge bezeichnen wir mit 𝔻, den Rand des Dreieckes mit 𝜕𝔻. ◼ Im Folgenden betrachten wir zentrale Sätze der Funktionentheorie. Die Beweise stammen aus [22], und werden hier wiedergegeben, da sie einige wichtige Aspekte komplexer Wegintegrale aufzeigen und das Arbeiten mit Wegintegralen vertiefen. Satz 1.9 (Goursat). Es sei 𝔻 ⊂ ℂ ein abgeschlossenes Dreieck. Dann gilt für jede in einer Umgebung von 𝔻 holomorphe Funktion f : 𝔻 → ℂ: ∫ dz f (z) = 0.

(1.36)

𝜕𝔻

Beweis. Sei f auf einer Umgebung von 𝔻 holomorph, dann zerlege man 𝔻 in vier Teildreiecke 𝔻i , i = 1, 2, 3, 4, so wie es in Abbildung 1.16 dargestellt ist. Die Spitzen des inneren Dreiecks liegen auf den Seitenmitten des großen Dreiecks 𝔻.

Abb. 1.16: Integrationswege im Dreieck 𝔻 zusammengesetzt aus den Dreiecken 𝔻1 , . . . , 𝔻4 . Zum inneren Dreieck gehören die offenen Pfeile. Der Umlaufsinn des großen Dreiecks ist der selbe wie der Umlaufsinn der Dreiecke 𝔻1 , 𝔻2 und 𝔻3 . Der Umfang jedes der vier kleinen Dreiecke 𝔻i , i = 1, . . . , 4 ist halb so groß wie der des großen Dreiecks 𝔻.

Die Pfeile geben die Umlaufrichtungen der Wege an. Das innere Dreieck 𝔻4 hat dabei einen zu den anderen Wegen umgekehrten Umlaufsinn, deswegen heben sich die Beiträge der angrenzenden Seiten zu den Wegintegralen weg und das Wegintegral über 𝜕𝔻 ist gleich der Summe der Wegintegrale über 𝜕𝔻i , i = 1, . . . , 4. Es gilt die Abschätzung: 󵄨󵄨 󵄨󵄨 󵄨󵄨 󵄨󵄨 󵄨 󵄨 󵄨󵄨 ∫ dz f (z)󵄨󵄨󵄨 = 󵄨󵄨󵄨 󵄨󵄨 󵄨󵄨 󵄨󵄨 𝜕𝔻

∫ ∑4i=1

𝜕𝔻i

󵄨󵄨 󵄨󵄨 󵄨󵄨 󵄨󵄨 󵄨󵄨 󵄨 󵄨 󵄨 󵄨 󵄨 dz f (z)󵄨󵄨󵄨 ≤ 4 max 󵄨󵄨󵄨 ∫ dz f (z)󵄨󵄨󵄨 ≡ 4󵄨󵄨󵄨 ∫ dz f (z)󵄨󵄨󵄨. 󵄨󵄨 󵄨󵄨 󵄨󵄨 󵄨󵄨 i=1,...,4 󵄨󵄨 (1) 𝜕𝔻i

𝜕𝔻

(1.37)

52 � 1 Funktionentheorie Das Wegintegral mit dem maximalen Beitrag sei dabei mit 𝜕𝔻(1) bezeichnet. Diese Konstruktion wiederholen wir und erhalten eine Folge von Inklusionen 𝔻 ⊃ 𝔻(1) ⊃ 𝔻(2) ⊃ . . . , mit der Eigenschaft: 󵄨󵄨 󵄨 󵄨󵄨 󵄨󵄨 󵄨 󵄨 󵄨󵄨 n 󵄨󵄨 󵄨󵄨 ∫ dz f (z)󵄨󵄨󵄨 ≤ 4 󵄨󵄨󵄨 ∫ dz f (z)󵄨󵄨󵄨. 󵄨󵄨 󵄨󵄨 󵄨󵄨 󵄨󵄨 (n) 𝜕𝔻

𝜕𝔻

Die Länge des Integrationsweges 𝜕𝔻 ergibt sich zu: 1 1 L[𝜕𝔻(n) ] = L[𝜕𝔻(n−1) ] = n L[𝜕𝔻]. 2 2 Da alle Dreiecke kompakt sind, gibt es einen Punkt z0 ∈ 𝔻 mit der Eigenschaft: ⋂ 𝔻(n) = {z0 }.

n∈ℕ

(1.38)

Nun benutzen wir die Eigenschaft der Holomorphie von f und schreiben: f (z) = f (z0 ) + (z − z0 )Δfz0 (z) = f (z0 ) + (z − z0 )(𝜕z f (z0 ) + A(z, z0 )). Aufgrund der Darstellung verschwindet die Funktion A(z, z0 ) = R(z, z0 )/(z − z0 ) in z0 . Da f (z0 ) + (z − z0 )𝜕z f (z0 ) linear in z ist, existiert eine Stammfunktion mit: ∫ dz [f (z0 ) + (z − z0 )𝜕z f (z0 )] = 0. 𝜕𝔻(n)

Daraus folgt: 󵄨󵄨 󵄨󵄨 󵄨󵄨 󵄨󵄨 󵄨󵄨 󵄨 󵄨 󵄨 󵄨󵄨 ∫ dz f (z)󵄨󵄨󵄨 = 󵄨󵄨󵄨 ∫ dz (z − z0 )A(z, z0 )󵄨󵄨󵄨 󵄨󵄨 󵄨󵄨 󵄨󵄨 󵄨󵄨 (n) (n) 𝜕𝔻

𝜕𝔻

≤ L[𝜕𝔻(n) ] max [|z − z0 | ⋅ |A(z, z0 )|] z∈𝜕𝔻(n) (n) 2

≤ L[𝜕𝔻 ] max |A(z, z0 )|. z∈𝜕𝔻(n)

Insgesamt ergibt sich die Abschätzung: 󵄨󵄨 󵄨󵄨 󵄨󵄨 󵄨 2 󵄨󵄨 ∫ dz f (z)󵄨󵄨󵄨 ≤ L[𝜕𝔻] max |A(z, z0 )|. 󵄨󵄨 󵄨󵄨 z∈𝜕𝔻(n) 𝜕𝔻

Der Umfang des Dreiecks L[𝜕𝔻] ist eine Konstante. Die Funktion A(z, z0 ) ist stetig und verschwindet in z = z0 aufgrund der Holomorphie von f (z). Deswegen kann das Wegintegral (1.37) durch ein hinreichend großes n beliebig klein abgeschätzt werden. Im Limes n → ∞ verschwindet die rechte Seite wegen (1.38).

1.3 Cauchy Integralsatz �

53

Im nächsten Schritt schwächen wir die Voraussetzungen des Satzes ein wenig ab, in dem wir auf die Holomorphie in einem Punkt verzichten. Satz 1.10. Es sei 𝔻 ein abgeschlossenes Dreieck in ℂ. Dann gilt für jede in 𝔻 bis auf einen Punkt z0 ∈ 𝔻 holomorphe Funktion f , die noch stetig ist in z0 : ∫ dz (z) = 0. 𝜕𝔻

Beweis. Wir betrachten drei Fälle. Der Punkt z0 kann entweder auf einer Ecke, am Rand oder im Dreieck 𝔻 liegen, wie es in Abbildung 1.17 dargestellt ist.

Abb. 1.17: Wegintegrale über 𝔻 mit einem Punkt z0 in dem die Funktion f (z) nur noch stetig zu sein braucht.

Beginnen wir damit, dass der Punkt z0 auf einem Eckpunkt des Dreiecks 𝔻 liegt. Die Konstruktion von 𝔻1 ist derart, dass die beiden sich gegenüberliegenden Seiten von 𝔻1 und 𝔻3 parallel zueinander liegen. Das Wegintegral über 𝜕𝔻 kann wiederum als die Summe der Wegintegrale über 𝜕𝔻i , i = 1, 2, 3 geschrieben werden. Die Wegintegrale in 𝔻2 und 𝔻3 verschwinden nach Satz 1.9 und es gilt deswegen: ∫ dz f (z) =



dz f (z) = ∫ dz f (z).

𝜕𝔻1 +𝜕𝔻2 +𝜕𝔻3

𝜕𝔻

𝜕𝔻1

Die Konstruktion ist unabhängig vom gewählten Punkt z1 . Da f (z) in z0 noch stetig ist gilt: 󵄨󵄨 󵄨󵄨 󵄨󵄨 󵄨 󵄨󵄨 ∫ dz f (z)󵄨󵄨󵄨 ≤ L[𝜕𝔻1 ] max |f (z)|. 󵄨󵄨 󵄨󵄨 z∈𝜕𝔻1 𝜕𝔻1

Insgesamt ergibt sich somit im Grenzübergang: lim ∫ dz f (z) = 0,

z1 →z0

𝜕𝔻1

da der Umfang des Dreiecks per Konstruktion im Limes z1 → z0 verschwindet. Damit ist die Behauptung für diesen Fall gezeigt. Betrachten wir nun den zweiten Fall, bei dem z0 auf einer Seite liegt. Aufgrund der Konstruktion aus der Abbildung lässt sich dieser

54 � 1 Funktionentheorie Fall unmittelbar auf den ersten Fall zurückführen. Der letzte Fall, bei dem z0 innerhalb des Dreiecks liegt, lässt sich ebenso durch Konstruktion, wie in der Abbildung gezeigt, auf den zweiten Fall zurückführen. Es sei bemerkt, dass man auf die Konvexivität des Gebietes verzichten kann, man aber immer noch lokal eine Stammfunktion hat. Die Funktion f (z) = 1/z hat in ℂ× keine Stammfunktion, da das Wegintegral über κ0r um den Ursprung nicht verschwindet. In einem konvexen Gebiet, welches den Pol bei z = 0 nicht enthält, finden wir jedoch lokal eine Stammfunktion. Wir fassen die diskutierten Aussagen im Folgenden Satz von Cauchy zusammen. Satz 1.11 (Cauchy Integralsatz für konvexe Gebiete). Es sei 𝔾 ⊂ ℂ ein konvexes Gebiet und f : 𝔾 → ℂ eine Funktion, die stetig ist und mit eventueller Ausnahme eines Punktes holomorph ist. Dann gilt für jedes Wegintegral in 𝔾: ∫ dz f (z) = 0. γ

Beweis. In dieser Aussage ist lediglich statt der konvexen Dreiecke, von allgemeinen konvexen Gebieten die Rede. Die Übertragung auf diesen Fall geschieht dadurch, dass man das konvexe Gebiet durch Dreiecke beliebig genau überdecken kann und für jedes dieser Dreiecke den Satz von Goursat benutzt. Als Nächstes diskutieren wir die Cauchy Integralformel eingeschränkt auf kompakte Kreisscheiben. Anschließend werden wir die gesetzten Voraussetzungen an diesen Satz immer weiter abschwächen um dann letztlich zum Residuensatz zu gelangen. Satz 1.12 (Cauchy Integralformel). Es sei 𝔾 ⊂ ℂ ein Gebiet und f : 𝔾 → ℂ eine holomorphe Funktion. Weiter sei 𝕌rz0 eine relativ kompakte offene Kreisscheibe in 𝔾 mit Mittelpunkt in z0 und 𝜕𝕌rz0 = κzr0 , dann gilt: f (z) =

f (ζ ) 1 , ∫ dζ i2π ζ −z κzr

∀z ∈ 𝕌rz0 .

(1.39)

0

Beweis. Wir betrachten eine konvexe Umgebung 𝕌ϵ ≡ 𝕌r+ϵ z0 und einen fest gewählten Punkt z ∈ 𝕌rz0 . Die Umgebung 𝕌ϵ wird für hinreichend kleines ϵ in 𝔾 liegen. In Abbildung 1.18 ist die Lage der Punkte und Mengen skizziert. In der Umgebung 𝕌ϵ definieren wir folgende Funktion: f (ζ )−f (z)

{ ζ −z 𝕌ϵ ∋ ζ → 󳨃 g(ζ ) := { df (z) { dz

: ζ ≠ z, : ζ = z.

1.3 Cauchy Integralsatz �

55

Abb. 1.18: Das Gebiet 𝔾 zusammen mit der offenen Kreisscheibe 𝕌rz0 (dünne innere Kreislinie) und der Umgebung 𝕌ϵ = 𝕌r+ϵ z0 mit Rand (dickere äußere Kreislinie). 𝜕𝕌ϵ = κzr+ϵ 0

Da f komplex differenzierbar ist, ist g(ζ ) auch in ζ = z stetig. Weiter ist g auf 𝕌ϵ \ {z} holomorph. Somit sind die Voraussetzungen zum Cauchy Integralsatz für konvexe Gebiete erfüllt, so dass gilt: 0 = ∫ dζg(ζ ) = ∫ dζ κzr

κzr

0

0

f (ζ ) − f (z) f (ζ ) 1 = ∫ dζ − f (z) ∫ dζ . ζ −z ζ −z ζ −z κzr

κzr

0

0

Betrachten wir das zweite Integral: h(z) := ∫ dζ κzr

0

1 (1.35) dh(z) 1 󳨐⇒ = ∫ dζ = 0. ζ −z dz (ζ − z)2 r κz

0

Die letzte Folgerung ergibt sich aus der Tatsache, dass ζ 󳨃→ −1/(ζ −z) die Stammfunktion von ζ 󳨃→ 1/(ζ − z)2 ist und dem Lemma 1.12. Insgesamt gilt dann dh(z)/dz = 0, also h(z) konstant. Deswegen ist h(z) = h(z0 ), letzteres ergibt sich aus dem Beispiel 1.20 zu h(z0 ) = i2π. Damit folgt insgesamt die Behauptung. Dieser Satz ist von größter Wichtigkeit in der Funktionentheorie, er besagt also, dass der Wert einer Funktion an einer beliebigen Stelle innerhalb von 𝕌rz0 gegeben ist durch die Werte auf dem Rand! In der reellen Analysis gibt es kein Analogon hierzu. Zur Illustration schauen wir uns verschiedene Beispiele an. Beispiel 1.24. (i) ∫ dz |z+1|=1

(ii)

1 (z + 1)(z − 1)3

∫ dz |z|=1

ez z2 + 2z

f (z)=(z−1)−3

=

∫ dz 1 κ−1

f (z)=ez /(z+2)

=

∫ dz κ01

f (z) π = 2πif (−1) = −i . z+1 4

f (z) = 2πif (0) = iπ. z



56 � 1 Funktionentheorie Als Nächstes schauen wir uns ein komplexeres Beispiel als Aufgabe formuliert an, bei dem die zu integrierende Funktion auf dem Integrationsweg einen Pol besitzt und bei dem zur Anwendung bisheriger Resultate der Integrand geeignet zerlegt werden muss. Berechne als Funktion von r das Integral: f (r) = ∫ dz |z|=r

1 + z2 + z4 , z(1 + z2 )

r > 0.

Lösung: Zunächst schreiben wir den Integranden um: 1 1 1 + z2 + z4 1 1 + ). =z+ − ( z 2 z−i z+i z(1 + z2 ) Der erste Term z ist holomorph und hat eine Stammfunktion, so dass für alle r das Integral verschwindet. Insgesamt lässt sich f dann als die Summe von drei Cauchy-Integralen schreiben: f (r) = ∫ κ0r

dz dz dz 1 1 − ∫ − ∫ . z 2 z−i 2 z+i κ0r

κ0r

Das erste Integral haben wir schon zuvor berechnet, es gilt ∫

κ0r

dz = i2π, z

r > 0.

Für die beiden anderen Integrale ergibt sich:



κ0r

0 dz ={ z±i i2π

: 0 < r < 1, : r > 1.

Es bleibt übrig den Fall r = 1 zu betrachten. In diesem Fall gibt es eine Polstelle bei z = ±i, die auf dem Integrationsweg liegt. Wir berechnen das Integral als uneigentliches Integral und betrachten exemplarisch das Integral mit Integrand 1/(z − i) und definieren die Wegparametrisierung des Kreises wie folgt: κ01 : [−π/2, 3π/2[ ∋ t 󳨃→ eit . Die Polstelle liegt bei t = π/2, so dass wir für das uneigentliche Integral schreiben:

∫ κ01

π/2−ϵ

3π/2

−π/2

π/2+ϵ

dz dt ieit = lim ( ∫ + ∫ ) it z − i 0 0 betrachten wir ein beliebiges z ∈ ℂ mit der Eigenschaft r > 2|z| > 0, dann gilt: f (z) − f (0) =

f (ζ ) 1 1 1 z − )f (ζ ) = . ∫ dζ ( ∫ dζ i2π ζ −z ζ i2π (ζ − z)ζ κ0r

κ0r

Benutzen wir |ζ − z| > r/2, ∀ζ ∈ κ0r , so schätzt man ab: 0 ≤ |f (z) − f (0)| ≤

󵄨󵄨 f (ζ ) 󵄨󵄨 2|z| r→∞ |z| 󵄨 󵄨󵄨 L[κ0r ] max󵄨󵄨󵄨 max |f (ζ )| 󳨀→ 0. 󵄨󵄨 ≤ 2π r ⏟⏟⏟⏟⏟⏟⏟⏟⏟⏟⏟⏟⏟⏟⏟⏟⏟⏟⏟ |ζ |=r 󵄨󵄨 (ζ − z)ζ 󵄨󵄨 |ζ |=r |ζ z|̄ für alle ζ ∈ 𝕌r0 . Damit ist die Funktion: ζ 󳨃→

zf̄ (ζ ) , r 2 − zζ̄

z ∈ 𝕌r0 ,

holomorph in 𝕌̄ r0 für alle z ∈ 𝕌r0 . Nun verwenden wir die Cauchy Integralformel und beachten, dass gilt: ζ ∈ 𝜕𝕌̄ r0 , woraus folgt r 2 = ζ ζ ̄ und damit: f (0) =

f (ζ ) f (ζ ) zf̄ (ζ ) f (ζ ) ζ ̄ 1 1 1 = + 2 }= . ∫ dζ ∫ dζ { ∫ dζ i2π ζ i2π ζ i2π ζ ζ ̄ − z̄ r − zζ̄ r r r κ0

κ0

κ0

Des Weiteren folgt aus r 2 = ζ ζ ̄ für die Differentiale ζ dζ ̄ = −ζ ̄ dζ und daraus nach Konjugation die Gleichung: f ̄(0) =

f (ζ ) ζ ̄ f ̄(ζ ) ζ f ̄(ζ ) ζ 1 1 −1 = . = ∫ dζ ∫ dζ ̄ ∫ dζ i2π ζ ζ ̄ − z̄ i2π ζ ζ −z ζ ̄ ζ − z i2π r r r κ0

κ0

κ0

Nun kommen wir zur Schwarz’schen Integralformel. Lemma 1.18 (Schwarzsche Integralformel). Es sei eine auf einer offenen Kreisscheibe 𝕌r0 holomorphe Funktion f gegeben, dann gilt: f (z) = +iIf (0) +

Rf (ζ ) ζ + z 1 , ∫ dζ i2π ζ ζ −z κ0r

∀z ∈ 𝕌r0 .

Beweis. Es gilt für den Integranden: Rf (ζ ) ζ + z f (ζ ) + f ̄(ζ ) 2 1 = ( − ). ζ ζ −z 2 ζ −z ζ Dann folgt mit der zuvor gezeigten Relation (1.41): ∫ dζ κ0r

f (ζ ) f (ζ ) Rf (ζ ) ζ + z f ̄(ζ ) f ̄(ζ ) = ∫ dζ − ∫ dζ + ∫ dζ − ∫ dζ ζ ζ −z ζ −z 2ζ ζ −z 2ζ κ0r

κ0r

κ0r

= i2πf (z) − iπf (0) + i2π f ̄(0) − iπ f ̄(0)

= i2πf (z) + 2πIf (0).

Nach Umstellen der Gleichung folgt die Aussage.

κ0r

(1.42)

1.3 Cauchy Integralsatz

� 61

Damit ist eine holomorphe Funktion f (z) durch den Realteil auf dem Rand und dem Imaginärteil im Ursprung bestimmt! Eine unmittelbare Folgerung aus der Schwarz’schen Integralformel ist die Poisson’sche Integralformel. Setzen wir in (1.42) die Zerlegung von f = g +ih in Real- und Imaginärteil ein und parametrisieren wir [0, 2π[ ∋ t 󳨃→ ζ (t) = reit , so folgt: 2π

g(z) + ih(z) = ih(0) +

reit + z 1 . ∫ dtg(reit ) it 2π re − z 0

Betrachten wir ein z := r ′ eit ∈ 𝕌r0 , so folgt daraus: ′

g(r ′ eit ) + ih(r ′ eit ) = ih(0) + ′





1 r 2 − r ′ 2 − i2rr ′ sin(t − t ′ ) . ∫ dtg(reit ) 2 2π r + r ′ 2 − 2rr ′ cos(t − t ′ ) 0

Diese Gleichung lösen wir nach Real- und Imaginärteil auf. Den Realteil bezeichnet man als die Poisson’sche Integralformel und ist gegeben durch: 2π

g(r ′ eit )(r ′ 2 − r 2 ) 1 . g(re ) = ∫ dt ′ 2 2π r + r ′ 2 − 2rr ′ cos(t − t ′ ) it



0

Dieser Sachverhalt wird in der Potentialtheorie im Rahmen des Dirichlet-Randwertproblems von Bedeutung sein. Bei diesem Problem ist eine harmonische Funktion innerhalb eines Gebietes gesucht, die auf dem Rand des Gebietes vorgegebene Werte annimmt. Betrachten wir den Kreis als Rand, dann gilt die folgende Aussage. Lemma 1.19 (Dirichlet-Randwertproblem für eine Scheibe). Es sei eine stetige Funktion [0, 2π[ ∋ φ 󳨃→ gR (φ) ∈ ℝ auf dem Rand einer Scheibe mit dem Radius R gegeben, dann ist: 2π

gR (φ′ )(R2 − r 2 ) 1 , g(r, φ) := ∫ dφ′ 2 2π R + r 2 − 2Rr cos(φ − φ′ ) 0

für 0 ≤ r < R und 0 ≤ φ < 2π eine harmonische Funktion und es gilt: lim g(r, φ) = gR (φ).

r→R

Beweis. Wir zeigen, dass g eine harmonische Funktion ist, indem wir Δg = 0 zeigen. Hierzu verwenden wir die Zylinderkoordinaten-Darstellung von Δ aus (1.24) und differenzieren unter dem Integral: 2π

1 𝜕 R2 − r 2 1 𝜕 𝜕2 Δg(r, φ) = . ∫ dφ′ gR (φ′ ) 2 (r (r ) + 2 ) 2 2π 𝜕r 𝜕r r 𝜕φ R + r 2 − 2Rr cos(φ − φ′ ) 0

62 � 1 Funktionentheorie Innerhalb des Kreises (r < R) ist Z(r) R2 − r 2 := 2 N(r, φ) R + r 2 − 2Rr cos(φ − φ′ ) zweimal stetig differenzierbar, so dass die Vertauschung der Differentiation und Integration erlaubt ist. Nach einer etwas längeren aber elementaren Rechnung folgt: (r

𝜕 𝜕 𝜕2 R2 − r 2 (r ) + 2 ) 2 =0 𝜕r 𝜕r 𝜕φ R + r 2 − 2Rr cos(φ − φ′ )

und damit Δg(r, φ) = 0. Somit ist g eine harmonische Funktion. Um zu zeigen, dass limr→R g(r, φ) = gR (φ) gilt, betrachten wir zunächst in der Poisson’schen Integralformel gR (φ) = 1 für r ≤ R und verwenden wie im Beispiel 1.25 die Integration über den Einheitskreis mit z± := (R/r)±1 , woraus folgt: 2π

dφ′ (R2 − r 2 ) i dz (R2 − r 2 ) 1 = ∫ 2 ∫ 2π R + r 2 − 2Rr cos(φ − φ′ ) 2πrR z2 − (R/r + r/R)z + 1 0

κ01

=

R2 − r 2 −2π 󵄨󵄨󵄨󵄨 R/r − r/R = 1. =− 󵄨 2πrR z − z+ 󵄨󵄨󵄨z=z− r/R − R/r

Multiplizieren wir dies auf beiden Seiten mit gR (φ), so ergibt sich: 2π

g(r, φ) − gR (φ) =

[g (φ′ ) − gR (φ)][R2 − r 2 ] 1 . ∫ dφ′ 2R 2 2π R + r − 2Rr cos(φ − φ′ ) 0

Im nächsten Schritt nutzen wir die Stetigkeit von gR (φ) aus, die zum einen besagt, dass wir für jedes ϵ > 0 ein δ > 0 finden können, sodass gilt: 󵄨󵄨 ′ 󵄨 󵄨󵄨gR (φ) − gR (φ )󵄨󵄨󵄨 < ϵ,

∀|φ − φ′ | < 2δ,

und zum anderen nutzen wir aus, dass es eine Konstante γ > 0 gibt, so dass gilt: |gR (φ)| < γ. Teilen wir das Integrationsintervall in drei Bereiche auf: φ−δ

φ+δ



0

φ−δ

φ+δ

[g (φ′ ) − gR (φ)][R2 − r 2 ] 1 [ ∫ + ∫ + ∫ ]dφ′ 2R 2 . g(r, φ) − gR (φ) = 2π R + r − 2Rr cos(φ − φ′ ) Betrachten wir das erste Integral und schätzen ab:

1.3 Cauchy Integralsatz �

63

φ−δ 󵄨󵄨 φ−δ ′ 2 2 ′ 2 2 󵄨󵄨󵄨 󵄨󵄨 󵄨󵄨 ∫ dφ′ [gR (φ ) − gR (φ)][R − r ] 󵄨󵄨󵄨 ≤ ∫ dφ′ |gR (φ ) − gR (φ)|[R − r ] 󵄨󵄨 R2 + r 2 − 2Rr cos(φ − φ′ ) 󵄨󵄨󵄨󵄨 R2 + r 2 − 2Rr cos(φ − φ′ ) 󵄨󵄨 0 0 φ−δ

≤γ ∫ 0 φ−δ

≤γ ∫ 0

dφ′ [R2 − r 2 ] R2 + r 2 − 2Rr cos(φ − φ′ ) dφ′ [R2 − r 2 ] R2 + r 2 − 2Rr cos δ

≤ (φ − δ)γ ≤ 2πγ

[R2 − r 2 ] [R − r cos δ]2

[R2 − r 2 ] . − cos δ]2

R2 [1

Für ein r hinreichend nahe R gilt dann: 󵄨󵄨 φ−δ ′ 2 2 󵄨󵄨󵄨 󵄨󵄨 󵄨󵄨 ∫ dφ′ [gR (φ ) − gR (φ)][R − r ] 󵄨󵄨󵄨 < 2πϵ. 󵄨󵄨 R2 + r 2 − 2Rr cos(φ − φ) 󵄨󵄨󵄨󵄨 󵄨󵄨 0 Die Identische Argumentation führt man für das dritte Integral durch. Betrachten wir das zweite Integral, so gilt die Abschätzung: φ+δ 󵄨󵄨 φ+δ ′ 2 2 ′ 2 2 󵄨󵄨󵄨 󵄨󵄨 󵄨󵄨 ∫ dφ′ [gR (φ ) − gR (φ)][R − r ] 󵄨󵄨󵄨 ≤ ∫ dφ′ |gR (φ ) − gR (φ)|[R − r ] 󵄨󵄨 R2 + r 2 − 2Rr cos(φ − φ′ ) 󵄨󵄨󵄨󵄨 R2 + r 2 − 2Rr cos(φ − φ′ ) 󵄨󵄨 φ−δ φ−δ φ+δ

≤ϵ ∫ φ−δ

R2

dφ[R2 − r 2 ] + − 2Rr cos(φ − φ) r2

< 2πϵ. Insgesamt folgt dann: |g(r, φ) − gR (φ)| < 3ϵ, für ein hinreichend großes r(< R). Da ϵ beliebig ist, gilt: lim [gR (r, φ) − gR (φ)] = 0.

r→R

Die Voraussetzung der Stetigkeit von g auf dem Rand kann durch eine stückweise Stetigkeit ersetzt werden. Dann ist g(r, φ) immer noch eine harmonische Funktion, aber limr→R g(r, φ) = gR (φ) gilt dann an endlich vielen Stellen nicht mehr. Des Weiteren kann die Vorgehensweise auf andere nicht kreisförmige Gebiete ausgedehnt werden.

64 � 1 Funktionentheorie Wir betrachten ein Beispiel, bei dem die Voraussetzungen des Dirichlet’schen Randwertproblems zunächst nicht erfüllt sind und das Problem erst umformuliert werden muss. Zusätzlich wird die Randfunktion nur stückweise stetig sein. In der sehr umfangreichen Aufgabenstellung und Lösung werden wir viele Aspekte der vorherigen Kapitel wiederfinden. Bestimme die Lösung des Dirichlet’schen Randwertproblems Δg(x, y) = 0 auf einer Halbkreisscheibe 𝔼+ := {z ∈ ℂ | |z| < 1, I(z) > 0}, mit Rand 𝜕𝔼+ . Die Funktion g(x, y) ist auf dem Rand stückweise stetig mit den Werten: 0 : y = 0, |x| < 1, g(x, y) = { 1 : x 2 + y 2 = 1,

(x, y) ∈ 𝜕𝔼+ .

Lösung: Das Problem ist zunächst nicht auf einer Kreisscheibe definiert. Damit wir Lemma 1.19 anwenden können, müssen wir die Halbkreisscheibe 𝔼+ zunächst auf eine offene Kreisscheibe 𝔼 biholomorph abbilden. Diese Abbildung geschieht durch eine Hintereinanderschachtelung dreier Teilabbildungen 𝔼+ ∋ z 󳨃→ ξ(z) = (ξ3 ∘ ξ2 ∘ ξ1 )(z) ∈ 𝔼, die im Einzelnen gegeben sind durch: 1 ∈ ℍ− , z ℍ− ∋ ξ1 → 󳨃 ξ2 (ξ1 ) = −ξ1 /2 ∈ ℍ+ , 𝔼+ ∋ z 󳨃→ ξ1 (z) = z +

ℍ+ ∋ ξ2 󳨃→ ξ3 (ξ2 ) = −TC (ξ2 ) ∈ 𝔼. Die Halbkreisscheibe 𝔼+ wird zunächst auf die untere Halbebene ℍ− := {z ∈ ℂ | I(z) < 0} abgebildet, anschließend mit einer Spiegelung und Stauchung auf die obere Halbebene ℍ+ und schließlich mit der Caley-Abbildung aus (1.29) in eine Einheitskreisscheibe 𝔼 abgebildet. Insgesamt lautet die Abbildung dann: 𝔼+ ∋ z 󳨃→ ξ(z) =

i2z + z2 + 1 ∈ 𝔼. i2z − z2 − 1

Die Abbildung ξ(z) ist bijektiv, da alle Teilabbildungen bijektiv sind und holomorph in 𝔼+ , denn die Nullstellen des Nenners (z± = i(1± √2)) liegen außerhalb der kompakten Halbkreisscheibe 𝔼̄ + = 𝔼+ ∪𝜕𝔼+ . Des Weiteren ist die Ableitung in 𝔼+ ungleich Null, denn es gilt: ξ ′ (z) =

i4(z2 − 1) . (i2z − z2 − 1)2

Die Umkehrabbildung z = ξ −1 (w) ist gegeben durch:

1.3 Cauchy Integralsatz �

𝔼 ∋ w 󳨃→ ξ −1 (w) = i

w − 1 + √2(1 + w 2 ) w+1

65

∈ 𝔼+ .

Diese ist ebenfalls holomorph in 𝔼. Insgesamt ist ξ(z) dann biholomorph. Um sich einen Eindruck von der Abbildung zu verschaffen ist links in der folgenden Grafik die obere Halbkreisscheibe 𝔼̄ + dargestellt, sowie rechts die transformierte Einheitskreisscheibe 𝔼 (siehe Abbildung 1.19).

Abb. 1.19: Links ist die obere Halbkreisscheibe 𝔼̄ + zusammen mit verschiedenen Kreislinien und radialen Linien zur Verdeutlichung der Abbildung ξ : 𝔼+ → 𝔼 dargestellt. Die dünne schwarze Linie mit Iz > 0 ist die Abbildung der Linie Rξ(z) = 0. Rechts ist die transformierte Einheitskreisscheibe 𝔼̄ mit transformierten Linien in den selben Farben abgebildet. Aufgrund der Voraussetzungen handelt sich um eine konforme Abbildung, wie dies auch in der Winkeltreue der Abbildung der dargestellten Linien und Schnittwinkel zu erkennen ist. In den beiden Punkten z = ±1 ∈ 𝜕𝔼+ ist die Abbildung nicht winkeltreu, dort gilt ξ ′ (±1) = 0. Das Randwertproblem des Halbkreises überträgt sich damit auf den Vollkreis. In der Grafik sieht man, wie sich die Ränder unter ξ(z) transformieren. Die beiden Viertelkreislinien in 𝔼̄ + werden zu Viertelkreislinien in 𝔼̄ abgebildet; die reelle Gerade zwischen −1 und +1 in eine ergänzende Halbkreislinie in 𝔼̄ + . Damit definiert dies ein Dirichlet’sches Randwertproblem mit einer stückweisen stetigen Funktion 𝔼̄ ∋ w 󳨃→ gξ (w) = gξ (ρ, φ) in Polarkoordinaten mit w = ρeiφ , 0 ≤ ρ ≤ 1 und −π/2 ≤ φ < 3π/2, sowie Randwerten auf 𝔼:̄ 1 0

gξ (1, φ) = {

: −π/2 < φ < π/2, : π/2 < φ < 3π/2.

Die Funktion gξ (ρ, φ) ist dann bestimmt durch: π/2

gξ (ρ, φ) =

dφ′ (1 − ρ2 ) 1 ∫ . 2 2π 1 + ρ − 2ρ cos(φ − φ′ ) −π/2

Das Integral kann explizit gelöst werden, nach einer etwas längeren Rechnung erhalten wir: gξ (ρ, φ) = −

1 − ρ2 1 + sign(cos φ) 1 arctan( )+ . π 2ρ cos φ 2

66 � 1 Funktionentheorie

Hier ist der Hauptwert des arctan gewählt worden. Die Funktion gξ (ρ, φ) ist stetig in 𝔼, denn es gilt für φ → ±π/2: lim gξ (ρ, ±(π/2 − ϵ)) = −

1 − ρ2 1 1 lim arctan( )+1= , π 0 1 folgt: i f (z) =

∞ ∞ 1 1 (−i)n (−i)n 1 = = −i . ∑ ∑ n 3 3 (z − i)n (z − i) 1 + i/(z − i) (z − i) n=0 (z − i) n=3



Betrachten wir noch eine Laurent-Reihe des Produktes einer ganzen und rationalen Funktion als Aufgabe. Gegeben sei die holomorphe Funktion: ℂ \ {1} ∋ z 󳨃→ f (z) =

eiz . z−1

Bestimme die Laurent-Reihe um z0 = 1 einmal durch Taylorreihenentwicklung der Exponentialfunktion und einmal durch Anwendung des Entwicklungssatzes von Laurent und bestimme den Konvergenzradius. Lösung: (i) Die Laurent-Reihe um z0 = 1 mit 0 < |z − 1| < ∞ lautet: f (z) = (ii)

∞ n ∞ ei(z−1)+i ei in+1 i = ei ∑ (z − 1)n−1 = ∑ (z − 1)n . z−1 n! n=−1 (n + 1)! n=0

Mit Gl. (1.51) aus Lemma 1.21 folgt zunächst für alle n: αn (1) =

1 eiζ , ∫ dζ i2π (ζ − 1)n+2 ρ

0 < ρ < ∞.

κ1

Offenbar ist αn (1) = 0 für n ≤ −2. Für n = −1 gilt: α−1 (1) =

1 eiζ ∫ dζ = ei i2π ζ −1 ρ

κ1

und für n ≥ 0 folgt:

78 � 1 Funktionentheorie

αn (1) =

󵄨 󵄨 1 1 d n+1 eiζ 󵄨󵄨󵄨 1 d n+1 iz 󵄨󵄨󵄨 in+1 ei 󵄨󵄨 = ∫ dζ e 󵄨󵄨 = i2π (n + 1)! dzn+1 ζ − z 󵄨󵄨󵄨z=1 (n + 1)! dzn+1 󵄨󵄨󵄨z=1 (n + 1)! ρ κ1

und damit erhalten wir ebenso: +∞ ∞ ∞ in+1 ei eiz ei ei in+1 = ∑ αn (1)(z − 1)n = +∑ (z − 1)n = ∑ (z − 1)n . z − 1 n=−∞ z − 1 n=0 (n + 1)! n=−1 (n + 1)!



An dieser Stelle fassen wir unsere bisher gewonnen Aussagen über holomorphe Funktionen nochmals zusammen. Für eine Funktion f auf einer offenen Menge 𝕌 ⊂ ℂ sind die folgenden Aussagen äquivalent: – f ist holomorph. – f besitzt lokale Stammfunktionen. – f ist reell differenzierbar und genügt den Cauchy-Riemann’schen Differentialgleichungen. – f ist um z0 ∈ 𝕌 in eine Potenzreihe entwickelbar.

1.4.2 Analytische Fortsetzung* In der Praxis kommt es vor, dass eine Funktion zunächst auf einem eingeschränkten Definitionsbereich gegeben ist und man diesen erweitern möchte. Häufig trifft diese Situation bei reell definierten Funktionen auf, die ins Komplexe fortgesetzt werden sollen. Diese Fortsetzung nennen wir unter bestimmten Umständen dann Analytische Fortsetzung. Definition 1.25 (Analytische Fortsetzung). Für eine reelle Funktion g auf einem offenen Intervall 𝕀 ⊂ ℝ, nennen wir die Funktion f : 𝕌 → ℂ holomorphe Fortsetzung von g auf 𝕌, wenn gilt: f |𝕀⊂𝕌 = g und f holomorph in 𝕌. ◼ Die holomorphe Fortsetzung nennt man in der Physik oft auch analytische Fortsetzung.

Wenn f die holomorphe Fortsetzung von g ist, dann ist f beliebig oft differenzierbar und die Taylorreihe von g um x0 ergibt sich aus der Taylorreihe von f um x0 . Definition 1.26. Eine holomorphe Funktion f : 𝕌 ⊂ ℂ besitze in z0 ∈ 𝕌 eine Taylorreihe mit Konvergenzradius ρz0 = infz∈𝜕𝕌 {|z − z0 |}. Ist der tatsächliche Konvergenzradius jedoch größer als ρz0 , so sagen wir f ist über 𝕌 analytisch bzw. holomorph fortgesetzt. ◼ Wie eine analytische Fortsetzung aussehen kann zeigt das folgende Beispiel. Beispiel 1.29. Gegeben sei die reelle Funktion: ∞

𝕀 = ]−1, 1[ ∋ x 󳨃→ g(x) := ∑ x n . n=0

� 79

1.4 Potenzreihen

Es ist klar, dass mit der Ersetzung von x durch z die Funktion f : 𝔼 → ℂ die holomorphe Fortsetzung mit f |𝕀 = g ist und κ01 der Konvergenzkreis. Darüber hinaus kann die Funktion aber noch über 𝔼 hinaus auf verschiedene Arten fortgesetzt werden. Mithilfe der geometrischen Reihe ergibt sich: f (z) =

1 , 1−z

∀z ∈ ℂ \ {1}.

Dies ist die größtmögliche analytische Fortsetzung. Man kann aber auch andere analytische Fortsetzungen finden, die gegebenenfalls nützlich sein können, wenn man an einer Entwicklung um einzelne Punkte interessiert ist. Hierzu wählt man einen Punkt z0 ∈ ℂ \ {1} und schreibt: 1 1 1 = . 1 − z (1 − z0 ) 1 − (z − z0 )/(1 − z0 ) Da z ∈ 𝕌z0 0 ist, gilt |z − z0 | < |1 − z0 | und man wendet wieder die geometrische Reihe an (Vergleiche hierzu Abbildung 1.24). |1−z |

Abb. 1.24: Konvergenzkreise κ01 , κz0

|1−z0 |

und κz1

der analytischen Fortsetzung f = (1 − z) den Punkten z0 und z1 .

|1−z1 |

−1

von g in

Zwei analytische Fortsetzungen von f = 1/(1 − z) sind dann gegeben durch: 1 (z − zi )n , n+1 (1 − z ) i n=0 ∞

fi (z) = ∑

|z − zi | < |1 − zi |.



Im Reellen findet man den Konvergenzradius einer Taylorreihe über die Sätze von Hadamard oder etwa dem Quotientenkriterium. Dies kann unter Umständen eine sehr schwierige Aufgabe darstellen. Im Komplexen stellt sich die Situation oft einfacher dar. Seien etwa zwei holomorphe Funktionen fZ (z) und fN (z) ohne eine gemeinsame Nullstelle in ℂ× gegeben und sei z0 ≠ 0 die kleinste Nullstelle von fN (z). Des Weiteren sei

80 � 1 Funktionentheorie die Funktion f (z) := fZ (z)/fN (z) in 0 holomorph fortsetzbar, dann besitzt f (z) im Punkt ρ 0 eine Taylorreihe mit Konvergenzradius ρ0 = |z0 |, da f (z) in 𝕌00 holomorph ist. Beispiel 1.30. Die erzeugende Funktion der Bernoulli-Zahlen Bn ist definiert durch die Taylorreihe: ∞ Bn n z ≡ z , ∑ z e − 1 n=1 n!

z ≠ 0.

Das bedeutet z0 = i2π ist die kleinste von Null verschiedene Nullstelle und damit ist der Konvergenzradius gegeben durch 2π. Die linke Seite lässt sich schreiben als:

ez

z cosh(z/2) z z 2e−z/2 z z z = ( = − 1) = cot − . − 1 2 ez/2 − e−z/2 2 sinh(z/2) i2 i2 2

Dies kann genutzt werden, um die Bn zu bestimmen. Eine sehr ausführliche Diskussion der Bernoulli-Zahlen findet sich in [10]. Satz 1.16. Seien zwei Bereiche 𝕌1 und 𝕌2 gegeben, für die gilt 𝕌1 ∩𝕌2 = 0 und 𝕌̄ 1 ∩𝕌̄ 2 = γ,̂ des Weiteren zwei holomorphe Funktionen fi : 𝕌i → ℂ, i = 1, 2, die noch stetig auf 𝕌i ∪ γ̂ sind und es gelte f1 (z) = f2 (z), ∀z ∈ γ.̂ Dann ist f1 (z) : z ∈ 𝕌1 , { { { f (z) := {f2 (z) : z ∈ 𝕌2 , { { {f1 (z) = f2 (z) : z ∈ γ,̂ holomorph in 𝕌 := 𝕌1 ∪ 𝕌2 ∪ γ̂ ∗ , wobei γ̂ ∗ der Weg γ̂ ohne seine Endpunkte ist. Beweis. Die Situation des Satzes ist in Abbildung 1.25 dargestellt. Innerhalb von 𝕌̄ 1 ∪ 𝕌̄ 2 sei ein einfacher Weg γ = γ1 + γ2 gegeben, dessen Inneres jeweils die beiden Punkte zi ∈ 𝕌i einschließt.

Abb. 1.25: Der offene Bereiche 𝕌 = 𝕌1 ∪ 𝕌2 ∪ γ ̂∗ , wobei γ ̂∗ der Weg γ ̂ ohne seine Endpunkte ist. Die Wege γi + γî , i = 1, 2 sind geschlossen, wobei für die Teilwege gilt: γ1̂ = −γ2̂ . Die Punkte zi sind aus dem Inneren von γi + γî .

1.4 Potenzreihen

� 81

Sei z1 im Inneren von 𝜕𝕌1 ∪ γ,̂ dann gilt: f1 (z1 ) =

f (z) 1 ∫ dz 1 i2π z − z1

und

0=

γ1 +γ̂1

f (z) 1 . ∫ dz 2 i2π z − z1 γ2 +γ̂2

Addieren wir diese beiden Gleichungen und beachten, dass für die Teilwege γ̂i gilt γ̂1 = −γ̂2 , so folgt: f1 (z1 ) =

f (z) f (z) f (z) 1 1 1 + = . ∫ dz 1 ∫ dz 2 ∫ dz i2π z − z1 i2π z − z1 i2π z − z1 γ1 +γ̂1

γ2 +γ̂2

γ

Völlig analog gilt die Argumentation für z2 , aus der dann folgt: f2 (z2 ) =

f (z) 1 . ∫ dz i2π z − z2 γ

Für jedes z0 ∈ 𝕌 gibt es immer einen Weg γ mit Sp γ ⊂ 𝕌, so dass z0 aus dem Inneren ist. Da f stetig auf γ ist, ist die Funktion f ̂(z0 ) :=

f (z) 1 ∫ dz i2π z − z0 γ

holomorph in 𝕌1 ∪ 𝕌2 Zusammengefasst gilt dann: f1 (z0 ) : z0 ∈ 𝕌1 , { { { ̂f (z ) = f (z ) : z0 ∈ 𝕌2 , 0 2 0 { { { ∗ {f1 (z0 ) = f2 (z0 ) : z0 ∈ γ̂ , und damit folgt f ̂(z) ≡ f (z). Eine praxisrelevante Situation ist in der folgenden Aufgabe diskutiert. Sei eine holomorphe Funktion f+ : ℍ+ → ℂ in der oberen Halbebene gegeben, sowie ein offenes Intervall 𝕀 ⊂ ℝ, sodass f+ auf ℍ+ ∪𝕀 noch stetig ist. Bestimme die analytische Fortsetzung von f− in ℍ− und insgesamt die in ℍ+ ∪ ℍ− ∪ 𝕀 holomorphe Funktion f (z) = g(z) + ih(z), die auf 𝕀 reell ist. Lösung: Zunächst zerlegen wir die Funktion f+ in Real- und Imaginärteil f+ = g+ + ih+ und beachten, dass f+ (z)|𝕀 = g(x, 0) gilt und g(x, 0) dann eine stetige Funktion ist. Letztlich ist eine holomorphe Funktion in ℍ+ ∪ ℍ− ∪ 𝕀 gesucht. Deswegen konstruieren wir zunächst die gesuchte Funktion mit Hilfe der CRD in ℍ+ : 𝜕x g+ (x, y) = 𝜕y h+ (x, y),

𝜕y g+ (x, y) = −𝜕x h+ (x, y).

Definieren wir für z ∈ ℍ+ folgende Funktionen (y > 0): g− (x, y) := g+ (x, −y),

h− (x, y) := h+ (x, −y),

82 � 1 Funktionentheorie

dann sind diese Funktionen per Konstruktion in ℍ− definiert und es gilt: 𝜕x g− (x, y) = 𝜕x g+ (x, −y) = −𝜕y h+ (x, −y) = 𝜕y (−h+ (x, −y)), 𝜕y g− (x, y) = −𝜕y g+ (x, −y) = −𝜕x (−h+ (x, −y)). Das bedeutet aber, dass f− (z) = g− (x, y) − ih− (x, y) die CRD erfüllt und damit holomorph ist, aber es gilt ̄ Des Weiteren gilt aufgrund der Stetigkeit von f+ (z) in ℍ+ : andererseits auch per Konstruktion f− (z) = f+̄ (z). lim g− (x, y) = lim g+ (x, −y) = lim g+ (x, y) = g(x, 0).

0>y→0

0>y→0

0 0}. n∈ℕ

Betrachten wir zur Veranschaulichung Beispiele von Singularitäten.



1.5 Der Residuensatz

� 83

Beispiel 1.31. (i) Die Funktion 1 z(z − i)2

ℂ \ {0, i} ∋ z 󳨃→ f (z) =

hat isolierte Punkte bei z = z0 = 0, i und es sind Pole der Ordnung 1 und 2. (ii) Die Kardinalsinus-Funktion ℂ ∋ z 󳨃→ sinc(z) =

sin(z) z

hat in z = z0 = 0 eine hebbare Singularität. (iii) Die komplexe Cotangens-Funktion ℂ \ ℤ ∋ z 󳨃→ cot(πz) :=

cos(πz) sin(πz)

ist holomorph, die isolierten Singularitäten sind Pole. (iv) Die Funktion ℂ \ {0} ∋ z 󳨃→ f (z) = e−1/z hat in z = z0 = 0 eine wesentliche Singularität.



Definition 1.28 (Meromorph). Eine Funktion f heißt meromorph im Bereich 𝕌, wenn es eine diskrete Teilmenge ℙf ⊂ 𝕌 gibt, so dass f in 𝕌 \ ℙf holomorph ist und in jedem Punkt von ℙf einen Pol hat. Die Menge ℙf nennt man die Polstellenmenge von f . ◼ Die Polstellenmenge ist abgeschlossen und offenbar entweder eine leere, endliche oder abzählbar unendliche Menge, die auch einen Häufungspunkt haben kann. Beispiel 1.32. (i) Die rationale Funktion f (z) =

∑nl=0 αl zl l ∑m l=0 βl z

,

αl , βl ∈ ℂ,

ist meromorph in ℂ und die Polstellenmenge ist in der Nullstellenmenge des Nennerpolynoms enthalten. (ii) Die Cotangens-Funktion: cot(πz) =

cos(πz) sin(πz)

ist meromorph mit einer abzählbar unendlichen Polstellenmenge: ℙcot(πz) = ℤ.

84 � 1 Funktionentheorie (iii) Die aus der Cotangens-Funktion und der Möbius-Transformation TC (z) aus Gl. (1.29) zusammengesetzte Funktion f (z) := (cot ∘TC )(z) ≡ cot(TC (z)) besitzt die Polstellenmenge ℙf = {i(lπ + 1)/(lπ − 1), l ∈ ℤ}. Alle Pole sind erster Ordnung und haben einen Häufungspunkt bei z∞ = i. ⬦ Eine Klassifikation von Polen kann auch mittels der Laurent-Reihe durchgeführt werden. Ohne Beweis fassen wir zusammen: Lemma 1.22 (Polklassifikation). Es sei +∞

Lfz0 (z) := ∑ αn (z0 )(z − z0 )n n=−∞

die Laurent-Reihe von f (z) mit der isolierten Singularität z0 . Dann ist z0 hebbare Singularität



αn (z0 ) = 0 für n < 0,

Pol der Ordnung mf



αn (z0 ) = 0 für n < −mf , αmf ≠ 0,

wesentliche Singularität



αn (z0 ) ≠ 0 für unendlich viele n < 0.

Jetzt definieren wir einen zentralen Begriff der Funktionentheorie. Definition 1.29 (Residuum). Sei eine auf dem Gebiet 𝕌 ⊂ ℂ bis auf isolierte Singularitäten holomorphe Funktion f (z) gegeben, dann heißt resz0 f :=

1 ∫ dz f (z), i2π κzr

0

das Residuum von f (z) im Punkt z0 . Der Kreis κzr0 ist dabei so zu wählen, das höchstens z0 eine Singularität von f (z) in 𝕌̄ rz0 ist. ◼ Offenbar ist für holomorphe Funktionen resz f = 0. Betrachten wir eine LaurentReihe, dann gilt: resz0 f =

+∞ 1 ∫ dz ∑ αn (z0 )(z − z0 )n = α−1 (z0 ). i2π n=−∞ κzr

0

Die Cauchy-Funktion f (z) = 1/(z − z0 ) hat in z0 das Residuum resz0 f = 1 und in z′ ≠ z0 das Residuum 0, da definitionsgemäß der Kreis κzr′ so zu wählen ist, dass er höchstens in z′ eine Singularität haben darf. Betrachten wir Beispiele:

1.5 Der Residuensatz

� 85

Beispiel 1.33. (i) Für die Funktion f (z) = 1/(z(z − i)2 ) aus Beispiel 1.28, folgt mit den zugehörigen Laurent-Reihen: res0 f = (−i)−2 = −1 und resi f = α−1 = 1. (ii) Für die Funktion ∞ ei(z−1)+i ei in+1 eiz = = ∑ (z − 1)n , z−1 z−1 (n + 1)! n=−1

ergibt sich res1 eiz /(z − 1) = α−1 = ei .



Es gelten die folgenden elementaren und praktischen Rechenregeln für Residuen. Lemma 1.23. (i) Für einen einfachen Pol von f in z0 gilt: resz0 f = lim (z − z0 )f (z). z→z0

(ii) Die Funktionen fZ (z) und fN (z) seien holomorph in z0 , mit fZ (z0 ) ≠ 0 und fN (z0 ) = 0, sowie 𝜕z fN (z0 ) = fN′ (z0 ) ≠ 0, dann gilt: resz0

f (z ) fZ (z) = Z′ 0 . fN (z) fN (z0 )

(1.52)

(iii) Hat die Funktion f in z0 einen Pol n-ter Ordnung, so gilt: resz0 f (z) = lim

z→z0

1 𝜕n−1 [(z − z0 )n f (z)]. (n − 1)! z

Beweis. (i) Wenn f in z0 einen einfachen Pol besitzt, dann ist in der Hauptreihe gerade nur der Term mit α−1 (z0 ) = resz0 f = limz→z0 (z − z0 )f (z) vorhanden. (ii) Wenn fN (z) holomorph in z0 ist und verschwindet (fN (z0 ) = 0), dann gilt fN (z) = (z − z0 )fN′ (z) + R(z0 , z), mit einem Restterm für den gilt limz→z0 R(z0 , z)/(z − z0 ) = 0. Damit folgt: lim (z − z0 )

z→z0

(z − z0 )fZ (z) f (z ) fZ (z) = lim = Z 0 . fN (z) z→z0 fN′ (z0 )(z − z0 ) + R(z0 , z) fN′ (z0 )

(iii) Wir benutzen die Laurent-Reihe von f in z0 , die mit dem Term α−n (z0 ) beginnt, dann folgt: ∞

𝜕zn−1 [(z − z0 )n f (z)] = 𝜕zn−1 ∑ αm (z0 )(z − z0 )m+n m=−n

86 � 1 Funktionentheorie ∞

= 𝜕zn−1 ∑ αm−n (z0 )(z − z0 )m . m=0

Im Limes z → z0 bleibt in der Summe nur der Term mit m = n − 1 über und damit: lim

z→z0

1 𝜕n−1 [(z − z0 )n f (z)] = α−1 (z0 ). (n − 1)! z

Beispiel 1.34. Wir berechnen die Residuen der folgenden Funktionen in allen isolierten Singularitäten: (i)

f1 (z) :=

1 − cos z , z3

(ii) f2 (z) :=

z , ez + 1

(iii) f3 (z) :=

z . √ 1− 2−z

(i) Die einzige isolierte Singularität ist z0 = 0 und dort entwickelt man den Zähler in eine Taylorreihe und erhält insgesamt die Laurent-Reihe: (−1)n 2n−3 1 1 ∞ (−1)n 2n−1 z = +∑ z , (2n)! 2 z n=1 (2n + 2)! n=1 ∞

f1 (z) = − ∑

und damit folgt res0 f1 = 1/2. (ii) Hier gibt es an allen Stellen ez0 = −1 Pole erster Ordnung. Die Polstellenmenge ist gegeben durch ℙf2 = {iπ(1 + 2l), l ∈ ℤ} und damit: resz0 ∈ℙf f2 = lim (z − z0 ) 2

z→z0

z−z z = z0 lim z−z z 0 = −z0 , z→z0 e 0e 0 + 1 ez−z0 ez0 + 1

z0 ∈ ℙf2 .

(iii) Die isolierte Singularität liegt bei z0 = 1 und es ist ein Pol erster Ordnung und damit folgt: res1 f3 =

󵄨󵄨 z 1 󵄨󵄨 = 2. = 󵄨󵄨 𝜕z (1 − √2 − z) 󵄨󵄨z0 =1 1/2

Man bestimme alle Residuen der Funktionen (i)

f1 (z) :=

(iii) f2 (z) :=

1 , (1 + z2 )3 z2

sin3 z

,

(ii)

f1 (z) :=

z2 , 1 + z4

(iv) f3 (z) := ze1/(1−z) .

Lösung: (i) Es gibt zwei Pole dritter Ordnung bei z± = ±i und deswegen folgt: res±i f1 (z) =

1 (z − ±i)3 1 1 6 3 lim 𝜕z2 = lim 𝜕z2 = = ∓ i. 2 z→±i (z + i)3 (z − i)3 2 z→±i (z ± i)3 16 (±2i)5



1.5 Der Residuensatz

(ii)

� 87

Es gibt 4 Pole erster Ordnung in zn = ei(2n+1)π/4 , n = 0, 1, 2, 3 und es gilt: reszn f2 (z) = lim

z→zn

(z − zn )z2 1 = zn2 ∏ . (z − z1 )(z − z2 )(z − z3 )(z − z4 ) z − m=n̸ n zm

Beachten wir, dass gilt z0 = z2̄ , z1 = z3̄ sowie zn2 = (−)n i, so folgt: resz0 f2 (z) =

z i i 1 1 = = 3, z0 − z2 (z0 − z1 )(z0 − z3 ) z0 − z0̄ 1 + i − z0 (z1 + z1̄ ) 4

resz2 f2 (z) =

z i 1 i 1 = = 1, z2 − z0 (z2 − z1 )(z2 − z3 ) z0̄ − z0 1 + i − z0̄ (z1 + z1̄ ) 4

resz1 f2 (z) =

z −i 1 −i 1 = = 2, z1 − z3 (z1 − z2 )(z1 − z4 ) z1 − z1̄ 1 − i − z1 (z2 + z2̄ ) 4

resz3 f2 (z) =

z −i 1 −i 1 = = 0. z3 − z1 (z3 − z2 )(z3 − z4 ) z1̄ − z1 1 − i − z1̄ (z2 + z2̄ ) 4

(iii) Hier unterscheiden wir zwischen dem Pol erster Ordnung in z0 = 0 und den Polen dritter Ordnung in zl = lπ, l ∈ ℤ \ 0. Es gilt dann einerseits res0 f3 (z) = lim z z→0

z2

sin3 z

= 1,

und andererseits 3

reszl f3 (z) = lim

z→zl

z − zl 1 2 (−1)3l z2 𝜕z ((z − zl )3 3 ) = lim 𝜕2 (z2 ( ) ) 2 2 z→zl z sin(z − zl ) sin z 3

(−1)l 1 = lim 𝜕2 ((ζ + zl )2 ( ) ) 2 ζ→0 ζ 1 − ζ 2 /6 + 𝒪(ζ 4 ) =

(−1)l π2 2 lim 𝜕ζ2 ((ζ + zl )2 (1 + ζ 2 /2 + 𝒪(ζ 4 ))) = (−)l (1 + l ). 2 ζ→0 2

(iv) Die Funktion hat eine wesentliche Singularität bei z0 = 1, deswegen verwenden wir die LaurentEntwicklung der Exponentialfunktion: ∞

f4 (z) = ∑

n=0

∞ (−)n n (−)n z − 1 + 1 1 = ∑ , n! (z − 1)n (n + 1)! (z − 1)n n=−1

und damit: 1 res1 f4 (z) = α−1 (1) = − . 2



88 � 1 Funktionentheorie 1.5.2 Residuensatz Nun sind wir in der Lage den Cauchy Integralsatz zum Residuensatz zu erweitern. Satz 1.17 (Residuensatz). Es sei 𝕌 ⊂ ℂ eine offene Menge und f eine Funktion, die in 𝕌 bis auf isolierte Singularitäten zl , l = 1, 2, . . . , k holomorph ist. Für jeden nullhomologen Integrationsweg γ in 𝕌, mit zl ∉ Sp γ, l = 1, 2, . . . , k gilt: ∑ nγ (zl ) reszl f (z) =

zl ∈𝕌

1 ∫ dζ f (ζ ). i2π γ

Beweis. Zum Beweis definieren wir eine in 𝕌 holomorphe Funktion, indem wir die Hauptreihe der Laurent-Reihe von f abziehen: k ∞

αn(l) . (z − zl )n l=1 n=1

h(z) := f (z) − ∑ ∑

Der zweite Term sei der Hauptteil der Laurent-Reihen der auf 𝕌 \ {z1 , . . . , zk } holomorphen Funktion f (z), um die k Singularitäten der Funktion f (z) in 𝕌. Damit ist die Funktion h(z) holomorph in 𝕌 und es gilt: 0=

k ∞ αn(l) 1 1 ) ∫ dz h(z) = ∫ dz (f (z) − ∑ ∑ i2π i2π (z − zl )n l=1 n=1 γ

γ

=

k 1 (l) ). ∫ dz (f (z) − i2π ∑ nγ (zl )α−1 i2π l=1 γ

(l) Setzen wir in diese Gleichung: α−1 = reszl f (z) ein, so folgt die Behauptung.

Die Situation ist in Abbildung 1.26 exemplarisch dargestellt.

Abb. 1.26: Allgemeiner einfach geschlossener Integrationsweg γ in 𝕌 um Singularitäten z1 , . . . , z4 . Die Singularitäten z5 und z6 sind nicht von γ umschlossen.

1.5 Der Residuensatz

� 89

Der Weg γ in 𝕌 umschließt die Pole zi , i = 1, . . . , 4. Fügt man die Wege γi , γi−1 sowie im dargestellten Verlauf hinzu, so liegen die Pole für den so gebildeten Gesamtweg im Äußeren und das Wegintegral verschwindet, dies entspricht dann der holomorphen Funktion h(z). Alternativ kann man sich auch vorstellen, dass der Weg γ auf die zuvor beschriebenen Wege zusammengezogen wird und im Ergebnis dann nur die Residuen zum Ergebnis beitragen. So wie in der Abbildung als Beispiel angedeutet ist, kommt es in der Praxis oft vor, dass über den Rand 𝜕𝕌 eines Gebietes 𝕌 integriert werden muss. Dann reduziert sich der Residuensatz auf die folgende Aussage. κzϵi

Lemma 1.24 (Residuensatz für Ränder von Gebieten). Für eine auf einem Gebiet 𝕌 holomorphe Funktion f (z), die in 𝕌 isolierte Singularitäten z1 , . . . , zk besitzt, gilt: k

∫ dζ f (ζ ) = i2π ∑ reszl f (z). l=1

𝜕𝕌

Diese Form des Residuensatz diskutieren wir im Folgenden. Betrachten wir ein einfaches und instruktives Beispiel für eine Integration über eine wesentliche Singularität. Beispiel 1.35. Berechne mit Hilfe des Residuensatzes das Integral Im (r) := ∫ dz zm e1/z ,

m ∈ ℕ, r > 0.

κ0r

Mit Hilfe des Residuensatzes folgt: zm−n i2π = . n! (m + 1)! n=0 ∞

Im (r) = i2π res0 zm e1/z = i2π res0 ∑

Es sei bemerkt, dass die Integration über die wesentliche Singularität durch Substitution z 󳨃→ 1/ζ beseitigt werden kann: Im (r) = − ∫ dζ 1/r −1

κ0



ζ 2+m

ζ n−2−m i2π = . n! (m + 1)! n=0 ∞

= ∫ dζ ∑ κ01/r



Betrachten wir nun sehr ausführliche und praxisrelevante Beispiele, in denen geschlossene und stückweise stetige Integrationswege zu parametrisieren sind, so wie sie in der Physik vielfältig vorkommen.

90 � 1 Funktionentheorie

Berechne das Wegintegral In := ∫ dz 𝜕Qn

π cot(πz) z2

über den geschlossenen Weg γ = 𝜕Qn eines um den Ursprung zentrierten Quadrates Qn mit der Seitenlänge 2rn wobei rn = (n + 1/2), n ∈ ℕ ist. Was ergibt sich im Limes n → ∞? Lösung: Die Funktion cot(πz) hat die Polstellenmenge zl ∈ ℤ. Damit haben wir einen Pol dritter Ordnung in z0 = 0 und Pole erster Ordnung in zl = l, l ∈ ℤ \ {0}. Die Residuen sind damit gegeben durch: cot(πz) 1 π = lim 𝜕z2 (z cot(πz)) = − , 2 z→0 3 z2 cot(πz) 1 (z − l) cos(πz) resl = 2 . = lim z→l z2 z2 sin(πz) l π

res0

Damit folgt: In := ∫ dz 𝜕Qn

n n π cot(πz) π 1 1 π2 = i2π(− + 2 ∑ 2 ) = i4(∑ 2 − ). 2 3 6 z l=1 πl l=1 l

betrachten wir nun den Limes n → ∞. Dazu schätzen wir das Integral auf den zwei horizontalen Geraden γ1 , γ3 und den beiden vertikalen Geraden γ2 , γ4 ab: 󵄨󵄨 󵄨󵄨 󵄨󵄨 󵄨󵄨 󵄨 󵄨 L[γ1,3 ]π eπrn + e−πrn 󵄨󵄨 󵄨 2π 1 + e−2πrn 󵄨󵄨 ∫ dz π cot(πz) 󵄨󵄨󵄨 ≤ ∫ dz 󵄨󵄨󵄨 π cot(πz) 󵄨󵄨󵄨 ≤ . 󵄨 󵄨 󵄨󵄨 󵄨 πrn − e−πrn = r 2 2 2 −2πrn 󵄨 󵄨 󵄨 e z z rn 󵄨󵄨 γ 󵄨󵄨 󵄨󵄨 γ 󵄨󵄨 n 1−e 1,3 1,3 Dies verschwindet für n → ∞. Für die vertikalen Achsen gilt: z = ±(n + 1/2) + iy und damit: 󵄨 󵄨 |cot(πz)| = |tanh(πy)| ≤ 󵄨󵄨󵄨󵄨tanh(π(n + 1/2))󵄨󵄨󵄨󵄨, woraus dann für die Integrale folgt: 󵄨󵄨 󵄨󵄨 󵄨 󵄨󵄨 󵄨󵄨 ∫ dz π cot(πz) 󵄨󵄨󵄨 ≤ 2π 󵄨󵄨󵄨󵄨tanh(π(n + 1/2))󵄨󵄨󵄨󵄨. 󵄨󵄨 r 󵄨 󵄨󵄨 󵄨 2 z 󵄨󵄨 󵄨󵄨 γ n 2,4 Auch dies verschwindet für n → ∞, so dass insgesamt gilt: ∞

lim In = 0 = i4(∑

n→∞

l=1

π2 1 − ), 2 6 l

woraus folgt: ∞

∑ l=1

1 π2 = . 2 6 l



1.5 Der Residuensatz

� 91

Schauen wir uns ein umfangreiches Beispiel an, bei dem zunächst kein geschlossenes Wegintegral und auch kein Residuum einer Funktion vorliegt. Die Formel ist von großer Wichtigkeit in der Mathematik und Physik und die Rechnung enthält einige wichtige Aspekte bei der Berechnung von Integralen mit Hilfe des Residuensatzes. Deswegen formulieren wir das Ergebnis als Lemma. Lemma 1.25 (Gauß-Integral). Für das allgemeine komplexe Gauß-Integral Gα gilt +∞

2

2

√π , α

Gα := ∫ dt e−α (t+c) = −∞

c ∈ ℂ, α > 0.

Beweis. Zunächst führen wir eine Variablensubstitution durch Gα

+∞

2 1 = ∫ dt e−(t+z) . α

c:=αz

−∞

Es handelt sich um ein Integral mit einem nicht geschlossenen Weg über eine holomorphe Funktion. Um den Residuensatz anwenden zu können benötigen wir einen geschlossenen Weg über eine meromorphe Funktion mit nicht verschwindenden Residuen. Zu2 nächst nutzen wir aus, dass z 󳨃→ e−(t+z) eine ganze Funktion in ℂ ist und betrachten den geschlossenen Weg γ = ∑i γi aus Abbildung 1.27.

Abb. 1.27: Links ist das Wegintegral γ mit einem positivem b > 0 und rechts das Wegintegral γ mit speziell gewähltem z0 dargestellt.

Dann folgt für das Wegintegral über γ aus der linken Abbildung: −ζ 2

0 = ∫ dζ e γ

+r

= ∫ dζ e

−ζ 2

−r ′

−r ′ +ib

2

2

+ ∫ dζ e−ζ + ∫ dζ e−ζ . r+ib

γ2 +γ4

Im Limes r, r ′ → ∞ verschwinden die Wegintegrale über γ2 und γ4 exponentiell schnell, denn beispielsweise gilt für γ2 (t) = r + itb, b ∈ ℝ, t ∈ [0, 1]:

92 � 1 Funktionentheorie 1 󵄨󵄨 󵄨 󵄨󵄨󵄨 1 󵄨󵄨 2 󵄨󵄨 󵄨󵄨 󵄨󵄨 −r 2 −(r+itb)2 −ζ 2 󵄨󵄨󵄨 󵄨 𝜕t (r + itb)󵄨󵄨 ≤ |b|e ∫ dt e(tb) . 󵄨󵄨∫ dζ e 󵄨󵄨 = 󵄨󵄨∫ dt e 󵄨󵄨 󵄨󵄨 󵄨󵄨 󵄨󵄨 󵄨 󵄨 γ 0

0

2

Da das verbleibende Integral endlich ist, verschwindet das Wegintegral über γ2 im Limes 2 r → ∞ proportional zu e−r . Entsprechend verfährt man mit dem Wegintegral über γ4 . Somit erhalten wir als Zwischenergebnis im Limes r, r ′ → ∞: +∞

+∞

2

2

∫ dζ e−(ζ +z) = ∫ dζ e−ζ . −∞

−∞

Das Gauß-Integral ist also invariant gegenüber einer Verschiebung einer komplexe Zahl z im Argument. Dies nutzen wir, um eine Funktion mit einem Residuum zu konstruieren. Betrachten wir die rechte Seite und wiederum zunächst das geschlossene Wegintegral über den Weg γ aus der linken Abbildung. Wir konstruieren durch die Freiheit in der Wahl von z ein Residuum mithilfe der Funktion eζ und machen dazu den Ansatz: 2

e−ζ = h(ζ ) − h(ζ + z0 ),

z0 ∈ ℂ.

(1.53)

Die Funktion h soll so beschaffen sein, dass sie ein Residuum besitzt und so konstruiert sein, dass sich die Wegintegrale γ1 und γ3 über h für beide Terme auf der rechten Seite (1.53) addieren. Der Punkt z0 ist zunächst frei und muss bestimmt werden. Für die Funktion h(ζ ) machen wir den Ansatz: 2

h(ζ ) :=

e−ζ , 1 + e−2z0 ζ

wobei z0 so bestimmt werden muss, dass (1.53) gilt, was wiederum bedeutet 2

2

e−ζ = !

2

e−ζ e−(ζ +z0 ) − . 2 1 + e−2z0 ζ 1 + e−2z0 ζ e−2z0

Deswegen muss gelten: 2

2

e−2z0 ζ (1 + e−2z0 e−2z0 ζ ) = −e−z0 e−2z0 ζ (1 + e−2z0 ζ ). 2

Wir erkennen, dass e−z0 = −1 die Gleichung löst, was bedeutet z0 = √πeiπ/4 . Die Funktion h(ζ ) hat damit ein Residuum an der Stelle z0 /2, für das gilt: (1.52)

res z0 h(ζ ) = 2

2 󵄨󵄨 󵄨󵄨 e−ζ 󵄨󵄨 −2z ζ 𝜕ζ (1 + e 0 ) 󵄨󵄨󵄨󵄨ζ =z

2

= 0 /2

e−z0 /4

−2z0 e

−z20

=

e−iπ/4 −i = . 2√πe−iπ/4 2√π

Nun bilden wir das Wegintegral über γ und benutzen den Residuensatz:

� 93

1.5 Der Residuensatz

∫ dζh(ζ ) = i2π res z0 h(ζ ) = √π. 2

∑i γi

Im Limes r ′ , r → ∞ verschwinden die Wegintegrale über γ2 und γ4 woraus folgt: +∞

−∞

+∞

+∞

−∞

+∞

−∞

−∞

2

√π = ∫ dζh(ζ ) + ∫ dζh(ζ + z0 ) = ∫ dζ (h(ζ ) − h(ζ + z0 )) = ∫ dζ e−ζ . Zusammengefasst ergibt sich somit das Ergebnis: +∞

2

2

∫ dt e−α (t+c) =

−∞

√π , α

c ∈ ℂ, α > 0.

An dieser Stelle sei nochmals betont, dass c ∈ ℂ eine beliebige komplexe Zahl ist und wir deswegen in der Notation Gα die Abhängigkeit von c nicht auftritt.

Betrachten wir noch ein praxisrelevantes Beispiel aus der klassischen Feldtheorie (siehe G.Parisi in Statistical Field Theory [23]) als Aufgabe formuliert, so wie sie in der Physik vorkommt. Die Zweipunkt-Korrelationsfunktion des Ising-Modells in Meanfieldnäherung ist proportional zu:

Cν (y) =

+π/2

1 e−iqy ∫ dq , 2 2π ν + sin2 q −π/2

dabei ist y = 2(xi − xj ) ein Spin-Abstand und ν proportional zu einem äußeren Magnetfeld. Bestimme unter Verwendung des Residuensatzes das führende Verhalten von Cν (y) für große Abstände y bis zur Ordnung 𝒪(1/y 2 ). Vergleiche das asymptotische Ergebnis mit dem exakten Ergebnis in einem Plot. Lösung: Zunächst muss ein geschlossenes Wegintegral konstruiert werden, welches ein Residuum enthält und den Teilweg des Integrals [−π/2, π/2] ∋ t 󳨃→ γ1 (t) = −t. Dieses Wegintegral γ = ∑i γi über alle Teilwege ist in Abbildung 1.28 skizziert.

Abb. 1.28: Das Wegintegral über γ, dabei ist der Teilweg γ1 der Weg in der Definition von Cν . An der Stelle q0 = −i arsinh ν existiert ein Pol erster Ordnung des Integranden von Cν .

94 � 1 Funktionentheorie

Wir berechnen dann das folgende Wegintegral: 1 e−iqy ∫ dq . 2π ν 2 + sin2 q

Cν̂ (y) :=

γ

Das eigentlich zu bestimmende Integral ist gegeben durch den Weg γ1 . Der Weg über γ3 verschwindet, da der Integrand mit wachsendem R exponentiell schnell verschwindet. Aus diesem Grund ist der geschlossene Weg in die untere Halbebene gelegt worden. Im nächsten Schritt rechnen wir mithilfe des Residuensatzes das Wegintegral über γ aus. Das Residuum befindet sich an der Stelle q0 = −i arsinh ν, (i sin q0 = ν), somit ergibt sich: 1 e−iqy e−iqy ∫ dq = i resq0 2 2 2 2π ν + sin q ν + sin2 q γ = i lim (q − q0 ) q→q0

=i

e−iqy

ν 2 + sin2 q

e−y arsinhν 1 e−y arsinhν =− . 2ν −i cos q0 2ν √1 + ν 2

Betrachten wir die Wegintegrale über γ2 und γ4 . Die Wegparametrisierungen lauten: γ2 (t) = −π/2 − it, t ∈ [0, R] und γ4 (t) = +π/2 − it, t ∈ [R, 0], somit folgt ∫ dq

γ2 +γ4

ν2

e−iqy

R

2

+ sin q

= ∫ dt 0

e−iγ2 (t)y γ2′ (t)

ν2

2

+ sin γ2 (t)

R

= −i ∫ dt ( 0

ν2

0

+ ∫ dt R

e−iγ4 (t)y γ4′ (t)

ν 2 + sin2 γ4 (t)

eiyπ/2 e−yt e−iyπ/2 e−yt − 2 ) 2 + (cosh t) ν + (− cosh t)2 R

= 2 sin(yπ/2) ∫ dt 0

ν2

e−yt

+ cosh2 t

.

Im nächsten Schritt führen wir den Limes R → ∞ durch und erhalten: ∞

sin(yπ/2) 1 e−iqy e−yt = ∫ dt . ∫ dq 2 2 2 2π π ν + sin q ν + cosh2 t γ +γ 2

0

4

Wir sind an großen Abständen y interessiert, deswegen integrieren wir partiell: ∞

∫ dt 0

e−yt

ν 2 + cosh2 t

=−

∞ 󵄨󵄨∞ 1 e−yt d e−yt 1 󵄨󵄨󵄨 + ∫ dt e−yt 󵄨 󵄨 2 2 2 y ν + cosh t 󵄨󵄨󵄨0 y dt ν + cosh2 t

1 = + O(1/y 2 ). y(1 + ν 2 )

0

Insgesamt ergibt sich somit das führende Verhalten unter Beachtung der verschiedenen Vorzeichen aller Wege: Cν (y) =

sinc(πy/2) e−y arsinh ν + + O(1/y 2 ). 2(1 + ν 2 ) 2ν √1 + ν 2

1.5 Der Residuensatz

� 95

Abb. 1.29: Vergleich der exakten Kurven Cν (y) und der bis zur Ordnung 𝒪(1/y 2 ) approximierten Funktion asy Cν (y) für ν = 0.5, 1, 2. Aus der Abb. 1.29 ist die Übereinstimmung des asymptotischen und exakten Ergebnisses für die gewählten Parameter ν schon bei einem Abstand x ≳ 1 sehr gut zu erkennen. ⬦

Betrachten wir noch folgende allgemeine Aussage, die aus dem Residuensatz ableitbar ist. Satz 1.18. Es sei eine auf dem Gebiet 𝕌 nicht konstante meromorphe Funktion f gegeben, die an den Stellen p1 , p2 , . . . Pole der Ordnung m1 , m2 , . . . besitzt. Des Weiteren sei z0 ∈ ℂ und es gelte z0 = f (zi ) für i = 1, 2, . . . mit Ordnung ni der z0 -Stelle, dann gilt: f ′ (z) 1 = ∑ ni − ∑ ml . ∫ dz i2π f (z) − z0 i l

(1.54)

𝜕𝕌

Beweis. Aus dem Residuensatz folgt zunächst f ′ (z) f ′ (z) 1 = ∑ resz . ∫ dz i2π f (z) − z0 z∈𝕌 f (z) − z0 𝜕𝕌

Wir erhalten zwei Beiträge. Betrachten wir zunächst die z0 -Stellen von f (z), dann gilt für alle diese Stellen zi : f (zi ) = z0 + (z − zi )ni + 𝒪((z − zi )ni +1 ), und damit f ′ (zi ) ni = + 𝒪(1). f (zi ) − z0 z − zi

96 � 1 Funktionentheorie An den Polstellen z = pl von f gilt: f (z) =

αl + 𝒪(1/(z − pl )ml −1 ), (z − pl )ml

und damit −ml αl /(z − pl )ml +1 + 𝒪(1/(z − pl )ml ) ml f ′ (pl ) = =− + 𝒪(1). f (pl ) − z0 z − pl αl /(z − pl )ml + 𝒪(1/(z − pl )ml −1 ) Verwenden wir die Rechenregeln für Residuen und summieren über alle z0 -Stellen und Pole von f , so folgt die Aussage. Für den Fall einer Nullstelle z0 = 0 folgt daraus: f ′ (z) 1 = N − M, ∫ dz i2π f (z) 𝜕𝕌

wobei N und M die Anzahl der Null- und Polstellen sind, die mit ihrer Vielfachheit gezählt werden. Der Satz lässt sich noch vielfältig verallgemeinern und auch spezialisieren. Hier ergänzen wir eine Anwendung des Satzes. Satz 1.19 (Rouche). Es seien zwei auf einem Gebiet 𝕌 holomorphe Funktionen f1 und f2 gegeben, mit endlich vielen Nullstellen innerhalb von 𝕌. Für einen einfach geschlossenen in 𝕌 nullhomologen Weg γ gelte: |f1 (z) − f2 (z)| < |f2 (z)|,

∀z ∈ Sp γ.

Dann haben die Funktionen f1 und f2 gleich viele Nullstellen im Inneren von γ. Beweis. Wir betrachten die Funktion: ht (z) := f2 (z) + t[f1 (z) − f2 (z)],

t ∈ [0, 1],

die als Funktion der Variablen t stetig ist und als Funktion von z holomorph in 𝔾 ist. Es gilt nach Voraussetzung die Abschätzung: 󵄨 󵄨 󵄨 󵄨 |ht (z)| = 󵄨󵄨󵄨f2 (z) + t[f1 (z) − f2 (z)]󵄨󵄨󵄨 ≥ 󵄨󵄨󵄨|f2 (z)| − t|f1 (z) − f2 (z)|󵄨󵄨󵄨

≥ |f2 (z)| − |f1 (z) − f2 (z)| > 0,

∀z ∈ Sp γ.

Die Funktion ht (z) hat also keine Nullstellen auf Sp γ, und wegen (1.54) gilt für die Anzahl von Nullstellen: ∑ nl = l

h′ (z) 1 ∫ dz t . i2π ht (z) 𝜕𝕌

1.5 Der Residuensatz

� 97

Die linke Seite ist eine ganze Zahl und muss stetig von t abhängen, also konstant sein. Da aber h0 (z) = f2 (z) und h1 (z) = f1 (z) ist, müssen f2 und f1 dieselbe Anzahl von Nullstellen haben. Beispiel 1.36. Gesucht sind die Anzahl der Nullstellen der Funktion f1 (z) := 2z4 − 5z + 2 innerhalb von κ01 . Um den Satz von Rouche anwenden zu können, benötigen wir ein geeignetes f2 (z). Man beachte das |z| = 1, ∀z ∈ Sp κ01 ist. Betrachten wir deswegen f2 (z) = −5z + 2, dann gilt: |f1 (z) − f2 (z)| = |2z4 | = 2 < 3 ≤ |f2 (z)| = |5z − 2|,

∀z ∈ Sp κ01 .

Damit sind die Voraussetzungen des Satzes von Rouche erfüllt und die Funktionen f1 (z) = 2z4 − 5z + 2 und f2 (z) = −5z + 2 haben gleich viele Nullstellen innerhalb von κ01 , also genau eine. (Die Nullstellen von f1 (z) lauten: −0.7971029778 . . . ± i1.191412004 . . . , 0.4114655208 . . . , 1.18274035 . . .). ⬦ 1.5.3 Anwendungen des Residuensatzes* In diesem Abschnitt diskutieren wir reelle Integrale, die mithilfe des Residuensatzes in eine geschlossene Form gebracht werden können. Die auftretenden Integrale mit Integrationsgrenzen im Unendlichen sind immer als uneigentliche Integrale zu verstehen, so wie sie in der Analysis definiert sind. Lemma 1.26. Es sei eine rationale Funktion ℝ2 ∋ (x, y) 󳨃→ R(x, y) ∈ ℝ gegeben, die auf der Kreislinie κ01 = 𝜕𝕌10 endlich ist, dann gilt: 2π

1 zm + z−m zn − z−n , ). ∫ dt R(cos(mt), sin(nt)) = 2π ∑ reszl R( z 2 2i z ∈𝕌1 0

l

0

Beweis. Wir setzen cos(mt) = (eimt + e−imt )/2 und sin(nt) = (eint − e−int )/2i ein: 2π



∫ dt R(cos(mt), sin(nt)) = ∫ dt R( 0

0

=∫ κ01

eimt + e−imt eint − e−int , ) 2 2i

dz zm + z−m zn − z−n R( , ) iz 2 2i

1 zm + z−m zn − z−n = 2π ∑ reszl R( , ). z 2 2i z ∈𝕌1 l

0

Der letzte Schritt folgt aufgrund des Residuensatzes.

98 � 1 Funktionentheorie Betrachten wir hierzu ein konkretes Beispiel als Aufgabe. Es sei p > 1, zeige dass gilt: 2



(p − √p2 − 1) cos(2t) = −2π ∫ dt . p + sin(t) √p2 − 1 0

Lösung: Es gilt 2π

∫ dt 0

1 z2 + z−2 2i cos(2t) = 2π ∑ reszl p + sin(t) z 2 i2p + z − z−1 z ∈𝕌1 l

0

= i2π ∑ reszl

z2 (z2

zl ∈𝕌10

z4 + 1 . + i2pz − 1)

In z = 0 gibt es einen Pol zweiter Ordnung, und in z = z± ≡ i(−p ± √p2 − 1) je einen Pol erster Ordnung. Wir benötigen nur die Pole innerhalb der Region |z| < 1, also z0 = 0, z+ : res0 resz+

z4 + 1 z4 + 1 = lim 𝜕 = −i2p = z+ + z− , z z2 (z2 + i2pz − 1) z→0 z2 + i2pz − 1 z2 (z2

z4 + 1 z4 + 1 = 2 + . + i2pz − 1) z+ (z+ − z− )

Verwenden wir z+ z− = −1 und z+ − z− = i2√p2 − 1 und fassen zusammen: 2π

∫ dt 0

z4 + 1 2z+4 cos(2t) = i2π(z+ + z− + 2 + ) = i2π( 2 ) p + sin(t) z+ (z+ − z− ) z+ (z+ − z− ) = i2π(

−2(p − √p2 − 1)2 i2√p2 − 1

)

2

= −2π

(p − √p2 − 1) √p2 − 1

.



Lemma 1.27. Es sei f (z) eine in der oberen Hälfte ℍ+ bis auf abzählbar viele isolierte Singularitäten holomorphe Funktion, die auf ℝ keine isolierten Singularitäten besitzt. Des Weiteren genüge f (z) der Abschätzung: |f (z)| ≤ c R−1−ϵ ,

∀|z| > R

c, ϵ > 0,

dann gilt: +∞

∫ dt f (t) = i2π ∑ reszl f (z).

−∞

Izl >0

1.5 Der Residuensatz

� 99

Beweis. Für eine gegebene rationale Funktion existiert ein R, sodass alle Pole in der oberen Halbebene im Halbkreis κ̆ 0R liegen. Deswegen gilt für den geschlossenen Weg γ = γ̂−RR + κ̆ 0R : R

i2π ∑ reszl f (z) = ∫ dz f (z) = ∫ dz f (z) + ∫ dz f (z). zl >0

γ

κ̆0R

−R

Betrachten wir das Wegintegral über den oberen Halbkreis. Da für hinreichend große R, aufgrund der Relation zwischen Zähler- und Nennergrad, die Abschätzung |f (z)| ≤ cR−(1+ϵ) mit einer Konstanten c > 0 gilt, folgt insgesamt: 󵄨󵄨 󵄨󵄨 R→∞ c 󵄨󵄨 󵄨 L[κ̆ 0R ] 󳨀→ 0. 󵄨󵄨 ∫ dz f (z)󵄨󵄨󵄨 ≤ ∫ dz |f (z)| ≤ 1+ϵ ⏟⏟⏟⏟⏟⏟⏟⏟⏟ R 󵄨󵄨 R 󵄨󵄨 R =πR κ̆0

κ̆0

Setzen wir alles zusammen, so folgt im Limes R → ∞ die Behauptung. Das über die reelle Achse erstreckte Integral über die Lorentz Glockenkurve lα (t) ist ein Beispiel für diesen Satz. Beispiel 1.37. Die Lorentz Glockenkurve ist definiert als lα (t) :=

1 α , π α2 + t 2

α > 0.

Für das Integral von lα (t) über die reelle Achse ergibt sich: +∞

+∞

−∞

−∞

1 α 1 = α2i resiα = 1. ∫ dt ∫ dt lα (t) = π (t + iα)(t − iα) (t + iα)(t − iα)



In der Physik wird die Funktion auch als Lorentz-Kurve oder Lorentz-Verteilung bezeichnet. In der Mathematik spricht man von der Cauchy-Verteilung.

Lemma 1.28 (Fourierintegral). Es sei f eine bis auf endlich viele isolierte Punkte, von denen keiner reell ist, holomorph in ℂ. Zusätzlich gelte lim|z|→∞ f (z) = 0, dann gilt: +∞

∫ dt f (t)eitk = i2π ∑ reszl [f (z)eikz ],

−∞

k > 0.

Izl >0

Beweis. In der oberen Halbebene gilt R(ikz) = −ky < 0. Deswegen schließen wir die Integration über die obere Halbebene. Wir verwenden das geschlossene Wegintegral, wie im Beweis des Gauß-Integrals, wobei y so gewählt wird, dass alle isolierten Punkte vom Weg γ = ∑4i=1 γi eingeschlossen werden. Wenn im Limes r ′ , r → ∞ die Wegintegrale

100 � 1 Funktionentheorie über γ2 , γ3 und γ4 verschwinden, folgt die Behauptung aus dem Residuensatz. Betrachten wir also diese Wegintegrale und beginnen mit dem oberen Weg [0, 1] ∋ t 󳨃→ γ3 (t) = iy + r − t(r ′ + r) und schätzen ab: 󵄨󵄨 󵄨󵄨 1 󵄨󵄨 󵄨󵄨 󵄨󵄨 󵄨󵄨 󵄨󵄨 −ky −ikt(r+r ′ ) ′ 󵄨󵄨󵄨 ikz f (γ3 (t))󵄨󵄨󵄨 󵄨󵄨∫ dz e f (z)󵄨󵄨 ≤ (r + r )󵄨󵄨∫ dt e e 󵄨󵄨 󵄨󵄨 󵄨󵄨 󵄨󵄨 󵄨 󵄨 γ 0

3

󵄨󵄨 1 󵄨 ′ 󵄨󵄨 󵄨󵄨 󵄨 ≤ (r + r ′ )e−ky max |f (z)|󵄨󵄨󵄨∫ dt e−ikt(r+r ) 󵄨󵄨󵄨 󵄨󵄨 󵄨󵄨 z∈γ3 󵄨0 󵄨 ≤ (r + r ′ )e−ky max |f (z)| z∈γ3

y→∞

2 r + r′

≤ 2e−ky max |f (z)| 󳨀→ 0. z∈γ3

Auf dem Weg [0, 1] ∋ t 󳨃→ γ2 (t) = r + ity gilt: 1 󵄨󵄨 󵄨󵄨 󵄨󵄨 󵄨󵄨 ikz −kyt 󵄨󵄨∫ dz e f (z)󵄨󵄨 ≤ y max |f (z)| ∫ dt e 󵄨󵄨 󵄨󵄨 z∈γ2 γ 0

2

≤ y max |f (z)| z∈γ2

≤ max |f (z)| z∈γ2

1 − e−ky ky

1 − e−ky |z|→∞ 󳨀→ 0. k

Analog schätzt man das letzte Teilstück über den Weg γ4 ab. Für den Fall k < 0 betrachtet man die untere Halbebene, bei der dann der Umlaufsinn umgekehrt ist und somit ein zusätzliches Vorzeichen generiert. Schauen wir uns Beispiele an. Beispiel 1.38. Sei b > 0 und k > 0, dann gilt: +∞

(i)

∫ dt

−∞ +∞

(ii)

∫ dt

−∞

eizk eitk = i2π resz=ib = i2πe−kb , t − ib z − ib eitk = 0. t + ib



Eine unmittelbare Folgerung ergibt sich, falls f (t) ∈ ℝ, ∀t ∈ ℝ, dann gilt für k > 0: +∞

∫ dt f (t) cos(tk) = −2π I ∑ reszl [f (z)eikz ],

−∞

Izl >0

(1.55a)

1.5 Der Residuensatz

+∞

∫ dt f (t) sin(tk) = +2π R ∑ reszl [f (z)eikz ].

� 101

(1.55b)

Izl 0 l

für alle k > 0. Beweis. Betrachte den Integrationsweg γ aus Abbildung 1.30. Dann ergibt sich als direkte Folgerung aus Lemma 1.27 und 1.29 in den Limits r → 0, R → ∞ und y → ∞, die Behauptung. Schauen wir uns ein Beispiel die sinc-Funktion an: Beispiel 1.39. +∞

−ϵ

+∞

∫ dt sinc(t) = lim I( ∫ + ∫ )dt

−∞

ϵ→0

−∞



eit eiz = I(iπ resz=0 ) = π. t z



102 � 1 Funktionentheorie

Abb. 1.30: Zusammengesetzter Integrationsweg −1 ̂ ̂ ̂ ′ ,t −r + κt̆r + γt̂ 0 +r,R + γR,R+iy + γR+iy,−R γ = γ−R ′ +iy + 0 0 ̂ ′ +iy,−R′ . γ−R

Lemma 1.31. Es sei f (z) eine rationale Funktion, die auf ]0, ∞[ keine Pole hat und in z = 0 holomorph ist oder einen einfachen Pol besitzt. Der Grad des Nenners sei um zwei größer als der des Zählers, dann gilt: ∞

∫ dt t α f (t) = 0

−π ∑ reszl (−z)α f (z), sin(απ) z =0̸

0 < α < 1.

l

Beweis. Wir betrachten den geschlossenen Weg γ aus Abbildung 1.31 und werden die Limits ϵ, r → 0 und R → ∞ durchführen.

Abb. 1.31: Der Weg γ = ∑i γi zusammengesetzt aus den Geraden γ1 und γ3 , die einen Abstand von ±ϵ von der reellen x-Achse und die Länge R − r haben. Der kleine Teilkreis γ4 ist um 0 zentriert mit Radius r. Der große Teilkreis γ2 ist ebenfalls um 0 zentriert und hat den Radius R. Beide Teilkreise schließen an die Geraden an.

Im Limes ϵ → 0 gehen die kleinen und großen Teilkreise in Kreise mit Mittelpunkt −1 im Ursprung über: γ4 → κ0r und γ2 → κ0R und die Wege γ1,2 gehen von oben und unten gegen die positive reelle Achse. Wir wählen r und R so, dass alle Pole der Funktion f umschlossen werden, deswegen ergibt sich mithilfe des Residuensatzes:

1.5 Der Residuensatz

∫ dz zα f (z) = i2π ∑ reszl zα f (z).

103 (1.56)

zl =0 ̸

γ



Betrachten wir zunächst die Wege über die beiden Kreise und beachten, dass in der Nähe des Ursprungs gilt: |f (z)| ≤ c |z|−1 , c > 0, woraus folgt: 󵄨󵄨 󵄨󵄨 󵄨 󵄨󵄨 α−1 α−1 r→0 α 󳨀→ 0. 󵄨󵄨∫ dz z f (z)󵄨󵄨󵄨 ≤ c ∫ dz |z | ≤ c2πr ⋅ r 󵄨󵄨 󵄨󵄨 r r κ0

κ0

Für den großen Kreis gilt wegen der Gradbedingung die Abschätzung: 󵄨󵄨 󵄨󵄨 |f (z)|≤C|z|−2 R→∞ 󵄨󵄨 󵄨 α ≤ C ∫ dz |zα−2 | ≤ C2πR ⋅ Rα−2 󳨀→ 0. 󵄨󵄨 ∫ dz z f (z)󵄨󵄨󵄨 󵄨󵄨 󵄨󵄨 R R κ0

κ0

Daraus folgt insgesamt, dass im Limes ϵ, r → 0 und R → ∞ die Wegintegrale über κ0r und κ0R verschwinden. Es bleiben die Wegintegrale über die Strecken [0, 1] ∋ t 󳨃→ γ1 (t) ≡ + − γ̂rR (t) := r + iϵ + t(R − r) und [0, 1] ∋ t 󳨃→ γ3 (t) ≡ γ̂rR (t) := R − iϵ − t(R − r) zu betrachten. α Bei der Funktion z müssen wir darauf achten den richtigen Zweig zu wählen, es gilt: zα = (x + iy)α = eα ln |z| eαi arg z . Daraus folgt dann im Limes: lim zα = x α eiαπ(1∓1) .

y→0±

Deswegen gilt für die Wegintegrale: R

α

lim ∫ dz zα f (z) = ∫ dx (xei(1∓1)π ) f (x) = ±eiαπ(1∓1) ∫ dx x α f (x).

ϵ→0

± γ̂rR

r

± γ̂rR

Insgesamt folgt für die Wege γ1 und γ3 : i2πα

lim lim lim ∫ dz f (z) = (1 − e

r→0 R→∞ ϵ→0

γ1 +γ3



) ∫ dx x α f (x). 0

Alle Wegintegrale zusammen mit Gl. (1.56) ergeben: ∞

∫ dt t α f (t) = 0

=

i2π ∑ reszl zα f (z) 1 − ei2πα zl =0̸ −π ∑ reszl (−z)α f (z). sin(απ) z =0̸ l

104 � 1 Funktionentheorie Schauen wir uns dazu explizit das folgende Beispiel an. Beispiel 1.40. Sei 0 < α < 1: ∞

∫ dt 0

(−z)α t α−1 −π π = res−1 = . 1 + t sin(απ) z(z + 1) sin(πα)

(1.57)

Die Integral-Transformation einer Funktion f : ℝ+ → ℝ, definiert durch ∞

M[f ](z) := ∫ dt f (t)t z−1 , 0

z ∈ ℂ,

nennt man die Melin-Transformation, sofern das Integral existiert (Siehe hierzu [24]).

Betrachten wir den Grenzfall α → 0 des Lemmas (1.31) und ersetzen t α durch den Logarithmus ln t. Die detaillierte Diskussion des Logarithmus folgt in Abschnitt 2.1. Lemma 1.32. Es sei f (z) eine rationale Funktion, die auf [0, ∞[ keine Pole hat. Der Grad des Nenners sei um zwei größer als der des Zählers, dann gilt: ∞

∫ dt f (t) = − ∑ reszl ln(z)f (z). zl =0 ̸

0

Beweis. Der Beweis geht analog zum Beweis des Lemmas (1.31), die Wege sind dieselben. Da die Funktion f (z) nun keinen Pol in z = 0 besitzen darf, ist sie um z = 0 beschränkt und es gilt dort die Abschätzung: |f (z)| ≤ c, c > 0, damit schätzt man wiederum ab: 󵄨󵄨 󵄨󵄨 |f (z)|≤c r→0 󵄨󵄨 󵄨 ̂ ln r| 󳨀→ 0. 󵄨󵄨∫ dz ln(z)f (z)󵄨󵄨󵄨 ≤ c ∫ dz | ln(z)| ≤ c2πr| 󵄨󵄨 󵄨󵄨 r r κ0

κ0

Für den großen Kreis gilt aufgrund der Gradbedingung die Abschätzung: 󵄨󵄨 󵄨󵄨 |f (z)|≤C|z|−2 R→∞ 󵄨󵄨 󵄨 ≤ C ∫ dz | ln(z)z−2 | ≤ Ĉ ⋅ 2πR ln(R) ⋅ R−2 󳨀→ 0. 󵄨󵄨 ∫ dz ln(z)f (z)󵄨󵄨󵄨 󵄨󵄨 󵄨󵄨 R R κ0

κ0

Es bleiben die Wege über γ1 und γ3 zu berechnen, die analog behandelt werden, indem wir die Zweige des Logarithmus richtig wählen: 0

ln z = ln(x + iy) ⇒ lim± ln(x + iy) = ln x + { y→0

i2π

: +, : −.

1.5 Der Residuensatz



105

Deswegen gilt für die Wegintegrale über γ1 , γ3 : R

lim ∫ dz ln(z)f (z) = + ∫ dx ln(x)f (x),

ϵ→0

r

+ γ̂rR

R

lim ∫ dz ln(z)f (z) = − ∫ dx (ln(x) + i2π)f (x).

ϵ→0

r

− γ̂rR

Damit folgt insgesamt im Limes r → 0, R → ∞, ϵ → 0: i2π ∑ reszl ln(z)f (z) = ∫ dz ln(z)f (z) = ∫ dz ln(z)f (z) zl =0 ̸

γ

γ1 +γ3



= − ∫ dx i2πf (x). 0

Auch hier betrachten wir ein Beispiel: Beispiel 1.41. ∞

∫ dx 0

1 ln(z) = − ∑ reszl 1 + x3 1 + z3 z =0 ̸ l

Die Polstellen lauten: z1 = −1 und z± = (1 ± i√3)/2, somit folgt: ∞

∫ dx 0

1 ln(z) = − ∑ resz 3 1+x 1 + z3 z=z1 ,z± = =

󵄨󵄨 󵄨󵄨 󵄨󵄨 − ln(z) − ln(z) − ln(z) 󵄨󵄨 󵄨󵄨 󵄨󵄨 + + 󵄨󵄨 󵄨󵄨 󵄨 (z − z+ )(z − z− ) 󵄨󵄨z=−1 (z + 1)(z − z+ ) 󵄨󵄨z=z− (z + 1)(z − z− ) 󵄨󵄨󵄨z=z+

i5π/3 iπ/3 −iπ − − (1 + z+ )(1 + z− ) (z− + 1)(z− − z+ ) (z+ + 1)(z+ − z− )

1 −5/3 1/3 = −iπ( + + ) 3 (3 − i√3)/2 i√3 (3 + i√3)/2 i√3 2π . = 3√3



Eine Folgerung, die wir ohne Beweis angeben, ist die folgende Aussage: Lemma 1.33. Es sei f (z) eine rationale Funktion, die auf [0, ∞[ keine Pole hat. Der Grad des Nenners sei um zwei größer als der des Zählers, dann gilt:

106 � 1 Funktionentheorie ∞

1 ∫ dt ln(t)f (t) = − R ∑ reszl ln2 (z)f (z). 2 zl 0

Aufgaben 1.

Gegeben sei z, z′ ∈ ℂ, bestimme Real- und Imaginärteile, sowie den Betrag von: 2

(i) (z + z′ ) , 2.

(ii)

z/z′ ,

(iii)

1/(z + z′ ),

und achte auf die Definitionsbereiche. Sei z = x + iy, bestimme Real- und Imaginärteile, sowie den Betrag von: ]0, π/2] × [0, 1] ∋ (x, y) = z 󳨃→ f (z) :=

1 , sin z

[0, π/2[ × [0, 1] ∋ (x, y) = z 󳨃→ f (z) := tan z = 3. 4.

und stelle diese grafisch in einem 3d-Plot dar. Sei z1 = 1 − i, z2 = 1 + 2i. Stelle z1 ± z2 in Polarkoordinaten dar, berechne den Winkel ∠(z1 , z2 ) und veranschauliche dies in der ℂ-Ebene. Zeige, für n ∈ ℕ hat die Gleichung zn = 1 die n Lösungen: (ζn )0 = 1,

5.

(ζn )1 = ζn ,

(ζn )2 ,

(ζn )n−1 ,

für |z| ≤ 1/2.

Zeige die Gültigkeit der Wirtinger-Ableitungen in Lemma 1.3 Zeige explizit lim

z→z0

8.

...

und gib diese in Polarkoordinaten an. Zeige mithilfe der Reihendarstellung der Exponentialfunktion |exp z − 1| ≤ 2|z|,

6. 7.

sin z , cos z

zn − zn0 = nzn−1 0 . z − z0

Zeige für eine holomorphe Funktion f (z) = f (x, y) = g(x, y) + ih(x, y) gilt: 󵄨󵄨 𝜕(g, h) 󵄨󵄨 󵄨 󵄨󵄨 |J(f )|x0 ,y0 = det 󵄨󵄨󵄨 = |f ′ (z0 )|2 . 󵄨 󵄨󵄨 𝜕(x, y) 󵄨󵄨󵄨x0 ,y0

9.

Bestimme eine analytische Funktionen f = g + ih, die durch die folgenden Realteile gegeben sind: (i)

g(x, y) = x − xy,

(ii)

g(x, y) =

y . x 2 + y2

Aufgaben

� 107

10. Betrachte die Funktion f (z) = ln(z) in Polarkoordinaten z = reiφ und gib die Niveaulinien konstantem Real- und Imaginärteil an und überprüfe, dass diese sich orthogonal schneiden. 11. Bestimme die Äquipotential- und Stromlinien der komplexen Potentiale: f (z) := reiφ z,

r > 0, φ > 0,

f (z) := k ln(z − z0 )z,

k > 0.

12. Es sei ein Weg γab : [a, b] → 𝕌 gegeben mit za = γab (a) und zb = γab (b) und holomorphe Funktion f , g : 𝕌 → ℂ, zeige dass gilt: ∫ dzf ′ (z)g(z) = f (zb )g(zb ) − f (za )g(za ) − ∫ dzf (z)g ′ (z).

γab

γab

13. Bestimme das Residuum an der Stelle z0 = 0 der folgenden Funktionen: ez , sin z

(i)

sin z , z3

(ii)

(iii)

ln z . z2

14. Berechne das Wegintegrale über den Weg γ aus Beispiel 1.21 für die Funktion f (z) = z. 15. Bestimme die Konvergenzradien der beiden Funktionen: zn , n+1 n=0 2 ∞

f (z) := ∑

(z − i)n , n+1 n=0 (2 − i) ∞

g(z) := ∑

und zeige, dass g(z) eine analytische Fortsetzung von f (z) ist. 16. Zeige die Reihendarstellungen π cot(πz) = 2

(

1 1 1 + ∑( + ), z n=0̸ z − n n

∞ π 1 1 ) = + ∑ . sin(πz) z n=−∞ (z − n)2

17. Berechne das Wegintegral e−z Iγ := ∫ dz z

2

γ

über die Ellipse γ := {(x, y) ∈ ℝ2 : x 2 /a2 + y2 /b2 = 1, a, b > 0}. 18. Zeige die Integrale ∞

∫ 0

π/n dx = , 1 + x n sin(π/n)

n = 2, 3, . . . ,

108 � 1 Funktionentheorie +∞

∫ −∞

dx cos(x) π −a = e , a x 2 + a2

a > 0.

19. Berechne das Wegintegral a+iR

a+i∞

I(α) = ∫ dz

bz bz := lim ∫ dz , R→∞ z z a−iR

a−i∞

20. Berechne die Integrale ∞

∫ dx 0 ∞

ln(x) π =− , 2 2 4 (1 + x )

∫ dx 0

ln(x)2 π 3 = . 8 1 + x2

a, b > 0.

2 Spezielle Funktionen In diesem Kapitel diskutieren wir beispielhaft einige Funktionen der komplexen Analysis. Die Darstellung ist dabei exemplarisch zu verstehen und beschränkt sich auf elementare, aber wichtige Funktionen der Physik. Die Ausführungen hier sollen lediglich einen kleinen Einblick in die Diskussion um Funktionen der Mathematik und Physik geben. An dieser Stelle sei ausdrücklich auf das Nachschlagewerk Handbook of Mathematical Functions [25] hingewiesen. Die hier verwendete Notation orientiert sich an diesem Werk. Ausführliche Diskussionen über spezielle mathematische Funktionen und deren Anwendungen finden sich in dem Lehrbuch Special Functions [26].

2.1 Logarithmusfunktion Dem Logarithmus von komplexen Zahlen sind wir schon im Kapitel 1 an verschiedenen Stellen begegnet. Hier wollen wir seine Eigenschaften genauer diskutieren und mithilfe des Logarithmus weitere elementare Funktionen konstruieren. Wir nennen w ∈ ℂ den Logarithmus von z ∈ ℂ× , wenn gilt ew = z. Aufgrund der Periodizität der Exponentialfunktion ist damit klar, dass z unendlich viele Logarithmen besitzt. Schauen wir uns nun Logarithmusfunktionen an, anhand derer einige wichtige Aspekte komplexer Funktionen verdeutlicht werden sollen. Definition 2.1 (Logarithmusfunktion). Eine auf einem Gebiet 𝔾 ⊂ ℂ× stetige Funktion Ln : 𝔾 → ℂ mit der Eigenschaft exp(Ln z) = z = |z| exp(i arg z),

∀z ∈ 𝔾,

(2.1)

nennen wir einen Zweig des Logarithmus auf 𝔾. Den Zweig für den gilt: ln |z| = R Ln z,

−π < arg z ≤ π,

nennen wir den Hauptzweig, für den wir dann auch ln z schreiben.1



Der Hauptzweig ln ist die aus der reellen Analysis bekannte Logarithmusfunktion, so dass sich die Darstellung ergibt: ln z = ln |z| + i arg z. Schauen wir uns eine Reihe von elementaren Eigenschaften an. Es gilt ln 1 = 0, dies ist der einzige Punkt in der komplexen Ebene in der die Logarithmusfunktion verschwindet. Für negative reelle Zahlen z = −x, x > 0 gilt: 1 Wir verwenden hier die Notation aus [27]. https://doi.org/10.1515/9783111059228-002

110 � 2 Spezielle Funktionen ln z = ln(−x) = ln(xeiπ ) = ln x + iπ. Insbesondere gilt: ln(−1 ± i0) := lim ln(−1 ± iφ) = lim ln(√1 + φ2 ei(±π+arctan φ) ) = ±iπ = πe±iπ/2 , φ→0+

φ→0+

und ln(±i) = ln(e±iπ/2 ) = ±i

π π ±iπ/2 = e . 2 2

Der Hauptzweig der Logarithmusfunktion ist in Abbildung 2.1 als Phasenplot dargestellt, in dem auch die oben diskutierten speziellen Punkte z = −1 ± i0, ±i als kleine schwarze Punkte auf der Fläche |ln(z)| markiert sind.

Abb. 2.1: Phasenplot der Logarithmusfunktion ln z. Mit kleinen schwarzen Punkten sind die Punkte z = 1, −1 ± i0, ±i auf der Fläche |ln(z)| markiert. Die Höhenlinie sind von unten nach oben gegeben durch: |ln(z)| = 0.1, 0.5, 1, π/2, 2, 2.5, 3.

Die Exponentialfunktion ist die Umkehrfunktion der Logarithmusfunktion und zu jeder Logarithmusfunktion Ln z ist auch Ln z + i2πn, n ∈ ℤ ein Zweig. Betrachten wir elementare Eigenschaften dieser Funktion und verzichten an dieser Stelle auf Existenzaussagen. Zunächst folgt aufgrund der Definition: eLn(zz ) = zz′ = eLn z eLn z = eLn z+Ln z . ′





Daraus erhält man die Funktionalgleichung für die Logarithmusfunktion: Ln(zz′ ) = Ln z + Ln z′ + i2πn,

n ∈ ℤ.

Kommen wir zu den Differenzierbarkeitsaussagen der Logarithmusfunktion.

2.1 Logarithmusfunktion

� 111

Lemma 2.1. Es sei ein Zweig des Logarithmus Ln z auf dem einfach zusammenhängendem Gebiet 𝔾 ⊂ ℂ× gegeben, dann gilt: (i) Ln z ist holomorph und es gilt: d Ln z 1 = . dz z

(2.2)

(ii) Die Funktion 1/z hat eine Stammfunktion auf 𝔾, die gegeben ist durch: Ln z = ∫

γz0 z

dζ + Ln z0 , ζ

Sp γz0 z ⊂ 𝔾.

Beweis. (i) Auf 𝔾 ist Ln z eine stetige Funktion. Sei w = Ln z und w0 = Ln z0 für z ≠ z0 , dann folgt mit der Definition (2.1): w − w0 Ln z − Ln z0 1 1 d Ln z 󵄨󵄨󵄨󵄨 = lim w = w = . = lim 󵄨󵄨 w z→z w→w 0 0 󵄨 dz 󵄨z=z0 z − z0 −e e z0 0 0 e (ii) Da das Gebiet 𝔾 ⊂ ℂ× nach Voraussetzung einfach zusammenhängend ist und deswegen den Punkt z = 0 nicht enthält, gilt: nγ (0) =

1 1 ∫ dz = 0, i2π z γ

und damit besitzt 1/z nach Lemma 1.12 eine Stammfunktion auf 𝔾 und es gilt: Ln z0 = ∫ dζ γz0 z0

1 + Ln z0 = Ln z0 . ζ

Zunächst sei bemerkt, dass auf ℂ× kein Zweig des Logarithmus existieren kann, denn ℂ× ist nicht einfach zusammenhängend und deswegen nγ (0) = 1 und somit besitzt 1/z keine Stammfunktion in ℂ× . Deswegen muss ein Gebiet 𝔾 konstruiert werden, welches einfach zusammenhängend ist, sowie in Abbildung 2.2 dargestellt. Der Hauptzweig des Logarithmus lässt sich auch definieren über: ln z := ∫ γ1z

dζ , ζ

∀z ∈ 𝔾 = ℂ× \ ℝ− ,

−1 denn das Wegintegral über den geschlossen Weg γ := γ1z + γ1|z| + κ0|z| 1/z eine Stammfunktion besitzt. Somit gilt insgesamt:

−1

verschwindet, da

112 � 2 Spezielle Funktionen

Abb. 2.2: Wegintegral des Hauptzweiges ln z der Logarithmusfunktion über die Wege γ1z und γ1|z| + κ0|z| .

dζ ln z = ∫ = ζ γ1z

∫ γ1|z| +κ0|z|

|z|

arg z

1

0

dζ dx =∫ + ∫ idφ = ln |z| + i arg z. ζ x

Dies stimmt mit der Definition des Hauptzweiges überein. Beispiel 2.1. Betrachten wir die Funktion ln(1 + z) und eine Potenzreihenentwicklung um z = 0. Zum einen folgt aus der Definition: 1+z

z

z

1

0

0

∞ ∞ dζ dζ (−z)n dζ = ∫ =∫ = ∑ (−)n ∫ dζζ n = − ∑ , ln(1 + z) = ∫ ζ ζ 1 + ζ n=0 n n=1 γ1,1+z

für |z| < 1 und zum anderen aus der Taylorreihen-Darstellung und (2.2): ∞ n ∞ zn dn z dn−1 1 󵄨󵄨󵄨󵄨 (−z)n ln(1 + z)|z=0 = ∑ . = − ∑ 󵄨 󵄨 n n! dz n! ⏟⏟⏟⏟⏟⏟⏟⏟⏟⏟⏟⏟⏟⏟⏟⏟⏟⏟⏟⏟⏟⏟⏟⏟⏟⏟⏟ n dzn−1 1 + z 󵄨󵄨z=0 n=1 n=1 n=1 ∞

ln(1 + z) = ∑



=(−)n−1 (n−1)!

Beispiele über Integrale des Hauptzweiges haben wir zum Ende von Abschnitt 1.5.3 kennengelernt. Eine Stammfunktion der Logarithmusfunktion ist gegeben durch: ∫ dz ln z = z ln z − z, wie sich durch Differenzieren schnell verifizieren lässt. Die hier eingeführte Logarithmusfunktion stellt den natürlichen Logarithmus zur Basis e dar. In der Physik wird häufig auch der Logarithmus zur Basis 10 verwendet. Die Umrechnung ist gegeben durch: log z ≡ log10 z =

ln z , ln 10

denn es gilt 10log z = (eln 10 )ln z/ ln 10 = eln z = z. Die Verallgemeinerung zu einer beliebigen Basis ist evident.

2.2 Arcus-Funktionen �

113

Mit Hilfe der Logarithmusfunktion werden wir in den nächsten Abschnitten weitere elementare Funktionen konstruieren.

2.2 Arcus-Funktionen In diesem Abschnitt diskutieren wir exemplarisch Umkehrfunktionen der trigonometrischen Funktionen sin, cos und tan und beginnen mit der Arcustangens-Funktion oder kurz Arcustangens genannt. Definition 2.2 (Arcustangens). Die auf einem Gebiet 𝔾| := ℂ \ {iy | |y| ≥ 1} definierte komplexe Funktion: 𝔾| ∋ z 󳨃→ arctan z :=

i+z i ln( ) ∈ ℂ, 2 i−z

nennen wir den Hauptzweig des Arcustangens.

(2.3) ◼

Hierbei ist ln der Hauptzweig der Logarithmusfunktion. Man beachte, dass aus dem Definitionsgebiet die beiden imaginären Achsen für |y| ≥ 1 herausgenommen wurden. In der folgenden Abbildung werden Linien aus dem Gebiet 𝔾| (links) über die Abbildung (2.3) zu Linien in der rechten Abbildung abgebildet (siehe Abbildung 2.3). Der Kreis 𝕌10 wird auf den Streifen zwischen x = −π/4 und π/4 abgebildet und der Rand 𝜕𝕌10 auf die beiden vertikalen Geraden bei ±π/4.

Abb. 2.3: Links ist ein Ausschnitt der 𝔾| -Ebene mit einem orthogonalen achsenparallem Gitter und einer Kreislinienschar mit Radien r = 0.2, 0.4, 0.6, 0.8, 1 dargestellt. Rechts ist die Abbildung der Linienschar aus 𝔾| unter der arctan-Abbildung dargestellt. Die Kreislinie mit r = 1 bildet sich in die beiden vertikalen Linien bei x = ±π/4 ab.

114 � 2 Spezielle Funktionen Die explizite Zerlegung in Real- und Imaginärenteil des Arcustangens ist gegeben durch: 2x

arctan( 1−x 2 −y2 ) { { { { { { {arctan( 2x ) + π { x 2 + (1 + y)2 1{ i 1−x 2 −y2 )+ { arctan z = ln( 2 2 { 4 2 {arctan( 2x ) − π x + (1 − y) { { 1−x 2 −y2 { { { {π { 2 sign x

: x 2 + y2 < 1, : x 2 + y2 > 1, x ≥ 0, : x 2 + y2 > 1, x < 0, : x 2 + y2 = 1, x ≠ 0.

Betrachten wir den Bereich x 2 + y2 < 1, dann geht im Imaginärteil das Argument des Logarithmus bei x = 0, y → −1 gegen Null, und bei x = 0, y → 1 gegen +∞. Da das Argument eine stetige Funktion ist, ist der Wertebereich des Imaginärteils des Arcustangens ℝ. Für den Realteil gilt |R arctan z| = | arctan(2x/(1 − x 2 − y2 ))|/2 ≤ π/4, da das Argument des arctan aus ℝ ist und ebenso eine stetige Funktion ist. In Abbildung 2.4 ist der Arcustangens in einem Phasenplot dargestellt. Viele der zuvor diskutierten Aspekte lassen sich an dieser Grafik verifizieren.

Abb. 2.4: Phasenplot des Hauptzweiges der arctan-Funktion. Die Höhenlinie sind von unten nach oben gegeben durch: | arctan z| = 0.25, 0.5, π/4, 1, 1.25, 1.5, 1.75, 2. In der (x − y)Ebene sind die beiden imaginären Achsen mit |y| ≥ 1 eingezeichnet, sowie punktiert der Einheitskreis, dessen Abbild man in der abgebildeten Fläche ebenfalls erkennen kann.

Einen beliebigen Zweig des Arcustangens bezeichnen wir analog zur Logarithmusfunktion mit großen Buchstaben und es gilt: Arctanz = kπ +

x 2 + (1 + y)2 1 2x i ) + ), arctan( ln( 2 4 1 − x 2 − y2 x 2 + (1 − y)2

z2 ≠ −1, k ∈ ℤ.

2.2 Arcus-Funktionen �

115

Für reelle Zahlen (z = x) verschwindet der Imaginärenteil und es gilt 2x

{ {arctan( 1−x 2 ) { 1{ arctan x = {arctan( 2x 2 ) + π sign x 1−x 2{ { { π/2 {

: |x| < 1, : |x| > 1, : x = ±1.

Auch die rechte Seite ist in den Punkten x = ±1 stetig, denn es gilt etwa: lim

x→1+

1 2x π (arctan( ) + π) = . 2 4 1 − x2

Für rein komplexe Zahlen z = ±0 + iy ergibt sich: 1+y 1 {i ln( 1−y ) arctan(±0 + iy) = { 2 i ln( y+1 ) ± π { y−1

: |y| < 1, : |y| > 1.

Hier ist die Funktion für |y| < 1 ebenfalls stetig, aber für |y| > 1 gibt es einen Sprung in der Phase, der in einem Farbensprung im Phasenplot zu erkennen ist. An den Stellen z = ±i ist der Arcustangens singulär. Ebenso wie die Logarithmusfunktion, kann der Arcustangens auch über ein komplexes Wegintegral definiert werden. Hierzu betrachte die folgende Aussage. Lemma 2.2. (i) Der arctan z ist holomorph und es gilt: 1 d arctan z = , dz 1 + z2

(2.4)

∀z ∈ 𝔾| .

(ii) Die Funktion 1/(1 + z2 ) hat eine Stammfunktion auf 𝔾| , die gegeben ist durch: arctan z = ∫ γ0z

dζ , 1 + ζ2

Sp γ0z ⊂ 𝔾| .

Beweis. (i) Auf 𝔾| ist arctan z eine stetige Funktion. Aus der Definition (2.3) und der Eigenschaften der Logarithmusfunktion folgt: d arctan z d i i+z i 1 1 1 = ln( )= ( + )= , dz dz 2 i−z 2 i+z i−z 1 + z2 Da 1/(1 + z2 ) in 𝔾| holomorph ist, ist dies auch arctan z.

∀z ∈ 𝔾| .

116 � 2 Spezielle Funktionen (ii) Da das Gebiet 𝔾| einfach zusammenhängend ist, gilt für einen in 𝔾| geschlossenen Weg γ = γ0z + γ̂z0 , bei dem γ̂z0 ⊂ 𝔾| die Gerade zwischen z und 0 ist und γ0z ein beliebiger Weg in 𝔾| : 0 = ∫ dζ γ

1 1 1 = ∫ dζ + ∫ dζ . 1 + ζ2 1 + ζ2 1 + ζ2 γ0z

γ̂z0

Für das zweite Integral gilt mit (2.4): ∫ dζ γ̂z0

z

z

0

0

1 1 d arctan ζ = − arctan z, = − ∫ dζ = − ∫ dζ dζ 1 + ζ2 1 + ζ2

und damit insgesamt die Behauptung. Die Arcustangens-Funktion ist die Umkehrfunktion der Tangens-Funktion und die Gebiete 𝔾π/2 := {z | |Rz| < π/2} und 𝔾| werden bijektiv aufeinander abgebildet, dabei gilt: arctan(tan w) =

i + tan w i cos w − i sin w i i ln( ) = ln( ) = ln e−i2w = w, 2 i − tan w 2 cos w + i sin w 2

sowie mit w = arctan z: tan w =

sin w 1 ei2w − 1 1 (i − z)/(i + z) − 1 1 i − z − i − z = = = = z. cos w i ei2w + 1 i (i − z)/(i + z) + 1 i i − z + i + z

Schauen wir uns Rechenregeln des Arcustangens an, die wir als Aufgaben formulieren. Sei z1 , z2 ∈ 𝔾| mit z1 z2 ≠ ±1, zeige dass gilt: arctan z1 ± arctan z2 = arctan(

z1 ± z2 ). 1 ∓ z1 z2

Lösung: Wir verwenden die Definition (2.3) und die Eigenschaften der Logarithmusfunktion und betrachten zunächst den Fall mit ‘+’: arctan z1 + arctan z2 = =

(i + z1 )(i + z2 ) z z − 1 + i(z1 + z2 ) i i ln( ) = ln( 1 2 ) 2 (i − z1 )(i − z2 ) 2 z1 z2 − 1 − i(z1 + z2 ) i + (z1 + z2 )/(1 − z1 z2 ) i ln( ) 2 i − (z1 + z2 )/(1 − z1 z2 )

= arctan(

z1 + z2 ). 1 − z1 z2

Setzt man z2 󳨃→ −z2 , dann folgt die Behauptung.



2.2 Arcus-Funktionen

� 117

Stelle die Taylorreihe von arctan z um z = 0 auf. Lösung: Wir benutzen die Definition (2.3) und die bekannte Taylorreihe der Logarithmusfunktion aus Beispiel 2.1: arctan z =

i 1 − iz i ∞ in ln = − ∑ zn ((−)n − 1) 2 1 + iz 2 n=1 n ∞

=∑

n=0

(−)n 2n+1 z . 2n + 1



Analog können wir die Arcussinus- und Arcuscosinus-Funktion diskutieren, die wir ebenso kurz als Arcussinus bzw. Arcuscosinus bezeichnen. Wir führen hier nicht die vollständige Diskussion in Analogie zum Arcustangens durch, sondern beschränken uns auf ein paar wesentliche Eigenschaften. Beginnen wir zunächst mit der Definition der Funktionen. Definition 2.3 (Arcussinus). Die Arcussinus-Funktion ist definiert auf dem Gebiet 𝔾−− := ℂ \ {x | |x| ≥ 1} durch die Abbildung: 𝔾−− ∋ z 󳨃→

arcsin z := −i ln(iz + √1 − z2 ) ∈ 𝔾π/2 ,

mit dem Streifengebiet 𝔾π/2 := {z ∈ ℂ | |Rz| < π/2}.

(2.5) ◼

Die Arcuscosinus-Funktion werden wir nicht separat diskutieren, da wir alle Eigenschaften aus der Relation cos z = sin(z+π/2) erhalten können. Wie für die Logarithmusfunktion verwenden wir für den Hauptzweig der Arcus-Funktionen die klein geschriebene Schreibweise und bezeichnen mit Arcsin und Arccos einen beliebigen Zweig. Ein Ausschnitt des Gebietes 𝔾−− unter Abbildung 2.5 des arcsin ist in der folgenden Grafik mit verschiedenen Linienscharen skizziert. Betrachten wir die Differentiation, sowie die Stammfunktionseigenschaft. Lemma 2.3. (i) Der arcsin z ist holomorph und es gilt: 1 d arcsin z = , dz √1 − z2

∀z ∈ 𝔾−− .

(ii) Die Funktion 1/√1 − z2 hat eine Stammfunktionen auf 𝔾−− , die lautet: arcsin z = ∫ γ0z

für Sp γ0z ⊂ 𝔾−− .

dζ √1 − ζ 2

,

118 � 2 Spezielle Funktionen

Abb. 2.5: Ausschnitt der 𝔾−− -Ebene mit einem orthogonalen achsenparallem Gitter und einer Kreislinienschar mit Radien r = 0.2, 0.4, 0.6, 0.8, 1. Die reellen Achsen mit |x| ≥ 1 sind nicht Teil der Ebene und sind deswegen nicht eingezeichnet. Die beiden kleinen schwarzen Kreise markieren die Punkte z = ±1 (∘). Rechts dargestellt ist die Abbildung der Linienschar unter der arcsin-Abbildung.

Beweis. (i) Auf 𝔾−− ist arcsin z eine stetige Funktion. Aus der Definition (2.5) und der Eigenschaften der Logarithmusfunktion folgt: −i d arcsin z z 1 = (i − )= , 2 2 dz √ √ √ iz + 1 − z 1−z 1 − z2

∀z ∈ 𝔾−− .

Da 1/√1 − z2 in 𝔾−− holomorph ist, ist dies auch arcsin z. (ii) Der Beweis geht analog zum Beweis für die arctan-Funktion und wird hier nicht durchgeführt. Ergänzen wir die Abbildungseigenschaften durch die Darstellung des Phasenplots der Arcussinus-Funktion (siehe Abbildung 2.6). Für die Umkehrfunktionen gilt unter Beachtung der richtig gewählten Zweige: Arcsin(sin w) = −iLn(i sin w + √1 − sin2 w) = −i ln eiw = w, sin(Arcsinz) =

1 Ln(iz+√1−z2 ) √ 2 (e − e−Ln(iz+ 1−z ) ) = z, 2i

und analog π π + iLn(i cos w + √1 − cos2 w) = + iLn(ie−iw ) = w, 2 2 1 iπ/2−Ln(iz+√1−z2 ) −iπ/2+Ln(iz+√1−z2 ) cos(Arccosz) = (e +e ) = z. 2

Arccos(cos w) =

2.2 Arcus-Funktionen �

119

Abb. 2.6: Phasenplot der Arcussinus-Funktion zusammen den Niveaulinien für | arcsin | = 1/4, 1/2, π/4, 1, π/2, 3π/4.

Es handelt sich um konforme Abbildungen, was an der Winkeltreue in den Schnittpunkten zu erkennen ist und aus den zuvor dargelegten Eigenschaften folgt. In den Punkten z = ±1 gilt die Winkeltreue nicht, wie ebenfalls im Vergleich der Abbildungen zu erkennen ist und wie im folgenden Beispiel exemplarisch gezeigt wird. Beispiel 2.2. Wir betrachten die Abbildung des rechtwinkligen Schnittwinkels der reellen Achse mit der imaginären Achse im Punkt w0 = π/2 der arcsin-Funktion. Der Punkt w0 = π/2 wird bei z0 = 1 angenommen. Die Parametrisierung der beiden Wege ist gegeben durch: ]0, 1[ ∋ t 󳨃→

γ1 (t) = 1 + it, { γ2 (t) = 1 − t,

wobei für die Fragestellung nur der Bereich t → 0+ interessiert. Es gilt mit f (z) = arcsin z, im Grenzübergang limt→0+ f (γ1 (t)) = limt→0+ f (γ2 (t)) = π/2 und: ∢0 (f ∘ γ1 , f ∘ γ2 ) = lim arg((f ∘ γ2 )′ (t)/(f ∘ γ1 )′ (t)) t→0+

= lim arg( t→0+

γ2′ (t) 1 − γ12 (t) √ ) γ1′ (t) 1 − γ22 (t)

= lim arg(i√ t→0+

−i2t + t 2 π ) = arg(i√−i) = . 2 4 2t − t

Der Winkel halbiert sich. Betrachten wir auch ein Additionstheorem:



120 � 2 Spezielle Funktionen

Zeige das Additionstheorem: arcsin z1 ± arcsin z2 = arcsin(z1 √1 − z22 ± z2 √1 − z12 ) Lösung: Es gilt zunächst für den ‘+’-Fall : arcsin z1 + arcsin z2 = −i(ln(iz1 + √1 − z12 ) + ln(iz2 + √1 − z22 )) = −i ln(i(z1 √1 − z22 + z2 √1 − z12 ) + √ (1 − z12 )(1 − z22 ) − z1 z2 ). Für das Quadrat des ersten Terms des Logarithmus gilt: 2

1 − (z1 √1 − z22 + z2 √1 − z12 ) = 1 − z12 − z22 + 2z12 z22 + −2z1 z2 √ (1 − z12 )(1 − z22 ) 2

= (√ (1 − z12 )(1 − z22 ) − z1 z2 ) . Aus dem Vergleich mit dem zweiten Terms des Logarithmus folgt die Behauptung. Für den ‘−’-Fall setze man z2 → −z2 . ⬦

Stelle die Taylorreihe von arcsin z um z = 0 auf. Lösung: Wir benutzen die Darstellung über das Wegintegral und entwickeln den Integranden: arcsin z = ∫ γ0z



dz √1 −



z2

∞ n −1/2 −1/2 )(−z2 ) = ∑ ( )(−1)n ∫ dzz2n n n n=0

= ∫ dz ∑ ( γ0z

n=0

n

−1/2 (−) 2n+1 ) = ∑( z , n 2n + 1 n=0

γ0z

2

|z| < 1,

mit − 1 (− 1 − 1) ⋅ ⋅ ⋅ (− 21 − (n − 1)) −1/2 (2n − 1)!! = (−1)n , )= 2 2 n n! 2n n!

(

n ≥ 1,

und (−1/2 ) = 1 folgt 0 ∞

arcsin z = z + ∑

n=1

(2n − 1)!! 2n+1 z , 2n n!

|z|2 < 1.

Für negative Argumente und Hauptzweige gilt: arctan(−z) = − arctan(z), arccot(−z) = − arccot(z), arcsin(−z) = − arcsin(z),

arccos(−z) = π − arcsin(z).



2.2 Arcus-Funktionen

� 121

In der physikalischen Praxis werden oft die reellen Arcus-Funktionen benötigt. Für die Zweige der Arcus-Funktionen gilt mit x ∈ ℝ, n ∈ ℤ: i+x i Ln = nπ + arctan x, 2 i−x i x−i Arccot x = Ln = (n + 1/2)π − arctan x, 2 x+i Arcsin x = −i Ln(ix + √1 − x 2 ) = nπ + (−1)n arcsin x,

Arctan x =

Arccos x = −i Ln(x + i√1 − x 2 ) = (2n + 1/2)π − arcsin x,

x 2 ≤ 1, x 2 ≤ 1.

Die folgende Grafik zeigt diese vier Arcus-Funktionen (siehe Abbildung 2.7).

Abb. 2.7: Die ArcusFunktionen für reelle Argumente im Ausschnitt |x| ≤ 4 mit Zweigen (gestrichelte Linien) stetig fortgesetzt im Bereich [−π, π].

Der vollständigkeitshalber geben wir noch die folgenden nicht so oft genutzten Standard Arcus-Funktionen an: 1 arccsc z := arcsin , z 1 arcsec z := arccos . z 2.2.1 Area-Funktionen* Für die Diskussion und Definitionen der Umkehrfunktionen der hyperbolischen Funktionen werden wir deren Beziehung zu den trigonometrischen Funktionen nutzen,

122 � 2 Spezielle Funktionen indem die Abbildung z 󳨃→ iz in den Argumenten der trigonometrischen und ArcusFunktionen durchgeführt wird. Dies entspricht im Wesentlichen einer Drehung der Argumente und Funktionswerte um einen Winkel π/2. Wir werden nicht auf alle Details wie bei den Arcus-Funktionen eingehen, die Übertragung ist in den meisten Fällen klar. Lemma 2.4. Es gilt für die Hauptzweige der hyperbolischen Umkehrfunktionen: arsinh z := ln(z + √z2 + 1),

z∈𝔾, | |

arcosh z := ln(z + sign(Rz)√z2 − 1), artanh z :=

1 1+z ln , 2 1−z

z ∈ ℂ \ ]−∞, 1[,

z ∈ 𝔾−− .

Beweis. Wir beschränken uns auf die jeweiligen Hauptzweige und nutzen die Relationen zwischen den trigonometrischen und hyperbolischen Funktionen: sinh z = −i sin iz,

cosh z = cos iz,

tanh z = −i tan iz.

Dann folgt für die arsinh-Funktion: arsinh(sinh z) = −i2 ln(i sin(−iz) + √1 − sin2 (−iz)) = i arcsin(sin(−iz)) = z.

Der Definitionsbereich der arcsin-Funktion ist 𝔾−− und durch die Multiplikation des Argumentes mit i, welches einer Drehung um π/2 entspricht, ist der Definitionsbereich der arsinh-Funktion 𝔾 . Für die artanh-Funktion folgt analog | |

artanh(tanh z) =

1 1 + tanh z i i + tan(iz) ln = −i ln = −i arctan(tan(iz)) = z, 2 1 − tanh z 2 i − tan(iz)

wobei sich der Definitionsbereich entsprechend abbildet. Für die arcosh-Funktion gilt mit der Definition: arcosh(cosh z) = ln(cosh z + sign(Rz)√cosh2 z − 1)

= ln(cosh z + sign(Rz)| sinh z|) = ln ez = z,

sowie 1 √ 2 √ 2 cosh(arcosh z) = (eln(z+sign(Rz) z −1) + e− ln(z+sign(Rz) z −1) ) 2 1 = (z + sign(Rz)√z2 − 1 + z − sign(Rz)√z2 − 1) = z. 2 Durch das Entfernen des reellen Intervalls ]−∞, 1[ aus ℂ entsteht ein einfach zusammenhängendes Gebiet auf dem arcosh holomorph ist. ⬦

2.2 Arcus-Funktionen �

123

Es gibt verschiedene Konventionen bei der Schreibweise der Area-Funktionen. Wir verwenden hier nicht wie üblich die Schreibweise der Digital Library of Mathematical Functions [28], sondern die modernere und häufiger verwendete Schreibweise ar∗ statt arc∗.

Ohne Beweis geben wir auch noch die Integraldefinition der Area-Funktionen an: Lemma 2.5. Die Area-Funktionen sind gegeben durch: arsinh z = ∫ γ0z

arcosh z = ∫ γ1z

artanh z = ∫ γ0z

dζ √1 + ζ 2 dζ

√ζ 2 − 1 dζ , 1 − ζ2

,

Sp γ0z ⊂ 𝔾 ,

,

Sp γ1z ⊂ {ℂ \ ]−∞, 1[},

| |

Sp γ0z ⊂ 𝔾−− .

Für negative Argumente und Hauptzweige gilt: arsinh(−z) = − arsinh(z),

arcosh(−z) = ±iπ + arcosh(z),

artanh(−z) = − artanh(z), arcoth(−z) = − arcoth(z),

Iz ≷ 0,

z ≠ ±1,

z ≠ ±1.

In Abbildung 2.8 ist der Phasenplot der arsinh- und artanh-Funktion dargestellt.

Abb. 2.8: Phasenplot der Area-Funktionen arsinh und artanh zusammen mit den Niveaulinien bei 0.25, 0.5, π/4, 1, 1.25, π/2, 1.75, 2.

124 � 2 Spezielle Funktionen

Zeige das Additionstheorem Artanh z1 ± Artanh z2 = Artanh

z1 ± z2 . 1 ± z1 z2

Lösung: Wir nehmen an, dass alle Argumente der Funktionen aus dem Gebiet 𝔾−− stammen. Betrachten wir zuerst den ‘+’-Fall, dann gilt: 1 + z1 1 + z2 1 + z1 + z2 + z1 z2 1 1 Ln = Ln 2 1 − z1 1 − z2 2 1 − z1 − z2 + z1 z2 1 + (z1 + z2 )/(1 + z1 z2 ) 1 = Ln 2 1 − (z1 + z2 )/(1 + z1 z2 ) z +z = Artanh 1 2 . 1 + z1 z2

Artanh z1 + Artanh z2 =

Für den ‘−’-Fall ersetze man z2 󳨃→ −z2 .



Zeige die Reihendarstellung: arcoth z := artanh

1 π ∞ z2n+1 = ∓i + ∑ , z 2 n=0 2n + 1

Rz ≷ 0, |z| < 1, Iz ≠ 0.

Lösung: Zunächst gilt: artanh

1 1 z + 1 ln(−1) 1 ∞ (1 − (−1)n )zn iπ ∞ z2n+1 = ln = + ∑ =± +∑ . z 2 z−1 2 2 n=1 n 2 n=0 2n + 1

Die Vorzeichen bestimmen wir aus der Polarkoordinatendarstellung und dem Limes |z| → 0. Dazu setzen wir Rz = x = 0, woraus zunächst folgt: artanh

󵄨󵄨 󵄨 󵄨 󵄨 󵄨󵄨 z + 1 󵄨󵄨󵄨 i arg((z+1)/(z−1)) 1 1 1 󵄨󵄨󵄨󵄨 1 + z 󵄨󵄨󵄨󵄨 i 2 󵄨󵄨e = ln(󵄨󵄨󵄨 ln ) = 󵄨 󵄨 + atan2(2y, 1 − |z| ) 󵄨󵄨 z − 1 󵄨󵄨󵄨 z 2 2 󵄨󵄨󵄨󵄨 1 − z 󵄨󵄨󵄨󵄨 2 󵄨 󵄨 󵄨 󵄨 2y 1 󵄨󵄨󵄨 1 + iy 󵄨󵄨󵄨󵄨 i = ln󵄨󵄨󵄨 ). 󵄨 + (−π sign y + arctan 2 󵄨󵄨󵄨 1 − iy 󵄨󵄨󵄨󵄨 2 1 − y2

Im Limes y → 0 ergibt sich artanh z → −iπ/2 sign y.



Die Darstellung der Area-Funktionen für reelle Argumente lautet: arsinh x = ln(x + √x 2 + 1), arcosh x = ln(x + √x 2 − 1), 1+x , 1−x x+1 arcoth x = ln , x−1

artanh x = ln

x ≥ 1,

0 ≤ x 2 < 1, x 2 > 1.

2.3 Gamma- und Betafunktion

� 125

Abbildung 2.9 zeigt diese vier Area-Funktionen.

Abb. 2.9: Die AreaFunktionen für reelle Argumente im Ausschnitt |x| ≤ 6.

Der vollständigkeitshalber geben wir noch die restlichen Area-Funktionen an: 1 arcsch z := arsinh , z

1 arsech z := arcosh . z

2.3 Gamma- und Betafunktion Die Gammafunktion tritt an vielen Stellen der Physik auf, deswegen diskutieren wir sie etwas ausführlicher. Der Beweis verschiedener Eigenschaften ist zum Teil rechenintensiv, aber oft instruktiv und lehrreich. Eine sehr umfangreiche Diskussion der Gammafunktion findet sich in [26]. Im Zuge der Diskussion der Eigenschaften der Gammafunktion werden wir die Digamma-Funktion, Riemann’sche Zetafunktion und Betafunktion kennenlernen. Wir gehen aus von der Definition der Gammafunktion, die auf Weierstraß zurück geht. Definition 2.4 (Gammafunktion). Die Gammafunktion ist definiert durch: Γ(z) :=

e−γz ∞ ez/n , ∏ z n=1 1 + z/n

∀z ∈ ℂ− := ℂ \ {0, −1, −2, −3, . . .},

wobei γ die Euler’sche Konstante ist, die definiert ist durch:

126 � 2 Spezielle Funktionen N

1 − ln N) = 0.57721566490 . . . . n n=1

γ := lim ( ∑ N→∞



Ein anderer Ausgangspunkt hätte auch die Funktionalgleichung der Gammafunktion sein können. Verwenden wir die Weierstraß-Definition, so müssen wir diese dann zeigen. Lemma 2.6. Die Gammafunktion erfüllt die Funktionalgleichung: Γ(1 + z) = zΓ(z),

Γ(1) = 1.

Beweis. Wir definieren die Hilfsgrößen ΓN (z) :=

e−γz N ez/n , ∏ z n=1 1 + z/n

N

1 − ln N. n n=1

γN := ∑

Zunächst zeigen wir, dass der Limes limN→∞ γN = γ existiert. Dazu formen wir die endliche Summe um und schreiben N N N ∞ n 1 1 1 − ∑ ln( ) = 1 + ∑ ( + ln(1 − 1/n)) = 1 − ∑ ∑ l . n n − 1 n n l n=1 n=2 n=2 n=2 l=2 N

γN = ∑

l Setzen wir an := ∑∞ l=2 1/(n l), so folgt einerseits an > 0 und andererseits: ∞ 1 1 1 2 1 2 ∞ 1 − a = (1 − ) ≥ (1 − ∑ ∑ ) > 0, n l 2+l 3 l=1 nl n2 2n2 2n2 l=1 n

n ≥ 2.

Also ist 1/n2 eine Majorante von an und damit konvergiert die Reihe γN . Die Reihendarstellung ist aber keine gute Darstellung um die Konstante auszurechnen. Man benötigt 1000 Terme um die ersten drei Nachkommastellen zu erhalten. Es gibt verschiedene Darstellungen durch Integrale (siehe z. B. [25]). Es gilt limN→∞ γN = γ und wir können den Limes limN→∞ ΓN = Γ betrachten. Zunächst schauen wir uns Γ(1) an: Γ(1) =

N N e−γ e1/n N N n lim ∏ = lim e1/n = lim = 1, ∏ 1 N→∞ n=1 1 + 1/n N→∞ ∏Nn=1 e1/n n=1 1 + n N→∞ N + 1

und im nächsten Schritt das Verhältnis: Γ(z + 1) e−γ z ∞ = ∏ Γ(z) 1 + z n=1

e(z+1)/n 1+(z+1)/n ez/n 1+z/n

=

N z N′ n+z lim lim e1/n ∏ ′ 1 + z N ′ →∞ ∏N e1/n N→∞ n=1 n+1+z

z 1+z = lim N = z. 1 + z N→∞ N + 1 + z

n=1

2.3 Gamma- und Betafunktion

� 127

Damit ist äquivalent zur Weierstraß-Definition die Funktionalgleichung gezeigt. Letztere Darstellung ist geeignet, um weitere Relationen abzuleiten. Aus der Funktionalgleichung folgt die bekannte Relation: Γ(n + 1) = n!, n ∈ ℕ. In Abbildung 2.10 ist die Gammafunktion in der komplexen Ebene als Phasenplot dargestellt. Die wesentlichen Merkmale des Plotes, z. B. die auf der negativen reellen Achse zu beobachtenden Peaks werden wir im Folgenden analysieren.

Abb. 2.10: Phasenplot der Γ-Funktion. Die schwarzen Linien sind Niveaulinien für |Γ(z)| = 0.001, 0.05, 0.5, 1, 2, 3, 4, 5, 6, 7, 8. Auf der reellen Achse sind die Punkte Γ(n + 1) = n! für n = 0, 1, 2, 3 als schwarze Punkte markiert.

Häufig werden Integraldarstellungen der Gammafunktion gebraucht. Diese schauen wir uns im nächsten Lemma an. Lemma 2.7. Die Gammafunktion kann geschrieben werden als: ∞

(i)

Γ(z) = ∫ dt e−t t z−1 ,

Rz > 0,

0

(−)n 1 + ∫ dt e−t t z−1 , n! z + n n=0 ∞



(ii) Γ(z) = ∑

z ∈ ℂ− .

1

Beweis. Die erste Aussage zeigen wir, indem die Funktionalgleichung mit der Randbedingung Γ(1) = 1 überprüfen. (i) Betrachten wir zunächst die Randbedingung, es gilt: ∞

󵄨∞ Γ(1) = ∫ dt e−t = −e−t 󵄨󵄨󵄨0 = 1. 0

128 � 2 Spezielle Funktionen Die Funktionalgleichung folgt über partielle Integration: ∞

−t z

Γ(z + 1) = ∫ dt e t = 0



󵄨∞ e−t t z 󵄨󵄨󵄨0

+ ∫ dt e−t zt z−1 = zΓ(z). 0

(ii) Aus (i) folgt durch Aufspaltung des Integrals: ∞

−t z−1

Γ(z) = ∫ dt e t 0 n

1



0

1

(−)n =∑ ∫ dt t z−1+n + ∫ dt e−t t z−1 n! n=0 ∞



1 (−) + ∫ dt e−t t z−1 . n! z + n n=0 ∞

=∑

1

Aus der letzten Darstellung ist zu erkennen, dass an den Stellen z ∈ {0, −1, −2, . . .} einfache Pole existieren. Diese sind die im Phasenplot zu beobachtenden Peaks. Betrachten wir spezielle Werte der Gammafunktion. Lemma 2.8. Die Gammafunktion nimmt folgende spezielle Werte an: (2n − 1)!! √π, 2n m (−) (ii) res−m Γ(z) = . m! (i) Γ(n + 1/2) =

Beweis. (i) Betrachten wir zunächst den Fall n = 0, für den gilt: ∞

t=τ 2



Γ(1/2) = ∫ dt e−t t 1/2−1 = ∫ dτe−τ 0

2

0

+∞

2 2τ = ∫ e−τ = √π. τ

−∞

Mit diesem Ergebnis folgt rekursiv für n ≥ 1: Γ(n + 1/2) = (n − 1/2)(n − 3/2) ⋅ ⋅ ⋅ (1/2)Γ(1/2) =

(2n − 1)!! √π. 2n

(ii) Wir verwenden: Γ(z + m + 1) z(z + 1) ⋅ ⋅ ⋅ (z + m − 1)(z + m) Γ(1) (−)m = = . (−m)(1 − m) ⋅ ⋅ ⋅ (m + m − 1) m!

res−m Γ(z) = lim (z + m)Γ(z) = lim (z + m) z→−m

z→−m

Letzteres folgt auch aus der Integral/Summendarstellung der Gammafunktion.

2.3 Gamma- und Betafunktion

� 129

Schauen wir uns weitere Funktionalgleichungen an, die insbesondere auch in der Physik Anwendungen finden. Lemma 2.9. (i) Verdopplungsformel für z ∈ ℂ \ {0, −1/2, −1, −3/2, . . .}: Γ(2z) =

22z−1 Γ(z)Γ(z + 1/2). √π

(ii) Euler-Spiegelformel für z ∈ ℂ \ ℤ: Γ(z)Γ(1 − z) =

π . sin(πz)

Beweis. (i) Zunächst definieren wir die Psifunktion die auch Digamma-Funktion genannt wird, über die Ableitung des Logarithmus der Gammafunktion: ψ(z) :=

d ln(Γ(z)) . dz

Aus der Definition der Gammafunktion folgt: ψ(z) =

∞ z 1 ∞ 1 1 d (−γz − ln z + ∑ ( − ln(1 + z/n))) = −γ − + ∑ ( − ). dz n z n n + z n=1 n=1

Leiten wir dies nochmals ab, so folgt: ∞ ∞ dψ(z) 1 1 1 = 2 +∑ = . ∑ 2 dz z (n + z) (n + z)2 n=1 n=0

Damit ergibt sich: ∞ 1 1 d2 ln[Γ(z)Γ(z + 1/2)] = ( + ) ∑ 2 2 dz (n + z + 1/2)2 n=0 (n + z) ∞

= 4 ∑( n=0 ∞

1 1 + ) (2n + 2z)2 (2n + 1 + 2z)2

1 d2 = 2 ln[Γ(2z)], 2 dz n=0 (n + 2z)

=4∑

woraus unmittelbar folgt, dass ln[Γ(z)Γ(z + 1/2)/Γ(2z)] eine lineare Funktion ist. Daraus folgt eaz+b =

Γ(z)Γ(z + 1/2) . Γ(2z)

130 � 2 Spezielle Funktionen Die freien Konstanten a und b müssen noch bestimmt werden. Dazu verwenden wir die bekannten Werte der Gammafunktion an den Stellen z = 1 und 1/2: Γ(1)Γ(1 + 1/2) √π/2 √π = = , Γ(2) 1 2 Γ(1/2)Γ(1) = = √π. Γ(1)

ea+b = ea/2+b

Dies lösen wir auf und finden: ea =

1 , 4

eb = 2√π,

womit die Aussage (i) gezeigt ist. (ii) Aus der Integraldarstellung folgt: ∞∞

Γ(z)Γ(1 − z) = ∫ ∫ dsdt e−(s+t) s−z t z−1 . 0 0

Substituieren wir u = s + t, v = t/s, so erhält man: 󵄨󵄨 𝜕(s, t) 󵄨󵄨 e−u vz 󵄨 󵄨󵄨 Γ(z)Γ(1 − z) = ∫ ∫ dudv 󵄨󵄨󵄨 󵄨 󵄨󵄨 𝜕(u, v) 󵄨󵄨󵄨 t(u, v) ∞∞

0 0 ∞∞

= ∫ ∫ dudv e−u 0 0 ∞

= ∫ dv 0

vz−1 1+v

vz−1 (1.57) π = . 1+v sin(πz)

Das folgende Beispiel drückt ein bestimmtes Integral durch die Gammafunktion sowie der Riemann’schen Zetafunktion aus, letztere ist definiert durch: 1 , nz n=1 ∞

ζ (z) := ∑

Rz > 1.

Beispiel 2.3. Betrachten wir das reelle bestimmte Integral (α, β > 0): ∞

∫ dt 0

∞ ∞ tα α −βt −βnt = dt t e e = ∑ ∑ ∫ ∫ dt t α e−βnt eβt − 1 n=1 n=0 ∞



0

∞ ∞

= ∑ ∫ dt n=1 0

0

α

∞ Γ(α + 1) ζ (α + 1)Γ(α + 1) t e−t = β−α−1 ∑ = . α+1 α+1 (βn) βn+1 n=1 n

2.3 Gamma- und Betafunktion

� 131

Für den Spezialfall β = 1 und α = 3 ergibt sich zum Beispiel: ∞

∫ dt 0

et

t3 3!π 4 π 4 = Γ(4)ζ (4) = = . −1 90 15



Für die nächste Aufgabe benötigen wir die Betafunktion: 1

B(z, w) := ∫ dt t z−1 (1 − t)w−1 ,

Rz, Rw > 0.

0

Die Betafunktion wird auch nach L. Euler als Euler’sches Integral 1. Art bezeichnet.

Für die Betafunktion gibt es weitere gebräuchliche Darstellungen. Eine wichtige Darstellung, ausgedrückt durch Gammafunktion, schauen wir uns in der nächsten Aufgabe an. Drücke die Betafunktion B(z, w) durch Gammafunktionen aus und zeige: B(z, w) =

Γ(z)Γ(w) . Γ(z + w)

Lösung: 1

B(z, w) = ∫ dt t z−1 (1 − t)w−1 0 ∞

= ∫ dt t z−1 0

t ′ =t/(1−t)

=

0

t z−1 (1 + t)z+w



1 ∫ ds e−s(1+t) sz+w−1 Γ(z + w) 0



=



∫ dt



1 ∫ ds e−s sz+w−1 ∫ dt t z−1 e−st Γ(z + w) 0 0 ⏟⏟⏟⏟⏟⏟⏟⏟⏟⏟⏟⏟⏟⏟⏟⏟⏟⏟⏟⏟⏟⏟⏟ =Γ(z)/sz



=

Γ(z) Γ(z)Γ(w) ∫ ds e−s sw−1 = . Γ(z + w) Γ(z + w)



0

Direkt aus der Euler-Spiegelformel für die Gammafunktionen folgt aus dem Ergebnis der Aufgabe: B(z, 1 − z) =

π , sin(πz)

z ∉ ℤ.

Die Betafunktion ist in z bzw. w eine meromorphe Funktion und symmetrisch in den Argumenten: B(z, w) = B(w, z). Für ganzzahlige Argumente gilt:

132 � 2 Spezielle Funktionen B(n, m) =

(n − 1)!(m − 1)! m + n m + n = /( ), (n + m − 1)! mn m

n, m ∈ ℕ.

Kommen wir zum Abschluss zu einer Anwendung der Gammafunktionen, die in der Statistischen Mechanik eine wichtige Rolle spielt und betrachten die Stirling-Formel. Mit dieser Formel approximieren wir N! für sehr große N. Lemma 2.10 (Stirling-Formel). Es sei Rz > 0, dann gilt: 1 1 ln Γ(z + 1) = (z + ) ln z − z + ln(2π) + w(z), 2 2 mit ∞

w(z) = ∫ dt 0

1 1 1 Rz→∞ e−zt ( t − + ) 󳨀→ 0. t e −1 t 2

Beweis. Wir beginnen mit der Darstellung der Ableitung der Digamma-Funktion: ∞





0

0

0

∞ dψ(z) ∞ 1 e−zt te−(z−1)t −(z+n)t =∑ = dt te = dt t = dt . ∑ ∫ ∫ ∫ 2 dz 1 − e−t et − 1 n=0 (n + z) n=0

In führender Ordnung gilt für kleine |t|: et

t t t2 t4 =1− + − + 𝒪(t 5 ). −1 2 12 720

Die ersten beiden Terme des führenden Verhaltens subtrahieren wir von t/(et − 1) im Integranden und verschieben das Argument um z → z + 1 und erhalten: ∞

dψ(z + 1) t = ∫ dt e−zt t dz e −1 0 ∞

= ∫ dt e

−zt

0 ∞

= ∫ dt e−zt ( 0





0

0

t t t − 1 + ) + ∫ dt e−zt − ∫ dt e−zt ( t e −1 2 2 t t 1 1 −1+ )+ − 2. et − 1 2 z 2z

Nach Integration bzgl. z, erhalten wir als Zwischenergebnis: ∞

1 1 1 1 ψ(z + 1) − ln z − = − ∫ dt e−zt ( t − + ) + c. 2z e −1 t 2 0

Die Integrationskonstante c bestimmen wir über den Limes z → ∞ und beachten:

2.3 Gamma- und Betafunktion

(ψ(z + 1) − ln z)z=N = −γ −

� 133

∞ 1 1 1 + ∑( − ) − ln N N + 1 n=1 n n + N + 1 N

N→∞ 1 − ln N 󳨀→ 0. n n=1

= −γ + ∑

Da es sich um stetige Funktionen handelt, gilt dies auch für Rz → ∞. Das Integral verschwindet ebenso für Rz → ∞, da das Argument in der Klammer auf der reellen Achse beschränkt ist. Das bedeutet insgesamt, dass die Integrationskonstante auch verschwinden muss, also c = 0 gilt. Integrieren wir somit ein zweites mal über z, so erhalten wir: ln Γ(z + 1) − z(ln z − 1) −

1 ln z = w(z) + c.̃ 2

Wiederum verschwindet das Integral w(z) für Rz → ∞ und es bleibt die linke Seite zu bestimmen. Dazu ist der folgende Limes zu betrachten: ec = lim exp(ln Γ(z + 1) − z(ln z − 1) − ̃

Rz→∞

= lim Γ(z + 1)ez z−(z+1/2)

ln z ) 2

Rz→∞

= lim Γ(z + 1/2)ez−1/2 (z − 1/2)−z Rz→∞

= lim Γ(2z + 1)e2z (2z)−(2z+1/2) . Rz→∞

Im nächsten Schritt verwenden wir die Verdopplungsformel für die Gammafunktion, für die gilt: Γ(2z + 1) =

22z+1/2 Γ(z + 1/2)Γ(z + 1). √2π

Setzen wir dies ein, so folgt: 22z+1/2 Γ(z + 1/2)Γ(z + 1)e2z (2z)−(2z+1/2) Rz→∞ √2π 1 = lim Γ(z + 1)ez z−(z+1/2) Γ(z + 1/2)ez z−z . √2π Rz→∞

ec = lim ̃

Nun identifizieren wir wieder die Konstante ec̃ ebenso auf der rechten Seite: ec = ̃

1 (z − 1/2)z lim Γ(z + 1)ez z−(z+1/2) lim Γ(z + 1/2)ez (z − 1/2)−z √2π Rz→∞ zz ⏟⏟⏟⏟⏟⏟⏟⏟⏟⏟⏟⏟⏟⏟⏟⏟⏟⏟⏟⏟⏟⏟⏟⏟⏟⏟⏟⏟⏟⏟⏟⏟⏟⏟⏟⏟⏟⏟⏟⏟⏟⏟⏟⏟⏟⏟⏟ Rz→∞ c̃

=

=ec̃

z

e 1/2 e2c̃ lim Γ(z + 1/2)ez−1/2 (z − 1/2)−z e1/2 lim (1 − ) = . Rz→∞ Rz→∞ √2π ⏟⏟⏟⏟⏟⏟⏟⏟⏟⏟⏟⏟⏟⏟⏟⏟⏟⏟⏟⏟⏟⏟⏟⏟⏟⏟⏟⏟⏟⏟⏟⏟⏟⏟⏟⏟⏟⏟⏟⏟⏟⏟⏟⏟⏟⏟⏟⏟⏟⏟⏟⏟⏟⏟⏟⏟⏟⏟⏟⏟⏟⏟⏟ √2π z ⏟⏟⏟⏟⏟⏟⏟⏟⏟⏟⏟⏟⏟⏟⏟⏟⏟⏟⏟⏟⏟⏟⏟⏟⏟⏟⏟⏟⏟⏟⏟⏟⏟ =ec̃

=e−1/2

134 � 2 Spezielle Funktionen Damit folgt c̃ = 21 ln(2π) und somit insgesamt die erste Behauptung. Es bleibt noch das Verhalten von w(z) für große Rz zu untersuchen. Betrachten wir dazu den Faktor im Integranden, den wir in eine Zählerfunktion ζ und eine Nennerfunktion η faktorisieren: 1 1 1 1 t + 2 + (t − 2)et ζ (t) ( t − + )= =: . 2 t t e −1 t 2 η(t) 2t (e − 1) Der positive Nenner ist für alle t > 0 größer als der positive Zähler, denn es gilt: η(t) − ζ (t) = (2t 2 − t + 2)et − 2 − t − 2t 2

= (2t 2 − t + 2)(1 + t + t 2 /2 + σ) − 2 − t − 2t 2 = (15/8 + 2(t − 1/4)2 )σ + 3t 3 /2 + t 4 > 0,

mit σ = ∑n≥3 t n /n! > 0 für t > 0. Sowohl der Zähler als auch der Nenner verschwinden im Limes t → 0 und für das Verhältnis ergibt sich der Grenzwert: ζ (t)/η(t) → 1/12. Tatsächlich ist dies auch das Maximum für t ≥ 0, sodass folgt: ∞

w(z) = ∫ dt e 0



1 ζ (t) < max . ∫ dt e−zt = t≥0 η(t) η(t) 12z

−zt ζ (t)

0

Damit verschwindet w(z) im Limes |z| → ∞. Aus dem letzten Ergebnis folgt, dass |w(z)| < 1/12|z|. Aus der Stirling-Formel folgt für die Darstellung der Gammafunktion: Γ(z + 1) = √2πzz+1/2 e−z ew(z) . In der nächsten Aufgabe soll die Asymptotik genauer ausgerechnet werden. Bestimme das asymptotische Verhalten der Gammafunktion Γ(z + 1) für Rz → ∞ mit | arg z| < π, bis einschließlich Terme der Ordnung 𝒪(1/z2 ) und betrachte explizit, die in der Statistischen Mechanik oft vorkommende Größe ln N! für große N bis einschließlich Terme der Ordnung 𝒪(N −1 ). Lösung: Eine wiederholte partielle Integration in w(z) ergibt: w(z) =

d ζ(t) d2 ζ(t) 1 ζ(t) 1 1 lim + 2 lim + 2 ∫ dt e−zt 2 . z t→0 η(t) z t→0 dt η(t) z dt η(t) ∞ 0

Das Integral selbst ist wiederum endlich, da im Ursprung die Ableitung (ζ/η)′ (t) → −t/360 linear verschwindet. Wie zuvor folgt damit, dass das Integral selbst von der Ordnung 𝒪(1/z) ist. Insgesamt ergibt sich für Rz → ∞: w(z) =

1 + 𝒪(1/z3 ). 12z

2.4 Polylogarithmus*



135

Das bedeutet ew(z) = 1 + w(z) +

1 1 w(z)2 + 𝒪(1/z3 ) = 1 + + + 𝒪(1/z3 ), 2 12z 2 ⋅ 122 z2

und schließlich für die Gammafunktion: Γ(z + 1) = √2πzz+1/2 e−z (1 +

1 1 + + 𝒪(1/z3 )). 12z 288z2

Für große natürliche Zahlen N ergibt sich damit für den Logarithmus von N!: ln N! = ln Γ(N + 1) = = N(ln N − 1) +

1 1 ln(2π) + (N + 1/2) ln N − N + ln(1 + + 𝒪(N −2 )) 2 12N ln N ln(2π) 1 + + + 𝒪(N −2 ) 2 2 12N

In der Statistischen Mechanik hat man es typischerweise mit der Größenordnung N ∼ 1020 zu tun und schon die erste Ordnung 𝒪(10−21 ) ist für alle praktischen Rechnungen vernachlässigbar. ⬦

2.4 Polylogarithmus* Die Polylogarithmusfunktion ist eine mathematische Funktion mit vielen Anwendungen in der Physik. Sie stellt eine Verallgemeinerung der Logarithmusfunktion dar. Es gibt verschiedene Ausgangsdefinitionen, die ausführlich in Polylogarithms and Associated Functions von L. Lewin [29] diskutiert werden. Wir wählen hier die Definition über ein Integral. Definition 2.5 (Integraldefinition Polylogarithmus). Der Polylogarithmus ist definiert durch: Lis (z) :=

1 t s−1 , ∫ dt −1 t Γ(s) z e −1 ∞ 0

Rs > 0, { Rs > 1,

z ∉ [1, ∞], z = 1.



Eine alternative Wahl der geschlitzten Ebene, die durch das Entfernen des reellen Intervalls [1, ∞] aus ℂ entsteht, wird oft über −π < arg(1 − z) < π formuliert. Der Fall z = 1 reduziert sich auf die Riemann’sche Zetafunktion Lis (1) = ζ (s). Für reelle s und reelle z < 1 ist der Polylogarithmus selbst reell. Es gibt verschiedene analytische Fortsetzungen in s und z, die wir exemplarisch im Folgenden diskutieren werden. Wir haben die Integraldefinition als Ausgangspunkt gewählt, da es eine direkte Anwendung in der Physik unter anderem in den Bereichen der Statistischen Physik, Festkörperphysik und der Astrophysik in Form des Fermi-Dirac- und Bose-Einstein-Integraltyps gibt. Diese Integralfunktionen sind definiert durch:

136 � 2 Spezielle Funktionen

Fs (x) := − Lis+1 (−ex ) =

1 dt t s , ∫ t−x Γ(s + 1) e + 1 ∞

s > −1,

0

Gs (x) := Lis+1 (ex ) =

1 dt t s , ∫ t−x Γ(s + 1) e − 1 ∞

s > −1,

{

s > 0,

0

x < 0, x ≤ 0.

In der Physik werden dabei typischerweise halb und ganzzahlige Werte für s = n = 1/2, 1, 3/2, . . . gebraucht mit reellen Fn (x) und Gn (x). Die Faktoren f± (t, x) :=

1 et−x ± 1

sind dabei die Wahrscheinlichkeitsverteilungen der Fermi-Dirac- und Bose-EinsteinStatistik, mit t = βE, x = βμ und β = 1/TkB , wobei T die Temperatur, kB die BoltzmannKonstante, E die Energie und μ das chemische Potential darstellen. In der Physik gibt es keine einheitliche Schreibweise für Fn (x) und Gn (x), manchmal wird der Vorfaktor 1/Γ(n + 1) weggelassen.

Schauen wir uns eine analytische Fortsetzung von Lis (z) in s in Form einer Reihendarstellung an, die häufig als Ausgangspunkt zur Diskussion verwendet wird. Lemma 2.11 (Reihendarstellung). Es gilt die Reihendarstellung für s, z ∈ ℂ: zn , ns n=1 ∞

Lis (z) = ∑

|z| < 1.

Beweis. Wir gehen von der Integraldarstellung aus und entwickeln für |z| < 1: Lis (z) =

1 t s−1 1 1 ∞ n = ∑ z ∫ dt t s−1 e−nt ∫ dt −1 t −t Γ(s) Γ(s) n=1 z e 1 − ze ∞



0

=

0

n



n

z 1 z ∑ ∫ dt x s−1 e−x = ∑ s . Γ(s) n=1 ns n n=1 ∞



0

Diese Darstellung gilt für alle s ∈ ℂ und stellt damit eine analytische Fortsetzung der Integraldefinition dar. Falls Rs > 1 gilt die Reihendarstellung auch für |z| = 1 und ergibt, wie zuvor erwähnt, die Riemann’sche Zetafunktion. Für den Spezialfall s = 2 nennt man Li2 auch den Dilogarithmus. Dieser ist zusammen mit Li1/2 in Abbildung 2.11 als Phasenplot dargestellt. Aus der Reihendarstellung folgt unmittelbar die Differentialgleichung: 𝜕 1 Li (z) = Lis−1 (z), 𝜕z s z

2.4 Polylogarithmus*

� 137

Abb. 2.11: Phasenplot des Dilogarithmus Li2 (z) und Li1/2 (z) zusammen mit den Niveaulinien bei | Lis (z)| = 0.5, 1, 2, 3, 4. Die schwarze Linie in der x − y-Ebene ist Teil des Intervalls [1, ∞].

und daraus für die Ableitungen der Fermi-Dirac- und Bose-Einstein-Integrale: F′n (x) = Fn−1 (x),

G′n (x) = Gn−1 (x).

Durch eine formale Integration bezüglich des Argumentes z, erhält man aus der Differentialgleichung die Rekursion: z

Lis+1 (z) = ∫ dt 0

Lis (t) , t

aus der die Namensgebung Polylogarithmus resultiert. Betrachten wir noch eine Aufgabe, die verschiedene Argumente miteinander in Beziehung setzt. Zeige die Verdopplungsformel Lns (z) + Lns (−z) =

Lns (z2 ) , 2s−1

sowohl mit der Integraldarstellung, als auch mit der Reihendarstellung. Worauf ist dabei zu achten? Lösung: (i) Integraldarstellung: Lin (z2 ) =

1 t s−1 1 t s−1 ∫ dt −2 t = ∫ dt −1 t/2 Γ(s) z e − 1 Γ(s) (z e − 1)(z−1 et/2 + 1) ∞



0

0

1 1 t s−1 1 1 t s−1 = ∫ dt −1 t/2 + ∫ dt −1 t/2 Γ(s) 2 z e + 1 Γ(s) 2 −z e + 1 ∞



0

= 2s−1 (

0

1 t 1 t s−1 ∫ dt −1 t + ∫ dt −1 t ) = 2s−1 (Lis (z) + Lis (−z)). Γ(s) z e + 1 Γ(s) −z e + 1 ∞ 0

s−1

∞ 0

138 � 2 Spezielle Funktionen

(ii)

Reihendarstellung: ∞

Lis (z) + Lis (−z) = ∑ ( n=1

∞ ∞ Li (z2 ) zn (−z)n z2n (z2 )n + ) = 2∑ = 21−s ∑ s = ss−1 . s s s n n 2 n=1 (2n) n=1 n

In der Integraldarstellung ist darauf zu achten, dass reelle z = x ∉ ]−1, 1[ auf der linken Seite der Gleichung nicht in beiden Termen im Definitionsbereich liegen können. Es kann gezeigt werden, dass die Verdopplungsformel für alle z ∈ ℂ gilt. ⬦

Für ganzzahlige Indizes s = n ∈ ℤ des Polylogarithmus gibt es wichtige Relationen, zunächst folgt aus der Rekursion mit der Anfangsbedingung: Li0 (z) =

z , 1−z

die ganzzahlige Rekursion z

Lin (z) = ∫ dt 0

Lin−1 (t) , t

n = 1, 2, 3, . . . ,

aus der explizit folgt Li1 (z) = − ln(1 − z). Für negative n ergibt sich zusammen mit der Differentialgleichung die einfache Darstellung: Li−n (z) = (z

n

d z ) , dz 1 − z

n = 1, 2, 3, . . . .

Die ersten drei Polylogarithmen mit negativem Index lauten: Li−1 (z) =

z , (1 − z)2

Li−2 (z) =

z(1 + z) , (1 − z)3

Li−3 (z) =

z(1 + 4z + z2 ) . (1 − z)4

Für reelle Argumente z = x sind die Polylogarithmen für n = −3, . . . , 3 in Abbildung 2.12 dargestellt. Polylogarithmen mit negativem Index n können über x > 1 fortgesetzt werden und besitzen einen Pol (n + 1)-ter Ordnung an der Stelle z = x = 1. Die Debye-Funktion D(x) ist eine in der Festkörperphysik im Rahmen des DebyeModels vorkommende Funktion, sie kann durch den Dilogarithmus ausgedrückt werden: x

D(x) ≡ ∫ dt 0

tn = Li2 (1 − e−x ), et − 1

x > 0.

Siehe die dazugehörige Aufgabe 14. im nachfolgenden Aufgabenteil. Wir schließen das Kapitel mit einer Differentialgleichung für den Dilogarithmus.

Aufgaben

� 139

Abb. 2.12: Polylogarithmen Lin (x), n = −3, . . . , 3 im Intervall [−3, 1[.

Lemma 2.12. Es gilt die Differentialgleichung 2. Ordnung: ′ x(x − 1) Li′′ 2 (x) + (x − 1) Li2 (x) + 1 = 0.

Beweis. Wir nutzen die Darstellung über das Integral x

Li2 (x) = − ∫ dt 0

ln(1 − t) , t

und differenzieren zweimal: Li′2 (x) = −

ln(1 − x) , x

Li′′ 2 (x) =

1 ln(1 − x) + . x(1 − x) x2

′ Multiplizieren wir Li′′ 2 (x) mit x(x − 1), ersetzen ln(1 − x) im zweiten Term durch Li2 (x), dann folgt durch Umordnen die Behauptung.

Aufgaben 1.

Zeige die Reihendarstellungen für die Logarithmusfunktion: n+1

∑∞ (−1)n (z − 1)n { { { n=1 1 z−1 n ln z = {∑∞ ( ) { n=1 n z { ∞ 2 z−1 2n−1 {∑n=1 2n−1 ( z+1 )

: |z − 1| ≤ 1, z ≠ 0, : Rz ≥ 21 ,

: Rz ≥ 0, z ≠ 0.

140 � 2 Spezielle Funktionen 2.

Zeige ∫ dz zn ln z = ∫ dz

3.

zn+1 zn+1 ln z − , n+1 (n + 1)2

n ∈ ℕ, n ≠ −1,

1 = ln ln z. z ln z

Zeige die Additionstheoreme Arcsin z1 ± Arcsin z2 = Arcsin(z1 √1 − z22 ± z2 √1 − z21 ), Arccos z1 ± Arccos z2 = Arccos(z1 z2 ∓ √(1 − z21 )(1 − z22 )).

4.

Zeige für z = x + iy die Zerlegung in Real- und Imaginärenteil von arcsin z = arcsin u + i sign(y) ln(v + √v2 − 1), arccos z = arccos u − i sign(y) ln(v + √v2 − 1), mit u=

5.

√((x + 1)2 + y2 2



√(x − 1)2 + y2 2

,

√(x + 1)2 + y2

v=

2

+

√((x − 1)2 + y2

Zeige die Additionstheoreme Arsinh z1 ± Arsinh z2 = Arsinh(z1 √1 + z22 ± z2 √1 + z21 ), Arcosh z1 ± Arcosh z2 = Arcosh(z1 z2 ± √(z21 − 1)(z22 − 1)).

6.

Zeige die folgenden Eigenschaften der Gammafunktion: Γ(1/2 + iy)Γ(1/2 − iy) =

π , cosh(πy)

π 󵄨󵄨 󵄨 . 󵄨󵄨Γ(iy)󵄨󵄨󵄨 = √ y sinh(πy) 7.

Zeige, für das Argument der Γ-Funktion gilt: y arg Γ(1 + z) = arg Γ(z) + arctan . x

8.

Zeige die Integraldarstellung der ψ-Funktion: ∞

ψ(z + 1) = −γ + ∫ dt 0

1 − e−zt . et − 1

2

.

Aufgaben

9.

� 141

Zeige das asymptotische Verhalten: ln Γ(z) = (z − 1/2) ln z − z + ln √2π +

1 1 − + 𝒪(z−5 ), 12z 360z3

|arg z| < π.

10. Die unvollständige Gammafunktion γ(z, w) und das Komplement Γ(z, w) sind definiert durch: w

γ(z, w) := ∫ dt t z−1 e−t , 0 ∞

Γ(z, w) := ∫ dt t z−1 e−t , w

Rz > 0, |arg w| < π, |arg w| < π.

Zeige, dass gilt: γ(z + 1, w) = zγ(z, w) − e−w wz ,

Γ(z + 1, w) = zΓ(z, w) + e−w wz . 11. Zeige für die Betafunktion gilt: π/2

B(z, w) = 2 ∫ dt (sin t)2z−1 (cos t)2w−1 ,

Rz > 0, Rw > 0.

0

12. Zeige die Funktionalgleichung des Dilogarithmus π2 1 2 − ln (−z), z ∉ [0, ∞[, 6 2 2 π Li2 (1 − z) = − Li2 (z) + − ln(1 − z) ln(z), z ∉ {]−∞, 0] ∪ [1, ∞[}. 6 Li2 (1/z) = − Li2 (z) −

13. Zeige die Entwicklung des Dilogarithmus in der Nähe der Singularität z = 1: zn π 2 ∞ (1 − z)n + −∑ . n 6 n=1 n2 n=1 ∞

Li2 (z) = ln(1 − z) ∑

14. Die Debye-Funktion Dn (x), die in der Festkörperphysik eine wichtige Rolle spielt, ist definiert durch x

Dn (x) := ∫ dt 0

tn , et − 1

n = 0, 1, 2 . . . .

Zeige, dass mit D(x) ≡ D1 (x) gilt: D(x) = ζ (2) + x ln(1 − e−x ) − Li2 (e−x ).

142 � 2 Spezielle Funktionen 15. Zeige für die Fermi-Dirac-Integrale die Darstellung für x ≥ 0: F 1 (x) = 2

4x 3/2 ∞ (−)n+1 nx +∑ (e erfc(√nx) + e−nx erfi(√nx)), 3√π n=1 n3/2

G 1 (x) = − 2

4x 3/2 1 ∞ nx + ∑ (e erfc(√nx) + e−nx erfi(√nx)), 3√π √π n=1

dabei sind die Fehlerfunktionen definiert durch: x

erf(x) :=

2 2 ∫ dt e−t , √π

erfc(x) := 1 − erf(x),

erfi(x) := erf(ix)/i.

0

16. Zeige, die erzeugende der Bessel-Funktion 1. Art Jn (x) ist gegeben durch e

(z−1/z)x/2



π

n

= ∑ z Jn (x), n=−∞

1 Jn (x) = ∫ dt cos(x sin t − nt). π 0

Zeige weiter, dass die Bessel-Funktion die folgende Differentialgleichung erfüllt x 2 g ′′ (x) + xg ′ (x) + (x 2 − n2 )g(x) = 0, sowie die Reihenentwicklung: 2k+n

(−)k z ( ) k!(n + k)! 2 k=0 ∞

Jn (z) = ∑

.

Der ganzzahlige Index n kann ins reelle ν fortgesetzt werden und wir erhalten aus beiden Darstellungen Bessel-Funktionen Jν (z).

3 Grundlagen der Funktionalanalysis In diesem Kapitel führen wir die grundlegenden Begriffe und Eigenschaften von Vektorräumen, normierten Räumen, Skalarprodukten und Hilberträumen ein. Das Kapitel bildet damit die Basis für die folgenden Kapitel. Die meisten Aspekte sollten aus der Linearen Algebra bekannt sein, deswegen dient die folgende Darstellung in erster Linie als eine Wiederholung und zur Einführung der verwendeten Notation und ist kein Ersatz für eine reguläre Vorlesung in Funktionalanalysis.1 Eine aus physikalischer Sicht anwendungsorientierte Darstellung der Funktionalanalysis ist das Lehrbuch Funktionalanalysis von S. Großmann [33]. Zu einer klassischen Einführung in die Funktionalanalysis gehört auch die Diskussion von Operatoren, darauf müssen wir hier aus Platzgründen verzichten. Im Vordergrund wird die Diskussion von relevanten Räumen und deren Eigenschaften stehen, die insbesondere für die Diskussion von orthogonalen Funktionen gebraucht werden. Beim Aufbau und Konstruktion der Räume werden wir nicht grundlegend etwa bei Halbgruppen beginnen, sondern mit dem Vektorraum starten und darauf aufbauend weitere Strukturen einführen.

3.1 Vektorräume und Algebren Vektorräume sind in der Physik von besonderer Bedeutung, da sie vielfach die zugrunde liegende mathematische Struktur des betrachteten physikalischen Problems widerspiegeln. Im Folgenden bauen wir auf Ergebnisse der Linearen Algebra [7] und Analysis [1, 3] auf und wiederholen die grundlegenden Definitionen, um eine einheitliche Ausgangsbasis für die folgenden Kapitel zu schaffen. Die Begriffe Gruppe und Körper werden dabei als bekannt vorausgesetzt. Definition 3.1 (Vektorraum). Es sei 𝕂 ein Körper (ℝ oder ℂ) und eine Menge V gegeben, mit einer inneren Verknüpfung (Addition): + : V × V ∋ (v1 , v2 ) 󳨃→ v1 + v2 ∈ V, und einer äußeren Verknüpfung (Multiplikation mit Skalaren): ⋅ : 𝕂 × V ∋ (α, v) 󳨃→ α ⋅ v ∈ V, dann heißt die Menge V Vektorraum über 𝕂, wenn gilt:

1 An dieser Stelle wird verwiesen auf die Lehrbücher Heuser, Funktionalanalysis [30]; Riesz, Sz.-Nagy, Vorlesungen über Funktionentheorie [31] und Weidmann, Lineare Operatoren in Hilberträumen [32]. https://doi.org/10.1515/9783111059228-003

144 � 3 Grundlagen der Funktionalanalysis V1 V zusammen mit der Addition + ist eine abelsche Gruppe. V2 Für die Multiplikation mit Skalaren gilt: (α + β) ⋅ v1 = α ⋅ v1 + β ⋅ v1 ,

α ⋅ (v1 + v2 ) = α ⋅ v1 + α ⋅ v2 , α ⋅ (βv) = (αβ) ⋅ v, 1 ⋅ v = v,

für α, β ∈ 𝕂 und v, v1,2 ∈ V. Die Elemente v ∈ V nennen wir Vektoren.



Den Multiplikationspunkt ‘⋅’ werden wir im Folgenden in der Notation weglassen und schreiben α ⋅ v = αv. Wir gehen an dieser Stelle nicht auf die innere Struktur von Vektorräumen ein, sowie sie sich ergibt, wenn man Vektorräume modular und systematisch durch untergeordnete Strukturen, wie Gruppen, Module etc. aufbaut. Uns kommt es an dieser Stelle nicht auf die algebraische Struktur an sich an, sondern auf die funktionalanalytischen Eigenschaften. Im Folgenden seien ohne Beweise ein paar typische und oft verwendete Beispiele von Vektorräumen angegeben, deren Bedeutung erst im Verlauf der nächsten Kapitel klar werden wird. Beispiel 3.1. – Die Menge 𝕂n aller n-Tupel 𝕂n := {(α1 , . . . , αn ), αi ∈ 𝕂}. –

Die Menge aller Folgen ∞

lp := {αn ∈ 𝕂, 1 ≤ p < ∞ | ∑ |αn |p < ∞}. n=1



Die Menge der stetigen Funktionen 𝒞 (𝕀) := { f : 𝕀 → 𝕂 | f stetig auf 𝕀},



mit einem offenen oder abgeschlossenen Intervall 𝕀. Die Menge der stetig differenzierbarer Funktionen 𝒞

(n)

(𝕀) := { f : 𝕀 → 𝕂 | f ist n mal stetig differenzierbar auf 𝕀}.

3.1 Vektorräume und Algebren



� 145

Die Menge der messbaren Funktionen b

p

L (𝕀) := {f : 𝕀 → 𝕂, 1 ≤ p < ∞ | ∫ dt |f (t)|p < ∞}. a



Dies stellt nur eine kleine Auswahl an gängigen Vektorräumen dar. Eine wichtige Teilmenge der Vektorräume sind die Untervektorräume, definiert durch: Definition 3.2 (Untervektorraum). Sei V ein 𝕂-Vektorraum, dann heißt die Teilmenge W ⊂ V Untervektorraum von V, wenn gilt: UV1 W ≠ 0. UV2 Abgeschlossenheit gegenüber der Addition: w1 , w2 ∈ W

(w1 + w2 ) ∈ W.



UV3 Abgeschlossenheit gegenüber Multiplikation mit Skalaren: w ∈ W, α ∈ 𝕂



(α ⋅ w) ∈ W.



Offenbar wird eine solche Vektorraumstruktur in W induziert. Die Vektorraumstruktur allein ist noch nicht ausreichend, um physikalische Sachverhalte, insbesondere in der Quantenmechanik, umfassend zu beschreiben. Wir benötigen als nächstes Operationen innerhalb oder zwischen Vektorräumen, die die Vektoren transformieren oder auf andere Vektoren abbilden. Definition 3.3 (Lineare Abbildung). Es seien zwei 𝕂-Vektorräume V und W gegeben. Die Abbildung A : V → W heißt linear, wenn gilt: A(v1 + v2 ) = Av1 + Av2 , A(αv1 ) = αAv1 ,

∀α ∈ 𝕂, v1 , v2 ∈ V. Lineare Abbildungen nennen wir lineare Transformationen, oder Vektorraumhomomorphismen, und A den zugehörigen Operator. Die Menge aller Homomorphismen V → W bezeichnen wir mit ℒ(V, W). ◼ Gilt stattdessen A(αv1 ) = α∗ Av1 , so spricht man auch von antilinearen Transformationen. Des Weiteren erkennen wir, dass ℒ(V, W) über dem gemeinsamen Körper 𝕂 zu einem Vektorraum wird, wenn wir für alle v ∈ V punktweise definieren: (αA)v := α(Av), (A + B)v := Av + Bv,

146 � 3 Grundlagen der Funktionalanalysis 0v := 0, 1v := v. Als letzte algebraische Struktur in diesem Abschnitt führen wir den Begriff der Algebra ein. Definition 3.4 (Algebra). Gegeben sei der Vektorraum Vℒ := ℒ(V, V) ≡ ℒ(V) und Operatoren Ai ∈ Vℒ mit einer Verknüpfung: ∘ : Vℒ × Vℒ ∋ (A1 , A2 ) 󳨃→ A1 ∘ A2 ∈ Vℒ , dann heißt Vℒ eine Algebra über 𝕂, wenn gilt: A1 A1 ∘ (A2 + A3 ) = A1 ∘ A2 + A1 ∘ A3 , A2 A3

(A2 + A3 ) ∘ A1 = A2 ∘ A1 + A3 ∘ A1 , (αA1 ) ∘ (βA2 ) = αβ(A1 ∘ A2 ), für α, β ∈ 𝕂 und A1 , A2 und A3 ∈ Vℒ .

Gilt zusätzlich noch das Kommutativgesetz: A1 ∘ A2 = A2 ∘ A1 ,

∀A1 , A2 ∈ Vℒ ,

so ist dies eine kommutative Algebra. Wir sprechen von einer assoziativen Algebra, wenn das Assoziativgesetz gilt. Eine Algebra mit einem neutralen Element ist eine Algebra mit Identität. ◼ Die Verknüpfung ist eine binäre Operation zwischen zwei Elementen A1 und A2 , etwa eine Matrixmultiplikation. Zeige, dass das Kreuzprodukt in ℝ3 , die Grundstruktur einer nicht assoziativen Algebra bildet. Lösung: Die Algebra des Kreuzproduktes ist definiert durch: v2w3 − v3w2 × : (𝕂3 , 𝕂3 ) ∋ (v, w) 󳨃→ v × w := ( v 3 w 1 − v 1 w 3 ) ∈ 𝕂3 . v1w2 − v2w1 Die Bedingungen A1–A3 sind unmittelbar durch die Definition klar. Die nicht Assoziativität sieht man durch Ausmultiplizieren an einem einfachen Beispiel. Mit ei , i = 1, 2, 3 seien die kanonischen Einheitsvektoren bezeichnet, dann gilt z. B. (e1 × e2 ) × e2 = e3 × e2 = −e1 ≠ e1 × (e2 × e2 ) = 0



3.1 Vektorräume und Algebren

� 147

Beispiel 3.2. Die Menge der Matrizen Ai ∈ GLn (ℂ), die auf einem Vektorraum V = 𝕂n wirken, bilden eine assoziative und nicht kommutative Algebra mit Identität 1, der n-dimensionalen Einheitsmatrix. ⬦ Wir werden für all diese Algebren in späteren Kapiteln noch explizit Beispiele kennenlernen. Eine spezielle, auch in der Physik bedeutungsvolle Algebra ist die LieAlgebra, die formal definiert ist als: Definition 3.5 (Lie-Algebra). Eine abstrakte Lie-Algebra 𝒢 über 𝕂 ist ein Vektorraum über 𝕂 zusammen mit einer Verknüpfung: ⋆ : 𝒢 × 𝒢 ∋ (A1 , A2 ) 󳨃→ A1 ⋆ A2 ∈ 𝒢 , so dass gilt: LA1 (Anti-Vertauschung) A1 ⋆ A2 = −A2 ⋆ A1 , LA2 (Linearität) (αA1 + βA2 ) ⋆ A3 = αA1 ⋆ A3 + βA2 ⋆ A3 , LA3 (Jakobi-Identität) 0 = A1 ⋆ (A2 ⋆ A3 ) + A2 ⋆ (A3 ⋆ A1 ) + A3 ⋆ (A1 ⋆ A2 ), ∀ α, β ∈ 𝕂 und A1 , A2 und A3 ∈ 𝒢 .



Beispiel 3.3. Das Kreuzprodukt in ℝ3 aus der vorherigen Aufgabe bildet eine LieAlgebra. Die Bedingungen LA1, LA2 sind klar, betrachten wir die Jakobi-Identität und nutzen die Darstellung des doppelten Kreuzproduktes u × (v × w) = v(u ⋅ w) − (u ⋅ v)w, wobei u ⋅ w = w ⋅ u das Skalarprodukt aus ℝ3 ist, dann folgt: u × (v × w) + w × (u × v) = v(u ⋅ w) − (u ⋅ v)w + u(w ⋅ v) − (w ⋅ u)v, = −(w(v ⋅ u) − (v ⋅ w)u) = −v × (w × u).



Definiert man die Verknüpfung ⋆ für eine Algebra 𝒢 durch einen Kommutator: A ⋆ B := [A, B] ≡ A ∘ B − B ∘ A, so gilt LA1 und LA2. Die Gültigkeit der Jakobi-Identität findet man durch Ausmultiplizieren aller Kommutatoren. Als Beispiel einer geschlossenen Lie-Algebra mit Identität betrachten wir Spin-Matrizen.

148 � 3 Grundlagen der Funktionalanalysis Beispiel 3.4 (Spin-1/2-Algebra). Die Pauli-Matrizen sind definiert durch 0 1

1 ), 0

σ1 := (

0 i

σ2 := (

−i ), 0

σ3 := (

1 0

0 ). −1

Sie bilden zusammen mit der Einheitsmatrix 1 eine geschlossene Algebra über ℂ und es gilt: σi2 = 1,

σ1 σ2 = iσ3 ,

σ2 σ3 = iσ1 ,

σ3 σ1 = iσ2 .

Die Spin-1/2-Matrizen sind definiert durch Si := ℎσi /2, wobei ℎ das Planck’sche Wirkungsquantum ist.2 Diese Matrizen erfüllen die Kommutator-Relationen [Si , Sj ] = iℎϵijk Sk ,

i, j, k ∈ {1, 2, 3},

und bilden somit eine Lie-Algebra. Betrachten wir dazu exemplarisch: [S1 , S2 ] =

ℎ2 ℎ2 (σ1 σ2 − σ2 σ1 ) = iσ3 = iℎS3 . 4 2

Die anderen Fälle werden analog nachgerechnet. Die Spin-1/2-Matrizen wirken in einem 2-dimensionalen komplexen Vektorraum. In der Quantenmechanik repräsentieren sie etwa den Spin eines Elektrons. ⬦ Aus der linearen Algebra übertragen und wiederholen wir noch die Begriffe Bildraum, Kern und Definitionsbereich. Definition 3.6 (Bildraum und Kern). Wir bezeichnen den Bildraum, bzw. Kern eines Operators A mit: B(A) := {Av : v ∈ V},

K(A) := {v ∈ V : Av = 0}.



Der Definitionsbereich D(A) eines Operators ist ein Teilraum von V, also gilt D(A) ⊂ V. An dieser Stelle schließen wir die Wiederholung über Vektorräume und Algebren ab und verweisen für eine ausführliche Diskussion über Gruppen und Algebren mit Bezug zur Physik auf die Lehrbücher Symmetry Groups and Their Applications von W. Miller [34] und Group Theory and Physics von S. Sternberg [35]. Wir wenden uns im nächsten Abschnitt den metrischen und normierten Räumen zu. Von besonderer Wichtigkeit werden die Innenprodukträume sein.

2 Das Planck’sche Wirkungsquantum wurde 1899 von M. Planck entdeckt und hat in SI-Einheiten den Wert ℎ = 6.62607015e−34 Js.

3.2 Metrische und normierte Räume



149

3.2 Metrische und normierte Räume In der Physik ist es wichtig, Abstände in Räumen zu quantifizieren. Ohne eine Vektorraum Struktur kann dies durch eine Metrik erreicht werden. In Vektorräumen durch Normen, die eine Metrik induzieren. In den nächsten Abschnitten werden wir Metriken und Normen definieren und deren Zusammenhang diskutieren.

3.2.1 Metrische Räume Die einfachste Abstandsstruktur in einer Menge X ist eine Abbildung aus X nach ℝ+ , die bestimmte anschauliche Eigenschaften besitzt, die uns beim Umgang mit Abständen vertraut sind. Definition 3.7 (Metrik). Auf einer Menge X sei eine Abbildung: d(⋅, ⋅) : X × X ∋ (x, y) 󳨃→ d(x, y) ∈ ℝ definiert. Wir nennen diese Abbildung eine Metrik, wenn für alle x, y, z ∈ X gilt: M1 (positive Definitheit) d(x, y) ≥ 0,

wobei d(x, y) = 0 ⇔ x = y,

M2 (Symmetrie): d(x, y) = d(y, x), M3 (Dreiecksungleichung): d(x, y) ≤ d(x, z) + d(z, y). Eine Menge X mit einer Metrik d(⋅, ⋅) nennen wir einen metrischen Raum, und bezeichnen ihn mit (X, d(⋅, ⋅)). ◼ Es sei bemerkt, dass die Bedingung d(x, y) ≥ 0 nicht gebraucht wird, diese folgt aus den anderen Bedingungen. Betrachte dazu die Dreiecksungleichung mit x = y und dem zweiten Teil M1, dann folgt: 0 = d(x, x) ≤ d(x, z) + d(z, x) = 2d(x, z). Also ist d(x, z) ≥ 0, ∀x, z ∈ X.

Schauen wir uns einfache Beispiele an. Beispiel 3.5. Sei X = ℂ, dann sind die folgenden Abbildungen Metriken:

150 � 3 Grundlagen der Funktionalanalysis (i) d(z1 , z2 ) := |z1 − z2 |. (ii)

Hier braucht nichts gezeigt werden, die Eigenschaften sind klar. d1 (z1 , z2 ) :=

|z1 − z2 | . 1 + |z1 − z2 |

(3.1)

Axiom M1 und M2 sind unmittelbar aus den Eigenschaften d(z1 , z2 ) klar. Um M3 zu zeigen, betrachten wir die Funktion ℝ+ ∋ x 󳨃→ f (x) := x/(1 + x). Dies ist eine strikt monoton steigende und konvexe Funktion, für die gilt: f (x + y) ≤ f (x) + f (y). Daraus folgt: d1 (z1 , z2 ) = f (|z1 − z2 |) ≤ f (|z1 − z3 |) + f (|z2 − z3 |) = d1 (z1 , z3 ) + d1 (z3 , z2 ). Aus der Definition von f (x) folgt: 0 ≤ d1 (z1 , z2 ) ≤ 1. Damit haben wir eine Metrik, die beschränkt ist. ⬦ 3.2.2 Normierte Räume Betrachten wir Abstände in Vektorräumen, die sich durch Normen realisieren lassen. Wir werden sehen, dass es eine Vielzahl von Realisierungen von Normen gibt. Je nach Situation kann die ein oder andere Form günstig sein. Auf die Eigenschaften von Äquivalenzen von Normen unter bestimmten Voraussetzungen gehen wir hier nicht ein und verweisen auf die Ausführungen in [30]. Für die Betrachtungen hier ist es wichtig, dass wir durch Normen den Begriff der Abstände von Vektoren untereinander quantifizieren. Definition 3.8 (Norm). Auf einem 𝕂-Vektorraum V sei eine Abbildung: ‖⋅‖ : V ∋ v 󳨃→ ‖v‖ ∈ ℝ definiert. Wir nennen diese Abbildung eine Norm, wenn folgende Axiome gelten: N1 (positive Definitheit): ‖v‖ ≥ 0,

wobei ‖v‖ = 0 ⇔ v = 0,

N2 (Homogenität): ‖αv‖ = |α|‖v‖, N3 (Dreiecksungleichung): ‖v1 + v2 ‖ ≤ ‖v1 ‖ + ‖v2 ‖.

3.2 Metrische und normierte Räume

� 151

Einen Vektorraum mit einer Norm nennen wir einen normierten Raum, und bezeichnen ihn mit (V, ‖⋅‖). Ist der zweite Teil aus N1 nicht gegeben, so sprechen wir von einer Halbnorm. ◼ Aus jeder Norm ‖⋅‖ auf V definiert sich durch d(v1 , v2 ) := ‖v1 − v2 ‖,

v1 , v2 ∈ V,

eine Metrik auf V, die man auch die kanonische Metrik nennt. Umgekehrt ist dies aber nicht richtig, wie das Beispiel der d1 -Metrik aus (3.1) zeigt, denn es gilt dann im Allgemeinen nicht die Homogenitätseigenschaft d1 (αz, 0) ≠ |α|d1 (z, 0). Eine vielfach verwendete Eigenschaft der Norm ist die inverse Dreiecksungleichung: Lemma 3.1. Sei ‖⋅‖ eine Norm auf V, dann gilt für alle v1 , v2 ∈ V: 󵄨 󵄨 ‖v1 ± v2 ‖ ≥ 󵄨󵄨󵄨‖v1 ‖ − ‖v2 ‖󵄨󵄨󵄨.

(3.2)

Beweis. Betrachten wir zunächst den ‘-’-Fall. Mithilfe der Dreiecksungleichung N3 folgt: ‖v1 ‖ = ‖v1 − v2 + v2 ‖ ≤ ‖v1 − v2 ‖ + ‖v2 ‖, und damit folgt: ‖v1 ‖ − ‖v2 ‖ ≤ ‖v1 − v2 ‖. Vertauschen wir die Indizes 1 und 2 und erhalten: ‖v2 ‖ − ‖v1 ‖ = −(‖v1 ‖ − ‖v2 ‖) ≤ ‖v2 − v1 ‖ = ‖v1 − v2 ‖. Aus beiden Ungleichungen folgt (3.2) für den Fall des ‘-’-Zeichens. Ersetzt man v2 󳨃→ −v2 , so folgt der ‘+’-Fall. Sehen wir uns Konvergenzeigenschaften von Vektorfolgen an und definieren aufbauend daraus eine zusätzliche Struktur von normierten Räumen. Zunächst erklären wir, was Konvergenz in Vektorräumen bedeuten soll. Definition 3.9 (konvergent). Eine Folge vn ∈ V heißt konvergent in V, wenn ein v ∈ V existiert, sodass gilt: n→∞

‖vn − v‖ 󳨀→ 0. Wir schreiben dann dafür auch äquivalent und abkürzend: vn 󳨀→ v



v = lim vn . n→∞



152 � 3 Grundlagen der Funktionalanalysis Der Grenzwert einer Folge ist damit ebenfalls ein Element des Vektorraums, wenn die Folge konvergiert. Die Frage, ob die Addition von Folgen und Vielfache von Folgen konvergieren, klärt der folgende Satz. Satz 3.1. Es sei ein normierter Raum (V, ‖⋅‖) gegeben mit den Folgen vn , ṽm ∈ V und der Folge αn ∈ 𝕂, sowie den Konvergenzeigenschaften: vn 󳨀→ v,

ṽm 󳨀→ v,̃

αn 󳨀→ α,

dann gilt: (i) vn + ṽm 󳨀→ v + v,̃ (ii) αn vn 󳨀→ αv, (iii) ‖vn ‖ 󳨀→ ‖v‖. Beweis. Zum Beweis benutzen wir die Normeigenschaften N1–N3: (i) ̃ = ‖vn − v + ṽm − v‖̃ ≤ ‖vn − v‖ + ‖ṽm − v‖̃ 󳨀→ 0, ‖vn + ṽm − (v + v)‖ (ii)

‖αn vn − αv‖ = ‖αn (vn − v) + (αn − α)v‖ ≤ ‖αn (vn − v)‖ + ‖(αn − α)v‖ ≤ |αn |‖vn − v‖ + |αn − α|‖v‖ 󳨀→ 0,

(iii)

0 ←󳨀 ‖vn − v‖ ≥ |‖vn ‖ − ‖v‖| ≥ 0. Betrachten wir einige Beispiele ohne im Einzelfall die Normaxiome zu zeigen.

Beispiel 3.6 (Normen). Euklidische Norm (‖⋅‖2 ) (𝕂n , ‖⋅‖2 ) :

n

(α1 , . . . , αn ) ∈ 𝕂n ,

‖α‖2 := √∑ |αl |2 , l=1 b

(𝒞 ([a, b]), ‖⋅‖2 ) :

‖f ‖2 := √∫ dt |f (t)|2 ,

f ∈ 𝒞 ([a, b]).

a

p-Norm (‖⋅‖p , 1 < p < ∞) p

(ℓ , ‖⋅‖p ) : p

(L ([a, b]), ‖⋅‖p ) :



p

1/p

‖α‖p := (∑ |αl | ) l=1 b

(α1 , . . . , αn , . . .) ∈ ℓp ,

, p

1/p

‖f ‖p := (∫ dt |f (t)| ) a

,

f ∈ Lp ([a, b]).

3.2 Metrische und normierte Räume



153

Betragsnorm (‖⋅‖1 ) ∞

(ℓ1 , ‖⋅‖1 ) :

(α1 , . . . , αn , . . .) ∈ ℓ1 ,

‖α‖1 := ∑ |αl |, l=1 b

(L1 ([a, b]), ‖⋅‖1 ) :

‖f ‖1 := ∫ dt |f (t)|, a

f ∈ L1 ([a, b]).

Supremumsnorm (‖⋅‖∞ ) (𝒞 (n) ([a, b]), ‖⋅‖∞ ) :

‖f ‖∞ := sup |f (t)|,

f ∈ 𝒞 (n) ([a, b]),

t∈[a,b]

‖α‖∞ := sup |αi |,

(ℓ∞ , ‖⋅‖∞ ) :

i

(α1 , α2 , . . .) ∈ ℓ∞ .



Die Räume ℓp sowie Lp spielen eine wichtige Rolle in der Physik. Es sei an dieser Stelle bemerkt, dass Räume mit 0 < p < 1 keine normierten Räume definieren. Der Grund hierfür ist, dass die Minkowski-Ungleichung (A.2a) für diese Räume nicht erfüllt ist, z. B. gilt für ℓp : 1/p

(∑ |αn + αn′ |p ) n

1/p

≤ (∑ |αn |p ) n

1/p

+ (∑ |αn′ |p ) n

,

(1 ≤ p),

und für 0 < p < 1 gilt: ∑ |αn + αn′ |p ≤ ∑ |αn |p + ∑ |αn′ |p , n

n

n

(0 < p < 1).

Würde man nun die Definition der Norm in den lp -Räumen abändern, indem man die 1/p-Wurzel entfernt, so würde man die Homogenitätseigenschaft N2 der Norm verlieren. 3.2.3 Matrixnormen Matrixnormen sind ein essentieller Teil der linearen Algebra, der es ermöglicht, Größen von Matrizen zu messen und zu vergleichen. Sie sind ein wichtiges Werkzeug für die Analyse von linearen Gleichungssystemen, Differentialgleichungen und Optimierungsproblemen. Eine Matrixnorm ‖⋅‖ : 𝕂m×n ∋ A 󳨃→ ‖A‖ ∈ ℝ+0 , ist eine Abbildung, die die entsprechenden Bedingungen N1−N3 für Matrizen A erfüllt. Eine zusätzliche Charakterisierung von Matrixnormen ist die Submultiplikativität. Definition 3.10. Eine Matrixnorm ‖⋅‖ nennen wir submultiplikativ, wenn für Matrizen A ∈ 𝕂n×m , B ∈ 𝕂m×k gilt N4 ‖AB‖ ≤ ‖A‖‖B‖.



154 � 3 Grundlagen der Funktionalanalysis Es handelt sich aufgrund der Dimensionen der Matrizen im Allgemeinen um drei verschiedene Normen. Wir bezeichnen die Elemente der Matrix mit aij = (A)ij und bezeichnen mit A† = Ā t die transponiert und komplex konjugierte Matrix, also die adjungierte Matrix. Die gebräuchliche Notation in der Mathematik lautet A† ≡ AH = Ā ⊺ .

Aus den Vektornormen können Matrixnormen abgeleitet werden, indem die Elemente der Matrix als Vektoren aus dem 𝕂m⋅n aufgefasst werden. Eine durch die VektorraumAbbildung 𝕂m×n ∋ A : 𝕂n ∋ v 󳨃→ Av ∈ 𝕂m induzierte Matrixnorm, nennt man natürlich, falls gilt: ‖A‖ = max v=0 ̸

‖Av‖K m = max ‖Av‖K m , ‖v‖𝕂n =1 ‖v‖K n

dabei bezeichnet ‖⋅‖K n eine Matrixnorm im Vektorraum V = 𝕂n . Eine Norm, die aus einer Vektornorm abgeleitet wurde, ist verträglich, das heißt es gilt: ‖Av‖ ≤ ‖A‖ ⋅ ‖v‖. Eine natürliche Norm ist damit auch submultiplikativ, denn es gilt: ‖AB‖ = max‖ABv‖ ≤ max‖A‖‖Bv‖ = ‖A‖‖B‖. ‖v‖=1

‖v‖=1

Im folgenden Beispiel sind gebräuchliche Matrixnormen angegeben und diskutiert. Beispiel 3.7 (Matrixnormen). Beispiele für Matrixnormen sind: Maximumsnorm: ‖A‖M := max |aij |. i=1,...,m j=1,...,n

Die Maximumsnorm ist abgeleitet aus der Vektorraumnorm ‖w‖K mn , in der w der Vektor aller Matrixelemente der Matrix A ∈ 𝕂m×n repräsentiert. Sie ist nicht submultiplikativ, kann aber durch die sogenannte Gesamtnorm ‖A‖G := √mn‖A‖M submultiplikativ gemacht werden. Siehe dazu die Aufgabe am Ende des Kapitels. m n

Frobeniusnorm: ‖A‖F := √∑ ∑ |aij |2 = √Sp(A† A). i=1 j=1

Die Frobeniusnorm ist die Euklidische Norm im 𝕂mn und ist submultiplikativ, dies zeigt man mit Hilfe der Cauchy-Schwarz’chen Ungleichung. Unmittelbar folgt ‖A‖F = √Sp(A† A) = √Sp(AA† ) = ‖A† ‖F .

3.2 Metrische und normierte Räume



155

Spektralnorm: ‖A‖2 := max ‖Av‖2 = √λmax (A† A). ‖v‖2 =1

Die Spektralnorm ist eine natürliche Norm, die durch die Euklidische Norm induziert wird. In der zweiten Darstellung ist λmax (A† A) der größte Eigenwert von A† A. Ist A selbst hermitesch, so sind die Eigenwerte σ1 , . . . , σn von A reel und es gilt ‖A‖22 = maxl |σl |2 . Siehe hierzu die Aufgabe am Ende des Kapitels. n

Zeilensummennorm: ‖A‖∞ := max ‖Av‖∞ = max ∑ |aij |. ‖v‖∞ =1

i=1,...,m

j=1

Die Zeilensummennorm ist durch die Maximumsnorm je Zeile induziert. m

Spaltensummennorm: ‖A‖1 := max ‖Av‖1 max = ∑ |aij |. ‖v‖1 =1

j=1,...,n

i=1

Die Spaltensummennorm ist durch die Maximumsnorm je Spalte induziert.



Wie aus den Definitionen zu erkennen ist, kann je nach Situation die Berechnung unterschiedlich komplex oder aufwendig sein. Alle diese Normen sind aber äquivalent in dem Sinne, dass für je zwei Matrixnormen ‖⋅‖a und ‖⋅‖b positive Konstante α1 , α2 existieren, sodass gilt (siehe [36]): α1 ‖⋅‖a ≤ ‖⋅‖b ≤ α2 ‖⋅‖a . Dies kann man auch schreiben als ‖⋅‖a ≤ αab ‖⋅‖b .

(3.3)

Alle Konstanten αab , der oben betrachteten Matrixnormen, sind in Tabelle 3.1 zusammengefasst: Tab. 3.1: Die Konstanten αab aus der Ungleichung (3.3) für die über eine Vektornorm definierten Normen ‖⋅‖M,F und die natürlichen Normen ‖⋅‖1,2,∞ . a⟍b

M

F







M F � � ∞

� √mn m √mn n

� � √m � √n

� √n � √n n

� √rang(A) √m � √n

� √m m √m �

Zu einer quadratischen Matrix A ∈ 𝕂n×n mit Eigenwert λ, gehört ein nicht verschwindender Eigenvektor vλ , sodass gilt Avλ = λvλ . Für eine submultiplikative Norm folgt:

156 � 3 Grundlagen der Funktionalanalysis

|λ|‖vλ ‖ = ‖Avλ ‖ ≤ ‖A‖‖vλ ‖, und daraus für alle Eigenwerte: |λ| ≤ ‖A‖. Damit ist jede submultiplikative Matrixnorm größer als der betragsmäßig größte Eigenwert. In der Praxis wird die Norm einer Inversen Matrix benötigt. Wie diese durch eine natürliche Normen ausgedrückt wird, zeigt das folgende Lemma. Lemma 3.2. Für eine reguläre Matrix A ∈ 𝕂n×n gilt: −1 󵄩󵄩 −1 󵄩󵄩 󵄩󵄩A 󵄩󵄩 = (min‖Av‖) . ‖v‖=1

Beweis. Da es eine reguläre Matrix ist, existiert die Inverse A−1 , und damit: −1 󵄩󵄩 −1 󵄩󵄩 󵄩 −1 󵄩 v=Aw −1 󵄩󵄩A 󵄩󵄩 = max󵄩󵄩󵄩A v󵄩󵄩󵄩 = max ‖w‖ = ( min ‖w‖ ) . ‖Aw‖=1 ‖v‖=1 ‖Aw‖=1

Nun führen wir die Transformation w = x/‖Ax‖ mit x ≠ 0 durch: −1

‖Ax‖ 󵄩󵄩 −1 󵄩󵄩 ) 󵄩󵄩A 󵄩󵄩 = (min x =0 ̸ ‖x‖

−1

= (min ‖Ax‖) . ‖x‖=1

Ein nützliches Werkzeug, um die Genauigkeit von numerischen Berechnungen zu beurteilen, ist die Kondition einer Matrix: 󵄩 󵄩 κ(A) := ‖A‖󵄩󵄩󵄩A−1 󵄩󵄩󵄩. Die Kondition gibt zum Beispiel an, wie empfindlich eine Lösung x des Gleichungssystemen Ax = w von einer fehlerbehafteten rechten Seite w abhängt. Schauen wir uns dies explizit als Aufgabe an. Gegeben sei das ungestörte Gleichungssystemen Ax = w. Betrachte eine Störung der rechten Seite durch w → w + δw und drücke den dadurch induzierten relativen Fehler ‖δx‖/‖x‖ durch κ(A) aus. Beweis. Sei die gestörte Lösung mit x + δx bezeichnet, dann lautet das gesamte gestörte Gleichungssystem: A(x + δx) = (w + δw). Damit folgt durch Einsetzen der Lösung des ungestörten Gleichungssystems: δx = A−1 δw und daraus für eine submultiplikative Norm: 󵄩 󵄩 󵄩 󵄩 ‖δx‖ = 󵄩󵄩󵄩󵄩A−1 δw 󵄩󵄩󵄩󵄩 ≤ 󵄩󵄩󵄩󵄩A−1 󵄩󵄩󵄩󵄩‖δw‖. Es gilt ‖w‖ = ‖Ax‖ ≤ ‖A‖‖x‖, damit folgt für den relativen Fehler der Lösung ‖δw‖ ‖δx‖ 󵄩󵄩 −1 󵄩󵄩 ‖δw‖ 󵄩󵄩 −1 󵄩󵄩 ‖δw‖ ≤ 󵄩󵄩󵄩A 󵄩󵄩󵄩 ≤ 󵄩󵄩󵄩A 󵄩󵄩󵄩‖A‖ = κ(A) . ‖x‖ ‖x‖ ‖w‖ ‖w‖



3.2 Metrische und normierte Räume

� 157

3.2.4 Innenproduktraum Metriken und Normen repräsentieren Abstände in den Räumen. Wir benötigen außer den Abständen aber auch Winkel zwischen Vektoren in Vektorräumen. Aus der linearen Algebra ist der Begriffe des Winkels zwischen Vektoren klar. Der Winkel lässt sich durch ein Skalarprodukt darstellen. Deswegen definieren wir zunächst formal das Skalarprodukt. Definition 3.11 (Skalarprodukt). Auf einem 𝕂-Vektorraum V sei eine Abbildung: ⟨⋅ | ⋅⟩ : V × V ∋ (v1 , v2 ) 󳨃→ ⟨v1 | v2 ⟩ ∈ (ℝ oder ℂ) definiert. Wir nennen diese Abbildung ein Skalarprodukt, wenn folgende Axiome für alle v, v1,2 ∈ V und α ∈ 𝕂 gelten: S1 ⟨v | v⟩ ≥ 0, S2

wobei ⟨v | v⟩ = 0 ⇔ v = 0,

⟨v1 | αv2 ⟩ = α⟨v1 | v2 ⟩,

S3

⟨v | v1 + v2 ⟩ = ⟨v | v1 ⟩ + ⟨v | v2 ⟩,

S4

⟨v1 | v2 ⟩ = ⟨v2 | v1 ⟩.

Einen Vektorraum V zusammen mit einem Skalarprodukt ⟨⋅ | ⋅⟩ nennen wir einen Prähilbertraum oder Innenproduktraum. ◼ Für den Fall 𝕂 = ℝ bezeichnet man den Prähilbertraum auch als Euklidischen Raum, für 𝕂 = ℂ als unitären Raum. Letzterer Begriff wird häufig in der Physik verwendet. Aus diesen Definitionen folgt sofort, dass mit ‖v‖2 := √⟨v | v⟩,

v ∈ V,

eine Norm auf V erklärt wird, die wir die kanonische Norm auf V nennen. Die Normaxiome N1–N3 folgen in diesem Fall unmittelbar aus den Definitionen S1–S3. Betrachten wir hierzu relevante Beispiele: Beispiel 3.8 (Skalarprodukte). (i) (ℓ2 , ‖⋅‖2 ): ⟨α | β⟩ := ∑ ᾱ n βn , n

(α1 , α2 , . . .), (β1 , β2 , . . .) ∈ ℓ2 .

Dieses Skalarprodukt erzeugt die Euklidische Norm ‖⋅‖2 als kanonische Norm.

(3.4)

158 � 3 Grundlagen der Funktionalanalysis (ii) (𝒞 ([a, b]), ‖⋅‖2 ): b

⟨f | g⟩ := ∫ dt f ̄(t)g(t), a

f , g ∈ 𝒞 ([a, b]).

(3.5)

Auch in diesem Fall erzeugt die Norm ‖⋅‖2 die kanonische Norm. (iii) (𝒞 ([a, b]), ‖⋅‖w 2 ): b

⟨f | g⟩ := ∫ dtw(t)f ̄(t)g(t), a

f , g ∈ 𝒞 ([a, b]),

mit einer Gewichtsfunktion w(t) ∈ 𝒞 ([a, b]), für die gilt w(t) > 0. Aufgrund der Positivität der Gewichtsfunktion w(t) prüft man schnell nach, dass dies ein Skalarprodukt ist. ⬦ Eine Norm, die durch ein Skalarprodukt erzeugt wird, hat folgende zusammengefasste Eigenschaften: Satz 3.2. Sei ein 𝕂-Vektorraum mit einer kanonischen Norm ‖⋅‖ = √⟨⋅ | ⋅⟩ gegeben, dann gilt für alle v1 , v2 ∈ V, α ∈ 𝕂: (i) Schwarz’sche Ungleichung: |⟨v1 | v2 ⟩| ≤ ‖v1 ‖ ‖v2 ‖, dabei gilt speziell für das Gleichheitszeichen: ⟨v1 | v2 ⟩ = ‖v1 ‖‖v2 ‖, genau dann wenn v1 = αv2 oder v2 = αv1 mit α ≥ 0 gilt, (ii) Kolinearität: ‖v1 + v2 ‖ = ‖v1 ‖ + ‖v2 ‖



∃α ≥ 0

mit v1 = αv2 oder v2 = αv1 ,

(iii) Parallelogrammidentität: ‖v1 + v2 ‖2 + ‖v1 − v2 ‖2 = 2(‖v1 ‖2 + ‖v2 ‖2 ),

(3.6)

(iv) Polarisierungsidentität (𝕂 = ℝ): ⟨v1 | v2 ⟩ =

1 (‖v + v2 ‖2 − ‖v1 − v2 ‖2 ), 4 1

(3.7)

(v) Polarisierungsidentität (𝕂 = ℂ): ⟨v1 | v2 ⟩ =

1 (‖v + v2 ‖2 − ‖v1 − v2 ‖2 + i‖v1 − iv2 ‖2 − i‖v1 + iv2 ‖2 ). 4 1

(3.8)

3.2 Metrische und normierte Räume



159

Beweis. (i) Wir betrachten ̄ 2 | v1 ⟩. 0 ≤ ⟨v1 + αv2 | v1 + αv2 ⟩ = ⟨v1 | v1 ⟩ + |α|2 ⟨v2 | v2 ⟩ + α⟨v1 | v2 ⟩ + α⟨v Dies gilt für alle v1 , v2 ∈ V und α ∈ 𝕂. Wählen wir speziell α = −⟨v2 | v1 ⟩/‖v2 ‖2 , wobei wir annehmen ‖v2 ‖ ≠ 0, andernfalls ist die Behauptung klar. Setzen wir dies ein, so folgt: 0 ≤ ‖v1 ‖2 +

⟨v | v ⟩⟨v | v ⟩ |⟨v1 | v2 ⟩|2 |⟨v1 | v2 ⟩|2 − 2 1 2 22 1 = ‖v1 ‖2 − . 2 ‖v2 ‖ ‖v2 ‖ ‖v2 ‖2

Umstellen dieser Ungleichung und ein Wurzelziehen ergibt die Schwarz’sche Ungleichung. Gilt v1 = αv2 oder v2 = αv1 mit α ≥ 0, so ist unmittelbar klar, dass ⟨v1 | v2 ⟩ = ‖v1 ‖‖v2 ‖ gilt. Den umgekehrten Fall erhält man durch Betrachtung von 0 = ‖v1 − αv2 ‖2 , α ∈ ℝ und der Verwendung der Voraussetzung ⟨v1 | v2 ⟩ = ‖v1 ‖‖v2 ‖, für v1 , v2 ∈ V. (ii) Dies kann durch Quadrieren auf (i) zurückgeführt werden. (iii) Dies ergibt sich durch einfaches Ausmultiplizieren: ‖v1 + v2 ‖2 + ‖v1 − v2 ‖2 = ⟨v1 + v2 | v1 + v2 ⟩ + ⟨v1 − v2 | v1 − v2 ⟩ = 2(⟨v1 | v1 ⟩ + ⟨v2 | v2 ⟩).

(iv) Für 𝕂 = ℝ gilt mit ⟨v1 | v2 ⟩ = ⟨v2 | v1 ⟩: ‖v1 + v2 ‖2 − ‖v1 − v2 ‖2 = ⟨v1 + v2 | v1 + v2 ⟩ − ⟨v1 − v2 | v1 − v2 ⟩ = 4⟨v1 | v2 ⟩. (v) Analog durch Ausmultiplizieren der rechten Seite. Da auf jedem Prähilbertraum die kanonische Norm existiert, ist ein Prähilbertraum immer auch als normierter Raum aufzufassen, wobei die Norm die induzierte kanonische Norm ist. Dies werden wir dann, wenn nicht anders erwähnt annehmen. Aus diesem Grund nennt man sie auch kanonische Norm. Satz 3.3 (Jordan und von Neumann). Eine Norm ‖⋅‖ auf einem 𝕂-Vektorraum V lässt sich genau dann durch ein Skalarprodukt ⟨⋅ | ⋅⟩ erzeugen, wenn die Parallelogrammidentität (3.6) erfüllt ist. Das Skalarprodukt ist dann durch die Polarisierungsidentität (3.7) bzw. (3.8) gegeben. Beweis. Wir zeigen hier nur den Fall 𝕂 = ℝ. Der Fall 𝕂 = ℂ findet sich beispielsweise in [32]. (i) Sei zunächst ein Skalarprodukt gegeben und die Norm durch ‖v‖2 := √⟨v | v⟩ definiert. Die Parallelogrammidentität folgt durch die Skalaprodukteigenschaften:

160 � 3 Grundlagen der Funktionalanalysis ‖v1 + v2 ‖2 + ‖v1 − v2 ‖2 = ⟨v1 + v2 | v1 + v2 ⟩ + ⟨v1 − v2 | v1 − v2 ⟩ = 2(⟨v1 | v1 ⟩ + ⟨v2 | v2 ⟩ + 2⟨v1 | v2 ⟩ − 2⟨v1 | v2 ⟩) = 2(‖v1 ‖2 + ‖v2 ‖2 ).

Das Skalaprodukt kann nun durch (3.7) aus der Norm wieder gewonnen werden. (ii) Sei nun eine Norm gegeben, die die Parallelogrammidentität erfüllt. Dann definieren wir das Skalarprodukt via (3.7) und zeigen, dass dieses die geforderten Eigenschaften S1–S4 besitzt. S1 ⟨v | v⟩ =

1 (‖v + v‖2 − ‖v − v‖2 ) = ‖v‖2 . 4

S4 ⟨v1 | v2 ⟩ =

1 1 (‖v + v2 ‖2 − ‖v1 − v2 ‖2 ) = (‖v2 + v1 ‖2 − ‖v2 − v1 ‖2 ) = ⟨v2 | v1 ⟩. 4 1 4

S3 1 (‖v + v1 ‖2 − ‖v − v1 ‖2 + ‖v + v2 ‖2 − ‖v − v2 ‖2 ) 4 2 2 v + v2 v1 − v2 󵄩󵄩󵄩󵄩 󵄩󵄩󵄩󵄩 v + v1 v2 − v1 󵄩󵄩󵄩󵄩 1 󵄩󵄩󵄩 = (󵄩󵄩󵄩v + 1 + + 󵄩󵄩 + 󵄩󵄩v + 2 󵄩󵄩 4 󵄩󵄩 2 2 󵄩󵄩 󵄩󵄩 2 2 󵄩󵄩

⟨v | v1 ⟩ + ⟨v | v2 ⟩ =

− (v1,2 ↔ −v1,2 )) 2 2 2 2 v + v2 󵄩󵄩󵄩󵄩 󵄩󵄩󵄩󵄩 v1 − v2 󵄩󵄩󵄩󵄩 󵄩󵄩󵄩󵄩 v + v2 󵄩󵄩󵄩󵄩 󵄩󵄩󵄩󵄩 v1 − v2 󵄩󵄩󵄩󵄩 1 󵄩󵄩󵄩󵄩 (󵄩󵄩v + 1 󵄩󵄩 + 󵄩󵄩 󵄩󵄩 − 󵄩󵄩v − 1 󵄩󵄩 − 󵄩󵄩 − 󵄩󵄩 ) 2 󵄩󵄩 2 󵄩󵄩 󵄩󵄩 2 󵄩󵄩 󵄩󵄩 2 󵄩󵄩 󵄩󵄩 2 󵄩󵄩 2 2 󵄨󵄨 v + v v1 + v2 󵄩󵄩󵄩󵄩 󵄩󵄩󵄩󵄩 v1 + v2 󵄩󵄩󵄩󵄩 1 󵄩󵄩󵄩󵄩 󵄨 2 ⟩. = (󵄩󵄩v + 󵄩 − 󵄩v − 󵄩 ) ≡ 2⟨v 󵄨󵄨󵄨 1 󵄨󵄨 2 2 󵄩󵄩 2 󵄩󵄩󵄩 󵄩󵄩󵄩 2 󵄩󵄩󵄩

(3.6)

=

Wählt man v2 = 0, so gilt ⟨v | v1 ⟩ = 2⟨v | v1 /2⟩ und damit folgt insgesamt durch Ersetzen von v1 󳨃→ v1 + v2 : 󵄨󵄨 v + v 󵄨 2 ⟨v | v1 ⟩ + ⟨v | v2 ⟩ = 2⟨v 󵄨󵄨󵄨 1 ⟩ = ⟨v | v1 + v2 ⟩. 󵄨󵄨 2 S2 Induktiv folgt: 󵄨󵄨 m m 󵄨󵄨 ⟨v | v ⟩ = ⟨v 1 󵄨󵄨󵄨 n v2 ⟩, 2n 1 2 󵄨2

∀n, m ∈ ℕ.

Zu jedem α ∈ ℝ+ kann man nun eine Folge αk = mk /2nk konstruieren, die für k → ∞ gegen α konvergiert. Nun gilt unter Verwendung von (3.2) die Abschätzung: 0 ≤ |‖v1 ± αk v2 ‖ − ‖v1 ± αv2 ‖| ≤ ‖v1 ± αk v2 − (v1 ± αv2 )‖ ≤ |αk − α|‖v2 ‖.

3.3 Banach- und Hilberträume

� 161

Die rechte Seite geht gegen Null für k → ∞, also folgt ⟨v1 | αk v2 ⟩ 󳨀→ ⟨v1 | αv2 ⟩, und hieraus folgt α⟨v1 | v2 ⟩ = lim αk ⟨v1 | v2 ⟩ = lim ⟨v1 | αk v2 ⟩ = ⟨v1 | αv2 ⟩. k→∞

k→∞

Es bleibt noch zu zeigen, dass dies auch für α < 0 gilt. Hierzu benutzen wir: ⟨v1 | −v2 ⟩ =

1 (‖v − v2 ‖2 − ‖v1 + v2 ‖) = −⟨v1 | v2 ⟩. 4 1

Insgesamt ist damit der Satz gezeigt. Beispiel 3.9. Wir betrachten den normierten Raum (𝒞 ([−1, 1]), ‖⋅‖1 ) mit den Funktionen f (t) = 1 und g(t) = t, dann gilt: 2

1

1

‖f + g‖21 + ‖f − g‖21 = ( ∫ dt|f (t) + g(t)|) + ( ∫ dt|f (t) − g(t)|) −1

2

1

1

−1

2

2

= ( ∫ dt|1 + t|) + ( ∫ dt|1 − t|) = 8, −1

2(‖f ‖21

+

‖g‖21 )

1

2

1

−1

2

= 2( ∫ dt1) + 2( ∫ dt|t|) = 10. −1

−1

Die Parallelogrammidentität ist nicht erfüllt, sodass im Vektorraum 𝒞 ([a, b]) die Norm ‖⋅‖1 nicht durch ein Skalarprodukt erzeugt werden kann. ⬦ Es kann gezeigt werden, dass auch die allgemeinere Norm ‖⋅‖p , p ≠ 2 nicht die Parallelogrammidentität erfüllt. Weiterführende Diskussionen hierzu und zu Innenprodukträumen findet sich in [30]. Für unsere Zwecke reichen die dargelegten Eigenschaften, um im nächsten Abschnitt zu Banach- und Hilberträumen zu gelangen.

3.3 Banach- und Hilberträume Hilberträume sind von zentraler Bedeutung in der Quantenmechanik. In diesem Kapitel diskutieren wir die wesentlichen Züge des Hilbertraums und beschränken uns zunächst auf die rein mathematischen Aspekte, bevor wir in späteren Abschnitten zu den physikalischen Anwendungen gelangen. Als Erstes benötigen wir den Begriff der Cauchyfolge, der uns aus der Analysis vertraut ist. Wiederholen wir kurz die Terminologie und fassen zusammen.

162 � 3 Grundlagen der Funktionalanalysis Definition 3.12 (Cauchyfolge). Es sei ein normierter Raum (V, ‖⋅‖) mit einer Folge vn ∈ V, n ∈ ℕ gegeben. Diese Folge heißt Cauchyfolge (CF), wenn zu jedem ϵ > 0 ein N0 ∈ ℕ existiert, sodass für alle n, m > N0 gilt: ‖vn − vm ‖ ≤ ϵ. Wir schreiben dafür dann verkürn,m→∞

zend: ‖vn − vm ‖ 󳨀→ 0.



Wir sagen vn ∈ V konvergiert, wenn gilt: ‖vn − v‖ → 0 und v ∈ V. Es gibt höchstens ein solches Element in V, denn falls es ein weiteres Element v′ ∈ V gäbe, würde nach N3 gelten: ‖v − v′ ‖ ≤ ‖v − vn ‖ + ‖vn − v′ ‖ → 0 und zusammen mit N1 dann folgen: v = v′ . Lemma 3.3. Jede konvergente Folge ist eine Cauchyfolge. Beweis. Es konvergiere vn gegen v, dann folgt mit der Dreiecksungleichung: n,n′ →∞

‖vn − vn′ ‖ ≤ ‖vn − v‖ + ‖v − vn′ ‖ 󳨀→ 0. Die Umkehrung gilt jedoch nicht, denn nicht jede Cauchyfolge konvergiert. Ein bekanntes Beispiel ist die Cauchyfolge ℚ ∋ xn 󳨃→ xn+1 := (xn + 2/xn )/2 ∈ ℚ, für die gilt limn→∞ xn = √2 ∉ ℚ. Dies führt uns auf den Begriff der Vollständigkeit. Definition 3.13 (Vollständigkeit). Wir nennen einen Raum vollständig, wenn in ihm jede Cauchyfolge konvergiert. Einen normierten vollständigen Raum nennen wir Banachraum und schreiben [V, ‖⋅‖]. ◼ Ohne Beweise stellen wir hier eine Liste von wichtigen Banachraum zusammen. Eine ausführlichere Liste und Beweise der Vollständigkeit findet sich in [30]. – [𝕂n , ‖⋅‖2 ] n

2

1/2

(x1 , . . . , xn ) ∈ 𝕂n ,

‖x‖2 := (∑ |xl | ) , l=1



[ℓp , ‖⋅‖p ]

(1 ≤ p < ∞) ∞

p

1/p

‖α‖p := (∑ |αl | ) l=1



[ℓ∞ , ‖⋅‖∞ ] ‖α‖∞ := sup |αl |,

(α1 , α2 , . . .) ∈ ℓ∞ ,

l



(α1 , α2 , . . .) ∈ ℓp ,

,

[Lp ([a, b]), ‖⋅‖p ]

(1 ≤ p < ∞) b

p

1/p

‖f ‖p := (∫ dt |f (t)| ) a

,

f ∈ Lp ([a, b]),

3.3 Banach- und Hilberträume



[L∞ ([a, b]), ‖⋅‖∞ ] ‖f ‖∞ := sup |f (t)|, t∈[a,b]



� 163

f ∈ L∞ ([a, b]),

[𝒞 (n) ([a, b]), ‖⋅‖∞ ] n

‖f ‖∞ := ∑ max |f (ν) (t)|, ν=0

f ∈ 𝒞 (n) ([a, b]).

t∈[a,b]

Nun definieren wir den Hilbertraum über Cauchyfolgen und der Vollständigkeit. Definition 3.14 (Hilbertraum). Ein vollständiger Prähilbertraum, heißt Hilbertraum und wir bezeichnen ihn mit H ≡ ⟨V, ⟨⋅ | ⋅⟩⟩. ◼ Betrachten wir einige prominente Beispiele. Beispiel 3.10. Der Prähilbertraum ⟨ℓ2 , ⟨⋅ | ⋅⟩⟩ mit Skalarprodukt (3.4) ist ein Hilbertraum. Um dies zu zeigen, müssen wir die Norm- und Skalarprodukteigenschaften, sowie die Vollständigkeit zeigen, dabei sind die Norm- und Skalarprodukteigenschaften unmittelbar klar und folgen mithilfe der Minkowski’schen Ungleichung. Betrachten wir also die Vollständigkeit und hierzu die Cauchyfolge α(n) := (α1(n) , . . . , αk(n) , . . .) ∈ ℓ2 , n ∈ ℕ im Limes n → ∞. Aufgrund der Cauchyfolgeneigenschaft folgt: Für jedes ϵ > 0 existiert ein N0 (ϵ) ∈ ℕ, sodass für alle n, m > N0 (ϵ) gilt: 1/2



󵄨 󵄨2 ‖α(m) − α(n) ‖2 = ( ∑ 󵄨󵄨󵄨αk(m) − αk(n) 󵄨󵄨󵄨 ) k=1

ϵ ≤ . 2

(3.9)

Hieraus folgt, dass |αk(m) − αk(n) | ≤ ϵ/2, ∀m, n ≥ N0 (ϵ), k ∈ ℕ und somit αk(n) eine Cauchyfolge ist, etwa mit dem Limes limn→∞ αk(n) = α̂ k . Nun zeigen wir, dass der Vektor α̂ := (α̂ 1 , α̂ 2 , . . .) in ℓ2 liegt und limn→∞ α(n) = α̂ gilt. Hierzu betrachten

wir den j-dimensionalen Unterraum von ℓ2 , für den die Abschätzung (MinkowskiUngleichung (A.2a) mit p = 2) gilt: j

󵄨 󵄨2 ( ∑ 󵄨󵄨󵄨α̂ k − αk(n) 󵄨󵄨󵄨 ) k=1

1/2

j

1/2

󵄨 󵄨2 ≤ ( ∑ 󵄨󵄨󵄨α̂ k − αk(m) 󵄨󵄨󵄨 ) k=1

j

1/2

󵄨 󵄨2 + ( ∑ 󵄨󵄨󵄨αk(m) − αk(n) 󵄨󵄨󵄨 ) , k=1

(3.10)

für m ∈ ℕ. Der zweite Term auf der rechten Seite ist für m, n > N0 (ϵ) wegen (3.9) kleiner als ϵ/2. Da die α(1) , α(2) , . . . eine Cauchyfolge bilden, können wir für jedes k = 1, . . . , j das

164 � 3 Grundlagen der Funktionalanalysis m > Nj (ϵ) so wählen, dass gilt: |α̂ k − αk(m) | < ϵ/2 2−k/2 , damit folgt: 1/2

j

1/2

j

1/2

ϵ 1 < (∑ k ) 2 k=1 2

󵄨2 󵄨 ( ∑ 󵄨󵄨󵄨α̂ k − αk(m) 󵄨󵄨󵄨 ) k=1

ϵ ∞ 1 < (∑ k ) 2 k=1 2

ϵ = . 2

Insgesamt ist also die linke Seite von (3.10) kleiner als ϵ und zudem ist das Ergebnis unabhängig von j, womit wir auch den Limes j → ∞ durchführen können: ∞

󵄨 󵄨2 ( ∑ 󵄨󵄨󵄨α̂ k − αk(n) 󵄨󵄨󵄨 )

1/2

k=1

≤ ϵ,

∀n > N0 (ϵ).

Zusammen mit der Abschätzung: j

1/2

2

‖α‖̂ 2 = lim ( ∑ |α̂ k | ) j→∞

k=1

1/2

j

󵄨2 󵄨 ≤ lim lim {( ∑ 󵄨󵄨󵄨α̂ k − αk(n) 󵄨󵄨󵄨 ) j→∞ n→∞ k=1



≤ ϵ + lim ( ∑ |αk(n) |2 ) n→∞

k=1

1/2

j

+ (∑

k=1

1/2 (n) 2 |αk | ) }

< ∞,

folgt damit limn→∞ α(n) = α̂ ∈ ℓ2 ; also ist ℓ2 vollständig und somit ein Hilbertraum.



Betrachten wir ein sehr anschauliches und wichtiges Beispiel eines nicht vollständigen Raumes. Zeige, der Prähilbertraum ⟨𝒞([−1, 1]), ⟨⋅ | ⋅⟩⟩ mit Skalarprodukt (3.5) ist kein Hilbertraum. Lösung: Wir zeigen dies durch eine explizite Konstruktion einer Beispielfunktionenfolge: −1 { { { fn (t) := {tn { { {+1

: −1 ≤ t ≤ −1/n,

: −1/n < t < 1/n, : +1/n ≤ t ≤ +1,

∀n ∈ ℕ \ {0}, die rechts skizziert ist.

Es handelt sich um eine Cauchyfolge, denn sei o. E. d. A. n > m, dann folgt: +1

‖fn − fm ‖2 = ∫ dt|fn (t) − fm (t)|2 −1

3.3 Banach- und Hilberträume

1/n

� 165

1/m

= 2 ∫ dt|nt − mt|2 + 2 ∫ dt|1 − mt|2 0

1/n 2

=

1/m

2 m 2 2 (1 − ) + 2 ∫ dt|1 − mt|2 ≤ + 3n n 3n m

n,m→∞

󳨀→ 0.

1/n

Nehmen wir an, es existiert ein f ∈ 𝒞([−1, 1]), mit ‖f − fn ‖ → 0, dann gilt: −1/n

+1/n

1

1/n

‖f − fn ‖2 = ∫ dt|f + 1|2 + ∫ dt|f − tn|2 + ∫ dt|f − 1|2 −1

−1/n

−1/n

1

−1

1/n

≥ ∫ dt|f + 1|2 + ∫ dt|f − 1|2 . Für n → ∞ geht die linke Seite nach Voraussetzung gegen Null und damit muss die positive rechte Seite ebenfalls gegen Null gehen, so dass für die Funktion f (t) gilt: −1

f (t) := {

+1

: −1 ≤ t < 0,

: +0 < t ≤ +1.

Die Grenzfunktion ist eine Stufenfunktion, die im Punkt t = 0 nicht stetig ist. Die Folge fn konvergiert nicht in 𝒞([−1, 1]). Es sei bemerkt, dass wie schon oben erwähnt, [C([−1, 1]), ‖⋅‖∞ ] hingegen ein Banachraum ist. Die hier betrachtete Funktionenfolge bildet aber keine Cauchyfolge in der Supremumsnorm ‖f ‖∞ , denn sup |fn (t) − fm (t)| = 1 −

t∈[−1,1]

m , n

n > m.

Diese Größe kann nicht für alle m, n ≥ N0 beliebig klein gemacht werden.



Zum Abschluss dieses Abschnittes fassen wir die bisher betrachtete Raumstruktur schematisch in einem Diagramm zusammen.

166 � 3 Grundlagen der Funktionalanalysis Jedes Kästchen zeigt eine Raumstruktur. Seine Beziehung zu einer im Diagramm benachbarten Struktur wird mit einem Pfeil gekennzeichnet. Pfeile mit geschlossenen Spitzen bedeuten, dass die Eigenschaft hinzugefügt wird und Pfeile mit offener Spitze bedeuten, mit spezieller Wahl wird dies kanonisch impliziert. Ausgangspunkt für die gesamte Struktur ist eine Menge X mit Elementen v, w. Fügt man einerseits eine Metrik d(v, w) der Menge X hinzu, so gelangt man zu einem metrischen Raum (X, d(v, w)). Andererseits können die Elemente der Menge X über Hinzufügen einer binären Addition der Elemente und einer skalaren Multiplikation (+; ⋅) zu einem Vektorraum V erweitert werden. Der Vektorraum kann wiederum auf zwei Arten erweitert werden. Fügt man die Axiome eines Skalarproduktes hinzu, so gelangt man zu einem Prähilbertraum bzw. Innenproduktraum ⟨V, ⟨⋅ | ⋅⟩⟩, fügt man eine Norm ‖⋅‖ hinzu, so erhält man einen Normierten Raum (V, ‖⋅‖). Zwischen dem Normierten Raum und dem Prähilbertraum vermittelt die kanonische Beziehung ‖v‖ = √⟨v | v⟩. Beide Räume bilden mit einer Vervollständigung den Hilbert- oder Banachraum.

3.4 Orthogonale Funktionensysteme Für die meisten der folgenden Aussagen benötigen wir nur einen Prähilbertraum. Wir formulieren die Aussagen einfachheitshalber für Hilberträume. Aus dem Kontext sollte klar sein, wann die Voraussetzung des Hilbertraums zugunsten des Prähilbertraums fallen gelassen werden kann. Wir beginnen zunächst mit einer Zusammenfassung verschiedener Begriffe im Kontext der Orthogonalität.

3.4.1 Orthogonalität Den Begriff der Orthogonalität übertragen wir aus dem Anschauungsraum über das Skalarprodukt in Vektorräumen. Wir fassen zunächst alle Begriffe zur Orthogonalität in ihren Definitionen zusammen. Als Basisraumstruktur betrachten wir Hilberträume, obwohl dies, wie erwähnt, nicht für alle Aussagen nötig ist. Definition 3.15 (Orthogonalität). Sei H ein Hilbertraum und W, W′ ⊂ H Unterräume. Die Vektoren v, v′ ∈ H heißen orthogonal (v ⊥ v′ ), wenn gilt: ⟨v|v′ ⟩ = 0. Wir schreiben v ⊥ W, wenn ⟨v|w⟩ = 0, ∀w ∈ W. Zwei Unterräume W, W′ ⊂ H heißen orthogonal (W ⊥ W′ ), wenn: ⟨w|w′ ⟩ = 0, ∀w ∈ W, w′ ∈ W′ . Den Unterraum W⊥ := {v ∈ H | v ⊥ W} nennen wir den Orthogonalraum von W. ◼ Aus Teilräumen, bzw. Untervektorräumen können neue Untervektorräume konstruiert werden. Dazu definieren wir: Definition 3.16 (Direkte und orthogonale Summe). Sind W und W′ Teilräume von V, dann nennen wir

3.4 Orthogonale Funktionensysteme

� 167

W ⊕ W′ := {w + w′ | w ∈ W, w′ ∈ W′ , W ∩ W′ = {0}}, die direkte Summe und nennen sie orthogonale Summe, falls W ⊥ W′ gilt und schreiben dann W W′ . Für den durch eine direkte Summe von Unterräumen Wi=1,2,... ⊂ H aufgespannten Unterraum, schreiben wir verallgemeinernd: ⟨w1 , w2 , . . .⟩ := ⨁ Wi , i

wi ∈ Wi .



Definition 3.17 (Orthogonal- und Orthonormalsystem). Die abzählbare Teilmenge {vi }i=1,2,... ⊂ H nennen wir ein Orthogonalsystem, wenn paarweise gilt: vi ⊥ vj , i ≠ j. Gilt zusätzlich ⟨vi | vj ⟩ = δij , so nennen wir dies ein Orthonormalsystem (ONS). ◼ Es folgt unmittelbar der aus der linearen Algebra bekannte Satz über die lineare Unabhängigkeit eines Basissystems. Lemma 3.4. Jede Teilmenge eines Orthonormalsystems ist linear unabhängig. Beweis. Sei eine beliebige Teilmenge {vi1 , vi2 , . . . , vin } eines Orthonormalsystems gegeben, dann folgt aus 0 = ∑nl=1 αl vil , αl ∈ ℂ: 󵄨󵄨 n n n 󵄨󵄨 0 = ⟨vik 󵄨󵄨󵄨 ∑ αl vil ⟩ = ∑ αl ⟨vik | vil ⟩ = ∑ αl δkl = αk . 󵄨󵄨 l=1 l=1 󵄨 l=1 Ebenso folgt die Verallgemeinerung des Satzes von Pythagoras: Lemma 3.5 (Pythagoras). Für ein Orthogonalsystem {vi }i=1,...,n ⊂ H gilt: 󵄩󵄩 n 󵄩󵄩2 n 󵄩󵄩 󵄩 󵄩󵄩∑ vi 󵄩󵄩󵄩 = ∑ ‖vi ‖2 . 󵄩󵄩 󵄩󵄩 󵄩󵄩i=1 󵄩󵄩 i=1 Beweis. 󵄩󵄩 󵄩󵄩2 󵄨󵄨 󵄩󵄩 󵄩 󵄨 2 2 󵄩󵄩 ∑ vi 󵄩󵄩󵄩 = ⟨∑ vi 󵄨󵄨󵄨 ∑ vj ⟩ = ∑⟨vi | vj ⟩ = ∑ δij ‖vi ‖ = ∑ ‖vi ‖ . 󵄩󵄩 󵄩󵄩 󵄨󵄨 i i j i,j i,j i 3.4.2 Spezielle orthonormale Funktionensysteme Betrachten wir wichtige Beispiele aus der Physik, die im Folgenden noch von Bedeutung sind. Die hier betrachteten Funktionensysteme3 bilden Orthogonal- oder Orthonormalsysteme und stellen nur eine kleine Auswahl dar, die jedoch wichtig sind in den einführenden Vorlesungen der Elektrodynamik und Quantenmechanik. 3 Wir verwenden die Standardnotation aus [27].

168 � 3 Grundlagen der Funktionalanalysis Wir werden die Orthogonalitätseigenschaften der Funktionensysteme alle explizit nachrechnen, da die Rechnungen oft instruktiv sind und wir den Umgang mit den Funktionen üben. Wir beginnen mit den trigonometrischen Funktionen. 3.4.2.1 Trigonometrische Funktionen Lemma 3.6. Sei H = ⟨L([a, b]), ⟨⋅ | ⋅⟩⟩ dann ist en (t) :=

1 2π n exp(i t), √b − a b−a

n ∈ ℤ,

(3.11)

ein ONS mit Skalarprodukt b

⟨f | g⟩ := ∫ dt f ̄(t)g(t). a

Beweis. Für m = n gilt offenbar ‖en ‖2 = ⟨en | en ⟩ = 1, betrachten wir m ≠ n: b

⟨em | en ⟩ = = =

1 2π(n − m) t) ∫ dt exp(i b−a b−a a

b 2π(n − m) 󵄨󵄨󵄨󵄨 i exp(i t)󵄨󵄨 󵄨󵄨a 2π(m − n) b−a

iei2π(n−m)a/(b−a) i2π(n−m) (e − 1) = 0. 2π(m − n)

Ein häufig vorkommender Fall ist gegeben durch b = −a = π, dann gilt: en (t) =

eint . √2π

Aus den komplexen Funktionen en (t) lassen sich auch reelle Orthonormalsysteme der cos- und sin-Funktionen bilden. Diese werden wir später im Abschnitt 4.1 noch ausführlich diskutieren. 3.4.2.2 Legendre-Polynome und -Funktionen Lemma 3.7. Sei H = ⟨L([−1, +1]), ⟨⋅ | ⋅⟩⟩, dann führen die Legendre-Polynome Pn (t) :=

1 dn 2 n (t − 1) , n n 2 n! dt

n ∈ ℕ0 ,

auf das ONS der Legendre-Funktionen 1 ηn (t) := √n + Pn (t), 2

3.4 Orthogonale Funktionensysteme

� 169

wobei das Skalarprodukt definiert ist als +1

⟨f | g⟩ := ∫ dt f (t)g(t). −1

Beweis. Wir betrachten zunächst allgemein: +1

⟨f | Pn ⟩ = ∫ dt f (t)Pn (t) = −1

n

+1

1 d n ∫ dtf (t)( ) (t 2 − 1) 2n n! dt −1

n

n

+1

(−1) n d = n ∫ dt(t 2 − 1) ( ) f (t). 2 n! dt −1

Setzen wir für f (t) = Pn (t) ein, dann erhalten wir 2

‖Pn ‖ =

+1

∫ dtPn2 (t) −1

2n

(−1)n n d n = n 2 ∫ dt(t 2 − 1) ( ) (t 2 − 1) dt (2 n!) +1

−1

(−1)n (2n)! n = ∫ dt(t 2 − 1) (2n n!)2 +1

π

=

−1

(2n)! ∫ dτ sin2n+1 τ (2n n!)2 0

=

π

(2n)! 2n 2n − 2 2 ⋅ ⋅ ⋅ ∫ dτ sin τ 3 (2n n!)2 2n + 1 2n − 1 0

2 = . 2n + 1

Das bedeutet, die Legendre’schen Funktionen ηn (t) sind normiert: ‖ηn ‖2 = 1. Es bleibt noch die Orthogonalität zu zeigen. Hierzu betrachten wir ohne Einschränkung der Allgemeinheit m < n, und setzen f (t) = t m : +1

+1

−1

−1

n

⟨t m | Pn ⟩ = ∫ dtt m Pn (t) = ∫ dt(t 2 − 1) (

n

d ) t m = 0. dt

Da Pn ein Polynom der Ordnung n ist, folgt die Orthonormalität ⟨ηm | ηn ⟩ = δmn , da Pm nur Monome t m mit m < n enthält. Die Legendre’schen Polynome sind wichtig bei der Entwicklung von Kugelwellen und treten vielfach im Bereich der Quantenmechanik und Elektrodynamik auf. In Abschnitt 4.2.1 werden diese Funktionen eingehend weiter diskutieren.

170 � 3 Grundlagen der Funktionalanalysis 3.4.2.3 Hermite-Polynome und -Funktionen Lemma 3.8. Sei H = ⟨L(ℝ), ⟨⋅ | ⋅⟩⟩, dann führen die Hermite-Polynome Hn (t) := (−1)n et

2

dn −t2 e , dt n

n ∈ ℕ0 ,

auf das ONS der Hermite-Funktionen t2

ψn (t) :=

e− 2

√2n n!√π

Hn (t),

(3.12)

wobei das Skalarprodukt definiert ist als: +∞

⟨f | g⟩ := ∫ dt f (t)g(t). −∞

Beweis. Aus der Definition ist klar, dass Hn (t) ein Polynom n-ter Ordnung ist. Wir nehmen ohne Einschränkung n ≥ m an und schreiben mit cn := √2n n!√π: +∞

2 1 ⟨ψm | ψn ⟩ = ∫ dt e−t Hm (t)Hn (t) cm cn

−∞ +∞

=

n

2 d (−)n ∫ dt Hm (t)( ) e−t cm cn dt

−∞ +∞

=

n

2 d 1 ∫ dt e−t ( ) Hm (t). cm cn dt

−∞

Im letzten Schritt haben wir eine n-fache partielle Integration durchgeführt und beachtet, dass an den Grenzen die Terme aufgrund der Exponentialfunktion verschwinden. Des Weiteren ist n ≥ m und Hm ein Polynom der Ordnung m. Deswegen verschwindet das Skalarprodukt für n > m. Betrachten wir n = m, so folgt: n

2 2 d 2n n! 1 ⟨ψm | ψn ⟩ = 2 ∫ dt e−t ( ) Hn (t) = 2 ∫ dt e−t = 1. dt cn cn

+∞

−∞



−∞

Hermite-Polynome treten in der Quantenmechanik als Eigenfunktionen des harmonischen Oszillators auf. Ebenso Anwendung finden sie in der numerischen Mathematik im Bereich der Finiten-Elemente-Methode als sogenannte Formfaktoren. In Abschnitt 4.2.2 werden wir diese Funktionen eingehend weiter diskutieren.

3.4 Orthogonale Funktionensysteme



171

3.4.2.4 Laguerre-Polynome und -Funktionen Lemma 3.9. Sei H = ⟨L([0, ∞]), ⟨⋅ | ⋅⟩⟩, dann führen die Laguerre-Polynome Ln (t) := et

dn n −t (t e ), dt n

n ∈ ℕ0 ,

(3.13)

auf das ONS der Laguerre-Funktionen: t

φn (t) :=

e− 2 L (t), n! n

wobei das Skalarprodukt definiert ist als: +∞

⟨f | g⟩ := ∫ dt f (t)g(t). 0

Beweis. Aus der Definition ist wiederum klar, dass Ln (t) ein Polynom n-ter Ordnung ist. Wir nehmen ohne Einschränkung n ≥ m an, dann folgt analog dem bisherigen Vorgehen: ∞

1 ⟨φm | φn ⟩ = ∫ dt e−t Lm (t)Ln (t) m!n! =

=

0 ∞

n

0 ∞

n

d 1 ∫ dt Lm (t)( ) (t n e−t ) m!n! dt d (−)n ∫ dt t n e−t ( ) Lm (t). m!n! dt 0

Für n > m verschwindet dies, da Lm (t) ein Polynom m-ter Ordnung, betrachten wir also m = n: (−)n 1 ⟨φn | φn ⟩ = ∫ dt t n e−t (−)n n! = ∫ dt t n e−t = 1. n! (n!)2 ∞



0

0

Die Laguerre’schen Funktionen gehen ein in die Eigenfunktionen der Schrödingergleichung des Wasserstoffatoms. In Abschnitt 3.4.2.4 werden diese Funktionen eingehend weiter diskutieren. Die Laguerre-Polynome können noch weiter zu verallgemeinerten Laguerre-Polynomen erweitert werden, die dann wiederum in Beziehung zu den Hermite-Polynomen stehen. Siehe hierzu die Ausführungen und Darstellungen in [25].

172 � 3 Grundlagen der Funktionalanalysis 3.4.2.5 Tschebyscheff-Polynome Lemma 3.10. Sei H = ⟨L2 ([−1, 1]), ⟨⋅ | ⋅⟩⟩, dann führen die Tschebyscheff-Polynome Tn (t) := cos(n arccos t),

n ∈ ℕ,

auf das ONS der Tschebyscheff-Funktionen: 2 τn (t) := √ Tn (t). π wobei das Skalarprodukt definiert ist als: +1

⟨f | g⟩w := ∫ dt w(t) f (t)g(t),

w(t) :=

−1

1 . √1 − t 2

Beweis. Es gilt für n, m > 0: ⟨τn | τm ⟩ =

+1

2 ∫ dtw(t) Tn (t)Tm (t) π −1

+1

=

2 1 cos(n arccos t) cos(m arccos t) ∫ dt π √1 − t 2 −1 π

=

2 ∫ dt cos(nt) cos(mt) = δnm . π 0

Die Tschebyscheff-Funktionen spielen an verschiedener Stelle in der numerischen Physik bei der Berechnung von Integralen eine bedeutende Rolle. Es gibt noch eine Vielzahl von weiteren orthogonalen Polynomen, die an verschiedener Stelle in der Physik vorkommen. Eine erweiterte Übersicht über die wichtigsten Eigenschaften findet sich im Handbook of Mathematical Functions [25]. Es stellt sich die Frage, wie man für einen gegebenen Hilbertraum ein Orthonormalsystem konstruiert? Diese Frage beantwortet der nachfolgende Satz. Satz 3.4 (Gram-Schmidt Orthonormalisierungsverfahren). Es sei ein linear unabhängiges System von Vektoren {v1 , . . . , vn } ⊂ H gegeben. Dann bilden die Vektoren ẽ1 := v1 ,

l

ẽl+1 := vl+1 − ∑ ei ⟨ei | vl+1 ⟩, i=1

l = 1, . . . , n − 1,

ein Orthogonalsystem und die Vektoren ei := eĩ /‖ei ‖, i = 1, . . . , n ein Orthonormalsystem mit ⟨v1 , . . . , vn ⟩ = ⟨e1 , . . . , en ⟩.

3.4 Orthogonale Funktionensysteme

� 173

Beweis. Sei e1 := v1 /‖v1 ‖ und ein ONS {ei }i=1,...,l m: 1

2m −1

⟨rm | rn ⟩ = ∫ dt rm (t)rn (t) = ∑

k=0

0 2m −1

= ∑ (−)k k=0

(k+1)/2m



(k+1)/2m



dt rn (t)(−)k

k/2m

dt rn (t) = 0.

k/2m ⏟⏟⏟⏟⏟⏟⏟⏟⏟⏟⏟⏟⏟⏟⏟⏟⏟⏟⏟⏟⏟⏟⏟⏟⏟⏟⏟ =0

Mit rn2 (t) = 1, ∀t, folgt ⟨rm | rn ⟩ = δmn . Damit bilden die rn ein ONS aber keine ONB. Um dies zu zeigen, beachten wir die Antisymmetrie bzgl. t = 1/2: rn (1 − t) = sign(sin(2n π(1 − t))) = sign(− sin(2n πt)) = −rn (t). Damit folgt für eine bzgl. t = 1/2 geraden Funktion f (t) für alle Skalarprodukte: 1/2

1

⟨f | rn ⟩ = ∫ dt f (t)rn (t) + ∫ dt f (t)rn (t) 0

1/2

1/2

= ∫ dt (f (t)rn (t) + f (1 − t)rn (1 − t)) = 0. 0

Das bedeutet, die Summe (3.14) ist gleich null. Schauen wir uns als Beispiel die Funktion f (t) = t an und entwickeln diese Funktion nach den Rademacher-Funktionen rn (t). Dazu benötigen wir die Fourierkoeffizienten: 1

2n −1

k

⟨t | rn ⟩ = ∫ dt trn (t) = ∑ (−) k=0

0

(k+1)/2n

∫ k/2n

2n −1

dt t = ∑ (−)k k=0

2k + 1 (−)1+δ0n = . 2n+1 22n+1

Daraus folgt für die Entwicklung von f (t) = t: t=

∞ sign(sin(2n πt)) 1 ∞ rn (t) − ∑ n+1 = 1 − ∑ . 2 n=1 2 2n+1 n=0

Des Weiteren gilt ‖t‖2 = 1/3, aber ebenso: ∞

1 1 1 1 = = . n+1 4 1 − 1/4 3 4 n=0 ∞

∑ |⟨t | rn ⟩|2 = ∑

n=0

Damit kann die Funktion f (t) = t durch die Rademacher-Funktionen ausgedrückt werden. In der Abbildung ist die Approximation mit den ersten 4 Rademacher-Funktionen r0 , . . . , r3 als f3 (t) dargestellt. Wie aus der Analogie zu den trigonometrischen

3.4 Orthogonale Funktionensysteme

� 179

Funktionen zu vermuten ist, lassen sich die Rademacher-Funktionen auf L2 ([0, 1]) durch Hinzufügen von Funktionen sign(cos(2n πt)) vervollständigen. Die RademacherFunktionen werden in verschiedenen Bereichen der Informatik und Informationsverarbeitung gebraucht. ⬦ Die hier vorgestellten und diskutierten Orthonormalbasen sind gekennzeichnet durch ein abzählbar und gegebenenfalls unendlich dimensionales System von Funktionen. Diese Eigenschaft erlaubt es einem, jedes Element des Raumes durch eine Linearkombination von Elementen darzustellen. Hier stellt sich die Frage, ist das in jedem Hilbertraum (Banachraum) möglich? Es stellt sich heraus, dass es dazu eine zusätzliche Eigenschaft benötigt, die Separabilität. Diese Eigenschaft werden wir im folgenden Kapitel kurz diskutieren, ohne dabei zu sehr ins Detail zu gehen. 3.4.4 Separabilität* Kommen wir zur letzten hier vorgestellten Eigenschaft von normierten Räumen, der Separabilität. Wir werden diese Eigenschaft nicht ausführlich diskutieren, da von ihr in den uns interessierenden Fälle nicht viel abhängt. Für eine eingehende Diskussion und Beweise schaue man in den Lehrbüchern [30, 32] nach. Definition 3.19. Ein normierter Raum (V, ‖⋅‖) heißt separabel, wenn es in V eine abzählbare dichte Teilmenge W gibt, d. h. ∀ϵ > 0, v ∈ V existiert ein vϵ ∈ W mit ‖v − vϵ ‖ < ϵ. In der Quantenmechanik haben wir es fast ausschließlich mit separablen Hilberträumen zu tun und oftmals wird der Hilbertraum in der Quantenmechanik automatisch als separabler Hilbertraum aufgefasst, genauer gesagt besitzt diese Eigenschaft. Die wichtigste Eigenschaft für die Quantenmechanik von separablen Hilberträumen ist die Existenz von Orthonormalbasen. Bevor wir dies zeigen, betrachten wir Beispiele für separable und nicht separable normierte Räume, ohne in allen Fällen im Detail auf die Beweise einzugehen. Beispiel 3.14. (i) (𝕂n , ‖⋅‖2 )(𝕂n = ℝn , ℂn ) ist separabel, da die Menge ℚ abzählbar dicht in ℝ liegt. (ii) (ℓ2 , ‖⋅‖2 ) ist separabel. Um dies zu zeigen, betrachten wir einen beliebigen Vektor α ∈ ℓ2 und konstruieren eine abzählbar dichte Teilmenge wie folgt: Sei α̂ n = (α̂ 1 , α̂ 2 , . . . , α̂ n , 0, 0, . . .) mit α̂ k = pk + iqk , pk , qk ∈ ℚ. Dies ist eine abzählbare Teilmenge aus ℓ2 , um zu zeigen, dass sie dicht ist, betrachten wir n

2



2

1/2

‖α − α‖̂ 2 = ( ∑ |αk − α̂ k | + ∑ |αk | ) , k=1

k=n+1

und zeigen, dass diese Größe beliebig kleiner als ein vorgegebenes ϵ > 0 gemacht werden kann. Die α̂ k sind dicht in ℂ und können immer so gewählt werden, dass für

180 � 3 Grundlagen der Funktionalanalysis ϵ > 0 und |αk − α̂ k | < ϵ/√2n für alle k = 1, . . . , n gilt. Des Weiteren kann die zweite Summe durch ein hinreichend großes n immer kleiner als ϵ2 /2 gemacht werden, so dass insgesamt folgt: n

2

1/2

2

‖α − α‖̂ 2 < ( ∑ ϵ /2n + ϵ /2) k=1

= ϵ.

(iii) Der Raum der beschränkten Folgen (l∞ , ‖⋅‖∞ ) ist nicht separabel. Die Norm ist in diesem Fall gegeben durch: ∞

‖α‖∞ := sup |αn |, n=1

α = (α1 , α2 , . . .), αi < ∞.

Gehen wir genauso vor wie zuvor, dann müssten wir ‖α − α‖̂ ∞ , kleiner als ein vorgegebenes ϵ > 0 machen. Betrachten wir dazu α = (α1 , α2 , . . .), αi ∈ {0, 1}, also: ‖α‖∞ = supk |αk | = 1 und damit α ∈ l∞ . Nun sei eine irrationale Zahl x ∈ [0, 1] gegeben, diese Zahl kann geschrieben werden als: αk , k k=1 2 ∞

x=∑

mit eindeutig bestimmten α. Damit gibt es eine Zuordnung [0, 1[ ∋ x 󳨃→ α ∈ l∞ und es gilt analog zum vorherigen Beispiel: ∞



k=1

n=k+1

‖α − α‖̂ ∞ = sup |αk − α̂ k | = sup |αn | = 1. Die Größe ‖α − α‖̂ ∞ kann demnach nicht klein gemacht werden, wie im Fall lp . Es sei noch bemerkt, dass aufgrund der Zuordnung ℝ ∋ x 󳨃→ l∞ der Raum l∞ nicht abzählbar ist. (iv) L(ℝ) ist separabel. Dies kann mit Hilfe des Weierstraß’schen Approximationssatzes gezeigt werden. (v) (Lp ([a, b]), ‖⋅‖p ), 1 ≤ p < ∞ ist separabel, nicht aber (L∞ ([a, b]), ‖⋅‖∞ ). (vi) (𝒞 ([a, b]), ‖⋅‖p ) ist separabel, als dichte Teilmenge von L([a, b]). ⬦ Das Besondere an separablen Hilberträumen gibt das folgende Lemma wieder. Lemma 3.15. In jedem separablen Hilbertraum H existiert eine ONB. Beweis. Wir skizzieren den Beweis5 hier nur. Sei H separabel, dann existiert eine abzählbar dichte Teilmenge {v1 , v2 , . . .}. Induktiv wähle man die Elemente {vi1 , vi2 , . . .} mit kleinstem Index aus, sodass das entstehende System linear unabhängig ist. Jeder der

5 Für den detaillierten Beweis verweisen wir auf [32].

Aufgaben

� 181

Vektoren vi lässt sich dann als Linearkombination der vji darstellen, das heißt die Linearkombinationen liegen selbst dicht in H. Mit dem Gram-Schmidt’schen Orthogonalisierungsverfahren, angewendet auf das System {vi1 , vi2 , . . .}, erhalten wir ein ONS. Linearkombinationen dieser Vektoren liegen dann selbst wieder dicht in H. Bleibt noch zu zeigen, dass es eine ONB ist. Die Vollständigkeit folgt daraus, dass in separablen Hilberträumen für abzählbar dichte Teilmengen immer n so gewählt werden kann, dass gilt: 󵄩󵄩 󵄩󵄩 n 󵄩󵄩 󵄩 󵄩󵄩v − ∑ ei ⟨ei | v⟩󵄩󵄩󵄩 < ϵ. 󵄩󵄩 󵄩󵄩 󵄩󵄩 󵄩󵄩 i=1 An dieser Stelle sei bemerkt, dass es zu jedem Prähilbertraum H′ eine Vervollständigung H gibt, sodass H′ isomorph zu einem dichten Teilraum von H ist.6 Im Folgenden werden wir nur separable Hilberträume betrachten, so dass wir immer eine ONB haben. Oft tritt der Fall auf, wie bei den Fourierreihen, dass der zugrunde liegende Raum nur dicht bezüglich eines bestimmten normierten Raumes ist. Dies reicht aber aus, um auch auf diesen Räumen die Separabilität zu erhalten, wie der folgende Satz zusammenfasst: Satz 3.5. Sei (V, ‖⋅‖) ein normierter Raum und ein Teilraum W von V. Dann ist W separabel, genau dann wenn es eine abzählbare Teilmenge Wϵ ⊂ V gibt, deren lineare Hülle L(Wϵ ) dicht in W ist, wobei die lineare Hülle L(Wϵ ) von Wϵ die endliche Linearkombination ist, die Wϵ enthält. Für den Beweis siehe [32]. Zusammengefasst können wir vereinfachend sagen, ein Hilbertraum ist separabel, wenn er eine endliche oder abzählbar unendliche Basis besitzt und nicht separabel wenn sie überabzählbar ist.

Aufgaben 1.

Zeige, dass für z1 , z2 ∈ ℂ eine Metrik definiert ist durch d(z1 , z2 ) :=

|z1 − z2 | √(1 + |z1 |2 )(1 + |z2 |2 )

.

Diese Metrik nennt man chordaler Abstand auf der Riemann’schen Zahlenkugel.

6 Vergleiche hierzu [30], Kapitel 24.

182 � 3 Grundlagen der Funktionalanalysis 2.

Zeige die Normaxiome der Matrixnormen (A ∈ 𝕂m×n ): ‖A‖M := max |aij |, i=1,...,m j=1,...,n

m n

‖A‖F := √∑ ∑ |aij |2 , i=1 j=1

‖A‖2 := max ‖Av‖2 , ‖v‖2 =1

n

‖A‖∞ := max ‖Av‖∞ = max ∑ |aij |, ‖v‖∞ =1

i=1,...,m

j=1

m

‖A‖1 := max ‖Av‖1 max = ∑ |aij |. ‖v‖1 =1

3.

n

[𝕂 , ‖⋅‖2 ] : p

[ℓ , ‖⋅‖p ]

(1 ≤ p < ∞) :

2

[L ([a, b]), ‖⋅‖p ]

(1 ≤ p < ∞) :

1/2

(x1 , . . . , xn ) ∈ 𝕂n ,

‖x‖2 := (∑ |xl | ) , l=1 ∞

p

1/p

‖α‖p := (∑ |αl | )

(α1 , α2 , . . .) ∈ ℓp ,

,

l=1 b

p

p

1/p

‖f ‖p := (∫ dt |f (t)| )

,

a

[L ([a, b]), ‖⋅‖∞ ] :

‖f ‖∞ := sup |f (t)|,

[𝒞 (n) ([a, b]), ‖⋅‖∞ ] :

‖f ‖∞ := ∑ max |f (ν) (t)|,



5. 6.

i=1

Welche der folgenden Banachräume sind auch Hilberträume: n

4.

j=1,...,n

t∈[a,b]

f ∈ L∞ ([a, b]),

n

ν=0

f ∈ Lp ([a, b]),

t∈[a,b]

f ∈ 𝒞 (n) ([a, b]).

Betrachte die Matrix Maximumsnorm ‖⋅‖M auf 𝕂m×n ∋ A und zeige, dass diese nicht submultiplikativ ist, aber durch die Gesamtnorm ‖A‖G := √nm‖A‖M submultiplikativ wird. Zeige, dass die Matrix Frobeniusnorm ‖⋅‖F submultiplikativ ist. Zeige für eine Hermite’sche Matrix A gilt: ‖A‖22 = max⟨A† Av | v⟩ = λmax (A† A), ‖v‖=1

7.

dabei ist λmax (A† A) der maximale Eigenwert von A† A. Zeige den Satz: Sei A ∈ 𝕂n×n mit Norm ‖A‖ < 1, dann ist 1 − A nicht singulär und die Inverse ist gegeben durch

Aufgaben

� 183



(1 − A)−1 = ∑ An , n=0

mit Norm 1 󵄩󵄩 −1 󵄩 . 󵄩󵄩(1 − A) 󵄩󵄩󵄩 = 1 − ‖A‖ 8.

Zeige den Satz: Sei A ∈ 𝕂n×n nichtsingulär und eine Matrix B = A(1 + F) mit ‖F‖ < 1 und Gleichungssysteme Ax = a,

B(x + δx) = b,

für x, x + δx gegeben, dann gilt: ‖δx‖ ‖F‖ ≤ . ‖x‖ 1 − ‖F‖ Gilt zusätzlich cond(A)‖B − A‖ < ‖A‖, dann gilt ‖δx‖ cond(A)‖B − A‖ ≤ . ‖x‖ ‖A‖ − cond(A)‖B − A‖ 9.

Zeige die Skalarprodukteigenschaften aus dem Beispiel: (ℓ2 , ‖⋅‖2 ) : (𝒞 ([a, b]), ‖⋅‖w 2):

⟨α | β⟩ := ∑ ᾱ n βn , n

(α1 , α2 , . . .), (β1 , β2 , . . .) ∈ ℓ2 ,

b

⟨f | g⟩ := ∫ dtw(t)f ̄(t)g(t), a

f , g ∈ 𝒞 ([a, b]).

10. Wir betrachten eine spezielle Schreibweise in der Physik in Hilberträumen mit einer ONB {ei }i∈𝕀 . Dort werden insbesondere in der Quantenmechanik diese Elemente durch Ket-Vektoren |ej ⟩ benannt. Die Elemente aus dem Dualraum mit Bra-Vektoren ⟨ei | = |ei ⟩† . Dann gilt für das Skalarprodukt ⟨ei | ej ⟩ = δij , i, j ∈ 𝕀, mit einer endlichen oder unendlichen Indexmenge 𝕀. Insbesondere werden Projektionsoperatoren definiert als: 󵄨 󵄨 P𝕀′ := ∑ 󵄨󵄨󵄨ei ⟩⟨ei 󵄨󵄨󵄨, i∈𝕀′

𝕀′ ⊂ 𝕀.

Zeige mithilfe dieser Schreibweise die folgenden Eigenschaften: (i) P†𝕀′ = P𝕀′ ,

P2𝕀′ = P𝕀′

(ii) [P𝕀1 , P𝕀2 ] = 0,

(iii) 1 = P𝕀 .

𝕀1 ∩ 𝕀2 = 0,

𝕀1 , 𝕀2 ⊂ 𝕀,

184 � 3 Grundlagen der Funktionalanalysis 11. Zeige, dass das System cn (t) :=

2πn 1 cos( t), √b − a b−a

auf ⟨L([a, b]), ⟨⋅ | ⋅⟩⟩ ein ONS bildet.

sn (t) :=

2πn 1 sin( t), √b − a b−a

n = 0, 1, 2, . . .

4 Orthogonale Funktionen In diesem Kapitel betrachten wir verschiedene orthogonale Funktionensysteme. Dabei liegt der Schwerpunkt der Betrachtungen, nicht wie in Abschnitt 3.4 auf den theoretischen Aspekten orthogonaler Funktionensysteme, sondern mehr auf anwendungsorientiert Aussagen, so wie sie in der Praxis gebraucht werden. Deswegen werden die Sätze auch nicht in ihrer größtmöglichen Allgemeinheit formuliert und die geführten Beweise auch nicht die Rigorosität besitzen, die möglich wäre. Die Auswahl der betrachteten diskutierten Funktionensysteme orientiert sich am Bedarf der Inhalte der Physik in den einführenden Veranstaltungen. Zunächst werden wir das System der Fourierfunktionen diskutieren und dabei den Schwerpunkt auf den Fourierreihen legen und aufbauend darauf zum FourierIntegraltheorem und der Fourier-Transformation zu gelangen. Die praxisrelevanten Eigenschaften der zuvor diskutieren orthogonalen Polynome werden im Anschluss diskutiert. Zum Ende des Kapitels werden wir Kugelflächenfunktionen auf Basis der Legendre-Funktionen einführen. In den Lehrbüchern Fourier series and orthogonal functions von H. F. Davis [37] und Fourier Series von G. P. Tolstov [38] finden sich weiterführende Diskussionen und Anwendungen.

4.1 Fourierreihen und Fourier-Integrale Fourierreihen bilden ein besonders wichtiges Werkzeug in der Physik, deswegen werden wir diese ausführlich diskutieren und viele Beweise, die zum Teil rechenintensiv sind explizit durchführen. Als Erstes benötigen wir den Begriff und die Eigenschaften stückweiser stetiger Funktionen. 4.1.1 Stückweise stetige Funktionen Wir betrachten im Folgenden den Funktionenraum L([a, b]) oder gegebenenfalls den Raum der stückweise stetigen Funktionen, den wir in der folgenden Form benötigen. Definition 4.1 (stückweise stetig). Der Raum der stückweise stetigen Funktionen C([a, b]) auf einem Intervall [a, b] ist der Raum der Funktionen, die stetig in den Intervallen ]tk , tk+1 [, k = 1, . . . , n − 1 sind, mit a = t1 < t2 < ⋅ ⋅ ⋅ < tn = b und deren linksund rechtsseitige Grenzwerte f (t ± ) := lim0 0, dann folgt:

󵄨󵄨 b 󵄨󵄨 b 󵄨󵄨 󵄨 󵄨󵄨∫ dt [f (t) − fϵ (t)]eiνt 󵄨󵄨󵄨 ≤ ∫ dt 󵄨󵄨󵄨f (t) − fϵ (t)󵄨󵄨󵄨 󵄨󵄨󵄨eiνt 󵄨󵄨󵄨 < ϵ. 󵄨󵄨 󵄨󵄨 󵄨 󵄨󵄨 󵄨 󵄨󵄨 a 󵄨󵄨 a Die rechte Seite ist unabhängig von ν, die linke Seite kann beliebig klein gemacht werden. Die Existenz der Funktion fϵ kann mithilfe des Weierstraß’schen Approximationssatzes gezeigt werden, indem die Funktion fϵ etwa über eine Folge von Polynomen gebildet wird.

4.1 Fourierreihen und Fourier-Integrale

� 187

Die Fälle (4.2b) und (4.2c) erhält man aus (4.2a) für μ = 0 durch Betrachtung von Real- und Imaginärteil. Den Fall μ ≠ 0 erhält man anschließend mit Hilfe der Additionstheoreme für cos und sin. In der Definition (3.11) haben wir das orthogonale trigonometrische Funktionensystem mit einer Periode L = b−a eingeführt. Dieses System verwenden wir, wenn wir periodische oder periodisch fortgesetzte Funktionen mit der Periode L durch Fourierreihen approximieren wollen. Im Folgenden werden wir uns auf das Intervall [a, b] = [−π, +π] beschränken. Die Übertragung auf den allgemeinen Fall ist klar, ebenso die mögliche Verschiebung der Intervallgrenzen. So wird oftmals das Intervall [0, 2π] als Definitionsbereich verwendet. Bevor wir eingehend die Fourierreihen diskutieren, benötigen wir noch einige vorbereitende Hilfssätze. An verschiedenen Stellen werden wir Eigenschaften des DirichletKerns benötigen, deswegen fassen wir die Definition und Eigenschaften zusammen: Lemma 4.2 (Dirichlet-Kern). Der Dirichlet-Kern ist definiert durch: DN (t) :=

1 sin[t(N + 1/2)] , 2π sin(t/2)

t ∈ ℝ,

N ∈ ℕ,

(4.3)

und besitzt die Eigenschaften: DN (t) =

1 +N int ∑ e , 2π n=−N

(4.4a)



∫ dt DN (t) = 1,

−π

(4.4b)

DN (t) = DN (−t),

(4.4c)

DN (0) = (2N + 1)/2π.

(4.4d)

Beweis. Alle Eigenschaften folgen durch Nachrechnen. (a) +N

∑ eint =

n=−N

=

1 − ei(N+1)t 1 − e−i(N+1)t 2 cos(Nt) − 2 cos[(N + 1)t] + −1= 2 − 2 cos t 1 − eit 1 − e−it

2 sin(t/2)[cos(Nt) sin(t/2) + sin(Nt) cos(t/2)] 2 sin2 (t/2)

= DN (t) 2π.

(b) +π



+N 1 1 2πδ0n = 1. ∫ dt DN (t) = ∑ ∫ dt eint = ∑ 2π 2π n=−N n=−N

−π

+N

−π

Die letzten beiden Eigenschaften (c) und (d) sind klar.

188 � 4 Orthogonale Funktionen In der Abbildung 4.1 ist der Dirichlet-Kern für N = 2, 4, 8 dargestellt.

Abb. 4.1: Dirichlet-Kern DN (t). Die Funktion tritt auch bei InterferenzProblemen von ebenen Wellen auf. Abweichend von der hier verwendeten Definition findet man auch die Definition (4.4a) ohne den Faktor 1/2π.

Für die folgenden Rechnungen benötigen wir noch ein Zwischenresultat. Dazu verwenden wir das Riemann-Lemma und Eigenschaften des Dirichlet-Kerns. Für die auf dem Intervall [a, b] = [0, π] stetige Funktion f (t) = 2/t − 1/ sin(t/2), gilt: π

0 = lim ∫ dt sin(νt)f (t)|ν=N+1/2 N→∞

0

π

π

0

0

sin[t(N + 1/2)] sin[t(N + 1/2)] = lim 2 ∫ dt − lim ∫ dt N→∞ N→∞ t sin(t/2) π(N+1/2)

= 2 lim

N→∞

∫ 0

dt

sin t − π. t

Daraus folgt insgesamt: ∞

∫ dt 0

sin t π = . t 2

(4.5)

Des Weiteren benötigen wir die Aussage des folgenden Lemmas, dessen Aussage aber auch für sich stehend nützlich ist.

4.1 Fourierreihen und Fourier-Integrale

� 189

Lemma 4.3. Sei f ∈ C([0, ±b]), b > 0, dann gilt: ±b

sin νt 2 = f (0± ). lim ∫ dt f (t) ν→∞ π t

(4.6)

0

Beweis. Wir zeigen den ‘+’-Fall: b

b

∫ dt f (t) 0

b

f (t) − f (0+ ) sin(νt) sin(νt) = ∫ dt f (0+ ) + ∫ dt sin(νt) t t t 0

0

b



= f (0+ ) ∫ dt

f (t) − f (0+ ) sin t + ∫ dt sin(νt). t t 0

0

Die Funktion h(t) := [f (t) − f (0+ )]/t ist stückweise stetig, da limt→0+ h(t) = df (t)/dt|t=0+ gilt. Deswegen folgt mithilfe der Gl. (4.2c) und Gl. (4.5): b

lim ∫ dt f (t)

ν→∞

0



b

0

0

f (t) − f (0+ ) sin(νt) sin t = f (0+ ) lim ∫ dt + lim ∫ dt sin(νt) ν→∞ ν→∞ t t t π = f (0 ) . 2 +

Der ‘−’-Fall wird ganz analog gezeigt. Dieses Ergebnis verwenden wir, um eine wichtige Aussage für den Dirichlet-Kern abzuleiten. Lemma 4.4. Sei f ∈ C([−π, π]), dann gilt: +π

lim ∫ dt f (t)DN (t) =

N→∞

−π

f (0+ ) + f (0− ) ≡ f (0). 2

Beweis. Sei zunächst N endlich, dann gilt: +π



−π

0

∫ dt f (t)DN (t) = ∫ dt [f (t) + f (−t)]DN (t) +π

f (0+ ) + f (0− ) = + ∫ dt [f (t) − f (0+ ) + f (−t) − f (0− )]DN (t) 2 0

= f (0) +



1 sin[t(N + 1/2)] , ∫ dt [g+ (t) + g− (t)] 2π t 0

(4.7)

190 � 4 Orthogonale Funktionen mit g± (t) ≡ [f (±t) − f (0± )]t/ sin(t/2). Wenden wir nun (4.6) auf die beiden Funktionen g± (t) an und beachten, dass diese Funktionen wiederum stückweise stetig sind, so gilt: limt→0± g± (t) = 0. Zusammen ergibt sich dann: +π



−π

0

1 sin[t(N + 1/2)] lim ∫ dt f (t)DN (t) = f (0) + ∑ lim = f (0). ∫ dt gσ (t) N→∞ N→∞ 2π t σ=± Aus der Gl. (4.7) folgt für das Beispiel 3.12 +π



−π

−π +π



−π

−π

lim ∫ dt ∫ dt ′

N→∞

1 +N in(t′ −t) ̄ f (t)f (t ′ ) ∑ e 2π n=−N

= lim ∫ dt ∫ dt ′ DN (t ′ − t)f ̄(t)f (t ′ ) N→∞ +π

= ∫ dt f ̄(t)f (t) = ‖f ‖2 . −π

Damit ist die Aussage des Beispiels bewiesen und wir schreiben rein formal lim DN (t − t ′ ) = δ(t − t ′ ),

N→∞

und verstehen dies als Gleichung unter dem Integral. Diesen Prozess werden wir im Kapitel 6 als Distribution identifizieren. 4.1.2 Fouriersummen In diesem Abschnitt diskutieren wir Konvergenzeigenschaften von Fourierreihen und führen hierzu Partialsummen ein. Definition 4.2 (Fourierpartialsumme). Sei f ∈ C([−π, π]) und en (t) = eint /√2π, n ∈ ℤ das Fourier-ONS aus (3.11), dann ist die Fourierpartialsumme von f definiert durch: N

f

SN (t) := ∑ en (t)⟨en | f ⟩.



n=−N

Lemma 4.5. Das Fourier-ONS {en } bildet in C([−π, π]) eine Orthonormalbasis. f

Beweis. Wir zeigen die Parseval’sche Gleichung: limN→∞ ‖SN ‖2 = ‖f ‖2 . Hierzu betrachten wir zunächst für ein endliches N die Norm der Fourierpartialsumme: +N

󵄩󵄩 f 󵄩󵄩2 󵄩󵄩SN 󵄩󵄩 = ∑

+N

∑ ⟨f | en ⟩⟨en | en′ ⟩⟨en′ | f ⟩

n=−N n′ =−N

4.1 Fourierreihen und Fourier-Integrale

N





−π +π

−π



−π

−π



+π−t

−π

−π−t

= ∑

n=−N

� 191

′ 1 ∫ dt f ̄(t) ∫ dt ′ f (t ′ )ein(t−t ) 2π

= ∫ dt f ̄(t) ∫ dt ′ f (t ′ )DN (t − t ′ ) = ∫ dt f ̄(t) ∫ dt ′ f (t + t ′ )DN (t ′ ). Die Funktion f (t) ist periodisch, bzw. periodisch fortgesetzt, deswegen kann (4.7) angewendet werden und wir erhalten: +π

+π−t

−π



−π−t +π

−π

−π

󵄩 f 󵄩2 lim 󵄩󵄩󵄩SN 󵄩󵄩󵄩 = lim ∫ dt f ̄(t) ∫ dt ′ f (t + t ′ )DN (t ′ )

N→∞

N→∞

󵄨 󵄨2 = ∫ dt f ̄(t)f (t) = ∫ dt 󵄨󵄨󵄨f (t)󵄨󵄨󵄨 = ‖f ‖2 . f

Im Limes N → ∞ erhält man aus der Fourierpartialsumme SN die Fourierreihe, die dann formal definiert ist durch: Definition 4.3 (Komplexe Fourierreihe). Sei f ∈ C, dann nennen wir die Reihe +∞

f S∞ (t) := ∑ en (t)⟨en | f ⟩, n=−∞

die komplexe Fourierreihe der Funktion f (t).



Aus der komplexen Fourierreihe bilden wir die reellen Fourierreihen, die wir oft verwenden, wenn die darzustellende Funktion eine ungerade oder gerade Funktion ist. Dies fassen wir zusammen: Lemma 4.6 (Reelle Fourierreihe). Sei f (t) eine ungerade Funktion [f (t) = −f (−t)] aus C, dann gilt: ∞

f S∞ (t) = ∑ sn (t)⟨sn | f ⟩, n=1

mit sn (t) :=

1 sin(nt), √π

und für eine gerade Funktion [f (t) = f (−t)] aus C gilt: ∞ 1 f S∞ (t) = c0 ⟨c0 | f ⟩ + ∑ cn (t)⟨cn | f ⟩, 2 n=1

mit cn (t) :=

1 cos(nt). √π

192 � 4 Orthogonale Funktionen Beweis. Sei zunächst f (t) = −f (−t), dann gilt mit sn (t) = sin(nt)/√π: f S∞ (t ′ )



1 ∞ int′ = ∑ e ∫ dt e−int f (t) 2π n=−∞ −π π



=

′ −i ∑ eint ∫ dt sin(nt)f (t) π n=−∞

=

−i2 2 ∑ sin(nt ′ ) ∫ dt sin(nt)f (t) π n=1

0



π

0





n=1

−π

= ∑ sn (t ′ ) ∫ dt sn (t)f (t). Entsprechend verfahren wir für den Fall f (t) = f (−t): f S∞ (t ′ )

π

1 ∞ int′ = ∑ e ∫ dt cos(nt)f (t) π n=−∞ 0

π



=

2 ∞ 1 ∫ dt f (t) + ∑ cos(nt ′ ) ∫ dt cos(nt)f (t) π π n=1 0 +π

=

0 +π

c0 ∫ dt c0 f (t) + ∑ cn (t ′ ) ∫ dt cn (t)f (t). 2 n=1 ∞

−π

−π

Diese Reihen konvergieren punktweise gegen die Funktion f (t) in den offenen Teilintervallen in der die Funktion f stetig ist.1 Sie konvergieren aber nicht notwendig gleichmäßig gegen f (t), wie das Gibb’sche Phänomen zeigt, welches wir an einer Beispielfunktion illustrieren. Lemma 4.7 (Gibb’sches Phänomen). Sei die periodisch fortgesetzte Funktion: h(t) :=

α +(π − t) { 2 −(π + t)

: t > 0, : t < 0,

α > 0,

(4.8)

gegeben und besitze an der Stelle t = 0 eine Sprungstelle der Weite d = απ, dann gilt im Limes: lim SNh (tN ) = αSi (π),

N→∞

tN = 2π/(2N + 1),

1 Ein umfangreiches Tabellenwerk der verschiedenen Fourier-Transformationen ist die Referenz: [39].

4.1 Fourierreihen und Fourier-Integrale

� 193

wobei x

Si(x) := ∫ dt 0

sin t t

der Integralsinus ist, mit dem speziellen Wert: Si(π) = 1.8519370 . . . =

π ⋅ 1.17897 . . . 2

Beweis. Zunächst drücken wir die Partialsumme SNh (t) durch den Dirichlet-Kern aus und beachten, dass gilt h(t) = −h(−t), dann folgt: SNh (t ′ )

π

π

2 N α N = ∑ sin(nt ′ ) ∫ dt sin(nt)h(t) = ∑ sin(nt ′ ) ∫ dt sin(nt)(π − t) π n=1 π n=1 0

0

′ N t

=

t′

2πDN (t) − 1 απ N sin(nt ′ ) = α ∑ ∫ dt cos(nt) = α ∫ dt . ∑ π n=1 n 2 n=1 0

0

Im nächsten Schritt setzen wir explizit die Darstellung des Dirichlet-Kerns ein und separieren das Verhalten bei t ′ = 0: t′

α sin[t(N + 1/2)] t′ SNh (t ′ ) = ∫ dt −α 2 sin(t/2) 2 0

t′

t′

sin[t(N + 1/2)] α 1 2 t′ = α ∫ dt + ∫ dt sin[t(N + 1/2)][ − ]−α t 2 sin(t/2) t 2 0

0

t′

= αSi(t ′ (N + 1/2)) +

α 1 2 t′ − ]−α . ∫ dt sin[t(N + 1/2)][ 2 sin(t/2) t 2 0

Für 0 < t ≤ π ergibt sich hiermit durch Einsetzen von h(t): SNh (t) − h(t) = α(Si(t(N + 1/2)) − t

π ) 2

α 1 2 + ∫ dt ′ sin[t ′ (N + 1/2)][ − ′ ]. ′ 2 sin(t /2) t 0

Wir bestimmen zunächst das Maximum, welches am nächsten bei t = 0 liegt. Hierzu sind die Nullstellen t0 der Funktion dSNh (t)/dt zu bestimmen: 0=

dSNh (t) 󵄨󵄨󵄨󵄨 2πDN (t0 ) − 1 sin(Nt0 /2) cos((N + 1)t0 /2) =α . 󵄨󵄨 = α 󵄨 dt 󵄨t0 2 sin(t0 /2)

194 � 4 Orthogonale Funktionen Das gesuchte Maximum liegt an der Stelle t0 = tN ≡ π/(N + 1). Setzen wir diesen Wert in SNh (t) ein, so folgt: tN

SNh (tN ) − h(tN ) π 1 1 2 = Si(π(N + 1/2)/(N + 1)) − + ∫ dt sin[t(N + 1/2)][ − ]. α 2 2 sin(t/2) t 0

Im Limes N → ∞ verschwindet das Integral, da limN→∞ tN = 0 und der Klammerterm bei t = 0+ verschwindet. Somit ergibt sich insgesamt: SNh (tN ) − h(tN ) π = Si(π) − . N→∞ α 2 lim

In Abbildung 4.2 ist das Verhalten der Fourierpartialsummen SNh (t) für verschiedene Werte von N dargestellt.

Abb. 4.2: Fourierpartialsumme SNh (t) für N = 8, 32, 128 und h(t) = (π − t)/2. Der Punkt × markiert den Wert limN→∞ SNh (tN ).

Die Fourierreihe der Funktion h(t) überschießt damit in der Nähe des Ursprungs und nimmt einen Wert bei 0+ an, der um einen Faktor 1.17… höher liegt als der Funktionswert der Funktion h(0+ ). Es wird allerdings der vereinbarte Wert (4.1) an der Stelle t = 0 nicht verändert, denn hier gilt: SNh (0) = h(0) = 0. Dieses Verhalten der Fouriersumme ist ein allgemeines Verhalten, welches an Sprungstellen von stückweise stetigen Funktionen immer auftaucht. Im nächsten Abschnitt konstruieren wir eine Reihe, die verbesserte Konvergenzeigenschaften besitzt.

4.1 Fourierreihen und Fourier-Integrale

� 195

4.1.3 Der Satz von Fejér Bevor wir zur Konstruktion einer verbesserten Fourrierreihe kommen, diskutieren wir zunächst wichtige Eigenschaften des Fejér-Kerns. Diese Funktion ist ein Beispiel einer Darstellung der δ-Distribution, die wir im nächsten Abschnitt dann genauer studieren. Lemma 4.8 (Fejér-Kern). Der Fejér-Kern ist definiert durch FN (t) :=

2

1 1 sin(tN/2) ( ), 2π N sin(t/2)

t ∈ ℝ,

N ∈ ℕ.

(4.9)

Der Fejér-Kern hat die folgenden Eigenschaften für alle N ∈ ℕ: FN (t) =

1 N−1 ∑ D (t), N n=0 n

(4.10a)



∫ dt FN (t) = 1,

−π

(4.10b)

FN (t) = FN (−t),

(4.10c)

N FN (0) = , 2π +π

lim ∫ dt ′ FN (t − t ′ )f (t ′ ) = f (t),

N→∞

(4.10d) f ∈ C([−π, π]).

(4.10e)

−π

Beweis. Betrachten wir die Eigenschaften im Einzelnen: (a) N−1

N−1

n=0

n=0

∑ Dn (t) = ∑ =

N−1 1 sin[t(n + 1/2)] 1 = ∑ sin[t(n + 1/2)] sin(t/2) 2 2π sin(t/2) 2π sin (t/2) n=0

1

2

4π sin (t/2)

N−1

∑ (cos(nt) − cos[(n + 1)t]) =

n=0

1 − cos(Nt)

4π sin2 (t/2)

= NFN (t).

(b) Dies folgt unmittelbar aus der Eigenschaft (4.4b) für DN (t). Gleichungen (c) und (d) sind klar und für Gleichung (e) sei f (t) stückweise stetig und nehmen wir ohne Einschränkungen an, es sei t ′ = 0, dann schreiben wir: +π





∫ dt FN (t)f (t) − f (0) = ∫ dt FN (t)[f (t) − f (0 )] + ∫ dt FN (t)[f (−t) − f (0− )] . −π 0 0 ⏟⏟⏟⏟⏟⏟⏟⏟⏟⏟⏟⏟⏟⏟⏟⏟⏟⏟⏟⏟⏟⏟⏟⏟⏟⏟⏟⏟⏟⏟⏟⏟⏟⏟⏟⏟⏟⏟⏟⏟⏟⏟⏟⏟⏟⏟⏟ ⏟⏟⏟⏟⏟⏟⏟⏟⏟⏟⏟⏟⏟⏟⏟⏟⏟⏟⏟⏟⏟⏟⏟⏟⏟⏟⏟⏟⏟⏟⏟⏟⏟⏟⏟⏟⏟⏟⏟⏟⏟⏟⏟⏟⏟⏟⏟⏟⏟ +

:=IN+

:=IN−

Betrachten wir exemplarisch das erste Integral und wählen ein hinreichend kleines δ, sodass gilt |f (t) − f (0+ )| < ϵ, ∀t ∈ ]0, δ], was aufgrund der stückweisen Stetigkeit von f immer möglich ist. So schätzen wir ab:

196 � 4 Orthogonale Funktionen 󵄨 +π 󵄨󵄨 sin2 (tN/2) 1 󵄨󵄨󵄨󵄨 󵄨󵄨 + 󵄨󵄨 + 󵄨󵄨󵄨 [f (t) − f (0 )] 󵄨󵄨 ∫ dt 󵄨󵄨 󵄨󵄨IN 󵄨󵄨 = 󵄨󵄨 2πN 󵄨󵄨󵄨 sin2 (t/2) 󵄨 0 +δ

≤∫ 0

dt sin2 (tN/2) 󵄨󵄨 dt sin2 (tN/2) 󵄨󵄨 + 󵄨 + 󵄨 󵄨󵄨f (t) − f (0 )󵄨󵄨󵄨 + ∫ 󵄨f (t) − f (0 )󵄨󵄨󵄨 2 2πN sin (t/2) 2πN sin2 (t/2) 󵄨 +π δ

dt sin2 (tN/2) 1 sin2 (tN/2) 󵄨󵄨 + 󵄨 0, x > 0.

0

Das Integral hat nicht die Form des benötigten Doppelintegrals, jedoch können wir dies mit Hilfe des folgenden Integrals auf die benötigte Form bringen: ∞

∫ dx e

−bx

0

1 t2 1 t cos(tx) = − ∫ dx e−bx sin(tx) = − 2 ∫ dt e−bx cos(tx) b b b b ∞



0

0

b = 2 2. b +t

Die rechte Seite setzen wir im zu berechnenden Integral ein und erhalten: ∞





0

0

0

cos(tx) 2 e−bx e−bx 2 cos(xu) = . ∫ dt 2 2 = ∫ dt cos(tx) ∫ dx π π b b b +t Schneller wäre es gewesen dies mit Hilfe des Residuensatzes und der Gl. (1.55a) zu berechnen. Die Fälle mit b < 0 oder x < 0 können ganz analog berechnet werden. ⬦ Den Fourier-Integralsatz nutzen wir im nächsten Abschnitt, um die allgemeine Fourier-Transformation zu definieren.

4.1 Fourierreihen und Fourier-Integrale

� 203

4.1.5 Fourier-Transformation Kommen wir nun zu einem der wichtigsten Werkzeuge der Mathematik und Physik zur Fourier-Transformation. Sie zerlegt eine aperiodische Funktion in ein Spektrum von Frequenzen, deswegen nennt man sie auch oft Spektralfunktion. Wir führen diese über die Gl. (4.11) des Fourier-Integralsatzes ein, es ist somit eine Integraltransformation. Dies ist ein praxisorientierter Zugang. Lemma 4.10 (Reziprozitätsformel). Sei f ∈ L[ℝ], dann ist die Fourier-Transformation der Funktion f (t) definiert durch: f ̂(x) ≡ ℱ [f (t)](x) :=

+∞

1 ∫ dt f (t)eixt , √2π

(4.14a)

−∞

und es folgt: f (t) =

+∞

1 ∫ du f ̂(u)e−iut ≡ ℱ −1 [f ̂(u)](t). √2π

(4.14b)

−∞

Beweis. Wir gehen von Gl. (4.11) aus und separieren die Exponentialfunktion: +∞

+∞

1 1 f (t) = ∫ du e−iut ∫ dx f (x)eiux . √2π √2π −∞ −∞ ⏟⏟⏟⏟⏟⏟⏟⏟⏟⏟⏟⏟⏟⏟⏟⏟⏟⏟⏟⏟⏟⏟⏟⏟⏟⏟⏟⏟⏟⏟⏟⏟⏟⏟⏟⏟⏟ =f ̂(u)

Wir nennen f ̂(x) = ℱ [f (t)](x) und ℱ −1 [f ̂(x)](t) die Fourier-Transformation der Funktion f (t) bzw. die inverse Fourier-Transformation der Funktion f ̂(x). In der Physik wird die Fourier-Transformation oft mit einem ̂ gekennzeichnet. Das Argument t in ℱ [f (t)](x) wird meist weggelassen, hier wird damit lediglich ausgedrückt über welche Variable integriert wird. Dies ist selbstverständlich mathematisch nicht nötig, da die Integrationsvariable völlig frei ist, es erleichtert aber in manchen Fällen das Verständnis der kompakt geschriebenen Gleichungen.

In der Praxis ergeben sich Fourier-Transformationen oft aus dem konkreten physikalischen Problem heraus für eine gegebene Funktion. Dann muss überprüft werden, ob im gegebenen Fall die Fourier-Transformation existiert. Wir gehen hier nicht auf Existenzfragen einer Inversen in verschiedenen Räumen ein.2 Aus der Gl. (4.14b) mit f ̂ aus Gl. (4.14a), folgt ℱ −1 [ℱ [f ]] = f . Ohne Beweis merken wir an, dass ebenso unter bestimmten Voraussetzungen ℱ [ℱ −1 [f ̂]] = f ̂ gilt. 2 Siehe z. B. [21], Kapitel 12.; [32], Kapitel 10.

204 � 4 Orthogonale Funktionen Bevor wir zu den elementaren Eigenschaften der Fourier-Transformation kommen führen wir noch den Begriff der Faltung zweier Funktionen ein: Definition 4.4 (Faltung). Seien zwei Funktionen f (t) und g(t) gegeben, dann nennen wir die Funktion: +∞

(f ⋆ g)(t) := ∫ dt ′ f (t − t ′ )g(t ′ ), −∞

die Faltung der Funktionen f und g, sofern das Integral existiert.



Aus der Definition folgt unmittelbar f ⋆ g = g ⋆ f . Wir fassen nun die Eigenschaften der Fourier-Transformation ℱ aus (4.14a) im folgenden Lemma zusammen: Lemma 4.11. Sei f , g ∈ L[ℝ] und ℱ [f (t)](x) bzw. ℱ [g(t)](x) deren Fourier-Transformation, dann gilt: 1 󵄨󵄨 󵄨 ‖f ‖ , 󵄨󵄨ℱ [f (t)](x)󵄨󵄨󵄨 ≤ √2π 1

(4.15a)

ℱ [f (t − α)](x) = ℱ [f (t)](x)e

iαx

,

1 ℱ [f (αt)](x) = ℱ [f (t)](x/α), |α| ℱ [(f ⋆ g)(t)](x) = √2π ℱ [f (t)](x) ℱ [g(t)](x), d ℱ [f (t)](x), idx d x ℱ [ f (t)](x) = ℱ [f (t)](x). dt i ℱ [tf (t)](x) =

(4.15b) (4.15c) (4.15d) (4.15e) (4.15f)

In der letzten Gleichung muss f zusätzlich noch einmal stetig differenzierbar sein. Beweis. (a) 󵄨󵄨 󵄨 1 1 󵄨󵄨 󵄨 󵄨󵄨 1 󵄨 󵄨 󵄨 ‖f ‖ . ∫ dt f (t)eixt 󵄨󵄨󵄨 ≤ ∫ dt 󵄨󵄨󵄨f (t)eixt 󵄨󵄨󵄨 ≤ 󵄨󵄨ℱ [f (t)](x)󵄨󵄨󵄨 = 󵄨󵄨󵄨 󵄨󵄨 √2π 󵄨󵄨 √2π √2π 1 ℝ

(b)

ℱ [f (t − α)](x) =



1 ∫ dt f (t)eix(t+α) = ℱ [f (t)](x)eiαx . √2π ℝ

(c) Für α > 0 gilt: ℱ [f (αt)](x) =

′ 1 1 1 1 ∫ dt f (αt)eixt = ∫ dt ′ f (t ′ )eix/α t = ℱ [f (t)](x/α). √2π α √2π α





Analog folgt der Fall α < 0; in diesem Fall vertauschen die Integrationsgrenzen.

4.1 Fourierreihen und Fourier-Integrale

� 205

(d) Benutzt man im zweiten Schritt den Satz von Fubini,3 so gilt: ℱ [(f ⋆ g)(t)](x) =

1 ∫ dt eixt ∫ dt ′ f (t − t ′ )g(t ′ ) √2π ℝ



′ ′ 1 = ∫ dt ′ eixt g(t ′ ) ∫ dt eix(t−t ) f (t − t ′ ) √2π





′ 1 1 = √2π ∫ dt ′ eixt g(t ′ ) ∫ dt eixt f (t) . √2π √2π ℝ ℝ ⏟⏟⏟⏟⏟⏟⏟⏟⏟⏟⏟⏟⏟⏟⏟⏟⏟⏟⏟⏟⏟⏟⏟⏟⏟⏟⏟⏟⏟⏟⏟⏟⏟ ⏟⏟⏟⏟⏟⏟⏟⏟⏟⏟⏟⏟⏟⏟⏟⏟⏟⏟⏟⏟⏟⏟⏟⏟⏟⏟⏟⏟⏟⏟⏟⏟⏟⏟⏟⏟⏟

=ℱ [g(t ′ )](x)

=ℱ [f (t)](x)

(e) ℱ [tf (t)](x) =

1 d ixt ⏟⏟ = te⏟⏟⏟ ℱ [f (t)](x). ∫ dt f (t) ⏟⏟ √2π idx d ixt = e ℝ

idx

(f) ℱ[

d d d 1 1 f (t)](x) = ∫ dt eixt f (t) = − ∫ dt ( eixt )f (t) √2π √2π dt dt dt ℝ

x = ℱ [f (t)](x). i



Die Fourier-Transformation ist hier in einer Dimension eingeführt worden. Mit elementaren Mitteln aus dem Grundkurs Analysis I-II ist klar, wie sich obige Eigenschaften sofort auf eine mehrdimensionale Fourier-Transformation: ℱ [f (y)](x) :=

1 ∫ dn y f (y)ei⟨y|x⟩ , (2π)n/2 n

x = (x1 , . . . , xn ) ∈ ℝn ,



mit einer Funktion f : ℝn ∋ y = (y1 , . . . , yn ) → ℂ, verallgemeinern lassen. Für den Spezialfall eines vollständig separierten Produktes in der Form f (y) = ∏ni=1 fi (yi ), folgt für die Fourier-Transformation: ℱ [f (y)](x) =

n n 1 ∫ ∏ dyi fi (yi )eiyi xi = ∏ ℱ [fi (y)](xi ). n/2 (2π) i=1 n i=1 ℝ

Die Eigenschaften aus dem vorherigen Lemma für die eindimensionale Fourier-Transformation lassen sich entsprechend verallgemeinern. Dies führen wir hier nicht durch. Betrachten wir noch einige wichtige Beispiele und Anwendungen der Fourier-Transformation und führen dabei gleichzeitig zwei wichtige Funktionen der Physik ein.

3 Siehe [21], Kapitel 7.

206 � 4 Orthogonale Funktionen Beispiel 4.3 (Gauß-Funktion). Die Gauß-Funktion ist definiert als: ℝ ∋ t 󳨃→ gσ (t) :=

1 t2 exp(− 2 ), √2πσ 2σ

σ > 0.

(4.16)

Die Gauß-Funktion ist normiert, es gilt für alle σ: +∞

+∞

+∞

−∞

−∞

−∞

2 2 2 √2σ 1 ∫ dt e−t /2σ = ∫ dt e−t = 1. ∫ dt gσ (t) = √2πσ √2πσ

Die Fouriertransformierte ist wiederum eine Gauß-Funktion, denn es gilt mit den Ergebnissen aus Beispiel 1.25: 2 2

2 2

2 2 2 2 2 e−σ x /2 e−σ x /2 1 . ℱ [gσ ](x) = ∫ dt e−t /2σ eixt = ∫ dt e−(t−iσ x) /2σ = √2π 2πσ 2πσ



−∞



−∞

Die Breite der Gauß-Funktion, die durch σ parametrisiert wird, ist invers zur Breite ihrer Fourier-Transformation. Dies Gauß-Funktion und deren Fourier-Transformation ist in der Abbildung 4.5 für σ = 0.4, 1, 4 dargestellt. Das reziproke Verhalten beider Breiten ist dabei deutlich zu erkennen. ⬦

Abb. 4.5: Die GaußFunktion gσ (t) und deren Fouriertransformierte ℱ [gσ ](x) für σ = 0.4, 1 und 4. Die durchgezogenen Linien gehören zu gσ (t), die gestrichelten zu ℱ [gσ ](x). Für σ = 1 sind beide Kurven identisch.

4.1 Fourierreihen und Fourier-Integrale

� 207

Die Gauß-Funktion spielt eine wichtige Rolle in der Stochastik, dort bildet sie die Wahrscheinlichkeitsdichte der Gauß’schen Normalverteilung. Das Integral über |t| ≤ σ gibt die Wahrscheinlichkeit an einen Messwert in diesem Bereich zu finden, es gilt: +σ

∫ dtgσ (t) = −σ

1



√2πσ

∫ dte−t

2

/2σ 2

+1

=

−σ

2 1 ∫ dte−t /2 = 0.6826894920 . . . √2π

−1

Das heißt, 68,3 % aller Messwerte liegen im Bereich −σ ≤ t ≤ σ.

Beispiel 4.4 (Glockenkurve). Die Glockenkurve ist definiert als: ℝ ∋ t 󳨃→ fα (t) :=

1 α , π α2 + t 2

α > 0.

(4.17)

Sie ist ebenso normiert wie die Gauß-Funktion, denn: +∞

∫ dt fα (t) =

−∞

+∞

1 α 1 = α2i Rest=iα = 1. ∫ dt π (t + iα)(t − iα) (t + iα)(t − iα) −∞

Die Fouriertransformierte lautet: ℱ [fα (t)](x) =

1 −α|x| e , √2π

denn für x > 0 erhält man: 1 α 2πi eixt Rest=iα 2 ∫ dt eixt f α (t) = √2π π √2π t + α2 +∞

ℱ [fα (t)](x) =

−∞

e . √2π −αx

=

Entsprechend rechnet man für x < 0. Die Glockenkurve fα (t), sowie ihre FourierTransformation für verschiedene Parameter α sind in Abbildung 4.6 dargestellt. Ebenso wie bei der Gauß-Funktion ist zu erkennen, dass die Breiten der Kurven sich reziprok zueinander verhalten. Je schmaler die Funktion, desto breiter die Fouriertransformierte und umgekehrt. ⬦ Kommen wir zu einer Anwendung der Fourier-Transformation, die sich mit der Lösung von Integralgleichungen eines bestimmten Typs beschäftigt. Dabei werden viele der elementaren Eigenschaften der Fourier-Transformation ausgenutzt, die wir zuvor abgeleitet haben. Beispiel 4.5. Seien zwei Funktion K(t) und h(t) gegeben und gesucht sei die Funktion y(t), die über die folgende Fredholm’sche Integralgleichung zweiter Art vom Faltungstyp bestimmt sei:

208 � 4 Orthogonale Funktionen

Abb. 4.6: Die Glockenkurve fα (t) und deren Fouriertransformierte ℱ [fα ](x) für α = 0.4, 1 und 4. Die durchgezogenen Linien gehören zu fα (t), die gestrichelten zu ℱ [fα ](x). +∞

y(t) = h(t) − ∫ dt ′ K(t − t ′ )y(t ′ ). −∞

Die gesuchte die Lösung y(t), kann durch Fourier-Transformation und Rücktransformation gewonnen werden. Betrachten wir zunächst die Fourier-Transformation der Integralgleichung und wenden unter anderem die Faltungseigenschaft der FourierTransformation an: +∞

ℱ [y(t)](x) = ℱ [h(t)](x) − ℱ [ ∫ dt K(t − t )y(t )](x) ′





−∞

= ℱ [h(t)](x) − ℱ [(y ⋆ K)(t)](x) = ℱ [h(t)](x) − √2π ℱ [y(t)](x) ℱ [K(t)](x). Dies lösen wir nach ℱ [y] auf: ℱ [y(t)](x) =

ℱ [h(t)](x) , 1 + √2π ℱ [K(t)](x)

und bilden die inverse Fourier-Transformation und erhalten so letztlich die gesuchte Funktion: y(t) = ℱ −1 [ℱ [h]/(1 + √2π ℱ [K])](t).



4.1 Fourierreihen und Fourier-Integrale

� 209

Zum Abschluss betrachten wir ein reales Problem aus der Physik, ohne auf die Details des Ursprungs der Gleichungen einzugehen. Berechne die Grundzustandsenergie e der antiferromagnetischen Heisenberg-Spinkette, die gegeben ist durch: +∞

e = − ∫ dx ∞

2 ρ(x), 1 + x2

wobei die Dichtefunktion ρ(x) durch die folgende Integralgleichung bestimmt ist: ρ(x) =

+∞

1 1 2 1 − ∫ dy ρ(y). π 1 + x2 π 4 + (x − y) −∞

Lösung: Die Fourier-Transformation der Integralgleichung ergibt unter Beachtung der Ergebnisse zur Glockenkurve fα : ̂ = ℱ [f1 (x)](t) − ℱ [(f2 ⋆ ρ)(x)](t) = ρ(t)

1 −|t| ̂ e − e−2|t| ρ(t). √2π

Lösen wir dies nach ρ̂ auf und führen die inverse Fourier-Transformation durch, so ergibt sich: ̂ ρ(x) = ℱ −1 [ρ(t)](x) =

+∞

e−itx 1 1 ∫ dt . ℱ −1 [1/ cosh t](x) = 4π cosh t √ 2 2π −∞

Zur Berechnung des Integrals verwenden wir den Residuensatz und das Lemma 1.28. Nehmen wir an x < 0, dann gilt +∞

(z − zℓ )e−izx 1 e−izx e−itx i2π i ∞ ∫ dt = ∑ res = ∑ lim . 4π cosh t 4π Iz >0 zℓ cosh z 2 ℓ=0 z→zℓ cosh z ℓ

−∞

Die Residuen in der oberen Halbebene sind gegeben durch zℓ = i(1 + 2ℓ)π/2, damit folgt: ρ(x) = = = =

z − zℓ i ∞ −izℓ x ∑e lim z→zℓ cosh(z − z + z ) 2 ℓ=0 ℓ ℓ

z − zℓ i ∞ (1+2ℓ)π/2x ∑e lim z→zℓ sinh(z − z ) sinh(z ) 2 ℓ=0 ℓ ℓ

eπx/2 ∞ eℓπx eπx/2 ∞ 1 eπx/2 ∑ = ∑ (−)ℓ eℓπx = 2 ℓ=0 sin(π(1 + 2ℓ)/2) 2 ℓ=0 2 1 + eπx

1 1 . 4 cosh(πx/2)

Analog folgt der Fall x > 0. Daraus folgt für die Energie e=−



1 1 1 ∫ dx . 2 1 + x 2 cosh(πx/2) −∞

210 � 4 Orthogonale Funktionen

Auch hier wird wieder der obige Residuensatz angewendet. Die Residuen befinden sich an den Stellen zℓ = i(1 + 2ℓ), dabei ist zu beachten, dass es für z0 = i ein Pol zweiter Ordnung gibt. Die anderen Pole sind erster Ordnung, damit folgt: e=−

i2π ∞ 1 1 ∑ res 2 ℓ=0 zℓ 1 + z2 cosh(πz/2)

= −iπresi

∞ 1 1 1 1 − iπ ∑ reszℓ 2 2 cosh(πz/2) 1 + z cosh(πz/2) 1 + z ℓ=1

= −iπ lim 𝜕z ( z→i

= −iπ

∞ 1 (z − i)2 i(−)ℓ ) − iπ ∑ 2 1 + z cosh(πz/2) ℓ=1 2πℓ(ℓ + 1)

−i 1 ∞ (−)ℓ + ∑ 2π 2 ℓ=1 ℓ(ℓ + 1)

∞ (−)ℓ 1 1 ∞ (−)ℓ ∞ (−)ℓ −∑ )=∑ = − + (∑ 2 2 ℓ=1 ℓ ℓ + 1 ℓ=1 ℓ=1 ℓ

= − ln 2. Damit ist die gesuchte Grundzustandsenergie e = − ln 2.



Eng verwandt mit der Fourier-Transformation ist die Laplace-Transformation, eine für die Physik und Technik ebenso wichtige Integraltransformation.

4.1.6 Laplace-Transformation Wir führen die Laplace-Transformation hier nicht in ihrer allgemeinsten Form ein und beschränken uns auf die wesentlichen Eigenschaften. Für eine ausführliche und weitergehende Diskussion schaue man in die Lehrbücher [13, 24]. Auch werden wir nicht im Detail auf Existenzfragen eingehen und nehmen typischerweise an, dass die auftretenden Integrale existieren. Definition 4.5 (Laplace-Transformation). Es sei eine Funktion f : [0, ∞[ → ℂ und f (t) = 0, t < 0 gegeben, sodass f (t)e−ct in ℝ+ absolut integrierbar ist, dann nennen wir ∞

ℒ[f (t)](z) := ∫ dtf (t)e

−zt

=: f ̂(z),

z = σ + iω, σ > c, ω ∈ ℝ,

0

die Laplace-Transformation von f . Mit dieser Definition und |f (t)e−zt | = |f (t)e−σt | < |f (t)e−ct | konvergiert das Integral in der oberen Halbebene Rz > c.

4.1 Fourierreihen und Fourier-Integrale

� 211

Die allgemeinere Laplace-Transformation lässt eine untere Grenze T > 0 zu. In der Physik wird oft angenommen σ > 0, mit entsprechenden Einschränkungen für die Funktion f . Die Integrationsvariable t ist dabei die Zeit und σ und ω haben die physikalische Einheit einer [Zeit]−1 . Dies erklärt die spezielle Benennung der komplexen Zahl z in der Definition.

Die Beziehung zur Fourier-Transformation ist gegeben durch ∞

ℒ[f (t)](iω) = ∫ dtf (t)e

−iωt

= √2π ℱ [f (t)](−ω).

0

Dies ist eine einseitige Fourier-Transformation mit der Konvention, dass der Faktor 1/√2π fehlt. Dieser Faktor wird bei der Laplace-Transformation dann in der inversen Laplace-Transformation kompensiert. Eine analoge Konvention gibt es auch bei der Fourier-Transformation, insbesondere bei Anwendungen in der Physik. Viele der Eigenschaften der Fourier-Transformation lassen sich auf die Laplace-Transformation übertragen, insbesondere gilt: ℒ[(f ⋆ g)(t)](z) = ℒ[f (t)](z) ℒ[g(t)](z),

dn n ℒ[f (t)](z) = ℒ[(−t) f (t)](z). dzn Hierbei ist zu beachten, dass gilt f (t) = g(t) = 0, t < 0 und deswegen gilt: t



h(t) = (f ⋆ g)(t) = ∫ dt f (t − t )g(t ) = ∫ dt ′ f (t − t ′ )g(t ′ ), ′





0

−∞

und h(t) = 0, t ≤ 0. Komplizierter sieht es bei der inversen Laplace-Transformation aus. Die hier genutzten Voraussetzungen zur Existenz der Inversen sind stärker als tatsächlich nötig. Satz 4.3 (Inverse Laplace-Transformation). Es sei f ̂(z) = ℒ[f (t)](z) die Laplace-Transformation von f . Zusätzlich zur Voraussetzung in der Definition sei f ′ (t) stetig in einem Intervall ]a, b[, dann gilt für jedes γ > c und t ∈ ]a, b[ γ+i∞

1 f (t) = ℒ [f ̂(z)](t) = ∫ dzf ̂(z)ezt , i2π −1

γ−i∞

der Integrationsweg geht dabei entlang der vertikalen Linie z = γ + iω.

212 � 4 Orthogonale Funktionen Beweis. Betrachten wir die rechte Seite und beachten f (t) = 0, t < 0, dann gilt: γ+i∞

+∞

γ−i∞

−∞

1 1 ∫ dωℒ[f (t)](γ + iω)e(γ+iω)t ∫ dzf ̂(z)ezt = i2π 2π +∞



−∞

0

′ 1 1 = ∫ dω ∫ dt ′ f (t ′ )e−(γ+iω)t e(γ+iω)t √2π √2π

+∞

=



′ ′ 1 1 ∫ dωeiωt ∫ dt ′ e−iωt f (t ′ )eγ(t−t ) √2π √2π

γt

−∞

−∞

−γt ′

= e ℱ [ℱ [f (t )e −1

γt

= e f (t)e

−γt



= f (t).

](ω)](t)

Mithilfe der Laplace-Transformation lassen sich unter anderem Integralgleichungen lösen, wie das folgende Beispiel zeigt. Beispiel 4.6. Es sei die Volterra-Integralgleichung erster Art gegeben t

f (t) = ∫ dt ′ K(t − t ′ )y(t ′ ), 0

wobei f (t), K(t) = 0, t < 0 vorgegebene Funktionen sind, die eine Laplace-Transformâ tion f ̂(z) und K(z) besitzen. Die unbekannte Funktion y(t) bestimmt sich dann über: ℒ[f (t)](z) = ℒ[(K ⋆ y)(t)](z) = ℒ[K(t)](z)ℒ[y(t)](z),

und damit y(t) = ℒ−1 [ℒ[y(t)](z)](t) = ℒ−1 [

ℒ[f (t)](z) ](t). ℒ[K(t)](z)

In der kompletten Rechnungen ist vorausgesetzt, dass alle Funktionen so beschaffen sind, dass die auftretenden Integrale existieren. ⬦ Damit schließen wir den Abschnitt über Fourrierreihen und Fourier-Integrale und wenden uns im nächsten den allgemeinen orthogonalen Polynomen zu.

4.2 Orthogonale Polynome In diesem Abschnitt diskutieren wir orthogonale Polynome und verwandte Funktionensysteme, die wir im Abschnitt 3.4.1 eingeführt haben. Bevor wir auf die einzelnen

4.2 Orthogonale Polynome

� 213

Polynome im Detail eingehen, werden wir zunächst eine Zusammenfassung der typischen Eigenschaften von allgemeinen orthogonalen Funktionen geben. Im Anschluss daran schauen wir uns die Legendre-, Hermite-, Tschebyscheff- und Laguerre-Polynome im Einzelnen an. Beginnen wir mit der allgemeinen Terminologie4 und definieren, was wir unter einem orthogonalen Polynom verstehen. Definition 4.6 (Orthogonale Polynome). Es sei pn (x) ein Polynome n-ter Ordnung. Existiert das Integral b

∫ dx w(x)pn (x)pm (x) = δnm hn , a

n, m ∈ ℕ0 ,

w(x) ≥ 0,

(4.18)

so nennen wir pn (x) orthogonales Polynome mit Gewichtsfunktion w(x).



Es gibt eine Vielzahl von Polynomen, die diese Bedingung erfüllen. Einen vollständigeren Überblick findet man in [25]. Eine ausführliche Diskussion der Eigenschaften wird in A Course of Modern Analysis von Whittaker & Watson [40] geführt. Eine tabellarische Übersicht der definierenden Größen, der hier betrachteten Polynome ist in der nachfolgenden Tabelle zusammengestellt. pn

Name

[a, b]

w(x)

hn

Pn

Legendre

[−�, �]

1

� �n+�

pn (�) m

Hn

Hermite

[−∞, ∞]

Lαn

Laguerre

[�, ∞]

Tn

Tschebyscheff

[−�, �]

{ (−)�m (�m)! � (m!)� { � {

√π�n n!

(−)m (�m)! m! {

x α e−x

Γ(α+n+�) n!

n+α ( ) n

� √�−x �

π/� : n > � { π :n=�

{

e−x





(−)m �

: n = �m : n = �m + � : n = �m

: n = �m + �

: n = �m

: n = �m + �

Orthogonalen Polynome stellen Lösungen von linearen homogenen Differentialgleichung zweiter Ordnung dar, die in der folgenden allgemeinen Form dargestellt werden kann. Definition 4.7 (Differentialgleichung). Die orthogonalen Polynome pn (x) erfüllen die Differentialgleichung ′ g2 (x)p′′ n (x) + g1 (x)pn (x) + an pn (x) = 0,

4 Wir halten uns weitesgehend an die Standardnotation aus [25].

214 � 4 Orthogonale Funktionen mit Funktionen g1 (x) und g2 (x), die nicht vom Index n abhängen und einer Konstanten an , die nicht von x abhängt. Für die hier betrachteten Polynome sind die Größen in der nachfolgenden Tabelle angegeben. pn (x) Pn (x) Hn (x) Lαn (x) Tn (x)

g� (x) −�x −�x �−x+α −x

g� (x)

an



�−x � x � − x�

n(n + �) �n n n�



In den Abschnitten zu den einzelnen orthogonalen Polynomen werden wir hierauf zurückkommen und die Funktionen g1 (x), g2 (x), sowie die Konstante an für verschiedene Polynome explizit bestimmen. Orthogonale Polynome erfüllen Rekursionsgleichungen bezüglich ihres Indexes n. Diese Rekursionsgleichungen lassen sich in der folgenden allgemeinen Form ausdrücken. Definition 4.8 (Rekursionsformel). Es seien orthogonale Polynome pn (x) gegeben, dann sind die Koeffizienten bn , cn und dn über die Rekursion definiert durch: pn+1 (x) = (bn + cn x)pn (x) − dn pn−1 (x).

pn (x)

bn

cn

dn

Pn (x) Hn (x) Lαn (x) Tn (x)

0 0 (�n + � + α)/(n + �) 0

(�n + �)/(n + �) � −�/(n + �) �

n/(n + �) �n (n + α)/(n + �) �



Als letzte zentrale Eigenschaft sei die Rodrigues-Formel genannt, die die Polynome pn (x) über eine n-fache Differentiation des Produktes der Gewichtsfunktion w(x) mit einem elementaren Polynom p(x) in Beziehung setzen. Definition 4.9 (Rodrigues-Formel). Die orthogonalen Polynome pn (x) lassen sich durch eine n-fache Differentiation, über die Rodrigues-Formel gewinnen: pn (x) =

1 dn [w(x)p(x)n ], cn w(x) dx n

cn ∈ ℝ.

(4.19)

Dabei ist w(x) die Gewichtsfunktion, p(x) ein elementares Polynom und cn eine reelle Konstanten.

4.2 Orthogonale Polynome

pn (x)

w(x)

Pn (x)



Hn (x) Lαn (x) Tn (x)

p(x)



e−x x α e−x (� − x � )−�/�

�−x

� 215

en �

(−)n �n n!

(−)n n! (−�)n (�n − �)!!

� x � − x�



Alle Eigenschaften (4.18)–(4.19) allein können zur Definition der Polynome herangezogen werden. Welche Form als Ausgangsbasis verwendet wird, hängt von der Problemstellung ab. Wie diese Koeffizienten und Funktionen im Detail aussehen und wie sie bestimmt werden, sehen wir in den folgenden Abschnitten. Als kleine Referenz stellen wir jeweils die ersten vier Polynome zusammen, wobei für alle gilt p0 (x) = 1. pn (x) Pn (x)

Hn (x)

Ln (x)

Tn (x)

p� x �x −x + �

x

p�

p� �

(�x − �)/� �

�x − �

(x � − �x + �)/� �

�x − �

p� �

(��x � − ��x � + �)/�

(�x − �)/� �

�x − ��x

(−x � + �x � − ��x + �)/� �

�x − �x

��x � − ��x � + ��

(x � − ��x � + ��x � − ��x + ��)/��

�x � − �x � + �

Nun schauen wir uns die bisher betrachteten orthogonalen Polynome Pn ,Hn , Ln und Tn im Einzelnen an und stellen diese auch grafisch dar. Ferner diskutieren wir verschiedene Anwendungen aus der Physik als Beispiele jeweils zum Ende des Abschnittes. Wir beginnen mit den Legendre-Polynomen.

4.2.1 Legendre-Polynome Die Legendre-Polynome sind uns zuerst als ein Orthogonalsystem auf dem Intervall [−1, 1] in Abschnitt 3.4.1 begegnet. In der Physik werden die Legendre-Polynome in der Elektrodynamik und Quantenmechanik gebraucht. 4.2.1.1 Rodrigues-Formel Aus der Rodrigues-Formel mit w(x) = 1, p(x) = 1 − x 2 und cn = (−1)n 2n n! erhalten wir die schon bekannte Darstellung der Legendre-Polynome: Pn (x) = (−1)n

1

2n n!

dn n (1 − x 2 ) . dx n

(4.20)

Dies ist ein Polynom n-ten Grades und es lässt sich die explizite Darstellung ableiten.

216 � 4 Orthogonale Funktionen Lemma 4.12 (Explizite Darstellung). [n/2]

Pn (x) = ∑

m=0

[2(n − m)]! (−1)m x n−2m , 2n m!(n − m)!(n − 2m)!

n ∈ ℕ.

(4.21)

Beweis. Wir benutzen die Rodrigues-Formel und führen die Differentiation aus: Pn (x) =

1 dn 2 1 n n dn n (x − 1) = ∑ ( )(−)m n x 2(n−m) n n n 2 n! dx 2 n! m=0 m dx [n/2]

= ∑

m=0

(−)m [2(n − m)]! x n−2m . 2n m!(n − m)!(n − 2m)!

Die ersten 4 Legendre-Polynome sind in der Abbildung 4.7 für 0 ≤ x ≤ 1 dargestellt.

Abb. 4.7: LegendrePolynome Pn (x) (4.21), für n = 1, 2, 3, 4. Aufgrund der Eigenschaft Pn (−x) = (−)n Pn (x) genügt es nur den Bereich [0, 1] zu betrachten.

Eine wichtige Eigenschaft orthogonaler Polynome ist die Konstruktion und deren Bezug zu den sogenannten erzeugenden Funktionen, die wir im nächsten Abschnitt definieren und ansehen. 4.2.1.2 Erzeugende Funktion Lemma 4.13. Sei |u| < 1, dann ist die erzeugende Funktion der Legendre-Polynome gegeben durch:

4.2 Orthogonale Polynome

wP (x, u) :=

1



√1 − 2ux + u2

= ∑ Pn (x)un , n=0

� 217

x ∈ [−1, +1].

(4.22)

Beweis. Wir zeigen diese Eigenschaft indirekt, indem wir zunächst annehmen, dass für eine Funktion Qn (x) die Gl. (4.22) gelte und folgern dann daraus die Übereinstimmung mit Pn (x). Betrachten wir das Produkt: ∞ ∞

wP (x, u) wP (x, v) = ∑ ∑ Qn (x)Qm (x)un vm . n=0 m=0

Ohne Einschränkung der Allgemeinheit können wir annehmen, es gilt 0 < u, v < 1. Beide Seiten integrieren wir über x, für die linke Seite erhalten wir: +1

∫ dx wP (x, u)wP (x, v) =

+1

1 −1/2 + v2 )/2v −x]) + u2 )/2u −x][(1 ∫ dx ([(1 ⏟⏟⏟⏟⏟⏟⏟⏟⏟⏟⏟⏟⏟⏟⏟⏟⏟⏟⏟ ⏟⏟⏟⏟⏟⏟⏟⏟⏟⏟⏟⏟⏟⏟⏟⏟⏟⏟⏟⏟⏟ √4uv =:α>1 =:β>1 −1

−1

󵄨󵄨+1 1 1 󵄨 ln(− (α + β) + x + √x 2 − x(α + β) + αβ)󵄨󵄨󵄨 󵄨󵄨−1 √4uv 2 α + β − 2 − 2√1 − (α + β) + αβ 1 ln( ) = √4uv α + β + 2 − 2√1 + (α + β) + αβ

=

2

=

√α − 1 − √β − 1 1 ln( ). √α + 1 − √β + 1 2√uv

Nehmen wir ohne Einschränkung der Allgemeinheit α > β an und setzen deren Bezug zu u, bzw. v wieder ein, dann folgt: +1

∫ dx wP (x, u)wP (x, v) = −1

= =

1 + √uv 1 ln √uv 1 − √uv 1 ∞ 1 ∑ [(−)n−1 (√uv)n + (√uv)n ] √uv n=1 n

∞ 1 ∞ 2 2 (√uv)2n+1 = ∑ (uv)n . ∑ √uv n=0 2n + 1 2n + 1 n=1

Für die rechte Seite ergibt sich: +1

∞ ∞

∞ ∞ +1

n=0 m=0

n=0 m=0 −1

∫ dx ∑ ∑ Qn (x)Qm (x)un vm = ∑ ∑ ∫ dx Qn (x)Qm (x)un vm . −1

Fügen wir beide Seiten zusammen, so erhalten wir: +1

∞ ∞ 2 (uv)n = ∑ ∑ ∫ dx Qn (x)Qm (x)un vm . ∑ 2n + 1 n=1 n=0 m=0 ∞

−1

218 � 4 Orthogonale Funktionen Die Variablen u und v bilden ein linear unabhängiges System, deswegen gelangen wir über einen Koeffizientenvergleich zu: +1

0 : n ≠ m, ∫ dx Qn (x)Qm (x)un vm = { 2/(2n + 1) : n = m.

−1

Die gliedweise Integration ist möglich, da |Pn (x)un | ≤ Pn (1). Die Funktionen Qn (x) erfüllen dieselben Orthogonalitätsrelationen wie die Legendre-Polynome. Des Weiteren kann gezeigt werden, dass gilt: wP (1, u) =

∞ ∞ 1 = ∑ un = ∑ Qn (1)un , 1 − u n=0 n=0

womit folgt Qn (1) = 1, ∀n. Damit ergibt sich letztendlich Qn (x) = Pn (x). Ein Anwedungsbeispiel werden wir am Ende des Abschnittes betrachten. Kommen wir als nächstes zu den Differential- und Rekursionsgleichungen. 4.2.1.3 Differential- und Rekursionsgleichungen Lemma 4.14 (Differentialgleichung). Die Legendre’schen Polynome Pn (x) sind Lösungen der Differentialgleichung: (1 − x 2 )ξ ′′ (x) − 2xξ ′ (x) + n(n + 1)ξ(x) = 0.

(4.23)

Beweis. Sei ξ := (x 2 − 1)n und schreiben wir abkürzend (d/dx)n ξ = ξ (n) , dann ergibt die Differentiation: (x 2 − 1)ξ (1) = 2nxξ. Differenzieren wir diese Gleichung auf beiden Seiten weitere (n + 1) mal und verwenden dabei die Leibniz’sche Formel: (x 2 − 1)ξ (n+1+1) + 2x(n + 1)ξ (n+1) + 2(n + 1)n/2ξ (n) = 2nxξ (n+1) + 2n(n + 1)ξ (n) . Fassen wir die Terme zusammen, so ergibt sich: 0 = (x 2 − 1)

d2 (n) d ξ + 2x ξ (n) − n(n + 1)ξ (n) . dx dx 2

Unter Beachtung, dass Pn (x) bis auf einen Faktor 2n n! gleich ξ ist, folgt die Behauptung. Es sei bemerkt, dass die gliedweise Differentiation erlaubt ist, da man leicht eine konvergente Majorante der Summe in (4.22) angeben kann. Lemma 4.15 (Rekursionsgleichung). Die Legendre-Polynome Pn (x) erfüllen die Rekursionsgleichung: (n + 1)Pn+1 (x) − x(2n + 1)Pn (x) + nPn−1 (x) = 0, wobei P−1 (x) = 0 und P0 (x) = 1 gilt.

∀n ∈ ℕ,

(4.24)

4.2 Orthogonale Polynome

� 219

Beweis. Wir zeigen dies, indem wir die erzeugende Funktion (4.22) nach u partiell differenzieren: x−u 𝜕 1 x−u = wP (x, u) , w (x, u) = 𝜕u P 1 − 2xu + u2 √1 − 2xu + u2 1 − 2xu + u2 und anschließend die rechte Seite der erzeugenden Funktion einsetzen: ∞



n=1

n=0

(1 − 2xu + u2 ) ∑ nPn un−1 = (x − u) ∑ Pn un . Das Ausmultiplizieren und Sortieren der Terme ergibt: ∞

0 = ∑ (nPn un−1 − 2xnPn un + nPn un+1 + Pn un+1 − xPn un ) + (u − x) n=1 ∞

= ∑ un [(n + 1)Pn+1 − x(2n + 1)Pn−1 + nPn−1 ] + P0 x − P0 u + u − x. n=0

Aufgrund der linearen Unabhängigkeit der u folgt durch Koeffizientenvergleich die Aussage (4.24). Oft ist es nützlich, gemischte Differential-Rekursionsgleichungen zu haben. Diese formulieren wir als Aufgabe. Beide Ergebnisse werden im Folgenden noch öfter gebraucht. Zeige die kombinierten Differential- und Rekursionsgleichungen für die Legendre-Polynome: (i) ′ ′ (2n + 1)Pn (x) = Pn+1 (x) − Pn−1 (x),

(4.25a)

(1 − x 2 )Pn′ (x) = n(Pn−1 (x) − xPn (x)).

(4.25b)

(ii)

Lösung: Um die erste Aussage zu zeigen, verwenden wir die Rodrigues-Formel aus der nach einmaligem Differenzieren folgt: ′ Pn′ (x) = xPn−1 (x) + nPn−1 (x).

Aus der Rekursionsgleichung nach einmaligem Differenzieren folgt: ′ ′ (2n + 1)Pn (x) = (n + 1)Pn+1 (x) − x(2n + 1)Pn′ (x) + nPn−1 (x).

Hier ersetzen wir mit der ersten Gleichung nach Verschieben des Indexes n → n+1 den Term xPn′ (x) und nach Umsortieren folgt (4.25a). Diese Gleichung nutzen wir, um die zweite Relation zu zeigen. Hierzu differenzieren wir (4.25a) erneut, multiplizieren mit (1−x 2 ), verwenden die Differentialgleichung (4.23) und wiederum (4.25a) und erhalten so:

220 � 4 Orthogonale Funktionen (2n + 1)(1 − x 2 )Pn′ (x) = 2x(2n + 1)Pn (x) − (n + 1)(n + 2)Pn+1 (x) + (n − 1)nPn−1 (x). Mit Hilfe der Rekursionsgleichung (4.24) eliminieren wir (n + 1)Pn+1 (x) und erhalten: (2n + 1)(1 − x 2 )Pn′ (x) = (2n + 1)x(2 − (n + 2))Pn (x) + n(n − 1 + n + 2)Pn−1 (x) = (2n + 1)n(−xPn (x) + Pn−1 (x)).



Kommen wir nun zu konkreten Anwendungen der Legendre-Polynome. 4.2.1.4 Anwendungen Beispiel 4.7 (Multipolentwicklung). In einem physikalischen Problem, wie beispielsweise der Multipolentwicklung in der Elektrodynamik kommt es häufig vor, dass man für große Abstände R := |R|⃗ ≫ r := |r|⃗ die Größe 1/|r⃗ − R|⃗ entwickeln muss. Deswegen betrachten wir: 1

|r⃗ − R|⃗

=

1 √r 2

(4.22)

=

− 2r⃗ ⋅ R⃗ +

R2

=

1 R√ n

1 ⃗ 2 + r 2 /R2 1 − 2r⃗ ⋅ R/R

1 ∞ r ∑ P (cos φ)( ) , R n=0 n R

⃗ wobei u := cos φ = r⃗ ⋅ R/rR und φ der Winkel zwischen r⃗ und R⃗ ist.



Beispiel 4.8. Die Lösung der Differentialgleichung5 1 d dξ(θ) (sin θ ) + n(n + 1)ξ(θ) = 0 sin θ dθ dθ ist gegeben durch ξ(θ) = Pn (cos θ). Um dies zu sehen, schreiben wir Gl. (4.23) als: dP (x) d ((x 2 − 1) n ) − n(n + 1)Pn (x) = 0 dx dx um, und setzten x = cos θ. Dann folgt mit d/dx = −1/ sin θ d/dθ die Behauptung. Beachten wir, dass auf der Einheitskugel der Laplace-Operator gegeben ist durch: ΔΩ =

1 𝜕 𝜕 1 𝜕2 (sin θ ) + . sin θ 𝜕θ 𝜕θ sin2 θ 𝜕ϕ2

Damit folgt ΔΩ Pn (θ) = −n(n + 1)Pn (θ). 5 Dies ist ein Spezialfall der Legendre-Differentialgleichung.

4.2 Orthogonale Polynome

� 221

Diesem Ergebnis werden wir später bei der Diskussion der Kugelflächenfunktionen wiederbegegnen. ⬦ Weitere Anwendungen der Legendre-Polynome werden wir bei der Diskussion der Kugelflächenfunktionen in Abschnitt 4.3 kennenlernen. 4.2.2 Hermite-Polynome Wir verfahren analog zum Abschnitt der Legendre-Polynome. Die Orthogonalität wurde im Abschnitt 3.4.1 gezeigt. Hermite-Polynome werden in der Quantenmechanik bei der Lösung des harmonischen Oszillator gebraucht. 4.2.2.1 Rodrigues-Formel Diskutieren wir als erstes die Rodrigues-Formel, die in Gl. (4.19) angegeben wurde und die in diesem Fall explizit lautet: Hn (x) = (−1)n ex

2

dn −x 2 e , dx n

n ∈ ℕ0 .

2

Ein Vergleich mit (4.19) liefert w(x) = e−x , p(x) = 1 und cn = (−)n . Die explizite und elementare Darstellung lautet: Lemma 4.16. Für die Hermite-Polynome gilt die explizite Darstellung: [n/2]

Hn (x) = ∑

m=0

(−)m n! (2x)n−2m . m!(n − 2m)!

(4.26)

Beweis. Dies kann gezeigt werden, indem die erzeugende Funktion wH (x, u) = exp(−u2 + 2ux) aus dem folgenden Abschnitt in eine doppelte Potenzreihe entwickelt und anschließend die Cauchy-Produktdarstellung verwendet wird. Wir verzichten hier darauf dies im Detail zu zeigen. In Abbildung 4.8 sind die ersten vier Hermite-Polynome dargestellt, wobei wegen der besseren Vergleichbarkeit eine Skalierung mit einem Faktor 1/2n durchgeführt wurde. Aufgrund der Symmetrie H2n (x) = H2n (−x) und H2n+1 (x) = −H2n+1 (−x) ist nur der Bereich x ≥ 0 gezeigt. 4.2.2.2 Erzeugende Funktion Lemma 4.17. Die erzeugende Funktion der Hermite-Polynome Hn (x) (4.26) ist gegeben durch: un H (x) n! n n=0 ∞

wH (x, u) := exp(−u2 + 2ux) = ∑

n ∈ ℕ0 , x ∈ ℝ.

222 � 4 Orthogonale Funktionen

Abb. 4.8: HermitePolynome hn (x) := Hn (x)/2n (4.26), für n = 1, 2, 3, 4.

Beweis. Die Taylorentwicklung der linken Seite bezüglich u ergibt: ∞ n 2 n un dn −u2 +2ux 󵄨󵄨󵄨󵄨 u x d −(x−u)2 󵄨󵄨󵄨󵄨 e e e =∑ 󵄨󵄨 󵄨󵄨 n 󵄨󵄨u=0 󵄨󵄨u=0 n! du n! dun n=0 n=0 ∞

wH (x, u) = ∑ (4.20)

un x 2 n dn −x 2 e (−) e . n! ⏟⏟⏟⏟⏟⏟⏟⏟⏟⏟⏟⏟⏟⏟⏟⏟⏟⏟⏟⏟⏟⏟⏟⏟⏟⏟⏟⏟⏟ dx n n=0 ∞

= ∑

=Hn (x) 2

2

Beachten wir, dass wH (x, u) = e−(x−u) ex gilt, dann folgt die Darstellung 2

2 un Hn (x)e−x . n! n=0



e−(x−u) = ∑

4.2.2.3 Differential- und Rekursionsgleichungen Die folgenden Relationen lassen sich direkt mit der Rodrigues-Formel ableiten. Lemma 4.18 (Rekursionsgleichung). Die Hermite-Polynome Hn (x) erfüllen die Rekursionsgleichung: Hn+1 (x) − 2xHn (x) + 2nHn−1 (x) = 0, wobei H−1 (x) = 0 und H0 (x) = 1 gilt.

n ∈ ℕ,

(4.27)

4.2 Orthogonale Polynome

� 223

Beweis. Wir betrachten die Rodrigues-Formel für Hn+1 (x) und führen eine Differentiation aus und schreiben 𝜕xn ≡ (d/dx )n : 2

2

2

Hn+1 (x) = (−)n+1 ex 𝜕xn 𝜕x e−x = 2(−)n ex 𝜕xn xe−x

2

= 2xHn (x) − 2nHn−1 (x).

Lemma 4.19. Die Hermite-Polynome Hn (x) erfüllen die kombinierten Differential- und Rekursionsgleichungen: Hn′ (x) = 2xHn (x) − Hn+1 (x), Hn′ (x)

= 2nHn−1 (x).

(4.28a) (4.28b)

Beweis. (a) Dies folgt analog wie zuvor aus der Rodrigues-Formel: 2

2

𝜕x Hn (x) = 2xHn (x) + (−)n−1 ex 𝜕xn+1 e−x = 2xHn (x) − Hn+1 (x). Hieraus folgt mit der Rekursion (4.27) unmittelbar (b). Lemma 4.20 (Differentialgleichung). Die Hermite-Polynome Hn (x) sind Lösungen der Differentialgleichung: ξ ′′ (x) − 2xξ ′ (x) + 2nξ(x) = 0.

(4.29)

Beweis. Die folgt aus der Differentiation von (4.28a) und Einsetzen von (4.28b) für 𝜕x Hn+1 (x). 4.2.2.4 Anwendung Beispiel 4.9. Wir betrachten die Schrödingergleichung des harmonischen Oszillator in einer Dimension mit Frequenz ω und Masse m, die auf das folgende Eigenwertproblem der Differentialgleichung führt: −

ℎ2 d2 m ψ(x) + ω2 x 2 ψ(x) = Eψ(x) 2m dx 2 2

Setzen wir ϵ := 2E/ℎω und y := √mω/ℎ x, so transformiert sich die Differentialgleichung zu: ̃ + ϵψ(y) ̃ ψ̃ ′′ (y) − y2 ψ(y) = 0,

̃ ψ(y) ≡ ψ(√ℎ/mω y).

Die Eigenfunktion ψ̃ zum Eigenwert ϵ suchen wir mit einem Ansatz in der Form 2

ψ̃ n (y) = e−y /2 H̃ n (y).

224 � 4 Orthogonale Funktionen Dabei sei H̃ n (y) ein zu bestimmenden Polynom n-ter Ordnung. Setzen wir den Ansatz ein, so führt dies auf die Gleichung: 2

e−y /2 (H̃ n′′ (y) − 2yH̃ n′ (y) + (ϵ − 1)H̃ n (y)) = 0. Der Vorfaktor ist für endliche y von null verschieden. Ein Vergleich mit der Differentialgleichung für die Hermite-Polynome (4.29) zeigt, dass mit H̃ n = Hn und ϵ = 2n + 1 die Klammer verschwindet und somit die Differentialgleichung des ursprünglichen Problems gelöst ist. Setzt man alles wieder ein, so lautet die Lösung explizit: E = En = ℎω(n + 1/2), 2

ψ(x) = ψn (x) = e−mω/2ℎ x Hn (√mw/ℎ x). Eine Reihe nützlicher Beziehungen folgt aus Relationen der Hermite-Polynome zu Integralen. Als erstes schauen wir uns eine Fourier-Integraldarstellung an und formulieren dies als Aufgabe. Zeige die Fourier-Integraldarstellung der Hermite-Polynome: Hn (x) =

2 (−i2)n x 2 e ∫ dt e−t t n ei2xt . √π

+∞

−∞

Lösung: Zunächst folgt mit α > 0 und β ∈ ℂ: +∞

∫ dt e−α

−∞

2 2

t +2βt

+∞

=

2 2 2 2 2 √π 1 ∫ dt e−(t−β/α) eβ /α = eβ /α . α α

−∞

Setzt man α = 1 und β = ix und differenziert n mal nach x, so folgt: n

(

2 2 2 d 1 (i2)n ) e−x = ∫ dt 𝜕xn e−t +i2xt = ∫ dt t n e−t +i2xt . dx √π √π

+∞

+∞

−∞

−∞

2

Multipliziert man noch mit (−)n ex so folgt aus der Rodrigues-Formel die Integraldarstellung der HermitePolynome. ⬦

Kommen wir zu einer weiteren physikalischen Anwendung und Eigenschaft der HermitePolynome, die wir ebenfalls als Aufgabe formulieren. Zeige, dass die Funktionen ψn (x) = e−x

2

/2

Hn (x),

n ∈ ℕ,

Eigenfunktionen des Fourier-Integraloperators ℱ zum Eigenwert in sind.

4.2 Orthogonale Polynome

� 225

Lösung: Es sei bemerkt, dass es sich um die nicht normierten Hermite-Funktionen aus Gl. (3.12) handelt. Der Einfachheitshalber ist der Normierungsfaktor weggelassen. Es ist zu zeigen ℱ [ψn (x)](k) = in ψn (k). Wir verwenden die Integraldarstellung und berechnen für |r| < 1: 2





n=0

Hn (x)Hn (y) n ∞ (−4)n ex +y r =∑ n 2n n! 2 n! π n=0

2

+∞ +∞

∫ ∫ dsdt e−t

=

e

∫ ∫ dsdt e−t

π

ex

2

−s2

2

−s2 +i2(xt+ys)

+y

π

+∞

∫ dt e−t

2

+∞ +i2xt

−∞





n=0

−∞ −∞ 2

(rst)n ei2(xt+ys)

−∞ −∞

x 2 +y 2 +∞ +∞

=

2

∫ dse−s

2

(−2rst)n n!

+2s(iy−rt)

−∞

(2xyr−(x 2 +y 2 )r 2 )/(1−r 2 ) e = . √1 − r 2 2

Multiplizieren wir mit e−y Hm (y) und integrieren erneut, wobei wir die Orthogonalität der Hermite-Polynome ausnutzen, so erhalten wir für die linke Seite: ∞



n=0

−∞

∑ Hn (x)r n ∫ dy

Hn (y)Hm (y) −y 2 e = √πHm (x)r m . 2n n!

Für die rechte Seite erhalten wir entsprechend im Limes r → i: 2

+∞

lim ∫ dy Hm (y) r→i

−∞

2

2 2

e−y e(2xyr−(x +y )r √1 − r 2

)/(1−r 2 )

2

+∞

= ∫ dy Hm (y) −∞

e−y e(i2xy+(x √2

2

+y 2 ))/2

+∞

=

2 2 1 ∫ dy Hm (y)e−y /2 eixy ex /2 . √2

−∞

Fügen wir die beiden Gleichungen zusammen, so erhalten wir: +∞

2 2 2 1 ∫ Hm (y)e−y /2 eixy = ℱ [Hm (y)e−y /2 ](x) = im e−x /2 Hm (x). √2π

−∞

Dies ist die zu zeigende Gleichung, da gilt ψm (x) = e−x

2

/2

Hm (x).



Weitere Anwendungen der Hermite-Polynome und Hermite-Funktionen finden sich in der Informatik und Statistik. Im Bereich der Finiten-Elemente-Methoden tauchen sie als Formfaktoren auf, in der Statistik bei der Normalverteilung und bei der nicht zentrale Studentische t-Verteilung als Hermite-Polynome mit negativem Index n.

226 � 4 Orthogonale Funktionen 4.2.3 Laguerre-Polynome In diesem Abschnitt diskutieren wir die Verallgemeinerung der in Gl. (3.13) eingeführten Laguerre-Polynome Ln . Die Laguerre-Polynome werden in der Quantenmechanik bei der Lösung der Schrödingergleichung des Wasserstoffatoms gebraucht. Wir starten mit der Definition der Polynome über die Rodrigues-Formel. 4.2.3.1 Rodrigues-Formel Definition 4.10. Die verallg. Laguerre-Polynome sind definiert über: Lαn (x) :=

1 ex dn −x α+n (e x ), n! x α dx n

n ∈ ℕ0 ,

α > −1.



Die Laguerre-Polynome (3.13) ergeben sich als Spezialfall L0n (x) = Ln (x)/n!. Zunächst zeigen wir die explizite Darstellung. Lemma 4.21. Für die Laguerre-Polynome Lαn (x), α > −1 gilt: n

Γ(n + 1 + α) 1 (−x)m , m!(n − m)! Γ(m + 1 + α) m=0

Lαn (x) = ∑

n ∈ ℕ0 .

(4.30)

Beweis. Explizit durch Verwendung der Rodrigues-Formel in Verbindung mit der Leibniz Formel ergibt sich: Lαn (x) =

n−m n+α n!e−x x 1 ex n md (−) ∑ n! x α m=0 m!(n − m)! dx n−m n

(−)m (n + α)(n + α − 1) ⋅ ⋅ ⋅ (n + α − (n − m) + 1) x n+α−(n−m) ⏟⏟⏟⏟⏟⏟⏟⏟⏟⏟⏟⏟⏟⏟⏟⏟⏟⏟⏟⏟⏟⏟⏟⏟⏟⏟⏟⏟⏟⏟⏟⏟⏟⏟⏟⏟⏟⏟⏟⏟⏟⏟⏟⏟⏟⏟⏟⏟⏟⏟⏟⏟⏟⏟⏟⏟⏟⏟⏟⏟⏟⏟⏟⏟⏟⏟⏟⏟⏟⏟⏟⏟⏟⏟⏟⏟⏟⏟⏟⏟⏟ m!(n − m!) m=0

= x −α ∑

=Γ(n+1+α)/Γ(m+1+α)

n

1 Γ(n + 1 + α) (−x)m . m!(n − m!) Γ(m + 1 + α) m=0

= ∑

An dieser Stelle sei bemerkt, dass in der Literatur die Laguerre-Polynome unterschiedlich definiert werden. In einigen physikalischen und mathematischen Lehrbüchern wird der Faktor 1/n! verwendet in anderen nicht. Wir verwenden die Notation, wie sie in [25] benutzt wird, um eine einheitliche Verwendung der dort aufgeführten Relationen zu gewährleisten.

In der Abbildung 4.9 sind die ersten 4 Laguerre-Polynome dargestellt. Beginnen wir die Diskussion der Eigenschaften und betrachten als erstes die erzeugende Funktion der verallgemeinerten Laguerre-Polynome.

4.2 Orthogonale Polynome

� 227

Abb. 4.9: LaguerrePolynome Ln (x) = L0n (x) (4.30), für n = 1, 2, 3, 4 aufgetragen gegen Ln /n!.

4.2.3.2 Erzeugende Funktion Lemma 4.22. Die erzeugende Funktion der verallgemeinerten Laguerre-Polynome lautet: wLα (x, u) :=

exp(ux/(u − 1)) ∞ α = ∑ Ln (x)un , (1 − u)1+α n=0

x ∈ ℝ+ ,

|u| < 1.

(4.31)

Beweis. Wir zeigen dies, indem wir von der erzeugenden Funktion ausgehen und die Exponentialfunktion in eine Taylorreihe entwickeln: (−x)m um m! (1 − u)m+1+α m=0 ∞

wLα (x, u) = ∑

(−x)m m ∞ −(m + α + 1) u ∑( )(−u)n m! n m=0 n=0 ∞

= ∑

(−x)m n+m Γ(m + n + α + 1) 1 u m! Γ(m + α + 1) n! m=0 n=0 ∞ ∞

= ∑ ∑ CP



n

= ∑ ∑ (−x)m u(n−m)+m n=0 m=0 ∞ n n

= ∑ u ∑ (−x)m n=0 ∞

m=0

= ∑ un Lαn (x). n=0

1 Γ(m + (n − m) + α + 1) Γ(m + α + 1) (n − m)!m!

Γ(n + α + 1) 1 Γ(m + α + 1) (n − m)!m!

228 � 4 Orthogonale Funktionen An der Stelle (CP) haben wir die Cauchy-Produktdarstellung für absolut konvergenten Reihen verwendet: ∞ ∞



n

∑ ∑ an,m = ∑ ∑ an−m,m .

n=0 m=0

n=0 m=0

Bevor wir fortfahren, mit den allgemeinen Eigenschaften, diskutieren wir noch die spezielle Darstellung der Laguerre-Polynome mit α = k ∈ ℕ, die in der Quantenmechanik eine wichtige Rolle spielen. Dort steht der Index k mit der Drehimpuls-Quantenzahl in Bezug. Lemma 4.23. Für die verallgemeinerten Laguerre-Polynome mit α = k ∈ ℕ gilt: Lkn (x) = (−)k

dk 0 L (x). dx k n+k

Beweis. Setzen wir explizit die Darstellung (4.30) für Ln+k ein, so folgt: (−)k

n+k (−1)m Γ(n + k + 1) dk m dk 0 Ln+k (x) = (−)k ∑ x k m!(n + k − m)! Γ(m + 1) dx k dx m=0 n+k

= (−)k ∑ n

m=k

(−1)m Γ(n + k + 1) m! x m−k m!(n + k − m)! Γ(m + 1) (m − k)!

(−1)m Γ(n + k + 1) m x (n − m)!m! Γ(m + k + 1) m=0

= ∑ n

(−1)m (n + k)! m x (n − m)!m! (m + k)! m=0

= ∑

= Lkn (x).

Gehen wir zu den Differential- und Rekursionsgleichungen über und beachten, dass wir nun zwei Indizes haben, sodass es eine größere Vielfalt von Relationen gibt. Hier stellen wir nur exemplarisch einige wichtige Beziehungen zusammen, die besonders in der Quantenmechanik gebraucht werden. 4.2.3.3 Differential- und Rekursionsgleichungen Lemma 4.24. Die verallgemeinerten Laguerre-Polynome Lαn (x) erfüllen die Rekursionsgleichung (n + 1)Lαn+1 (x) − (2n + 1 + α − x)Lαn (x) + (n + α)Lαn−1 (x) = 0,

(4.32)

mit Lα−1 (x) = 0 und Lα1 (x) = 1. Beweis. Dies kann wieder durch partielle Differentiation der erzeugenden Funktion (4.31) nach u gezeigt werden.

4.2 Orthogonale Polynome

� 229

Bei dieser Rekursion ist α in allen Termen gleich. Rekursionen mit variierendem α betrachten wir im folgenden Lemma. Lemma 4.25. Die verallgemeinerten Laguerre-Polynome Lαn (x) erfüllen die Rekursionen: α+1 Lαn (x) = Lα+1 n (x) − Ln−1 (x),

1 α α Lα+1 n (x) = ((x − n)Ln (x) + (α + n)Ln−1 (x)). x

(4.33a) (4.33b)

Beweis. (a) Wir verwenden die erzeugende Funktion (4.31), für die gilt: (1 − u)wLα+1 (x, u) = wLα (x, u). Setzen wir die Reihenentwicklung ein und beachten Lα−1 (x) ≡ 0, so ergibt sich: ∞

n+1 α+1 0 = ∑ (un Lα+1 Ln (x) − un Lαn (x)) n (x) − u n=0 ∞

α+1 α n = ∑ (Lα+1 n (x) − Ln−1 (x) − Ln (x))u . n=0

Durch Koeffizientenvergleich in un folgt die Aussage. (b) Wir nutzen die Gl. (4.32) für α+1 und ersetzen dort mittels (4.33a) den Term Lα+1 n−1 (x) = α Lα+1 (x) − L (x) und erhalten: n n α+1 α (n + 1)Lα+1 n+1 (x) − (n + 1 − x)Ln (x) − (n + 1 + α)Ln (x) = 0.

Von dieser Gleichung ziehen wir wiederum Gl. (4.32) ab und bekommen: α α+1 α α (n + 1)(Lα+1 n+1 − Ln+1 ) − (n + 1 − x)Ln + (n − x)Ln − (n + α)Ln−1 = 0.

Im ersten Term wird (4.33a) verwendet um den Index n + 1 nach n zu verschieben, woraus folgt: α α xLα+1 n (x) + (n − x)Ln (x) − (n + α)Ln−1 (x) = 0.

Gehen wir über zu Differentialgleichungen und beginnen zunächst mit gemischten Differential- und Rekursionsgleichungen. In dieser Form wird sich dann die homogene Differentialgleichung zweiter Ordnung für die Laguerre-Polynome einfach ableiten lassen. Lemma 4.26. Die verallgemeinerten Laguerre-Polynome Lαn erfüllen die kombinierten Differential- und Rekursionsgleichungen:

230 � 4 Orthogonale Funktionen Lαn−1 (x) = x

dLαn−1 (x) dLαn (x) − , dx dx

dLαn (x) = nLαn (x) − (n + α)Lαn−1 (x), dx

(4.34a) (4.34b)

für n ∈ ℕ0 und x ∈ ℝ+ . Beweis. (a) Wir differenzieren die erzeugende Funktion partiell nach x: (1 − u)

𝜕wLα (x, u) = u wLα (x, u). 𝜕x

Setzen wir die Reihenentwicklung ein: ∞

∑ ((1 − u)

n=0

dLαn (x) n u − Lαn (x)un+1 ) = 0, dx

dann folgt durch Koeffizientenvergleich die Aussage. (b) Wir differenzieren Gl. (4.32) und erhalten: (n + 1)(𝜕x Lαn+1 − 𝜕x Lαn ) + (n + α)(𝜕x Lαn−1 − 𝜕x Lαn ) + x𝜕x Lαn + Lαn = 0. In beiden Klammern ersetzen wir jeweils mittels (4.34a) die Ableitungen −(n + 1)Lαn (x) + (n + α)Lαn−1 (x) + x𝜕x Lαn (x) + Lαn (x) = 0, woraus durch eine einfache Umordnung Gl. (4.34b) folgt. Jetzt sind wir in der Lage, die Laguerre’sche Differentialgleichung und deren Lösung anzugeben. Lemma 4.27 (Laguerresche DGL). Die verallgemeinerten Laguerre-Polynome Lαn (x) erfüllen die homogene Differentialgleichung zweiter Ordnung: xξ ′′ (x) + (1 + α − x)ξ ′ (x) + nξ(x) = 0.

(4.35)

Beweis. Wir differenzieren Gl. (4.34b) nach x und setzen anschließend (4.34a) und (4.34b) ein, um die verschobenen Indizes zu eliminieren: 𝜕x Lαn (x) + x𝜕x2 Lαn (x) = n𝜕x Lαn (x) − (n + α)𝜕x Lαn−1 (x)

= n𝜕x Lαn (x) − (n + α)(Lαn−1 (x) + 𝜕x Lαn (x))

= −α𝜕x Lαn (x) + x𝜕x Lαn (x) − nLαn (x). Nach Zusammenfassung der Terme folgt die Aussage.

4.2 Orthogonale Polynome

� 231

Im Abschnitt 3.4.1 haben wir nur die Orthogonalität der Laguerre-Polynome Ln (x) diskutiert, es bleibt die Orthogonalität im allgemeinen Fall zu zeigen. Lemma 4.28. Die verallgemeinerten Laguerre-Polynome Lαn (x) sind orthogonale Polynome mit Gewichtsfunktion w(x) = e−x x α und hn = Γ(α + n + 1)/n!. Beweis. Zunächst definieren wir die verallgemeinerten Laguerre-Funktionen: φαn (x) := e−x/2 x α/2 Lαn (x). Wir zeigen die φαn (x) sind Lösungen der Differentialgleichung: dξ(x) α + 1 x α2 d (x ) + (n + − − )ξ(x) = 0. dx dx 2 4 4x

(4.36)

Hierzu betrachten wir mit Lαn = Lαn (x): −x α α α L + L + x𝜕x Lαn )] 2 n 2 n α (α − x)2 α Ln = e−x/2 x α/2 [ Ln − + (α − x + 1)𝜕x Lαn + x𝜕x2 Lαn ] 4x 2 α (α − x)2 α Ln Ln − − nLαn (x)] = e−x/2 x α/2 [ 4x 2

𝜕x (x𝜕x φαn (x)) = 𝜕x [e−x/2 x α/2 (

=[

(α − x)2 1 − − n]φαn (x). 4x 2

Multipliziert man die Klammer aus und bringt die Terme auf eine Seite, so folgt (4.36), deswegen gilt: 0 = 𝜕x (x𝜕x φαn (x)) + (n +

α + 1 x α2 α − − )φn (x), 2 4 4x

0 = 𝜕x (x𝜕x φαm (x)) + (m +

α + 1 x α2 α − − )φm (x). 2 4 4x

Nehmen wir an n ≠ m und multiplizieren die erste Gleichung mit φαm (x). Anschließend multiplizieren wir die zweite Gleichung mit φαn (x), bilden die Differenz dieser Gleichungen und integrieren die resultierende Gleichung über ℝ+ . Alle Terme in der zweiten Klammer, die nicht vom Index n oder m abhängen, heben sich weg, und es bleibt übrig: ∞



0 = ∫ dx (φαm 𝜕x (x𝜕x φαn ) − φαn 𝜕x (x𝜕x φαm )) + (n − m) ∫ dx φn (x)φm (x) 0 ∞



0

0

0

= ∫ dx 𝜕x (xφαm 𝜕x φαn − xφαn 𝜕x φαm ) + (n − m) ∫ dx φn (x)φm (x)

232 � 4 Orthogonale Funktionen ∞

󵄨∞ = (xφαm 𝜕x φαn − xφαn 𝜕x φαm )󵄨󵄨󵄨0 + (n − m) ∫ dx φn (x)φm (x) ∞

0 ∞

0

0

= (n − m) ∫ dx φn (x)φm (x) = (n − m) ∫ dx e−x x α Ln (x)Lm (x). Aus dieser Gleichung folgt die Orthogonalität. Betrachten wir nun n = m. Hierzu benutzen wir die Rekursionsgleichung (4.32), die wir für n − 1 mit Lαn multiplizieren. Anschließend subtrahieren wir hiervon Gl. (4.32) multipliziert mit Lαn−1 : 2

2

0 = n(Lαn ) + 2Lαn Lαn−1 − (n + 1)Lαn+1 Lαn−1 + (n − 1 + α)Lαn Lαn−2 − (n + α)(Lαn−1 ) . Diese Gleichung multiplizieren wir mit w(x) = e−x x α und integrieren über ℝ+ . Benutzt man die zuvor gezeigte Orthogonalität, wodurch die Terme mit unterschiedlichen unteren Indizes verschwinden, so folgt: ∞

∫ dx e−x x α Lαn (x)2 0



n+α = ∫ dx e−x x α Lαn−1 (x)2 n 0



n+αn+α−1 n + α − (n − 1) Lα0 (x)2 = ⋅⋅⋅ ∫ dx e−x x α ⏟⏟⏟⏟⏟⏟⏟⏟⏟⏟⏟ n n−1 1 0

=1



=

Γ(n + α + 1) Γ(n + α + 1) . ∫ dx e−x x α = n!Γ(α + 1) n! 0

In der letzten Zeile haben wir eine Identität der Gammafunktion eingesetzt.6 Betrachten wir eine Anwendung aus der Quantenmechanik ohne auf die Details einzugehen. 4.2.3.4 Anwendung Beispiel 4.10. Die Schrödingergleichung des Wasserstoffatoms mit reduzierter Masse m und Ladung e ist gegeben durch:7 (−

ℏ2 e2 ⃗ Δ − )ψ(r)⃗ = Eψ(r). 2m r

Diese Gleichung separiert in einen winkelabhängigen Anteil und einen Anteil der nur vom Abstand r = |r|⃗ des Elektrons vom Ursprung (Kern) abhängt: 6 Vergleiche [25] Gl. (6.1.1). 7 Vergleichen [41] Kapitel 11.1.

4.2 Orthogonale Polynome

fl′′ (r) + (ϵ +

2me2 1 l(l + 1) − )fl (r) = 0, ℏ2 r r2

� 233

(4.37)

mit ϵ = 2mE/ℏ2 . Die Größe l ∈ ℕ0 kennzeichnet den Wert des Bahndrehimpulses des Elektrons. Betrachten wir den Fall gebundener Lösungen, dann gilt: E < 0. Führen die Variablensubstitution x := 2r √−ϵ durch, dann gelangen wir zu: 0 = fl′′ (x) − (

l(l + 1) ν 1 − + )fl (x), x 4 x2

mit ν = e2 √m/(−2Eℏ2 ). Setzt man für die Lösung an: fl (x) = x l+1 e−x/2 ξl (x), so ergibt sich die Gleichung: 0 = xξl′′ (x) + (2l + 2 − x)ξl′ (x) − (l + 1 − ν)ξl (x). Diese Differentialgleichung vergleichen wir mit Gl. (4.35). Setzen wir α = 2l + 1 und ν = (l + 1 + n) ∈ ℕ, so haben wir eine Lösung gefunden, die lautet: ξl (x) = L2l+1 n (x). Insgesamt n l+1 −x/2 2l+1 folgt, dass fl (x) = x e Ln (x) eine Lösung der Radialgleichung (4.37) mit den oben bestimmten l und ν ist. Da ν ganzzahlig ist, sind die Energieeigenwerte der gebundenen Zustände quantisiert. ⬦ 4.2.4 Tschebyscheff-Polynome* Als letztes Beispiel für ein System orthogonaler Polynome betrachten wir die Tschebyscheff-Polynome. Wir beginnen mit der Rodrigues-Formel und der expliziten Darstellung. 4.2.4.1 Rodrigues-Formel Wir definieren wie zuvor die Tschebyscheff-Polynome über die trigonometrische Funktion. Definition 4.11 (Tschebyscheff-Polynome). Die Tschebyscheff-Polynome erster Art sind definiert durch: Tn (x) = cos(n arccos x),

x ∈ [−1, +1],

n ∈ ℕ0 .

(4.38)

In der Literatur existieren verschiedene Normierungen der Tschebyscheff-Polynome. In der Physik wird oft noch ein zusätzlicher Faktor 1/2n−1 hinzugefügt. Wir verwenden wiederum die Notation aus [25].

Tschebyscheff-Polynome zweiter Art Un (x) diskutieren wir hier nicht, sie haben eine ähnliche Struktur und können durch die Tn (x) ausgedrückt werden:

234 � 4 Orthogonale Funktionen Un (x) =

1 (x Tn+1 (x) − Tn+2 (x)), 1 − x2

n ∈ ℕ0 .

Wir verweisen auf die Ausführungen in [25]. Die explizite Darstellung der TschebyscheffPolynome erster Art gibt das folgende Lemma wieder: Lemma 4.29. Für die Tschebyscheff-Polynome Tn (x) gilt: Tn (x) =

n (n − k − 1)! (2x)n−2k , ∑ (−1)k 2 k=0 k!(n − 2k)! ⌊n/2⌋

n ∈ ℕ,

(4.39)

und T0 = 1. Beweis. Wir verwenden die Euler-Formel und setzen x = cos θ n n einθ = cos(nθ) + i sin(nθ) = (cos θ + i sin θ)n = ∑ ( )(cos θ)n−m (i sin θ)m . m m=0

Es sei n > 0 und x ≠ 0, dann gilt für den Realteil: n Tn (cos θ) = cos(nθ) = ∑ ( )(−)k cosn−2k θ sin2k θ 2k k=0 ⌊n/2⌋

n n k k = ∑ ( )x n−2k (x 2 − 1) = x n ∑ ( )(1 − x −2 ) 2k 2k k=0 k=0 ⌊n/2⌋

⌊n/2⌋

(n + k − 1)! n (2x)n−2k . ∑ (−1)k 2 k=0 k!(n − 2k)! ⌊n/2⌋

=

Die Fälle n = 0 und x = 0 sind klar. In Abbildung 4.10 sind die ersten Tschebyscheff-Polynome erster Art dargestellt. Lemma 4.30. Die Rodrigues-Formel der Tn (x) lautet: Tn (x) = (−)n

√1 − x 2 dn n−1/2 (1 − x 2 ) , (2n − 1)!! dx n

n ∈ ℕ,

und T0 = 1. Beweis. Zunächst gilt für die Ableitung: dn (2n)! n (−1)k x 2k−n (1 − x 2 )n−k−1/2 2 n−1/2 (1 − x ) = ∑ dx n 2n k=0 (2n − 2k)!(2k − n)! = Setzen wir dies ein, so folgt

(−)n x n (2n)! n (1 − x −2 )n−k . ∑ n √1 − x 2 2 k=0 (2n − 2k)!(2k − n)!

4.2 Orthogonale Polynome

� 235

Abb. 4.10: TschebyscheffPolynome Tn (x) (4.39), für n = 1, 2, 3, 4. Es ist nur der Teil 0 ≤ x ≤ 1 dargestellt, da gilt T2n (−x) = T2n (x) und T2n+1 (−x) = −T2n+1 (x).

Tn (x) =

(1 − x −2 )n−k xn (2n)! n ∑ (2n − 1)!! 2n k=0 (2n − 2k)!(2k − n)!

n n k = x n ∑ ( )(1 − x −2 ) 2k k=0

n n n k k = x n ∑ ( )(1 − x −2 ) +x n ∑ ( )(1 − x −2 ) . 2k 2k k=0 k=⌊n/2⌋+1 ⏟⏟⏟⏟⏟⏟⏟⏟⏟⏟⏟⏟⏟⏟⏟⏟⏟⏟⏟⏟⏟⏟⏟⏟⏟⏟⏟⏟⏟⏟⏟⏟⏟⏟⏟⏟⏟⏟⏟⏟⏟⏟⏟ ⏟⏟⏟⏟⏟⏟⏟⏟⏟⏟⏟⏟⏟⏟⏟⏟⏟⏟⏟⏟⏟⏟⏟⏟⏟⏟⏟⏟⏟⏟⏟⏟⏟⏟⏟⏟⏟⏟⏟⏟⏟⏟⏟⏟⏟ ⌊n/2⌋

=Tn (x)

=0

Diskutieren wir die wichtigsten Eigenschaften, und beginnen mit der erzeugenden Funktion. 4.2.4.2 Erzeugende Funktion Lemma 4.31. Die erzeugende Funktion der Tschebyscheff-Polynome lautet: wT (x, u) :=

∞ 1 − u2 = 1 + 2 ∑ Tn (x)un , 2 1 − 2xu + u n=1

(4.40)

für |x| < 1 und |u| < 1. Beweis. Wir zeigen dies, indem wir zum einen x := cos θ setzen und zum anderen die ̃ u) ≡ (1 − 2xu + u2 )wT (x, u) berechnen, wobei Additionstheoreme für trigoGröße w(x, nometrische Funktionen genutzt werden. Aus Gl. (4.40) folgt mit Tn (cos θ) = cos(nθ) =: cn :

236 � 4 Orthogonale Funktionen ∞

̃ w(cos θ, u) = (1 − 2u cos θ + u2 ) + 2 ∑ un (1 − 2u cos θ + u2 )Tn (cos θ) n=1 ∞ n

= 1 − 2u cos θ + u2 + 2 ∑ u (1 − 2u cos θ + u2 ) cos(nθ) n=1



2

2 = 1 − 2uc1 + u + 2 ∑ un (c ⏟⏟⏟⏟⏟⏟⏟⏟⏟⏟⏟⏟⏟⏟⏟⏟⏟⏟ ⏟⏟⏟c⏟⏟⏟⏟⏟⏟⏟⏟⏟⏟⏟⏟⏟⏟⏟⏟ n − 2cn−1 1 + cn−2⏟)⏟ +2uc1 − 2u n=2

2

=0

=1−u .

Dabei wurden im vorletzten Schritt in der Summe die Indizes verschoben und das Additionstheorem cos(nθ) + cos((n − 2)θ) = 2 cos(θ) cos((n − 1)θ) benutzt. Man achte darauf, dass bei dieser Definition zwischen erzeugender Funktion und den Tschebyscheff-Polynomen die Summe in (4.40) bei n = 1 startet und somit der Term T0 (x) = 1 fehlt. 4.2.4.3 Differential- und Rekursionsgleichungen Lemma 4.32. Die Tschebyscheff-Polynome erfüllen die Rekursionsgleichung Tn+1 (x) − 2xTn (x) + Tn−1 (x) = 0,

n = 1, 2, . . . ,

mit T−1 (x) = 0 und T0 (x) = 1, sowie T1 (x) = x. Beweis. Der Beweis folgt direkt aus dem Beweis für die erzeugende Funktion. Lemma 4.33. Die Tschebyscheff-Polynome erfüllen die homogene Differentialgleichung zweiter Ordnung: (1 − x 2 )ξ ′′ (x) − xξ ′ (x) + n2 ξ(x) = 0,

n ∈ ℕ.

Beweis. Wir benutzen die Darstellung (4.38) Tn (x) = cos(n arccos x) und betrachten 𝜕x2 Tn (x) für x ≠ ±1: 𝜕x2 Tn (x) = 𝜕x2 cos(n arccos(x)) = 𝜕x = n sin(n arccos(x)) = (𝜕x Tn (x))

n sin(n arccos(x)) √1 − x 2

x n2 − cos(n arccos(x)) 2 3/2 1 − x2 (1 − x )

x n2 − Tn (x) . 2 1−x 1 − x2

Die Fälle x = ±1 folgen elementar. Die Tschebyscheff-Polynome finden Anwendung in der numerischen Mathematik und Physik. Um dies zu zeigen betrachten wir zunächst die folgende Orthogonalitätseigenschaft.

4.2 Orthogonale Polynome

� 237

Lemma 4.34. Es sei n, m < N und xk0 die N Nulsstellen der Tschebyscheff-Polynome TN (x), dann gilt: 0 : n ≠ m { N { { ∑ Tn (xk0 )Tm (xk0 ) = {N/2 : n = m ≠ 0 { { k=0 : n = m = 0. {N Beweis. Die Nullstellen der Tschebyscheff-Polynome sind gegeben durch: TN (xk0 ) = cos(N arccos xk0 ) = cos(π(k + 1/2)),

k = 0, . . . , N − 1,

also: xk0 = cos(π(k + 1/2)/N). Für n = m = 0 folgt die Behauptung unmittelbar aus T0 (x) = 1. Betrachten wir die beiden anderen Fälle. Die Summe lässt sich explizit berechnen: N

N

k=0

k=0

∑ Tn (xk0 )Tm (xk0 ) = ∑ cos(nπ(k + 1/2)/N) cos(mπ(k + 1/2)/N) = =

1 N ∑ (cos((n − m)π(2k + 1)/2N) + cos((n + m)π(2k + 1)/2N)) 2 k=0 sin(π(n − m)) sin(π(n + m)) 1 ( + ). 4 sin(π(n − m)/2N) sin(π(n + m)/2N)

Für den Fall n ≠ m ist der Zähler gleich null und der Nenner ungleich null. Ist n = m ≠ 0, so verschwindet der zweite Term und für den ersten folgt im Limes: limx→0 sin(xπ)/ sin(xπ/2N) = 2N. Hieraus folgt insgesamt die Behauptung. 4.2.4.4 Anwendung Anwendungen der Tschebyscheff-Polynome ergeben sich größtenteils im Bereich der Numerik und der Approximation und der Polynominterpolation. Betrachten wir hierzu ein Beispiel. Beispiel 4.11. Es sei eine stetige Funktion f auf [−1, 1] gegeben, dann zeigen wir zunächst N−1

f (xk0 ) = ∑ αnN Tn (xk0 ) − n=0

α0N , 2

(4.41)

wobei xk0 = cos(π(k + 1/2)/N), k = 0, . . . , N − 1 die N Nullstellen des Polynoms TN (x) sind und αnN =

2 N−1 ∑ f (xl0 )Tn (xl0 ), N l=0

n = 0, . . . , N − 1.

238 � 4 Orthogonale Funktionen Um dies zu zeigen, betrachten wir die Summe auf der rechten Seite: N−1

∑ αnN Tn (xk0 ) =

n=0

= =

2 N−1 N−1 ∑ ∑ f (xl0 )Tn (xl0 )Tn (xk0 ) N n=0 l=0

N−1 2 N−1 ∑ f (xl0 ) ∑ cos(πn(k + 1/2)/N) cos(πn(l + 1/2)/N) N l=0 n=0

Nδ + 1 2 N−1 ∑ f (xl0 ) kl N l=0 2

= f (xk0 ) +

αN 1 N−1 ∑ f (xl0 ) = f (xk0 ) + 0 . N l=0 2

Das bedeutet, f (x) wird an den Stellen x = xk0 exakt durch die Summe (4.41) dargestellt. Für ein beliebiges x ∈ [−1, 1] und ein vorgegebenes ϵ > 0, kann N und k immer so gewählt werden, dass |x − xk0 | < ϵ gilt. Durch ein immer größer werdendes N kommen immer mehr Nullstellen hinzu, die letztlich dicht in [−1, 1] liegen. Das bedeutet für ein beliebiges x gilt: N0

f (x) = ∑ αnN Tn (x) − n=0

α0N + 𝒪(ϵ). 2

Die Tschebyscheff-Polynome sind eine sehr einfache und effiziente Art eine numerische Approximation zu erhalten. ⬦ Beispiel 4.12. Betrachten wir ein explizites Beispiel und drücken f (x) = ln(1 + x) durch Tschebyscheff-Polynome Tn (x) aus: ∞

ln(1 + x) = ∑ an Tn (x). n=0

Multiplizieren wir beide Seiten mit Tm (x)/√1 − x 2 und integrieren, dann folgt: +1

+1

−1

−1

T (x) ln(1 + x) T (x) ∞ = ∫ dx m ∑ an Tn (x) ∫ dx m √1 − x 2 √1 − x 2 n=0 ∞

+1

= ∑ an ∫ dx n=0

−1

Tm (x)Tn (x) π = (1 + δm0 )am . 2 √1 − x 2

Für die linke Seite gilt: +1

π

−1

0

T (x) ln(1 + x) = ∫ dθ ln(1 + cos θ) = −π ln 2, ∫ dx 0 √1 − x 2

4.3 Kugelflächenfunktionen

� 239

und für m > 0: +1

π

−1

0

T (x) ln(1 + x) = ∫ dθ cos(mθ) ln(1 + cos θ) ∫ dx m √1 − x 2 p. I.

=

π

1 ∫ dθ sin(mθ) tan(θ/2) m 0

π(−)m+1 = . m Damit folgt insgesamt: (−)n T (x). n n n=1 ∞

ln(1 + x) = − ln 2 − 2 ∑



Für umfangreichere weitere Anwendungen im Bereich der Numerik schaue man in das Lehrbuch Einführung in die numerische Mathematik von R. W. Hoppe [36].

4.3 Kugelflächenfunktionen In diesem Kapitel führen wir ein Orthonormalsystem auf der Einheitskugel ein. Wir verwenden Kugelkoordinaten mit den Winkeln (θ, ϕ). Zur Konstruktion des Funktionensystems definieren wir zunächst die assoziierten Legendre-Funktionen, die im Allgemeinen keine Polynome sind. Diese Funktionen sind Verallgemeinerungen der in Abschnitt 4.2.1 eingeführten Legendre-Polynome. Sie sind der eine Bestandteil der Kugelflächenfunktionen, der andere Bestandteil sind die orthogonalen Funktionen eimϕ . Die Kugelflächenfunktionen werden unter anderem in der Elektrodynamik bei der Beschreibung von elektromagnetischen Wellen gebraucht und in der Quantenmechanik bei der Darstellung der Orbitale von Atomen und Molekülen benötigt.

4.3.1 Assoziierte Legendre-Funktionen Die allgemeinste Form der assoziierten Legendre-Funktionen Pvm mit ν ∈ ℝ werden wir hier nicht diskutieren, sondern nur solche mit ganzzahligen Index ν = l. Für unsere Zwecke, im Hinblick auf die zu konstruierenden Kugelflächenfunktionen, reicht es hier aus l ∈ ℕ0 zu betrachten. Definition 4.12. Die assoziierten Legendre-Funktionen erster Art sind definiert durch: Plm (x) :=

m+l 2 (−)m (x − 1)l 2 m/2 d (1 − x ) , 2l l! dx m+l

240 � 4 Orthogonale Funktionen mit l ∈ ℕ0 , m = −l, −l + 1, . . . , l und x ∈ [−1, 1].



Aus dem Vergleich mit der Definition (4.20) ergibt sich zum einen Pl0 (x) = Pl (x) und zum anderen für m ≥ 0: Plm (x) = (−)m (1 − x 2 )

m m/2 d Pl (x) . dx m

Für m = l erhält man nach kurzer Rechnung: Pll (x) = (−)l (2l − 1)!!(1 − x 2 )l/2 . Der Faktor (−)m wird in der Literatur nicht einheitlich verwendet, darauf muss bei einem Vergleich der Eigenschaften geachtet werden. Wir verwenden hier die Form, wie sie in [25] (Gl. 8.6.6) definiert ist. Die selbe Definition wird im Lehrbuch Klassische Elektrodynamik J. D. Jackson [42] benutzt. Hingegen wird im Lehrbuch Quantenmechanik I von A. Messiah [41] die Definition ohne den Faktor (−)m verwendet.

Kommen wir zunächst zu den Eigenschaften und beginnen mit der Orthogonalitätsrelation. Lemma 4.35 (Orthogonalitätsrelationen). Die ass. Legendre-Funktionen Plm (x) erfüllen die Orthogonalitätsrelationen: +1

∫ dx Plm (x)Plm′ (x) = −1

2 (l + m)! δ ′. 2l + 1 (l − m)! ll

Beweis. Sei zunächst l = l′ , dann gilt: +1

∫ dx Plm (x)Plm (x) −1

+1

1 m l l = l 2 ∫ dx (1 − x 2 ) 𝜕xm+l (x 2 − 1) 𝜕xm+l (x 2 − 1) (2 l!) −1

(−1)l l m l = l 2 ∫ dx (x 2 − 1) 𝜕xm+l ((x 2 − 1) 𝜕xm+l (x 2 − 1) ) (2 l!) +1

−1

(−1)l (2l)!(l + m)! l ∫ dx (x 2 − 1) (2l l!)2 (l − m)! +1

=

−1

(−1)l (2l)!(l + m)! l!2l+1 2 (l + m)! = l 2 = . (2 l!) (l − m)! (2l + 1)!! 2l + 1 (l − m)! Wir nehmen ohne Einschränkung an l > l′ und integrieren partiell l + m mal. Dann erkennt man aus der zweiten Zeile, dass das Integral über das Polynom vom Grad l′ +m < l + m verschwindet. Ohne Beweis notieren wir die erzeugende Funktion, die sich im Fall m = 0 auf den schon bekannten Fall (4.22) reduziert.

4.3 Kugelflächenfunktionen

� 241

Lemma 4.36 (Erzeugende Funktion). Die erzeugende Funktion der Plm (x) ist gegeben durch: wPm (x, u) := (2m − 1)!!

∞ (1 − x 2 )m/2 um = ul Plm (x). ∑ (1 − 2xu + u2 )m+1/2 l=m

Bezüglich des oberen Indexes erfüllen die Plm (x) eine wichtige Symmetrierelation. Lemma 4.37 (Symmetrierelation). Für die ass. Legendre-Funktionen Plm (x) gilt: Pl−m (x) = (−)m

(l − m)! m P (x), (l + m)! l

l ∈ ℕ0 ,

m = −l, −l + 1, . . . , l.

(4.42)

Beweis. Es genügt zu zeigen, dass gilt: l

𝜕xl−m (x 2 − 1) =

(l − m)! 2 m l (x − 1) 𝜕xl+m (x 2 − 1) , (l + m)!

wobei 0 < m ≤ l. Führen wir zu diesem Zweck die neuen Variablen ξ(x) := x 2 − 1 ein, dann schreibt sich (x + y)2 − 1 = ξ(x) + 2xy + y2 . Betrachten wir die Taylorentwicklung dieser Größe zur Potenz l um y = 0: 2m m ym dm y dm l l󵄨 2 l 󵄨󵄨 [(x + y) − 1] ξ (x). = ξ (x) + ∑ 󵄨 y=0 m m! dy m! dx m m=1 m=0 ∞

l

[(x + y)2 − 1] = ∑

Als nächstes dividieren wir diese Gleichung durch yl und erhalten. l

(

2l ξ(x) + 2xy + y2 ym−l m l ξ l (x) ) = l +∑ 𝜕 ξ (x) y m! x y m=1

= =

2l 𝜕xl ξ l (x) l−1 ym−l m l ym−l m l + ∑ 𝜕x ξ (x) + ∑ 𝜕 ξ (x) l! m! m! x m=0 m=l+1

l l 𝜕xl ξ l (x) y−m l−m l ym +∑ 𝜕x ξ (x) + ∑ 𝜕xl+m ξ l (x). l! (l − m)! (l + m)! m=1 m=1

Betrachtet man die Transformation der Variablen: y 󳨃→ ξ(x)/y, so gilt: ξ(x) + 2xy + y2 y

y󳨃→ξ(x)/y

󳨃→

ξ(x) + 2xξ(x)/y + (ξ(x)/y)2 ξ(x) + 2xy + y2 = . ξ(x)/y y

Die Transformation lässt den Ausdruck invariant, und damit folgt: l

(

ξ(x) + 2xy + y2 ) y

y󳨃→ξ/y

=

l l 𝜕xl ξ l (x) ym ξ −m l−m l y−m ξ m l+m l +∑ 𝜕x ξ (x) + ∑ 𝜕 ξ (x). l! (l − m)! (l + m)! x m=1 m=1

Aus der linearen Unabhängigkeit der ym folgt durch Koeffizientenvergleich:

242 � 4 Orthogonale Funktionen ξ(x)m l+m l 1 𝜕 ξ (x) = 𝜕l−m ξ l (x). (l + m)! x (l − m)! x Damit ist die Aussage gezeigt und daraus folgernd (4.42). An dieser Stelle sei bemerkt, dass die Aussage auch aus der Beobachtung folgt, dass die LegendreDifferentialgleichung (4.43) aus dem nächsten Abschnitt invariant ist gegenüber der Transformation m 󳨃→ −m. Da sowohl die Plm (x) als auch die Pl−m (x) Lösungen dieser Gleichung sind, müssen beide proportional zueinander sein. Die detaillierte Begründung erfordert jedoch genauere Kenntnis der Theorie der Differentialgleichung, weswegen wir diesen Weg hier nicht gegangen sind.

Kommen wir nun zu den Differential- und Rekursionsgleichung. 4.3.1.1 Differential- und Rekursionsgleichung Lemma 4.38 (Differentialgleichung). Die Plm (x) sind Lösungen der allgemeinen LegendreDifferentialgleichung: (1 − x 2 )ξ ′′ (x) − 2xξ ′ (x) + (l(l + 1) −

m2 )ξ(x) = 0. 1 − x2

(4.43)

Beweis. Zunächst betrachten wir den Fall m ≥ 0. Wir gehen von der LegendreDifferentialgleichung (4.23) (n = l) aus und differenzieren diese m-fach nach x: 0 = 𝜕xm [(1 − x 2 )𝜕x2 ξ(x)] − 2𝜕xm [x𝜕x ξ(x)] + l(l + 1)𝜕xm ξ(x)

= (1 − x 2 )𝜕xm+2 ξ(x) − 2x(m + 1)𝜕xm+1 ξ(x) + (l − m)(l + m + 1)𝜕xm ξ(x).

Als Zwischenresultat erhalten wir für die Legendre-Differentialgleichung: 0 = (1 − x 2 )𝜕x2 𝜕xm ξ(x) − 2x(m + 1)𝜕x 𝜕xm ξ(x) + (l − m)(l + m + 1)𝜕xm ξ(x).

(4.44)

Setzen wir die Legendre-Polynome Pl (x) ein und beachten 𝜕xl+m Pl (x) ≡ 0: 0 = (1 − x 2 )𝜕x2 𝜕xm Pl (x) − 2x(m + 1)𝜕x 𝜕xm Pl (x) + (l − m)(l + m + 1)𝜕xm Pl (x). Diese Gleichung ist auch gültig für m = l, l − 1, denn der Fall m = l ist trivial erfüllt und für m = l − 1 ergibt sich aus: 0 = −x𝜕xl Pl (x) + 𝜕xl−1 Pl (x). Diese Gleichung kann direkt verifiziert werden durch Einsetzen von (4.21). Nun führen wir τ(x) := (1 − x 2 )m/2 𝜕xm Pl (x) ein und setzen dies in die letzte Gleichung ein. Nach einfachen Umformungen gelangt man zur Differentialgleichung: 0 = (1 − x 2 )𝜕x2 τ(x) − 2x𝜕x τ(x) + (l(l + 1) −

m2 )τ(x) = 0. 1 − x2

4.3 Kugelflächenfunktionen

� 243

Da aber τ(x) = (−)m Plm (x) und die konstanten Faktoren die Gültigkeit der Gleichung nicht ändert, sind die Plm (x) für m ≥ 0 Lösungen der Differentialgleichung (4.43). Betrachten wir den Fall m < 0. Dann folgt aus (4.42), dass Pl−m (x) ebenfalls Lösung der Differentialgleichung (4.44) ist. Lemma 4.39 (Rekursionsgleichungen). Es gelten die Rekursionsgleichungen: 2mx m P (x) + (l + m)(l − m + 1)Plm−1 (x), √1 − x 2 l m m 0 = (l − m + 1)Pl+1 (x) − (2l + 1)xPlm (x) + (l + m)Pl−1 (x) = 0,

0 = Plm+1 (x) +

(4.45a) (4.45b)

l für m = −l, . . . , +l mit P−1 (x) ≡ 0, P0l (x) = 1 und Plm+n (x) = 0 wenn |m + n| > l.

Beweis. (a) Dies folgt mit der Gleichung 𝜕xm Pl (x) = (−)m (1 − x 2 )

−m/2 m Pl (x),

(4.46)

durch Einsetzen in (4.44) und der Verschiebung des Indexes: m → m − 1. Die Fälle m = l, l − 1 werden ebenfalls durch die Gleichung beschrieben, wenn man Pll+1 (x) = Pll+2 (x) = 0 beachtet. (b) Wir gehen von Gl. (4.25a) aus und differenzieren diese m-fach nach x: (2l + 1)𝜕xm Pl (x) = 𝜕xm+1 Pl+1 (x) − 𝜕xm+1 Pl−1 (x). Mit Gl. (4.46) lässt sich dies schreiben als: √1 − x 2 (2l + 1)Pm = Pm+1 (x) − Pm+1 (x). l l−1 l+1 Analog verfahren wir mit der Rekursionsgleichung (4.24) und finden: m m 0 = (l + 1)Pl+1 (x) − (2l + 1)xPlm (x) + (2l + 1)m√1 − x 2 Plm−1 (x) + lPl−1 (x).

Verschieben wir den Index in der vorletzten Gleichung: m → m − 1 und setzen die linke Seite in die letzte Gleichung ein, so folgt (4.45b). Den Fall m = l erhält man explizit durch: (2l + 1)𝜕xl Pl (x) = (2l + 1)(2l − 1)!! = (2l + 1)!! = 𝜕xl+1 Pl+1 (x). Analog verfährt man für den Fall m = l − 1. Die Rekursionsgleichung (4.45a) verwendet man, um für ein festes l die Serie der Plm (x) zu bestimmen, indem man von Pl0 (x) = Pl (x) ausgeht und √1 − x 2 P1 (x) (4.25b) = l[xPl (x) − Pl−1 (x)]. l Die assoziierten Legendre-Polynome sind Bestandteil der Kugelflächenfunktionen.

244 � 4 Orthogonale Funktionen 4.3.2 Kugelflächenfunktionen Nun bilden wir aus den orthogonalen Funktionen eimϕ und den assoziierten LegendreFunktionen Plm (cos θ) die Kugelflächenfunktionen Ylm (θ, ϕ). Wir verwenden die Nomenklatur der Winkel, sowie sie in Abbildung 4.11 dargestellt ist. Wir zeigen, dass diese Funktionen ein Orthonormalsystem auf der Einheitskugel bilden.

Abb. 4.11: Kugelkoordinaten mit Winkeln (0 ≤ θ < π, −π ≤ ϕ < π). Dabei ist ϑ = ∠(er⃗ , er⃗ ′ ) der Winkel zwischen den Richtungen der Vektoren r ⃗ und r ′⃗ .

Definition 4.13. Die Kugelflächenfunktionen sind definiert über: Ylm (θ, ϕ) := √

2l + 1 (l − m)! m P (cos θ)eimϕ , 4π (l + m)! l

mit 0 ≤ θ < π und −π ≤ ϕ < +π, sowie m = −l, . . . , +l.

(4.47) ◼

Es gilt im Speziellen Yl0 (θ, ϕ) = √

2l + 1 P (cos θ). 4π l

Offenbar sind die Kugelflächenfunktionen auf der Einheitskugel definiert. Als wichtigste Eigenschaft untersuchen wir zunächst die Orthogonalität. Lemma 4.40 (Orthogonalität). Die Kugelflächenfunktionen Ylm (θ, ϕ) bilden ein orthonormiertes Funktionensystem auf der Einheitskugel Ω und es gilt: 󵄨 ⟨Ylm (θ, ϕ) 󵄨󵄨󵄨 Ykn (θ, ϕ)⟩Ω = ∫ dΩ(θ, ϕ) Ylm (θ, ϕ)Ȳkn (θ, ϕ) = δlk δmn , Ω

mit dem Raumwinkelelement dΩ(θ, ϕ) := dϕdθ sin θ.

4.3 Kugelflächenfunktionen

� 245

Beweis. Die Orthogonalität ergibt sich aus der Orthogonalität der eimϕ und den Plm (cos θ), denn es gilt: ⟨Ylm (θ, ϕ)



π

−π

0

󵄨󵄨 n m n 󵄨󵄨 Yk (θ, ϕ)⟩Ω = ∫ dϕ ∫ dθ sin θ Yl (θ, ϕ)Ȳk (θ, ϕ) = δmn √

1

2l + 1 (l − m)! 2k + 1 (k − m)! ∫ dx Plm (x)Pkm (x) 4π (l + m)! 4π (k + m)! −1

= δlk δmn .

Die Kugelflächenfunktionen bilden nicht nur ein orthonormiertes Funktionensystem, sondern auch eine Orthonormalbasis auf der Kugeloberfläche. Lemma 4.41 (Orthonormalbasis). Die Kugelflächenfunktionen Ylm (θ, ϕ) bilden eine Orthonormalbasis und es gilt die Vollständigkeitsrelation: ∞

+l

∑ ∑ Ylm (θ, ϕ)Ȳlm (θ′ , ϕ′ ) = δ(Ω − Ω′ ) =

l=0 m=−l

1 δ(ϕ − ϕ′ )δ(θ − θ′ ). sin θ

(4.48)

Beweis. Die Aussage ist in der Kurznotation von Distributionen geschrieben, so wie es in der Physik üblich ist. Im nächsten Kapitel werden wir uns mit Distributionen eingehend beschäftigen und auf den Beweis der Aussage zurückkommen und deswegen verzichten wir an dieser Stelle auf einen Beweis. Stattdessen nutzen wir die Aussage, um Funktionen auf der Einheitskugel nach einer Orthonormalbasis zu entwickeln. Die allgemeine Entwicklung von Funktionen auf der Einheitskugel ist gegeben durch den Entwicklungssatz von Laplace. Lemma 4.42 (Entwicklungssatz – Laplace). Es sei eine stetige Funktion f (θ, ϕ) auf der Einheitskugel gegeben, dann lässt sich f (θ, ϕ) nach Kugelflächenfunktionen Ylm (θ, ϕ) entwickeln: ∞

+l

f (θ, ϕ) = ∑ ∑ clm Ylm (θ, ϕ) l=0 m=−l

mit clm = ∫ dΩ(θ′ , ϕ′ ) Ȳlm (θ′ , ϕ′ )f (θ′ , ϕ′ ). Ω

Beweis. Dies ist lediglich eine andere Formulierung der Aussage (4.48). Um dies zu sehen multiplizieren wir Gl. (4.48) auf beiden Seiten mit f (θ′ , ϕ′ ) und integrieren anschließend über die Einheitskugel Ω, so ergibt sich zunächst rein formal:

246 � 4 Orthogonale Funktionen ∞ +l f (θ′ , ϕ′ ) δ(ϕ − ϕ′ )δ(θ − θ′ ) ∫ dΩ′ f (θ′ , ϕ′ ) ∑ ∑ Ylm (θ, ϕ)Ȳlm (θ′ , ϕ′ ) = ∫ dΩ′ sin θ l=0 m=−l

Ω

Ω

= ∫ dϕ′ dθ′ f (θ′ , ϕ′ )δ(ϕ − ϕ′ )δ(θ − θ′ ) Ω

= f (θ, ϕ). !

Es muss aber noch gezeigt werden, dass die rechte Seite tatsächlich gleich f (θ, ϕ) ist. Dazu muss die Existenz einer Funktion δ mit diesen Eigenschaft noch gezeigt werden. Aus der Analysis ist klar, dass δ keine stetige Funktion sein kann. Es braucht deswegen noch einiges an Arbeit, um die Zusammenhänge sauber darzustellen. Deswegen ist dies hier ebenso kein Beweis. Diesen verschieben wir auch auf das nächste Kapitel über Distributionen. Betrachten wir folgenden wichtigen Spezialfall, der an das Beispiel 4.8 anschließt. Demnach gilt auf der Einheitskugel ΔPl (cos θ) = −l(l + 1)Pl (cos θ). Wenn dies allgemein für eine Funktion gilt, dann folgt: Lemma 4.43. Eine Funktion fl (θ, ϕ) erfülle auf der Einheitskugel die Laplace-Gleichung Δfl (θ, ϕ) = −l(l + 1)fl (θ, ϕ), dann folgt: l

fl (θ, ϕ) = ∑ cm Ylm (θ, ϕ),

(4.49)

m=−l

mit cm = ∫ dΩ(θ, ϕ) Ȳlm (θ, ϕ)fl (θ, ϕ). Ω

Beweis. Wir benutzen den allgemeinen Entwicklungssatz für fl (θ, ϕ) und wenden auf beide Seiten den Laplace-Operator an und nutzen die Voraussetzung: ∞

+k



+k

k=0

m=−k

−l(l + 1)fl (θ, ϕ) = ∑ ∑ ckm ΔYkm (θ, ϕ) = − ∑ k(k + 1) ∑ ckm Ykm (θ, ϕ). k=0 m=−k

Setzen wir links wiederum für fl (θ, ϕ) die Laplace-Entwicklung ein, so folgt: ∞

+k

0 = ∑ ∑ (l(l + 1) − k(k + 1))ckm Ykm (θ, ϕ). k=0 m=−k

Da die Ylm ein ONS bilden, muss ckm = 0 für alle k ≠ l und m = −k, . . . , k gelten. In der Laplace-Entwicklung bleibt nur der Term mit l über und die Summe reduziert sich auf Gl. (4.49). Da l fest durch die Funktion fl (θ, ϕ) vorgegebene ist, lassen wir den Index l fallen und schreiben cm = clm .

4.3 Kugelflächenfunktionen

� 247

⃗ ϕ) und r⃗′ = r⃗′ (θ′ , ϕ′ ) Beispiel 4.13. Schauen wir uns den von zwei Vektoren r⃗ = r(θ, eingeschlossenen Winkel ϑ := ∠(e⃗r , e⃗r′ ) an. Dieser ergibt sich aus r ⃗ ⋅ r ⃗′ = cos ϑ = cos θ cos θ′ + sin θ sin θ′ cos(ϕ − ϕ′ ). ⃗ r ⃗′ | |r||

(4.50)

Stellen wir diese Gleichung um und beachten, dass gilt P1 (cos ϑ) = cos ϑ und setzen x = cos θ, so folgt: ′ ′ 1 P1 (cos ϑ) = P10 (cos θ)P10 (cos θ′ ) + P11 (cos θ)P11 (cos θ′ ) (ei(ϕ−ϕ ) + e−i(ϕ−ϕ ) ) 2 ′ 1 1 0 0 ′ −1 −1 ′ −i(ϕ−ϕ′ ) = P1 (x)P1 (x ) + 2P1 (x)P1 (x )e + P1 (x)P11 (x ′ )ei(ϕ−ϕ ) 2

=

4π 1 ∑ Y m (θ, ϕ)Ȳ1m (θ′ , ϕ′ ). 3 m=−1 1



Dieses Additionstheorem verallgemeinern wir im folgenden Lemma. Lemma 4.44 (Additionstheorem). Die Entwicklung der Legendre-Polynome nach Kugelflächenfunktionen lautet: Pl (cos ϑ) =

4π +l m ∑ Y (θ, ϕ)Ȳlm (θ′ , ϕ′ ). 2l + 1 m=−l l

(4.51)

Beweis. Die Abhängigkeit von den Winkeln θ, ϕ, θ′ , ϕ′ in ϑ steckt in der Gleichung cos ϑ = cos θ cos θ′ + sin θ sin θ′ cos(ϕ − ϕ′ ). Wir betrachten θ′ , ϕ′ als Parameter und schreiben ϑ = ϑ(θ, ϕ). Entwickeln wir Pl (cos ϑ) mittels Gl. (4.49) l

Pl (cos ϑ) = ∑ cm (θ′ , ϕ′ )Ylm (θ, ϕ). m=−l

Die Koeffizienten cm bestimmen sich dann über: cm (θ′ , ϕ′ ) = ∫ dΩ(θ, ϕ)Ȳlm (θ, ϕ)Pl (cos ϑ). Ω

Das Integral ist kompliziert zu berechnen, deswegen bestimmen wir die gesuchten Koeffizienten cm indirekt. Hierzu bemerken wir zunächst, dass Δ = ∇⋅∇ ein Skalarprodukt ist und dieses deswegen invariant ist gegenüber Drehungen des Koordinatensystems und deswegen auf der Einheitskugel für alle gedrehten Koordinatensysteme gilt: Δ(θ, ϕ)Pl (cos ϑ) = −l(l + 1)Pl (cos ϑ). Betrachten wir ein Koordinatensystem mit Achsenausrichtung entlang des Vektors r⃗′ und bezeichnen die zugehörigen Winkel zum Vektor r⃗ mit (ϑ, φ). In diesem Koordina-

248 � 4 Orthogonale Funktionen tensystem ist der Polarwinkel ϑ und der Azimutwinkel φ. Die Entwicklung von Ȳlm (θ, ϕ) ist gegeben durch: l

n Ȳlm (θ, ϕ) = ∑ bm n (θ, ϕ)Yl (ϑ, φ), n=−l

(4.52)

mit ̄m ̄n bm n (θ, ϕ) = ∫ dΩ(ϑ, φ)Yl (θ, ϕ)Yl (ϑ, φ). Ω

Betrachten wir n = 0, dann folgt für das Volumenelement: 󵄨󵄨 𝜕(ϑ, φ) 󵄨󵄨 󵄨󵄨 󵄨 dΩ(ϑ, φ) = dΩ(θ, ϕ)󵄨󵄨󵄨 󵄨 = dΩ(θ, ϕ), 󵄨󵄨 𝜕(θ, ϕ) 󵄨󵄨󵄨 und ̄m ̄0 √ 2l + 1 ∫ dΩ(ϑ, φ)Ȳlm (θ, ϕ)Pl (cos ϑ) bm 0 = ∫ dΩ(ϑ, φ)Yl (θ, ϕ)Yl (ϑ, φ) = 4π Ω

Ω

=√

2l + 1 ∫ dΩ(θ, ϕ)Ȳlm (θ, ϕ)Pl (cos ϑ) 4π Ω

=√

2l + 1 m ′ ′ c (θ , ϕ ). 4π

Der Koeffizient bm 0 (θ, ϕ) kann aber auch direkt aus Gl. (4.52) berechnet werden, dazu betrachten wir ϑ → 0: l

n lim Ȳlm (θ, ϕ) = ∑ bm n (θ, ϕ) lim Yl (ϑ, φ)

ϑ→0

ϑ→0

n=−l l

√ 2l + 1 . √ 2l + 1 δn0 Pln einϕ = bm = ∑ bm 0 (θ, ϕ) n (θ, ϕ) 4π 4π n=−l ϑ→0

Andererseits gilt (θ, ϕ) 󳨀→ (θ′ , ϕ′ ), woraus dann folgt: √ bm 0 =

4π ̄ m ′ ′ Y (θ , ϕ ). 2l + 1 l

Damit ergibt sich letztlich das gesuchte cm (θ′ , ϕ′ ) zu cm (θ′ , ϕ′ ) =

4π ̄ m ′ ′ Y (θ , ϕ ). 2l + 1 l

4.3 Kugelflächenfunktionen

� 249

Die Summenregel kann auch durch die assoziierten Legendre-Polynome ausgedrückt werden. Setzen wir x = cos θ, x ′ = cos θ′ , dann folgt: n

Pn (xx ′ − √1 − x 2 √1 − x ′ 2 cos ϑ) = Pn (x)Pn (x ′ ) + 2 ∑ Pnm (x)Pnm (x ′ ) cos(mϑ). m=1

Daraus folgt nach Integration über ϑ: π

1 ∫ dϑPn (xx ′ − √1 − x 2 √1 − x ′ 2 cos ϑ) = Pn (x)Pn (x ′ ). π 0

Aus dem Additionstheorem folgt sie Summenregel der Kugelflächenfunktionen. Lemma 4.45 (Summenregel). +l 󵄨 󵄨2 2l + 1 . ∑ 󵄨󵄨󵄨Ylm (θ, ϕ)󵄨󵄨󵄨 = 4π m=−l

Beweis. Setzen wir in (4.51) ϑ = 0 → (θ, ϕ) = (θ′ , ϕ′ ), so ergibt sich: 1 = Pl (0) =

4π +l m 4π +l 󵄨󵄨 m 󵄨2 ∑ Yl (θ, ϕ)Ȳlm (θ, ϕ) = ∑ 󵄨Y (θ, ϕ)󵄨󵄨󵄨 . 2l + 1 m=−l 2l + 1 m=−l󵄨 l

Bevor wir zu Anwendungen kommen schauen wir uns noch wichtige SymmetrieEigenschaften der Kugelflächenfunktionen an. Lemma 4.46. Die Ylm (θ, ϕ) erfüllen die Symmetrieeigenschaften: Ylm (π

Yl−m (θ, ϕ) = (−)m Ylm (θ, −ϕ) = (−)m Ȳlm (θ, ϕ), l

− θ, ϕ + π) = (−)

Ylm (θ, ϕ).

Beweis. Wir zeigen dies durch elementare Umformungen: (a) (4.47)

2l + 1 (l + m)! −m P (cos θ)e−imϕ 4π (l − m)! l

(4.42)

2l + 1 (l + m)! m (l − m)! im(−ϕ) Pl (cos θ)(−)m e 4π (l − m)! (l + m)!

Yl−m (θ, ϕ) = √ = √

= (−)m Ylm (θ, −ϕ). (b) Ylm (π − θ, ϕ + π) = √

2l + 1 (l − m)! m Pl (− cos θ) eimπ eimϕ = (−)l Ylm (θ, ϕ). 4π (l + m)! ⏟⏟⏟⏟⏟⏟⏟⏟⏟⏟⏟⏟⏟⏟⏟⏟⏟⏟⏟⏟⏟ l+m m =(−)

Pl (cos θ)

(4.53a) (4.53b)

250 � 4 Orthogonale Funktionen 4.3.3 Anwendungen Eine unmittelbare Anwendung dieser Gleichung zeigt das folgende Beispiel. Beispiel 4.14. Wir betrachten wie im Beispiel 4.13 zwei Vektoren und verwenden die⃗ ϕ) und r⃗′ = r⃗′ (θ′ , ϕ′ ) und nehmen ohne Einschränkung an selbe Nomenklatur r⃗ = r(θ, ′ ′⃗ r = |r | < |r|⃗ = r. Dann folgt zunächst aus Beispiel 4.7 die Darstellung durch LegendrePolynome und den Winkel ϑ = ∠(e⃗r , e⃗r′ ): l

1 1 ∞ r′ = ∑( ) Pl (cos ϑ). ′ |r⃗ − r⃗ | r l=0 r Setzen wir die Darstellung der Pl (cos ϑ) aus (4.51) ein, so folgt die Darstellung durch die Winkel θ, ϕ, θ′ und ϕ′ : l

1 r′ 1 4π ∞ +l ( ) Ylm (θ, ϕ)Ȳlm (θ′ , ϕ′ ). = ∑ ∑ ′ r l=0 m=−l 2l + 1 r |r⃗ − r⃗ | Die erstere Darstellung nutzt man in der Physik, wenn im Problem nur der Winkel ϑ zwischen den Vektoren r⃗ und r⃗′ eingeht, die letztere Darstellung, wenn die volle Abhängigkeit aller Winkel eingeht. Beispiele sind die Multipolentwicklung aus der Elektrodynamik. ⬦ Zum Schluss betrachten wir noch eine Anwendungen aus der Quantenmechanik. Aufgabe 4.1. Der Drehimpuls-Operator der Quantenmechanik ist definiert durch: ℎ L⃗ := (r⃗ × ∇), i

L± := L1 ± iL2 .

Zeige, dass gilt (ℎ = 1): Lz Ylm (θ, ϕ) = mYlm (θ, ϕ),

L± Ylm (θ, ϕ) = √l(l + 1) − m(m ± 1)Ylm±1 (θ, ϕ), L⃗ 2 Ylm (θ, ϕ) = l(l + 1)Ylm (θ, ϕ).

(4.54a) (4.54b) (4.54c)

Lösung: Drücken wir zunächst die Komponenten des Drehimpulsoperators in Kugelkoordinaten aus. Nach einer elementaren aber länglichen Rechnung folgt: 1 Lz = 𝜕ϕ , i

1 1 𝜕 sin θ𝜕θ + 𝜕ϕ2 ), sin θ θ sin2 θ L± = e±iϕ (±𝜕θ + i cot θ𝜕ϕ ). L2 = −(

Aufgaben

� 251

Diese Darstellung wenden wir auf die Kugelflächenfunktionen an: (a) Lz Ylm (θ, ϕ) = √

2l + 1 (l − m)! m P (cos θ)(−i)𝜕ϕ eimϕ = mYlm (θ, ϕ). 4π (l + m)! l

(b) Dies ist nichts anderes als die allgemeine Legendre’sche Differentialgleichung (4.43), wenn wir beachten, dass gilt x = cos θ und deswegen: 1 𝜕 sin θ𝜕θ = (1 − x 2 )𝜕x2 − 2x𝜕x , sin θ θ woraus mit Plm = Plm (cos θ) folgt 1 𝜕2 )Pm eimϕ 1 − x2 ϕ l m2 m imϕ = −((1 − x 2 )𝜕x2 Plm − 2x𝜕x Plm − P )e = l(l + 1)Plm eimϕ . 1 − x2 l

L⃗ 2 Plm eimϕ = −((1 − x 2 )𝜕x2 − 2x𝜕x +

Eine anschließende Multiplikation mit dem gemeinsamen Faktor ergibt die zweite Aussage. (c) Auch hier gehen wir wieder über zur Variable x = cos θ: L± Ylm (θ, ϕ) = √ =√

2l + 1 (l − m)! ±iϕ e (±𝜕θ + i cot θ𝜕ϕ )Plm (cos θ)eimϕ 4π (l + m)! 2l + 1 (l − m)! √ (∓ 1 − x 2 𝜕x − mx/√1 − x 2 )Plm (x)ei(m±1)ϕ 4π (l + m)!

Verwenden wir (siehe Aufgaben) für die beiden Fälle ‘±’: √1 − x 2 𝜕x Pm (x) = −Pm+1 (x) − mx/√1 − x 2 Pm (x), l

l

l

√1 − x 2 𝜕x Pm (x) = (l(l + 1) − m(m − 1))Pm−1 (x) + mx/√1 − x 2 Pm (x), l

l

dann folgt die Aussage.



Aufgaben 1.

l

Zeige, dass für den Dirichlet-Kern die Faltungseigenschaft gilt: +π

DN (t) = (DN ⋆ DN )(t) = ∫ dt DN (t − t ′ )DN (t ′ ). −π

252 � 4 Orthogonale Funktionen 2.

f

Bestimme die Fourierpartialsummen SN (t) auf dem Intervall [−π, +π] für: (i) f (t) := e±t ,

3.

f (t) := Θ(t),

in der Θ(t) die Stufenfunktion (6.6) ist. Stelle diese zusammen mit den Funktionen f (t) grafisch dar. Zeige (i)

4.

(ii)

∞ 1 1 (−)n , = + 2t ∑ 2 2 sin t t n=1 t − (nπ)

(ii)

cot t =

∞ 1 1 . + 2t ∑ 2 2 t t − (nπ) n=1

Bestimme das folgende Integral ohne die Integration explizit durchzuführen: π

∫ dt cos(2(x − t))FN (t),

N = 1, 2, . . .

0

5.

Mithilfe des Ergebnisses zum Gibb’schen Phänomen (h(t), α = 1) untersuche man das Konvergenzverhalten der Partialsummen in der Gleichung: N

f

SN (t) = ∑

n=1

6.

n4 g sin(nt) =: SN (t) + SNh (t). +1

n5

Diskutiere die Abel-Summe von 1/2 + cos(x) + cos(2x) + cos(3x) + ⋅ ⋅ ⋅ und zeige 1 − r2 1 ∞ = + ∑ r n cos(nx). 2 2(1 − 2r cos(x) + r ) 2 n=1

7.

Betrachte die Bessel-Funktionen aus dem Aufgabenbereich zu Kapitel 3 und nutze die Reihendarstellung: 2k+n

(−)k x ( ) k!(n + k)! 2 k=0 ∞

Jn (x) = ∑

,

und zeige die Rekursion Jn+1 (x) =

8.

2n J (x) − Jn−1 (x), x n

n = 1, 2, 3 . . .

Wichtig sind die ersten beiden Bessel-Funktionen J0 (x) und J1 (x). Stelle diese grafisch dar und untersuche die Güte der Reihendarstellung. Zeige die Darstellungen: ∞

cos(r sin x) = J0 (r) + 2 ∑ J2n (r) cos(2nx), n=1

Aufgaben

� 253



sin(r sin x) = 2 ∑ J2n+1 (r) sin((2n + 1)x). n=0

9.

Ein Radiosignal hat die folgende Form f (t) = cos(ω1 t +

A sin(ω2 t)). ω2

Drücke f (t) durch periodische Funktionen cos(Ω(ω1 , ω2 )t) aus und gib die Frequenzen Ω(ω1 , ω2 ) explizit an. 10. Zeige mithilfe der Eigenschaft der Fourier-Transformation, dass die Lösung der eindimensionalen Wellengleichung 𝜕2 ϕ(x, t) 1 𝜕2 ϕ(x, t) = , 𝜕x 2 v2 𝜕t 2

v > 0,

ϕ(x, 0) = g(x),

𝜕ϕ(x, 0) = 0, 𝜕t

gegeben ist durch ϕ(x, t) = (g(x − vt) + g(x + vt))/2,

g ∈ 𝒞 (2) (𝕀).

11. In der Signalverarbeitung gibt es die Situation, dass eine sogenannte Impulsantwort K(t) gegeben ist und am Ausgang die Funktion f (t) gemessen wird. Am Eingang liegt die Funktion y(t) an, und die Größen sind durch eine Faltung miteinander verbunden: t

f (t) = ∫ dt K(t − t ′ )y(t ′ ).

t > 0.

0

Bestimme allgemein mithilfe der Laplace-Transformation für K(t) = Θ(t) sin(t), die Funktion x(t) als Funktion von f (t). Berechne explizit für die Ausgangsfunktionen (i) f (t) = exp(−t),

(ii) f (t) = sin(2t),

die Eingangsfunktion y(t) und stelle alle Größen grafisch dar. 12. Zeige, 1

Pn (x) , n+1 n=0 u ∞

√1 − 2ux + x 2

=∑

|u| > 1, |t| ≤ 1.

13. Auf dem Intervall [−1, 1] vergleiche man die Fourierreihe der Funktion f (t) = Θ(t) und die Entwicklung dieser Funktion nach Legendre-Polynome. 14. Zeige das asymptotische Verhalten der Hermite-Polynome für große n und vergleiche dies grafisch mit der exakten Funktion für verschieden n: n→∞

Hn (x) ⇝

2 2n Γ((n + 1)/2) cos(x √2n − nπ/2)ex /2 . √π

254 � 4 Orthogonale Funktionen 15. Zeige, dass die Laguerre-Polynome Ln (x) Eigenfunktionen des Sturm-LiouvilleOperators ℒ := −ex 𝜕x (xe−x 𝜕x ) sind und bestimme die Eigenwerte. 16. Zeige die Relationen für Tschebyscheff-Polynome: 1 Tm (x)Tn (x) = (Tm+n (x) + Tm−n (x)), 2 Tmn (x) = Tm (Tn (x)).

m ≥ n ≥ 0,

17. Zeige die Turán-Ungleichung für fn = Pn , Hn und Tn in deren Definitionsbereichen: fn2 − fn−1 fn+1 > 0. 18. Finde eine harmonische Funktion f = f (θ, ϕ), die auf der Oberfläche der Einheitskugel gegeben ist durch: (i)

f (θ, ϕ) = 3 cos2 θ − 1,

(ii) f (θ, ϕ) = (3 cos2 ϕ − 1) sin2 θ.

19. Visualisiere die Kugelflächenfunktionen Ylm (θ, ϕ) für l = 0, 1, 2, 3 in einer dreidimensionalen Grafik. 20. Drücke den Quadrupoltensor Qij = 3xi xj − r 2 δij durch r 2 Y2m (θ, ϕ) aus.

5 Tensorrechnung In diesem Kapitel betrachten wir allgemeine Grundlagen der Tensorrechnung mit dem speziellen Schwerpunkt auf der Anwendungen in der Physik, so wie sie in der Mechanik und Elektrodynamik in den einführenden Vorlesungen benötigt werden. Das Ziel dieser elementaren Darstellung wird es sein zu verstehen, warum es im Allgemeinen notwendig ist zwischen sogenannten kontra- und kovarianten Größen zu unterscheiden und wie mit diesen Größen in der Praxis umzugehen ist. Das Tensorkalkül ist ein Teilgebiet der Differentialgeometrie. Eine sehr kompakte und mathematische Darstellung der Differentialgeometrie wird in dem mittlerweile etwas älteren deutschsprachigen Lehrbuch Differentialgeometrie von E. Peschl [43] gegeben. Eine modernere Darstellung und deutlich umfangreicher sowie mit vielen Anwendungen und Bezügen zur Physik stellt das Lehrbuch Modern Geometry – Methods and Applications von B. A. Dubrovin et al. [44] dar. In diesem Lehrbuch werden praktisch alle Aspekte der Differentialgeometrie und Tensorrechnung sowohl mathematisch als auch physikalisch umfassend behandelt. Das Werk an sich ist sehr umfangreich und reicht für mehrere Vorlesungen über Differentialgeometrie sowohl in der Mathematik als auch in der Physik. Eine mehr anwendungsorientierte und umfangreiche Darstellung des Stoffes samt Beispielen findet sich im Lehrbuch Tensors, Differential Forms, and Variational Principles von D. Lovelock, H. Rund [45]. Im Folgenden stehen wir vor der Aufgabe einen möglichst kompakten und elementaren Zugang zum Tensorkalkül aufzubauen, der aber trotzdem in sich weitestgehend abgeschlossen ist und alle Rechentechniken bereit stellt, um den Anforderungen in den Grundvorlesungen gewachsen zu sein. Zur Motivation und als Anknüpfungspunkte an bekannten Dingen der linearen Algebra, werden wir zunächst einige Begriffe am anschaulichen Euklidischen Vektorraum motivieren, die wir in den darauffolgenden Kapiteln entsprechen verallgemeinern.

5.1 Euklidische Räume Wir betrachten den Euklidischen Vektorraum Ed in d Dimensionen auf dem zwei Orthonormalbasen {ei } ≡ ⟨e1 , . . . , ed ⟩ und {ẽ i } ≡ ⟨ẽ 1 , . . . , ẽ d ⟩ bezüglich eines gemeinsamen Ursprungs O ∈ Ed gegeben seien. Ein Punkt P ∈ Ed sei beschrieben durch den Vektor x.1 Die Darstellung des Vektors in den obigen Basen schreiben wir in der Form: d

x = ∑ x i ei ≡ x i ei = x̃ i ẽ i . i=1

(5.1)

1 In diesem Kapitel schreiben wir zum besseren Verständnis Vektoren und Matrizen fett gedruckt im Gegensatz zu ihren Komponenten. https://doi.org/10.1515/9783111059228-005

256 � 5 Tensorrechnung Im zweiten Schritt ist die Summenkonvention über doppelt auftretende Indizes benutzt worden, die in diesem Kapitel meist verwendet wird und im Rahmen der Diskussion über Tensoren üblich ist. Die Anordnung in obere und untere Indizes ist von Beginn an so gewählt, dass sie später konsistent mit der Einführung von ko- und kontravarianten Vektoren bzw. Tensoren ist. Die d-Tupel (x 1 , . . . , x d ) und (x̃ 1 , . . . , x̃ d ) nennen wir die Koordinaten in den Basen {ei } bzw. {ẽ i }. Ein Basiswechsel von {ei } zu {ẽ i } wird durch eine orthogonale Matrix A ∈ Od (ℝ) vermittelt, was wir in der Index-Schreibweise über doppelt auftretende Indizes wie folgt schreiben: j ei = Ai ẽ j ,

i = 1, . . . , d.

(5.2)

Für die Transformationsmatrix A gilt: AAt = At A = 1



j

j

j

Aik A k = Aki Ak = δi .

Die transponierte Matrix in Indexschreibweise lautet (At )ik = Aki , man achte dabei auf die horizontale Position der Indizes. Für die Komponentendarstellung der Identität wurde das Kronecker-Symbol δ verwendet, welches definiert ist durch: j

j

j

j

(1)i ≡ δi = δ i =: δi . Die zu Gl. (5.2) inverse Transformation erhält man durch Multiplikation mit Aik und Summation über i: j

j

Aik ei = Aik Ai ẽ j = δk ẽ j = ẽ k



j ẽ i = A i ej .

j Wenn wir analog zu Gl. (5.2) eine Transformation à durch ẽ i = à i ej definieren, dann identifizieren wir: j

A i = Ã i

j

⇐⇒

j j j à ik Ak = A k à ki = δi

⇐⇒

̃ = AÃ = 1. AA

Die Transformationsmatrizen A und à sind invers zueinander und erlauben es von einem zum anderen Orthonormalsystem zu wechseln. Setzen wir dies in Gl. (5.1) ein, so folgt: j x = x i ei = x i Ai ẽ j = x̃ j ẽ j = x̃ j Aij ei .

Aus einem Koeffizientenvergleich in der Basisentwicklung folgt unmittelbar für die Koordinatentransformation zwischen x i ↔ x̃ i : x i = Aij x̃ j

j und x̃ j = Ai x i .

(5.3)

In Matrixschreibweise ohne Indizes lautet dies x = Ax̃ bzw. x̃ = At x. An dieser Stelle ist nochmals zu bemerken, dass alle bisherigen Betrachtungen und Gleichungen linear

5.1 Euklidische Räume



257

zueinander sind und sich zunächst auf die Koordinatenvektoren beziehen. Im Allgemeinen interessieren wir uns aber auch für die allgemeinen Koordinatentransformationen von beliebigen Vektoren und Matrizen.

5.1.1 Affine Vektoren und Tensoren Lösen wir uns von den Koordinatenvektoren, die Punkte in Ed beschreiben und betrachten allgemeine d-Tupel, die sich gemäß der Koordinatentransformation A transformieren. Dies führt uns auf den Begriff des affinen Vektors. Definition 5.1 (Affiner Vektor). Ein d-dimensionales Tupel a := (a1 , . . . , ad )t bildet einen affinen Vektor, wenn unter der orthogonalen Transformation A der Koordinaten x̃ j = j x i Ai der affine Vektor ã gegeben ist durch: j ã j = ai Ai .

(5.4) ◼

Man spricht stattdessen auch oft von kartesischen, orthogonalen Vektoren. Der so eingeführte Vektor a muss konzeptionell unterschieden werden von Elementen aus Ed . In dem bisher diskutierten Fall ist eine solche Unterscheidung eigentlich nicht nötig, dies wird sich jedoch bei der Betrachtung nicht linearer Transformationen ändern. Beide Objekte, die affinen Vektoren a, also auch die Vektoren x, die den Punkten P ∈ Ed zugeordnet sind, unterliegen denselben Transformationseigenschaften. Zunächst definieren wir den Begriff des affinen Tensors als Verallgemeinerung des affinen Vektors. Definition 5.2 (Affiner Tensor). Sei r ∈ ℕ0 , dann bildet die Menge: {T i1 ...ir }ik =1,...,d einen affinen Tensor T vom Rang r, wenn unter der orthogonalen Transformation A der Koj ordinaten x̃ j = x i Ai , die transformierten Größen {T̃ j1 ...jr }jk =1,...,d gegeben sind durch: j j T̃ j1 ...jr = T i1 ...ir Ai 1 ⋅ ⋅ ⋅ Ai r , 1

r

für alle ik , jk = 1, . . . , d, ∀k = 1, . . . , r.

(5.5) ◼

Tensoren vom Rang 0 sind Skalare, vom Rang 1 Vektoren und vom Rang 2 Matrizen. Skalare sind damit invariant unter den Koordinatentransformationen. Betrachten wir nun einige wichtige Eigenschaften von affinen Tensoren. Hierzu definieren wir den Null-Tensor, die Multiplikation und Kontraktion von Tensoren. Definition 5.3 (Null-Tensor). Wir sagen ein Tensor T i1 ...ir ist Null, wenn in einem gegeben Koordinatensystem gilt: T i1 ...ir = 0,

∀ik = 1, . . . , d, k = 1, . . . , r.



258 � 5 Tensorrechnung Aus den Transformationseigenschaften der Tensoren ist dann unmittelbar klar, dass dieser Tensor in jedem Koordinatensystem verschwindet, welches durch eine orthogonale Transformation zum ursprünglichen Koordinatensystem in Relation steht. Affine Tensoren vom Rang r bilden einen Vektorraum der Dimension d r . Die Multiplikation eines Tensors T i1 ...ir vom Rang r mit einem Tensor U i1 ...is vom Rang s ergibt einen Tensor vom Rang r + s, denn: k j j k T̃ j1 ...jr Ũ k1 ...ks = T i1 ...ir U l1 ...ls Ai 1 ⋅ ⋅ ⋅ Ai r Al 1 ⋅ ⋅ ⋅ Al s , 1

r

1

s

welches offenbar der Definition eines Tensors vom Rang r + s entspricht. Auf dem Weg hin zu einer allgemeineren Definition des Transformationsverhaltens von Tensoren differenzieren wir die linearen Gleichungen (5.3) und erhalten: Aij =

𝜕x i , 𝜕x̃ j

j

Ai =

𝜕x̃ j . 𝜕x i

Damit lassen sich die Transformationsgleichungen (5.4) auch schreiben als: ã j =

𝜕x̃ j i a. 𝜕x i

(5.6)

Dies ist äquivalent zur Definition 5.1 und eine Folge des linearen Charakters der bisher betrachteten Transformationen. Die allgemeine Transformation (5.5) und deren Umkehrung kann damit auch durch 𝜕x i /𝜕x̃ j ausgedrückt werden: 𝜕x̃ j1 𝜕x̃ jr T̃ j1 ...jr = T i1 ...ir i ⋅ ⋅ ⋅ i , 𝜕x 1 𝜕x r i1 𝜕x ir 𝜕x T i1 ...ir = T̃ j1 ...jr j ⋅ ⋅ ⋅ j . 𝜕x̃ 1 𝜕x̃ r Diese Gleichungen werden uns im allgemeinen Fall von nicht linearen Koordinatentransformationen als Ausgangspunkt dienen, um den allgemeinen Begriff des Tensors zu definieren. Beispiele zu Tensoren verschiedenen Ranges und Operationen mit Tensoren werden wir auf den nächsten Abschnitt verschieben. Bei allgemeinen Koordinatentransformationen werden wir sehen, dass es zwei Typen von Tensoren gibt, anders als im Fall der bisher betrachteten Tensoren.

5.2 Allgemeine Koordinatentransformationen Lösen wir die Restriktion der linearen Koordinatentransformation auf und betrachten den Euklidischen Vektorraum Ed mit den Euklidischen Koordinaten x = (x 1 , . . . , x d )t eines Punktes P und beliebige Koordinaten (y1 , . . . , yd ) und (ỹ1 , . . . , ỹd ). Im Allgemeinen handelt es sich um nicht lineare Koordinatentransformation zwischen diesen Koordinaten von der Form:

5.2 Allgemeine Koordinatentransformationen

x i = x i (y1 , . . . , yd ), i

i

1

d

y = y (ỹ , . . . , ỹ ),

� 259

i = 1, . . . , d,

(5.8a)

i = 1, . . . , d.

(5.8b)

Kurzerhand bezeichnen wir die links stehenden Koordinaten als die alten und die rechts in den Klammern stehenden als die neuen Koordinaten. Die im Allgemeinen nicht linearen Funktionen der Koordinatentransformationen werden im Folgenden immer als zweimal stetig differenzierbar vorausgesetzt. Die Diskussion über die Gebiete, in denen diese zweimalige Differenzierbarkeit gefordert wird, wollen wir hier nicht führen. Es geht in erster Linie um den Aufbau des Tensorkalküls. In den Beispielen werden wir dann explizit die Bereiche der Gültigkeit der betrachteten Transformation bestimmen. Definition 5.4 (nicht singuläre Transformation). Ein Punkt P ∈ Ed nennen wir nicht singulären Punkt der Koordinatentransformation (KT), wenn die Jacobi-Matrix

J :=

𝜕y1 𝜕ỹ1

𝜕(y1 , . . . , yd ) . ≡ ( .. 𝜕(ỹ1 , . . . , ỹd ) d 𝜕y 𝜕ỹ1

⋅⋅⋅ .. . ⋅⋅⋅

𝜕y1 𝜕ỹd

.. . ),

𝜕yd 𝜕ỹd

in P nicht singulär ist, also det J|P ≠ 0 gilt. Wir nennen die Koordinatentransformation nicht singulär, wenn es eine offene Umgebung von P gibt mit det J ≠ 0. ◼ Die nicht singulären Koordinatentransformationen nennen wir auch regulär. In j j der Index-Notation gilt: (J) i ≡ J i = 𝜕yj /𝜕ỹi . Da es sich um eine nicht singuläre Transformation handelt, existiert auch die Inverse J−1 . Diese wird benötigt bei der Umkehrabbildung der Koordinatentransformationen im Satz über implizite Funktionen. Umkehrabbildungen werden im Folgenden wichtig sein, deswegen wiederholen wir den Satz aus der Analysis, formuliert in der hier eingeführten Notation. Satz 5.1 (Umkehrabbildung). Es sei eine reguläre Koordinatentransformation yi = yi (ỹ1 , . . . , ỹd ),

i = 1, . . . , d,

gegeben, dann kann in einer Umgebung des Punktes P die Umkehrabbildung ỹi = ỹi (y1 , . . . , yd ),

i = 1, . . . , d,

gebildet werden und es gilt: δji =

𝜕yi 𝜕ỹl . 𝜕ỹl 𝜕yj

260 � 5 Tensorrechnung Beweis. Der erste Teil folgt aus dem Satz über implizite Funktionen und der Beweis soll hier nicht durchgeführt werden. Hier schaue man in Analysis II [21] nach. Setzen wir die yi wieder in ỹj (y1 , . . . , yd ) ein: yi = yi (ỹ1 (y1 , . . . , yd ), . . . , ỹd (y1 , . . . , yd )), und differenzieren nach den Koordinaten yj , so folgt mit Hilfe der Kettenregel: 𝜕yi 𝜕yi 𝜕ỹl = . 𝜕yj 𝜕ỹl 𝜕yj Da die Koordinaten yi linear unabhängig sind gilt δji = 𝜕yi /𝜕yj . In Matrix-Schreibweise lautet diese Gleichung 1 = JJ,̃ also J ̃ = J−1 und daraus folgt (J) i = 𝜕yj /𝜕ỹi bzw. (J)̃ ij = 𝜕ỹi /𝜕yj . Im Folgenden werden wir annehmen, dass alle Koordinatentransformationen von dieser Natur sind und nennen sie dann regulär. Analog gilt auch der umgekehrte Fall: j

δji =

𝜕ỹi 𝜕yl . 𝜕yl 𝜕ỹj

Betrachten wir jetzt allgemeine Koordinatentransformationen von beliebigen Vektoren und im Speziellen zunächst die Koordinatentransformationen (5.8b) eines kontravarianten Vektors (a1 , . . . , ad ) in alten Koordinaten auf neue Koordinaten (ã 1 , . . . , ã d ). Als Definition eines solchen Transformationsgesetzes wird die Verallgemeinerung der Gl. (5.6) gewählt, die sich aus einer linearen Transformationen ergab: ã j =

𝜕ỹj i a. 𝜕yi

(5.9)

Zur Illustration einer nicht linearen Koordinatentransformation betrachten wir als Beispiel die Koordinatentransformation von kartesischen zu Zylinderkoordinaten. Wir erinnern nochmals daran, dass wir die kartesischen Koordinaten eines Punktes mit (x 1 , . . . , x d ) bezeichnen. Beispiel 5.1 (Zylinderkoordinaten). Betrachten wir eine KT von kartesischen Koordinaten (x 1 , x 2 , x 3 ) auf Zylinderkoordinaten (ỹ1 , ỹ2 , ỹ3 ) = (ρ, φ, z), die definiert ist durch ỹ1 := ρ ∈ ℝ+ ,

ỹ2 := φ ∈ [0, 2π[,

ỹ3 := z ∈ ℝ,

mit x1 ỹ1 cos ỹ2 ρ cos φ 2 (x ) := ( ỹ1 sin ỹ2 ) = ( ρ sin φ ) . x3 ỹ3 z

5.2 Allgemeine Koordinatentransformationen � 261

j

Die Jacobi-Matrix J i = 𝜕x j /𝜕ỹi lautet: cos ỹ2 𝜕x j ( i ) = ( sin ỹ2 𝜕ỹ 0

−ỹ1 sin ỹ2 ỹ1 cos ỹ2 0

0 cos φ 0) = ( sin φ 1 0

−ρ sin φ ρ cos φ 0

0 0) , 1

und für die Determinante gilt: det J = ỹ1 = ρ > 0. Damit handelt es sich um eine nicht singuläre Koordinatentransformation und die inverse KT lautet:

J

−1

̃i

x1

x2

√(x 1 )2 +(x 2 )2

√(x 1 )2 +(x 2 )2

𝜕y = ( j ) = (− x 2 𝜕x (x 1 )2 +(x 2 )2 0

1

x (x 1 )2 +(x 2 )2

0

0

cos φ sin φ − ) = ( ρ 0 0 1

sin φ cos φ ρ

0

0 0) . 1

Betrachten wir zunächst die neuen Basisvektoren ẽ i und verwenden die übertragene j Transformation der Gl. (5.2) mit Ai = 𝜕ỹj /𝜕x i . Durch Umkehrung führt dies auf ẽ i = 𝜕x j /𝜕ỹi ej und explizit auf die Basisvektoren in Zylinderkoordinaten: cos φ ẽ 1 = ( sin φ ) , 0

− sin φ ẽ 2 = ρ ( cos φ ) , 0

0 ẽ 3 = (0) , 1

J = (ẽ 1 , ẽ 3 , ẽ 3 ).

Wie zu erkennen ist, sind die ẽ i nicht alle normiert, dies ist eine allgemeine Eigenschaft. Schauen wir uns die Transformationsgleichung (5.9) eines in einem kartesischen Koordinatensystems gegebenen Vektors a an, so erhalten wir die Komponenten des Vektors in Zylinderkoordinaten durch ã = J−1 a und explizit: ã 1 = a1 cos y2 + a2 sin y2 = a1 cos φ + a2 sin φ, ã 2 = −a1 ã 3 = a3 .

cos φ cos y2 sin φ sin y2 + a2 , + a2 1 = −a1 1 ρ ρ y y

Man prüft nach, dass analog zum Vektor x in Gl. (5.1) auch gilt: a = ai ei = ã i eĩ = a.̃ Schauen wir uns analog die ebenso wichtigen Kugelkoordinaten an. Betrachte die KT von (x 1 , x 2 , x 3 ) auf Kugelkoordinaten (y ̃1 , y ̃2 , y ̃3 ) = (r, θ, ϕ), die definiert ist durch y ̃1 := r ∈ ℝ+ ,

y ̃2 := θ ∈ [0, π[,

y ̃3 := ϕ ∈ [0, 2π[,

mit x1 sin y ̃2 cos y ̃3 sin θ cos ϕ 1 2 (x ) := y ̃ ( sin y ̃2 sin y ̃3 ) = r ( sin θ sin ϕ ) . cos θ x3 cos y ̃2



262 � 5 Tensorrechnung

Führe die analogen Rechnungen zum Beispiel der Zylinderkoordinaten durch. Lösung: Die Jacobi-Matrix J ij = 𝜕x i /𝜕y ̃j lautet:

J=(

sin y ̃2 cos y ̃3 𝜕x i ) = ( sin y ̃2 sin y ̃3 𝜕y ̃j cos y ̃2

y ̃1 cos y ̃2 cos y ̃3 y ̃1 cos y ̃2 sin y ̃3 −y ̃1 sin y ̃2

−y ̃1 sin y ̃2 sin y ̃3 y ̃1 sin y ̃2 cos y ̃3 ) . 0

Die Determinante ist gegeben durch det J = y ̃1 sin y ̃2 = r sin θ. Damit handelt es sich um eine nicht singuläre Transformation, wenn θ > 0. Die inverse Koordinatentransformation lautet: sin y ̃2 cos y ̃3 J−1 = (

cos y ̃2 cos y ̃3 y ̃1 ̃3

− sin y y ̃1 sin y ̃2

sin y ̃2 sin y ̃3 cos y ̃2 sin y ̃3 y ̃1 ̃3

cos y y ̃1 sin y ̃2

cos y ̃2

− sin y ̃2 y ̃1 )

sin θ cos ϕ =(

0

cos θ cos ϕ r − sin ϕ r sin θ

sin θ sin ϕ cos θ sin ϕ r cos ϕ r sin θ

cos θ

− sin θ ). r

0

Die Basisvektoren ẽ i = 𝜕x j /𝜕y ̃i ej in Kugelkoordinaten lauten: sin θ cos ϕ ẽ 1 = ( sin θ sin ϕ ) , cos θ

cos θ cos ϕ ẽ 2 = r ( cos θ sin ϕ ) , − sin θ

− sin ϕ ẽ 3 = r sin θ ( cos ϕ ) , 0

J = (ẽ 1 , ẽ 3 , ẽ 3 ).

Die Transformation eines in einem kartesischen Koordinatensystemes gegebenen Vektors a sind in Kugelkoordinaten gegeben durch ãi = 𝜕y ̃i /𝜕x j aj und explizit: ã1 = a1 sin θ cos ϕ + a2 sin θ sin ϕ + a3 cos θ,

cos θ cos ϕ cos θ sin ϕ sin θ + a2 − a3 , r r r sin ϕ cos ϕ ã3 = −a1 + a2 . r sin θ r sin θ ã2 = a1

Auch hier prüft man nach, dass gilt: a = ai ei = ãi eĩ = a.̃



Beide Resultate sind bis hierhin wohlbekannt. Damit liefert die Definition (5.9) einen geeigneten Ausgangspunkt zur Definition eines Tensors vom Rang 1. Aufbauend auf diesem Ergebnis, definieren wir im nächsten Abschnitt den allgemeinen Begriff eines Tensors.

5.3 Kontravariante und kovariante Tensoren Um die Notwendigkeit zu erkennen, eine weitere Struktur dem Tensorkalkül hinzufügen zu müssen, betrachten wir die bekannten Skalarprodukte im Euklidischen Raum. Skalarprodukte sind unter orthogonalen Koordinatentransformationen invariant. Diese Struktur der Invarianz wollen wir auch bei beliebigen Koordinatentransformationen aufrechterhalten, deswegen schauen wir uns das Transformationsverhalten des

5.3 Kontravariante und kovariante Tensoren

� 263

Produktes zweier Tensoren ai , bj mit Summation über doppelt auftretender Indizes an, welches einem Skalarprodukt entsprechen sollte: 𝜕ỹi 𝜕ỹi . ã i b̃ i = aj1 aj2 j 𝜕y 1 𝜕yj2 Im Allgemeinen ist dies nicht invariant, wäre jedoch eine der beiden Faktoren statt 𝜕ỹi /𝜕yj die Inverse 𝜕yj /𝜕ỹi , dann wäre die rechte Seite gleich aj aj und damit forminvariant wie ein Skalarprodukt. Um dies zu erreichen, müsste ein neuer Typ von Vektor eingeführt werden, den wir durch unten stehende Indizes kennzeichnen, der ein Transformationsverhalten der Form ã i = 𝜕yj /𝜕ỹi aj besitzt. Ein invariantes Skalarprodukt könnte dann so definiert werden ⟨a | b⟩ = ai bi . Dies führt uns auf die folgende Definition, deren Konsequenzen wir im Anschluss diskutieren werden. Definition 5.5 (Kontra- und kovariante Vektoren). Ein d-Tupel (a1 , . . . , ad ) bildet einen kontravarianten Vektor im Punkt P ∈ Ed , wenn er sich unter der nicht singulären Koordinatentransformation yi = yi (ỹ1 , . . . , ỹd ), wie folgt transformiert: ã i =

𝜕ỹi 󵄨󵄨󵄨󵄨 j 󵄨 a. 𝜕yj 󵄨󵄨󵄨P

(5.10)

Die ã i sind die Komponenten des kontravarianten Vektors in den neuen Koordinaten ỹi . Ein d-Tupel (a1 , . . . , ad ) bildet einen kovarianten Vektor im Punkt P, wenn er sich unter der Koordinatentransformation yi = yi (ỹ1 , . . . , ỹd ), wie folgt transformiert: ã i =

𝜕yj 󵄨󵄨󵄨󵄨 󵄨 aj . 𝜕ỹi 󵄨󵄨󵄨P

(5.11)

Die ã i sind die Komponenten des kovarianten Vektors in den Koordinaten ỹi .



An dieser Stelle sei bemerkt, dass diese Definition den zuvor betrachteten Fall eines affinen Tensors als Spezialfall enthält. Bei der Definition eines Vektors (Tensors) ist immer darauf zu achten, dass dieser in einem Punkt P ∈ Ed definiert ist. Das wiederum bedeutet, dass bei der Konstruktion neuer Vektoren durch Addition oder Multiplikation, diese immer am selben Punkt definiert sein müssen. Die ko- und kontravarianten Vektoren im Punkt P bilden einen Vektorraum der Dimension d. Aus der Addition eines kovarianten und kontravarianten Vektors kann man keinen neuen ko- oder kontravarianten Vektor erzeugen, da er sich weder kovarianten noch kontravariant transformiert. Der Vollständigkeit halber geben wir noch die Umkehrung von (5.10) und (5.11) an: ai =

𝜕yi 󵄨󵄨󵄨󵄨 j 󵄨 ã , 𝜕ỹj 󵄨󵄨󵄨P

ai =

𝜕ỹj 󵄨󵄨󵄨󵄨 󵄨 ã j . 𝜕yi 󵄨󵄨󵄨P

(5.12)

264 � 5 Tensorrechnung Hierbei ist darauf zu achten, dass in (5.10) und (5.11) jeweils auf der rechten Seite alles durch die alten Koordinaten ausgedrückt wird bzw. in (5.12) auf der rechten Seite alles durch die neuen Koordinaten. Die Multiplikation von Tensoren vom Rang 1 am selben Punkt P erzeugt Tensoren höheren Ranges, genauso wie es für die affinen Tensoren beschrieben wurde. Als erstes konkretes Beispiel eines kovarianten Vektors betrachten wir den Gradienten ∇ = (𝜕/𝜕x 1 , . . . , 𝜕/𝜕x d )t in kartesischen Koordinaten. Beispiel 5.2 (Gradient in Zylinder- und Kugelkoordinaten). Die Komponenten 𝜕i := 𝜕/𝜕x i des Gradienten ∇ bilden einen kovarianten Vektor. Um dies zu zeigen, betrachten wir das Transformationsverhalten unter einer Koordinatentransformation x i = x i (ỹ1 , . . . , ỹd ), indem wir die Kettenregel verwenden: 𝜕 𝜕x j 𝜕 𝜕x j 𝜕̃i := i = i j = i 𝜕j . 𝜕ỹ 𝜕ỹ 𝜕x 𝜕ỹ Dieses Transformationsverhalten bedeutet, dass (𝜕1 , . . . , 𝜕d ) ein kovarianter Vektor ist, weswegen der Index auch unten platziert wurde und somit 𝜕̃i die Komponenten des Gradienten in den neuen Koordinaten darstellt. Betrachten wir dazu Ergebnisse der Zylinder- und Kugelkoordinaten. Zylinderkoordinaten 𝜕1 = 𝜕2 =

sin ỹ2 ̃ 𝜕ỹj ̃ ̃2 𝜕̃1 − 𝜕2 𝜕 = cos y j ỹ1 𝜕x 1

cos ỹ2 ̃ 𝜕ỹj ̃ ̃2 𝜕̃1 + 𝜕 = sin y 𝜕2 j ỹ1 𝜕x 2

𝜕3 = 𝜕̃3

󳨐⇒ 󳨐⇒ 󳨐⇒

sin φ 𝜕 𝜕 𝜕 = cos φ − , 𝜕ρ ρ 𝜕φ 𝜕x 1 cos φ 𝜕 𝜕 𝜕 = sin φ + , 2 𝜕ρ ρ 𝜕φ 𝜕x 𝜕 𝜕 = . 𝜕x 3 𝜕z

Dies drückt man auch durch die normierten Einheitsvektoren (eρ , eφ , ez ) aus: ∇ = eρ

1 𝜕 𝜕 𝜕 + e + ez . 𝜕ρ ρ φ 𝜕φ 𝜕z

Die normierten Einheitsvektoren sind dabei gegeben durch: cos φ eρ = ( sin φ ) , 0

− sin φ eφ = ( cos φ ) , 0

0 ez = (0) . 1

Kugelkoordinaten: 𝜕1 =

cos θ cos ϕ 𝜕 sin ϕ 𝜕 𝜕 𝜕 = sin θ cos ϕ + − , 𝜕r r 𝜕θ r sin θ 𝜕ϕ 𝜕x 1

5.3 Kontravariante und kovariante Tensoren

� 265

cos θ sin ϕ 𝜕 cos ϕ 𝜕 𝜕 𝜕 = sin θ sin ϕ + + , 2 𝜕r r 𝜕θ r sin θ 𝜕ϕ 𝜕x 𝜕 sin θ 𝜕 𝜕 , 𝜕3 = 3 = cos θ − 𝜕r r 𝜕θ 𝜕x 𝜕2 =

und entsprechend durch die normierten Einheitsvektoren (er , eθ , eϕ ) ∇ = er

𝜕 1 𝜕 1 𝜕 + e + e . 𝜕r r θ 𝜕θ r sin θ ϕ 𝜕ϕ

Die normierten Einheitsvektoren sind dabei gegeben durch: sin θ cos ϕ er = ( sin θ sin ϕ ) , cos θ

cos θ cos ϕ eθ = ( cos θ sin ϕ ) , − sin θ

− sin ϕ eϕ = ( cos ϕ ) . 0



Analog zu affinen Tensoren vom Rang r definieren wir nun allgemeine Tensoren und beachten die Notwendigkeit der Unterscheidung des Tensorcharakters. i ...i

Definition 5.6 (Allgemeine Tensoren). Für r, s ∈ ℕ0 , bildet die Menge {Tj 1...j r } einen Ten1

s

sor der Stufe (r, s), wenn unter der Koordinatentransformation yi = yi (ỹ1 , . . . , ỹd ), die k1 ...kr transformierten Größen {T̃l ...l } gegeben sind durch: 1

s

k1 𝜕ỹkr 𝜕yj1 𝜕yjs k1 ...kr i ...i 𝜕ỹ T̃l ...l = Tj 1...j r i ⋅ ⋅ ⋅ i ⋅⋅⋅ l , l 1 s 𝜕y 1 1 s 𝜕y r 𝜕ỹ 1 𝜕ỹ s

für alle ki , lj = 1, . . . , d und i = 1, . . . , r, j = 1, . . . , s. Der Rang des Tensors ist r + s.



Demnach sind kontravariante Vektoren Tensoren der Stufe (1, 0) und kovariante Vektoren der Stufe (0, 1). Ein Skalar ϕ ist ein Tensor vom Rang (0, 0), wobei das Transformationsverhalten des Skalarfeldes lautet ϕ(̃ ỹ1 , . . . , ỹd ) = ϕ(y1 , . . . , yd ). Ein schon bekanntes Beispiel eines Tensors der Stufe (1, 1) bildet der Kronecker-Tensor δ, für den gilt: k

δl 1 = 1

𝜕yj1 𝜕ỹk1 𝜕yj1 𝜕ỹk1 i1 k = δ = δ̃ l 1 . 1 𝜕ỹl1 𝜕yj1 𝜕ỹl1 𝜕yi1 j1

Damit ist der Kronecker-Tensor obendrein invariant unter der Koordinatentransformation yi = yi (ỹ1 , . . . , ỹd ). Kommen wir zu einer Operation mit der wir neue Tensoren konstruieren können, die den Rang von gegebenen Tensoren reduziert. Eine solche Operation haben wir im Skalarprodukt schon kennengelernt. Dabei wurde mit dem Produkt zweier Tensoren

266 � 5 Tensorrechnung der Stufe (0, 1) und (1, 0) ein Tensor der Stufe (1, 1) erzeugt und anschließende über Indizes summiert um ein Skalar zu erzeugen, einen Tensor der Stufe (0, 0). Diese Operation nennt sich Kontraktion bzw. Verjüngung und wird im Folgenden formal allgemein definiert. Definition 5.7 (Kontraktion). Die Kontraktion eines Tensors T der Stufe (r, s) bzgl. des Indexpaars (iα , jβ ) ist definiert durch: i ...iα̂ ...,ir j1 ...jβ̂ ...,js

T1

j

i ...i ...i

:= Tj 1...j α...,jr δiβ . 1

β

s

(5.13)

α

◼ k1 ...kr Tl ...l 1 s

Die Kontraktion eines Tensors der Stufe (r, s) mit r, s ≥ 1 reduziert den Rang des Tensors um insgesamt zwei Stufen auf (r − 1, s − 1). Um das zu sehen, betrachten wir k ...k̂ ...k das Transformationsverhalten bei der Kontraktion eines Tensors T̃ 1 α r , der durch l1 ...lβ̂ ...ls

Gl. (5.13) gegeben sei. Die rechte Seite formen wir entsprechend den Rechenregeln für Tensoren um: k1 𝜕ỹn 𝜕ỹkr 𝜕yj1 𝜕yjβ 𝜕yjs k ...k̂ ...k k1 ...kα ...kr lβ i1 ...ir 𝜕ỹ T̃ 1 ̂ α r = T̃l ...l ⋅ ⋅ ⋅ ⋅ ⋅ ⋅ ⋅ ⋅ ⋅ ⋅ ⋅ ⋅ δ = T j1 ...js kα 1 β ...ls l1 ...lβ ...ls 𝜕ỹn 𝜕yi1 𝜕yiα 𝜕yir 𝜕ỹl1 𝜕ỹls i ...i

= Tj 1...j r 1

s

𝜕ỹkr 𝜕yj1 𝜕yjs jβ 𝜕ỹk1 ⋅ ⋅ ⋅ ⋅ ⋅ ⋅ δ 𝜕yi1 𝜕yir 𝜕ỹl1 𝜕ỹls iα

i ...iα̂ ...ir j1 ...jβ̂ ...js

=T1

𝜕ỹk1 𝜕ỹkr 𝜕yj1 𝜕yjs ⋅⋅⋅ i ⋅⋅⋅ l . i l 𝜕y 1 𝜕y r 𝜕ỹ 1 𝜕ỹ s

In dieser Rechnung sind in der zweiten und dritten Zeile jeweils die Terme mit 𝜕ỹn /𝜕yiα

i ...i ...i und 𝜕yjβ /𝜕ỹn nicht vorhanden. Damit transformiert sich der Tensor T 1 ̂ α r wie ein Ten̂

j1 ...jβ ...js

sor der Stufe (r − 1, s − 1). Insgesamt reduziert sich dadurch der Rang des Tensors um zwei. Ein Beispiel haben wir schon erwähnt, es ist das Produkt eines kontra- und kovarianten Vektors, welches dann einen Tensor der Stufe (1, 1) ergibt und die anschließende Kontraktion dann einen Skalar: j

Tjî := aj bi δi = ai bi . ̂

Im nächsten Abschnitt werden wir einen wichtigen Tensor vom Rang 2 kennenlernen, den metrischen Tensor.

5.4 Der metrische Tensor Kommen wir zum metrischen Tensor, ein Tensor, der im Rahmen der Differentialgeometrie auf Mannigfaltigkeit eine zentrale Rolle spielt, aber ebenso bei der Betrachtung von krummlinigen Koordinatensystemen. In der Physik wird er in der Speziellen

5.4 Der metrische Tensor

� 267

und Allgemeinen Relativitätstheorie von besonderer Bedeutung sein. Wir werden uns hauptsächlich auf den Fall einer Euklidischen oder Riemann’schen Metrik beschränken. Es sei nochmals betont, dass wir in diesem Kapitel überwiegend die Summenkonvention doppelt auftretender Indizes verwenden. Definition 5.8 (Metrischer Tensor). Sei Ed ein Euklidischer Vektorraum mit einem kartesischen Koordinatensystem (x 1 , . . . , x d ). Für eine nicht singuläre Koordinatentransformation x i = x i (y1 , . . . , yd ) ist der metrische Tensor definiert als: gij :=

𝜕x n 𝜕x n . 𝜕yi 𝜕yj

Die Determinante g := det g nennt man die Gramm’sche Determinante.



In Matrixschreibweise lautet dies g = Jt J mit (J)ij = 𝜕x i /𝜕yj . Eine solche Metrik bezeichnet man auch als eine Euklidische Metrik. Der metrische Tensor gij ist definitionsgemäß ein symmetrischer Tensor gij = gji und ein Tensor der Stufe (0, 2). Um dies zu sehen, betrachten wir die reguläre Koordinatentransformation von alten Koordinaten yi = yi (ỹ1 , . . . , ỹd ) zu neuen Koordinaten ỹi und beginnen mit der Darstellung in den neuen Koordinaten: g̃ij =

𝜕yk 𝜕yl 𝜕x n 𝜕x n 𝜕x n 𝜕yk 𝜕x n 𝜕yl 𝜕yk 𝜕yl 𝜕x n 𝜕x n = k i l j = i j k l = gkl i j . i j 𝜕ỹ 𝜕ỹ 𝜕ỹ 𝜕ỹ 𝜕y 𝜕y 𝜕ỹ 𝜕ỹ 𝜕y 𝜕ỹ 𝜕y 𝜕ỹ

Dies ist das Transformationsgesetz für einen Tensor der Stufe (0, 2). In Matrixschreibweise kann dies mit (J)ij = 𝜕yi /𝜕ỹj auch geschrieben werden als: g̃ = Jt gJ. Da wir nicht singuläre Transformationen betrachten, existiert auch die Inverse von g, die gegeben ist durch: g ij =

𝜕yi 𝜕yj . 𝜕x m 𝜕x m

Um dies zu zeigen multiplizieren wir die beiden metrischen Tensoren der Stufe (0, 2) und (2, 0) und kontrahieren: gil g lj =

𝜕x n 𝜕x n 𝜕yl 𝜕yj 𝜕x n n 𝜕yj 𝜕x n 𝜕yj j = δ = = δi . 𝜕yi 𝜕yl 𝜕x m 𝜕x m 𝜕yi m 𝜕x m 𝜕yi 𝜕x n

Das Produkt der Tensoren ergibt einen Tensor der Stufe (2, 2), die anschließende Kontraktion ein Tensor, den Kronecker-Tensor δ, der Stufe (1, 1). Bevor wir mit weiteren Eigenschaften und Anwendungen des metrischen Tensors fortfahren, schauen wir explizite Beispiele an.

268 � 5 Tensorrechnung Beispiel 5.3 (Metrischer Tensor). (i) Orthogonale Transformationen mit x i = Aij x̃ j , A ∈ Od (ℝ): gij =

𝜕x n 𝜕x n = Ani Anj = δij . 𝜕x̃ i 𝜕x̃ j

(ii) Zylinderkoordinaten mit (ỹ1 , ỹ2 , ỹ3 ) = (ρ, φ, z): 1 (g)ij = (0 0

0 ρ2 0

0 0) , 1

1 (g)ij = (0 0

0 1/ρ2 0

0 0) . 1

(iii) Kugelkoordinaten mit (ỹ1 , ỹ2 , ỹ3 ) = (r, θ, ϕ): 1 (g)ij = (0 0

0 r2 0

0 0 ), 2 r sin2 θ

1 (g)ij = (0 0

0 1/r 2 0

0 ). 0 2 2 1/r sin θ



Mithilfe des metrischen Tensors hebt oder senkt man Indizes durch Multiplikation mit g ij bzw. gij und anschließender Kontraktion. Dies führt auf eine spezielle Konstruktion neuer Vektoren. Definition 5.9 (Kovektor). Der zu einem kontravarianten Vektor (a1 , . . . , ad ) gehörige Kovektor ist definiert durch die Komponenten: ai := gij aj .



Diese Vektoren bilden den zum kontravarianten Vektorraum dualen Kovektorraum. Schauen wir uns das Transformationsverhalten eines beliebigen Kovektors (a1 , . . . , ad ) unter der regulären Koordinatentransformation yi = yi (ỹ1 , . . . , ỹd ) an: ã i = g̃ij ã j =

𝜕ỹj 𝜕yk 𝜕yk 𝜕yk 𝜕yl gkl n an = i gkn an = i ak . i j 𝜕y 𝜕ỹ 𝜕ỹ 𝜕ỹ 𝜕ỹ

Damit handelt es sich bei (a1 , . . . , ad ) um einen kovarianten Vektor. Ein kontravarianter Vektor ai wird durch Kontraktion mit gij zu einem kovarianten Vektor, dabei senkt man den Index. Analog hebt man den Index über die Kontraktion eines kovarianten Vektors ai mit g ij . Die nochmalige inverse Anwendung ergibt wieder den ursprünglichen Vektor: g li ai = g li gij aj = δjl aj = al . Mithilfe des Kovektorraums lässt sich dann ein Skalarprodukt zwischen kontra- und kovarianten Vektoren definieren.

5.4 Der metrische Tensor

� 269

Definition 5.10 (Skalarprodukt). Bei gegebener Metrik gij in Ed ist das Skalarprodukt zweier kontravarianter Vektoren (a1 , . . . , ad ) und (b1 , . . . , bd )t im Punkt P ∈ Ed definiert durch: Ed × Ed ∋ (a, b) 󳨃→ ⟨a | b⟩ := gij ai bj ∈ ℝ.



Wir werden in diesem Kapitel Skalarprodukte schreiben als a ⋅ b ≡ ⟨a | b⟩ ≡ ai bj = gij ai bj .

Die Skalarprodukteigenschaften sind klar, wenn man beachtet, dass der metrische Tensor gij symmetrisch und positiv definit ist. Schauen wir uns die Unabhängigkeit vom Koordinatensystem an und betrachten das Skalarprodukt im Koordinatensystem (ỹ1 , . . . , ỹd ) unter der regulären KT yi = yi (ỹ1 , . . . , ỹd ): ã ⋅ b̃ = g̃ij ã i b̃ j =

𝜕ỹi 𝜕ỹj 𝜕yk 𝜕yl k l m n δn a b = gkl ak bl = a ⋅ b. gkl m n am bn = gkl δm i j 𝜕y 𝜕y 𝜕ỹ 𝜕ỹ

Aus dem Skalarprodukt definiert sich kanonisch die Norm, also die Länge von Vektoren. Geometrisch ist klar, was wir unter der Länge eines Vektors im Euklidischen Raum Ed verstehen. Definition 5.11 (Länge eines Vektors). Die Länge eines Vektors a = (a1 , . . . , ad )t ist definiert als: |a| := √a ⋅ a = √gij ai aj .



Aus der Invarianz des Skalarproduktes folgt dann die Invarianz der Länge von Vektoren. Man rechnet schnell nach, dass eine äquivalente Definition über kovariante Vektoren möglich ist: gij ai aj = gij g ki g lj ak al = g kl ak al . Ebenso lässt sich auch ein Winkel zwischen den Vektoren a und b im Punkt P definieren durch: cos ∠(a, b) :=

a⋅b . |a||b|

Man kann auch ganz allgemein eine Metrik in einem Euklidischen Raum über das Transformationsverhalten einer Schar von Funktionen gij mit bestimmten Eigenschaften definieren. Definition 5.12 (Riemannsche Metrik). Eine Riemann’sche Metrik in den allgemeinen Koordinaten y = (y1 , . . . , yd ) ist eine Familie von stetigen Funktionen gij (y) = gji (y) mit den Eigenschaften: (i) g ist positiv definit. (ii) Bei einer regulären Koordinatentransformation auf neue Koordinaten (ỹ1 , . . . , ỹd ) ist die neue Metrik gegeben durch

270 � 5 Tensorrechnung

g̃kl =

𝜕yi 𝜕yj gij , 𝜕ỹk 𝜕ỹl

bzw. in Matrixschreibweise g̃ = Jt gJ.

(5.14) ◼

Der Euklidische Raum ℝd besitzt auf kanonische Weise eine Riemann’sche Metrik. Betrachten wir wichtige Eigenschaften des metrischen Tensors und schauen uns zunächst die Determinante an. Mithilfe des Laplace’schen Entwicklungssatz für Determinanten folgt det g = gij Aji ,

Aji =

𝜕 det g , 𝜕gij

dabei ist Aji die Adjunkte. Daraus folgt, die Inverse von gij ist gegeben durch: g ij =

1 𝜕 det g . det g 𝜕gij

Zeige, für den metrischen Tensor gilt: 𝜕gik 𝜕gjk 𝜕gij 𝜕2 x n 𝜕x n + − k =2 i j k. j i 𝜕y 𝜕y 𝜕y 𝜕y 𝜕y 𝜕y

(5.15)

Lösung: Wir setzen explizit die Darstellung von gij ein und differenzieren diesen: 𝜕gik 𝜕gjk 𝜕gij 𝜕2 x n 𝜕x n 𝜕x n 𝜕2 x n + − k = j i k + i j k j i 𝜕y 𝜕y 𝜕y 𝜕y 𝜕y 𝜕y 𝜕y 𝜕y 𝜕y + −

𝜕2 x n 𝜕x n 𝜕x n 𝜕2 x n + j i k 𝜕y i 𝜕y j 𝜕y k 𝜕y 𝜕y 𝜕y

𝜕2 x n 𝜕x n 𝜕x n 𝜕2 x n − i k j 𝜕y 𝜕y 𝜕y 𝜕y k 𝜕y i 𝜕y j

=2

𝜕2 x n 𝜕x n . 𝜕y i 𝜕y j 𝜕y k



Bei der Beschreibung von physikalischen Objekten sind deren Wege im Euklidischen Raum wichtig. Die Länge des Weges oder von Teilwegen darf dabei nicht von dem gewählten Koordinatensystem abhängen. Mithilfe des metrischen Tensors definieren wir eine invariante Länge. Definition 5.13 (Länge eines Weges). Für einen gegebenen Weg γ : 𝕀 → Ed , ist die Weglänge in den allgemeinen Koordinaten (y1 , . . . , yd ) definiert durch: L[γ] := ∫ dt √gij (y(t)) ẏi (t) ẏj (t). γ



5.4 Der metrische Tensor

� 271

Die Länge hängt nicht vom gewählten Koordinatensystem ab. Um dies zu sehen schauen wir uns das Transformationsverhalten des Argumentes der Wurzel unter einer regulären Koordinatentransformation yi = yi (ỹ1 , . . . , ỹd ) an: g̃kl ẏ̃k ẏ̃l =

𝜕yi 𝜕yj 𝜕ỹk m 𝜕ỹl n i j ẏ ẏ = δm gij δn gij ẏm ẏn = gij ẏi ẏj . 𝜕ỹk 𝜕ỹl 𝜕ym 𝜕yn

Damit ist die Länge L[γ] auch invariant. Schauen wir uns die zuvor betrachteten Beispiele aus 5.3 an. Beispiel 5.4 (Weglänge). (i) Orthogonale Transformationen: 󵄨 ̇ 󵄨󵄨 L[γ] = ∫ dt √δij ẏi (t)ẏj (t) = ∫ dt 󵄨󵄨󵄨y(t) 󵄨󵄨. γ

γ

(ii) Zylinderkoordinaten: L[γ] = ∫ dt √ρ̇ 2 (t) + ρ2 (t)φ̇ 2 (t) + ż2 (t). γ

(iii) Kugelkoordinaten: L[γ] = ∫ dt √ṙ2 (t) + r 2 (t)θ̇ 2 (t) + r 2 (t) sin2 θ(t)ϕ̇ 2 (t).



γ

Eine Metrik schreibt man in der Physik deswegen auch oft als Quadrat des Längendifferentials, definiert durch dl2 = gij dyi dyj . In der Relativitätstheorie haben wir es mit Räumen mit nicht Euklidischer Geometrie zu tun. Dies äußert sich in einem metrischen Tensor, der nicht positiv definit ist. Ein spezieller Raum ist der Minkowski-Raum ℝ41,3 . Die Punkte des Raumes sind repräsentiert durch Raum-Zeit-Tupel x = (x 0 , x 1 , x 2 , x 3 ) ∈ ℝ41,3 mit x 0 = ct, wobei t die Zeit darstellt und c die Lichtgeschwindigkeit. In der Physik ist es üblich die zeitartigen Koordinaten mit dem Null-Index zu versehen. Die Indizes an sich werden mit griechischen Buchstaben bezeichnet. Sind nur die raumartigen Anteile gemeint, verwendet man dann oft die lateinischen Buchstaben. Definition 5.14 (Minkowski-Metrik). Eine Metrik gij (y) nennen wir eine MinkowskiMetrik, wenn es Koordinaten x und y gibt und eine reguläre Transformation x ν = x ν (y0 , y1 , y2 , y3 ), ν = 0, 1, 2, 3 mit

272 � 5 Tensorrechnung

gμν =

𝜕x 0 𝜕x 0 𝜕x 1 𝜕x 1 𝜕x 2 𝜕x 2 𝜕x 3 𝜕x 3 − − − . 𝜕yμ 𝜕yν 𝜕yμ 𝜕yν 𝜕yμ 𝜕yν 𝜕yμ 𝜕yν



Diese Art der Metrik nennt man auch Pseudo-Riemann-Metrik. Schauen wir uns an wie der metrische Tensor bezüglich solch einem Koordinatensystem aussieht und betrachten dazu das Transformationsverhalten (5.14) mit ỹμ = x μ , dann folgt: g̃αβ =

𝜕yμ 𝜕yν 𝜕yμ 𝜕yν 𝜕x 0 𝜕x 0 𝜕x i 𝜕x i − ) = δα0 δβ0 − δαi δβi . g = ( 𝜕x α 𝜕x β μν 𝜕x α 𝜕x β 𝜕yμ 𝜕yν 𝜕yμ 𝜕yν

Explizit in Matrixschreibweise lautet dies:

(g)̃ αβ

1 0 =( 0 0

0 −1 0 0

0 0 −1 0

0 0 ). 0 −1

(5.16)

Dies ist der wohlbekannte metrische Tensor der speziellen Relativitätstheorie. In dieser Form sind die neuen Koordinaten die x α und damit ist die Darstellung (5.16) die Standarddarstellung von g. 5.4.1 Krummlinige Koordinaten im Ed In diesem Abschnitt betrachten wir allgemeine krummlinige Koordinaten in einem d-dimensionalen Euklidischen Raum Ed . Insbesondere interessiert uns, wie sich Vektoren und Tensoren unter der Transformation von kartesischen Koordinaten (x 1 , . . . , x d ) zu krummlinigen Koordinaten (y1 , . . . , yd ) verhalten. Es ist zu beachten, dass alle Objekte an einem festen, aber beliebigen Punkt P ∈ Ed betrachtet werden. Wir nehmen an, dass die Transformation x 1 (y1 , . . . , yd ) .. y ≡ (y1 , . . . , yd ) 󳨃→ r = ( ), . x d (y1 , . . . , yd ) regulär ist, das heißt die Jacobi-Determinante 󵄨󵄨 𝜕(y1 , . . . , yd ) 󵄨󵄨 󵄨󵄨 󵄨 det J −1 = 󵄨󵄨󵄨 1 󵄨 , 󵄨󵄨 𝜕(x , . . . , x d ) 󵄨󵄨󵄨P ist nicht null oder unendlich. Die kartesische kanonische Orthonormalbasis sei mit {ei }i=1,...,d bezeichnet. In diesem Abschnitt verwenden wir nicht die Summenkonvention. Den Grund hierfür erkennen wir schon in der nächsten Definition, bei der auf der einen Seite ein einzelner Index und auf der anderen Seite ein doppelter Index auftritt, bei dem nicht summiert wird.

5.4 Der metrische Tensor

� 273

Definition 5.15 (Krummlinige Basis). Basisvektoren im Punkt P ∈ Ed sind definiert durch: eyi :=

1 f , hi yi

fyi :=

𝜕r , 𝜕yi

hi := |fyi |,

i = 1, . . . , d.

Die unnormierten Vektoren fyi nennen wir auch die natürliche Basis und die Faktoren hi = hi (y) nennen wir Skalenfaktoren oder Maßstabsfaktoren. ◼ Im Allgemeinen sind die Basisvektoren eyi nicht orthogonal (Siehe unten duale Basis).

Definitionsgemäß sind die Basisvektoren kovariante Tangentialvektoren im Punkt P. Beliebige Vektoren a lassen sich in dieser Basis darstellen in der Form d

a = ∑ ayi eyi . i=1

(5.17)

Die Größen a = (ay1 , . . . , ayd ) bezeichnen wir als die Koordinate des Punktes P in der Basis {eyi }; es handelt sich um kontravariante Größen. Die krummlinigen Basisvektoren lassen sich wiederum durch die kanonische Basis ausdrücken: fyi =

d d 𝜕r 𝜕x l 𝜕x l 𝜕r = = el . ∑ ∑ 𝜕yi l=1 𝜕yi 𝜕x l l=1 𝜕yi

Der Vektor a kann auch durch die Basis el dargestellt werden: d

d

d

a = ∑ ayi eyi = ∑ ∑ i=1

i=1 l=1

d ayi 𝜕x l e = al e . ∑ hi 𝜕yi l l=1 l

Daraus folgt das Transformationsverhalten der Koordinaten: d

al = ∑ i=1

ayi 𝜕x l hi 𝜕yi



d 𝜕yi ayi = ∑ al l . hi 𝜕x l=1

Betrachten wir den metrischen Tensor (5.14), dann folgt: d

𝜕x n 𝜕x n = fyi ⋅ fyj = hi hj eyi ⋅ eyj = gji . i j n=1 𝜕y 𝜕y

gij = ∑

Betrachten wir die Diagonalelemente, dann folgt hi = √gii .

274 � 5 Tensorrechnung Definition 5.16 (Duale Basis). Für eine gegebene Basis {eyi }i=1,...,d bezeichnen wir die y Vektoren {e∗ i }i=1,...,d als duale Basis, falls gilt y

y

e∗ i ⋅ eyj = f∗ i ⋅ fyj = δji .



y

Gilt {e∗ i = eyi }i=1,...,d , dann bezeichnen wir sie als orthonormale krummlinige Koordinaten und es gilt eyi ⋅ eyj = δij . y

Die Vektoren e∗ i sind kontravariante Vektoren und die Entwicklung eines Vektors a ist gegeben durch: d

y

a = ∑ ay∗i e∗ i , i=1

dabei sind die Komponenten ay∗i kovariant. Für die natürliche duale Basis gilt: y

f∗ i =

1 ∗ yi e . hi

Für einen gegeben Vektor a in Koordinaten ã = (ã y1 , . . . , ã yd ) := (ay1 /h1 , . . . , ayd /hd ),

(5.18) y

in der Basis {fyi }, ergeben sich die Koordinaten ã ∗ = (ã y∗1 , . . . , ã y∗d ) in der Basis {f∗ i } aus der Projektion von a auf die Basis {fyj }: d

y

a ⋅ fyj = ∑ ã y∗i f∗ i ⋅ fyj = ã y∗j . i=1

Im Folgenden verwenden wir für die natürlichen Koordinaten die Schreibweise ã und für Koordinaten in der Orthonormalbasis die Schreibweise a, wobei der Bezug (5.18) gilt. y Betrachten wir die Entwicklung von a sowohl in der Basis {fyi } und {f∗ i } und multiplizieren mit fyi , dann folgt: d

d

d

i=1

i=1

l=1

ã y∗j = ∑ ã yi fyi ⋅ fyj = ∑ ã yi ∑

d 𝜕x l 𝜕x l = ∑ ã yi gij . 𝜕yi 𝜕yj i=1

und insgesamt d

ã y∗j = ∑ ã yi gij i=1

d



ã yj = ∑ ã y∗i g ij . i=1

Der Wechsel zwischen ko- und kontravarianten Koordinaten folgt mittels Hebung oder Senkung der Indizes mithilfe des metrischen Tensors.

5.4 Der metrische Tensor

� 275

Beispiel 5.5. Betrachte die lineare Lorentz-Transformation x = Λy in zwei Dimensionen mit einer Matrix cosh θ sinh θ

Λ=(

sinh θ ), cosh θ

θ ∈ ℝ.

Die natürliche Basis ist gegeben durch f0 =

cosh θ 𝜕x =( ), 0 sinh θ 𝜕y

f1 =

sinh θ 𝜕x =( ). 1 cosh θ 𝜕y

Die Basis ist im Allgemeinen nicht orthogonal f0 ⋅ f1 = 2 sinh θ cosh θ ≠ 0, θ ≠ 0. Die duale Basis ergibt sich aus der inversen Transformation y = Λ−1 x mit cosh θ − sinh θ

Λ−1 = (

− sinh θ ), cosh θ

und 0

f∗ = μ

cosh θ 𝜕y =( ), 0 − sinh θ 𝜕x

1

f∗ =

− sinh θ 𝜕x =( ). 1 cosh θ 𝜕y

μ

Daraus folgt f∗ ⋅fv = δν . Das invariante Skalarprodukt der speziellen Relativitätstheorie ̃ = a 0 b0 − erhält man durch die Pseudo-Riemann-Metrik und der Definition a ⋅ b := at gb a 1 b1 .

5.4.2 Ableitungen krummliniger Basisvektoren Anders als in kartesische Koordinaten ei sind die Basisvektoren eyi (y) und fyi (y) im Allgemeinen in krummlinigen Koordinaten selbst von den krummlinigen Koordinaten y abhängig. Das bedeutet, dass deren Ableitungen nicht konstant sind. Betrachten wir hierzu den Vektor a aus Gl. (5.17) und differenzieren diesen: d 𝜕(ayj e ) d 𝜕eyj yj 𝜕a 𝜕ayi yi = = ( e ). + a ∑ ∑ y j i 𝜕yi j=1 𝜕yi 𝜕yi j=1 𝜕y

Der zweite Term enthält Ableitungen der Basisvektoren, die sich wieder durch die Basisvektoren ausdrücken lassen. Diese Entwicklung führt man jedoch in der natürlichen Basis aus und führt darüber neue Größen ein, die Christoffel-Symbole. Definition 5.17 (Christoffel-Symbol). Die Entwicklungskoeffizienten Γk ij der natürlichen Basis sind definiert durch:

276 � 5 Tensorrechnung 𝜕fyj 𝜕yi

d

= ∑ Γk ij fyk , k=1

und nennt man Christoffel-Symbol 2.Art. Die Größe Γijk = gil Γljk nennt man Christoffel-Symbol 1. Art. ◼ Das Christoffel-Symbol kann explizit durch die Ableitungen 𝜕x l /𝜕yj ausgedrückt werden. Zunächst beachten wir, dass gilt d l y y 󵄨 𝜕x δji = f∗ i ⋅ fyj = ∑ f∗ i 󵄨󵄨󵄨l j 𝜕y l=1



𝜕yi y󵄨 f∗ i 󵄨󵄨󵄨l = l , 𝜕x y

dann folgt aus der Definition nach Bildung des Skalarproduktes mit f∗ l : l

Γ ij = f

∗ yl



𝜕fyj 𝜕yi

d

= ∑f k=1

𝜕fyj |k

d 𝜕yl 𝜕2 x k = = Γlji . ∑ 󵄨󵄨k i j k 𝜕yi k=1 𝜕x 𝜕y 𝜕y

∗ yl 󵄨󵄨

(5.19)

Das Christoffel-Symbol ist symmetrisch bzgl. des zweiten und dritten Indexes. Es sei an dieser Stelle ausdrücklich darauf hingewiesen, dass die Christoffel-Symbole keine Tensoren darstellen. Es gilt etwa für den Wechsel von Koordinatensystemen y → ỹ das Transformationsverhalten für Γkij : 𝜕ỹk 𝜕2 yl 𝜕ỹk 𝜕ym 𝜕yn Γ̃ kij = ∑ Γlmn l +∑ l i j. i j ̃ ̃ 𝜕y 𝜕ỹ 𝜕ỹ l,m,n l 𝜕y 𝜕y 𝜕y Der erste Term entspricht dem Transformationsverhalten eines Tensors der Stufe (1, 2), es kommt jedoch ein Zusatzterm hinzu. Der Beweis der Relation ist als Aufgabe am Ende des Kapitels verschoben. Mithilfe des Christoffel-Symbol lassen sich die Ableitungen von beliebigen Vektoren in krummlinigen Koordinaten darstellen, dazu verwenden wir die natürlichen Koordinaten ã = (ã y1 , . . . , ã yd ) der Basis {fyi }: d 𝜕fyj 𝜕ã yj 𝜕a = ∑( i fyj + ã yj i ) i 𝜕y 𝜕y j=1 𝜕y d

= ∑( j=1 d

= ∑( j=1

d 𝜕ã yj yj ̃ f + a Γkij fyk ) ∑ y 𝜕yi j k=1 d 𝜕ã yj j + Γ ã yk )fyj . ∑ 𝜕yi k=1 ik

Hierauf basierend, definieren wir eine kovariante Ableitung.

5.4 Der metrische Tensor

� 277

Definition 5.18 (Kovariante Ableitung). Die kovariante Ableitung eines kontravarianten Vektors ai und eines kovarianten Vektors aj , ist definiert durch ∇yi aj := ∇yi aj :=

d 𝜕aj j + ∑ Γ ik ak , i 𝜕y k=1

𝜕aj 𝜕yi

d

− ∑ Γkij ak . k=1



Die kovariante Ableitung stellt somit eine Verallgemeinerung des Gradienten dar, die aber invariant ist unter Koordinatentransformation. Kovariante Ableitungen von Tensoren höherer Stufe werden entsprechend definiert. Unter Verwendung der Summenkonvention, zeige man die folgenden Zusammenhänge zwischen metrischen Tensor und Christoffel-Symbol: (i) Γkij = (ii)

𝜕gij 𝜕y k

(iii) Γi ji =

1 kl 𝜕gli 𝜕glj 𝜕gij g ( j + i − l ), 2 𝜕y 𝜕y 𝜕y = Γikj + Γjki , 𝜕√det g 1 . √det g 𝜕y j

Lösung: Wir verwenden hier durchweg die Summenkonvention. (i) Gleichung (5.15) multiplizieren wir mit 𝜕y k /𝜕x l : 𝜕2 x n 𝜕x n 𝜕y k 𝜕2 x n 𝜕2 x l 1 𝜕y k 𝜕gik 𝜕gjk 𝜕gij = i j δln = i j = ( + − k ). i j k l 2 𝜕y 𝜕y 𝜕y 𝜕x 𝜕y 𝜕y 𝜕y 𝜕y 𝜕y i 𝜕x l 𝜕y j 𝜕y Nun setzen wir (5.19) für das Christoffel-Symbol ein und benutzen obige Gleichung: Γkij = (ii)

𝜕gnj 𝜕gij 𝜕g 𝜕y k 𝜕2 x l 1 𝜕y k 𝜕y n 𝜕gin 𝜕gjn 𝜕gij 1 = ( + − n ) = gkn ( nij + − n ). i j l 2 𝜕x l 𝜕x l 𝜕y j 𝜕y 2 𝜕y 𝜕y i 𝜕y 𝜕y i 𝜕x 𝜕y 𝜕y

Die Rechnung geht ähnlich, wir differenzieren gij : 𝜕gij 𝜕y k

= = =

𝜕2 x n 𝜕x n 𝜕x n 𝜕2 x n + i k j 𝜕y 𝜕y 𝜕y 𝜕y k 𝜕y i 𝜕y j

𝜕2 x l n 𝜕x n 𝜕x n n 𝜕2 x l δl + i δl k j 𝜕y 𝜕y k 𝜕y i 𝜕y j 𝜕y 𝜕y

𝜕2 x l 𝜕y m 𝜕x n 𝜕x n 𝜕x n 𝜕x n 𝜕y m 𝜕2 x l + i m 𝜕y 𝜕y 𝜕x l 𝜕y k 𝜕y j 𝜕y k 𝜕y i 𝜕x l 𝜕y m 𝜕y j

= Γmki gmj + Γmkj gmi = Γjki + Γikj .

278 � 5 Tensorrechnung

(iii) Wir benutzen (i) und kontrahieren: Γi ij =

1 in 𝜕gni 𝜕gnj 𝜕gij 1 1 𝜕 det g 𝜕gin 1 1 𝜕 det g 1 𝜕g g ( j + − n ) = gin nij = = . 2 𝜕y 2 2 det g 𝜕gin 𝜕y j 2 det g 𝜕y j 𝜕y 𝜕y i 𝜕y

Mit der Jacobi-Formel folgt: Γi ij =

𝜕√det g 1 1 𝜕 det g 1 𝜕 ln det g 𝜕 ln √det g 1 = = = . 2 det g 𝜕y j 2 √det g 𝜕y j 𝜕y j 𝜕y j



Mithilfe der kovarianten Ableitung lässt sich eine Richtungsableitung definieren. Definition 5.19 (Richtungsableitung). Für einen gegebenen Vektor a ∈ Ed ist die Richtungsableitung in Richtung v ∈ Ed mit Koordinaten ṽ = (ṽy1 , . . . , ṽyd ), definiert durch: d

∇v a = ∑ (ṽyi i,j=1

d 𝜕ã yj + ∑ ṽyi ã yk Γj ik )fyj . i 𝜕y k=1



Beispiel 5.6. Die kovariante Ableitung eines Vektors a in Richtung eines Basis-Vektors v = eyl in krummlinigen Koordinaten ist gegeben durch: d

∇ey a = ∑ l

j=1

d 𝜕ã yj f + ã yk Γj kl fyj . ∑ y 𝜕yl j j,k=1

Außer der gewöhnlichen Ableitung in Richtung der neuen Koordinaten kommt ein Zusatzterm hinzu, der der Änderung der Koordinaten Rechnung trägt. ⬦ Eine Übersicht von über 40 verschiedenen krummlinigen Koordinatensystemen mit Anwendungen in der Physik und Mathematik findet sich im Handbuch Field Theory Handbook – Including Coordinate Systems, Differential Equations and their Solutions [46].

5.5 Tensoren in der Physik Betrachten wir eine Reihe von wichtigen Tensoren, die in der Physik vorkommen. Im Folgenden sei immer angenommen, dass eine nicht singuläre Koordinatentransformation yi = yi (ỹ1 . . . ỹd ) zugrunde liegt, mit den zuvor beschriebenen Stetigkeitseigenschaften.

5.5.1 Verallgemeinerter Kronecker-Tensor und der ϵ-Tensor Aus dem einfachen Kronecker-Tensor δji der Stufe (1, 1) konstruieren wir über die Determinante einen verallgemeinerten Kronecker-Tensor.

5.5 Tensoren in der Physik

� 279

j

Definition 5.20 (verallgemeinerter Kronecker-Tensor). Sei δi der Kronecker-Tensor und ℕ ∋ r > 1, dann ist der verallgemeinerten Kronecker-Tensor definiert durch:

i ...i

δj 1...j r 1

r

󵄨󵄨δi1 󵄨󵄨 j1 󵄨󵄨 󵄨 . := 󵄨󵄨󵄨󵄨 .. 󵄨󵄨 󵄨󵄨 ir 󵄨󵄨δj 1

i δj 1 󵄨󵄨󵄨󵄨 r󵄨 .. 󵄨󵄨󵄨󵄨 . 󵄨󵄨󵄨 . i 󵄨󵄨 δj r 󵄨󵄨󵄨 r

... .. . ...



Es handelt sich um eine Summe von r Produkten von Tensoren der Stufe (1, 1), die alle im selben Punkt definiert sind. Damit ist der so konstruierte Tensor ein Tensor der Stufe (r, r) vom Rang 2r. Aufgrund der Determinanten-Eigenschaften bezüglich der Vertauschung von Zeilen und Spalten, ergeben sich die Relationen: i ...i ...il ...ir ...jr 1

δj 1... k...

i ... ... ...i δj 1...j ...j ...jr 1 k l r

i ...i ...i ...i

= −δj 1... l ... k...j r , 1

=

r

i ... ... ...i −δj 1...j ...j ...jr . 1 l k r

Der verallgemeinerte Kronecker-Tensor ist damit ein total schiefsymmetrischer Tensor, aus dem durch Spezialisierung der Indizes der ϵ-Tensor definiert wird. Definition 5.21 (ϵ-Tensor). Der ϵ-Tensor der Stufe (r, 0) bzw. (0, s) ist definiert durch: i ...i

1 r ϵi1 ...ir := δ1...r ,

ϵj1 ...js := δj1...s . 1 ...js



Für den ϵ-Tensor gilt: 1...r ϵ1...r = ϵ1...r = δ1...r = 1.

Beachten wir, dass jede ungerade Permutation der Indizes eine −1 ergibt und jede gerade Permutation eine +1, so folgt: j ...j

ϵi1 ...ir ϵj1 ...jr = δi1 ...ir . 1

r

Damit lässt sich die Determinante einer Matrix A ∈ M(r × r, 𝕂) schreiben als: det A = ϵi1 ,...,ir A1i1 ⋅ ⋅ ⋅ Arir . Diese Eigenschaften benutzen wir, um den Tensorcharakter des ϵ-Tensors zu bestimmen. Hierzu betrachten wir das Transformationverhalten bzgl. der regulären Transformation yi = yi (ỹ1 , . . . , ỹd ): i1 𝜕ỹir 𝜕yl1 𝜕ylr i1 ...ir k ...kr 𝜕ỹ ϵ̃i1 ...ir = δ̃ 1...r = δl 1...l ⋅ ⋅ ⋅ ⋅ ⋅ ⋅ 1 r 𝜕yk1 𝜕ỹr 𝜕ykr 𝜕ỹ1

280 � 5 Tensorrechnung

= ϵk1 ...kr = ϵk1 ...kr

𝜕ylr 𝜕ỹi1 𝜕ỹir 𝜕yl1 ⋅ ⋅ ⋅ ⋅ ⋅ ⋅ ϵ l ...l 1 r 𝜕ỹr 𝜕ỹ1 𝜕yk1 𝜕ykr

𝜕ỹi1 𝜕ỹir 𝜕(ỹ1 , . . . , ỹr ) ⋅ ⋅ ⋅ det 𝜕(y1 , . . . , yr ) 𝜕yk1 𝜕ykr

= Jϵk1 ...kr

𝜕ỹi1 𝜕ỹir ⋅ ⋅ ⋅ , 𝜕yk1 𝜕ykr

wobei J = det J die Jacobi-Determinante ist. Damit transformiert sich ϵ,̃ bis auf den numerischen Faktor J, wie ein Tensors der Stufe (r, 0). Solche Tensoren, die bis auf einen skalaren Faktor, ein Transformationsverhalten eines Tensors besitzen, bezeichnet man als relative Tensoren. Analog gilt dies für ϵj1 ...jr . Beispiel 5.7. Wir betrachten den für die Physik wichtigen Fall von Kontraktionen in d = 3 Dimensionen des δ- und ϵ-Tensors. Durch einfache Fallunterscheidungen und Summation folgt: δii = 3,

j k k ϵijk ϵimn = δm δn − δnj δm , j

ϵijk ϵijn = δj δnk − δnj δjk = 2δnk ,

ϵijk ϵijk = 2δkk = 6.

Mit dem ϵ-Tensor lassen sich effizient Vektor-Relationen vereinfachen, die Kreuzprodukte enthalten, wie die folgende Aufgabe zeigt. Zeige mithilfe des ϵ-Tensors für von null verschiedenen Vektoren a,⃗ b⃗ und c ⃗ aus ℝ3 : (i)

a⃗ × b⃗ = −b⃗ × a,⃗

(ii)

a⃗ ‖ b⃗ ⇒ a⃗ × b⃗ = 0,

(iii)

a⃗ ⋅ (b⃗ × c)⃗ = (a⃗ × b)⃗ ⋅ c,⃗

(iv) (v)

a⃗ × (b⃗ × c)⃗ = (a⃗ ⋅ c)⃗ b⃗ − (a⃗ ⋅ b)⃗ c.⃗

⃗ a⃗ ⋅ c). ⃗ (a⃗ × b)⃗ ⋅ (a⃗ × c)⃗ = a⃗2 (b⃗ ⋅ c)⃗ − (a⃗ ⋅ b)(

Lösung: Zunächst wird das Kreuzprodukt mit Hilfe des ϵ-Tensors dargestellt: (i) ⃗ = ϵ aj bk = −ϵ aj bk = −ϵ bj ak = −(b⃗ × a)| ⃗ i (a⃗ × b)| i ijk ikj ijk

(ii)

i = 1, 2, 3.

Im zweiten Schritt wurde die Antisymmetrie des ϵ-Tensors genutzt, im dritten Schritt wurden die Summationsindizes vertauscht i ↔ j.

a⃗ ‖ b⃗



∃α ∈ ℝa⃗ = αb⃗



a⃗ × b|⃗ i = αϵijk aj ak = −αϵijk ak aj = 0.

5.5 Tensoren in der Physik

(iii)

� 281

Es wurde die Antisymmetrie des ϵ-Tensors und die Symmetrie ak aj = aj ak benutzt. a⃗ ⋅ (b⃗ × c)⃗ = ai ϵijk bj c k = ϵkij ai bj c k = (a⃗ × b)⃗ ⋅ c.⃗

(iv)

Es wurde die zyklische Symmetrie ϵ ijk = ϵ kij verwendet. i j j ⃗ i = ϵ ijk aj ϵkmn bm c n = (δm a⃗ × (b⃗ × c)| δn − δni δm )aj bm c n = an bi c n − am bm c i

= (a⃗ ⋅ c)⃗ bi − (a⃗ ⋅ b)⃗ c i .

(v) j k k (a⃗ × b)⃗ ⋅ (a⃗ × b)⃗ = ϵ ijk aj bk ϵimn am c n = (δm δn − δnj δm )aj bk am c n

⃗ a⃗ ⋅ c). ⃗ = am bn am c n − an bm am c n = a⃗2 (b⃗ ⋅ c)⃗ − (a⃗ ⋅ b)(

Hier wurde an vielen Stellen die Vertauschbarkeit von Skalaren verwendet. Hat man es mit Operatoren zu tun, dann vertauschen diese im Allgemeinen nicht und die entsprechenden Formeln werden komplizierter. Dies werden wir im nächsten Abschnitt untersuchen. ⬦

5.5.2 Duale Basis im Euklidischen Raum E3 y

Lemma 5.1. In drei Dimensionen ist die zu {eyi } gehörige duale Basis {e∗ i } gegeben durch 3

∑ ϵijk e∗

yk

k=1

=

eyi × eyj

det(ey1 , ey2 , ey3 )

.

Beweis. Für i = j verschwinden linke und rechte Seite. Nehmen wir an i ≠ j, und bilden wir auf beiden Seiten das Skalarprodukt mit eyl : 3

∑ ϵijk e∗

k=1

yk

3

⋅ eyl = ∑ ϵijk δlk = ϵijl = k=1

(eyi × eyj ) ⋅ eyl

det(ey1 , ey2 , ey3 )

.

Eine Komponente eines Basisvektors ist gegeben durch eyi |k = hi−1 𝜕x k /𝜕yi , damit folgt: 3

ey1 ⋅ (ey2 × ey3 ) = ∑ ϵijk i,j,k=1

1 𝜕x j 1 𝜕x j 1 𝜕x k = det(ey1 , ey2 , ey3 ). h1 𝜕y1 h2 𝜕y2 h3 𝜕y3

Die Antisymmetrie des Spatproduktes eyi ⋅ (eyj × eyk ) wird durch den ϵ-Tensor sichergestellt. Ist das Spatprodukt (ey1 × ey2 ) ⋅ ey3 > 0, so nennt man die Basis {ey1 , ey2 , ey3 } ein Rechtssystem.

282 � 5 Tensorrechnung Beispiel 5.8. In der Festkörperphysik sind duale Vektoren als reziproke Basis bekannt. Hier wird dann noch ein Faktor 2π in die Definition hinzugefügt. Für Vektoren des sogenannten Bravais-Gitter mit Basis {a1 , a2 , a3 }: 3

r = ∑ ni ai ,

ni ∈ ℤ,

i=1

ist die reziproke Basis {b1 , b2 , b3 } definiert durch b1 :=

2π a × a3 , Vc 2

b2 :=

2π a × a1 , Vc 3

b3 :=

2π a × a2 . Vc 1

Hierbei ist Vc = a1 ⋅ (a2 × a3 ) das Volumen der primitiven Einheitszelle. Für das Skalarprodukt mit dem Bravais-Gitter gilt: bi ⋅ aj = 2πδji . Ein Vektor des reziproken Gitters wird dargestellt durch 3

k = ∑ ki bi ,

k i ∈ ℤ.

i=1

Daraus folgt: 3

3

i,j=1

i=1

k ⋅ r = ∑ k i nj bi ⋅ aj = 2π ∑ k i ni ∈ 2πℤ. In der Festkörperphysik tauchen in natürlicher Weise Skalarprodukt von Gitter- und reziproken Gittervektoren im Argument der Funktion exp(ik ⋅ r) = 1 auf. Der Name reziprokes Gitter ergibt sich aus der Dimensionsbetrachtung der Gitter- und reziproken Gittervektoren mit Einheit Länge und inverse Länge. Definition 5.22. Der Epsilon-Tensor in krummlinigen Koordinaten im E3 ist definiert durch: ℰijk := det(fyi , fyj , fyk ) = √det g ϵijk , ℰ

ijk

y

y

y

:= det(f∗ i , f∗ j , f∗ k ) =

1 ϵijk . √det g



Der so definierte Tensor hat das korrekte Transformationsverhalten, denn es gilt: ℰijk = det(fyi , fyj , fyk ) = det(∑ l

𝜕x l 𝜕r 𝜕x m 𝜕r 𝜕x n 𝜕r , ) , ∑ ∑ m n k 𝜕yi 𝜕x l m 𝜕yj 𝜕x n 𝜕y 𝜕x

5.5 Tensoren in der Physik

� 283

𝜕x l 𝜕x m 𝜕x n 𝜕x l 𝜕x m 𝜕x n ϵ det(e , e , e ) = . ∑ lmn l m n i j k 𝜕yi 𝜕yj 𝜕yk l,m,n 𝜕y 𝜕y 𝜕y l,m,n

= ∑

Damit lässt sich das Kreuzprodukt zweier Vektoren a und b in drei Dimensionen und natürlichen Koordinaten ã und b̃ schreiben als y

a × b := ∑ ℰijk ã yj b̃ yk f∗ i = √det g ∑ ϵijk i,j,k

i,j,k

y

ayj byk e∗ i . hi hj hk

Im Falle orthogonaler Koordinaten vereinfacht sich dies zu y

a × b = ∑ ϵijk ayj byk e∗ i , i,j,k

Für eine Komponente bedeutet dies: a × b|l = (a × b) ⋅ el = ∑j,k ϵljk ayj byk . 5.5.3 Differential-Operatoren in E3 Differential-Operatoren in orthogonalen Koordinaten im E3 sind in der Physik besonders wichtig und werden in allen Bereichen der Physik benötigt. Wir sind verschiedenen Differential-Operatoren in früheren Kapitel schon begegnet, insbesondere in Zylinderund Kugelkoordinaten. In diesem Abschnitt betrachten wir allgemeine krummlinige Koordinaten und reguläre Koordinatentransformationen in drei Dimensionen x 1 (y) y = (y , y , y ) 󳨃→ r = r (x 2 (y)) . x 3 (y) 1

2

3

In dieser Abbildung sind x i die kartesischen Koordinaten und y die neuen krummlinigen Koordinaten mit Basisvektoren: fyi =

𝜕r , 𝜕yi

eyi =

fyi hi

,

hi = |fyi |,

y

f∗ i ⋅ fyj = δji .

Der metrische Tensor ist gegeben durch gij = δij hi2 . Der Vektor r ausgedrückt in den neuen Koordinaten sei gegeben durch 3

3

i=1

i=1

r = ∑ ai eyi = ∑ ã i fyi . Sowohl die Koordinaten ai , ã i als auch die Basisvektoren eyi , fyi hängen dabei im Allgemeinen von den neuen Koordinaten y ab. Zur Ableitung der Differential-Operatoren in krummlinigen orthogonalen Koordinaten, verwenden wir zunächst die allgemeinen

284 � 5 Tensorrechnung Koordinatentransformationen. Das Ziel im Folgenden ist es, die Differential-Operatoren grad, div, rot und Δ in drei Dimensionen für orthogonale krummlinige Koordinaten explizit abzuleiten und anzugeben. Ableiten werden wir diese Differential-Operatoren aber in ganz allgemeinen krummlinige Koordinaten und daraus dann auf d = 3 und orthogonalen Koordinaten spezialisieren. Der Gradient einer skalaren Funktion Φ(y) ist im Allgemeinen gegeben durch die kovariante Ableitung. In diesem Fall gilt, da die Terme durch Ableitung der Basisveky toren wegfallen: ∇yi = 𝜕/𝜕yi ≡ 𝜕yi und somit ∇Φ = ∑i (𝜕yi Φ)f∗ i . Daraus resultiert der Gradient. Definition 5.23 (Gradient). Sei Φ(y) ∈ ℝ ein skalares Feld, dann ist der Gradient von Φ gegeben durch 3

grad Φ(y) ≡ ∇Φ(y) = ∑ i=1

1 𝜕Φ(y) ∗ yi e . hi 𝜕yi



Es sei nochmals daran erinnert, das für orthogonale Koordinaten gilt 𝜕yi 1 y󵄨 y󵄨 f∗ i 󵄨󵄨󵄨j = j = e∗ i 󵄨󵄨󵄨j , hi 𝜕x y

und im Speziellen: e∗ i = eyi , also eyi ⋅ eyj = δji . Betrachten wir die Divergenz eines Vektorfeldes a in natürlichen Koordinaten a,̃ so ist diese im Allgemeinen zunächst gegeben durch die kovariante Ableitung und der Spurbildung: div a ≡ ∑ ∇yi ã yi = ∑ 𝜕yi ã yi + ∑ Γiij ã yj i

i

= ∑(𝜕yj ã yj + j

=∑ j

i,j

1 (𝜕y √det g)ã yj ) √det g j

1 𝜕y (√det g ã yi ). √det g j

Daraus ergibt sich für orthogonale Koordinaten nach Übergang zu den Koordinaten ayi = aỹ i /hi und det g = ∏ hi2 , die Divergenz. Definition 5.24 (Divergenz). Sei a(y) ∈ ℝ3 eine Vektorfeld, dann ist die Divergenz von a in den Koordinaten a der orthonormierten Basis {eyi } gegeben durch div a ≡ ∇ ⋅ a(y) =

3 1 𝜕 h1 h2 h3 yi ( a ). ∑ h1 h2 h3 i=1 𝜕yi hi



Für die Rotation verfahren wir analog und gehen wieder von natürlichen Koordinaten eines Vektors a aus:

5.5 Tensoren in der Physik

rot a ≡ ∑ ℰ ijk ∇yi ã j fk̃ = i,j,k

=

� 285

d 𝜕ã j 1 ∑ ϵijk ( i fk̃ − ∑ Γkij ã j fk̃ ) 𝜕y √det g i,j,k k=1

𝜕ã j 1 ∑ ϵijk i fk̃ . 𝜕y √det g i,j,k

Auch hier ergibt sich für orthogonale Koordinaten nach Übergang zu den Koordinaten ayi = aỹ i /hi und det g = ∏ hi2 , die Rotation. Definition 5.25 (Rotation). Sei a(y) ∈ ℝ3 eine Vektorfeld, dann ist die Rotation von a in den Koordinaten a der orthonormierten Basis {eyi } gegeben durch rot a ≡ ∇ × a(y) =

3 𝜕(hk ayk ) 1 eyi . ∑ ϵijk hi h1 h2 h3 i,j,k=1 𝜕yj



Bei der Übertragung des Laplace-Operators muss man vorsichtig sein. Die korrekte Definition ist Δ = div grad, also explizit ΔΦ ≡ ∑ ∇yi (∇yi Φ) = ∑ ∇yi (g ij ∇yj Φ) = ∑ 𝜕yi g ij 𝜕yj Φ + ∑ Γiij g jk 𝜕yk Φ i

i,j

=∑ i,j

1 (𝜕y √det g g ij 𝜕yj Φ). √det g i

i,j

i,j,k

Für orthogonale Koordinaten nach Übergang zu den Koordinaten ayi = aỹ i /hi und det g = ∏ hi2 folgt der Laplace-Operator. Definition 5.26 (Laplace). Sei Φ(y) ∈ ℝ ein skalares Feld, dann ist der Laplace-Operator gegeben durch ΔΦ(y) =

3 1 𝜕 h h h 𝜕Φ ∑ i ( 1 22 3 i ). h1 h2 h3 i=1 𝜕y hi 𝜕y



Für die Physik sind die Zylinder- und Kugelkoordinaten besonders wichtig. Deswegen fassen wir die Differential-Operatoren in diesen Koordinaten in den beiden folgenden Beispielen zusammen und verschieben weitere orthogonale Koordinatensysteme zu den Aufgaben an das Ende des Kapitels. Beispiel 5.9 (Zylinder- und Kugelkoordinaten). Zylinderkoordinaten cos φ eρ = ( sin φ ) , 0

− sin φ eφ = ( cos φ ) , 0

0 ez = (0) , 1

und die Skalenfaktoren lauten h1 = 1, h2 = r und h3 = 1, damit folgt insgesamt mit Koordinaten a = (a1 , a2 , a3 ) ≡ (aρ , aφ , az ):

286 � 5 Tensorrechnung 1 (𝜕 Φ)eφ + (𝜕z Φ)ez , ρ φ 1 1 ∇ ⋅ a = 𝜕ρ (ρaρ ) + 𝜕φ aφ + 𝜕z az , ρ ρ ∇Φ = (𝜕r Φ)eρ +

1 1 ∇ × a = ( 𝜕φ az − 𝜕z aφ )eρ + (𝜕z aρ − 𝜕ρ az )eφ + (𝜕ρ (ρaφ ) − 𝜕φ aρ )ez , ρ ρ 1 1 ΔΦ = 𝜕ρ (ρ𝜕ρ Φ) + 2 𝜕φ2 Φ + 𝜕z2 Φ. ρ ρ Kugelkoordinaten sin θ cos ϕ er = ( sin θ sin ϕ ) , cos θ

cos θ cos ϕ eθ = ( cos θ sin ϕ ) , − sin θ

− sin ϕ eϕ = ( cos ϕ ) , 0

und die Skalenfaktoren lauten h1 = 1, h2 = r und h3 = r sin θ, damit folgt insgesamt mit Koordinaten a = (a1 , a2 , a3 ) ≡ (ar , aθ , aϕ ): 1 1 ∇Φ = (𝜕r Φ)er + (𝜕θ Φ)eθ + (𝜕 Φ)eϕ , r r sin θ ϕ 1 1 1 𝜕 (sin θaθ ) + 𝜕 aϕ ), ∇ ⋅ a = 2 𝜕r (r 2 ar ) + r sin θ θ r sin θ ϕ r r eϕ e 𝜕ϕ a er ∇×a= (𝜕θ (sin θaϕ ) − 𝜕ϕ aθ ) + θ ( − 𝜕r (raϕ )) + (𝜕r (raθ ) − 𝜕θ ar ), r sin θ r sin θ r 1 1 1 2 2 ΔΦ = 2 𝜕r (r 𝜕r Φ) + 𝜕θ (sin θ𝜕θ Φ) + 𝜕ϕ Φ. ⬦ r r 2 sin2 θ r 2 sin2 θ

Aufgaben 1.

Betrachte elliptische Zylinderkoordinaten (ρ, ϕ, z), die definiert sind durch: ỹ1 := ρ ∈ ℝ+ ,

ỹ2 := ϕ ∈ [0, 2π[,

ỹ3 := z ∈ ℝ,

mit x1 a cosh ỹ1 cos ỹ2 a cosh ρ cos ϕ 2 (x ) := ( a sinh ỹ1 sin ỹ2 ) = ( a sinh ρ sin ϕ ) , x3 ỹ3 z

a > 0.

(i) Zeige, dass Linien mit konstantem ρ Ellipsen in der (x 1 , x 2 )-Ebene beschreiben, die mit konstantem ϕ Hyperbeln. (ii) Bestimme J, J−1 , die Skalenfaktoren hi , die Einheitsvektoren eρ , eϕ , ez und überprüfe die Orthogonalitätsrelationen. (iii) Drücke einen gegebenen Vektor a durch elliptische Zylinderkoordinaten aus.

Aufgaben

2.

� 287

(iv) Bestimme den metrischen Tensor gij und die Inverse. (v) Gib grad, div, rot und Δ in elliptischen Zylinderkoordinaten (ρ, ϕ, z) an. Betrachte parabolische Koordinaten (u, v, ϕ), die definiert sind durch: ỹ1 := u ∈ ℝ+ ,

ỹ2 := v ∈ ℝ+ ,

ỹ3 := ϕ ∈ [0, 2π[,

mit x1 ỹ1 ỹ2 cos ỹ3 uv cos ϕ 2 (x ) := ( ỹ1 ỹ2 sin ỹ3 ) = ( uv sin ϕ ) . x3 ((ỹ1 )2 − (ỹ2 )2 )/2 (u2 − v2 )/2

3.

(i) Zeige, dass Linien mit konstantem u und v Parabeln beschreiben. (ii) Bestimme J, J−1 die Skalenfaktoren hi , die Einheitsvektoren eu , ev , eϕ und überprüfe die Orthogonalitätsrelationen. (iii) Drücke einen gegebenen Vektor a durch parabolische Koordinaten aus. (iv) Bestimme den metrischen Tensor gij und die Inverse. (v) Gib grad, div, rot und Δ in parabolische Koordinaten (u, v, ϕ) an. Betrachte den ϵ-Tensor in 4 Dimensionen: ijkl

ϵijkl := δ1234 ,

1234 ϵijkl := δijkl ,

und zeige

ϵiklm ϵprst

󵄨󵄨 i 󵄨󵄨 δp 󵄨󵄨 󵄨󵄨󵄨δk 󵄨 p = − 󵄨󵄨󵄨 l 󵄨󵄨 δ 󵄨󵄨󵄨 p 󵄨󵄨 δl 󵄨󵄨 p

δri

δsi

δrk

δsk

δrm

δsm

δrl

δsl

ϵiklm ϵprlm = −2(δpi δrk − δri δpk ), 4. 5.

󵄨 δti 󵄨󵄨󵄨 󵄨󵄨 󵄨 δtk 󵄨󵄨󵄨 󵄨󵄨 , 󵄨 δtl 󵄨󵄨󵄨 󵄨󵄨 δtm 󵄨󵄨󵄨󵄨

ϵiklm ϵprsm

ϵiklm ϵpklm = −6δpi ,

δri

δrk δrl

󵄨 δsi 󵄨󵄨󵄨 󵄨󵄨 󵄨 δsk 󵄨󵄨󵄨 , 󵄨󵄨 δsl 󵄨󵄨󵄨󵄨

ϵilmk ϵiklm = 2δkk = −24.

Gib das Christoffel-Symbol in 3 Dimensionen für Zylinder- und Kugelkoordinaten an. Sei Aij schiefsymmetrisch und Bij symmetrisch, zeige: j

j

(i) (δki δl + δli δk )Aij = 0, 6.

󵄨󵄨 i 󵄨󵄨 δp 󵄨󵄨 󵄨 = − 󵄨󵄨󵄨δpk 󵄨󵄨 󵄨󵄨 δl 󵄨󵄨 p

(ii)

Aij Bij = 0.

Sei Aij ein Tensor der Stufe (0, 2) und Bijk definiert durch Bijk =

𝜕Ajk 𝜕x i

+

𝜕Aki 𝜕Aij + k. 𝜕x j 𝜕x

Zeige, Bijk ist ein Tensor der Stufe (0, 3) und ist vollständig antisymmetrisch in allen Indexpaaren.

288 � 5 Tensorrechnung 7.

Betrachte ein kubisch-flächenzentriertes Gitter (fcc), definiert durch die Basisvektoren: a1 :=

8.

a (e + e3 ), 2 2

a2 :=

a (e + e3 ), 2 1

a3 :=

a (e + e2 ). 2 1

Bestimme die duale Basis bi , i = 1, 2, 3. Betrachte eine Koordinatentransformationen y → ỹ und leite das Transformationsverhalten von Γkij ab: 𝜕ỹk 𝜕2 yl 𝜕ỹk 𝜕ym 𝜕yn + . Γ̃ kij = ∑ Γlmn l ∑ l ̃i ̃j 𝜕y 𝜕ỹi 𝜕ỹj l 𝜕y 𝜕y 𝜕y l,m,n

9.

Betrachte einen Vektor a in allgemeinen krummlinigen Koordinaten ã = (ã y1 , . . . , ã yd ). Gib das Differential da an und bestimme a,̇ ä und überprüfe, ob es sich bei deren Koordinaten um Tensoren handelt. Drücke die Ergebnisse, wenn möglich durch das Christoffel-Symbol aus. Darüber hinaus bilde die Richtungsableitung ∇ȧ a.̇

6 Distributionen In diesem Kapitel führen wir den Begriff der Distribution ein. Distributionen können als verallgemeinerte Funktionen aufgefasst werden, die im Vergleich zu normalen Funktionen besondere, erweiterte Eigenschaften besitzen. Als wichtigstes Beispiel werden wir die Deltafunktion kennenlernen. Wir versuchen einen kompakten aber geschlossenen Zugang zum Begriff der Distribution zu bekommen, ohne auf die größtmögliche Allgemeinheit Wert zu legen. Das Ziel der Darstellung wird zum einen sein eine anschauliche Vorstellung von Distributionen, insbesondere der Deltafunktion, zu bekommen und zum anderen werden die wichtigsten Rechenregeln abgeleitet. Der hier vorgestellte Zugang stellt eine Einführung in die Theorie der Distributionen dar und orientiert sich an den Darstellungen in den Lehrbüchern Analysis 3 [21] und Distributionen und ihre Anwendung in der Physik [47]. Ersteres ist eine ebenso kompakte Darstellung, das letztere Lehrbuch eine sehr ausführliche Abhandlung der Theorie der Distributionen. Eine sehr praxisbezogene und umfassende Darstellung der Theorie der Distributionen mit vielen Beispielen und Anwendungen stellt das Lehrbuch Distribution Theory and Transform Analysis [24] dar. Wir werden zunächst den Begriff der Testfunktionen und den Raum der Testfunktionen einführen. Die Testfunktionen sind die Funktionen, auf die wir die Distributionen anwenden werden, man spricht auch von Testen der Distributionen. Testfunktionen bilden einen normierten Raum, der möglichst weit gefasst sein sollte. Die komplette Diskussion über die verschiedenen Räume führen wir hier nicht, dies wird ausführlich in [47] gemacht.

6.1 Raum der Testfunktionen Im Folgenden studieren wir lineare und stetige Abbildungen von Vektorräumen bestimmter Funktionen nach ℝ oder ℂ. Bei den Abbildungen handelt es sich um Funktionale mit zusätzlichen Stetigkeitseigenschaften, solche Abbildungen nennen wir dann Distributionen. Eigenschaften der Distributionen werden mithilfe der Funktionen ausgetestet, deswegen nennen wir diese dann Testfunktionen und den dadurch gebildeten Vektorraum den Testfunktionsraum. Der zugehörige Dualraum wird der Raum der Distributionen sein. Im Vordergrund der Diskussion stehen dabei nicht die Eigenschaften und Strukturen der verschiedenen Räume und deren Dualräume, sondern das praxisrelevante Rechnen mit den wichtigsten und häufig genutzten Distributionen in der Physik. Wiederholen wir kurz einige wichtige Begriffe der Analysis. Der Träger einer Funktion f : ℝn → ℝ ist der Abschluss der Menge {x ∈ ℝ | f (x) ≠ 0}, den wir mit K(f ) := Supp(f ) bezeichnen. Wir diskutieren hier überwiegend kompakte Träger. Außerhalb des Trägers verschwinden die Funktionen dann identisch. Die Untermenge der stetigen Funktionen in 𝒞 (ℝn ): https://doi.org/10.1515/9783111059228-006

290 � 6 Distributionen n

n

𝒞c (ℝ ) := {f ∈ 𝒞 (ℝ ) | Supp(f ) kompakt},

ist die Menge der stetigen Funktionen mit einem kompakten Träger. Die entsprechenden Mengen mit k mal stetig differenzierbaren Funktionen bezeichnen wir mit 𝒞 k (ℝn ) und 𝒞ck (ℝn ). Definition 6.1 (Testfunktionsraum 𝒟). Der Raum der Testfunktionen 𝒟 sei der Vektorraum aller in ℝn beliebig oft differenzierbarer Funktionen f mit kompakten Träger 𝒟 ≡ 𝒟(ℝn ) := 𝒞c∞ (ℝn ). ◼ Betrachten wir ein typisches Beispiel einer Testfunktion aus diesem Raum. Beispiel 6.1 (Testfunktion in 𝒟). Sei α > 0 und x = (x1 , . . . , xn ), dann ist n

2

exp( α−α 2 −x 2 )

ℝ ∋ x 󳨃→ fα (x) := { 0

: |x| < α,

: |x| ≥ α,

eine Testfunktion aus 𝒞c∞ (ℝn ) mit einem kompakten Träger K = {x ∈ ℝn | |x| ≤ α}. In der Abbildung 6.1 sind Beispiele für verschiedene α dargestellt. ⬦

Abb. 6.1: Testfunktion fα (x) und fα′ (x) (gestrichelt) für drei verschiedene α-Werte für n = 1. Die Testfunktion ist glockenartig, mit einem Maximum bei x = 0 und sie verschwindet exponentiell schnell an den Rändern |x| = α. Alle Ableitungen sind von der Form p(x)fν (x) mit rationalen Funktionen p(x), die nur an den Rändern divergieren, aber dort mit einer exponentiell schnell fallenden Funktion multipliziert werden und somit verschwinden, ebenso alle Ableitungen an den Rändern.

6.2 Distributionen

� 291

Definition 6.2 (Testfunktionsraum 𝒮 ). Der Raum der Testfunktionen 𝒮 sei der Vektorraum aller Funktionen f : ℝn → ℝ, die zusammen mit allen Ableitungen für |x| → ∞ schneller verschwinden als beliebige Potenzen von 1/|x|. ◼ Diesen Raum nennt man auch den Raum der schnell fallenden Funktionen. Eine 2 typische Klasse von Funktionen sind die Gauß-Funktionen e−α|x| , α > 0. In den Testfunktionsräumen sind die beiden folgenden Sequenzen von Normen (p = 1, 2, 3, . . .) sinnvoll: 󵄨 󵄨 ‖f ‖p := sup sup 󵄨󵄨󵄨𝜕n f (x)󵄨󵄨󵄨, p ‖f ‖1

n≤p x∈K(f )

p󵄨 󵄨 := sup sup (1 + |x|) 󵄨󵄨󵄨𝜕n f (x)󵄨󵄨󵄨, n n≤p x∈ℝ

mit dem Differentialoperator 𝜕n :=

j

𝜕n

n n 𝜕x1 1 ⋅ ⋅ ⋅ 𝜕xj j

,

n = ∑ ni . i=1

(6.1)

p

Der Zusatzfaktor (1 + |x|)p in der Norm ‖f ‖1 ist für die schnell fallenden Funktionen relevant. Mit diesen Normen werden die Testfunktionsräume 𝒟 und 𝒮 zu vollständig abzählbar normierten Räumen, was wir an dieser Stelle nur erwähnen und nicht beweisen. Des Weiteren ist zu erwähnen, dass 𝒟 ⊂ 𝒮 und 𝒟 dicht in 𝒮 liegt, weswegen wir uns bei der Diskussion der Eigenschatten der Distributionen zumeist auf 𝒟 beschränken. Für den Beweis dieser Aussagen schaue man in [47] nach. Unter der Konvergenz von Folgen von Testfunktionen fν , ν = 1, 2, . . . verstehen wir immer, dass für jedes n die Funktionenfolge 𝜕n fν gleichmäßig gegen eine Testfunktion 𝜕n f aus den entsprechenden Testfunktionsräumen konvergiert. Im Fall 𝒟 mit kompakten Träger wird zusätzlich noch gefordert, dass es ein Kompaktum K gibt, sodass K(fν ) ⊂ K, ∀ν und K(f ) ⊂ K. Abkürzend schreiben wir für diese Konvergenz: 𝒟

fν 󳨀→ f

𝒮

bzw. fν 󳨀→ f .

6.2 Distributionen Wie schon erwähnt, können Distributionen auf verschiedene Testfunktionsräume definiert werden. Wir beschränken uns hier auf den Raum 𝒟. Da dieser Raum aber dicht in 𝒮 liegt, ist diese Einschränkung in der Praxis nicht wesentlich. Uns kommt es im Folgenden in erster Linie auf die Ableitung der Rechenregeln für Distributionen an und diese unterscheiden sich, sofern existent, nicht. Führen wir also den Begriff der Distribution ein.

292 � 6 Distributionen Definition 6.3 (Distribution). Eine Distribution 𝒯 in 𝒟 ist eine stetige lineare Abbildung: 𝒯 : 𝒟 ∋ f 󳨃→ 𝒯 [f ] ∈ ℝ.

Die Menge aller Distributionen bildet den dualen Vektorraum 𝒟′ ≡ 𝒟′ (ℝn ). Dabei be𝒟

deutet Stetigkeit von 𝒯 , dass aus der Konvergenz in 𝒟: fν 󳨀→ f die Konvergenz in 𝒟′ : 𝒟′

𝒯 [fν ] → 𝒯 [f ] folgt.



Eine äquivalente Formulierung der Stetigkeit von Distributionen lautet: Lemma 6.1 (Nullfolge). Eine Distribution 𝒯 ∈ 𝒟′ ist genau dann stetig, wenn für jede ν→∞ Nullfolge fν ∈ 𝒟 folgt: 𝒯 [fν ] 󳨀→ 0. Entsprechende Definitionen und Aussagen gelten für Abbildungen nach ℂ, ebenso werden Distributionen in 𝒮 analog formuliert. Bevor wir mit Beispielen für Distributionen beginnen, schauen wir uns eine lineare Abbildung an, die im beschriebenen Sinne nicht stetig ist. Betrachte die Nullfolge fν (x) = sin(νx)/ν in 𝒟, für die gilt fν (x) 󳨀→ 0 und den Differentialoperator 𝒯 [f (x)] := df (x)/dx. Dieser ist linear, aber die Folge 𝒯 [fν (x)] = cos(νx) konvergiert nicht und damit ist der Differentialoperator nicht stetig. Betrachten wir wichtige Beispiele und beginnen mit einer sogenannten regulären Distribution. Beispiel 6.2 (reguläre Distribution). Sei f ∈ 𝒟 und Δ ∈ 𝒞 (ℝn ), dann ist mit n

𝒟 ∋ f 󳨃→ 𝒯Δ [f (x)](x0 ) := ∫ d xΔ(x − x0 )f (x) ∈ ℝ,

(6.2)

ℝn

eine Distribution definiert, da diese Abbildung linear und stetig ist. Die Distribution 𝒯Δ [f ] wird durch die reguläre Funktion Δ dargestellt. Diese Art der Distributionen bezeichnen wir als reguläre Distributionen und studieren wir im Folgenden im Detail. ⬦ Hat man beispielsweise zwei Funktionen Δ1 , Δ2 ∈ 𝒞 (ℝn ), sodass für alle f ∈ 𝒟 gilt: 𝒯Δ1 [f ] = 𝒯Δ2 [f ], dann folgt Δ1 = Δ2 . Damit wird die lineare Abbildung n

𝒞 (ℝ ) ∋ Δ 󳨃→ 𝒯Δ ∈ 𝒟 , ′

zu einer injektiven Abbildung und deswegen können wir die stetige Funktion Δ ∈ 𝒞 (ℝn ) mit der Distribution 𝒯Δ identifizieren. Würde man den Raum der Funktionen von 𝒞 etwa zum Raum L1 erweitern, dann würde die Injektivität verloren gehen. Da der Kern dieser Abbildung aus allen Lebesgue-Funktionen besteht, die fast überall null sind. Reguläre Distributionen können wir in der Form eines Skalarproduktes darstellen, wobei wir die folgende Notation verwenden wollen: 𝒯Δ [f (x)](x0 ) = ⟨Δ(x − x0 ) 󵄨󵄨󵄨 f (x)⟩.

󵄨

(6.3)

6.2 Distributionen

� 293

Beispiel 6.3. Beispiele für reguläre Distributionen lassen sich mit der Gauß-Funktion (4.16) und der Lorentz-Funktion (4.17) bilden. Gauß-Funktion Sei Δlα (x) ≡ lα (x) = (α/π)/(α2 + x 2 ), dann gilt: 𝒯lα [f (x)](x0 ) = ⟨Δlα (x − x0 ) 󵄨󵄨󵄨 f (x)⟩ =

󵄨

Lorentz-Funktion Sei Δgσ (x) ≡ gσ (x) = e−x

2

/2σ 2

𝒯gσ [f (x)](x0 ) = ⟨Δgσ (x − x0 ) 󵄨󵄨󵄨 f (x)⟩ =

󵄨

+∞

f (x) α . ∫ dx 2 π α + (x − x0 )2 −∞

/√2πσ 2 , dann gilt: 1

+∞

2

2

∫ dx f (x)e−(x−x0 ) /2σ .

√2πσ 2 −∞

Wenn keine Missverständnisse zu erwarten sind verwendet man bei Distributionen – insbesondere in der Physik – die verkürzende Schreibweise 𝒯Δ = Δ. Hier wollen wir jedoch, um den Unterschied zu normalen Funktionen hervorzuheben weitestgehend die ausführliche Schreibweise für Distributionen benutzen. Durch die Wahl der Testfunktionsräume mit kompakten Träger, bzw. durch den Raum der schnell fallenden Funktionen erreichen wir, dass eine sehr große Klasse von Funktionen, etwa Polynome pn – die selbst etwa nicht aus L1 sind – Distributionen entsprechen und wir die Identifizierung der Funktion selbst mit der Distributionen vornehmen können. Aufgrund dieser Identifizierung sind wir auch bestrebt Distributionen unendlich oft zu differenzieren. Auch für diese Eigenschaft wird die Eigenschaft der Testfunktionen im Unendlichen identisch zu verschwinden, oder wenigstens exponentiell schnell zu verschwinden benötigt, denn dann können wir in den regulären Distributionen partiell integrieren, wobei die Randterme dann verschwinden. Die Räume sind dann vergleichsweise klein, man ist aber bestrebt sie größtmöglich zu wählen. Diese Diskussion führen wir hier aber nicht und verweisen auf [47]. 6.2.1 Distributionen in der Physik In diesem Abschnitt schauen wir uns eine Reihe von wichtigen Distributionen an, die insbesondere in der Physik Anwendung finden. In erster Linie sind dies die regulären Distribution. Beginnen werden wir die Diskussion jedoch mit einer nicht regulären Distributionen, der Dirac’schen Delta-Distribution. Diracsche Delta-Distribution Die wichtigste nicht reguläre Distribution in der Physik ist die Dirac’sche Delta-Distribution. Eine solche Distribution bezeichnet man auch als singuläre Distributionen. Zunächst definieren wir die Distribution. Im Anschluss daran geben wir eine anschauliche Vorstellung der Distribution.

294 � 6 Distributionen Definition 6.4 (Diracsche Delta-Distribution). Sei x ∈ ℝn , dann definieren wir für eine Testfunktion aus f ∈ 𝒟 die δ-Distribution: 𝒯δ [f (x)](x0 ) ≡ δx0 [f ](x) := f (x0 ).

(6.4) ◼

In der Physik bezeichnet man diese Distribution auch oft als Deltafunktion oder auch δ-Funktion. Eingeführt wurde sie durch P. A. M. Dirac im Rahmen der Quantenmechanik als sogenannte uneigentliche Funktion. Dies ist ausführlich in dem bemerkenswerten Buch The Principles of Quantum Mechanics [15] dargelegt.

Es handelt sich um eine Distribution, da dies definitionsgemäß ein lineares Funktional darstellt. Die Stetigkeit folgt aus dem Nullfolgen-Lemma, denn für eine Nullfolge fν (x) ∈ 𝒟 gilt: δx0 [fν ](x) = fν (x0 ) 󳨀→ 0. Diese Distribution kann aber nicht durch eine Funktion δ(x) in der Form (6.2) dargestellt werden. Es gilt nämlich die aus der Analysis bekannte Aussage, dass eine Funktionenfolge gν ∈ 𝒞 (ℝn ), die auf jedem kompakten Träger gleichmäßig gegen eine Funktion g ∈ 𝒞 (ℝn ) konvergiert, die Konvergenzeigenschaft hat: lim ∫ dn xgν (x)f (x) = ∫ dn xg(x)f (x),

ν→∞

ℝn

∀f ∈ 𝒟.

ℝn 𝒟′

Im Sinne der Konvergenz der Distributionen bedeutet dies: 𝒯gν → 𝒯g . Würde aber gelten limν→∞ 𝒯gν [f (x)](x0 ) = f (x0 ), müsste ∫ dx g(x − x0 )f (x) = f (x0 ) sein, was mit einer stetigen Funktion g(x) jedoch nicht möglich ist. Mithilfe des folgenden Satzes können wir jedoch diese Distribution als Grenzprozess von divergenten Funktionenfolgen bilden. Dies wird zu einer anschaulichen und praxisrelevanten Interpretation der δ-Distribution führen. Satz 6.1. Es sei eine Funktion Δϵ (x − x0 ) :=

x − x0 1 Δ( ), ϵn ϵ

ϵ > 0,

x, x0 ∈ ℝn ,

mit Δ ∈ L1 (ℝn ) und

∫ dn xΔ(x) = 1, ℝn

gegeben, dann gilt für jede Testfunktion f ∈ 𝒟: lim ∫ dn xΔϵ (x − x0 )f (x) = f (x0 ).

ϵ→0+

ℝn

(6.5)

6.2 Distributionen

� 295

Beweis. Betrachten wir zunächst für ein endliches ϵ > 0 das Integral: ∫ dn xΔϵ (x − x0 )f (x) = ∫ ℝn

ℝn

dn x Δ((x − x0 )/ϵ)f (x) = ∫ dn xΔ(x)f (x0 + ϵx). ϵn ℝn

Die Testfunktion f ist auf einem kompakten Träger beliebig oft differenzierbar, somit existiert eine Konstante C = supx∈ℝn |f (x)| < ∞. Damit schätzen wir ab: 󵄨󵄨 󵄨 󵄨 󵄨 󵄨󵄨Δ(t)f (x0 + ϵx)󵄨󵄨󵄨 ≤ C 󵄨󵄨󵄨Δ(x)󵄨󵄨󵄨,

∀ϵ > 0,

x ∈ ℝn ,

des Weiteren gilt: lim Δ(x)f (x0 + ϵx) = Δ(x)f (x0 ).

ϵ→0+

Damit sind die Voraussetzungen für den Satz der Majorisierten Konvergenz1 erfüllt und man folgert: lim ∫ dn xΔϵ (x − x0 )f (x) = ∫ dn xΔ(x)f (x0 ) = f (x0 ).

ϵ→0+

ℝn

ℝn

In diesem Sinne kann die δ-Distribution (6.4) als ein Grenzprozess verstanden werden. Die Darstellung selbst ist nicht nur für die Anschauung wichtig, sondern sie liefert explizite Darstellungen der δ-Distribution, die in der Physik an verschiedenen Stellen verwendet werden. Hierauf gehen wir im nächsten Beispiel noch ein. Verwenden wir die suggestive Schreibweise (6.3), dann folgt: 󵄨 󵄨 ⟨δ(x − x0 ) 󵄨󵄨󵄨 f (x)⟩ := lim+ ⟨Δϵ (x − x0 ) 󵄨󵄨󵄨 f (x)⟩ ϵ→0

= lim+ 𝒯Δϵ [f (x)](x0 ) = 𝒯δ [f (x)](x0 ) = f (x0 ). ϵ→0

Drücken wir dies als Konvergenz im dualen Vektorraum 𝒟′ der Distributionen aus, so 𝒟′

𝒟′

gilt: 𝒯Δϵ 󳨀→ 𝒯δ oder in verkürzter Notation: Δϵ 󳨀→ δ. Deswegen schreiben wir dann auch häufig für die singuläre δ-Distribution 𝒯δ [f (x)](x0 ) = δx0 [f ](x) = ⟨δ(x − x0 ) 󵄨󵄨󵄨 f (x)⟩.

󵄨

Betrachten wir explizite Beispiele eines solchen Grenzprozesses.

1 Siehe zum Beispiel [21] Kapitel Konvergenzsätze.

296 � 6 Distributionen Beispiel 6.4. (i) Die Gauß-Funktion gσ (x) aus Gl. (4.16) und die Lorentz-Funktion lα (x) aus Gl. (4.17) fallen direkt unter die Klasse der Distributionen der Form (6.5) und wir finden die unmittelbare Darstellung: σ→0

gσ (x − x0 ) 󳨀→ δ(x − x0 ), α→0

lα (x − x0 ) 󳨀→ δ(x − x0 ). (ii) Aus der Definition des Frejér-Kerns Fn (x) (4.9) und dessen Eigenschaften, insbesondere (4.10e) folgt unmittelbar: n→∞

Fn (x − x0 ) 󳨀→ δ(x − x0 ). (iii) Die Rechteckfunktion 1 rectϵ (x) := Θ(x + ϵ/2)Θ(ϵ/2 − x), ϵ

ϵ > 0,

die mithilfe der Stufenfunktion Θ(x) (siehe die Definition im folgenden Abschnitt) gebildet wird. Alle vier Funktionen gσ (x), lα (x) und Fn (x), rectϵ (x) haben ein Maximum bei x = x0 . In der Abbildung 6.2 sind die Funktionen beispielhaft für x0 = 0 und verschiedene Parameter gezeigt.

Abb. 6.2: Die Funktionen gσ (x), lα (x), Fn (x) und rectϵ (x) für σ = α = 1/n = 0.04 und ϵ = 0.1. Die Breite der Peaks bei x0 = 0 ist etwa proportional zu ϵ und die Höhe umgekehrt proportional zu ϵ.

6.2 Distributionen

� 297

Im Limes ϵ → 0 wird der Peak damit unendlich hoch und bekommt eine verschwindende Breite, wobei die Fläche unter dem Peak gleich eins ist. Dies ist die anschauliche Vorstellung der δ-Funktion. ⬦ Betrachte die Funktion ℝ ∋ x 󳨃→ Δν (x) :=

1 −|x|/ν e , 2ν

ν > 0,

ν→0

und zeige, dass gilt Δν (x − x0 ) 󳨀→ δ(x − x0 ). Des Weiteren berechne explizit 𝒯Δν [g(x)](0) für eine Testfunktion f und gib die Konvergenzrate als Funktion von ν an. Lösung: Die Voraussetzungen von Satz 6.1 sind erfüllt, denn es gilt: ∞

∫ dx Δν (x) = 2 ∫ dx 0





e−x/ν = ∫ dx e−x = 1. 2ν 0

Damit folgt Δν (x − x0 ) 󳨀→ δ(x − x0 ). Explizit ergibt sich für beliebiges ν > 0: ∞

𝒯Δν [f (x)](0) = ∫ dx Δν (x)f (x) = ∫ dx 0



f (x) + f (−x) e−νx . 2 ν

Beachten wir, f ∈ 𝒟 beliebig oft differenzierbar und mittels partieller Integration folgt: ∞

n+1 𝒯Δν [f (x)](0) = ∑ (−v ) n=0

󵄨∞ ∞ 1 + (−)n (n) e−νx 󵄨󵄨󵄨󵄨 2n (2n) g (x) 󵄨 = ∑ g (0)ν 2 ν 󵄨󵄨󵄨󵄨0 n=0



= f (0) + ∑ g(2n) (0)ν 2n = 𝒯δ [f (x)](0) + 𝒪(ν 2 ). n=1

Damit konvergiert 𝒯Δν für ν → 0 quadratisch in ν gegen 𝒯δ .



Heavisidesche Sprungfunktion Als nächstes betrachten wir eine weitere nicht-regulär definierte Distribution, die über die Sprungfunktion (Heaviside-Funktion) definiert ist. 0 : x < 0, { { { ℝ∋x→ 󳨃 Θ(x) := {1/2 : x = 0, { { : x > 0. {1

(6.6)

Es ist eine stückweise konstante Funktion und als solche induziert sie eine Distribution in 𝒟 (bzw. 𝒮 ) über: ∞

󵄨 𝒯Θ [f (x)](x0 ) := ⟨Θ(x − x0 ) 󵄨󵄨󵄨 f (x)⟩ = ∫ dx f (x). x0

298 � 6 Distributionen Durch die Funktion ℝ ∋ x 󳨃→ Θα (x) :=

1 1 + arctan(x/α), 2 π

ist eine Darstellung von 𝒯Θ über eine Folge stetiger Funktionen gegeben mit limα→0 Θα (x) = Θ0 (x) = Θ(x). Dies ist in Abbildung 6.3 dargestellt.

Abb. 6.3: Sprungfunktion Θ(x) (blaue Kurve α = 0) zusammen mit der stetigen Funktion Θα (x) für verschiedene α-Werte.

Später sehen wir, dass die Sprungfunktions-Distribution über eine Differentiation mit der δ-Distribution zusammenhängt. Jedoch ist hier schon zu erkennen, dass die Ableitung der Θα -Funktion die Lorentz’sche Glockenkurve ergibt: Θ′α (x) = lα (x), und somit zu vermuten ist, dass gelten könnte Θ′ (x) = δ(x). An dieser Stelle ist aber die Differentiation von Distributionen noch nicht definiert. Bevor wir die Differentiation von Distributionen betrachten, schauen wir uns noch eine weitere für die Physik wichtige Distribution an, das Hauptwertintegral. Hauptwert In der Physik und insbesondere in der Quantenmechanik begegnet man singulären Integralen der Art +c1

∫ dx

−c0

f (x) , x

c0 , c1 > 0.

Diesen Integralen kann durch eine geeignete Auswertungsvorschrift eine mathematische Interpretation zugeordnet werden.

6.2 Distributionen

� 299

Definition 6.5 (Hauptwert). Der Hauptwert einer Funktion f ∈ 𝒟(ℝ) mit Träger K = [−c, c] ist definiert durch: −ϵ

c

−c

ϵ

f (x) f (x) 1 = lim( ∫ + ∫)dx . (𝒫 )[f ] ≡ — ∫ dx ϵ→0 x x x K



Wesentlich bei der Definition sind die symmetrisch gewählten Grenzen um x = 0. Für eine gerade Funktion f (x) = f (−x) bedeutet dies: −ϵ

c

−c

ϵ

f (x) f (x) 1 (𝒫 )[f ] = lim( ∫ dx + ∫ dx ) ≡ 0. ϵ→0 x x x Nicht symmetrische Grenzen, die aber im Limes ϵ → 0 gegen Null gehen, führen zu nicht verschwindenden Hauptwerten, zum Beispiel: −2ϵ

lim( ∫ dx

ϵ→0

−c

c

1 1 + ∫ dx ) = ln 2. x x ϵ

Der Hauptwert definiert eine Distribution in 𝒟 bzw 𝒮 über 1 x

𝒯1/x [f ] := (𝒫 )[f ].

Die Linearität ist aus der Definition klar. Betrachten wir die Stetigkeit, dazu sei etwa f ∈ 𝒟(ℝ). Dann ist f auch in x = 0 beliebig oft differenzierbar und es existiert ein ξ ∈ K mit f (x) = f (0) + xf ′ (ξ) und damit folgt: 󵄨󵄨 󵄨󵄨 󵄨󵄨 f (x) 󵄨󵄨󵄨󵄨 󵄨󵄨󵄨󵄨 f (0) + xf ′ (ξ) 󵄨󵄨󵄨󵄨 1 󵄨 󵄨 󵄨󵄨 󵄨 ′ 󵄨 󵄨 ′ 󵄨 ∫ dx ∫ dx 󵄨󵄨 = 󵄨󵄨 — 󵄨󵄨 = 2c󵄨󵄨󵄨f (ξ)󵄨󵄨󵄨 ≤ 2c max󵄨󵄨󵄨f (x)󵄨󵄨󵄨. 󵄨󵄨(𝒫 )[f ]󵄨󵄨󵄨 = 󵄨󵄨󵄨 — 󵄨󵄨 󵄨󵄨 󵄨󵄨 x∈ℝ x x 󵄨󵄨 󵄨󵄨 x 󵄨󵄨 K

K

Damit ist die Definition des Hauptwertes ein beschränktes Funktional und damit folgt 𝒟

die Stetigkeit, da aus fν 󳨀→ 0 folgt: 𝒯1/x [fν ] → 0. Beispiel 6.5 (Hauptwert Polynom). Der Hauptwert eines Polynoms 2n

p2n (x) = ∑ αl x l l=1

ist gegeben durch −ϵ

c

−c

ϵ

n 2α p (x) p (x) 1 + ∫ dx 2n ) = ∑ 2l−1 c2l−1 . (𝒫 )[p2n ] = lim( ∫ dx 2n ϵ→0 x x x 2l − 1 l=1



300 � 6 Distributionen Eng verbunden mit dem Hauptwert ist das folgende Lemma. Lemma 6.2 (Sokhotsky-Plemelj). Im Sinne von Distributionen gilt: 1 1 = ∓iπδ(x) + 𝒫 , x ± i0 x

(6.7)

wobei 1/(x + i0) meint 1/(x + iϵ) mit ϵ → +0. Beweis. Wir betrachten den Fall +i0 und übersetzen die verkürzende Schreibweise in Distributionsschreibweise: 𝒯

1 x+iϵ

[f (x)] = ∫ dx K

f (x) x + iϵ

und führen den Limes ϵ → 0 durch: c

lim 𝒯

ϵ→0

1 x+iϵ

x − iϵ f (x) x 2 + ϵ2

[f (x)] = lim ∫ dx ϵ→0

−c

c

c

−c

−c

x − iϵ x − iϵ = f (0) lim ∫ dx 2 + lim ∫ dx 2 (f (x) − f (0)). ϵ→0 x + ϵ2 ϵ→0 x + ϵ2 Für das erste Integral folgt: c

c

∫ dx −c

ϵ→+0 x − iϵ ϵ = −i ∫ dx 2 = −2i arctan(c/ϵ) 󳨀→ −iπ. x 2 + ϵ2 x + ϵ2 −c

Im zweiten Integral definieren wir g(x) := (f (x) − f (0))(x − iϵ)/(x 2 + ϵ2 ) und beachten g(0) = 0, dann folgt: c

−ϵ

c

−c

ϵ

ϵ

ϵ→0

∫ dx g(x) = ( ∫ + ∫)dx g(x) + ∫ dx g(x) 󳨀→ — ∫ dx −c

K

−ϵ

f (x) . x

Insgesamt ergibt sich dann lim 𝒯

ϵ→0

1 x+iϵ

[f (x)] = 𝒯

1 x+i0

[f (x)] = −iπf (0) + — ∫ dx K

f (x) . x

(6.8)

In verkürzter Notation ist dies Gl. (6.7). Auch die schon eingeführte Fourier-Transformation kann als Distribution aufgefasst werden. Dies schauen wir uns im nächsten Abschnitt an.

6.2 Distributionen

� 301

Fourier-Transformation Die Fourier-Transformation (4.14a) 𝒮 ∋ f 󳨃→ ℱ [f (x)](k) =

1 ∫ dx f (x)ei⟨x|k⟩ (2π)n/2 ℝ

für Testfunktionen f ∈ 𝒮 ist ein stetiges Funktional und damit eine reguläre Distribution. Wir wollen hier nicht die Bedeutung des Testfunktionsraums diskutieren, sondern einen Bezug zur δ-Distribution herstellen. Hierzu schauen wir uns das FourierIntegraltheorem an und schreiben Gl. (4.11) formal um: f (x0 ) =

+∞

+∞

+∞

+∞

−∞

−∞

−∞

−∞

1 1 ∫ du ∫ dx f (x)eiu(x−x0 ) = ∫ dx f (x) ∫ du eiu(x−x0 ) . 2π 2π

Im Sinne der Distributionen können wir die δ-Distribution identifizieren als +∞

𝒯δ (x − x0 ) = δ(x − x0 ) = ∫ du −∞

eiu(x−x0 ) . 2π

Dies ist in der Physik eine oft verwendete Darstellung der δ-Distribution. Verwenden wir das Ergebnis aus dem Beispiel 1.38, dann können wir auch schreiben 1 eixt lim+ = Θ(x). ∫ dt t − iϵ ϵ→0 i2π +∞

−∞

Damit folgt insgesamt 𝒯

1 t−i0

[eit(x−x0 ) /i2π] = Θ(x − x0 ).

Schauen wir uns an, wie sich dieses Ergebnis mit der Darstellung (6.8) wiederfindet: 𝒯

1 t−i0

[eitx /i2π] =

c

c

1 1 eitx 1 1 sin(tx) + lim = + lim — ∫ dt ∫ dt — c→∞ 2 i2π t 2 2π c→∞ t −c

−ϵ

=

1 1 sin(tx) + lim lim( ∫ + ∫)dt 2 2π c→∞ ϵ→0 t −c c

=

c

ϵ

1 1 sin t + sign(x) lim ∫ dt 2 π c→∞ t 0

1 1 = + sign(x) lim Si(c) = Θ(x). 2 π c→∞

−c

302 � 6 Distributionen Die beiden Ergebnisse stimmen überein. Auch hier erkennen wir durch formalen Vergleich der Integranden, dass die Relation dΘ(x)/dx = δ(x) folgt. Diesen Sachverhalt wollen wir etwas genauer studieren und betrachten dazu im nächsten Abschnitt ganz allgemeine Rechenregeln für Distributionen, insbesondere dann auch die Differentiation. 6.2.2 Rechnen mit Distributionen Wie wir bisher gesehen haben, verhalten sich Distributionen in vielerlei Hinsicht wie normale Funktionen. Wichtige Eigenschaften von normalen Funktionen sind deren Verhalten bei Differentiation, der Fourier-Transformation oder der Faltung. Im Sinne der bisher diskutierten Eigenschaften sind wir daran interessiert diese Operationen so einzuführen, dass etwa gilt: ′

𝒯Δ = 𝒯Δ′ ,

ℱ [𝒯Δ ] = 𝒯ℱ [Δ] ,

𝒯Δ1 ⋆ 𝒯Δ2 = 𝒯Δ1 ⋆Δ2 .

Dann ist es vernünftig Distributionen als verallgemeinerte Funktionen zu betrachten. Beginnen wir mit der Differentiation. Differentiation von Distributionen Bei der Übertragung der Differentiation auf Distributionen gehen wir vom Differentialoperator (6.1) aus und betrachten die Abbildung: 𝜕n : 𝒟′ 󳨀→ 𝒟′ ,

𝜕n 𝒯Δ [f (x)](x0 ) 󳨃→ 𝒯𝜕n Δ [f (x)](x0 ),

∀f ∈ 𝒟.

Über die Identifikation der Distribution 𝒯Δ mit der darstellenden Funktion Δ definiert dies die Differentiation von Distributionen. Die Ableitung einer Distribution kann auf die Ableitung der Testfunktion übertragen werden, wie das folgenden Lemma zeigt. Lemma 6.3. Für den Differentialoperator 𝜕n aus Gl. (6.1) gilt: 𝜕n 𝒯Δ [f (x)](x0 ) = (−)n 𝒯Δ [𝜕n f (x)](x0 ), für alle 𝒯Δ ∈ 𝒟′ und f ∈ 𝒟. Beweis. Dies zeigen wir durch Einsetzen in die Definition unter Beachtung, dass f ∈ 𝒟 bei einer partiellen Integration an den Rändern verschwindet: 𝜕n 𝒯Δ [f (x)](x0 ) = 𝒯𝜕n Δ [f (x)](x0 ) 󵄨 = ⟨𝜕n Δ(x − x0 ) 󵄨󵄨󵄨 f (x)⟩ 󵄨 = (−)n ⟨Δ(x − x0 ) 󵄨󵄨󵄨 𝜕n f (x)⟩ = (−)n 𝒯Δ [𝜕n f (x)](x0 ).

6.2 Distributionen

� 303

Aufgrund der Eigenschaften der Testfunktionen f und des Integrals ist die Abbildung 𝜕n 𝒯 : 𝒟(ℝn ) → ℝ eine lineare und stetige Abbildung und bildet somit selbst wieder eine Distribution. Eine einfache Folgerung erhält man aus der Übertragung der Konvergenzeigenschaften. 𝒟′

Lemma 6.4. Sei eine Folge von Distributionen 𝒯Δν 󳨀→ 𝒯Δ gegeben, dann gilt: 𝒟′

𝜕n 𝒯Δν 󳨀→ 𝜕n 𝒯Δ . Beweis. Wir betrachten den Fall n = 1, der Fall n > 1 ist dann klar. Wir setzen 𝜕 ≡ 𝜕xj und 𝒯Δ [f ] ≡ 𝒯Δ [f (x)](x0 ), dann folgt: lim 𝜕𝒯Δν [f ] = lim 𝒯𝜕Δν [f ] = − lim 𝒯Δν [𝜕f ] = −𝒯Δ [𝜕f ] = 𝜕𝒯Δ [f ].

ν→∞

ν→∞

ν→∞

Daraus folgt insgesamt, dass die Distributionen beliebig oft differenzierbar sind. Betrachten wir ein Beispiel, dass Bezug nimmt zum Riemannischen Lemma. Beispiel 6.6. Gegeben sei die reguläre Distribution 𝒯Δν , die durch die nicht konvergente Funktionenfolge ℝ ∋ x 󳨃→ Δν (x) := sin(νx) ∈ ℝ erzeugt wird. Mit Hilfe des Riemann-Lemmas 4.1 folgt: b

ν→∞

𝒯Δν [f (x)] = ∫ dx sin(νx)f (x) 󳨀→ 0. 0

Für die konvergente Funktionenfolge ν→∞ 1 Δ̂ ν (x) := − cos(νx) 󳨀→ 0, ν 𝒟′

gilt ebenso 𝒯Δ̂ 󳨀→ 0 und es gilt im Sinne der Differentiation von Distributionen: ν

d 𝒯 ̂ = 𝒯dΔ̂ /dx = 𝒯Δν . ν dx Δν



Besonders wichtig ist die Differentiation der Sprungfunktions-Distribution. Lemma 6.5. Die Ableitung der Sprungfunktions-Distribution ist gegeben durch: d 𝒯 = 𝒯δ . dx Θ Im Sinne der Distributionen aus 𝒟′ (ℝ) schreiben wir kompakt Θ′ = δ.

(6.9)

304 � 6 Distributionen Beweis. Für eine Testfunktion f ∈ 𝒟(ℝ) folgt: d ′ 𝒯 [f (x)](x0 ) = 𝒯Θ′ [f (x)](x0 ) = −𝒯Θ [f (x)](x0 ) dx Θ ∞

󵄨 = −⟨Θ(x − x0 ) 󵄨󵄨󵄨 f ′ (x)⟩ = − ∫ dx f ′ (x) x0

= f (x0 ) = 𝒯δ [f (x)](x0 ). Im Abschnitt über die Heaviside-Sprungfunktion haben wir gesehen, dass die stetige Funktion Θα (x) für α → 0 gegen die Heaviside’sche-Sprungfunktion konvergiert. Im Sinne der Distributionen haben wir dann schematisch: α→0

d dx

Θα (x) 󳨀󳨀󳨀󳨀󳨀󳨀→ ↑ ↑ ↑ 𝒟′ ↑ ↓

d dx

α→0

lα (x)

󳨀󳨀󳨀󳨀󳨀󳨀→

Θ(x) ↑ ↑ ↑ ↑𝒟′ ↓

δ(x)

Durch die Identifikation einer Distribution 𝒯Δ mit der darstellenden Funktion Δ, wäre es nützlich, wenn das Produkt f Δ mit einer normalen Funktion f eine neue Distribution erzeugt, für die eine Produktregel der Differentiation gilt. Diese Aussage ist im folgenden Lemma formuliert. Lemma 6.6 (Produktregel). Sei f ∈ 𝒞 (∞) und 𝒯Δ ∈ 𝒟′ , f ∈ 𝒟, dann gilt 𝜕xi (f (x)𝒯Δ [f ](x)) = (𝜕xi f (x))𝒯Δ [f ](x) + f (x)𝜕xi 𝒯Δ [f ](x). Beweis. Zum Beweis nutzen wir Linearitätseigenschaft α𝒯Δ = 𝒯αΔ und 𝒯Δ1 +Δ2 = 𝒯Δ1 + 𝒯Δ2 mit fΔi ∈ 𝒟′ , i = 1, 2 aus und schreiben: f 𝜕xi 𝒯Δ = f 𝒯𝜕x Δ = 𝒯𝜕x (f Δ)−f 𝜕x Δ = 𝜕xi 𝒯(f Δ) − f 𝜕xi 𝒯Δ i

i

= 𝜕xi (f 𝒯Δ ) − f 𝜕xi 𝒯Δ .

i

Ein Umstellen der Gleichung ergibt die Aussage. Betrachten wir ein Beispiel, welchem man in der Physik begegnet und in der dort üblichen Kurzschreibweise formuliert ist. Zeige für eine Funktion f ∈ 𝒞 (∞) (ℝ) und f ∈ 𝒟 die Relation: d (f (x)Θ(x − x0 )) = f ′ (x) Θ(x − x0 ) + f (x0 ) δ(x − x0 ). dx Lösung: In ausführlicher Form lautet die zu zeigende Relation

6.2 Distributionen

� 305

d 𝒯 [f (x)](x0 ) = 𝒯f ′ Θ [f (x)](x0 ) + 𝒯f (x0 )δ [f (x)](x0 ). dx f Θ Aus der Produktregel erhält man: d (f (x)𝒯Θ [f (x)](x0 )) = f ′ (x)𝒯Θ [f (x)](x0 ) + f (x)𝒯Θ′ [f (x)](x0 ), dx daraus folgt mit f (x)𝒯δ [f (x)](x0 ) = 𝒯f (x)δ [f (x)](x0 ) = 𝒯f (x0 )δ [f (x)](x0 ) und 𝒯Θ′ = 𝒯δ die Behauptung.



Lineare Koordinatentransformationen In der Praxis kommt es häufig vor, dass Koordinatentransformationen in Systemen durchgeführt werden müssen, in denen beschreibende Gleichungen Distributionen enthalten. Wir sind bereits mit der Transformation von gewöhnlichen Funktionen vertraut, jedoch wissen wir noch nicht, wie man mit Distributionen umgeht. Deshalb befassen wir uns mit diesem Thema und beginnen mit der Betrachtung von linearen Koordinatentransformationen und ihrer Auswirkung auf reguläre Distributionen. Zuvor definieren wir, was mit einer Koordinatentransformation gemeint ist. Lemma 6.7. Sei f ∈ 𝒟(ℝn ) und ein Operator A ∈ ℒ(ℝn ) gegeben durch: A : x 󳨃→ y = Ax

mit det A ≠ 0.

Eine Distribution 𝒯Δ sei durch eine stetig differenzierbare Funktion Δ ∈ 𝒞 (1) (ℝn ) definiert, dann gilt: 𝒯ΔA [f (x)](x0 ) =

1 −1 𝒯 [f (A y)](y0 ), |det A| Δ

mit ΔA (x) = Δ(Ax) und y0 = Ax0 . Beweis. Wir gehen von der linken Seite aus und formen sukzessive das Integral um, und beachten die Existenz der Inverse A−1 : 󵄨 ⟨Δ(A(x − x0 )) 󵄨󵄨󵄨 f (x)⟩ = ∫ dn xΔ(A(x − x0 ))f (x)

󵄨󵄨 𝜕(x , . . . , x ) 󵄨󵄨 󵄨 −1 n 󵄨󵄨 = ∫ dn y 󵄨󵄨󵄨 1 󵄨Δ(y − y0 )f (A y) 󵄨󵄨 𝜕(y1 , . . . , yn ) 󵄨󵄨󵄨 1 Δ(y − y0 )f (A−1 y) = ∫ dn y |det A| 1 = ∫ dn y Δ(y − y0 )f (A−1 y) |det A| 1 󵄨 = ⟨Δ(y − y0 ) 󵄨󵄨󵄨 f (A−1 y)⟩. |det A|

Die Aussage lässt sich einfach um eine zusätzliche Verschiebung mit dem Vektor b in der Form y = Ax + b verallgemeinern. Aufgrund des Satzes 6.1 übertragen sich die

306 � 6 Distributionen Eigenschaften der Differentiation auch auf die δ-Distribution und es gilt in kompakter Schreibweise: δ(Ax) =

1 δ(x). |det A|

Speziell für n = 1 bedeutet dies: δ(α x) = δ(x)/|α|, α ∈ ℝ, woraus insbesondere folgt δ(x) = δ(−x). 6.2.3 Tensorprodukt von Distributionen* In der Physik hat man es insbesondere in der Quantenmechanik häufig mit Tensorprodukten von Räumen mit zum Teil unterschiedlicher Natur zu tun. Deswegen ist es nötig das Tensorprodukt von Distributionen zu definieren. Definition 6.6 (Tensorprodukt). Unter dem Tensorprodukt f ⊗ g zweier Funktionen f (x), x ∈ ℝn und g(y), y ∈ ℝm verstehen wir das punktweise Produkt: f (x)g(y) auf ℝn+m . ◼ Mit Hilfe des Satzes von Fubini (siehe Anhang A.4) kann gezeigt werden, dass das Tensorprodukt zweier Testfunktionen f1 ⊗f2 eine Testfunktion aus 𝒟(ℝn+m ) ist. Im nächsten Schritt schauen wir uns das Tensorprodukt von Distributionen an. Satz 6.2. Für zwei reguläre Distributionen 𝒯Δ1 ∈ 𝒟′ (ℝn ) und 𝒯Δ2 ∈ 𝒟′ (ℝm ) existiert genau eine Distribution 𝒯Δ1,2 ≡ 𝒯Δ1 ⊗Δ2 mit 󵄨 󵄨 󵄨 󵄨 󵄨 ⟨Δ1,2 (x, y) 󵄨󵄨󵄨 f1,2 (x, y)⟩ = ⟨Δ1 (x) 󵄨󵄨󵄨 ⟨Δ2 (y) 󵄨󵄨󵄨 f1,2 (x, y)⟩⟩ = ⟨Δ2 (y) 󵄨󵄨󵄨 ⟨Δ1 (x) 󵄨󵄨󵄨 f1,2 (x, y)⟩⟩, für alle Testfunktionen f1,2 ∈ 𝒟(ℝn+m ). Ist die Testfunktion selbst ein Tensorprodukt in der Form f1,2 (x, y) = f1 (x) ⊗ f2 (y), so gilt: 𝒯Δ1,2 [f1,2 (x, y)] = 𝒯Δ1 [f1 (x)] 𝒯Δ2 [f2 (y)],

für alle Testfunktionen f1 ∈ 𝒟(ℝn ) und f2 ∈ 𝒟(ℝm ). Beweis. Wir skizzieren den Beweis lediglich, und benutzen als wesentliche Eigenschaft, den Satz von Fubini zur Vertauschung der Integrationsreihenfolge. Die meisten Schritte folgen aus den Definitionen: 󵄨 󵄨 ⟨Δ1,2 (x, y) 󵄨󵄨󵄨 f1,2 (x, y)⟩ = ⟨(Δ1 ⊗ Δ2 )(x, y) 󵄨󵄨󵄨 f1,2 (x, y)⟩

= ∫ dn x dm y Δ1 (x)Δ2 (y)f1,2 (x, y) ℝn+m

= ∫ dn x Δ1 (x) ∫ dm y Δ2 (y)f1,2 (x, y) ℝn

ℝm

󵄨 󵄨 = ⟨Δ1 (x) 󵄨󵄨󵄨 ⟨Δ2 (y) 󵄨󵄨󵄨 f1,2 (x, x)⟩⟩.

6.2 Distributionen

� 307

Entsprechend durch Vertauschung der Integration für den zweiten Fall. Diese Richtung des Beweises ist die triviale. Der Beweis der Existenz einer solchen Distribution ist aufwendiger zu führen, wir werden hier nur die wesentlichen Schritte andeuten. Es muss gezeigt werden, dass es eine einzige Distribution Δ1,2 ∈ 𝒟′ (ℝn+m ) gibt, die diese Eigenschaft hat. Um dies zu zeigen, benutzt man die Eigenschaft, dass das Tensorprodukt Δ1 ⊗ Δ2 dicht in 𝒟(ℝn+m ) liegt. Letztere Eigenschaft folgt aber aus dem Satz von Weierstraß, nach dem sich jede 𝒞 ∞ -Funktion zusammen mit ihren Ableitungen durch eine Folge von Polynomen approximieren lässt. Details des Beweises finden sich in [47]. Aus dem Satz leitet sich die Darstellung der δ-Distribution in n Dimensionen als das Produkt von δ-Distributionen in einer Dimension ab, wie das folgende Lemma zusammenfasst. Lemma 6.8. Die δ-Distribution im ℝn lässt sich schreiben als: 𝒯δ = 𝒯δ1 ⊗⋅⋅⋅⊗δn , oder kompakt und explizit: n

x = (x1 , . . . , xn ) ∈ ℝn .

δ(x − x ′ ) = ∏ δ(xi − xi′ ), i=1

Weitere Eigenschaften des Tensorproduktes von Distributionen folgen ebenso mit elementaren Methoden aus der Analysis. Fassen wir diese Folgerungen in einem Lemma zusammen. Lemma 6.9. Für die Testfunktionen f1 (x) ∈ 𝒟(ℝn ), f2 (y) ∈ 𝒟(ℝm ) und Distributionen 𝒯Δ1 ∈ 𝒟′ , 𝒯Δ2 ∈ 𝒟′ mit Tensorprodukt 𝒯Δ1 ⊗Δ2 ∈ 𝒟′ (ℝn+m ), gilt: 𝒟′

(i) Aus der Konvergenz 𝒟′ (ℝn ) ∋ 𝒯Δ1,ν 󳨀→ 𝒯Δ1 folgt die Stetigkeit: 𝒟′

𝒯Δ1,ν ⊗Δ2 󳨀→ 𝒯Δ1 ⊗Δ2 .

(ii) Für 𝒯Δ3 ∈ 𝒟′ (ℝp ) gilt die Assoziativität: 𝒯Δ1 ⊗(Δ2 ⊗Δ3 ) 𝒯(Δ1 ⊗Δ2 )⊗Δ3 .

(iii) Für den Differentialoperator 𝜕xi gilt: 𝜕xi 𝒯Δ1 ⊗Δ2 = 𝒯𝜕x (Δ1 ⊗Δ2 ) . i

(iv) Für die Faltung zweier Distributionen: 𝒯Δ1 ⋆ 𝒯Δ′1 := 𝒯Δ1 ⋆Δ′1 gilt: 𝒯Δ1 ⋆Δ′ [f (x)](x0 ) = 𝒯Δ1 ⊗Δ′ [f (x + x )](x0 ). 1

1



Beweis. Die Aussagen (i)–(iii) sind einfache Folgerungen aus der Analysis, beschränken wir uns im Beweis auf Eigenschaft (iv):

308 � 6 Distributionen 𝒯Δ1 ⋆Δ′ [f (x)](x0 ) = ⟨(Δ1 ⋆ Δ1 )(x − x0 ) 󵄨󵄨󵄨 f (x)⟩ 1



󵄨

= ∫ dn x (Δ1 ⋆ Δ′1 )(x − x0 )f (x) ℝn

= ∫ dn x ∫ dn x ′ Δ1 ((x − x0 ) − x ′ )Δ′1 (x ′ )f (x) ℝn

ℝn

n ′′

= ∫ d x ∫ dn x ′ Δ1 (x ′′ )Δ′1 (x ′ )f (x ′ + x ′′ + x0 ) ℝn

ℝn ′ ′ ⟨Δ1 (x)Δ1 (x )

󵄨󵄨 ′ = 󵄨󵄨 f (x + x + x0 )⟩ ′ = 𝒯Δ1 ⊗Δ′1 [f (x + x )](x0 ). Dies zeigt die formale Richtigkeit der Gleichungen. Es bleiben noch verschiedene Dinge zu zeigen, wie die Existenz der auftretenden Integrale. Bei den hier betrachteten Testfunktionsräumen mit kompaktem Träger sind die meisten Schritte zusammen mit dem Satz von Fubini ohne Probleme durchzuführen. Auch der Fall, dass nur eine der beiden Distributionen einen kompakten Träger besitzt, ist einfach zu zeigen. Ebenso wie für normale Funktionen gilt somit die Eigenschaft 𝒯Δ1 ⋆ 𝒯Δ′1 = 𝒯Δ′1 ⋆ 𝒯Δ1 . Betrachten wir ein Beispiel für die Faltung der δ-Distribution mit einer anderen Distribution. Beispiel 6.7. Aufgrund der Konstruktion der δ-Distribution übertragen sich die Eigenschaften aus Lemma 6.9 und im Falle der Faltung erhalten wir: (𝒯δ ⋆ 𝒯Δ )[f (x)](x0 ) = (𝒯δ⋆Δ )[f (x)](x0 ) 󵄨 = ⟨δ(x)Δ(x ′ ) 󵄨󵄨󵄨 f (x + x ′ + x0 )⟩ 󵄨 = ⟨Δ(x) 󵄨󵄨󵄨 f (x + x0 )⟩ = 𝒯Δ [f (x)](x0 ). Dieses drücken wir abkürzend durch δ ⋆ Δ = Δ aus und insbesondere im Fall von n = 1 und speziell Δ = δ leitet sich die in der Physik oft verwendete kompakte Darstellung der Faltung der δ-Distribution ab: ∫ dx δ(x1 − x)δ(x − x0 ) = δ(x1 − x0 ).



Lemma 6.10. Gegeben sei die Faltung zweier Distributionen 𝒯Δ1 ⋆ 𝒯Δ′1 , dann gilt für den Differentialoperator 𝜕n angewendet auf die Faltung: 𝜕n (𝒯Δ1 ⋆ 𝒯Δ′1 ) = 𝜕n 𝒯Δ1 ⋆ 𝒯Δ′1 = 𝒯Δ1 ⋆ 𝜕n 𝒯Δ′1 . Beweis. 𝜕n (𝒯Δ1 ⋆ 𝒯Δ′1 )[f (x)](x0 ) = 𝜕n 𝒯Δ1 ⊗Δ′1 [f (x + x ′ )](x0 ) = 𝒯𝜕n Δ1 ⊗Δ′1 [f (x + x ′ )](x0 )

6.2 Distributionen

� 309

= (−)n 𝒯Δ1 ⊗Δ′1 [𝜕n f (x + x ′ )](t0 ) = 𝜕n 𝒯Δ1 ⋆ 𝒯Δ′1

= (−)n 𝒯Δ1 ⊗Δ′1 [𝜕′ n f (x + x ′ )](x0 ) = 𝒯Δ1 ⋆ 𝜕n 𝒯Δ′1 .

Nachdem wir die Differentiation von Distributionen unter verschiedenen Aspekten diskutiert haben, sind wir nun in der Lage distributionsartige Differentialgleichungen zu diskutieren, ein weiträumiges Anwendungsgebiet in der Physik. 6.2.4 Differentialgleichungen* In diesem Abschnitt wenden wir die Theorie der Distributionen auf Differentialgleichungen an. Dabei werden wir uns insbesondere mit dem allgemeinen Differentialoperator mit konstanten Koeffizienten auseinandersetzen: n

D := ∑ αi 𝜕i i , i

αi ∈ ℝ, ni ∈ ℕ.

Ebenso wie der elementare Differentialoperator 𝜕n erzeugt dieser Operator eine Abbildung im Raum der Distributionen von 𝒟′ (ℝm ) nach 𝒟′ (ℝm ). Hierzu vergleiche man die Ausführungen unter Abschnitt 6.2.2. Als endliche Summe von Linearkombinationen n von elementaren Differentiationen mit 𝜕i i aus (6.1), sind alle bisherig gewonnen Aussagen bezüglich 𝜕n auf diesen Operator zu übertragen. Das Ziel im Folgenden ist es eine Lösung Φ(x) der (partiellen) Differentialgleichung: DΦ(x) = g(x),

(6.10)

für eine gegebene Funktion g(x) zu finden. Wir gehen somit der Frage nach, wie eine distributionsartige Lösung dieser Gleichung aussieht. Was dies genau bedeutet wird im Folgenden klar werden. Zunächst benötigen wir die Definition einer Fundamentallösung. Definition 6.7 (Fundamentallösung). Eine Distribution 𝒯G ∈ 𝒟′ (ℝn ), die der Differentialgleichung: D𝒯G = 𝒯δ

(6.11)

genügt, heißt Fundamentallösung. Sind zusätzlich noch Anfangswerte oder Randwerte vorgegeben, so bezeichnet man G als Green’sche Funktion. ◼ In der Physik begegnen wir zumeist der verkürzten Schreibweise DG = δ, die auf Grund der Gleichung D𝒯G = 𝒯DG = 𝒯δ motiviert ist.

310 � 6 Distributionen Es folgt der wichtige Satz: Satz 6.3. Für eine gegebene Funktion g existiert die eindeutige Lösung Φ ∈ 𝒟′ (ℝn ) der Differentialgleichung: DΦ(x) = g(x), sofern G ⋆ g ∈ 𝒟′ (ℝn ) existiert. Die distributionsartige Lösung ist gegeben durch: Φ = G ⋆ g,

(6.12)

wobei G die Fundamentallösung aus (6.11) zu D ist. Beweis. Zunächst bemerken wir, es gilt: Φ = G ⋆ g = 𝒯G [g]. Wir wenden den Differentialoperator D auf die Gl. (6.12) an und erhalten: DΦ = D(G ⋆ g) = D𝒯G [g] = 𝒯δ [g] = g. Dies ist eine spezielle Lösung der Differentialgleichung (6.10). Nun betrachten wir noch den homogenen Anteil der gegeben ist durch DΦ = 0, sodass dann folgt: Φ = δ ⋆ Φ = DG ⋆ Φ = G ⋆ DΦ = 0. Insgesamt folgt damit die Eindeutigkeit der Lösung (6.12). In der Physik, insbesondere in der Elektrodynamik und Quantenmechanik, hat man es häufig mit dem Laplace-Operator Δ zu tun. Deswegen schauen wir uns diesen Differentialoperator explizit am Beispiel der Poisson-Gleichung an, die in der Elektrodynamik ein Potentialproblemen beschreibt, wobei Φ(x) das zu bestimmende Potential bei gegebener Ladungsdichte g(x) ist. Beispiel 6.8 (Poisson-Gleichung). Gesucht ist die Lösung Φ der Poisson-Gleichung ΔΦ(x) = g(x),

g ∈ 𝒟′ (ℝ3 ).

(6.13)

Zunächst zeigen wir, dass 1/|x| die Green’sche Funktion des Laplace-Operators ist, also das gilt Δ𝒯1/|x| = −4π 𝒯δ(x) . Dazu betrachten wir die linke Seite und verwenden die Rechenregeln für Distributionen: 󵄨 󵄨 Δ𝒯|x|−1 [f (x)](0) = 𝒯Δ|x|−1 [f (x)](0) = ⟨Δ|x|−1 󵄨󵄨󵄨 f (x)⟩ = ⟨|x|−1 󵄨󵄨󵄨 Δf (x)⟩ = ∫ d3 x ℝ3

Δf (x) Δf (x) = lim+ ∫ d3 x |x| |x| ϵ→0 |x|≥ϵ

= −4πf (0) = −4π 𝒯δ [f (x)](0). In der Physik schreibt man dies kompakt als:

6.2 Distributionen

Δ

� 311

1 = −4πδ(x). |x|

Damit ist als Distribution aufgefasst G(x) = −1/(4π|x|) eine Fundamentallösung der Differentialgleichung ΔG = δ. Ist des Weiteren g(x) so beschaffen, dass die Faltung |x|−1 ⋆ g(x) existiert, so hat man als Lösung von (6.13): Φ(x) = (G ⋆ g)(x) = −

g(x ′ ) 1 . ∫ d3 x ′ 4π |x − x ′ |



ℝ3

6.2.5 Distributionen auf Mannigfaltigkeiten* In vielen praktischen Anwendungen ist es sinnvoller, ein Problem, das in kartesischen Koordinaten formuliert wurde, in krummlinigen Koordinaten zu beschreiben. Dabei stellt sich insbesondere bei der Verwendung von Distributionen die Frage, wie diese sich bei allgemeinen Koordinatentransformationen verhalten. Wir haben bereits das Verhalten bei linearen Koordinatentransformationen diskutiert. Jetzt befassen wir uns damit, wie Distributionen bei glatten, also nicht-singulären Koordinatentransformationen (siehe Definition 5.4), transformiert werden. Lemma 6.11 (Koordinatentransformation). Sei f ∈ 𝒟(ℝn ) und es sei eine glatte Koordinatentransformation: ℝn ⊃ Y ∋ y 󳨃→ x = x(y) ∈ X ⊂ ℝn , gegeben, sowie eine Distribution 𝒯Δy ∈ 𝒟′ , dann gilt: 𝒯Δy [f (x(y))](y0 ) = ⟨Δy ((y − y0 )(x)) 󵄨󵄨󵄨 J (x, y(x))f (x)⟩.

󵄨

−1

(6.14)

Beweis. Wir verfahren analog zu Lemma 6.7 und führen die Koordinatentransformation unter dem Integral aus: n

𝒯Δy [f (x(y))](y0 ) = ∫ d y Δy (y − y0 )f (x(y)) Y

= ∫ dn xΔy ((y − y0 )(x)) J−1 (x, y(x)) f (x). X

Es wird über einen kompakten Träger integriert und somit müssen die Integralgrenzen X entsprechend der Abbildung angepasst werden. Dies ist die allgemeine Transformationsformel für Distributionen, bei der überall die auftretenden Variablen y1 , . . . , yn durch die neuen Variablen x1 , . . . , xn ersetzt werden. Dies sei mit der Schreibweise y(x) ausgedrückt. Damit dies möglich ist, muss eine

312 � 6 Distributionen lokale Invertierbarkeit der Abbildung x = x(y) existieren, was durch die Voraussetzung aber gegeben ist. Wie überträgt sich diese Eigenschaft auf die δ-Distribution? Führen wir wiederum den Grenzprozess Δy → δy in 𝒟′ durch, so stellt sich die Frage, wie die δy Distribution zu verstehen ist. Die Definitionsgleichung für die δ-Distribution (6.4) lautet 𝒯δ [f (x)](x0 ) = f (x0 ). Deswegen verlangen wir, dass dieses auch in den neuen Koordinaten gelte, also explizit: 𝒯δy [f (x(y))](y0 ) = f (x(y0 )) = 𝒯δ [f (x)](x0 ),

mit x0 = x(y0 ). Aus der Transformationsformel (6.14) folgt aber: f (x(y0 )) = 𝒯δy [f (x(y))](y0 ) = ∫ dn xδy ((y − y0 )(x)) J−1 (x, y(x))f (x). Letztere Gleichung folgt aus der Transformationsformel, andererseits gilt aber auch aufgrund der Definition der δ-Distribution: n

𝒯δ [f (x)](x0 ) = f (x0 ) = ∫ d xδ(x − x0 ) f (x).

Setzen wir δy J −1 (x, y) = δ, so sind beide Ausdrücke gleich. Man merkt sich diese Koordinatentransformationsregel symbolisch in der Form: n 󵄨󵄨 𝜕(y , . . . , y ) 󵄨󵄨 n 󵄨 n 󵄨󵄨 ∏ δ(xi ) = 󵄨󵄨󵄨 1 󵄨 ∏ δ(yi ). 󵄨󵄨 𝜕(x1 , . . . , xn ) 󵄨󵄨󵄨 i=1 i=1

Anderes ausdrückt bedeutet dies, dass die korrekt transformierte Größe nicht die δ-Distribution allein ist, sondern die Größe dn y δ(y). Betrachten wir hierzu ein Beispiel. Beispiel 6.9. Betrachte die Transformation der δ-Distribution auf Polarkoordinaten: x r cos φ x = ( 1 ) := ( ), x2 r sin φ

0 < r, 0 ≤ φ < 2π.

Die Funktionaldeterminante lautet: 󵄨󵄨 𝜕x1 󵄨󵄨 𝜕r J(r, φ) = 󵄨󵄨󵄨 𝜕x 󵄨󵄨 2 󵄨 𝜕r

𝜕x1 󵄨󵄨 𝜕φ 󵄨󵄨󵄨 𝜕x2 󵄨󵄨󵄨 𝜕φ 󵄨󵄨

󵄨󵄨 󵄨cos φ = 󵄨󵄨󵄨󵄨 󵄨󵄨 sin φ

󵄨 −r sin φ󵄨󵄨󵄨 󵄨󵄨 = r, r cos φ 󵄨󵄨󵄨

woraus folgt: 1 δ(x1 )δ(x2 ) = δ(r)δ(φ). r Betrachten wir konkret als Beispiel die Testfunktion f (r, φ) = cos(2φ)e−r an der Stelle (r = r0 , φ = φ0 ), dann folgt mit r 2 = x12 + x22 sowie cos2 φ = x12 /(x12 + x22 ) und sin2 φ = x22 /(x12 + x22 ), zum einen:

6.2 Distributionen

� 313

󵄨 ⟨δ(x − x0 ) 󵄨󵄨󵄨 f (r(x), φ(x))⟩ = ∫ dx 1 dx 2 δ(x1 − x10 )δ(x2 − x20 )f (r(x1 , x2 ), φ(x1 , x2 )) = f (r(x10 , x20 ), φ(x10 , x20 )) =

(x10 )2 − (x20 )2

(x10 )2

+

(x20 )2

0 2

0 2

e−√(x1 ) +(x2 ) = cos(2φ0 )e−r0 ,

und zum anderen δ(r − r0 )δ(φ − φ0 ) 󵄨 ⟨δ(r − r0 )δ(φ − φ0 )/r 󵄨󵄨󵄨 f (r, φ)⟩ = ∫ dr dφ r f (r, φ) r = f (r0 , φ0 ) = cos(2φ0 )e−r0 .



Im Koordinatentransformations-Lemma wurde mehr vorausgesetzt als eigentlich zum Beweis nötig wäre, so dass in der Praxis die Gültigkeit der Formeln weitreichender sind. Darauf wollen wir hier aber nicht eingehen. Stattdessen gehen wir über zu Mannigfaltigkeiten, die wir hier als Hyperflächen bezeichnen. Wir beschränken uns auf hinreichend glatte Hyperflächen, die definiert sind durch: Definition 6.8. Eine glatte (n − 1)-dimensionale Hyperfläche ℳ ∈ 𝒞 ∞ (ℝn ) ist definiert durch: ℳ(x) = 0

und ∇x ℳ(x)|ℳ(x)=0 ≠ 0,

x ∈ ℝn .



Die so definierte Hyperfläche besitzt keine singulären Punkte, die durch das Verschwinden des Gradienten definiert sind. Typische Beispiele sind Kugeln oder Zylinder im ℝn . Unser Ziel ist es, die δ-Distribution auf solchen Hyperflächen zu bestimmen. Wir haben gesehen, dass in (6.9) die Heaviside’sche Sprungfunktion über eine Differentiation mit der δ-Distribution zusammenhängt. Diesen Sachverhalt erweitern wir auf glatte Flächen. Deswegen benötigen wir zunächst die Verallgemeinerung der Θ-Funktion: Definition 6.9. Die Heaviside’sche Sprungfunktion auf der glatten Hyperfläche ℳ(x) = 0 ist definiert als: 0

Θℳ (x) := {

1

: ℳ(x) < 0 : ℳ(x) ≥ 0



n

𝒯Θℳ [f (x)] = ∫ d xf (x).



ℳ≥0

Ausgehend von dieser Verallgemeinerung, definieren wir die δℳ -Distribution analog über den Zusammenhang der Stufenfunktion Θ und der δ-Distribution. Definition 6.10 (δ-Distribution auf Mannigfaltigkeiten). Es sei eine glatte Hyperfläche ℳ(x) = 0 gegeben, dann definieren wir die δ-Distribution auf ℳ über den Limes: δℳ (x) := lim

τ→+0

Θℳ (x) − Θℳ−τ (x) , τ

mit Grenzwertbildung im Sinne der Distributionen.



314 � 6 Distributionen Schauen wir uns an, wie diese Distribution auf eine Testfunktion f ∈ 𝒟(ℝn ) wirkt. Die Formulierung der Aussage ist mathematisch nicht streng, es handelt sich um eine formale Aussage, deren Gültigkeit in der Praxis immer anhand der gegebenen Situation überprüft werden muss. Lemma 6.12. Für eine glatte (n − 1)-dimensionale Hyperfläche ℳ(x) gilt für die δℳ Distribution mit f ∈ 𝒟: f (x)

{∮ℳ(x)=0 dF |∇ℳ(x)|

𝒯δℳ [f (x)] = {

{ ∑ℓ

f (x (0)) |ℳ′ (x (ℓ) (0))| (ℓ)

: n > 1, : n = 1,

dabei geht die Summe über alle Zweige der Umkehrfunktionen x (ℓ) (y) = ℳ−1 (y). Beweis. Wir führen den länglichen Beweis hier nicht aus und beschränken uns auf eine heuristisch anschauliche Ableitung des Ergebnisses. Zunächst folgt aus der Definition und mit den bisher abgeleiteten Rechenregeln für Distributionen: ⟨Θℳ (x) − Θℳ−τ (x) | f (x)⟩ τ 1 1 = lim ( ∫ − ∫ )dn xf (x) = lim τ→0 τ τ→0 τ

𝒯δℳ [f (x)] = lim

τ→0

ℳ(x)≥0

ℳ(x)−τ≥0



dn xf (x).

0≤ℳ(x)≤τ

Der allgemeine Fall für n > 1 ist in Abbildung 6.4 veranschaulicht.

Abb. 6.4: Die Hyperfläche ℳ(x) mit Flächenelement. Der Abstand zur Fläche ℳ(x) = τ von einem beliebig gewählten Punkt x0 , ist gegeben durch γ := |x0 − x(τ)|, wobei die Verbindungslinie der beiden Punkte senkrecht auf ℳ(x0 ) = 0 steht.

Entwickeln wir ℳ(x(τ)) = τ um x0 = x(τ)|τ=0 , dann folgt: 2

τ = ℳ(x(τ)) = ℳ(x0 ) + ⟨x(τ) − x0 | ∇ℳ(x)|x0 ⟩ + 𝒪((x(τ) − x0 ) ). Da x(τ) − x0 entlang des Gradienten ∇ℳ(x0 ) zeigt, folgt bis auf Terme der Ordnung 𝒪((x(τ) − x0 )2 ): 󵄨 󵄨 γ = 󵄨󵄨󵄨x(τ) − x0 󵄨󵄨󵄨 =

τ . |∇ℳ(x0 )|

6.2 Distributionen

� 315

Damit ergibt sich für das Volumenintegral zwischen den Flächen ℳ(x) = 0 und ℳ(x) = τ: dn xf (x) = τ

∫ 0≤ℳ(x)≤τ

dF

∮ ℳ(x)=0

f (x) + 𝒪(τ 2 ), |∇ℳ(x)|

wobei dF das Oberflächenelement auf ℳ ist. Im Limes τ → 0 folgt schließlich: 𝒯δℳ [f (x)] =

dF

∮ ℳ(x)=0

f (x) . |∇ℳ(x)|

Diese Formel ist mehr eine Rechenvorschrift zur praktischen Ableitung der δ-Distribution auf ℳ. In der Praxis können die Berechnung sehr umfangreich sein. Schauen wir uns nun den Fall n = 1 an, für den dann gilt ℳ′ (x) ≠ 0 und: 1 𝒯δℳ [f (x)] = lim τ→0 τ

dx f (x)



y=ℳ(x)

=

τ

f (x (ℓ) (y)) 1 lim ∫ dy ∑ . ′ (ℓ) τ→0 τ ℓ |ℳ (x (y))| 0

0≤ℳ(x)≤τ

Die Summe geht über alle Zweige der Umkehrfunktionen x (ℓ) (y) = ℳ−1 (y). Der Betrag in ℳ′ folgt aus den unterschiedlichen Vorzeichen, die ℳ′ annehmen kann und den daraus resultierenden Wechseln der Integralgrenzen; im Limes folgt: 𝒯δℳ [f (x)] = ∑ ℓ

f (x (ℓ) (0)) . |ℳ′ (x (ℓ) (0))|

Die Hyperfläche ist n − 1 = 0-dimensional und besteht aus einzelnen Punkten. Im Fall n = 1 schreibt man in der Physik auch oft kompakt: δ(ℳ(x)) = ∑ ℓ

δ(x ℓ (0)) , |ℳ′ (x (ℓ) (0))|

ℳ(x (ℓ) (0)) = 0,

ℳ′ (x (ℓ) (0)) ≠ 0.

Schauen wir uns explizit zwei Beispiele an, die den Sachverhalt verdeutlichen. Beispiel 6.10. (i) Sei n = 1 und ℳ(x) := α(x − x0 ), α ≠ 0, dann gibt es nur eine Umkehrfunktion und es folgt x (1) (y) = y/α + x0 und ℳ′ (x) = α, woraus insgesamt folgt: 𝒯δℳ [f (x)] =

f (x0 ) f (x (1) (0)) 1 = = 𝒯 [f (x)](x0 ). ′ (1) |α| |α| δ |ℳ (x (0))|

Dies ist das bekannt Ergebnis für die δ-Distribution δ(α(x − x0 )) = δ(x − x0 )/|α|.

316 � 6 Distributionen (ii) Sei ℳ(x) := x 2 − x02 , x0 ≠ 0, dann gibt es zwei Zweige für die Umkehrfunktion: x ± (y) = ±√y + x02 mit x ± (0) = ±x0 und ℳ′ (x) = 2x0 , damit folgt:

f (xσ0 ) 1 = (f (x0 ) + f (−x0 )) ′ (x 0 )| 2|x | ℳ 0| σ=± σ 1 = (𝒯 [f (x)](x0 ) + 𝒯δ [f (x)](−x0 )). 2|x0 | δ

𝒯δℳ [f (x)] = ∑

In Kurzschreibweise lautet dies: δ(x 2 − x02 ) = (δ(x − x0 ) + δ(x + x0 ))/2|x0 |.



Betrachten wir ein Beispiel für n = 2, dann beschreibt die Gleichung ℳ(x1 , x2 ) = 0 eine Kurve im ℝ2 . Beispiel 6.11. Gegeben sei ein Kreis im ℝ2 um den Ursprung mit Radius r0 , dann ist ℳ(x1 , x2 ) = r02 − x12 − x22 und ∇ℳ(x1 , x2 ) = 2(x1 , x2 )t . Verwenden wir Polarkoordinaten (x1 = r0 cos φ, x2 = r0 sin φ), dann folgt mit dF = r0 dφ: 2π

𝒯δℳ [f (x1 , x2 )] =

dF



f (x1 , x2 ) 1 = ∫ dφf (r0 cos φ, r0 sin φ). 2|(x1 , x2 )| 2 0

ℳ(x1 ,x2 )=0

Ist etwa f radialsymmetrisch mit f (x) = f (|x|), dann folgt: 𝒯δℳ [f (x)] = πf (r0 ).



Aufgaben 1.

Betrachte die Funktion 1 ℝ∋x→ 󳨃 Δϵ (x) := 2 ϵ

ϵ+x { { { ϵ−x { { { {0

: x ∈ [−ϵ, 0], : x ∈ [0, +ϵ],

: |x| > ϵ.

ϵ→0

(i) Zeige, dass Δϵ 󳨀→ δ durch Überprüfen der Voraussetzungen. (ii) Berechne explizit ∞

lim ∫ dx Δϵ (x − x0 )f (x),

ϵ→0

−∞

durch formales Ausrechnen des Integrals und anschließendem Durchführen des Limes.

Aufgaben

2.

Motiviere die Darstellung: (i)

+∞

1 δ(x) = ∫ dkeikx , 2π −∞

3.

� 317

+∞

i (ii) δ (x) = ∫ dkkeikx . 2π ′

−∞

Zeige die elementaren Eigenschaften der δ′ -Distribution: (i)

+∞

∫ dxδ′ (x)f (x) = −f ′ (0),

(ii) δ′ (−x) = −δ′ (x),

(iii) xδ′ (x) = −δ(x).

−∞

4.

Zeige d2 (Θ(x) sin(kx)) = kδ(x) − k 2 Θ(x) sin(kx), dx 2 n n e−kx δ(n) (x − x0 ) = e−kx0 ∑ ( )k n−m δ(m) (x − x0 ). m m=0

5.

Im Sinne der Konvergenz von Distributionen, untersuche die folgenden Limits: δ(x + ϵ) − δ(x) , ϵ δ(x + 2ϵ) − 2δ(x + ϵ) − δ(x) lim , ϵ→0+ ϵ δ(x + 2ϵ) − 2δ(x + ϵ) − δ(x) lim . ϵ→0+ ϵ2 lim

ϵ→0+

6.

Zeige die Faltungseigenschaften der Distribution: (i) δ ⋆ f = f ,

7.

Untersuche die Kommutativität der Faltung von Distributionen und berechne dazu: (i) 1 ⋆ (δ′ ⋆ Θ),

8.

(ii) δ(n) ⋆ f = f (n) .

(ii)

(1 ⋆ δ′ ) ⋆ Θ.

Benutze die Ergebnisse der Fourierreihen und zeige ∞ 1 ∞ inx/2π = ∑ δ(x − n). ∑ e 2π n=−∞ n=−∞

9.

Zeige im Sinne der Distributionen: (i)

d ln |x| 1 =𝒫 , dx x

(ii)

d ln(x + i0) 1 1 = 𝒫 − iπδ(x) = . dx x x + i0

318 � 6 Distributionen 10. Zeige im Sinne der Distribution: 1 (−)n (n−1) 1 = ±iπ δ (x) + 𝒫 n . n (x ± i0) (n − 1)! x 11. Zeige, dass im Sinne von Distributionen, eine Lösung der speziellen Bessel-Differentialgleichung: xf ′′ (x) + f ′ (x) + xf (x) = 0, für alle x ∈ ℝ, gegeben ist durch f (x) = Θ(x)J0 (x). 12. Berechne eix(k−k0 ) 1 1 , lim ∫ dx ϵ→0+ 2πi x − iϵ (1 + ikx)n +∞

k0 > 0, n = 0, 1, 2, . . .

−∞

13. Betrachte die inhomogene Wärmeleitungsgleichung in drei Raumdimensionen: x ∈ ℝ3 , t ∈ ℝ.

(Δ − 𝜕t )Φ(x, t) = g(x, t),

Zeige: (i) Die Fundamentallösung G(x, t) mit (Δ − 𝜕t )G(x, t) = δ(x, t) ist gegeben durch 2

/4t) {− exp(−|x| (4πt)3/2 G(x, t) = { 0 {

: t > 0, : t ≤ 0.

Benutzte hierzu die Radialsymmetrie des Problems. (ii) Gib die Lösung Φ(x, t) an.

A Anhang In diesem Anhang stellen wir wichtige Definitionen und Sätze aus der mehrdimensionalen Analysis zusammen. Dabei beschränken wir uns bei den Sätzen auf die einfachen Aussagen, die zumeist sehr kompakt formuliert sind und verzichten überwiegend auf Beweise. Diese können in den einschlägigen Lehrbüchern der Analysis nachgeschlagen werden.

A.1 Ungleichungen Die hier wiedergegebenen Ungleichungen sind für verschiedene Aussagen in der Physik und Mathematik wichtig. Im Folgenden sei αn , βn ∈ ℂ und integrierbare Funktionen f und g gegeben. Lemma A.1. Sei p, q > 1 und 1/p + 1/q = 1 und x, y ∈ ℝ+ , dann gilt: x 1/p y1/q ≤

x y + . p q

Lemma A.2 (Hölder). Sei p, q > 1 und 1/p + 1/q = 1, dann gilt: 1/p

∑ |αn βn | ≤ (∑ |αn |p ) n

n

1/q

(∑ |βn |q )

󵄨 󵄨 󵄨 󵄨p ∫ dt 󵄨󵄨󵄨f (t)g(t)󵄨󵄨󵄨 ≤ (∫ dt 󵄨󵄨󵄨f (t)󵄨󵄨󵄨 )

n 1/p

(A.1a)

,

󵄨 󵄨q (∫ dt 󵄨󵄨󵄨g(t)󵄨󵄨󵄨 )

1/q

.

(A.1b)

Für p = q = 2 ist dies die Cauchy-Schwarz’sche Ungleichung. Beweis. Wie nehmen an 1/p + 1/q = 1 mit p > 1 und drücken obige Formeln durch die p-Normen ‖ ⋅ ‖p aus, dann müssen wir zeigen: ‖αβ‖1 ≤ ‖α‖p ‖β‖q . Ohne Einschränkung nehmen wir an: 0 < ‖α‖ < ∞ und 0 < ‖β‖ < ∞, dann folgt mit Hilfe der Ungleichung: x 1/p y1/q ≤ p

x y + , p q

∀x, y ≥ 0,

q

und mit x := |αn |p /‖α‖p , y := |βn |q /‖β‖q folgt die Ungleichung: |αn | |βn | 1 |αn |p 1 |βn |q ≤ + . ‖α‖p ‖β‖q p ‖α‖pp q ‖β‖qq

https://doi.org/10.1515/9783111059228-007

320 � A Anhang Summieren wir auf beide Seiten über n: ‖αβ‖1 1 1 ∑n |αn |p 1 ∑n |βn |q 1 1 ≤ + = + = 1. ∑ |αn βn | = ‖α‖p ‖β‖q n ‖α‖p ‖β‖q p ‖α‖pp q ‖β‖qq p q Daraus folgt Ungleichung (A.1a) und entsprechend folgt die analoge Ungleichung für die Integralform. Lemma A.3 (Minkowski). Sei p > 1, dann gilt: 1/p

(∑ |αn + βn |p ) n

1/p

󵄨 󵄨p (∫ dt 󵄨󵄨󵄨f (t) + g(t)󵄨󵄨󵄨 )

1/p

≤ (∑ |αn |p ) n

1/p

+ (∑ |βn |p ) 1/p

󵄨 󵄨p ≤ (∫ dt 󵄨󵄨󵄨f (t)󵄨󵄨󵄨 )

n

(A.2a)

, 1/p

󵄨 󵄨p + (∫ dt 󵄨󵄨󵄨g(t)󵄨󵄨󵄨 )

.

(A.2b)

Beweis. Für p = 1 ist dies die Dreiecksungleichung, nehmen wir also an p > 1 und q > 0 erfüllen die Gleichung 1/p + 1/q = 1, dann definieren wir: |γn | := |αn + βn |p−1 , und daraus folgt: |γn |q = |αn + βn |q(p−1) = |αn + βn |p = |αn + βn ||γn | ≤ |αn γn | + |βn γn |.

(A.3)

Nach Summation über n ergibt sich: (A.3)

∑ |γn |q = ‖γ‖qq = ∑ |αn + βn |p = ‖α + β‖pp ≤ ∑ |αn γn | + ∑ |βn γn | n

n

n

n

≤ ‖αγ‖1 + ‖βγ‖1 . Nun nutzen wir die Hölder’sche Ungleichung und erhalten: p−1 ‖α + β‖pp ≤ (‖α‖p + ‖β‖p )‖γ‖q = (‖α‖p + ‖β‖p )‖α + β‖p/q p = (‖α‖p + ‖β‖p )‖α + β‖p .

Damit ist (A.2a) gezeigt, analog zeigt man (A.2b). Lemma A.4 (Jensen). Ist 0 < p ≤ q, dann gilt: 1/q

(∑ |αn |q ) n

1/p

≤ (∑ |αn |p ) n

.

A.2 Potenzreihen Hier stellen wir die wichtigsten Konvergenzkriterien für Reihen zusammen.

A.3 Differentiation � 321

Lemma A.5 (Quotientenkriterium). Für n > n0 sei αn ≠ 0 und es existiere ein θ mit 0 < θ < 1, so dass gilt: 󵄨󵄨 α 󵄨󵄨 󵄨󵄨 n+1 󵄨󵄨 󵄨󵄨 ≤ θ, 󵄨󵄨 󵄨󵄨 αn 󵄨󵄨

∀n > n0 ,

dann konvergiert die Reihe ∑∞ n=0 αn absolut. Lemma A.6 (Wurzelkriterium). Es sei α := lim sup |αn |1/n , n

dann ist die Reihe: ∑∞ n=0 αn absolut konvergent falls α < 1, divergent falls α > 1. Lemma A.7 (Cauchy-Hadamard). Eine Potenzreihe ∞

p(z) = ∑ αn (z − z0 )n , n=0

konvergiert absolut auf ganz ℂ, oder es gibt eine Zahl r ∈ [0, ∞[, so dass p(z) auf der Menge {z : |z − z0 | < r} absolut konvergiert, aber auf {z : |z − z0 | > r} divergiert. Die Zahl r heißt Konvergenzradius von p(z) und es gilt: r=

1 . lim supn |αn |1/n

A.3 Differentiation Zunächst benötigen wir eine Reihe von Definitionen, bei denen wir insbesondere bei den betrachteten Funktionenräume vorerst recht allgemeine Funktionsklassen zulassen. Über die Bedeutung und die Spezifikation der Differenzierbarkeit werden wir dann bei den einzelnen Behauptungen eingehen. Definition A.1. Die allgemeine Funktionsklasse Fm n ist definiert durch: n m Fm n := {f | f : ℝ ∋ x 󳨃→ f (x) ∈ ℝ }.



Diese Funktionenklasse ist sehr allgemein. Tatsächlich muss diese Klasse eingeschränkt werden, wenn Differenzierbarkeitsaussagen formuliert werden. Definition A.2 (Partielle Ableitung). Die partielle Ableitung einer Funktion f ∈ Fm n nach xi sei definiert durch (sofern der Grenzwert existiert): 𝜕i f (x) ≡

𝜕f 1 (x) := lim (f (x + ϵei ) − f (x)), ϵ→0 ϵ 𝜕xi

wobei {ei }i=1...n eine orthonormierte Basis im ℝn ist.



322 � A Anhang Wichtig ist der Begriff der totalen Differenzierbarkeit, den wir insbesondere in der statistischen Mechanik benötigen werden. 0 n Definition A.3 (Totale Differenzierbarkeit). Eine Abbildung f ∈ Fm n heißt in x ∈ ℝ total f m differenzierbar, wenn es eine stetige Funktion Δx (x) ∈ Fn gibt, so dass gilt:

lim

x→x0

f

f (x) − f (x 0 ) − Δx (x)(x − x 0 ) = 0. x − x0

f

Im Punkt x 0 ist Δx (x 0 ) die Ableitung von f .



Definition A.4 (Gradient). Der Gradient einer Funktion f ∈ F1n an der Stelle x 0 ist definiert durch: t

∇f (x 0 ) := (𝜕1 f (x 0 ), . . . , 𝜕n f (x 0 )) .



Lemma A.8. Ist f ∈ F1n total differenzierbar, dann existieren dort alle partiellen Ableitungen 𝜕f /𝜕xi , i = 1, . . . , n und es gilt: Δfx (x 0 ) = ∇f (x 0 ). Hier ist zu bemerken, dass aus der Existenz von ∇f (x 0 ) nicht die totale Differenzierbarkeit von f folgt. Definition A.5 (Das totale Differential). Das totale Differential df einer Funktion f ∈ F1n , die total differenzierbar ist, lautet: n

df = ∑ i=1

𝜕f (x) dxi . 𝜕xi

(A.4) ◼

Definition A.6. Für die m-fache partielle Ableitung einer Funktion f ∈ F1n nach den Variablen xi1 , . . . , xim schreiben wir: 𝜕f 𝜕m f 𝜕 (x) := (⋅ ⋅ ⋅ ( (x)) ⋅ ⋅ ⋅). 𝜕xi1 ⋅ ⋅ ⋅ 𝜕xim 𝜕xi1 𝜕xim

(A.5) ◼

Lemma A.9. Sind alle m-fachen Ableitungen der Form (A.5) stetige Funktionen, dann kann man die Reihenfolge der Differentiationen bis zur Ordnung m beliebig miteinander vertauschen. Zwei weitere wichtige Grundbegriffe sind die Funktionalmatrix und die JacobiDeterminante.

A.4 Implizite Funktionen

� 323

Definition A.7 (Funktionalmatrix). Betrachten wir eine Funktion f ∈ Fm n , deren Komponenten alle partiell differenzierbar seien. Die m × n Funktionalmatrix J von f ist dann definiert durch: Jf (x) ≡ J(x) ≡

𝜕f 𝜕(f1 , . . . , fm ) df (x) := ( i )(x) ≡ (x), dx 𝜕xj 𝜕(x1 , . . . , xn )

mit 1 ≤ i ≤ m, 1 ≤ j ≤ n.



Wobei wir alle gängigen Schreibweisen zusammengefasst aufgeführt haben. Die Funktionalmatrix nennen wir auch die Jacobi-Matrix. Definition A.8 (Jacobi-Determinante). Die Jacobi-Determinante einer Funktion f ∈ Fnn ist definiert durch: |J| := det

𝜕(f1 , . . . , fn ) 󵄨󵄨󵄨󵄨 𝜕(f1 , . . . , fn ) 󵄨󵄨󵄨󵄨 ≡󵄨 󵄨. 𝜕(x1 , . . . , xn ) 󵄨󵄨󵄨 𝜕(x1 , . . . , xn ) 󵄨󵄨󵄨



Auf die Rechenregeln der Jacobi-Determinante werden wir später im Einzelnen noch eingehen. Betrachten wir zunächst noch weitere elementare Rechenregeln zur Differenzierbarkeit. l Satz A.1 (Kettenregel). Die Kettenregel einer Funktion h ∈ Fm n und g ∈ Fm mit

f (x) := g(h(x)) ∈ Fln

und

y0 = h(x 0 ) ∈ ℝm ,

lautet: Ist g(y) in y0 total differenzierbar und existiert die Funktionalmatrix von h(x) in x 0 , dann existiert auch die Funktionalmatrix von f (x) in x 0 und es gilt: dg 0 dh 0 df 0 (x ) = (y ) (x ). dx dy dx

A.4 Implizite Funktionen Eine zentrale Bedeutung spielt der Hauptsatz über implizite Funktionen in der Thermodynamik. Betrachten wir eine Funktion f ∈ Fm n , dann ist eine explizite Funktion gegeben durch y = f (x),

y ∈ ℝm , x ∈ ℝn ,

man schreibt auch oft y = f (x) = y(x). Bei einer impliziten Gleichung ist eine Auflösung nach der Variablen y im Allgemeinen nicht möglich. Ist dies nicht möglich, so werden wir auf den Begriff der impliziten Funktionen geführt.

324 � A Anhang Definition A.9 (Implizite Funktionen). Eine implizite Funktion y = y(x) ist gegeben durch den funktionalen Zusammenhang: Fm n+m ∋ g(x, y) = 0.



Der Hauptsatz über implizite Funktionen lautet. Satz A.2. Es seien x 0 ∈ ℝn , y0 ∈ ℝm mit der Eigenschaft g(x 0 , y0 ) = 0, wobei für g ∈ Fm n+m gelten soll: (i) Es gebe Umgebungen 𝕌(x 0 ) ⊂ ℝn und 𝕌(y0 ) ⊂ ℝm , so dass in 𝕌(x 0 ) × 𝕌(y0 ) alle ersten Ableitungen von g existieren und dort stetig sind. (ii) 󵄨󵄨 𝜕(g , . . . , g ) 󵄨󵄨 󵄨󵄨 1 m 󵄨󵄨 󵄨󵄨 󵄨 ≠ 0, 󵄨󵄨 𝜕(y1 , . . . , ym ) 󵄨󵄨󵄨

für (x, y) ∈ 𝕌(x 0 ) × 𝕌(y0 ),

(A.6)

dann gibt es eine Teilumgebung 𝕌′ (x 0 ) ⊂ 𝕌(x 0 ) und 𝕌′ (y0 ) ⊂ 𝕌(y0 ), so dass durch die Gleichung g(x, y) = 0 eine eindeutige Funktion y = y(x) in 𝕌′ (x 0 )×𝕌′ (y0 ) implizit definiert ist. Die Funktion f ist dann einmal stetig nach allen xi differenzierbar. Man kann zeigen, dass (A.6) nicht notwendig für die Auflösbarkeit ist. Aus diesem Satz lassen sich zahlreiche Folgerungen ableiten, die allesamt in der statistischen Mechanik wichtig sind. Schauen wir uns einige dieser Folgerungen an. Lemma A.10. Es gelten die Voraussetzungen von Satz A.2. Die Funktionalmatrix der expliziten Funktion y, kann wie folgt ausgedrückt werden: dy dg (x) = −( (x, y(x))) dx dy

−1

dg (x, y(x)). dx

Beweis. Der Beweis gelingt mittels der Kettenregel: dg dy dg (x, y(x)) + (x, y(x)) (x) = 0. dx dy dx Woraus die Behauptung durch einfaches Auflösen nach dy /dx der Matrixgleichung folgt. Dabei ist noch zu berücksichtigen, dass die Inverse von dg/dy nach (A.6) existiert. Satz A.3. Für eine implizite Funktion g(x, y(x)) aus Fm n+m gelten die Voraussetzungen des Satzes über implizite Funktionen. Dann gilt folgende Relation: 󵄨󵄨 𝜕(g1 ,...,gi ,...,gm ) 󵄨󵄨 󵄨󵄨 𝜕(y ,...,x ,...,y ) 󵄨󵄨 𝜕yi 1 j m = − 󵄨 𝜕(g ,...,g ) 󵄨 , 𝜕xj 󵄨󵄨 1 m 󵄨󵄨 󵄨 𝜕(y1 ,...,ym ) 󵄨

i = 1, . . . , n,

{

j = 1, . . . , m.

Hierbei steht das Element xj in der i-ten Spalte der oberen Jacobi-Determinante.

(A.7)

A.5 Jacobi-Determinante

� 325

Beweis. Hierzu betrachten wir in der Gleichung (A.7) das (k − j)-te Element: 𝜕gk m 𝜕gk 𝜕yi +∑ = 0, 𝜕xj i=1 𝜕yi 𝜕xj für k = 1, . . . , m und j = 1, . . . , n. Dies stellt ein inhomogenes Gleichungssystem für die (j) Größen ξi := 𝜕yi /𝜕xj mit i = 1, . . . , m dar. Schreiben wir dies in der Form b(j) = −Jξ (j) mit b(j) = (𝜕xj g1 , . . . , 𝜕xj gm )t , J := 𝜕(g1 , . . . , gm )/𝜕(y1 , . . . , ym ), so folgt mit der Cramer’schen Regel die Lösung ξi über: (j)

(j) ξi

(j)

=−

|Ji | |J|

,

wobei Ji die Jacobi-Matrix ist bei der in der Spalte i der Vektor b(j) steht: (j)

Ji = (j)

𝜕g1 𝜕y1

⋅⋅⋅

𝜕g1 𝜕xj

⋅⋅⋅

𝜕g1 𝜕ym

𝜕gm 𝜕y1

⋅⋅⋅

𝜕gm 𝜕xj

⋅⋅⋅

𝜕gm 𝜕ym

𝜕(g1 , . . . , gi , . . . , gm ) . = ( .. 𝜕(y1 , . . . , xj , . . . , ym )

.. .

.. . ).

A.5 Jacobi-Determinante In diesem Kapitel betrachten wir nochmals explizit die Jacobi-Determinante und die sich daraus ergebenden Rechenregeln. Diese Rechenregeln bilden ein zentrales Element in der Thermodynamik. Beginnen wir mit der Definition der Jacobi-Determinante und schreiben abkürzend: 󵄨󵄨 𝜕(f , . . . , f ) 󵄨󵄨 df 𝜕f 󵄨 n 󵄨󵄨 ≡ det( ) = 󵄨󵄨󵄨 1 󵄨. 󵄨󵄨 𝜕(x1 , . . . , xn ) 󵄨󵄨󵄨 𝜕x dx Mit dieser kompakten Notation, ergibt sich eine allgemeine Rechenregel: Lemma A.11. Gegeben seien stetig differenzierbare Funktionen y = f (x) ∈ Fnn und x = g(z) ∈ Fnn , mit x, y, z ∈ ℝn , dann gilt: 𝜕y 𝜕y 𝜕x = . 𝜕z 𝜕x 𝜕z Beweis. Aus der Kettenregel (A.4) folgt dy dy dx = . dz dx dz Aus dem Multiplikationssatz für Determinanten folgt daraus die Behauptung.

(A.8)

326 � A Anhang Betrachten wir nun spezielle Anwendungen. Setzen wir zunächst in (A.8) y = z und beachten, dass gilt 𝜕y/𝜕y = 1, so folgt daraus: −1

𝜕y 𝜕x =( ) . 𝜕x 𝜕y Fassen wir zwei weitere Folgerungen zusammen, die sich ebenso aus den Rechenregeln von Determinanten ergeben: Lemma A.12.

𝜕(y1 , . . . , ym ) 𝜕(y1 , . . . , ym , yk ) = , m < k ≤ n, 𝜕(x1 , . . . , xm ) 𝜕(x1 , . . . , xm , yk ) 𝜕(y1 , . . . , ym ) 𝜕(y1 , . . . , ym , xl ) = , m < l ≤ n. 𝜕(x1 , . . . , xm ) 𝜕(x1 , . . . , xm , xl )

Beweis. Die Gültigkeit dieser Gleichungen soll exemplarisch für den ersten Fall gezeigt werden: 󵄨󵄨 𝜕y1 󵄨󵄨 𝜕x 󵄨󵄨 1 󵄨󵄨 . 𝜕(y1 , . . . , ym , yk ) 󵄨󵄨󵄨󵄨 .. =󵄨 𝜕(x1 , . . . , xm , yk ) 󵄨󵄨󵄨󵄨 𝜕ym 󵄨󵄨 𝜕x1 󵄨󵄨 𝜕yk 󵄨󵄨 󵄨 𝜕xk

⋅⋅⋅ ⋅⋅⋅ ⋅⋅⋅

𝜕y1 𝜕xm

.. .

𝜕ym 𝜕xm 𝜕y1 𝜕xm

󵄨 0󵄨󵄨󵄨 󵄨 .. 󵄨󵄨󵄨󵄨 . 󵄨󵄨󵄨 𝜕(y1 , . . . , ym ) . 󵄨󵄨 = 0󵄨󵄨󵄨 𝜕(x1 , . . . , xm ) 󵄨󵄨 󵄨 1 󵄨󵄨󵄨󵄨

In der letzten Zeile wurde der Entwicklungssatz für der Determinanten verwendet. Entsprechendes gilt für den zweiten Fall. Unmittelbar hieraus folgt zusammen mit den Rechenregeln beim Vertauschen von Spalten und Zeilen in Determinanten, dass man die neuen Variablen auch an beliebigen Stellen einfügen kann: 𝜕(y1 , . . . , ym ) 𝜕(y1 , . . . , yi , yk , yi+1 , . . . , ym ) = , m < k ≤ n, 𝜕(x1 , . . . , xm ) 𝜕(x1 , . . . , xi , yk , xi+1 , . . . , xm ) 𝜕(y1 , . . . , ym ) 𝜕(y1 , . . . , yi , xl , yi+1 , . . . , ym ) = , m < l ≤ n. 𝜕(x1 , . . . , xm ) 𝜕(x1 , . . . , xi , xl , xi+1 , . . . , xm ) Betrachten wir noch zwei konkrete Spezialfälle. Beispiel A.1. (i) Sei y = f (x), y, x ∈ ℝn und k ≠ j: 𝜕(yi , xj ) −1 𝜕(yi , xj ) 𝜕yi 𝜕(yi , xk ) 𝜕(yi , xk ) 𝜕(yi , xj ) = = =( ) (−1) 𝜕xj 𝜕(xj , xk ) 𝜕(yi , xj ) 𝜕(xj , xk ) 𝜕(yi , xk ) 𝜕(xk , xj ) = −(

𝜕xj 𝜕xk

−1

)

𝜕yi 𝜕y 𝜕xj =− i/ . 𝜕xk 𝜕xk 𝜕xk

A.6 Integralrechnung � 327

(ii) Nun sei y = f (x) und z = g(y) mit x, y, z ∈ ℝn und es sollen alle Funktionen existieren, insbesondere die Umkehrfunktion y = g −1 (z). Es gilt nun: 𝜕yi 𝜕(y1 , . . . , yi , . . . , yn ) = 𝜕xj 𝜕(y1 , . . . , xj , . . . , yn ) =

𝜕(y1 , . . . , yn ) 𝜕(z1 , . . . , zi , . . . , zn ) 𝜕(z1 , . . . , zi , . . . , zn ) 𝜕(z1 , . . . , zn ) = / . 𝜕(z1 , . . . , zn ) 𝜕(y1 , . . . , xj , . . . , yn ) 𝜕(y1 , . . . , xj , . . . , yn ) 𝜕(y1 , . . . , yn )

Vergleichen wir dies mit der Gleichung (A.7), so scheint ein Widerspruch zu existieren. Dies ist aber nicht der Fall, denn es ist zu beachten, dass die zi keine implizite Funktionen sind, sondern neue Variablen, die entweder von den xi oder von den yk abhängen. Um dies zu verdeutlichen, betrachten wir die implizite Gleichung g(x, y) = 0 für den Spezialfall: gi (x, y) := zi (x) − zi (y) = 0,

i = 1, . . . , n.

Dann erhalten wir die Gleichung: 𝜕(g , . . . , gi , . . . , gn ) 𝜕(g1 , . . . , gn ) 𝜕yi =− 1 / 𝜕xj 𝜕(y1 , . . . , xj , . . . , yn ) 𝜕(y1 , . . . , yn ) = −(−1)n−1 =

𝜕(z1 , . . . , zi , . . . , zn ) 𝜕(z , . . . , zn ) /(−1)n 1 𝜕(y1 , . . . , xj , . . . , yn ) 𝜕(y1 , . . . , yn )

𝜕(z1 , . . . , zi , . . . , zn ) 𝜕(z1 , . . . , zn ) / . 𝜕(y1 , . . . , xj , . . . , yn ) 𝜕(y1 , . . . , yn )

Dies klärt den scheinbaren Widerspruch auf.



A.6 Integralrechnung Alle folgenden Aussagen entnehme man [21]. Definition A.10. Die Menge der Lebesgue-integrierbaren Funktionen f : ℝn → ℝ bezeichnen wir mit ℒ1 (ℝn ). ◼ Satz A.4 (Fubini). Es sei eine Funktion f ∈ ℒ1 [ℝn+m ] f : ℝn × ℝm ∋ (u, v) 󳨀→ f (u, v) ∈ ℝ gegeben, dann gilt: ∫ dn u( ∫ dm v f (u, v)) = ∫ dm v( ∫ dn u f (u, v)). ℝn

ℝm

ℝm

ℝn

328 � A Anhang Satz A.5. Seien f1 , f2 ∈ ℒ1 (ℝn ) und α ∈ ℝ, dann sind auch die Funktionen αfi , f1 + f2 ∈ ℒ1 (ℝn ), des Weiteren gilt: ∫ dn x [f1 (x) + f2 (x)] = ∫ dn x f1 (x) + ∫ dn xf2 (x), ℝn

ℝn

ℝn

n

n

∫ d x αfi (x) = α ∫ d x fi (x), ℝn

ℝn

∫ dn x f1 (x) ≤ ∫ dn x f2 (x) ℝn

für f1 (x) ≤ f2 (x).

ℝn

Satz A.6. Sei f ∈ ℒ1 (ℝn ) integrierbar und sei M ∈ GL(n, ℝ), b ∈ ℝn , dann ist auch die Funktionen x → f (M x + b) integrierbar und es gilt: ∫ dn x f (M x + b) =

1 ∫ dn x f (x). | det M| ℝn

ℝn

Lemma A.13. Für eine rotationssymmetrische stetige Funktion f : [r, R] → ℝ gilt: ∫

dn x f (‖x‖) = n

r≤‖x‖≤R

R

π n/2 ∫ dr r n−1 f (r). Γ(n/2 + 1) r

Satz A.7 (Monotone Konvergenz). Sei fk : ℝn → ℝ∪{±∞}, k ∈ ℕ eine Folge integrierbarer Funktionen mit fk ≤ fk+1 , ∀k ∈ ℕ, des Weiteren sei M := lim ∫ dn x fk (x) < ∞, k→∞

ℝn

dann ist die Funktion f := limk→∞ fk integrierbarer und es gilt: ∫ dn x f (x) = lim ∫ dn x fk (x). ℝn

k→∞

ℝn

Satz A.8 (Majorisierte Konvergenz). Sei fk ∈ ℒ1 (ℝn ), k ∈ ℕ eine Folge integrierbarer Funktionen, die fast überall auf ℝn punktweise gegen eine Funktion f : ℝn → ℝ konvergiert. Des Weiteren sei F : ℝn → ℝ+ ∪ {±∞} eine Majorante mit ‖F‖L1 < ∞ und |fk | ≤ F, ∀k ∈ ℕ, dann ist die Funktion f integrierbar und es gilt: ∫ dn x f (x) = lim ∫ dn x fk (x). ℝn

k→∞

ℝn

Satz A.9 (Parameterabhängige Integrale). Sei 𝕀 ⊂ ℝ ein Intervall und eine Funktion f : ℝn × 𝕀 ∋ (x, t) 󳨃→ f (x, t) ∈ ℝ

A.6 Integralrechnung

� 329

gegeben, die die Eigenschaften hat: (i) Für jedes x ∈ ℝn ist die Funktion t 󳨃→ f (x, t) differenzierbar auf 𝕀, (ii) Für jedes t ∈ 𝕀 ist die Funktion t 󳨃→ f (x, t) über ℝn integrierbar, (iii) Es gibt eine integrierbare Funktion F : ℝn → ℝ+ ∪ {±∞} mit der Eigenschaft 󵄨󵄨 𝜕f (x, t) 󵄨󵄨 󵄨󵄨 󵄨󵄨 󵄨󵄨 󵄨 ≤ F(x), 󵄨󵄨 𝜕t 󵄨󵄨󵄨

∀(x, t) ∈ ℝn × 𝕀,

dann ist die Funktion g : 𝕀 → ℝ definiert durch: g(t) := ∫ dn x f (x, t), ℝn

differenzierbar und 𝜕t f (x, t) über ℝn integrierbar und es gilt: dg(t) 𝜕f (x, t) = ∫ dn x . dt 𝜕t ℝn

Literatur [1] [2] [3] [4] [5] [6] [7] [8] [9] [10] [11] [12] [13] [14] [15] [16] [17] [18] [19] [20] [21] [22] [23] [24] [25] [26] [27] [28] [29] [30] [31] [32] [33] [34] [35]

Otto Forster. Analysis 1. Grundkurs Mathematik. Springer Spektrum, Wiesbaden, 2016. Otto Forster. Analysis 2. Grundkurs Mathematik. Springer Spektrum, Wiesbaden, 2013. K. Königsberger. Analysis 1. Springer, Berlin–Heidelberg, 2013. K. Königsberger. Analysis 2. Springer, Berlin–Heidelberg, 2004. Klaus Fritzsche. Grundkurs Analysis 1. Springer Spektrum, Heidelberg, 2015. Klaus Fritzsche. Grundkurs Analysis 2. Springer Spektrum, Heidelberg, 2013. G. Fischer. Lineare Algebra. Grundkurs Mathematik. Springer Spektrum, Wiesbaden, 2013. G. Fischer. Lernbuch Lineare Algebra und analytische Geometrie. Studium. Springer Spektrum, Wiesbaden, 2012. W. Fischer and I. Lieb. Funktionentheorie: Komplexe Analysis in einer Veränderlichen. Vieweg Studium. Vieweg & Teubner, Wiesbaden, 2005. R. Remmert. Funktionentheorie I. Grundwissen Mathematik. Springer-Verlag, Berlin–Heidelberg, 1984. R. Remmert and G. Schuhmacher. Funktionentheorie 1. Grundwissen Mathematik. Springer-Verlag, Berlin–Heidelberg, 2002. Klaus Fritzsche. Grundkurs Funktionentheorie. Springer Spektrum, Heidelberg, 2009. J. W. Dettmann. Applied Complex Variables. Dover Publications, New York, 1965. Serge Lang. Complex Analysis. Graduate Texts in Mathematics. Springer, New York, 1999. P. A. M. Dirac. The Principles of Quantum Mechanics, 4th edition, reprinted 1987 edition. Oxford University Press, 1958. I. M. Yaglom. A Simple Non-Euclidean Geometry and its Physical Basis. Springer Verlag, New York, 1979. E. Study. Geometrie der Dynamen. Die Zusammensetzung von Kräften und verwandte Gegenstände der Geometrie. B. G. Teubner, Leipzig, 1903. I. S. Fischer. Dual-Number Methods in Kinematics, Statics and Dynamics. CRC Press, 1998. I. M. Yaglom. Complex Numbers in Geometry. Academic Press, New York and London, 1968. ISBN 92-64-02460-3. Leonhard Euler. Introductio in Analysin Infinitorum, Vol. 1 (Classic Reprint). Forgotten Books, 2018. O. Forster. Analysis 3. Vieweg Studium. Vieweg, Braunschweig–Wiesbaden, 1984. W. Fischer and I. Lieb. Funktionentheorie. Vieweg Studium. Vieweg & Sohn, Braunschweig–Wiesbaden, 1985. G. Parisi. Statistical Field Theory. Frontiers in Physics. Addison–Wesley Publishing Company, Inc., 1988. A. H. Zemanian. Generalized Integral Transformations. Dover Publications, New York, 1987. M. Abramowitz and I. A. Stegun. Handbook of Mathematcical Functions. Verlag H. Deutsch, Frankfurt am Main, 1984. G. E. Andrews, R. Askey and R. Roy. Special Functions. Encyclopedia of Mathematics and its Applications. Cambridge University Press, Cambridge, United Kingdom, 2000. M. Abramowitz and I. A. Stegun. Handbook of Mathematical Functions. Dover Publications, New York, 1970. F. W. J. Olver, D. W. Lozier, R. F. Boisvert and C. W. Clark. NIST Handbook of Mathematical Functions. Cambridge University Press and National Institute of Standards, New York, 2010. Leonard Lewin. Polylogarithms and Associated Functions. Elsevier Science Publishers B. V., 1981. H. Heuser. Funktionalanlysis. Teubner Verlag, Stuttgart, 1986. F. Riesz and B. Sz.-Nagy. Vorlesung über Funktionalanalysis. Verlag Harry Deutsch, Thun–Frankfurt, 1982. J. Weidmann. Lineare Operatoren in Hilberträumen. Teubner Verlag, Stuttgart, 1976. S. Großmann. Funktionalanalysis. Spektrum. Springer, Wiesbaden, 2014. W. Miller. Symmetry Groups and Their Applications. Academic Press, New York, 1972. S. Sternberg. Group Theory and Physics. Cambridge University Press, Cambridge, UK, 1999.

https://doi.org/10.1515/9783111059228-008

332 � Literatur

[36] R. W. Freund and R. W. Hoppe. Stoer/Bulirsch: Numerische Mathematik. Springer Verlag, Berlin–Heidelberg–New York, 2007. [37] H. F. Davis. Fourier Series and Orthogonal Functions. Dover Publications, Mineola, N.Y., USA, 1989. [38] G. P. Tolstov. Fourier Series. Dover Publications, New York, USA, 1976. [39] F. Oberhettinger. Tabellen zur Fouriertransformation. Die Grundlehren der Mathematischen Wissenschaften. Springer-Verlag, Berlin–Göttingen–Heidelberg, 1957. [40] E. T. Whittaker and G. N. Watson. A Course of Modern Analysis, 4th edition. Cambridge University Press, Cambridge, UK, 1902. [41] Albert Messiah. Quantenmechanik. Walter de Gruyter, Berlin, 1976. [42] J. D. Jackson. Classical Electrodynamics. John Wiley, New York–Weinheim, 1998. [43] E. Peschl. Differentialgeometrie. Hochschultaschenbücher. Bibliographisches Institut AG, Mannheim, 1973. [44] B. A. Dubrovin, A. T. Fomenko and S. Novikov. Modern Geometry – Methods and Applications. Number 93 in Graduate Texts in Mathematics. Springer-Verlag, New York, 1993. [45] D. Lovelock and H. Rund. Tensors, Differentialforms and Variational Principles. Dover Publications Inc., New York, 1989. [46] P. Moon and D. E. Spencer. Field Theory Handbook – Including Coordinate Systems, Differential Equations and Their Solutions. Springer-Verlag, Berlin–Heidelberg–New York–London–Paris–Tokyo, 1988. [47] F. Constantinescu. Distributionen und ihre Anwendungen in der Physik. Studienbücher. Teubner, Stuttgart, 1974.

Symbole Ableitungen – Δ - Laplace-Operator 23, 285 – ΔΩ - Laplace-Op. auf Einheitsk. 220 –

df (z) - komplexe 15 dz f Δ̄z0 - Wirtinger 19

– – J - Jacobi-Matrix 259 – ∇ - Gradient 264, 284, 322 – ∇⋅ - Divergenz 284 – ∇× - Rotation 285 – ∇i - kovariante Ableitung 277 – 𝜕n - allg. part. Ableitung 291 – 𝜕z ̄ - Wirtinger 19 – 𝜕i - part. Ableitung 321 – 𝜕x , 𝜕y - reelle 18 – 𝜕z - komplexe 14 f f – Δx0 , Δy0 - reelle im Punkt z0 18 f

– Δx - Ableitung von f nach x 322 f f – Δx , Δy - reelle 18 f

– Δz0 (z0 ) = f ′ (z0 ) - komplexe 14 f

– Δz (z) - komplexe 14 f f – Δz , Δz ̄ - Wirtinger 19

– f (1) (z) - erste komplexe 15 – f (n) (z) - n-te komplexe 15

Matrizen und Gruppen – TA - Möbius-Transformation 38 – TC (z) - Caley-Abbildung 40 – TJ - Inversion 39 – TL (z) - Möbius-Transformation 40 – κ(A) - Kondition der Matrix A 156 – 1 - Darstellung von e 7 – I - Darstellung von i 7 – Jf , J - Jacobi-Matrix 323 – T(g) - Darstellungsmatrix von G 7 – Zq - Darstellungsmatrix von ℂq 7 – GLn (𝕂) - allg. lineare Gruppe 7 – G - Gruppe 7 – Mq - Darstellungsmatrizen Zq 7 – σi - Pauli-Matrizen 148 – e ∈ G - neutrales Element von G 7 – g ∈ G - Element der Gruppe 7 Mengen – ℂ - komplexe Ebene 1 – ℂ∗ := ℂ ∪ {∞} - erweiterte k. Z. 39 https://doi.org/10.1515/9783111059228-009

– ℂ− - geschlitzte Komp. Ebene 35 – ℂ× = ℂ \ {0} 35 – ℂ1 = ℂ 6 – ℂpq - verall. komp. Zahl 6 – ℂq = ℂ0q 6 – 𝔻 - Dreieck 51 – 𝔼 - Einheitskreisscheibe 40 – 𝔼+ - Halbkreisscheibe 64 – 𝔾 - Gebiet 47 – 𝔾−− - ℂ \ {x | |x| ≥ 1} 117 – 𝔾| - ℂ \ {iy | |y| ≥ 1} 113 – ℍ+ - obere Halbebene 36 – ℍ− - untere Halbebene 64 – ℍ< - rechte Halbebene 35 – 𝕀 - Intervall in ℝ 27 – 𝕂 = ℝ, ℂ - Körper 7 – 𝕄T - Möbius-Transformationen 38 – ℝ - reelle Zahlen 1 – 𝕌 ⊂ ℂ - Teilmenge, Bereich 2 – 𝕌C := ℂ \ 𝕌 - Komplement von 𝕌 69 – 𝕌rR z0 - Kreisring 75 – 𝕌rz0 - Kreisscheibe 54 – ℳ - Hyperfläche 313 – 𝜕𝔻 - Rand des Dreiecks 𝔻 51 – 𝜕𝔼 - Rand Einheitskreisscheibe 40 – 𝜕𝔼+ - Rand Halbkreisscheibe 64 Räume und Algebren – (V, ‖⋅‖) - Normierter Raum 150 – (X, d(⋅, ⋅)) - Metrischer Raum 149 – ⟨⋅⟩ - aufgespannter Raum 167 – [⋅, ⋅] - Kommutator 147 – [V, ‖⋅‖] - Banachraum 162 – 𝕂n - n-Tupel 144 – ℝ41,3 - Minkowski-Raum 271 – A - Abbildung, Operator 145 – Si , i = 1, 2, 3 - Spin-Algebra 148 – 𝒞([a, b]) - stetige Funktionen 144 – 𝒞(ℝn ), 𝒞c (ℝn ) - stetige Fkt. 289 – 𝒞 (n) ([a, b]) - stetig diff. Funk. 144 – 𝒞c∞ (ℝn ) - beliebig oft s. d. 290 – 𝒞ck (ℝn ) - stetig. diff. Fkt. 290 – 𝒟′ ≡ 𝒟′ (ℝn ) - Dualer VR von 𝒟 292 – 𝒟 = 𝒟(ℝn ) - Testfunktionen 290 – 𝒢 - Lie-Algebra 147 – H = ⟨V, ⟨⋅ | ⋅⟩⟩ - Hilbertraum 163

334 � Symbole

– ℒ(V, W) - Homomorphismus 145 – ℒ1 (ℝn ) - Lebesgue-Fkt. 327 – 𝒮 = 𝒮(ℝn ) - Testfunktionraum 291 – B(A) - Bildraum von A 148 – C - Stückweise stetige Funk 185 – D(A) - Definitionsbereich von A 148 – Ed - Euklidischer Raum 255 – Fm n - Allg. Funktionsklasse 321 – K(A) - Kern von A 148 – K(f ) = Supp(f ) - Support 289 – Lp - messbare Funktionen 145 – V, W - Vektorräume 145 – Vℒ = ℒ(V) - Algebra 146 – - orthogonale Summe 167 – ⊕ - direkte Summe 167 – ⊥ - orthogonal 166 – ⋆ - Lie-Algebra Verknüpfung 147 – l ∞ - beschränkte Folgen 180 – l p - Folgen 144 – v, w - Vektor 144 Skalarprodukte und Normen – (⋅, ⋅), (⋅ | ⋅) - Skalarprodukt 4 – (X, d(⋅, ⋅)) - Metrischer Raum 149 – ∠(z1 , z2 ) - Winkel 5 – ⟨⋅ | ⋅⟩ - Skalarprodukt in V 157 – ⟨z1 | z2 ⟩ - Skalarprodukt in ℂ 4 – ‖⋅‖ - Norm 150 – ‖⋅‖p - Funktionenraumnorm 291 p – ‖⋅‖1 - Funktionenraumnorm 291 – ‖⋅‖1 - Betragsnorm 153 – ‖⋅‖2 - Euklidische Norm 152 – ‖⋅‖2 - kanonische Norm 157 – ‖⋅‖w2 - gewichtete Norm 158 – ‖⋅‖∞ - Supremumsnorm 153 – ‖⋅‖p - p-Norm 153 – ‖A‖1 - Spaltensummennorm 155 – ‖A‖2 - Spektralnorm 154 – ‖A‖F - Frobeniusnorm 154 – ‖A‖M - Maximumsnorm 154 – ‖A‖∞ - Zeilensummennorm 155 – ⊥ - Orthogonalität 5 – d(⋅, ⋅) - Metrik 149 Tensoren und Basen – T j1 ,...,jr - affiner Tensor 257 – Γkij - Christoffel-Symbol 275 i ...i

– δj 1...j r - verallg. Kronecker 279



1

j δi

r

- Kronecker 256

– δnm - Kronecker 50 – ϵ i1 ...ir - ϵ-Tensor 279 – ei - ONB in ℝn 321 – ℰijk - Epsilon-Tensor 282 – {ei } - Euklidische ONB 255 y – {e∗ i }i=1,...,d - duale Basis 274 – f ⊗ g - Tensorprodukt 306 – gij - Metrischer Tensor 267 Wege in ℂ – L[γab ] - Weglänge 43 – γ - Allgemeiner Weg 27 – γ(t) - Wegparametrisierung 27 – γab - Weg von a nach b 27 −1 – γab = γba - entgegeng. Weg 27 – γza zb - Gerade zw. za und zb 28 – γza zb = γab - Weg in 𝕌 42 – κzr0 - Kreislinie 27 – Sp γab - Spur des Weges 27 – nγ (z) - Umlaufzahl 67 Zahlen und Funktionen – Bn - Bernoulli-Zahl 80 f – CN (t) - Cesaro-Summe 197 – Dn (x) - Debye-Funktion 141 – DN (t) - Dirichlet-Kern 187 – D(x) - Debye-Funktion 138 – F(z) - Stammfunktion 46 – FN (t) - Fejér-Kern 195 – Gα - Gauß-Integral 91 – Hn - Hermite-Polynome 170 – Jn (x) - Bessel-Funktion 1. Art 142 – Ln - Laguerre-Polynome 171 – Lαn (x) - verall. Laguerre-Poly. 226 – Lz0 (z) - Laurent-Reihe 75 – M[f ](z) - Melin-Transformation 104 – Plm - assoziierte Legendre-Fkt. 239 – Pn - Legendre-Polynome 168 f – Sn - Fourierpartialsumme 190 – 𝒯G - Distribution 309 – Tn - Tschebyscheff-Polynome 172 – Tn (x) - Tschebys.-Poly. 1. Art 233 – Un (x) - Tschebys.-Poly. 2. Art 233 – Ylm (θ, ϕ) - Kugelflächenfunk. 244 – Γ(z) - Gammafunktion 125 – Γ(z, w) - unvollständige Γ-Fkt. 141 – Li2 - Dilogarithmus 136 – Lis (z) - Polylogarithmus 135 – R, I - Real- und Imaginärteil 2

Symbole

– Θ(x) - Sprungfunktion 297 – Θα (x) - Stetige Sprungfkt. 298 – Θℳ - Sprungfunktion auf Fläche 313 – ∠(z, w) - Winkel zw. z und w 12 – arcosh - Areacosinus hyperbo. 122 – arcoth - Areacotangens hyperb. 124 – arsinh - Areasinus hyperbo. 122 – artanh - Areatangens hyperbo. 122 – |f |, |f (z)|, |z| - Betrag 3 – |zq | - Betrag von zq ∈ ℂq 6 – δ(x − x0 ) - δ-Distribution 295 – δℳ - δ-Distribution auf Fläche 313 – |J| - Jacobi-Determinante 323 – ηn - Legendre-Funktionen 168 – γ - Euler’sche Konstante 126 – γ(z, w) - unvollständige Γ-Fkt. 141 – f ,̄ z,̄ z∗ - komplex konjugiert 2 – ℙf - Polstellenmenge von f 83 – ℱ [f (t)](x) - Fouriertransf. 203 ̂ – ℱ −1 [f (x)](t) - inverse Fouriert. 203 – ℒ[f ](z) - Laplace-Transf. 210 – 𝒫 x1 - Hauptwert 298 – 𝒯1/x - Hauptwert-Distribution 299 – T [f ] - Distribution 291 – 𝒯δ [f (x)](x0 ) - δ-Distribution 294 – 𝒯Θ - Heaviside-Distribution 297 – 𝒯Δ - reguläre Distribution 292 – B(α, β) - Betafunktion 131 – DΩ - Raumwinkelelement 244 – Fn (x) - Fermi-Dirac-Integral 135 – Gn (x) - Bose-Einstein-Integral 135 – Ln, ln - Natürlicher Logarithmus 109 – Si - Integralsinus 193 – arccsc - Arkuskosekans 121 – arcsch - Areakosekans hyperb. 125 – arcsec - Arkussekans 121 – arsech - Areasekans hyperb. 125 – atan2 - arctan(y, x) 10 – erf - Fehlerfunktion 142 – eiz - Exponentialfunktion 9 – ez - komp. Exponentialfunktion 8 – i - imaginäre Einheit 2 – resz0 - Residuum von f in z0 84

– ψ(z) - Digamma-Funktion 129 – ψn - Hermite-Funktionen 170 – arccos - Arcuscosinus 117 – arcsin - Arcussinus 117 – arctan - Arcustangens 113 – arg z - Phase, Argument von z 10 – cosh z - Cosinus hyperbolicus 10 – cos z - Cosinus 9 – log = log10 - Log zur Basis 10 112 – sinh z - Sinus hyperbolicus 10 – sin z - Sinus 9 – sinc z - sinc-Funktion 13 – ∢z0 (γ1 , γ2 ) - Schnittpunktwinkel 28 – τn - Tschebyscheff-Funktionen 172 – Sp - Spur 8 – Δϵ (x − x0 ) - δ-Approximation 294 – φn - Laguerre-Funktionen 171 – φαn - verallg. Laguerre-Fkt. 231 – ζ(z) - Zetafunktion 130 – cn - Cosinus-Fourierbasis 191 – en (t) - Fourierbasis 168, 190 – f (t ± ) - links- und rechtsseitig 185 – f ⋆ g - Faltung 204 – f α - Glockenkurve 207 – gσ - Gauß-Funktion 206 – lα (t) - Lorentz Glockenkurve 99 – mf (z0 ) - Ordnung eines Pols 82 – pn (x) - orthogonales Polynom 213 – pn (z) - Monome 49 – pn (z) = zn - Monom 16 – pz0 (z) - Potenzreihe um z0 73 – rn (t) - Rademacher-Funktionen 177 – sn - Sinus-Fourierbasis 191 – w(x) - Gewichtsfunktion 213 – wH (x, u) - erz. Fkt. Hermite-P. 221 – wLα (x, u) - erz. Fkt. Laguerre-P. 227 – wP (x, u) - erz. Fkt. Legendre-P. 216 – wT (x, u) - erz. Fkt. Tschebys.-P. 235 – x, y, u, v ∈ ℝ - reelle Zahlen 2 – z, w ∈ ℂ - komplexe Zahl 2 – z = reiφ - Polarkoordinate 10 – z−1 - Inverse von z 4

� 335

Stichwortverzeichnis ϵ-Tensor 279 Äquipotentiallinien 34 Äußere des Weges 69 Abel-Summe 198 Ableitung 14 Ableitungsregeln 15 Additionstheoreme 10 affiner Tensor 257 affiner Vektor 257 Algebra 146 Analytische Fortsetzung 78 analytische Funktion 15 antilinearen Transformationen 145 Arcussinus 117 Arcustangens 11, 113 Argument 10 assoziativen Algebra 146 Banachraum 162 Bereich 2 Bernoulli-Zahlen 80 Bessel-Funktion 1. Art 142 Bessel-Ungleichung 174 Betafunktion 131 Betrag 3 Betragsnorm 153 biholomorph 35 Bildraum 148 Braket 4 Caley-Abbildung 40 Cauchy Integralformel 70 Cauchy-Riemann’sche DGL 20 Cauchy-Schwarz’sche Ungleichung 319 Cauchy-Produktdarstellung 228 Cauchy-Verteilung 99 Cauchyfolge 162 Cesaro-Summe 196 chordaler Abstand 181 Christoffel-Symbol 276 Christoffel-Symbol 1. Art 276 Cosinussatz 5 CRD - Cauchy-Riemann’sche DGL 20 Deltafunktion 294 https://doi.org/10.1515/9783111059228-010

Differentialquotient 14 Differenzenquotient 14 Digammafunktion 129 Dilogarithmus 137 Dirac’sche Delta-Distribution 294 direkte Summe 167 Dirichlet-Kern 187 Dirichlet-Randwertproblem 61 Distribution 289, 292 Divergenz 284 Drehstreckung 11 Drehstreckungen 40 Dreieck 51 Dreiecksungleichung 3 duale Basis 274 einfach geschlossener Weg 69 einfach zusammenhängend 69 Einheitskreisscheibe 40 Elementartypen 38 elliptische Zylinderkoordinaten 286 erweiterten komplexen Zahlen 39 Euklidische Metrik 267 Euklidische Norm 152 Euklidischer Raum 157 Euler Formel 9 Euler’sche Konstante 125 Faltung 204 Fejér-Kern 195 Fourier-Integralsatz 200 Fourierintegral 99 Fourierkoeffizienten 174 Fourierpartialsumme 190 Frobeniusnorm 154 Fundamentallösung 309 Funktionen – Exponentialfunktion 9 – hyperbolische 10 – trigonometrische 9 Gammafunktion 125 ganze Funktionen 59 Gauß-Approximation 174 Gauß-Funktion 206 gaußschen Normalverteilung 207

338 � Stichwortverzeichnis

Gebiet 47 gespiegelte Funktion 3 Gibb’sches Phänomen 192 Glockenkurve 207 Gradient 264, 284, 322 Gramm’sche Determinante 267 Green’sche Funktion 309 Halbnorm 151 harmonische Funktion 23 Hauptreihe 75 Hauptwert 10, 299 Hauptzweig 109 hebbare Singularität 82 Hermite-Funktionen 170 Hermite-Polynome 170 Hilbertraum 163 holomorph 15 holomorphe Fortsetzung 78 homolog 69 Homomorphismus 7 Hyperfläche 313 Hölder Ungleichung 319 implizite Funktion 324 Innenproduktraum 157 Innere des Weges 69 Integralsinus 193 Integrationsweg 42 Inversion 39 isolierte Singularität 82 Jacobi-Determinante 323 Jensen-Ungleichung 320 kanonische Metrik 151 kanonische Norm 157 Kardinalsinus 13 Kern 148 Kettenregel 15 Kolinearität 158 kommutative Algebra 146 Kommutator 147 kompakte Träger 289 komplex differenzierbar 14 komplex konjugiert 2 komplexe Ebene 2 komplexe Fourierreihe 191 komplexe Integral 42

komplexe Wegintegral 42 komplexe Zahlen – allgemeine 6 – doppelt 6 – duale 6 – verallgemeinerte 6 konform 30 Konjugation 2 Kontraktion eines Tensors 266 kontravarianter Vektor 263 konvergente Folge 151 konvex 51 Koordinaten 256 kovariante Ableitung 277 kovarianter Vektor 263 Kovektor 268 Kovektorraum 268 Kreisring 75 Kronecker δ 256 Kronecker-Symbol 256 Kronecker-Tensor 50 Kugelflächenfunktionen 244 Kugelkoordinaten 261 Körper 2 Laguerre-Funktionen 171 Laguerre-Polynome 171 Laplace-Operator 23, 285 Laplace-Transformation 210 Laurent-Reihe 75 Legendre-Funktionen 168 Legendre-Polynome 168 Lie-Algebra 147 lineare Transformationen 145 Liouville 59 Logarithmus 109 Lorentz Glockenkurve 99 Lorentz-Kurve 99 Lorentz-Verteilung 99 Matrix-Darstellung 7 Matrixnorm 153 Maximumsnorm 154 Maßstabsfaktoren 273 Melin-Transformation 104 meromorph 83 messbaren Funktionen 145 Metrik 149 metrischen Raum 149

Stichwortverzeichnis

Metrischer Tensor 267 Minkowski-Metrik 271 Minkowski-Raum 271 Minkowski-Ungleichung 320 Mittelwertgleichung 58 Möbius-Transformation 17, 38 natürliche Basis 273 Nebenreihe 75 nicht singulärer Punkt 259 Niveaulinien 4 Norm 150 Normfunktion 3 normierter Raum 151 Null-Tensor 257 nullhomolog 69 ONB 175 Operator 145 Ordnung eines Pols 83 orthogonal 166 orthogonale Summe 167 orthogonales Polynome 213 Orthogonalität 4 Orthogonalraum 166 Orthogonalsystem 167 Orthonormalbasis 175 Orthonormalsystem (ONS) 167 parabolische Koordinaten 287 Parallelogrammidentität 158 Parseval Gleichung 175 Pauli-Matrizen 148 Phase 10 Phasenplot 35, 110 Poisson-Gleichung 310 Poisson’sche Integralformel 61 Pol 83 Polarisierungsidentität 158 Polarkoordinaten 8, 10 Polstellenmenge 83 Polylogarithmus 135 Potenzreihe 74 Projektionsoperatoren 183 Prähilbertraum 157 Pseudo-Riemann-Metrik 272 Psifunktion 129 punktierte Umgebung 82 Rademacher-Funktionen 177

Rand 40 rechten Halbebene 35 Rechtssystem 281 reell differenzierbar 18 reguläre Distribution 292 reguläre Koordinatentransf. 259 relativer Tensor 280 Residuensatz 88 Residuum 84 Reziprozitätsformel 203 Richtungsableitung 278 Richtungsvektor 28 Riemann’schen Zetafunktion 130 Riemann’sche Metrik 269 Rodrigues-Formel 214 Rotation 285 Schnittpunkt 28 Schnittpunktwinkel 28 Schwarz’sche Integralformel 60 Schwarz’sche Ungleichung 158 separabel 179 Separabilität 179 singuläre Distribution 293 Skalarprodukt 4, 157 Skalenfaktoren 273 Spaltensummennorm 155 Spatprodukt 281 Spektralfunktion 203 Spektralnorm 155 Spin-1/2-Matrizen 148 Spur 27 Stammfunktion 46 Stirling-Formel 132 Stromlinien 34 stückweise stetig 185 submultiplikativ 153 Summenkonvention 256 Supremumsnorm 153 Tangentialvektor 28 Tangentialvektoren 273 Taylorreihe 74 Testfunktionen 290 total differenzierbar 322 totale Differential 322 Träger 289 Tschebyscheff-Funktionen 172 Tschebyscheff-Polynome 172, 233

� 339

340 � Stichwortverzeichnis

Umlaufzahl 67 Unitärer Raum 157 Untervektorraum 145 unvollständige Gammafunktion 141 Vektor 144 Vektorraum 143 Vektorraumhomomorphismen 145 verallg. Kronecker-Tensor 279 vollständig 162, 175 Volterra-Integralgleichung 212 Wasserstoffatom 232 Weg – entgegengesetzter 27

– geschlossener 27 – glatt 27 – in ℂ 27 – Kreislinie 28 Wegaddition 44 Weglänge 270 Wegumkehrung 44 Wellengleichung 253 wesentliche Singularität 83 winkeltreu 30 Wirtinger-Ableitungen 22 Wärmeleitungsgleichung 318 Zeilensummennorm 155 Zylinderkoordinaten 260