Vektoren und Tensoren als universelle Sprache in Physik und Technik. Tensoralgebra und Tensoranalysis [1, 1 ed.] 978-3-658-25272-4

Die Tensorrechnung, die als Spezialfall die Vektorrechnung umfasst, ist zur Beschreibung physikalischer Zusammenhänge au

1,252 278 4MB

German Pages XXIV, 485 [502] Year 2019

Report DMCA / Copyright

DOWNLOAD FILE

Polecaj historie

Vektoren und Tensoren als universelle Sprache in Physik und Technik. Tensoralgebra und Tensoranalysis [1, 1 ed.]
 978-3-658-25272-4

Citation preview

Wolfgang Werner

Vektoren und Tensoren als universelle Sprache in Physik und Technik 1 Tensoralgebra und Tensoranalysis

Vektoren und Tensoren als universelle Sprache in Physik und Technik 1

Wolfgang Werner

Vektoren und Tensoren als universelle Sprache in ­Physik und Technik 1 Tensoralgebra und Tensoranalysis

Wolfgang Werner Berlin, Deutschland

ISBN 978-3-658-25271-7 ISBN 978-3-658-25272-4  (eBook) https://doi.org/10.1007/978-3-658-25272-4 Die Deutsche Nationalbibliothek verzeichnet diese Publikation in der Deutschen Nationalbibliografie; detaillierte bibliografische Daten sind im Internet über http://dnb.d-nb.de abrufbar. Springer Vieweg © Springer Fachmedien Wiesbaden GmbH, ein Teil von Springer Nature 2019 Das Werk einschließlich aller seiner Teile ist urheberrechtlich geschützt. Jede Verwertung, die nicht ausdrücklich vom Urheberrechtsgesetz zugelassen ist, bedarf der vorherigen Zustimmung des Verlags. Das gilt insbesondere für Vervielfältigungen, Bearbeitungen, Übersetzungen, Mikroverfilmungen und die Einspeicherung und Verarbeitung in elektronischen Systemen. Die Wiedergabe von allgemein beschreibenden Bezeichnungen, Marken, Unternehmensnamen etc. in diesem Werk bedeutet nicht, dass diese frei durch jedermann benutzt werden dürfen. Die Berechtigung zur Benutzung unterliegt, auch ohne gesonderten Hinweis hierzu, den Regeln des Markenrechts. Die Rechte des jeweiligen Zeicheninhabers sind zu beachten. Der Verlag, die Autoren und die Herausgeber gehen davon aus, dass die Angaben und Informationen in diesem Werk zum Zeitpunkt der Veröffentlichung vollständig und korrekt sind. Weder der Verlag, noch die Autoren oder die Herausgeber übernehmen, ausdrücklich oder implizit, Gewähr für den Inhalt des Werkes, etwaige Fehler oder Äußerungen. Der Verlag bleibt im Hinblick auf geografische Zuordnungen und Gebietsbezeichnungen in veröffentlichten Karten und Institutionsadressen neutral. Springer Vieweg ist ein Imprint der eingetragenen Gesellschaft Springer Fachmedien Wiesbaden GmbH und ist ein Teil von Springer Nature. Die Anschrift der Gesellschaft ist: Abraham-Lincoln-Str. 46, 65189 Wiesbaden, Germany

Meiner Frau Nelly gewidmet

Vorwort Die Absicht des vorliegenden ersten Bandes des zweibändigen Gesamtwerkes besteht darin, die Tensorrechnung in einer Weise zu entwickeln und darzustellen, wie sie in dieser Form in der einschlägigen Literatur nicht behandelt wird. Dabei ist die Vektorrechnung in der für Ingenieure und Naturwissenschaftler vertrauten Form als spezieller Fall der Tensorrechnung der Ausgangspunkt der Darstellung. Vektoren und Tensoren werden mit Matrizen beschrieben und im Unterschied zu den üblichen Darstellungen wird die Indexschreibweise nur gelegentlich zur Erläuterung verwendet. Die Beschäftigung mit Koordinatensystemen, die Beschreibung von Vektoren und Tensoren in koordinatenfreier und -gebundener Form, die Umrechnung ihrer Komponenten beim Wechsel der Systeme sowie ihr Auftreten und ihre Anwendungen in den physikalischen Fachgebieten begleiten den Autor mit wechselnder Intensität seit Studium und Assistenzzeit am Lehrstuhl für Theoretische Elektrotechnik und während langjähriger Forschungsund Lehrtätigkeit auf den Gebieten der Systemtheorie und der allgemeinen und optischen Nachrichtentechnik. Erst seit dem Ende der aktiven Berufsphase mit jahrzehntelanger Erfahrung in Darstellung und Weitergabe von wissenschaftlichen Inhalten im Forschungs- und Hochschulbereich als Wissenschaftler und Hochschullehrer stand genügend Zeit zur Verfügung für die intensive und tiefgehende Bearbeitung der für die Ingenieurwissenschaften grundlegenden Vektoren und Tensoren, sowie deren Anwendung und Auftreten in wesentlichen Bereichen der Physik. Die berufliche Erfahrung als Lehrender vor Generationen von Studenten führte zur Erkenntnis, dass klare Formulierungen, einfache Schreibweise und nachvollziehbare Rechengänge, die auch manchen genialen Einfall, KunstVII

VIII griff oder „Trick“ mit einschließen, das Verständnis stark fördern und den Erkenntnisgewinn bei angemessenem Zeitaufwand ermöglichen. Ein wesentliches Merkmal des Gesamtwerks besteht darin, die Einfachheit der Grundideen zu betonen, ohne die Komplexität der mathematischen Behandlung einzuschränken, dabei aber ihre Durchführung klar zu erläutern. Der gesamten Darstellung liegt die Absicht zugrunde, alle Überlegungen durch transparente Angabe von Zwischenschritten sowie durch Querverweise in genügender Ausführlichkeit darzulegen, um den Gang der Rechnung übersichtlich zu gestalten und auch einfallsreiche oder längere Ableitungen nachvollziehbar zu machen. Zusätzlich sind besonders im zweiten Band, der den Anwendungen gewidmet ist, viele Zitate der einschlägigen Literatur angegeben, um den Leser auf weitere und ausführlichere Darstellungen eines bestimmten Sachverhaltes hinzuweisen oder um längere und aufwendige Ableitungen abzukürzen oder zu vermeiden. Ein ernstzunehmendes Hindernis bei Behandlung und Darstellung der Tensorrechnung sieht der Autor darin, dass die übliche und durchgängige Schreibweise mit vielen Indizes insbesondere bei den als wesentlich anzusehenden Koordinatentransformationen schwer zu überblicken ist und dem klaren Erfassen der zugrunde liegenden Sachverhalte im Wege steht. Das wird verstärkt durch die bei der Tensorrechnung auftretenden unteren und oberen Indizes zur Kennzeichnung der gemeinsam verwendeten ko- und kontravarianten Komponenten sowie die als Einstein’sche Summationskonvention bezeichnete Unterdrückung aller Summenzeichen. Darin liegt sicher einer der Gründe, dass das ganze Thema als schwierig und undurchsichtig gilt und nur mit erheblichem Aufwand zu erlernen ist. Selbst der berühmte Mathematiker Hermann Weyl bemerkt im Vorwort seines Buches 1 , dass seine Darstellung der Relativitätstheorie „vor den Genuss der Erkenntnisfrucht den Schweiß des Tensorkalküls gesetzt hat“ ! Um hier eine Alternative zu bieten, die der Anschaulichkeit dienen, das Verständnis fördern und vielleicht einen neuen Zugang ermöglichen soll, werden von Anfang an Vektoren und Tensoren als eigenständige physikalische Größen eingeführt, die unabhängig vom Koordinatensystem und damit invariant sind. Ihre Darstellung in Koordinatensystemen, also ihre Zerlegung in Komponenten für die einzelnen Koordinatenrichtungen sowie deren Transformationen beim Wechsel solcher Systeme, werden konsequent mit Matrizen formuliert und nur selten für einführende Beispiele oder Erläuterungen wird 1

Weyl, H.: Raum, Zeit, Materie, Springer Verlag, 8. Aufl. (1993)

IX Summen- und Indexschreibweise verwendet. Außer einer formalen Kennzeichnung mit einem speziellen Symbol zur Unterscheidung zwischen ko- und kontravarianten Komponenten treten kaum Indizes auf. Da die Bildung von Matrizenprodukten die Summation mit impliziter Indizierung einschließt, bleiben die Beziehungen insgesamt übersichtlich und leicht verständlich. Matrizen gehören seit langem zum Handwerkszeug von Naturwissenschaftlern, Ingenieuren und weiteren Berufskreisen und sind insbesondere bei vielen numerischen Verfahren unverzichtbar, so dass die Behandlung der Tensorrechnung mit diesen mathematischen Größen einprägsam und elegant durchgeführt werden kann. Großer Wert wird weiterhin gelegt auf systematische Vorgehensweise, Unterstützung der Vorstellung durch anschauliche Abbildungen und Beispiele sowie eine klare und ausführliche Erläuterung zentraler Begriffe der Tensorrechnung. An mathematischen Vorkenntnissen werden lediglich Differential- und Integralrechnung sowie die Grundlagen von Matrizen und Vektoren vorausgesetzt, wobei auf die beiden letzten Themenbereiche noch in eigenen Kapiteln als Übersicht und Formelsammlung für die spätere Verwendung eingegangen wird. Wer den Eindruck gewinnt, dass sich die Beschäftigung mit dem Gegenstand lohnt und bereit ist, dem logischen Ablauf der Darstellung zu folgen, wird trotz einer gewissen Ausdauer kaum Schwierigkeiten haben, das vorgelegte Thema zu erfassen und sich zu eigen zu machen. Geschrieben wurde das Buch von einem Ingenieur, allerdings mit profundem theoretischen Hintergrund, dessen Absicht es ist, Begriffe und Sachverhalte so deutlich und verständlich wie möglich darzustellen. Mit der beruflichen Ausrichtung wird auch der Verzicht auf mathematische Strenge und Beweisführung begründet, die man bei Bedarf in den zitierten, einschlägigen Lehrbüchern finden kann. In inhaltlicher Hinsicht wird keine Originalität angestrebt, denn es existieren viele Lehr- und Fachbücher zu den verschiedenen Themengebieten oder zu einzelnen Aspekten, auf die im Text verwiesen wird und die im umfangreichen Gesamtverzeichnis der Bücher thematisch geordnet aufgeführt sind. Neu zu sein scheint dagegen die Art der Darstellung, die besondere Schreibweise und die Verwendung von Matrizen. Ursprünglich war dieses Buch nur als ein Handbüchlein geplant, das sich für viele zum Nutzen im Themenbereich von Vektor- und Tensorrechnung erweisen sollte. Mit dem Fortschritt der Bearbeitung und der Erkenntnis,

X dass die physikalischen Anwendungen unverzichtbar sind für ein grundlegendes Verständnis dieses mathematischen Handwerkszeuges, nahm der Umfang immer mehr zu, so dass die anfängliche Idee zugunsten eines am Ende zweibändigen Gesamtwerkes aufgegeben wurde. Die Hoffnung des Autors besteht dennoch darin, dass beide Bücher Eingang finden in die „handhabbare“ wissenschaftliche Literatur und nicht nur auf Bibliotheksbrettern vor sich hindösen. Sollte sich dieses Ziel erfüllen, dann ist die Absicht des Autors vollkommen erreicht. Danken möchte ich an erster Stelle meiner Frau und lebenslanger Partnerin Nelly, der ich dieses Buch widme, für ihre langjährige ungeheure Geduld und Nachsicht mit einem beflissenen und MINT-begeisterten Akademiker und nun auch Autor. Rat und Unterstützung erhielt ich durch die Professoren Hans-Joachim Gelbrich und Joachim Meißner, die über viele Jahre hinweg Freunde und Kollegen sowie zuverlässige und stets bereite Gesprächspartner waren und die auch eine kritische Durchsicht von Teilen des Manuskriptes vornahmen. Dem Springer-Verlag und seinem Cheflektor Herrn Dapper danke ich für die Annahme und bereitwillige Unterstützung dieses Buchprojektes. Danken möchte ich auch Frau Broßler vom Lektorat, die die Vertragsabwicklung und Manuskriptbearbeitung durchführte und bei vielen Kontakten auf eine Reihe von Sonderwünschen einging, die für mich von besonderer Bedeutung in der Gestaltung beider Bände waren. Frau Barth von der Firma le-tex danke ich für wertvolle Hinweise bei Fragen zum Schreib- und Formelsatzprogramm LATEX.

Inhaltsverzeichnis I

Grundlagen

1

1 Einführung Literatur . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .

3 9

2 Verzeichnis der verwendeten Symbole 11 2.1 Allgemeine Bemerkungen zur Schreibweise . . . . . . . . . . . 11 2.2 Mathematische Größen . . . . . . . . . . . . . . . . . . . . . . 13 2.3 Physikalische Größen . . . . . . . . . . . . . . . . . . . . . . . 18 3 Beziehungen der Matrizenrechnung 3.1 Definitionen . . . . . . . . . . . . . . . . . . . 3.1.1 Spaltenvektor und Zeilenvektor . . . . 3.1.2 Matrix . . . . . . . . . . . . . . . . . . 3.2 Produkte von Matrizen . . . . . . . . . . . . . 3.2.1 Skalarprodukt (Zeile mal Spalte) . . . 3.2.2 Dyadisches Produkt (Spalte mal Zeile) 3.2.3 Matrizenprodukt . . . . . . . . . . . . 3.2.4 Lineares Gleichungssystem . . . . . . . 3.2.5 Matrizenprodukte mit Falk-Schema . 3.2.6 Piktogramme der Matrixmultiplikation 3.2.7 Rechts- und Linksmultiplikation . . . . 3.2.8 Matrixtransformationen . . . . . . . . 3.3 Inverse Matrix und adjungierte Matrix . . . . 3.4 Formale Matrizen und Produkte . . . . . . . 3.5 Spezielle Matrizen . . . . . . . . . . . . . . . 3.5.1 Einheitsmatrix . . . . . . . . . . . . . 3.5.2 Diagonalmatrizen . . . . . . . . . . . . XI

. . . . . . . . . . . . . . . . .

. . . . . . . . . . . . . . . . .

. . . . . . . . . . . . . . . . .

. . . . . . . . . . . . . . . . .

. . . . . . . . . . . . . . . . .

. . . . . . . . . . . . . . . . .

. . . . . . . . . . . . . . . . .

. . . . . . . . . . . . . . . . .

. . . . . . . . . . . . . . . . .

23 24 24 24 25 25 26 26 28 28 30 30 30 32 33 35 35 35

XII

Inhaltsverzeichnis 3.5.3 Orthogonale Matrizen . . . . . . . . . . . . Spezielle Beziehungen . . . . . . . . . . . . . . . . 3.6.1 Distributivität und Assoziativität . . . . . . 3.6.2 Ausklammern . . . . . . . . . . . . . . . . . 3.6.3 Blockmatrizen . . . . . . . . . . . . . . . . 3.6.4 Transponierung und Inversion . . . . . . . . 3.6.5 Determinante und Spur für n ˆ n -Matrizen 3.6.6 Laplace’scher Entwicklungssatz . . . . . . 3.6.7 Additions- und Determinantensatz . . . . . 3.6.8 Differentiation von Matrizen . . . . . . . . . 3.6.9 Ableitung von Determinanten . . . . . . . . 3.7 Summen als Matrizenprodukte . . . . . . . . . . . 3.7.1 Einfache Summe . . . . . . . . . . . . . . . 3.7.2 Doppelsummen . . . . . . . . . . . . . . . . 3.7.3 vec-Operator . . . . . . . . . . . . . . . . . 3.8 Erweiterung der Matrixmultiplikation . . . . . . . . 3.8.1 Höhere Matrizen . . . . . . . . . . . . . . . 3.8.2 Tensoren 3. und 4. Stufe . . . . . . . . . . . 3.9 Grenzen der Berechnung mit Matrizen . . . . . . . Literatur . . . . . . . . . . . . . . . . . . . . . . . . . . . 3.6

4 Physikalische Größen und Felder 4.1 Zielsetzung der Physik . . . . . . . . . . . . . . . . 4.2 Transformation physikalischer Größen . . . . . . . 4.3 Physikalische Felder . . . . . . . . . . . . . . . . . 4.3.1 Der Begriff des Feldes . . . . . . . . . . . . 4.3.2 Beispiele für Felder und ihre Darstellungen

II

. . . . . . . . . . . . . . . . . . . .

. . . . .

. . . . . . . . . . . . . . . . . . . .

. . . . .

. . . . . . . . . . . . . . . . . . . .

. . . . .

. . . . . . . . . . . . . . . . . . . .

. . . . .

. . . . . . . . . . . . . . . . . . . .

. . . . .

. . . . . . . . . . . . . . . . . . . .

36 37 37 38 38 39 39 39 39 41 41 42 42 43 44 46 46 48 52 53

. . . . .

54 54 56 57 57 58

Vektorrechnung

5 Vektorbeziehungen 5.1 Grundlegende Eigenschaften von Vektoren . . . . . 5.1.1 Affiner Vektorbegriff . . . . . . . . . . . . . 5.1.2 Vektoraddition . . . . . . . . . . . . . . . . 5.1.3 Skalarprodukt und metrische Eigenschaften 5.1.4 Einheitsvektoren . . . . . . . . . . . . . . . 5.1.5 Kreuzprodukt . . . . . . . . . . . . . . . . .

61 . . . . . .

. . . . . .

. . . . . .

. . . . . .

. . . . . .

. . . . . .

63 63 64 64 65 66 67

XIII

Inhaltsverzeichnis

5.2

Mehrfachprodukte der Vektorrechnung . . . . . . . . . . . . . 68 5.2.1 Spatprodukt . . . . . . . . . . . . . . . . . . . . . . . 68 5.2.2 Doppeltes Kreuzprodukt, Entwicklungssatz . . . . . . 69 5.2.3 Vierfachprodukt, Identität von Lagrange . . . . . . 69 5.2.4 Gram’sche Determinante . . . . . . . . . . . . . . . . 70 5.3 Physikalische Einteilung der Vektoren . . . . . . . . . . . . . 71 5.3.1 Inversion des Koordinatensystems . . . . . . . . . . . . 71 5.3.2 Polare Vektoren . . . . . . . . . . . . . . . . . . . . . . 71 5.3.3 Axiale Vektoren . . . . . . . . . . . . . . . . . . . . . . 72 5.3.4 Flächenelement . . . . . . . . . . . . . . . . . . . . . . 73 5.3.5 Multiplikative Verknüpfung von Skalaren und Vektoren 74 5.3.6 Beispiele physikalischer Skalare und Vektoren . . . . . 75 5.4 Vektoren im Raum . . . . . . . . . . . . . . . . . . . . . . . . 76 5.4.1 Zerlegung eines Vektors bezüglich einer Richtung . . . 76 5.4.2 Vektordarstellung von Ebenen . . . . . . . . . . . . . . 77 5.5 Gram’sche Matrizen . . . . . . . . . . . . . . . . . . . . . . . 80 5.5.1 Gram’sche Matrix für zwei Sätze von Vektoren . . . . 80 5.5.2 Reziproke Vektoren und Reziprozitätsbedingung . . . 81 5.5.3 Vektorzerlegung nach reziproken Vektoren . . . . . . . 81 5.6 Ableitung von Vektoren . . . . . . . . . . . . . . . . . . . . . 83 5.6.1 Produkte und Einheitsvektor . . . . . . . . . . . . . . 83 5.6.2 Bewegung von Punkten auf Bahnkurven . . . . . . . . 83 5.6.3 Geradlinige Bahnkurve . . . . . . . . . . . . . . . . . . 85 5.6.4 Kreisförmige Bahnkurve . . . . . . . . . . . . . . . . . 85 5.6.5 Relativbewegungen . . . . . . . . . . . . . . . . . . . . 88 5.6.6 Grundgrößen von Raumkurven . . . . . . . . . . . . . 90 5.6.7 Ableitungen in Koordinatensystemen . . . . . . . . . . 100 5.7 Integration von Vektorfunktionen . . . . . . . . . . . . . . . . 101 Literatur . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 103 6 Geradlinige Koordinatensysteme 6.1 Notwendigkeit und Bedeutung . . . . . . . . . . . . . 6.2 Begriffe der Tensorrechnung . . . . . . . . . . . . . . 6.3 Kartesische Koordinatensysteme . . . . . . . . . . . 6.3.1 Eigenschaften der kartesischen Basisvektoren 6.3.2 Basisvektoren bei Basiswechsel . . . . . . . . 6.3.3 Eigenschaften orthogonaler Transformationen 6.4 Kovariante Basis als Grundsystem . . . . . . . . . .

. . . . . . .

. . . . . . .

. . . . . . .

. . . . . . .

. . . . . . .

105 105 106 107 107 109 109 111

XIV

Inhaltsverzeichnis

6.4.1 Grundvektoren als kovariante Basisvektoren . . . . . 6.4.2 Darstellung im kartesischen System . . . . . . . . . . 6.5 Kontravariante Basis . . . . . . . . . . . . . . . . . . . . . . 6.5.1 Kontravariante Basisvektoren . . . . . . . . . . . . . 6.5.2 Darstellung im kartesischen System . . . . . . . . . . 6.6 Reziproke Basissysteme . . . . . . . . . . . . . . . . . . . . 6.6.1 Reziprozitätsbedingung bei ungleicher Indexstellung 6.6.2 Graphische Darstellung reziproker Vektoren . . . . . 6.6.3 Metrikmatrizen bei gleicher Indexstellung . . . . . . 6.6.4 Begründung für zwei Basissysteme . . . . . . . . . . 6.6.5 Orthogonale Koordinatensysteme . . . . . . . . . . . 6.7 Eigenschaften der Metrikmatrizen . . . . . . . . . . . . . . . 6.7.1 Umrechnung der reziproken Basisvektoren . . . . . . 6.7.2 Inversion und Kontragredienz . . . . . . . . . . . . . 6.7.3 Zusammenhang zwischen Koordinatensystemen . . . 6.8 Weitere Produkte der Basisvektoren . . . . . . . . . . . . . 6.8.1 Spatprodukte . . . . . . . . . . . . . . . . . . . . . . 6.8.2 Vektorprodukte . . . . . . . . . . . . . . . . . . . . . 6.9 Basisvektoren bei Basiswechsel . . . . . . . . . . . . . . . . 6.9.1 Lineare Transformation der Basen . . . . . . . . . . 6.9.2 Basen bei Drehung des kartesischen Systems . . . . . 6.9.3 Starre Drehung des Gesamtsystems . . . . . . . . . . 6.9.4 Transformationsmatrix der ebenen Drehung . . . . . 6.9.5 Räumliche Drehung und Euler’sche Winkel . . . . 6.9.6 Graphische Darstellung der Systemkopplungen . . . 6.9.7 Spatprodukte in neuen Systemen . . . . . . . . . . . 6.10 Beispiele für Basissysteme . . . . . . . . . . . . . . . . . . . 6.10.1 Ko- und kontravariantes System A . . . . . . . . . . 6.10.2 Ko- und kontravariantes System B . . . . . . . . . . 6.10.3 Kopplung zwischen System A und System B . . . . . 6.10.4 Ko- und kontravariantes System C mit Drehung . . . 6.11 Tabellen . . . . . . . . . . . . . . . . . . . . . . . . . . . . . Literatur . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .

. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .

111 111 112 112 112 113 113 114 115 116 116 117 117 117 118 119 119 121 122 122 123 124 126 126 129 131 132 132 133 133 134 136 140

7 Vektoren und ihre Komponenten 141 7.1 Vektoren in kartesischen Koordinatensystemen . . . . . . . . 141 7.1.1 Allgemeiner Vektor . . . . . . . . . . . . . . . . . . . . 141 7.1.2 Ortsvektor . . . . . . . . . . . . . . . . . . . . . . . . . 143

XV

Inhaltsverzeichnis

7.2

7.3

7.4

7.5 7.6

Vektoren in reziproken Systemen . . . . . . . . . . . . . 7.2.1 Kovariante Basis . . . . . . . . . . . . . . . . . . 7.2.2 Kontravariante Komponenten . . . . . . . . . . . 7.2.3 Kontravariante Basis . . . . . . . . . . . . . . . . 7.2.4 Kovariante Komponenten . . . . . . . . . . . . . 7.2.5 Forminvariante Darstellung . . . . . . . . . . . . 7.2.6 Betrag eines Vektors . . . . . . . . . . . . . . . . Graphische Vektordarstellung . . . . . . . . . . . . . . . 7.3.1 Parallelprojektion in schiefwinkligen Systemen . 7.3.2 Orthogonalprojektion im schiefwinkligen System Beträge und Längen der Vektorkomponenten . . . . . . 7.4.1 Geometrische Beziehungen . . . . . . . . . . . . . 7.4.2 Physikalische Vektorkomponenten . . . . . . . . . Umrechnung der Komponenten . . . . . . . . . . . . . . Produkte von Vektoren . . . . . . . . . . . . . . . . . . . 7.6.1 Skalarprodukt zweier Vektoren . . . . . . . . . . 7.6.2 Kreuzprodukt zweier Vektoren . . . . . . . . . . 7.6.3 Spatprodukt . . . . . . . . . . . . . . . . . . . .

8 Vektorkomponenten bei Basiswechsel 8.1 Kartesische Komponenten . . . . . . . . . . . 8.2 Ko- und kontravariante Komponenten . . . . 8.3 Kogredienz und Kontragredienz . . . . . . . . 8.4 Allgemeine lineare Transformation . . . . . . 8.4.1 Definition . . . . . . . . . . . . . . . . 8.4.2 Wechsel des Koordinatensystems . . . 8.4.3 Orthogonale Systeme . . . . . . . . . . 8.4.4 Reziproke Systeme . . . . . . . . . . . 8.5 Beispiele für Vektortransformationen . . . . . 8.5.1 Vektorvorgabe im kartesischen System 8.5.2 Vektordarstellung im System A . . . . 8.5.3 Vektordarstellung im System B . . . . 8.5.4 Starre Drehung von System A . . . . . 8.5.5 Physikalische Vektorkomponenten . . . 8.6 Tabellen . . . . . . . . . . . . . . . . . . . . .

. . . . . . . . . . . . . . .

. . . . . . . . . . . . . . .

. . . . . . . . . . . . . . .

. . . . . . . . . . . . . . .

. . . . . . . . . . . . . . .

. . . . . . . . . . . . . . .

. . . . . . . . . . . . . . . . . .

. . . . . . . . . . . . . . .

. . . . . . . . . . . . . . . . . .

. . . . . . . . . . . . . . . . . .

143 143 144 145 145 146 147 147 147 147 149 149 150 151 152 152 153 154

. . . . . . . . . . . . . . .

155 . 155 . 156 . 157 . 157 . 157 . 158 . 158 . 159 . 160 . 160 . 160 . 160 . 161 . 161 . 162

XVI

III

Inhaltsverzeichnis

Tensoralgebra

165

9 Tensorbegriff und Tensor 2. Stufe 9.1 Lineare Vektorfunktion . . . . . . . . . . . . . . . . . . . . 9.1.1 Abbildung von Vektoren und Tensordefinition . . . 9.1.2 Linearitätseigenschaft . . . . . . . . . . . . . . . . 9.1.3 Tensorielles Produkt von Vektoren . . . . . . . . . 9.1.4 Projektion als lineare Abbildung . . . . . . . . . . 9.2 Tensor 2. Stufe in kartesischer Basis . . . . . . . . . . . . . 9.2.1 Darstellung der Abbildung durch einen Tensor . . 9.2.2 Tensordarstellung und Komponenten . . . . . . . . 9.3 Tensor 2. Stufe in reziproken Basissystemen . . . . . . . . 9.3.1 Tensordarstellung in Summenform . . . . . . . . . 9.3.2 Tensorraum . . . . . . . . . . . . . . . . . . . . . . 9.3.3 Tensorzerlegung . . . . . . . . . . . . . . . . . . . . 9.3.4 Tensordarstellung in Matrizenform . . . . . . . . . 9.3.5 Komponentenmatrizen . . . . . . . . . . . . . . . . 9.3.6 Systemvektoren der Koordinaten . . . . . . . . . . 9.3.7 Tensorkomponenten bei doppeltem Skalarprodukt . 9.4 Tensorkomponenten bei gleicher Basis . . . . . . . . . . . 9.5 Tensorkomponenten bei Basiswechsel . . . . . . . . . . . . 9.5.1 Transformation der Tensorkomponenten . . . . . . 9.5.2 Tensorkomponenten bei starrer Drehung . . . . . . 9.5.3 Allgemeine Transformationsregel . . . . . . . . . . 9.6 Tabellen . . . . . . . . . . . . . . . . . . . . . . . . . . . .

. . . . . . . . . . . . . . . . . . . . . .

. . . . . . . . . . . . . . . . . . . . . .

167 167 167 168 169 169 171 171 172 173 173 173 174 174 175 176 177 177 178 178 179 180 181

10 Tensoren und ihre Produkte 10.1 Klassifizierung von Tensoren . . . . . . . . . . . . . . . 10.1.1 Tensoren beliebiger Stufe . . . . . . . . . . . . 10.1.2 Matrixdarstellung . . . . . . . . . . . . . . . . 10.2 Verjüngung von Tensoren . . . . . . . . . . . . . . . . 10.2.1 Zielsetzung . . . . . . . . . . . . . . . . . . . . 10.2.2 Verjüngung beim Tensor 2. Stufe . . . . . . . . 10.2.3 Verjüngung höherstufiger Tensoren . . . . . . . 10.3 Produktbildung bei Tensoren . . . . . . . . . . . . . . 10.3.1 Tensorielles Produkt . . . . . . . . . . . . . . . 10.3.2 Skalarprodukte aus Tensor 2. Stufe und Vektor 10.3.3 Doppeltes Skalarprodukt beim Tensor 2. Stufe .

. . . . . . . . . . .

. . . . . . . . . . .

184 184 184 186 186 186 187 188 189 189 189 192

. . . . . . . . . . .

. . . . . . . . . . .

XVII

Inhaltsverzeichnis

10.3.4 Transponierter Tensor . . . . . . . . . 10.3.5 Skalarprodukt zweier Tensoren 2. Stufe 10.4 Summationskonvention . . . . . . . . . . . . . 10.4.1 Begründung . . . . . . . . . . . . . . . 10.4.2 Vergleich und Bewertung . . . . . . . 10.5 Tabelle . . . . . . . . . . . . . . . . . . . . . . 10.5.1 Hinweise zur Tabelle 10.1 . . . . . . . 10.5.2 Berechnungsbeispiele . . . . . . . . . . 10.5.3 Systemvektoren . . . . . . . . . . . . . Literatur . . . . . . . . . . . . . . . . . . . . . . . .

. . . . . . . . . .

. . . . . . . . . .

. . . . . . . . . .

. . . . . . . . . .

. . . . . . . . . .

. . . . . . . . . .

. . . . . . . . . .

. . . . . . . . . .

. . . . . . . . . .

193 193 194 194 195 199 199 199 199 201

11 Spezielle Tensoren 11.1 Symmetrischer Tensor 2. Stufe . . . . . . . . . . . . . 11.1.1 Symmetrieeigenschaften der Komponenten . . 11.1.2 Symmetrie der Tensorprodukte . . . . . . . . 11.2 Einheitstensor oder Metriktensor . . . . . . . . . . . 11.2.1 Definierende Eigenschaft . . . . . . . . . . . . 11.2.2 Komponenten des Einheitstensors . . . . . . . 11.2.3 Matrix- und Summenform . . . . . . . . . . . 11.2.4 Metriktensor bei Basiswechsel . . . . . . . . . 11.2.5 Überschiebung . . . . . . . . . . . . . . . . . 11.3 Alternierender Tensor 2. Stufe . . . . . . . . . . . . . 11.3.1 Eigenschaften der Komponenten . . . . . . . 11.3.2 Antisymmetrie der Tensorprodukte . . . . . . 11.3.3 Tensorform des Kreuzproduktes . . . . . . . . 11.4 Tensor-Merkmale und Eigenschaften . . . . . . . . . 11.4.1 Additive Tensorzerlegung . . . . . . . . . . . 11.4.2 Dyaden . . . . . . . . . . . . . . . . . . . . . 11.4.3 Verjüngung spezieller Tensoren . . . . . . . . 11.5 Tensor 3. Stufe . . . . . . . . . . . . . . . . . . . . . 11.5.1 Summenform der Komponenten . . . . . . . . 11.5.2 Matrixdarstellung . . . . . . . . . . . . . . . 11.5.3 Komponenten bei Basiswechsel . . . . . . . . 11.6 Vollständige Tensoren gemäß Symmetrie . . . . . . . 11.6.1 Definition . . . . . . . . . . . . . . . . . . . . 11.6.2 Vollständig symmetrischer Tensor 3. Stufe . . 11.6.3 Vollständig antisymmetrischer Tensor 3. Stufe 11.7 ε -Tensor . . . . . . . . . . . . . . . . . . . . . . . . .

. . . . . . . . . . . . . . . . . . . . . . . . . .

. . . . . . . . . . . . . . . . . . . . . . . . . .

. . . . . . . . . . . . . . . . . . . . . . . . . .

. . . . . . . . . . . . . . . . . . . . . . . . . .

. . . . . . . . . . . . . . . . . . . . . . . . . .

202 202 202 203 204 204 204 205 205 206 208 208 209 210 211 211 212 214 215 215 215 217 219 219 219 219 220

XVIII

Inhaltsverzeichnis

11.7.1 Definition gemäß Transformationsverhalten 11.7.2 Determinantenform der Tensorkomponenten 11.7.3 Räumliche Darstellung . . . . . . . . . . . . 11.7.4 Matrix- und Summenform des ε -Tensors . . 11.7.5 Skalarprodukte mit dem ε -Tensor . . . . . 11.8 Tensorinterpretation von Vektorprodukten . . . . . 11.8.1 Kreuzprodukt . . . . . . . . . . . . . . . . . 11.8.2 Spatprodukt . . . . . . . . . . . . . . . . . 11.8.3 Doppeltes Kreuzprodukt . . . . . . . . . . . 11.8.4 Zusammenfassende Bewertung . . . . . . . 11.9 Kronecker-Tensor 6. Stufe . . . . . . . . . . . . . 11.9.1 Definition und Komponenten . . . . . . . . 11.9.2 Verjüngungen des Kronecker-Tensors . . . .

. . . . . . . . . . . . .

. . . . . . . . . . . . .

. . . . . . . . . . . . .

. . . . . . . . . . . . .

12 Hauptachsentransformation 12.1 Zielsetzung und Bedingungen der Transformation . . . . . 12.2 Durchführung der Transformation . . . . . . . . . . . . . . 12.2.1 Aufstellung der Gleichungssysteme . . . . . . . . . 12.2.2 Charakteristische Gleichung und Eigenwerte . . . . 12.2.3 Bestimmung der Eigenvektoren . . . . . . . . . . . 12.2.4 Orthogonale Transformationsmatrix . . . . . . . . 12.2.5 Berechnung der Eigenvektoren . . . . . . . . . . . 12.2.6 Normierung der Eigenvektoren . . . . . . . . . . . 12.2.7 Ebener Fall und Mohr’scher Kreis . . . . . . . . . 12.3 Invarianten bei Matrixtransformationen . . . . . . . . . . 12.3.1 Charakteristische Größen der Matrix . . . . . . . . 12.3.2 Invarianten bei Ähnlichkeitstransformation . . . . 12.3.3 Spektralverschiebung . . . . . . . . . . . . . . . . . 12.3.4 Matrixpotenzen . . . . . . . . . . . . . . . . . . . . 12.3.5 Eigenwerte und Eigenvektoren bei Matrixpotenzen 12.3.6 Deviator . . . . . . . . . . . . . . . . . . . . . . . . 12.3.7 Tensorinvarianten . . . . . . . . . . . . . . . . . . . 12.3.8 Tensorprodukt bei Orthogonaltransformation . . . 12.4 Quadratische Formen . . . . . . . . . . . . . . . . . . . . . 12.4.1 Definition und Auftreten . . . . . . . . . . . . . . . 12.4.2 Klassifizierung . . . . . . . . . . . . . . . . . . . . 12.5 Tensorflächen . . . . . . . . . . . . . . . . . . . . . . . . . 12.5.1 Erzeugung quadratischer Formen . . . . . . . . . .

. . . . . . . . . . . . .

. . . . . . . . . . . . .

220 222 222 222 224 225 225 227 227 228 228 228 230

. . . . . . . . . . . . . . . . . . . . . . .

232 . 232 . 235 . 235 . 236 . 237 . 238 . 239 . 240 . 240 . 243 . 243 . 244 . 245 . 246 . 246 . 248 . 248 . 249 . 250 . 250 . 251 . 251 . 251

XIX

Inhaltsverzeichnis

12.5.2 Hauptachsentransformation und Tensorellipsoid 12.5.3 Poinsot’sche Konstruktion . . . . . . . . . . . 12.6 Beispiele für Hauptachsentransformationen . . . . . . . 12.6.1 2 ˆ 2 -Matrix . . . . . . . . . . . . . . . . . . . 12.6.2 3 ˆ 3 -Matrix, einfache Eigenwerte . . . . . . . 12.6.3 3 ˆ 3 -Matrix, zweifacher Eigenwert . . . . . . 12.7 Tabellen . . . . . . . . . . . . . . . . . . . . . . . . . . Literatur . . . . . . . . . . . . . . . . . . . . . . . . . . . . .

IV

. . . . . . . .

. . . . . . . .

. . . . . . . .

. . . . . . . .

Tensoranalysis

252 253 255 255 256 258 261 264

265

13 Allgemeine Funktionssysteme 13.1 Eigenschaften eines Funktionssystems . . . . . . . . . . . . 13.1.1 Definition des Funktionssatzes . . . . . . . . . . . . . 13.1.2 Totale Differentiale . . . . . . . . . . . . . . . . . . . 13.1.3 Funktionalmatrix, Jacobi-Matrix . . . . . . . . . . 13.1.4 Funktionaldeterminante, Jacobi’sche Determinante 13.1.5 Lineares Funktionssystem . . . . . . . . . . . . . . . 13.1.6 n-dimensionale Volumenelemente . . . . . . . . . . . 13.2 Inverses Funktionssystem . . . . . . . . . . . . . . . . . . . 13.2.1 Inverser Funktionssatz und Argumenttausch . . . . . 13.2.2 Kettenregel und Multiplikationssatz . . . . . . . . . 13.3 Taylor’sche Formel . . . . . . . . . . . . . . . . . . . . . . Literatur . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .

267 . 267 . 267 . 268 . 268 . 269 . 269 . 270 . 270 . 270 . 271 . 272 . 275

14 Krummlinige Koordinatensysteme 14.1 Einführung krummliniger Koordinaten . . . . . . 14.2 Definition des Koordinatensystems . . . . . . . . 14.3 Grundgrößen der Koordinatensysteme . . . . . . 14.3.1 Ortsvektor und kovariante Grundvektoren 14.3.2 Wegelement als kontravarianter Vektor . . 14.3.3 Differentielles Abstandsquadrat . . . . . . 14.3.4 Wegelement in einer Koordinatenfläche . . 14.3.5 Reziproke, kontravariante Basisvektoren . 14.3.6 Beziehungen der Funktionalmatrizen . . . 14.3.7 Darstellung der Basisvektoren . . . . . . . 14.4 Metrik des Raumes . . . . . . . . . . . . . . . . .

. . . . . . . . . . .

. . . . . . . . . . .

. . . . . . . . . . .

. . . . . . . . . . .

. . . . . . . . . . .

. . . . . . . . . . .

. . . . . . . . . . .

276 276 277 279 279 281 281 283 284 285 286 287

XX

Inhaltsverzeichnis

14.4.1 Metrikkoeffizienten und Klassifizierung . . . . . 14.4.2 Metrikmatrizen und Metriktensor . . . . . . . . 14.4.3 Winkel zwischen Wegelementen . . . . . . . . . 14.5 Weitere Berechnungen . . . . . . . . . . . . . . . . . . 14.5.1 Spatprodukt . . . . . . . . . . . . . . . . . . . 14.5.2 Darstellung der kontravarianten Basisvektoren . 14.5.3 Flächen- und Volumenelemente . . . . . . . . . 14.5.4 Darstellung des Ortsvektors . . . . . . . . . . . 14.6 Beispiele krummliniger Koordinatensysteme . . . . . . 14.6.1 Wendelkoordinaten . . . . . . . . . . . . . . . . 14.6.2 Astroidkoordinaten . . . . . . . . . . . . . . . . Literatur . . . . . . . . . . . . . . . . . . . . . . . . . . . . .

. . . . . . . . . . . .

. . . . . . . . . . . .

. . . . . . . . . . . .

15 Transformation der Komponenten 15.1 Transformationen bei gleicher Basis . . . . . . . . . . . . . . 15.2 Transformationen bei Basiswechsel . . . . . . . . . . . . . . 15.2.1 Neues Koordinatensystem . . . . . . . . . . . . . . . 15.2.2 Umrechnung von Basisvektoren und Metrikmatrizen 15.2.3 Umrechnung von Vektor- und Tensorkomponenten . 15.2.4 Kontragrediente Transformation . . . . . . . . . . . 15.2.5 Gegenüberstellung der Transformationen . . . . . . . 15.3 Tabellen . . . . . . . . . . . . . . . . . . . . . . . . . . . . .

. . . . . . . . . . . .

287 287 289 290 290 291 291 293 295 295 296 300

301 . 301 . 302 . 302 . 303 . 304 . 305 . 306 . 307

16 Ableitung der Grundvektoren 309 16.1 Darstellung der Grundvektoren und ihrer Änderungen . . . . 309 16.2 Ableitung kovarianter Grundvektoren . . . . . . . . . . . . . . 311 16.2.1 Schreibweise für Ableitungen nach Koordinaten . . . . 311 16.2.2 Durchführung der Ableitung . . . . . . . . . . . . . . . 311 16.3 Zerlegung der Ableitungen . . . . . . . . . . . . . . . . . . . . 313 16.3.1 Ableitung der kovarianten Grundvektoren . . . . . . . 313 16.3.2 Geometrische Bedeutung der Christoffel-Symbole . 314 16.3.3 Ableitung der kontravarianten Basisvektoren . . . . . 314 16.3.4 Ableitung der Metrikmatrizen . . . . . . . . . . . . . . 315 16.3.5 Totales Differential der Basisvektoren . . . . . . . . . 316 16.3.6 Charakter der Grundvektoren und ihrer Ableitungen . 317 16.4 Christoffel-Symbole und ihre Matrizen . . . . . . . . . . . 318 16.4.1 Darstellung und Symmetrie der Christoffel-Symbole318 16.4.2 Christoffel-Matrizen und H-Matrix . . . . . . . . . 319

XXI

Inhaltsverzeichnis

16.4.3 L-Symbole und L-Matrix . . . . . . . . . . . . . . . 16.4.4 Berechnung der Christoffel-Symbole . . . . . . 16.5 Spezielle Koordinatensysteme . . . . . . . . . . . . . . . . 16.5.1 Christoffel-Symbole in geradlinigen Systemen . 16.5.2 Christoffel-Symbole in ebenen Systemen . . . . 16.5.3 Christoffel-Symbole in orthogonalen Systemen . 16.6 Christoffel-Symbole bei Basiswechsel . . . . . . . . . . 16.7 Beispiele für Christoffel-Symbole . . . . . . . . . . . . 16.7.1 Christoffel-Symbole und Ableitungen . . . . . . 16.7.2 Wendelkoordinaten . . . . . . . . . . . . . . . . . . 16.7.3 Astroidkoordinaten . . . . . . . . . . . . . . . . . . Literatur . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .

. . . . . . . . . . . .

. . . . . . . . . . . .

320 321 322 322 323 323 325 327 327 327 328 330

17 Differentialoperationen 331 17.1 Gradient skalarer Ortsfunktionen . . . . . . . . . . . . . . . . 332 17.1.1 Totales Differential als Skalarprodukt . . . . . . . . . . 332 17.1.2 Gradient und Nabla als kovariante Vektoren . . . . . . 332 17.1.3 Deutung des Gradienten, Niveauflächen und Feldlinien 334 17.1.4 Deutung der kontravarianten Basisvektoren . . . . . . 336 17.1.5 Skalare Ortsfunktion bei Basiswechsel . . . . . . . . . 337 17.2 Ableitung von Vektoren und Tensoren . . . . . . . . . . . . . 339 17.2.1 Partielle Ableitung der Vektorkomponenten . . . . . . 339 17.2.2 Partielle Ableitung von Vektoren, Vektorableitung . . 339 17.2.3 Kovariante Ableitung von Vektoren . . . . . . . . . . . 340 17.2.4 Transformation der kovarianten Ableitungen . . . . . . 342 17.2.5 Kovarianzmatrizen . . . . . . . . . . . . . . . . . . . . 343 17.2.6 Totales Differential und absolute Differentiale . . . . . 344 17.2.7 Zweite Vektorableitung . . . . . . . . . . . . . . . . . . 346 17.2.8 Kovariante Ableitung von Tensoren, Tensorableitung . 347 17.2.9 Ableitung des Metriktensors, Lemma von Ricci . . . . 349 17.2.10 Kovariante Ableitung bei Basiswechsel . . . . . . . . . 350 17.2.11 Überblick über die Ableitungen . . . . . . . . . . . . . 350 17.3 Produkte mit Nabla-Vektor . . . . . . . . . . . . . . . . . . . 352 17.3.1 Zielsetzung . . . . . . . . . . . . . . . . . . . . . . . . 352 17.3.2 Vektorgradient, Tensor der kovarianten Ableitungen . 353 17.3.3 Vektorgradient der Basisvektoren . . . . . . . . . . . . 355 17.3.4 Gradient von Tensoren` 2. Stufe,˘Tensorgradient . . . . 356 17.3.5 Der skalare Operator a ¨ grad . . . . . . . . . . . . 358

XXII

Inhaltsverzeichnis

17.3.6 Gradientenbildung und Richtungsableitung . . 17.3.7 Divergenz von Vektoren . . . . . . . . . . . . . 17.3.8 Divergenz von Tensoren 2. Stufe . . . . . . . . . 17.3.9 Differentialoperationen des Metriktensors . . . 17.3.10 Rotation von Vektoren . . . . . . . . . . . . . . 17.4 Zusammengesetzte Argumente . . . . . . . . . . . . . . 17.4.1 Gradient von Produkten . . . . . . . . . . . . . 17.4.2 Divergenz von Produkten . . . . . . . . . . . . 17.4.3 Rotation von Produkten . . . . . . . . . . . . . 17.5 Mehrfachprodukte mit Nabla-Vektor . . . . . . . . . . 17.5.1 Zweistufiger Ableitungstensor . . . . . . . . . . 17.5.2 Identisch verschwindende Produkte . . . . . . . 17.5.3 Laplace-Operator . . . . . . . . . . . . . . . . 17.5.4 Vektor-Laplace-Operator . . . . . . . . . . . . 17.6 Helmholtz-Theorem . . . . . . . . . . . . . . . . . . 17.7 Beziehungen für den Abstandsvektor . . . . . . . . . . 17.7.1 Bedeutung des Abstandsvektors . . . . . . . . . 17.7.2 Ableitungen nach verschiedenen Koordinaten . 17.7.3 Reihenentwicklung des reziproken Abstands . . 17.7.4 Differentialoperationen für den Abstandsvektor 17.8 Beispiele für Basisvektoren . . . . . . . . . . . . . . . . 17.8.1 Zylinderkoordinaten im ebenen Bild . . . . . . 17.8.2 Astroidkoordinaten im ebenen Bild . . . . . . . 17.9 Tabellen . . . . . . . . . . . . . . . . . . . . . . . . . . Literatur . . . . . . . . . . . . . . . . . . . . . . . . . . . . .

. . . . . . . . . . . . . . . . . . . . . . . . .

. . . . . . . . . . . . . . . . . . . . . . . . .

. . . . . . . . . . . . . . . . . . . . . . . . .

. . . . . . . . . . . . . . . . . . . . . . . . .

359 360 362 364 364 367 367 368 368 369 369 369 370 371 372 374 374 375 376 378 381 381 382 383 386

18 Orthogonale Koordinatensysteme 388 18.1 Krummlinige orthogonale Koordinaten . . . . . . . . . . . . . 388 18.1.1 Bedeutung . . . . . . . . . . . . . . . . . . . . . . . . . 388 18.1.2 Grundlegende Eigenschaften . . . . . . . . . . . . . . . 389 18.1.3 Metrische Faktoren und Wegelement, Flächen- und Volumenelemente . . . . . . . . . . . . . 391 18.1.4 Einheitsvektoren und ihre Umrechnung . . . . . . . . . 392 18.1.5 Prüfung auf Rechtssystem . . . . . . . . . . . . . . . . 393 18.2 Ableitung der Einheitsvektoren . . . . . . . . . . . . . . . . . 393 18.2.1 Christoffel-Symbole in orthogonalen Systemen . . . 393 18.2.2 Durchführung der Ableitung und zugehörige Matrizen 396 18.3 Vektor- und Tensorkomponenten . . . . . . . . . . . . . . . . 399

XXIII

Inhaltsverzeichnis

18.3.1 Darstellung physikalischer Komponenten . . . . . . 18.3.2 Ableitung der Komponenten . . . . . . . . . . . . . 18.3.3 Vektor- und Tensorableitung . . . . . . . . . . . . 18.4 Differentialoperationen . . . . . . . . . . . . . . . . . . . . 18.4.1 Basisvektoren und Maßstäbe . . . . . . . . . . . . 18.4.2 Gradient in orthogonalen Koordinaten . . . . . . . 18.4.3 Divergenz in orthogonalen Koordinaten . . . . . . 18.4.4 Rotation in orthogonalen Koordinaten . . . . . . . 18.4.5 Laplace-Operator in orthogonalen Koordinaten . 18.5 Beispiele von Koordinatensystemen . . . . . . . . . . . . . 18.5.1 Kartesische Koordinaten . . . . . . . . . . . . . . . 18.5.2 Zylinderkoordinaten . . . . . . . . . . . . . . . . . 18.5.3 Kugelkoordinaten . . . . . . . . . . . . . . . . . . . 18.5.4 Gegenseitige Darstellung der Koordinatensysteme . 18.5.5 Koordinaten des abgeplatteten Rotationsellipsoids Literatur . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .

. . . . . . . . . . . . . . . .

19 Integralsätze und zeitabhängige Felder 19.1 Grundlegende Integralsätze . . . . . . . . . . . . . . . . . . 19.1.1 Fluss von Feldern und Gauß’scher Satz . . . . . . . 19.1.2 Zirkulation eines Feldes und Stokes’scher Satz . . . 19.1.3 Anschauliche Darstellung von Quellen und Wirbeln . 19.2 Abgeleitete Integralsätze . . . . . . . . . . . . . . . . . . . . 19.2.1 Sonderfälle des Gauß’schen Satzes . . . . . . . . . . 19.2.2 Divergenz-Theorem für Tensoren 2. Stufe . . . . . . . 19.2.3 Sonderfälle des Stokes’schen Satzes . . . . . . . . . 19.2.4 Stokes-Theorem für Tensoren 2. Stufe . . . . . . . . 19.2.5 Green’sche Sätze für Skalarfelder . . . . . . . . . . 19.2.6 Stratton’sche Sätze für Vektorfelder . . . . . . . . 19.3 Zeitableitung von Feldgrößen . . . . . . . . . . . . . . . . . 19.3.1 Totale Ableitung einer Skalarfunktion nach der Zeit . 19.3.2 Totale Ableitung einer Vektorfunktion nach der Zeit 19.3.3 Euler’sche Differentiationsregel . . . . . . . . . . . 19.4 Zeitliche Ableitung von Integralen . . . . . . . . . . . . . . 19.4.1 Aufgabenstellung . . . . . . . . . . . . . . . . . . . . 19.4.2 Volumenintegral einer skalaren Funktion . . . . . . . 19.4.3 Flächenintegral einer vektoriellen Funktion . . . . . 19.4.4 Konturintegral einer vektoriellen Funktion . . . . . .

. . . . . . . . . . . . . . . .

399 401 401 402 402 403 403 404 405 407 407 411 414 416 417 423

424 . 424 . 424 . 426 . 428 . 430 . 430 . 431 . 432 . 433 . 434 . 435 . 436 . 436 . 437 . 437 . 438 . 438 . 440 . 441 . 443

XXIV

Inhaltsverzeichnis

Literatur . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 446 Abbildungsverzeichnis

447

Tabellenverzeichnis

449

Personenverzeichnis

450

Personenbezogene Begriffe

451

Gesamtverzeichnis der Bücher

453

Sachverzeichnis

473

Teil I

Grundlagen

1

Kapitel 1

Einführung Die physikalische Beschreibung der Natur und der darin auftretenden Phänomene erfordert für konkrete, quantitative Aussagen die Mathematik und ihre Begriffsbildungen, wenn man über eine rein deskriptive oder qualitative Darstellung hinauskommen will. Diese Erkenntnis wurde bereits vor vierhundert Jahren von Galileo Galilei sinngemäß ausgesprochen, denn das „große Buch der Natur ist in der Sprache der Mathematik und Geometrie geschrieben“, (Il Saggiatore, 1623). Das Thema des zweibändigen Gesamtwerkes ist die Tensorrechnung als ein Gebiet der angewandten Mathematik, das die Vektorrechnung umfasst und verallgemeinert und in großen Teilen der Physik unverzichtbar ist für Darstellung und Beschreibung der beobachtbaren Phänomene. Wenn in diesem Buch von Tensorrechnung oder Tensorkalkül die Rede ist, wird immer auch implizit die „normale“ Vektorrechnung als spezieller Fall darunter verstanden und eingeschlossen, die den natürlichen Ausgangspunkt der Untersuchungen bildet. Tensoren sind als höherrangige Größen zur Beschreibung einer Reihe physikalischer Phänomene erforderlich, bei denen eine skalare oder vektorielle Darstellung weder angemessen noch ausreichend ist, wie bei der Abbildung von Vektoren durch Operatoren, bei Spannungszuständen in verformbaren Materialien oder anisotropen Eigenschaften der Materie. Die hier vorgelegte Behandlung der Tensorrechnung unterscheidet grundsätzlich in Darstellung und Schreibweise zwischen Vektoren und Tensoren als invarianten physikalischen Größen selbst sowie ihrer Zerlegung in Komponenten in Koordinatensystemen. Als Alternative zur bisherigen in der 3 © Springer Fachmedien Wiesbaden GmbH, ein Teil von Springer Nature 2019 W. Werner, Vektoren und Tensoren als universelle Sprache in Physik und Technik 1, https://doi.org/10.1007/978-3-658-25272-4_1

4

1 Einführung

Literatur weit verbreiteten Indexschreibweise werden zur Darstellung der Komponenten von Vektoren und Tensoren Matrizen verwendet, mit denen alle Transformationen von Koordinaten, Komponenten und Basisvektoren einfach beschrieben werden können und die bei den vielfach auftretenden Transformationen einen klaren Überblick gewährleisten. Das vorliegende Werk richtet sich an zwei Gruppen von Lesern. Die eine Zielgruppe sind Studenten höherer Semester aus Physik und Ingenieurwissenschaften, denen beide Bücher neben den Vorlesungen begleitend zur Verfügung stehen sollen. Die andere Zielgruppe stellen Ingenieure und Naturwissenschaftler dar, die in ihrer beruflichen Praxis die tensorielle Verallgemeinerung physikalischer Größen, ihre mathematische Behandlung sowie deren Anwendung und Auftreten benötigen oder kennenlernen wollen. Verschiedene mathematische Themenbereiche werden entweder als bekannt vorausgesetzt wie Analysis mit Differential- und Integralrechnung oder werden wie bei der Matrizenrechnung im Sinne einer kurz gehaltenen Einführung nur gestreift und durch bestimmte Beziehungen ergänzt, wobei strenge Beweisführungen und manche Ableitungen unterbleiben, die man entsprechenden Lehrbüchern entnehmen kann. Der Leser wird bei allen Kapiteln selbst entscheiden, was er schon kennt und überspringen kann, ob er Neues findet oder etwas wiederholen will! An vielen Stellen, im Abschnitt 2.3 und speziell im zweiten Band, werden die Einheiten der auftretenden physikalischen Größen angegeben, einerseits um Verständnis und Interpretation der Gleichungen zu unterstützen, andererseits um bei Bedarf eine Dimensionskontrolle durchzuführen. Bis auf wenige Ausnahmen werden alle physikalischen Größen im Internationalen Einheitensystem SI (Système international d’unités) angegeben, das in den 1960er Jahren verabschiedet wurde und seither in Wissenschaft, Technik und Wirtschaft als verbindlich anzusehen ist. Ab Mai 2019 tritt eine neue Definition in Kraft, um alle sieben SI-Basiseinheiten auf fundamentale physikalische Konstanten (Naturkonstanten) zurückzuführen, wodurch vorhandene Abhängigkeiten von veränderlichen Größen beendet werden, [16]. Dennoch gibt es in Teilgebieten der Physik einzelne aus historischen oder praktischen Gründen beibehaltene nichtkompatible Einheiten, auf die speziell hingewiesen wird. Auch neuere Bücher verwenden mitunter eine Darstellung im veralteten cgs-System, in dem z.B. die Maxwell’schen Gleichungen in anderer Gestalt erscheinen. Dagegen hat Arnold Sommerfeld

5

als einer der berühmten theoretischen Physiker bereits 1948 in seinem Lehrbuch Elektrodynamik, [11, 40f.], das rationelle System und seinen Vorzug klar begründet und verwendet, das später zum SI-System weiterentwickelt wurde. Eine besondere Stellung nimmt das hier aus prinzipiellen Gründen nicht verwendete natürliche Einheitensystem ein, das in der Relativitätstheorie mit der Absicht eingeführt wurde, um Beziehungen einfacher oder einheitlicher zu gestalten. Dabei wird die Lichtgeschwindigkeit c auf Eins normiert, wodurch Dimensionskontrollen von Gleichungen unmöglich werden und die physikalische Realität zu einem Zweig der Mathematik mit reiner Strukturuntersuchung wird! Bei der Behandlung der einzelnen Themengebiete steht zweifellos die mathematische Darstellung im Vordergrund, die zur exakten Beschreibung notwendig und unverzichtbar ist. Für den Leser bedeutet es, dass die Erkenntnis beim Weg durch die einzelnen Kapitel mit Ausdauer und manchmal auch mit Anstrengung erreicht werden kann. Um den Fließtext zu strukturieren und Textstellen leichter auffindbar zu machen, erscheinen wichtige Begriffe, die auch im Sachverzeichnis aufgeführt sind, sowie bedeutsame Aussagen in Fettdruck und in speziellen Fällen auch in kursiver Schrift. Viele Formeln, die einen gewissen Abschluss eines Gedankenganges bilden und Zwischenziele oder Endergebnisse darstellen, sind mit Rahmen versehen. Das dient der Strukturierung des Rechenganges und der größeren Übersicht beim Auffinden von Ergebnissen sowie der Nummerierung von Gleichungen für spätere Verweise. In aller Regel sind die zahlreichen Verweise rückwärtsgerichtet, wodurch der aufbauende Charakter der Darlegungen und Entwicklungen betont wird. Nur in sehr wenigen, aber manchmal unvermeidbaren Fällen wird dagegen auf ein erst später erscheinendes Ergebnis verwiesen, das zwar benötigt wird, aber aus bestimmten Gründen im aktuellen Zusammenhang nicht dargelegt werden kann. Als Themenbereiche werden im vorliegenden ersten Band des Gesamtwerkes Algebra und Analysis von Vektoren und Tensoren als eigenständige Fachdisziplinen behandelt. Daran schließen sich Darstellungen der Differentialoperationen und Integralsätze an, die speziell im Hinblick auf die Beschreibung physikalischer Zusammenhänge im zweiten Band entwickelt werden.

6

1 Einführung

Die Tensorrechnung, auch Tensorkalkül genannt, geht nach Vorarbeiten von Gauss, Riemann und anderen auf dem Gebiet der Differentialgeometrie auf die Untersuchungen der beiden italienischen Mathematiker Gregorio Ricci-Curbastro (1853 -1925) und Tullio Levi-Civita (1873 1941) um das Jahr 1900 zurück, die deshalb zunächst als Ricci-Kalkül bezeichnet wurde. Verallgemeinernd lassen sich alle physikalischen Größen, also auch Skalare und Vektoren, als Tensoren unterschiedlicher Stufen ansehen und der axiale Vektor des Kreuzproduktes kann als spezieller Tensor gedeutet werden. Dem Tensorkalkül eigentümlich und eine wesentliche Art der Darstellung ist die gleichzeitige Verwendung von zwei Bezugssystemen, die einen speziellen, reziproken Zusammenhang besitzen. Man nennt sie die ko- und kontravarianten Koordinaten-, Grund- oder Basissysteme, in denen Tensoren entsprechende ko- und kontravariante, sowie gemischte Komponenten besitzen. Durch die gemeinsame Verwendung beider Basissysteme und der zugehörigen Komponenten lassen sich viele Beziehungen einfach und übersichtlich formulieren. Zweck und Namensgebung der Systeme werden in ihrer Bedeutung während der Entwicklung des Tensorkalküls, das die Vektorrechnung als Sonderfall umfasst, verständlich. Charakteristisch und ein wesentlicher Bestandteil des Tensorkalküls sind die verschiedenen Komponentendarstellungen und ihre Umrechnung bei Basiswechsel mit zugehöriger Indizierung und Vielfachsummationen je nach Stufenzahl der Tensoren, die die Formelnotierung aufwendig machen. Albert Einstein, dessen Allgemeine Relativitätstheorie auf dem Ricci-Kalkül beruhte, führte deshalb eine Summationskonvention ein, durch die das Notieren der Summenzeichen unterdrückt wird, um von Schreibarbeit zu entlasten. Nach seiner eigenen Aussage sei das seine größte Erfindung in der Mathematik gewesen! Diese Art der abgekürzten Schreibweise findet man nahezu durchgängig in der gesamten Tensorliteratur, wodurch die Lesbarkeit vieler Beziehungen und speziell der Transformationsrelationen mit unterer und oberer Mehrfachindizierung der verschiedenen Komponenten bei Wechsel der Koordinatensysteme erleichtert werden soll, dem Autor dagegen als unübersichtlich und schwer verständlich erscheint. Darstellung und Kritik der Summationskonvention werden im Abschnitt 10.4 noch näher betrachtet. Ein neueres Buch zur Allgemeinen Relativitätstheorie, [7], die im zweiten Band behandelt wird und deren Feldgleichungen nur mit Tensoren darge-

7

stellt werden können, verzichtet kommentarlos auf die Summationskonvention. Dieses hervorragende und gut verständliche Buch der Open University richtet sich speziell an Studenten im Fern- oder Selbststudium und das Autorenteam erachtete es offenbar als pädagogisch und didaktisch sinnvoller, alle Summen ausführlich darzustellen, um dadurch den Überblick über die vielfach auftretenden Indizes und ihre Laufweite zu wahren. Durch die Verwendungung von Matrizen können Vektor- und Tensorkomponenten und ihre Umrechnungen bei Basiswechsel sehr klar, übersichtlich und leicht verständlich dargestellt werden, weil man sofort erkennt, wo Transformationsmatrizen in transponierter oder inverser Form auftreten oder sich in Produkten ggf. zur Einheitsmatrix kompensieren. Die Ergebnisse der zahlreichen Umrechnungen von Basisvektoren und Komponenten sind zusätzlich in einer Reihe von Tabellen mit den entsprechenden Matrixrelationen zusammengefasst, die als eine Art Formelsammlung anzusehen sind. Matrizen, Zeilen- und Spaltenvektoren werden durch eine bestimmte Indizierung formalisiert, wobei ein spezielles Symbol p#q als unterer oder oberer Laufindex zur Kennzeichnung von ko- und kontravarianten Elementen verwendet wird. Die durchgängige Matrixschreibweise stellt einen erheblichen Vorteil gegenüber der üblichen, aber oft schwer zu überblickenden Indexschreibweise dar. Das gilt speziell bei den für die Tensorrechnung wesentlichen Transformationseigenschaften bei Basiswechsel, wodurch dieser Kalkül gewöhnlich als schwierig gilt und von vielen Ingenieuren und Naturwissenschaftlern nicht beherrscht wird. In der vorliegenden Darstellung der Tensorrechnung mit Matrizen ist die Summationskonvention nicht erforderlich, da ja die Produktbildung der Matrizenrechnung die Summation als wesentliche Eigenschaft implizit enthält! Drei Bücher, die in technisch-wissenschaftlicher Anwendung mit besonderer Zielsetzung Matrizen verwenden, sollen erwähnt werden, [2], [8], [14]. Eine Darstellung des Tensorkalküls mit Matrizen scheint in der Literatur bisher nicht zu existieren. Das ist umso erstaunlicher, da ja die koordinatengebundene Komponentendarstellung bei der Lösung konkreter Aufgaben der Tensorrechnung fast immer in Matrizenform erfolgt, [4] ! Die Matrixdarstellung ist für Vektoren und Tensoren 2. Stufe völlig problemlos anwendbar und auch bei Tensoren 3. und 4. Stufe durch Erweiterung der Matrixmultiplikation relativ einfach möglich. Bei höherstufigen Tensoren kann man entweder weitere spezielle Matrixmultiplikationen defi-

8

1 Einführung

nieren oder zu der in der Literatur verbreiteten Indexschreibweise zurückkehren. Allerdings kommen in den technischen Anwendungen hauptsächlich zweistufige Tensoren und ein besonderer dreistufiger ε -Tensor vor, so dass die Vorteile der Matrixschreibweise überwiegen. Im zweiten Band tritt der vierstufige Riemann’sche Krümmungstensor in Differentialgeometrie und Relativitätstheorie auf, der eine wichtige Rolle für die nichteuklidische Geometrie spielt. Bei seiner Darstellung wird teilweise zu einer Indexschreibweise zurückgekehrt, da oft nur einzelne Elemente betrachtet werden. Alle Themenbereiche sind detailliert im Inhaltsverzeichis aufgeführt, so dass man ein gesuchtes Sachgebiet leicht und einfach auffinden kann. Am Ende des Bandes schließen sich Verzeichnisse an, in denen alle Abbildungen, Tabellen, Personen und personenbezogene Begriffe aufgeführt sind. Um einen speziellen Begriff zu finden, sind im Sachverzeichnis die Stichwörter weitgehend in Kategorien zusammengefasst, was durch die Bestimmungssubstantive unserer Sprache in einfacher Weise ermöglicht wird. Viele Begriffe erscheinen auch mehrfach oder können an Hand von Verweisen unter anderen Stichwörtern aufgefunden werden. An jedem Kapitelende ist jeweils die zitierte Literatur alphabetisch aufgeführt und am Ende beider Bände werden im Gesamtverzeichnis der Bücher alle zitierten Fach- und Sachbücher sowie einige weitere nach den verschiedenen Themengebieten von Mathematik und Physik jeweils alphabetisch geordnet angegeben, in denen der Leser weitere oder ausführlichere Aspekte der behandelten Sachgebiete finden kann. Neben neueren werden auch viele ältere Bücher zitiert, die den Autor in den Jahren seiner Berufskarriere begleitet haben. Darunter finden sich wahre Klassiker, die seit ihrem Erscheinen nichts an Aktualität eingebüßt haben und die mitunter auch bearbeitete Neuauflagen erlebten. Als Leitfaden für Vektor- und Tensorrechnung wurden besonders die Bücher von Kästner, [3], neben Klingbeil, [5], Simmonds, [10], Synge/Schild, [12], Teichmann, [13], und Wrede, [15], sowie das klassische Werk von Lagally/Franz, [6], herangezogen. Weitergehende Anwendungen, speziell für den zweiten Band, findet man in Raschewski, [9]. Die historische Entwicklung der Vektorrechnung ist ausführlich in Crowe, [1], dargestellt.

Literatur [1] Crowe, M. J.: A History of Vectoranalysis Dover Publications, New York (1994) [2] Goldberg, J. L., Schwartz, A. J.: Systems of Ordinary Differential Equations Harper & Row, Publishers, New York etc. (1972) [3] Kästner, S.: Vektoren, Tensoren, Spinoren Akademie-Verlag, Berlin (1960) [4] Kay, D. C.: Tensor Calculus Schaum’s Outline Series, McGraw-Hill Book Company (2011) [5] Klingbeil, E.: Tensorrechnung für Ingenieure Bibliographisches Institut, Mannheim (1966) [6] Lagally, M. I., Franz,W.: Vorlesungen über Vektorrechnung Akademische Verlagsgesellschaft Geest & Portig, Leipzig (1959) [7] Lambourne, R. J. A.: Relativity, Gravitation and Cosmology Cambridge University Press, Cambridge (2010) [8] Promberger, M.: Anwendung von Matrizen und Tensoren in der theoretischen Elektro9

10

Literatur

technik Akademie-Verlag, Berlin (1960) [9] Raschewski, P. K.: Riemannsche Geometrie und Tensoranalysis Verlag Harri Deutsch, Thun und Frankfurt/Main, 2. Aufl. (1995) [10] Simmonds, J. G.: A Brief on Tensor Analysis Springer Verlag, New York, Berlin, Heidelberg, 2. Aufl. (1994) [11] Sommerfeld, A.: Vorlesungen über theoretische Physik III, Elektrodynamik Akademische Verlagsgesellschaft Geest & Portig, 4. Aufl. (1964) [12] Synge, J. L., Schild, A.: Tensor Calculus University of Toronto Press, Toronto (1949) [13] Teichmann, H.: Physikalische Anwendungen der Vektor- und Tensorrechnung Bibliographisches Institut, Mannheim (1973) [14] Tropper, A. M.: Matrizenrechnung in der Elektrotechnik Bibliographisches Institut, Mannheim (1962) [15] Wrede, R. C.: Introduction to Vector- and Tensor Analysis Dover Publications, New York (1972) [16] Maßstäbe Physikalisch-Technische Bundesanstalt Heft 14, Nov. 2018

Kapitel 2

Verzeichnis der verwendeten Symbole 2.1

Allgemeine Bemerkungen zur Schreibweise

Eine strenge Gedankenführung des behandelten Themas wird gestützt durch klare und eindeutige Schreibweise und Notation aller auftretenden Größen, die damit eine Hilfe beim Verständnis der Zusammenhänge begründet. Besondere Schreibweisen sind unter diesem Stichwort auch im Sachverzeichnis aufgeführt. Quadratische Matrizen erscheinen mit Großbuchstaben, Zeilen- und Spaltenvektoren als eindimensionale Matrizen mit kleinen Buchstaben. Alle Matrizen mit skalaren Elementen erhalten einfache, mit Vektorelementen doppelte Unterstreichung. Zusätzlich zum üblichen Gebrauch einer allgemeinen Indizierung von Komponenten und anderen Größen mit Buchstaben wie i, j, k, μ, ν, . . . wird als formaler Laufindex oder als Laufsymbol das Sonderzeichen # (Doppelkreuz bzw. Raute, engl. number sign oder crosshatch) oder seltener das Zeichen 7 (Kreuz der Notenschrift, engl. sharp) verwendet, was im typographischen Bild klarer als Platzhalter bzw. Laufindex erkennbar ist. Beide Zeichen dienen durch ihre Stellung als untere oder obere Indizes der Unterscheidung von ko- und kontravarianten Vektor- und Tensorkomponenten. Das Zeichen # wird in Kapitel 6 eingeführt, taucht aber bereits in den Kapiteln 3 und 5 auf, das Zeichen 7 erst im Kapitel Flächentheorie des zweiten Bandes. 11 © Springer Fachmedien Wiesbaden GmbH, ein Teil von Springer Nature 2019 W. Werner, Vektoren und Tensoren als universelle Sprache in Physik und Technik 1, https://doi.org/10.1007/978-3-658-25272-4_2

12

2 Verzeichnis der verwendeten Symbole

Zur klaren Unterscheidung von kontravarianten, oberen Indizes und numerischen Potenzen werden im zweiten Fall die Größen in Klammern gesetzt. Für die verschiedenen Größen werden zugeordnete Schrifttypen verwendet, die im einzelnen folgendermaßen dargestellt werden. ‚ skalare Größen in kursiver Antiqua

r x, V s

‚ dreidimensionale Vektoren in fetter, kursiver Antiqua

r a, A s

‚ dreidimensionale griechische Vektoren mit Pfeil

 ω s r β,

‚ Einheits- und Basisvektoren in fetter, kleiner Antiqua

r e, g s

‚ Matrizen in fetter großer Antiqua mit Unterstreichung

r A, V s

‚ Zeilen- und Spaltenvektoren in fetter, kleiner Antiqua

r a, dx, g s

‚ Operatoren und Tensoren in großer Schreibschrift

rT , G s

‚ Vierervektoren in fetter, serifenloser Steilschrift

r R, A s

‚ Spaltenmatrizen von Vierervektoren mit Unterstreichung

r f, J s

ˆs ‚ Matrizen von Vierereinheitsvektoren mit Unterstreichung r e, e Für die Verknüpfung von Produkten wird folgende Schreibweise verwendet. ‚ ohne Zeichen bei skalaren Größen, Skalarfaktoren, Matrizen und tensoriellen Produkten ‚ mit Punkt bei Skalarprodukten von Vektoren und Tensoren, ‚ mit Kreuz bei Vektor- oder Kreuzprodukten Die folgenden Listen der verschiedenen Größen werden nur hier im ersten Band aufgeführt. Sie gelten aber ebenso für den zweiten Band, in dem die meisten der physikalischen Größen vorkommen. Die Größen in den einzelnen Kategorien sind nicht alphabetisch sondern weitgehend nach ihrem Auftreten in den verschiedenen Kapiteln aufgeführt. Da die Anzahl der Symbole pro Kategorie überschaubar ist, kann man sicher ein gesuchtes Symbol leicht finden.

2.2 Mathematische Größen

13

Bei den physikalischen Größen sind zusätzlich die Einheiten angegeben, so dass eine schnelle Dimensionskontrolle in allen auftretenden Gleichungen der Anwendungen möglich ist. Gelegentlich lässt sich die Doppelverwendung von Symbolen nicht vermeiden, doch ist die Gefahr der Verwechslung kaum gegeben, da ein Zweitgebrauch entweder nur lokale Bedeutung hat oder in einem völlig anderen Sachzusammenhang auftritt oder auch durch ein bestimmtes Ornament unterschieden wird. Die Bezeichnungen Vektor und im zweiten Band auch Vierervektor beziehen sich stets auf physikalische Größen. Sie sind zu unterscheiden von eindimensionalen Matrizen, die Spalten- oder Zeilenvektoren heißen und die eine Zusammenfassung beliebiger Elemente sein können. Insbesondere kann ein Spaltenvektor als formale Matrix aus Vektoren und dabei häufig aus Basisvektoren von Koordinatensystemen zusammengesetzt sein!

2.2

Mathematische Größen

Spezielle Zeichen d

Platzhalter für ein Zeichen

#, 7 ˆ d

formale Indexkennzeichen

d#

kovariante Größen mit unterer Indizierung

d#

kontravariante Größen mit oberer Indizierung

b

Platzhalter für Matrizen mit Skalarelementen

b

Platzhalter für Matrizen mit Vektorelementen

b ## , b #¨ #

Tensormatrix (vorderer Index “ ˆ Zeile, hinterer Index “ ˆ Spalte)

|| , Ò

Zeichen für Parallelität

Ö

Zeichen für Antiparallelität

K

Zeichen für Orthogonalität



Indexzeichen für Wechselgröße

d

Indexzeichen für Sonne

Δ

Zuwachs von Variablen und Funktionen

Dachkennzeichnung für Größen im neuen Bezugssystem

14

2 Verzeichnis der verwendeten Symbole

x..y

zeitlicher oder örtlicher Mittelwert



Nabla-Operator

Δ

Laplace-Operator (Delta)

l

D’Alembert-Operator (Quad)

l

Tessera-Operator (Tess)

x..y

Platzhalter für Ableitungsgröße

B x..y{Bu

partielle Ableitung nach der Koordinate u

“ x..y,  “ B x..y “ ∇ x..y ˇ kovariante Ableitung nach der -ten Koordinate x..y ˇ 

Skalare Größen 

häufiger Index bei Ableitungen

x, y, z, x ¯k

kartesische Komponenten des Ortsvektors

ˆ ¯k , a ¯k ax, y, z , a

kartesische Vektorkomponenten

ak , a k

ko- und kontravariante Vektorkomponenten

Tik , T ik Ti

k,

T

i k

ko- und kontravariante Tensorkomponenten gemischte Tensorkomponenten

det A

Determinante der Matrix A

som A

Summe der Minoren (sum of minors) der Matrix A

sp A

Spur der Matrix A

gik ,

g ik

g “ det G # S# ,

S#

ko- und kontravariante Metrikkoeffizienten kovariante Determinante der Metrikmatrix G# Spatprodukte der reziproken Basisvektoren

δik , δ ik , δik

Kronecker-Symbole

εijk , εijk

Komponenten des ε-Tensors, Levi-Civita-Symbole

Γikj

Christoffel-Symbol

Lij k

L-Symbol

2.2 Mathematische Größen

15

Vektoren ek , ˆ ek

kartesische Einheitsvektoren im alten und neuen System

e HA

Hauptachsen-Einheitsvektoren

gi , g k

ko- und kontravariante, reziproke Basisvektoren

ck

Einheitsvektoren in orthogonalen Koordinatensystemen

a, b, ...

physikalische Vektoren

r

dreidimensionaler Ortsvektor

dr

Wegelement, kontravarianter Vektor

a¨b

Skalarprodukt

aˆb

Vektor- oder Kreuzprodukt

x a, b, c y

Spatprodukt

ab

tensorielles Produkt

t, n, b

Einheitsvektoren bei Raumkurven

n3 , f

kontravarianter Einheitsvektor der Flächennormale

si ,

sk

reziproke Basisvektoren einer Fläche

Matrizen mit skalaren Elementen Spaltenvektor

a aT `

a i#

Zeilenvektor ˘T

i-ter Zeilenvektor der Matrix A

a #k

k-ter Spaltenvektor der Matrix A

a

kartesische Komponenten des Vektors a

x

kartesische Komponenten des Ortsvektors r

a# , a#

ko- und kontravariante Komponenten von a

E

Einheitsmatrix

ek

k-ter Spaltenvektor der Einheitsmatrix

ε

Spaltenvektor mit lauter Einsen

D, Δ

Diagonalmatrizen

A, B, ...

Transformationsmatrizen

16

2 Verzeichnis der verwendeten Symbole AT

transponierte Matrix

A´1

Kehrmatrix, inverse Matrix

pAT q´1

zu A kontragrediente Matrix

A adj ` ˘ G a #{ v #

adjungierte Matrix

G # , G#

ko- und kontravariante Metrikmatrizen

U, V

Matrizen der Transformation zwischen kartesischen und reziproken Basisvektoren

P, Q

Matrizen der Transformation zwischen verschiedenen reziproken Basisvektoren

x#

Spaltenvektor kartesischer Koordinaten

Gram’sche Matrix zweier Vektorsätze

u# , w # #

Spaltenvektoren krummliniger Koordinaten #

dx , du , dw ` ˘ F x# { u# ¨# Γ# 

#

Spaltenvektoren der Koordinatendifferentiale Funktionalmatrix, Jacobi-Matrix Matrix der Christoffel-Symbole

Γ ## p#q ˇ ˇ V# ˇ , V # ˇ #

Blockmatrix der Christoffel-Symbole #

Kovarianzmatrizen

B ##

Matrix der Flächentheorie

L, L 2, 3

Lorentz-Matrizen

Matrizen mit Vektorelementen Spaltenvektoren der Einheitsvektoren

e, ˆ e, c g , #

g#

Spaltenvektoren der ko- und kontravarianten Basisvektoren

ˆ# g ˆ , g

Basisvektoren bei Basiswechsel

s 7 , s7

ko- und kontravariante Basisvektoren einer Fläche

#

g

#, 

, g#

, #

Ableitungen der Basisvektoren nach der Koordinate u

Γ , Γ #, Γ alternierende Matrizen der Basisvektoren   T ## p#q ˝ g# erweiterte Matrixmultiplikation

2.2 Mathematische Größen

H ##

Matrix der kovarianten Basisvektorableitungen

C ##

Matrix der Einheitsvektorableitungen in orthogonalen Koordinatensystemen

Tensoren, Operatoren Dg

Diagonalisierungsoperator für Matrizen

T

Tensor 2. Stufe

Tppq

Tensor p-ter Stufe

E, G

Einheits-, Metrik- oder Fundamentaltensor

S

symmetrischer Tensor 2. Stufe

A Ă T

alternierender, antisymmetrischer Tensor 2. Stufe

D “ ab

Dyade, tensorielles Produkt zweier Vektoren

ε

vollständig antisymmetrischer Tensor 3. Stufe

δp6q

Kronecker-Tensor 6. Stufe

Grad v “ K

Vektorgradient, Tensor der kovarianten Ableitungen

R

Riemann-Christoffel’scher Krümmungstensor

transponierter Tensor

_

R

Ricci-Tensor

E

Einstein-Tensor

_

Tensormatrizen und Komponenten Matrix der kartesischen Tensorkomponenten

T

T ## , T ## p#q Matrizen der kovarianten Tensorkomponenten T ## , T ## p#q Matrizen der kontravarianten Tensorkomponenten ¨# , T# T# ¨#

Matrizen der gemischten Tensorkomponenten

S

symmetrische Tensormatrix

S HA

diagonale Tensormatrix im Hauptachsensystem alternierende Tensormatrix

A ε ### ,

ε ###

Komponenten des ε-Tensors 3. Stufe

17

18

2 Verzeichnis der verwendeten Symbole

Vektor und -Tensoralysis ∇

Nabla-Operator, symbolischer, kovarianter Vektor

∇ # x .. y

Komponenten des Nabla-Vektors

grad V “ ∇V

Gradient des Skalars V, kovarianter Vektor

∇ #V

kovariante Komponenten des Gradienten von V

Grad v

Gradient des Vektors v, Vektorgradient

div v “ ∇ ¨ v

Divergenz des Vektors v

rot v “ ∇ ˆ v

Rotation des Vektors v

ΔV “ ∇ ¨ ∇V

Laplace-Operator (Delta)

Δv “ v

Vektor-Laplace-Operator



D’Alembert-Operator (Quad)

Div A

Viererdivergenz des Vierervektors A

Rot A

Viererrotation des Vierervektors A

Räume R3

dreidimensionaler euklidischer Raum

Vn

n-dimensionaler Riemann’scher Raum

2.3

Physikalische Größen

Differentialgeometrische und kinematische Größen s

Bogenlänge

rms

κ

Krümmung

r 1{m s

K

Gauß’sche Krümmung

r 1{m s

ρ

Krümmungsradius

rms

t

Tangenteneinheitsvektor

r .{. s

n

(Haupt-) Normalenvektor

r .{. s

b

Binormalenvektor

r .{. s

r

dreidimensionaler Ortsvektor

rms

v “ r9

Geschwindigkeit auf einer Bahnkurve r m{s s

19

2.3 Physikalische Größen r m{s2 s

a “ v9 “ r:

Beschleunigung auf einer Bahnkurve

u “ dr{dt

Geschwindigkeitsvektor eines Punktes r m{s s

a “ du{dt

Beschleunigungsvektor eines Punktes

r m{s2 s

 ω

Rotationsvektor

r 1{s s

ω “ ϕ9

Winkelgeschwindigkeit

r 1{s s

Physikalische Skalare v

Volumen

r m3 s

m, m0

Masse, Ruhmasse

r kg “ Ns2 {m s

ρ

zylindrischer Achsenabstand

rms

ρ

Massendichte

r kg{m3 s

ρ

Raumladung

r As{m3 s

W “F ¨r

Arbeit, Energie

r Ws “ J “ Nm s

Ekin , Erot

kinetische und Rotationsenergie

r Nm “ kg m2 {s2 s

V

mechanisches Potential

r Nm s

Θ

Massenträgheitsmoment

r kg m2 s

σ, τ

Normalspannung, Schubspannung

r Pa “ N{m2 s

ε

Dehnung

r .{. s

E, G

Elastizitätsmodul, Schubmodul

r Pa “ N{m2 s

γ

Gleitwinkel

r ˝ , rad ]

ν

Querkontraktionszahl

r .{.s

Q, ρ

Ladung, Ladungsdichte

r As, As{m3 s

Ψe , Ψm

dielektrischer / magnetischer Fluss

r As ; Vs s

ε, ε0

Dielektrizitätskonstante

r As{Vm “ F{m s

μ, μ0

Permeabilitätskonstante

r Vs{Am “ H{m s

κ

Leitfähigkeit

? c “ 1{ μ0 ε0

r S{m “ A{pVmq s

Lichtgeschwindigkeit im Vakuum

r m{s s

˚ pV “ J ¨ E

Verlustleistungsdichte

r W{m3 s

w

Energiedichte

r Ws{m3 “ N{m2 s

V, ϕ

elektrisches Skalarpotential

rVs

20

2 Verzeichnis der verwendeten Symbole

φ

Gravitationspotential

r m2 {s2 s

W0

Ruheenergie

r Ws s

f

Frequenz

r Hz “ 1{s s

ω “ dϕ{dt

(Kreis-) Frequenz, Winkelgeschwindigkeit

r 1{s s

λ

Wellenlänge

rms

k “ 2π{λ

Wellenzahl

r 1{m s

β “ v{c

Geschwindigkeitsquotient (Relativitätstheorie)

r .{. s

γ

Lorentz-Faktor

r .{. s

τ, dτ

Eigenzeit und Eigenzeitelement

rss

μ, μ0

Massendichte (Relativitätstheorie)

r kg{m3 s



isotroper Druck

r Pa “ N{m2 s

κ

Einstein’sche Gravitationskonstante r 1{N s

Dreidimensionale physikalische Vektoren r

Ortsvektor

rms

u, v

Geschwindigkeit

r m{s s

a

Beschleunigung

r m{s2 “ N{kg s

a, da

Fläche, Flächenelement

r m2 s

F “ dp{dt

Kraft

r N “ kg m{s2 s

f “ dF {dv

Kraftdichte

r N{m3 s

s “ dF {da

mechanische Spannung

r Pa “ N{m2 s

p

Impuls

r Ns s

q

Impulsdichte

r Ns{m3 s

M “rˆF

Drehmoment

r Nm s

L“rˆp

Drehimpuls, Drall

r Ns m “ Ws2 s

E

elektrische Feldstärke

r V{m s

H

magnetische Feldstärke

r A{m s

D

dielektrische Verschiebung

r As{m2 s

21

2.3 Physikalische Größen

B

magnetische Induktion

r T “ Vs{m2 s

J

Stromdichte

r A{m2 s

S “EˆH

Poynting-Vektor

r W{m2 s

k

Wellenvektor

r 1{m s

A

magnetisches Vektorpotential

r Vs{m s

R

Vierer-Ortsvektor

rms

U “ dR{dτ

Vierergeschwindigkeit

r m{s s

A “ dU{dτ

Viererbeschleunigung

r m{s2 s

J

Viererstromdichte

r A{m2 s

Φ

Viererpotential

r Vs{m s

f

Viererkraftdichte

r N{m3 s

k

Vierer-Wellenvektor

r 1{m s

p “ mU

Viererimpuls

r Ns s

F “ dp{dτ

Minkowski-Kraft

rNs

Vierervektoren

Physikalische Tensoren Θ

Trägheitstensor

r kg m2 s

SSp

mechanischer Spannungstensor

r Pa “ N{m2 s

V

Verzerrungstensor

r .{. s

SDf

Deformationstensor

r .{. s

Grad u

Verschiebungstensor

r .{. s

TM , Te , Tm

Maxwell’sche Spannungstensoren

r Ws{m3 “ N{m2 s

F

elektromagnetischer Feldtensor

r Vs{m2 s

G

zu F dualer Tensor

r Vs{m2 s

Energie-Impuls-Tensor

r Ws{m3 s

T Staub

Spannungs-Energie-Tensor für Staub

r Ws{m3 s

T idFl

Spannungs-Energie-Tensor der idealen Flüssigkeit

r Ws{m3 s

T,T

EM

22

2 Verzeichnis der verwendeten Symbole R

Riemann-Christoffel’-scher Krümmungstensor

r 1{m2 s

R

Ricci-Tensor

r 1{m2 s

E

Einstein-Tensor

r 1{m2 s

Ricci-Skalar

r 1{m2 s

Einstein-Skalar

r 1{m2 s

_ _

˝

R ˝

E

Kapitel 3

Grundlegende Beziehungen der Matrizenrechnung Zusammenfassung

Die Zielsetzung dieses Kapitels ist eine knappe Zusammenstellung von wichtigen Beziehungen der Matrizenrechnung, die zur Einführung in Schreibweise und Eigenschaften dienen. Viele Beziehungen sind häufig ohne Erläuterungen oder Beweise angegeben. Eine eingehende Darlegung der Matrizenrechnung mit Beweisführung findet man in den Büchern von Rudolf Zurmühl, [4], und in seiner Neuauflage, [5], sowie in [1], [2]. In der Formelsammlung, [3], sind die wichtigsten Beziehungen der Matrizenrechnung zusammengestellt. Zunächst werden Matrizen mit Zahlen als Elemente betrachtet, wobei einige Operationen wie Vertauschen der Faktoren im Skalarprodukt und Transponierung von Matrizenprodukten häufig angewendet werden. Später werden Skalar- und Kreuzprodukte formaler Matrizen mit Vektorelementen behandelt, bei denen der formale Laufindex p#q bereits eingesetzt wird. 23 © Springer Fachmedien Wiesbaden GmbH, ein Teil von Springer Nature 2019 W. Werner, Vektoren und Tensoren als universelle Sprache in Physik und Technik 1, https://doi.org/10.1007/978-3-658-25272-4_3

24

3 Beziehungen der Matrizenrechnung

3.1

Definitionen

3.1.1

Spaltenvektor und Zeilenvektor

Bei Spalten- und Zeilenvektoren handelt es sich um eindimensionale Matrizen, deren Elemente aus Skalaren, Basisvektoren von Koordinatensystemen oder physikalischen Vektoren bestehen können. Bei skalaren Elementen wird einfach, bei vektoriellen Elementen und damit formalen Spalten- und Zeilenvektoren (Abschnitt 3.4) zweifach unterstrichen. Die Grundgröße ist der Spaltenvektor, Zeilenvektoren werden stets mit Transponierung p T q geschrieben.

˛ x1 ˚ x2 ‹ ` ˘T ˚ ‹ x “ ˚ . ‹ “ x 1 , x 2 , . . . , xn , ˝ .. ‚ ¨

xn ¨ ˛ e1 ˚ e2 ‹ ` ˘T ˚ ‹ e “ ˚ . ‹ “ e1 , e 2 , . . . , en , ˝ .. ‚

˘ ` x T “ x 1 , x 2 , . . . , xn

(3.1)

` ˘ eT “ e 1 , e 2 , . . . , e n

(3.2)

en

3.1.2

Matrix

Das rechteckige Koeffizientenschema der Elemente einer Matrix kann mit

‚ Zeilenvektoren ‚ Spaltenvektoren

`

a i#

˘T

a #k

˘ ` “ ai1 , ai2 , . . . , ain ` ˘T “ a1k , a2k , . . . , amk

(3.3)

25

3.2 Produkte von Matrizen ` ˘ oder durch das allgemeine Element aik dargestellt werden. ¨

a11 ˚ a ` ˘ ˚ 21 A “ aik “ ˚ . ˝ ..

a12 a22 .. .

... ... .. .

˛ a1n a2n ‹ ‹ .. ‹ . ‚

am1 am2 . . . amn ¨` ˘T ˛ a 1# ˚` ˘T ‹ ˚ a ‹ ` ˘ 2# ‹ “ a #1 , a #2 , . . . , a #n “˚ ˚ ‹ .. ˝ ‚ ` . ˘T a m#

(3.4)

Die Determinante det A kann nur für quadratische Matrizen gebildet werden. Eine Matrix A hat den Rang r “ rg pAq, wenn wenigstens eine ihrer r-reihigen Unterdeterminanten von Null verschieden ist. Reguläre n ˆ n-Matrizen haben den vollen Rang r “ n. Die Zahl d “ n ´ r heißt Rangabfall oder Defekt. Die Matrix AT bedeutet die zu A transponierte Matrix, bei der Zeilen und Spalten miteinander vertauscht sind. Spezielle Matrizen sind ‚ singuläre Matrix

mit

‚ symmetrische Matrix

mit

A “ AT

‚ schiefsymmetrische Matrix

mit

A “ ´ AT

3.2 3.2.1

det A “ 0 pakk “ 0q

Produkte von Matrizen Skalarprodukt (Zeile mal Spalte)

Bei der Produktbildung von Zeilen- und Spaltenvektoren aus Zahlen gleicher Elementanzahl entsteht das Skalarprodukt S, das eine Zahl als Summe von Einzelprodukten ist, so dass unter Beachtung der Transponierung ein Faktortausch möglich ist.

26

3 Beziehungen der Matrizenrechnung

‚ Das Skalarprodukt impliziert die Summenbildung! ¨ ˛ ¨ ˛ y1 x1 ˘˚ . ‹ ` ˘˚ . ‹ ` T T S “ x y “ y x “ x1 , . . . , xn ˝ .. ‚ “ y1 , . . . , yn ˝ .. ‚ yn xn n ÿ “ x 1 y 1 ` . . . ` x n yn “ x k yk

(3.5)

k“1

Die Spaltenvektoren x und y heißen zueinander orthogonal, wenn ihr Skalarprodukt Null ist. xT y “ y T x “ 0

Ø

xKy

(3.6)

Der Betrag oder die euklidische Norm von Spaltenvektoren lautet bÿ a T |x| “ }x} “ x x “ x2k ě 0 Ñ | x |2 “ xT x (3.7) k

3.2.2

Dyadisches Produkt (Spalte mal Zeile)

Das Produkt aus Spalten- und Zeilenvektor gleicher Elementanzahl führt auf eine quadratische Matrix. ¨ ¨ ˛ ˛ x 1 y 1 . . . x 1 yn x1 ˘ ˚ ˚ ‹` .. ‹ “ `y xT ˘T (3.8) .. Z “ x yT “ ˝ ... ‚ y1 , . . . , yn “ ˝ ... . . ‚ xn

x n y 1 . . . x n yn

Da Zeilen bzw. Spalten eines dyadischen Produktes jeweils zueinander proportional sind, ist seine Determinante Null und die Matrix singulär. Für dyadische Produkte gilt daher ` ˘ rg Z “ 1 Ñ det Z “ 0

3.2.3

Matrizenprodukt

Jedes Element der Produktmatrix A B stellt ein Skalarprodukt aus einer Zeile der ersten und einer Spalte der zweiten Matrix dar. Die Produktbildung A B ist nur ausführbar bei Übereinstimmung der Spaltenzahl von A mit der Zeilenzahl von B , was als Verkettbarkeit bezeichnet wird.

27

3.2 Produkte von Matrizen

Matrizenprodukte sind assoziativ, so dass die Reihenfolge der Produktbildungen beliebig ist. ` ˘ ` ˘ A BC “ AB C “ ABC Das Produkt zweier Matrizen ist nichtkommutativ, so dass man zwischen Rechts- und Linksmultiplikation unterscheiden muss. (3.9)

AB ‰ BA

Auch wenn beide Matrizen A und B symmetrisch sind, ist ihr Produkt A B normalerweise nicht mehr symmetrisch. (3.10)

‚ Die Multiplikation zerstört die Symmetrie!

Ausnahmen findet man bei (3.18) und in den Abschnitten 11.1.1 und 11.4.1. Bei einem Produkt aus zwei Matrizen gilt für ein Element n ÿ ` ˘T cik “ a i# b #k “ aiμ bμk

mit

C “ AB r “ A BT C

˘T ` c˜ik “ a i# b k# “

mit

μ“1 n ÿ

aiμ bkμ

(3.11)

μ“1

Bei einem Produkt aus drei Matrizen C “ P B “ P T R “ P T PT “ R T T R

(3.12)

gilt für ein Element in den verschiedenen Schritten cik “

n ÿ

piμ bμk “

μ“1



n ÿ μ“1 n ÿ

piμ

„ÿ n

j tμν rνk

ν“1 n ÿ

μ“1 ν“1

tμν piμ pkν “



n n ÿ ÿ

piμ tμν rνk

μ“1 ν“1 n n ÿ ÿ

tμν rμi rνk

(3.13)

μ“1 ν“1

Dabei bedeutet die Transponierung einer Matrix die Umkehrung der Indexreihenfolge bei dem entsprechenden Element.

28

3 Beziehungen der Matrizenrechnung

Ein Dreifachprodukt, bei dem die äußeren Faktoren Zeilen- bzw. Spaltenvektoren sind, stellt ein Skalarprodukt und damit eine Zahl oder einen einzelnen Wert dar, bei dem die Transponierung zum gleichen Ergebnis führt. S “ zT b “ z T A s “

n ÿ i“1

zi b i “

n ÿ

zi

i“1

` ˘T S “ S T “ zT A s “ s T AT z “

n ÿ

aik sk “

aik zi sk

i“1 k“1

k“1 n ÿ n ÿ

n ÿ n ÿ

(3.14)

aki si zk

i“1 k“1

3.2.4

Lineares Gleichungssystem

Bei einem linearen Gleichungssystem treten die Variablen xk nur in erster Potenz auf. Die Koeffizienten aik können konstant sein oder von einem Parameter abhängen. Das Gleichungssystem a11 x1

` a12 x2

` . . . ` a1n xn

“ b1

a21 x1 .. .

` a22 x2 .. .

` . . . ` a2n xn .. .

“ b2 .. .

Ñ

an1 x1 ` an2 x2 ` . . . ` ann xn “ bn

pa 1# qT x “ b1 pa 2# qT x “ b2 .. .. . . pa n# qT x “ bn

lautet als Matrixgleichung mit der Koeffizientenmatrix A Ax “ b

(3.15)

Gleichungssystem bzw. Matrixgleichung beschreiben eine lineare oder affine Transformation, die den Spaltenvektor x durch die Matrix A linear in den Spaltenvektor b abbildet.

3.2.5

Matrizenprodukte mit Falk-Schema

Das Falk-Schema in Abbildung 3.1 bietet eine anschauliche graphische Darstellung für die Multiplikation von Matrizen und die Verkettbarkeit. Im Schnittpunkt der beiden Pfeile wird das dort stehende Element als ˘T ` Skalarprodukt a i# b #k aus Zeile und Spalte gebildet.

29

3.2 Produkte von Matrizen











Abb. 3.1: Falk-Schema für zwei Matrizen





      

Abb. 3.2: Piktogramme der Matrixmultiplikation

30

3.2.6

3 Beziehungen der Matrizenrechnung

Piktogramme der Matrixmultiplikation

Die Abbildung 3.2 gibt den Überblick über die möglichen Multiplikationen und Ergebnisse von Spalten- und Zeilenvektoren sowie Matrizen, wobei die Verkettbarkeit der einzelnen Faktoren vorausgesetzt wird. Aus Sicht der Matrizenrechnung sind Vektoren v und Tensoren T formale Einzelgrößen oder Werte, die aus Summanden zusammengesetzt sind und die im ersten und letzten Piktogrammbeispiel als Punkte auftreten.

3.2.7

Rechts- und Linksmultiplikation

Sind L und R reguläre, quadratische Matrizen, die mit der rechteckigen Matrix A verkettbar sein müssen, dann gilt folgendes Schema. Linksmultiplikation mit L bzw. Rechtsmultiplikation mit R führen zu Produktmatrizen L A und A R von gleichem Format wie die Matrix A selbst, in der Abbildung 3.3 dargestellt am Beispiel zweier verschiedener Matrizen A.

3.2.8

Matrixtransformationen

Eine Links- und Rechtsmultiplikation der Matrix A mit L und R heißt

‚ Äquivalenztransformation A

Ñ

`

A und B äquivalent

˘

B “ LAR

(3.16)

die wegen der Assoziativität auf zwei Arten ausgeführt werden kann. Die Matrizen A , L A , A R , und L A R haben nach Abbildung 3.4 alle das gleiche Format.

31

3.2 Produkte von Matrizen













  

 



Abb. 3.3: Rechts- und Linksmultiplikation mit quadratischen Matrizen

  





   







   



Abb. 3.4: Äquivalenztransformation einer Matrix

32

3 Beziehungen der Matrizenrechnung

Wählt man die Rechts- und Linksmatrizen in besonderer Weise, dann ergeben sich zwei Sonderfälle der Äquivalenztransformation. ˘ ` ‚ Ähnlichkeitstransformation A und B bzw. C ähnlich L “ R´1

B “ R´1 A R oder C “ L A L´1

Ñ

‚ Kongruenztransformation L “ RT

B “ RT A R

Ñ

(3.17)

A und B bzw. C kongruent

˘

oder C “ L A LT

(3.18)

`

Bei der Kongruenztransformation sind bei symmetrischer Matrix A “ AT bzw. schiefsymmetrischer Matrix A “ ´ AT auch B und C symmetrisch bzw. schiefsymmetrisch.

3.3

Inverse Matrix und adjungierte Matrix

Für reguläre, quadratische Matrizen A, deren Determinanten existieren, löst die inverse oder Kehrmatrix A´1 mit der Eigenschaft A A´1 “ A´1 A “ E Gleichungssysteme durch Linksmultiplikation auf formale Weise. Ax “ b

Ñ

x “ A´1 b

Neben numerischen Lösungsverfahren ist für theoretische Überlegungen die ` ik ˘ durch Darstellung der inversen Matrix mit dem allgemeinen Element a die adjungierte Matrix von Interesse. ` ˘ A adj A´1 “ aik “ det A

Ñ

A A adj “ A adj A “ E det A

(3.19)

Dafür wird zunächst zu jedem Element aik der Matrix das algebraische Komplement Aik (Kofaktor, Adjunkt) gebildet, aik

Ñ

Aik “ p´1qi`k Δik

(3.20)

33

3.4 Formale Matrizen und Produkte

wobei Δik der Minor oder diejenige Unterdeterminante zum Element aik ist, wenn man in A die i-te Zeile und die k-te Spalte streicht. Die zu A adjungierte Matrix ist die aus diesen algebraischen Komplementen gebildete Matrix, wobei die Adjunkte jedoch in transponierter Anordnung auftreten. ˛ A11 . . . An1 ` ˘ ˚ .. ‹ “ `aik ˘ det A “ Aki “ ˝ ... . ‚ A1n . . . Ann ¨

A adj

(3.21)

Für die Kehrmatrix der 2 ˆ 2 -Matrix erhält man auf diese Weise folgendes Ergebnis. A

3.4

´1

˙´1 ˆ ˙ ˆ 1 a22 ´ a12 a11 a12 “ “ a21 a22 a11 a22 ´ a12 a21 ´ a21 a11

(3.22)

Formale Matrizen und Produkte

Matrizen können nicht nur Skalare sondern auch Vektoren oder Tensoren als Elemente enthalten, was durch einfache, doppelte oder dreifache Unterstreichung gekennzeichnet wird. Quadratische Vektormatrizen heißen formal oder symbolisch, da man nur in besonderen Fällen eine Determinante bilden kann! Das Produkt solcher Vektormatrizen wird formal, d.h. auf gleiche Weise, gebildet wie bei skalaren Elementen, allerdings unter Berücksichtigung der Skalar- oder Kreuzproduktbildung der einzelnen Elemente. Bei der Transponierung formaler Matrizenprodukte darf man die Faktoren wie in (3.42) dann nicht vertauschen, wenn die Reihenfolge der Vektoren in tensoriellen oder Kreuzprodukten entscheidend ist! Häufig treten Produkte von skalaren und vektoriellen Matrizen auf in Gleichungssystemen oder bei der Darstellung von Vektoren und Tensoren aus Komponenten und Basisvektoren. Formale Gleichungssysteme mit Spaltenvektoren, die vektorielle Elemente enthalten, lauten entsprechend (3.15) z.B. Ax “ b

oder

g

#

“ Ue

34

3 Beziehungen der Matrizenrechnung

Für Vektoren in kartesischen Koordinatensystemen gilt beispielsweise

a “ a x ex ` a y ey ` a z ez ¨ ˛ ¨ ˛ ex a ` ˘˚ ‹ ` ˘ ˚ x‹ “ a x , a y , a z ˝ ey ‚ “ ex , ey , ez ˝ a y ‚ ez az “ aT e “ e T a

(3.23)

Dyadische Skalarprodukte von Basisvektoren treten häufig auf und stellen Gram’sche Matrizen dar, die im Abschnitt 5.5 näher erläutert werden. Als Beispiel soll eine Gram’sche Matrix aus Abschnitt 6.4.2 dienen, bei der bereits der formale Laufindex p#q eingesetzt wird.

g

#

¨ ˛ ˛ ¨ g1 g1 ¨ e1 g1 ¨ e2 g1 ¨ e3 ˘ ˘ ˚ ` ˚ ‹ ` ‹ ¨ eT “ ˝g2 ‚¨ e1 , e2 , e3 “ ˝ g2 ¨ e1 g2 ¨ e2 g2 ¨ e3 ‚ “ G g , e #

g2

g3 ¨ e1 g3 ¨ e2 g3 ¨ e3

Die folgende Beziehung ist ein weiteres Beispiel für ein formales Matrizenprodukt, wobei das Verknüpfungszeichen (˝) Skalar- oder Kreuzprodukt sowie ein tensorielles Produkt bedeuten kann. Der gesamte Ausdruck aus neun Summanden stellt dann einen Skalar, einen Vektor oder einen Tensor dar.

˛¨ ˛ ¨ v11 . . . v13 g1 ‹ ˚ ˚ “ ‰ ` ˘ .. .. ‹ ˚g ‹ ‹ pg qT ˝ V g “ g1 , g2 , g2 ˝ ˚ . . ‚˝ 2 ‚ ˝ # # v31 . . . v33 “

g3

v11 g1 ˝ g1 ` v12 g1 ˝ g2 ` v13 g1 ˝ g3 ` v21 g2 ˝ g1 ` v22 g2 ˝ g2 ` v23 g2 ˝ g3 ` v31 g3 ˝ g1 ` v32 g3 ˝ g2 ` v33 g3 ˝ g3

(3.24)

35

3.5 Spezielle Matrizen

3.5 3.5.1

Spezielle Matrizen Einheitsmatrix ¨ ˛ 1 0 ... 0 ˚0 1 . . . 0‹ ˚ ‹ T ´1 E “ En “ ˚. . . .. ‹ “ E “ E . . . ˝. . . .‚ 0 0 ... 1

(3.25)

Die quadratische Einheitsmatrix ist das Einselement der Matrizenrechnung und kann in Matrizenprodukten hinzugefügt oder weggelassen werden. (3.26)

AE “ EA “ A

3.5.2

Diagonalmatrizen

Sämtliche Elemente quadratischer Diagonalmatrizen außerhalb der Hauptdiagonale sind Null, so dass diese Matrizen stets symmetrisch sind. ˛ ¨ d1 0 . . . 0 ‹ ` ˘ ` ˘ ˚ ˚ 0 d2 . . . 0 ‹ D “ Diag dk “ Diag d1 , . . . , dn “ ˚ . “ DT (3.27) . . .. . . . .. ‹ ‚ ˝ .. 0

0

. . . dn

Für inverse Matrix und Matrixpotenzen gilt ` ˘ D´1 “ Diag 1{dk ` ˘ `a ˘ D p “ Diag dkp dk Ñ D1{2 “ Diag

(3.28)

Diagonalmatrizen sind vertauschbar und bei Produktbildung bleibt die diagonale Form erhalten. ` ˘ ` ˘ ` ˘ (3.29) D1 D2 “ D2 D1 “ Diag d1k Diag d2k “ Diag d1k d2k “ D Die Linksmultiplikation mit einer Diagonalmatrix bewirkt die Multiplikation der k-ten Zeile mit dk . ¨ ¨ ˛ ˛ d1 x1 d1 a11 . . . d1 a1n ˚ ˚ ‹ .. ‹ D x “ ˝ ... ‚ , D A “ ˝ ... (3.30) . ‚ dn xn dn an1 . . . dn ann

36

3 Beziehungen der Matrizenrechnung

Die Rechtsmultiplikation mit einer Diagonalmatrix bewirkt die Multiplikation der k-ten Spalte mit dk . ¨ ˛ a11 d1 . . . a1n dn ` ˘ ˚ .. ‹ (3.31) x T D “ d1 x1 , . . . , dn xn , A D “ ˝ ... . ‚ an1 d1 . . . ann dn Der Diagonalisierungsoperator Dg bewirkt, dass von einer Matrix nur die Elemente der Hauptdiagonale übrig bleiben. ¨ ˛ ¨ ˛ a11 . . . a1n a11 . . . 0 ` ˘ ˚ .. ‹ “ Diag `a ˘ .. ‹ “ ˚ .. .. .. Dg A “ Dg ˝ ... . . kk . ‚ . ‚ ˝ . an1 . . . ann 0 . . . ann ` ˘ Mit D “ Diag dk folgt weiterhin ` ˘ ` ˘ ` ˘ ` ˘ Dg A D “ Dg D A “ Dg A D “ D D g A

3.5.3

Orthogonale Matrizen

Orthogonale Matrizen sind quadratisch mit folgender Eigenschaft, A AT “ AT A “ E

Ñ

A´1 “ AT

(3.32)

so dass ihre Zeilen- wie auch ihre Spaltenvektoren ein System orthogonaler Einheitsvektoren bilden und inverse und transponierte Matrix übereinstimmen. ÿ ÿ ˘T ˘T ` ` a i# a k# “ a #i a #k “ aiμ akμ “ aμi aμk “ δik (3.33) μ

μ

Eine orthogonale Matrix ist stets nichtsingulär, da ihre Determinante nach dem Determinantensatz (3.46) existiert. Damit die identische Koordinatentransformation enthalten ist, muss die Determinante positiv sein. ˘2 ` Ñ det A “ `1 (3.34) det A “ 1 Damit folgt die besonders einfache Darstellung der inversen Matrix, A´1 “ AT “ A adj det A “ A adj Ø

`

AT

˘´1

˘T ` “ A´1 “ A

(3.35)

37

3.6 Spezielle Beziehungen ` ˘´1 wonach A ihrer kontragredienten Matrix AT gleich ist. Damit entsprechen alle Adjunkten den Elementen gemäß (3.21).

(3.36)

Aik “ aik

Orthogonale Transformationen stellen Abbildungen von skalaren Spaltenvektoren oder vektoriellen Basisvektoren durch orthogonale Matrizen dar. ˆ “ Ax , x

ˆ “ Ae e

(3.37)

Die Abbildung durch A bewirkt die Drehung orthogonaler Koordinatensysteme, bei der die Matrixelemente die Richtungscosinus zwischen den alten und den neuen Koordinatenachsen sind, in die die Komponenten ˆ zeigen. von e und e Bei einer solchen Orthogonaltransformation bleibt der Betrag der Spaltenvektoren erhalten, er ist eine Invariante, wodurch ein System orthogonaler Einheitsvektoren wieder in ein solches überführt wird. ¯´ ÿ ¯ ÿ ÿ ´ÿ ˆ“ ˆTx ˆ |2 “ x |x x ˆk2 “ akμ xμ akν xν k

k



ÿ ÿ



ÿ

μ

ν

xμ xν

ÿ

akμ akν k loooooomoooooon

μ

ν

x2 μ μ

“ x x “ | x |2

(3.38)

“ δμν nach (3.33) T

Das Produkt orthogonaler Matrizen A und B ist ebenfalls orthogonal, ` ˘` ˘T (3.39) A B A B “ A B BT A T “ E so dass orthogonale Transformationen zusammen mit den inversen Elementen und dem Einselement E eine Gruppe bilden.

3.6 3.6.1

Spezielle Beziehungen Distributivität und Assoziativität ` ˘ xT B ` C y “ xT B y ` xT C y ` ˘ A αB ` β C D “ αABD ` β ACD ` ˘ ` ˘ AB C “ A BC “ ABC

38

3.6.2

3 Beziehungen der Matrizenrechnung

Ausklammern ˘T ˛ ¨ ` ˘T ˛ c 1# x c 1# ˚ ‹ ˚ ‹ .. .. ˝ ‚“ ˝ ‚x “ Cx “ y . . ˘T ˘T ` ` c n# x c n# ¨`

`

˘ ` ˘ c T x 1 , . . . , c T x n “ c T x 1 , . . . , x n “ c T X “ zT

˛ a1 ˘˚ ‹ ` x “ a1 c1 ` . . . ` an cn “ c1 , . . . , cn ˝ ... ‚ “ C a an ¨

3.6.3

Blockmatrizen

Matrizen können beliebig in verkettbare Blöcke unterteilt werden, die dann Untermatrizen dieser Blockmatrix darstellen. Die Multiplikation erfolgt mit den Blöcken in der gleichen Weise wie mit Einzelelementen. Als Beispiel soll die Unterteilung eines Gleichungssystems dienen, ˛¨ ˛ ¨ ˛ ¨ ˛ .. x z Ax ` β b . b A ‹˝ ‚ ˝ ˚ ‚ ˝ ˝ ¨ ¨ ¨ ¨ ¨ ¨ ¨‚ ¨ ¨ ¨ “ ¨ ¨ ¨ ¨ ¨ ¨ ¨ ¨ ¨ ¨ ¨ “ ¨ ¨ ¨‚ . β cT x ` α β γ cT .. α ¨

(3.40)

dem die beiden folgenden Matrixgleichungen äquivalent sind. Ax ` β b “ z cT x ` α β “ γ Mit dieser Methode wird die Kehrmatrix der folgenden speziellen Blockmatrix berechnet. ¨ ˚A ˝¨¨¨ 0T

˛´1 ¨ .. ´1 . b‹ 1 ˚ αA ¨ ¨ ¨ ¨‚ “ α ˝ ¨ ¨ ¨ ¨ ¨ ¨ .. 0T . α

˛ .. . ´ A´1 b‹ ¨ ¨ ¨ ¨ ¨ ¨ ¨ ¨ ¨‚ .. . 1

(3.41)

39

3.6 Spezielle Beziehungen

3.6.4

Transponierung und Inversion ˘T A B “ BT A T ` T ˘´1 ` ´1 ˘T “ A A `

A A´1 “ A´1 A “ E ` ˘´1 “ B´1 A´1 AB

3.6.5

Determinante und Spur für n ˆ n -Matrizen det E “ 1 det AT “ det A ` ˘ det α A “ αn det A det A´1 “ 1{ det A ` ˘n´1 det A adj “ det A

3.6.6

(3.42)

sp E “ n sp AT “ sp A ` ˘ sp α A “ α sp A ` ˘ ` ˘ sp A B “ sp B A ` ˘ sp A B A´1 “ sp B

(3.43)

Laplace’scher Entwicklungssatz

Die Determinante quadratischer Matrizen wird dargestellt durch die Entwicklung nach der i-ten Zeile oder der k-ten Spalte.    a11 . . . a1n     ..  “ ÿ a A “ ÿ a A .. det A “  ... (3.44) ip ip . pk pk .  p p   an1 . . . ann  Dabei sind die Größen Aip bzw. Apk die algebraischen Komplemente (3.20) der Elemente aip bzw. apk der Matrix A.

3.6.7

Additions- und Determinantensatz

Eine Determinante, deren Elemente aus Summanden bestehen, kann in Einzeldeterminanten zerlegt oder bei gleichem Hauptminor verändert werden.

40

3 Beziehungen der Matrizenrechnung

In den einfachsten Fällen gilt nach Additions- und Entwicklungssatz        a11 a12 ` λ b12        “  a11 a12  ` λ  a11 b12   a21 a22 ` λ b22   a21 a22   a21 b22    a11 a12 a13   a21 a22 a23   a31 a32 A

    a11    ´  a21     b31   a11  “  a21  a31

a12 b13 a22 b23 b32 B

     

a12 a13 a22 a23 a32 A ´ B

(3.45)     a11 a12 b13    ´  a21 a22 b23     b31 b32 0

Für quadratische Matrizen lautet der Determinantensatz ` ˘ det A B “ det A det B

     

(3.46)

Das Produkt verkettbarer Rechteckmatrizen der Formate pm ˆ nq und pn ˆ mq liefert quadratische pm ˆ mq- bzw. pn ˆ nq-Matrizen, für die man die Determinanten bilden kann. Im Fall m ă n folgt unter Anwendung des Additionssatzes im einfachsten Fall nach Zwischenrechnung ¨ ˛fi » ˙ b11 b12 ˆ ` ˘ a11 a12 a13 ˝ b21 b22 ‚fl det A B “ det – a21 a22 a23 b31 b32        a11 a12   b11 b12   a11 a13   b11 b12          ` (3.47) “ a21 a22   b21 b22   a21 a23   b31 b32      a12 a13   b21 b22    `  a22 a23   b31 b32  Beim Tausch der Rechteckmatrizen und damit für den Fall m ą n erhält man eine andere Produktmatrix, deren Determinante Null ist, denn die Matrix B A ändert sich nicht, wenn man die Einzelmatrizen durch Nullen rändert. Nach dem Determinantensatz folgt dann mit verschwindenden Einzeldeterminanten ˛¨ ˛fi »¨ a11 a12 a13 b11 b12 0 ` ˘ ` ˘ ˜A ˜ “ det –˝ b21 b22 0 ‚ ˝ a21 a22 a23 ‚fl det B A “ det B 0 0 0 b31 b32 0 ˜ “ 0 ˜ det A “ det B

41

3.6 Spezielle Beziehungen

3.6.8

Differentiation von Matrizen

Hängen eine Matrix und damit ihre Elemente von einer Variablen t ab, so gelten folgende Ableitungsregeln. ˛ ¨ da11 {dt . . . da1n {dt ‰ ˚ d “ ‹ .. .. Aptq “ ˝ ‚ . . dt dan1 {dt . . . dann {dt ‰ d “ Aptq ` Bptq “ dt ‰ d “ Aptq Bptq “ dt ‰ d “ Aptq ¨ Bptq “ dt ‰ d “ Aptq ˆ Bptq “ dt

3.6.9

dA dB ` dt dt dB dA B ` A dt dt dA dB ¨B ` A¨ dt dt dB dA ˆB ` Aˆ dt dt

(3.48)

Ableitung von Determinanten

Die Ableitung einer Determinante det A nach einem ihrer Elemente entspricht nach dem Laplace’schen Entwicklungssatz (3.44) dem algebraischen Komplement Aik dieses Elementes, das nach (3.21) durch das Element aki der zu A inversen Matrix A´1 ausgedrückt werden kann. B det A “ Aik “ aki det A Baik ` ˘ B B 1 ln det A “ det A “ aki Baik det A Baik

(3.49)

Wenn die Elemente der 2 ˆ 2-Matrix A von den Koordinaten u abhängen, dann gilt für die Ableitung der Determinante nach u     B B  a11 a12   a11 a12  “ det A “   Bu Bu a21 a22   a21 a22  ,  “ a11 ,  a22 ` a11 a22 ,  ´ a12 ,  a21 ´ a12 a21 ,       a11 ,  a12 ,    a11 a12     “ ` a21 a22   a21 ,  a22 ,  

42

3 Beziehungen der Matrizenrechnung

Für eine 3ˆ3-Matrix erhält man nach dem Laplace’schen Entwicklungssatz mit den algebraischen Komplementen Aik nach (3.20) entsprechend ` ` ` ˘ ˘ ˘ B det A “ a A ´ a A ` a A 11 11 12 12 13 13 , , , Bu     a11 ,  a12 ,  a13 ,    a11 a12 a13    a22 a23  `  a21 ,  a22 ,  a23 ,  “  a21  a31 a32 a33   a31 a32 a33   a11 a12 a13   a22 a23 `  a21  a31 ,  a32 ,  a33 ,  “

ÿ3 ÿ3 i“1

k“1

           

Aik aik , 

Mit Aik nach (3.49) erhält man für die Ableitung der Determinante nach den Koordinaten ÿ3 ÿ3 ˘ ` B det A “ det A “ det A aki aik ,  , i“1 k“1 Bu ` ˘ ˘ ÿ3 ÿ3 B B ` 1 ln det A aki aik ,  “ det A “ i“1 k“1 det A Bu Bu

3.7 3.7.1

Summen als Matrizenprodukte Einfache Summe

Skalarprodukt ¨ ˛ b1 ` ˘˚ . ‹ ak bk “ a1 , . . . , an ˝ .. ‚ “ aT b S“ k“1 bn n ÿ

Polynom ¨

˛ 1 n ‹ ÿ ` ˘˚ ˚x‹ P pxq “ a k x k “ a 0 , . . . , a n ˚ . ‹ “ aT x n ˝ .. ‚ k“0

xn

(3.50)

43

3.7 Summen als Matrizenprodukte

Vektor a“

3 ÿ

` ˘T ak gk “ a1 g1 ` a2 g2 ` a3 g3 “ a# g

k“1

#

` ˘T # a “ g #

(3.51)

Diese beiden formalen Skalarproduktdarstellungen für Vektoren mit dem allgemeinem Laufindex p#q und entgegengesetzter Stellung der Indizes werden im Kapitel 6 erörtert und kommen von da an ständig vor.

3.7.2

Doppelsummen

Algebraische Doppelsumme

S“

n ÿ i“1

ai

n ÿ

bk “

n ÿ

n ÿ

i“1 k“1

k“1

¨ ˛ 1 ... 1 ˚ ‹ ai bk “ aT I b “ aT ˝ ... . . . ... ‚ b 1 ... 1

Tritt eine Matrix T mit beliebigen Elementen an die Stelle der Eins-Matrix I, dann lautet die Doppelsumme ¨ ˛ T11 . . . T1n n n ÿ ÿ ˚ .. ‹ b S“ Tik ai bk “ aT T b “ aT ˝ ... (3.52) . ‚ i“1 k“1 Tn1 . . . Tnn Symmetrisch-alternierender Sonderfall S“

n ÿ n ÿ

(3.53)

aik gik “ 0

i“1 k“1

für G “ GT , und A “ ´ AT ,

mit gik “ gki

psymmetrischq

mit aik “ ´ aki

palternierendq

Bilineare und quadratische Form Die bilineare Form entspricht der Doppelsumme (3.52). S“

n ÿ n ÿ i“1 k“1

aik xi yk “ xT A y “ yT AT x

(3.54)

44

3 Beziehungen der Matrizenrechnung

Die quadratische Form (Abschnitt 12.4) geht aus der bilinearen Form bei identischen Spaltenvektoren x “ y hervor.

Q“

n ÿ n ÿ

aik xi xk “ xT A x “ xT AT x

(3.55)

i“1 k“1

Ist A ” D eine Diagonalmatrix, so besteht die quadratische Form Q aus einer Summe von Quadraten. Tensor 2. Stufe Der Tensor T wird in Kapitel 9 ausführlich erörtert, hier geht es lediglich um die Darstellung von Doppelsumme und formalem Matrizenprodukt, wobei die Reihenfolge der Basisvektoren gi und gk nicht vertauscht werden darf!

T “

3 ÿ 3 ÿ

Tik gi gk “

i“1 k“1

3 ” ÿ 3 ÿ i“1

¨

ı Tik gi gk

k“1

T11 T12 T13

˘˚ ` “ g1 , g2 , g3 ˝ T21 T22 T23 T31 T32 T33

˛¨ ˛ g1 ‹ ˝ 2 ‚ ` # ˘T T ## g# “ g ‚ g 3 g

(3.56)

Die Matrixdarstellung des Tensors hat die formale Gestalt einer quadratischen Form, allerdings mit vektoriellen Elementen in Zeilen- und Spaltenvektor und deshalb mit doppelter Unterstreichung der Basisvektoren, die nichtkommutative tensorielle Produkte bilden, bei denen die Reihenfolge entscheidend ist.

3.7.3

vec-Operator

Der vec-Operator verwandelt eine Matrix spaltenweise in einen Spaltenvektor wie bei den kyrillischen Buchstaben „ I“ bzw. „ I ... I“. Im einfachsten Fall gilt dann folgende Darstellung, wobei die Elemente der

45

3.7 Summen als Matrizenprodukte

Matrix Skalare, Vektoren oder Tensoren sein können. ˆ

a11 a12 a21 a22

` ˘ vec A “ vec



˜

˙ “

. .. .. Õ ... .. Õ ..

¸

¨ ˛ a11 ˚a21 ‹ ‹ “˚ ˝a12 ‚ a22

(3.57)

` ˘ ‰T ` ˘ vec A “ a11 a21 a12 a22

Mit dem vec-Operator können bilineare und quadratische Formen umgewandelt werden. Der Operator ist also anwendbar, wenn als Ergebnis eine einzelne Größe aber keine Matrix resultiert wie man an den folgenden Beispielen sehen kann. ` ˘ ‰T “ ‰ “ xT A y “ vec A vec x yT ` `

du

g#

˘T

˘ # T

¨# T# g

H ##

#

“ ` ¨ # ˘ ‰T “ ` ˘T ‰ “ vec T # vec g# g #

“ ` ˘T ‰ ` ˘ ‰T vec du# du# du# “ vec H “

(3.58)

˘ ` ˘ ” ` ˘ıT ` ˘ ” ` ˘ıT ` ˘ ` vec B “ vec B vec AT sp A B “ sp B A “ vec AT ” ` ˘ıT ` ˘ ” ` ˘ıT ` ˘ “ vec BT vec A “ vec A vec BT Im anschließenden Beispiel entsteht beim Skalarprodukt anstelle des tensoriellen Produktes wegen der Reziprozität (6.12) der Basisvektoren ein Skalar und zwar die Spur der Tensormatrix. `

g#

˘T

¨# ¨ T# g

#

` ˘T ‰ “ ` ¨ # ˘ ‰T “ “ vec T # vec g# ¨ g #



`

¨ # ˘ ‰T

“ vec T # ¨# “ sp T #

` ˘ vec E

46

3.8 3.8.1

3 Beziehungen der Matrizenrechnung

Erweiterung der Matrixmultiplikation Höhere Matrizen

Bei Matrizen der Ordnung p und der Dimension n handelt es sich um Koeffizientenschemata mit np Einzelelementen in spezieller blockweiser Anordnung. Für die Parameter kann sowohl p ď n als auch p ě n gelten. p gibt die Anzahl der Indizes bzw. der Doppelkreuze # als formale Laufindizes an. Die auftretenden Untermatrizen oder Blöcke sind jeweils vom Format n ˆ n. Bei p “ 2 hat man normale n ˆ n-Matrizen. Bei p “ 3 kann man die drei n ˆ n-Matrizen entweder nebeneinander oder in Kubusform mit 3 Schichten wie in Abbildung 3.5 anordnen. Für p “ 3 und p “ 4 werden Blockmatrizen mit Doppelbalken dargestellt, deren einzelne Blöcke aus zweidimensionalen Untermatrizen bestehen. Die formalen Laufsymbole für individuelle, feste Indizes werden geklammert.

k=1 k=2 k=3

 

(a ij3  )

A ##1

A ##2

A ##3

Abb. 3.5: Graphische Darstellung einer Matrix 3. Ordnung Bei zwei Doppelkreuzen als formale Laufindizes (##) bezeichnet das erste die Zeile, das zweite die Spalte der entsprechenden Untermatrix. Je nachdem, welche der Indizes laufen (#) und welche fest sind p1, 2, ..q, muss ggf. eine unterschiedliche Vorgehensweise bei der unten erläuterten Matrixmultiplikation erfolgen. Für kleine Werte von Ordnung p und Dimension n werden die Blockmatrizen angegeben, wobei die geklammerten Laufindizes # die einzelnen

47

3.8 Erweiterung der Matrixmultiplikation

Untermatrizen bezeichnen. p“2{n“3

Matrix mit insgesamt 9 Elementen

p“2{n“4

Matrix mit insgesamt 16 Elementen

p“3{n“3

Blockmatrix mit insgesamt 27 Elementen

p“3{n“4

Blockmatrix mit insgesamt 48 Elementen   “  A ##1 , A ##2 , A ##3 

A ## p#q p“4{n“2 A p#q ## p#q

B ## p##q

p“4{n“3

A p#q ## p#q

Blockmatrix mit insgesamt 16 Elementen    A  1##1 , A 1##2  “   A 2##1 , A 2##2    B  , B , ##11 ##12   “   B ##21 , B ##22 , Blockmatrix mit insgesamt 81 Elementen    A 1##1 , A 1##2 , A 1##3      “  A 2##1 , A 2##2 , A 2##3    A  , A , A 3##1

B ## p##q

(3.59)

3##2

3##3

  B ##11 , B ##12 , B ##13   “  B ##21 , B ##22 , B ##23  B ##31 , B ##32 , B ##33

      

(3.60)

48

3 Beziehungen der Matrizenrechnung

p“4{n“4

A p#q ## p#q

B ## p##q

Blockmatrix mit insgesamt 256   A 1##1 , A 1##2 , A 1##3 ,    A 2##1 , A 2##2 , A 2##3 , “ A  3##1 , A 3##2 , A 3##3 ,  A 4##1 , A 4##2 , A 4##3 ,   B ##11 ,    B ##21 , “ B  ##31 ,  B ##41 ,

Elementen  A 1##4    A 2##4   A 3##4    A 4##4 

 B ##12 , B ##13 , B ##14    B ##22 , B ##23 , B ##24   B ##32 , B ##33 , B ##34     B , B , B ##42

##43

(3.61)

##44

Bei Blockmatrizen können die Blöcke der Untermatrizen auch in transponierter Form auftreten wie z.B. im Fall p “ 3.

´ A ## p#q

¯T

  A ##1 ›  ›T ›  › “ › A ##1 , A ##2 , A ##3 › “  A ##2  A ##3

3.8.2

      

(3.62)

Tensoren 3. und 4. Stufe

Auf diese Tensoren wird in Kapitel 10 und im Abschnitt 11.5 näher eingegangen. Die Tensorstufe entspricht der Ordnung p der Blockmatrix. Als Beispiele gelten folgende Summendarstellungen mit nicht vertauschbarer Reihenfolge der Basisvektoren g , die tensorielle Produkte bilden und deshalb ohne Verknüpfungszeichen nebeneinander stehen. Tp3q “

n ÿ n ÿ n ÿ

Tijk gi gj gk

i“1 j“1 k“1

Tp4q “

n n ÿ n ÿ n ÿ ÿ i“1 j“1 p“1 q“1

Tijpq gi gj gp gq

49

3.8 Erweiterung der Matrixmultiplikation

Für die erweiterte Matrixmultiplikation wird eine spezielle Schreibweise bei höherstufigen Tensoren mit den Komponentenmatrizen

T ## p#q

sowie

T p#q ## p#q , T p##q ##

und T ## p##q

mit spitzen Klammern und Verknüpfungssymbol (˝) definiert, bei der die Reihenfolge der Spaltenvektoren g# mit derjenigen der Indexsymbole p#q der Tensormatrizen und damit der Einzelvektoren g in den Summendarstellungen der Tensoren übereinstimmen muss.  ` ˘T  Tp3q “ g# T ## p#q ˝ g# g# ` ˘T “ g# Y p3q g# Tp4q “ g `

˘ # T

`

` ˘T “ g# Y

g

˘ # T

p4q

˝ T p#q ## p#q ˝ g

#

(3.63)

 g

#

g#

Im ersten Multiplikationsschritt wird zunächst das Matrizenprodukt in spitzen Klammern ausgeführt, wobei das Verknüpfungssymbol (˝) bedeutet, dass die Untermatrizen von T ## p#q und T p#q ## p#q hierbei einzeln mit den zugehörigen inneren Spaltenvektoren g# multipliziert werden sollen. Beim Tensor 3. Stufe erhält die n ˆ n -Matrix Y p3q doppelte Unterstreichung, denn für n “ 3 stellt jedes der 9 Elemente einen Vektor dar.  Y p3q “

T ## p#q ˝ g#



› › › › “ › T ## 1 , T ## 2 , T ## 3 › ˝ g# ´ ¯ “ T ## 1 g# , T ## 2 g# , T ## 3 g#

50

3 Beziehungen der Matrizenrechnung

Y p3q

›¨ ˛ ¨ 1˛ › T111 T121 T131 g › ›˚ ‹ ˚ 2‹ “ › ˝T211 T221 T231 ‚˝g ‚ , › › T g3 311 T321 T331 ˛ ¨ 1˛ ¨ g T112 T122 T132 ‹ ˚ 2‹ ˚ ˝T212 T222 T232 ‚˝g ‚ , T312 T322 T332

g3

˛ ¨ 1˛ ¨ g T113 T123 T133 ‹ ˚ 2‹ ˚ ˝T213 T223 T233 ‚˝g ‚ T313 T323 T333

g3

› › › › › › ›

Als Beispiel wird der Vektor in Zeile 2 und Spalte 1 angegeben. yp3q21 “ T211 g1 ` T221 g2 ` T231 g3 Beim Tensor 4. Stufe muss man unterscheiden, ob sich die laufenden Matrixindizes p#q innen pT i ## k q oder an der Seite pT ## ik q befinden. Im ersten Fall gilt für die n ˆ n -Matrix Y Y

p4q



`

g#

˘T

˝ T p#q ## p#q ˝ g#

  T 1##1 ,   ` # ˘T  T 2##1 , “ g ˝ T  3##1 ,  T 4##1 ,

p4q

wie in (3.63) angegeben



 T 1##2 , T 1##3 , T 1##4    T 2##2 , T 2##3 , T 2##4   ˝ g# T 3##2 , T 3##3 , T 3##4     T , T , T 4##2

4##3

4##4

3.8 Erweiterung der Matrixmultiplikation

51

Die Matrix erhält dreifache Unterstreichung, da bei n “ 4 jedes ihrer 16 Elemente ein Tensor 2. Stufe mit 16 Summanden ist, z.B. ` ˘T yp4q21 “ g# T 2 ## 1 g# T2111 g1 g1 ` T2121 g1 g2 ` T2131 g1 g3 ` T2141 g1 g4



` T2211 g2 g1 ` T2221 g2 g2 ` T2231 g2 g3 ` T2241 g2 g4 ` T2311 g3 g1 ` T2321 g3 g2 ` T2331 g3 g3 ` T2341 g3 g4 ` T2411 g4 g1 ` T2421 g4 g2 ` T2431 g4 g3 ` T2441 g4 g4 Im zweiten Multiplikationsschritt entstehen durch die anschließende formale Matrixmultiplikation daraus Tensoren 3. bzw. 4. Stufe mit 27 bzw. 256 Gliedern, ` ˘T T p3q “ g# Y p3q g# ` ˘T T p4q “ g# Y

p4q

g#

wobei bei jedem Summanden zwei Basisvektoren unter Wahrung der Reihenfolge tensoriell hinzutreten. Beim Tensor 4. Stufe wird in den Fällen T ik ## und T ## ik der vecOperator gemäß Beispiel (3.58) verwendet, mit dem der Tensor im zweiten Fall folgendermaßen dargestellt werden kann. $   , T C G/T ’ . . . T ## 14  ## 11 &   . ” ` ˘T ‰ ` # ˘T   # .. .. ˝ g ˝ vec g# g# Tp4q “ vec g  . . ’   / %  T ## 41 . . . T ## 44  ˆ “

`

g#

˘T

` ˘T T ## 11 g# , g# T ## 21 g# , . . .

˛ ¨ g1 g1 ‹ ˚ ˙ ˚g2 g1 ‹ ˚ ˘ ` ` # ˘T T . ‹ ‹ T ## 34 g# , g# T ## 44 g# ˚ ... , g ˚ .. ‹ (3.64) ˚ 3 4‹ ˝g g ‚ g4 g4

52

3 Beziehungen der Matrizenrechnung

Nach Ausführung der Multiplikation von Zeile mal Spalte ist in allen Summanden die richtige Reihenfolge von Basisvektoren und Indizes gewährleistet.

3.9

Grenzen der Berechnung mit Matrizen

Es muss erwähnt werden, dass es Situationen gibt, in denen man bei der Darstellung und Berechnung mit Matrizen nicht zum Ziel kommt. Der Grund liegt darin, dass zwei Arten von Nichtkommutativität existieren, die bei bestimmten Konstellationen gemeinsam auftreten. Matrizenprodukte sind nach (3.9) nichtkommutativ mit Ausnahme des Skalarproduktes (3.5) aus Zeilen- und Spaltenvektor. Da in den bereits erwähnten tensoriellen Produkten, die aber erst in den Kapiteln 9 und 10 näher betrachtet werden, die Reihenfolge der beteiligten Vektoren oder Tensoren nicht geändert werden darf, liegt eine zweite Nichtvertauschbarkeit vor. Vereinzelt treffen beide Operationen gemeinsam auf wie bei der Ableitung von Produkten mit dem Differentialoperator Nabla im folgenden Beispiel aus dem Kapitel 17. ∇#

“ ` ˘T ## T g g #

‰ #

Der Ableitungsoperator muss nach der Produktregel auf jeden einzelnen Faktor angewendet werden. Da aber weder die Reihenfolge der Matrizen noch die der Basisvektoren g verändert werden darf, entsteht eine in dieser Form #

unlösbare Situation und man ist gezwungen, die Operation elementweise durchzuführen.

Literatur [1] Schmeidler, W.: Vorträge über Determinanten und Matrizen Akademie-Verlag, Berlin (1949) [2] Schwarz, H. R., Rutishauser, H., Stiefel, E.: Numerik symmetrischer Matrizen B. G. Teubner, Stuttgart (1972) [3] Voigt, C., Adamy, J.: Formelsammlung der Matrizenrechnung Oldenbourg Verlag, München, Wien (2007) [4] Zurmühl, R.: Matrizen Springer Verlag, Berlin, Göttingen, Heidelberg, 4. Aufl. (1964) [5] Zurmühl, R., Falk, S.: Matrizen und ihre Anwendungen, Grundlagen Springer Verlag, Berlin, Heidelberg, New York, Tokyo, 5. Aufl. (1984)

53

Kapitel 4

Physikalische Größen und Felder Zusammenfassung Das Kapitel ist der Bedeutung der physikalischen Größen und Felder in koordinatenfreier und -gebundener Form gewidmet und geht auf die Transformation der Komponenten ein.

4.1

Zielsetzung der Physik

Die Physik ist vom Prinzip her eine beschreibende Wissenschaft, die Aussagen darüber trifft wie Dinge geschehen, aber nicht warum. Dennoch ist durch die Fülle der Erfahrungen und physikalischen Erkenntnisse ein Schatz an Erklärungen von Ursachen entstanden, der in der Antike mit den Griechen begann. Seit Galilei versetzt uns das in mathematisierter Form in die Lage, in logischer und kausaler Weise Phänomene zu verstehen und zu beschreiben, zu erzeugen oder zu beeinflussen, die das Leben des Einzelnen und der Gemeinschaften in vielfältiger Weise gestalten und heute in immer rasanterer Form verändern und erweitern. Eigenschaften der physikalischen Realität werden durch Größen verschiedenen Charakters dargestellt, die im dreidimensionalen euklidischen Raum in einem Koordinatensystem durch ihre Komponenten beschrieben werden. 54 © Springer Fachmedien Wiesbaden GmbH, ein Teil von Springer Nature 2019 W. Werner, Vektoren und Tensoren als universelle Sprache in Physik und Technik 1, https://doi.org/10.1007/978-3-658-25272-4_4

4.1 Zielsetzung der Physik

55

• Skalare sind physikalische Größen, die durch eine dimensionsbehaftete Zahl gekennzeichnet werden, wie Temperatur, Potential, Energie. Als Zahl oder Wert ist eine skalare Größe von sich aus eine Invariante. • Vektoren sind physikalische Größen, die durch Betrag und Richtung im Raum festgelegt sind, wie Kraft, Geschwindigkeit oder Feldstärke. Bei Bezug auf ein Koordinatensystem sind hierfür drei skalare Werte erforderlich. • Tensoren 2. Stufe sind physikalische Größen, die als Operatoren Vektoren in andere verwandeln oder abbilden und die im dreidimensionalen Raum durch neun skalare Werte gekennzeichnet werden. Alle Größenarten sind Ausdruck verschiedener physikalischer Phänomene, die unabhängig von einem beliebig wählbaren Koordinatensystem Bedeutung haben. Man spricht deshalb bei ihnen von unveränderlichen Größen oder physikalischen Invarianten und nennt diese Eigenschaft Forminvarianz oder auch Kovarianz gegenüber Koordinatentransformationen. Physikalische Gesetze, die zur Beschreibung der realen Welt formuliert werden, stellen korrekte Verknüpfungen von Größen dar, wenn sie durch Experimente gesichert sind. Das Ziel der Physik besteht darin, diese Gesetze anhand von geeigneten Experimenten und Versuchsanordnungen unter gegebenen Bedingungen aufzufinden und mathematisch so zu formulieren, dass sie unabhängig von einem speziell gewählten Koordinatensystem sind. Die Kovarianz physikalischer Gesetze ist eine Eigenschaft von Funktionen oder Komponenten als abhängige Größen, wenn man die Koordinaten transformiert, die die unabhängigen Variablen darstellen. Erfüllen die neuen Funktionen der neuen Variablen nach einer Koordinatentransformation Gleichungen derselben Form wie die alten Funktionen der alten Variablen, dann liegt eine Kovarianz der Gleichungen vor. Eine allgemeingültige, koordinatenunabhängige Darstellung wird kovariante Formulierung der Naturgesetze genannt. • In der klassischen Mechanik heißt kovariante Formulierung die Invarianz der Naturgesetze gegenüber Galilei-Transformation • In Relativitätstheorie und Elektrodynamik heißt kovariante Formulierung die Invarianz der Naturgesetze gegenüber Lorentz-Transformation

56

4 Physikalische Größen und Felder

Beide Transformationen werden in den Anwendungen im zweiten Band ausführlich behandelt.

4.2

Transformation physikalischer Größen

Um die verschiedenen Größen näher zu beschreiben und um die physikalischen Gesetze zur Lösung konkreter Aufgabenstellungen anzuwenden, benötigt man Koordinatensysteme als Basis, in denen man die Größen zerlegen und ihre Komponenten in den verschiedenen Koordinatenrichtungen angeben kann. Vektoren und Tensoren sind als physikalische Invarianten unabhängig von beliebig wählbaren Koordinatensystemen. So ist die Geschwindigkeit eines Fahrzeugs nach Betrag und Richtung eine physikalische Größe an sich, die nicht davon abhängt, von welchem Standort der Bewegungsvorgang betrachtet und in welchem Koordinatensystem er beschrieben wird. Zerlegt man dagegen physikalische Größen in einem Koordinatensystem in ihre Komponenten in Richtung der Koordinatenachsen, so fällt das Ergebnis entsprechend der Wahl des Bezugssystems jeweils anders aus. Jeder Vektor oder Tensor hat auf Grund der unbegrenzten Vielfalt von Koordinatensystemen entsprechend viele Darstellungen durch Komponenten. Da bei jeder Wahl eines Systems die Komponenten andere Werte aufweisen, besteht eine wichtige Aufgabe deshalb darin, Beziehungen abzuleiten, die die Komponentenänderungen bei Basiswechsel beschreiben. Die Transformationstheorie, die ausgeht von der Invarianz der physikalischen Größen, ist damit eine Theorie über die Gesetze der Transformation der Komponenten. Besonders diese Transformationseigenschaften beim Wechsel der Koordinatensysteme sind Gegenstand der Tensorrechnung, die die Vektorrechnung als speziellen Fall umfasst. Sie begründen geradezu die Definition von Tensoren, wobei die Darstellung mit entsprechenden Transformationsmatrizen den Vorteil großer Übersichtlichkeit bietet. Auf Grund der aufgefundenen und daher dann bekannten Transformationsgesetze der Komponenten kann man in konkreten Fällen immer prüfen, ob eine Größe bei Basiswechsel diese Gesetze erfüllt und damit einen Vektor oder Tensor darstellt oder nicht.

4.3 Physikalische Felder

4.3 4.3.1

57

Physikalische Felder Der Begriff des Feldes

Ein physikalisches Feld beschreibt den Zustand des Raumes, der entweder als Vakuum leer oder mit Materie erfüllt sein kann. Der Raumzustand wird durch Feldgrößen charakterisiert, die die Feldeigenschaften in jedem Raum- und Zeitpunkt angeben und damit Orts- und Zeitfunktionen darstellen. Bei Kraft- oder Geschwindigkeitsfeldern kann man z.B. in jedem Raumpunkt den Zeitverlauf der entsprechenden Vektoren nach Betrag und Richtung angeben. In der phänomenologischen physikalischen Erfahrungswelt außerhalb von Quantentheorie und Mikrophysik sind Werte und Änderungen von Feldgrößen stetige Raumfunktionen. Unstetigkeiten können nur in besonderen Punkten oder auf bestimmten Linien oder Flächen auftreten, die durch besondere Randbedingungen physikalisch erfasst werden müssen. Felder werden durch bestimmte Quellen erzeugt und können durch ihre Wirkungen wie Kräfte, Momente oder Energieänderungen auf geeignete Test- oder Probekörper wie Masseteilchen, Probeladungen, Stromschleifen etc. nachgewiesen werden. Dabei unterstellt man, dass diese Probekörper so klein sind, dass sie als Sonden zwar zu Nachweis und Untersuchung der Felder dienen, diese aber nicht als zusätzliche Quellen verändern. Die Feldvorstellung geht zurück auf Michael Faraday (1791-1867), der als einer der größten Experimentatoren angesehen wird. Die zu seiner Zeit neuartige physikalische Betrachtungsweise des ganz von Kraftlinien durchdrungenen Raumes leitete eine völlig neue Epoche naturwissenschaftlichen Denkens ein, bei der der Spannungszustand des Raumes, den Faraday Feld nannte, seine Wirkung als Nah- oder Feldwirkung in endlicher Zeit von Ort zu Ort übermittelt und damit eine raumzeitliche Ausbreitung der elektromagnetischen Erscheinungen bewirkt. Damit wurden die bis dahin allein gültigen Vorstellungen der Fernwirkung in Frage gestellt, bei der physikalische Phänomene unmittelbar ohne Zeitverzug über beliebige Entfernungen hinweg ihre Wirkung entfalten wie bei den Gesetzen von Newton oder Coulomb, und durch neue Erkenntnisse und Einsichten ergänzt bzw. ersetzt. Vielleicht war es für die Fülle von Faradays Experimenten, sein intuitives Erkennen der Zusammenhänge und die Entwicklung seines neuen Feldbegriffs von Vorteil, dass er keine reguläre akademische Ausbildung be-

58

4 Physikalische Größen und Felder

saß, sondern als Autodidakt seinen eigenen anschaulichen Vorstellungen von Raum, Zeit und Kraft folgen konnte. James Clerk Maxwell (1831-1879), der als 40 Jahre jüngerer Bewunderer von Faraday diese Vermutung äußerte, gab dessen experimentellen Ergebnissen die angemessene, präzise mathematische Gestalt in Form seiner Maxwell’schen Gleichungen, die ausführlich im zweiten Band dargelegt und untersucht werden.

4.3.2

Beispiele für Felder und ihre Darstellungen

Je nach dem physikalischen Charakter der Feldgrößen unterscheidet man folgende Feldtypen mit Angabe einiger Beispiele, bei denen im statischen oder stationären Fall die Abhängigkeit von der Zeit t entfällt. Die erwähnten Vektoren und Tensoren werden in den Anwendungskapiteln erläutert. • Skalarfelder Temperaturfeld ϑ px, y, z, tq Potentialfeld V px, y, z, tq Gravitationspotential φ px, y, zq Darstellung durch Niveau- oder Höhenlinien der Flächen zweier Variabler in Form von Isothermen bzw. Äquipotentiallinien der Gradient eines Potentialfeldes stellt ein Vektorfeld dar • Vektorfelder Strömungs- oder Geschwindigkeitsfeld v px, y, z, tq elektrostatisches Feld E px, y, zq “ ´ grad V px, y, zq Darstellung durch Strom- oder Feldlinien, deren Tangenten die Richtung des Feldvektors angeben und deren Dichte seinem Betrag proportional ist • Tensorfelder

_

 px, y, zq Drehimpuls L px, y, zq “ Θ ¨ ω  wird bei Drehbewegungen der Rotationsvektor ω _ durch den Trägheitstensor Θ in den Vektor L abgebildet dielektrische Verschiebung D px, y, zq “ ε ¨ E px, y, zq in anisotropen Raumgebieten wie Kristallen bewirkt

4.3 Physikalische Felder

der Dielektrizitätstensor ε die Doppelbrechung Induktion B px, y, zq “ μ ¨ H px, y, zq in vormagnetisierten Ferriten bewirkt der Permeabilitätstensor μ die Faraday-Drehung

59

Teil II

Vektorrechnung

61

Kapitel 5

Vektorbeziehungen Zusammenfassung Nach den grundlegenden Vektoreigenschaften werden Mehrfachprodukte, Vektorzerlegung und Gram’sche Matrizen behandelt. Polare und axiale Vektoren werden dargestellt, wobei der axiale Vektor beim Kreuzprodukt unter zusätzlicher Festlegung der Rechtsschraubenregel entsteht. Beide Vektorarten werden in ihren Verknüpfungen und an Beispielen aus der Physik angegeben. Bei der Behandlung der Ableitung von Vektoren wird auf die Bewegung auf Bahnkurven, Relativbewegungen und auf die Grundgrößen von Raumkurven als Anwendungsbeispiele eingegangen. Abschließend wird die Integration von Vektorfunktionen behandelt, die in jeder Koordinatenrichtung unter Einbeziehung krummliniger Einheitsvektoren durchgeführt werden muss.

5.1

Grundlegende Eigenschaften von Vektoren

Der moderne Vektorbegriff und die heutige Vektoranalysis wurden durch zwei Naturforscher begründet, [2]. Der eine ist Josiah Willard Gibbs (1839 -1903), der sein Buch Elements of Vector Analysis in den Jahren 1881/84 publizierte. Der andere Wegbereiter der Vektorrechnung ist Oliver Heaviside (1850 -1925), [9], der ab 1882 sein vektorielles System in seinen Abhandlungen der elektromagnetischen Erscheinungen 1 verwende1

Heaviside, Electrical Papers, 1892

63 © Springer Fachmedien Wiesbaden GmbH, ein Teil von Springer Nature 2019 W. Werner, Vektoren und Tensoren als universelle Sprache in Physik und Technik 1, https://doi.org/10.1007/978-3-658-25272-4_5

64

5 Vektorbeziehungen

te und durch Anwendung auf die Maxwell’sche Theorie 2 dieser die heutige Form gab, sie vereinfachte und verständlicher machte und dadurch wesentlich zu ihrer Verbreitung und Akzeptanz beitrug.

5.1.1

Affiner Vektorbegriff

Vektoren im affinen Raum, [5, S. 13], [11, S. 80], werden ohne Bezug auf ein Koordinatensystem betrachtet und damit nur als geometrische oder physikalische Größen behandelt. Ein affiner Vektor a, den man auch als linear oder geradlinig interpretieren kann, wird durch seinen Anfangs- und Endpunkt und damit durch seine Richtung bestimmt, was die geometrische Deutung als gerichtete Strecke ermöglicht. Dabei kann der Anfangspunkt beim freien Vektor beliebig variiert werden, der Vektor im Raum unter Wahrung seiner Richtung also beliebig verschoben werden. Bei festgehaltenem Anfangspunkt liegt ein gebundener Vektor vor wie bei einer Kraft, die in einem festen Punkt angreift, oder beim Ortsvektor, der vom Ursprung eines Koordinatensystems zu einem variablen Punkt zeigt. Jeder Vektor a kann durch Multiplikation mit einer reellen Zahl, einem Skalar λ, in den in der Länge veränderten Vektor λa verwandelt werden.

5.1.2

Vektoraddition

Summe und Differenz zweier Vektoren werden als geometrische Addition bzw. Subtraktion in einem Parallelogramm veranschaulicht, die man auch als vektorielle Addition bezeichnet. Der Summenvektor a ` b “ b ` a ist kommutativ und der Differenzvektor a ´ b “ a ` p´ bq hat die Richtung vom Endpunkt oder der Spitze von b zum Endpunkt von a. Dabei können die Vektoren in der Zeichenebene unter Wahrung ihrer Richtungen beliebig verschoben werden. Für jeden Vektor a im dreidimensionalen Raum läßt sich eine eindeutige Zerlegung in Richtung von drei beliebig vorgegebenen, linear unabhängigen und damit nichtkomplanaren Basisvektoren u1 , u2 , u3 mit passenden, reellen Koeffizienten α, β und γ finden, wovon später in Koordinatensystemen ausgiebig Gebrauch gemacht wird. Als Beispiel wird die Zerlegung des Vektors a im kartesischen Koordinatensystem mit den Basisvektoren ex , ey , ez und den Koeffizienten ax , ay , az 2

Heaviside, Electromagnetic Theory, 3 Bde., 1893, 1899, 1912

5.1 Grundlegende Eigenschaften von Vektoren

65

a+b b

a-b ea

a

Abb. 5.1: Geometrische Addition und Subtraktion von Vektoren im Parallelogramm angegeben, was in den Abschnitten 6.3.1 und 7.1.1 ausführlich behandelt wird. a “ α u1 ` β u2 ` γ u3

a “ a x ex ` a y ey ` a z ez

(5.1)

Die drei Einzelvektoren αu1 , βu2 und γu3 , die im Sinne der vektoriellen Addition zusammengesetzt werden, heißen Teilvektoren oder vektorielle Komponenten und die Größen α, β, γ (skalare) Komponenten des Vektors a bezüglich der Richtungen der Basisvektoren uk . Da für die Komponenten neben negativen Werten auch Null erlaubt ist, können einzelne oder auch alle Teilvektoren Null sein, wodurch der Nullvektor mit eingeschlossen ist. Gelten die Definitionen der Addition und der Multiplikation mit reellen Zahlen gemäß (5.1), dann heißt der Raum linearer oder affiner Vektorraum.

5.1.3

Skalarprodukt und metrische Eigenschaften

Der affine Raum wird durch die Definition eines Skalarproduktes zweier Vektoren zum euklidischen Raum erweitert, in dem metrische Eigenschaften existieren, [11, S. 142]. Das Skalarprodukt S zweier Vektoren a und b, das stets mit einem Punkt geschrieben wird, ist eine skalare Größe ggf. mit physikalischer Einheit

66

5 Vektorbeziehungen

oder Dimension mit der folgenden Definition. S “ a ¨ b “ b ¨ a “ | a | | b | cos pa, bq

(5.2)

Das Skalarprodukt ist kommutativ und entspricht dem Produkt aus der Länge der beiden Vektoren und dem Kosinus des von ihnen eingeschlossenen Winkels oder dem Produkt aus der Länge des einen Vektors und der orthogonalen Projektion des anderen Vektors in Richtung des ersten. Zu beachten ist aber die Verallgemeinerung bei Tensoren in Abschnitt 10.3.2! Länge oder Betrag eines Vektors und damit der Abstand zwischen Anfangs- und Endpunkt sind stets positiv und ergeben sich aus dem Skalarprodukt zu a ¨ a “ a 2 “ | a | 2 “ a2

? |a| “ a “ ` a ¨ a ą 0

(5.3)

Das Skalarprodukt ist Null, wenn beide Vektoren zueinander orthogonal sind. Im dreidimensionalen Raum stehen sie dann aufeinander senkrecht. Durch das Skalarprodukt wird der Winkel ψ zwischen zwei Vektoren definiert. a¨b cos ψ “ cos pa, bq “ (5.4) |a||b| Das Skalarprodukt ist eine rein algebraische Definition, bei der die gesamte Aussage in der Definition (5.2) enthalten ist. Die Einführung des Skalarproduktes, die den affinen Raum zum euklidischen Vektorraum erweitert, definiert die Metrik des Raumes durch Betrag, Abstand und Winkel.

5.1.4

Einheitsvektoren

Einheitsvektoren sind spezielle Vektoren, die den Betrag Eins haben und meist mit e bezeichnet werden. Zu jedem Vektor a kann man den Einheitsvektor angeben, der dessen Richtung bestimmt. Durch diese Operation erreicht man eine Normierung des Vektors auf die Länge Eins. ea “

a |a|

mit

| ea | “ 1

5.1 Grundlegende Eigenschaften von Vektoren

67

In Koordinatensystemen erhalten Einheitsvektoren zur Unterscheidung als Index die Achsen- oder Koordinatenbezeichnung wie bei ex , eρ oder eϕ . In krummlinigen Koordinatensystemen, die in Kapitel 14 behandelt werden, sind die Einheitsvektoren zwar vom Betrage her konstant, aber sie können von Punkt zu Punkt ihre Richtung ändern. Deshalb ist bei Ableitungen und Integrationen die Ortsabhängigkeit von Einheitsvektoren zu berücksichtigen (s. Abschnitt 5.7)! Spezielle Einheitsvektoren werden gesondert bezeichnet, wie für Tangenten oder Normalen mit t oder n oder in krummlinigen, orthogonalen Koordinatensystemen mit c.

5.1.5

Kreuzprodukt

Das Vektor- oder Kreuzprodukt zweier Vektoren a und b ist ein dritter Vektor c, der auf dem von a und b gebildeten Parallelogramm senkrecht steht und dessen Betrag dem Flächeninhalt dieses Parallelogramms entspricht. c “ a ˆ b “ ´ b ˆ a “ | a | | b | sin pa, bq ec “ | c | ec

(5.5)

ec “ c { | c | ist der Einheitsvektor des Kreuzproduktes. Das Vektorprodukt ist nicht kommutativ sondern alternativ. Wenn die Ausgangsvektoren parallel oder identisch sind, dann ist das Kreuzprodukt Null. `

˘ ` ˘ ka ˆ a “ k a ˆ a “ 0

(5.6)

Zur vollständigen Definition des Kreuzproduktes muss die Richtung des Vektors c im Raum festgelegt werden. Dazu wird der Rand des Parallelogramms mit einem Umlaufsinn versehen und das Parallelogramm selbst als gerichtete Fläche oder Plangröße bezeichnet. Die Richtung im Raum wird dem Vektor c gemäß Umlaufsinn nach der Rechtsschraubenregel zugeordnet, wie sie in Abbildung 5.5 dargestellt ist. Bei a ˆ b wird der Vektor a dabei auf dem kürzeren Weg in den Vektor b gedreht. Diese zusätzliche Bedingung der Rechtsschraubenregel erscheint etwas künstlich im Vergleich mit der rein algebraischen Definition des Skalarproduktes, aber bei der Behandlung spezieller Tensoren im Kapitel 11

68

5 Vektorbeziehungen

kann man dem Kreuzprodukt eine neue, allgemeingültige und ebenfalls rein algebraische Interpretation geben. In der Praxis ist die Rechtsschraubenregel Naturwissenschaftlern und Ingenieuren vertraut und durch spezielle Handbewegungen, z.B. Drei-FingerRegel, ein bewährtes Hilfsmittel, um sich die Richtung physikalischer Vektoren schnell und einfach vor Augen zu führen.

5.2

Mehrfachprodukte der Vektorrechnung

5.2.1

Spatprodukt

Das Spatprodukt, das auch als gemischtes Produkt bezeichnet wird, stellt einen Skalar dar und gibt das Volumen des Parallelepipeds an, das von den drei Vektoren a, b und c aufgespannt wird.

x a, b, c y “ a ¨ p b ˆ c q “ b ¨ p c ˆ a q “ c ¨ p a ˆ b q “ ´ x a, c, b y (5.7) Durch das Kreuzprodukt ist das Spatprodukt alternativ und wegen der angegebenen Eigenschaft kann man bei einem Spatprodukt die Zeichen und Klammern vertauschen. a ¨ pb ˆ cq “ pa ˆ bq ¨ c Beim Tausch zweier Vektoren tritt ein Vorzeichenwechsel auf, weshalb man das Spatprodukt auch als Pseudoskalar bezeichnet. Das Spatprodukt ist Null, wenn zwei Vektoren kollinear oder alle drei Vektoren komplanar sind, weil dann das Volumen verschwindet. Ein nichtverschwindendes Spatprodukt x a, b, c y ‰ 0 stellt daher das Kriterium für die lineare Unabhängigkeit der drei Vektoren dar! Als gleichwertige Aussage gilt, dass drei nichtkomplanare Vektoren keinen Nullvektor erzeugen können. Für alle Basisvektoren von Koordinatensystemen, die grundsätzlich als nichtkomplanar vorausgesetzt werden, gilt daher stets x ea , e b , e c y ‰ 0

5.2 Mehrfachprodukte der Vektorrechnung

5.2.2

69

Doppeltes Kreuzprodukt, Entwicklungssatz

Bildet man das doppelte Kreuzprodukt aus drei Vektoren, so liegt der Ergebnisvektor in der Ebene der beiden geklammerten Vektoren.

a ˆ pb ˆ cq “ bpa ¨ cq ´ cpa ¨ bq

(5.8)

Mit Hilfe des Entwicklungssatzes wird ein spezielles Produkt für anschließende Verwendung gebildet. ra ˆ pv ˆ wqs ¨ ru ˆ pb ˆ cqs “ rvpa ¨ wq ´ wpa ¨ vqs ¨ rbpu ¨ cq ´ cpu ¨ bqs “ `pa ¨ wqpb ¨ vqpc ¨ uq ´ pa ¨ wqpb ¨ uqpc ¨ vq ´ pa ¨ vqpb ¨ wqpc ¨ uq ` pa ¨ vqpb ¨ uqpc ¨ wq     b¨u b¨w  b¨u b¨v      “ pa ¨ vq ´ pa ¨ wq c¨u c¨w  c¨u c¨v 

5.2.3

Vierfachprodukt, Identität von Lagrange

Das Skalarprodukt zweier Kreuzprodukte findet man durch Anwendung von Spatprodukt und Entwicklungssatz. “ ‰ pa ˆ bq ¨ pc ˆ dq “ a ¨ b ˆ pc ˆ dq “ pa ¨ cqpb ¨ dq ´ pa ¨ dqpb ¨ cq   a¨c a¨d   pa ˆ bq ¨ pc ˆ dq “  b¨c b¨d 

(5.9)

Der Sonderfall mit nur zwei verschiedenen Vektoren heißt Identität von Lagrange und stellt das Betragsquadrat des Kreuzproduktes dar. p a ˆ b q ¨ p a ˆ b q “ | a ˆ b | 2 “ pa ¨ aq pb ¨ bq ´ pa ¨ bq2

(5.10)

70

5 Vektorbeziehungen

Mit Hilfe des Vierfachproduktes wird das spezielle Produkt von oben anders aufgelöst, ra ˆ pv ˆ wqs ¨ ru ˆ pb ˆ cqs “ pa ¨ uqrpb ˆ cq ¨ pv ˆ wqs ´ ra ¨ pb ˆ cqsru ¨ pv ˆ wqs “ p a ¨ u q r p b ˆ c q ¨ p v ˆ w q s ´ x a, b, c y x u, v, w y wobei im ersten Summanden gilt  b¨v b¨w p b ˆ c q ¨ p v ˆ w q “ p b ¨ v qp c ¨ w q ´ p b ¨ w qp c ¨ v q “  c¨v c¨w

5.2.4

   

Gram’sche Determinante

Aus den beiden Darstellungen des speziellen Produktes kann nach geeigneter Zusammenfassung das doppelte Spatprodukt dargestellt werden, das als Gram’sche Determinante die Skalarprodukte aller sechs Vektoren enthält.   a¨u a¨v a¨w  x a, b, c y x u, v, w y “  b ¨ u b ¨ v b ¨ w  c¨u c¨v c¨w

     

(5.11)

Bei identischen Vektorsätzen hat die Gram’sche Determinante als Quadrat des Spatproduktes stets einen positiven Wert und ist damit bei beliebiger Wahl dreier Vektoren positiv definit.   a¨a a¨b a¨c  2 x a, b, c y “  b ¨ a b ¨ b b ¨ c  c¨a c¨b c¨c

    ě 0  

(5.12)

Wie das Spatprodukt bietet auch das Nichtverschwinden der Gram’sche Determinante ein Kriterium für die lineare Unabhängigkeit von drei Vektoren. Dabei liegt der Vorteil bei der Gram’sche Determinante darin, dass man das Kriterium auf beliebig viele Vektoren in n-dimensionalen Räumen verallgemeinern kann, [4, S. 228].

71

5.3 Physikalische Einteilung der Vektoren

5.3 5.3.1

Physikalische Einteilung der Vektoren Inversion des Koordinatensystems

Inversion oder Spiegelung bedeutet in einem kartesischen Koordinatensystem den Richtungswechsel von ein, zwei oder drei Koordinatenachsen und damit den Übergang von einem Rechts- zu einem Linkssystem.

r

ez

eξ = − e x

P z

ex

r'

eη = − e y

ey

z'

x y

eζ = − e z

P x'

y'

Abb. 5.2: Inversion des kartesischen Koordinatensystems Damit ein Vektor invariant gegenüber einer Spiegelung ist und im invertierten System zum gleichen räumlichen Punkt P weist, müssen seine neuen Komponenten den negativen alten entsprechen. Für den Ortsvektor r in kartesischer Darstellung gilt dann r “ x ex ` y ey ` z ez

(5.13)

r “ x1 eξ ` y 1 eη ` z 1 eζ “ p´ xq eξ ` p´ yq eη ` p´ zq eζ “ r 1

5.3.2

Polare Vektoren

Vektoren, die sich bei Inversion in der Weise verhalten, dass sie im invertierten System bzw. im Spiegelbild umschlagen und ihre Aktionsrichtung umkehren, werden polare Vektoren (echte Vektoren) oder Schubvektoren genannt. Sie werden dargestellt durch einen Pfeil, der ihren Betrag und ihre Richtung im Raum kennzeichnet.

72

5 Vektorbeziehungen

Vektor

Spiegelbild

Abb. 5.3: Richtungsumkehr des polaren Vektors im Spiegelbild

5.3.3

Axiale Vektoren

In der Physik treten Größen auf, die durch einen Umlaufsinn gekennzeichnet sind (Drehvektoren). Diese Aktion von Umlauf oder Drehung ist der eigentliche physikalische Vorgang wie z.B. bei Drehmoment oder Winkelgeschwindigkeit, wobei die Drehachse durch den Vektor bezeichnet wird, den man dann zur Unterscheidung als Pfeil mit zwei Spitzen zeichnen kann. Dabei ist die Zuordnung von Richtung und Umlaufsinn ‚ in Rechtssystemen eine Rechtsschraube (Normalfall) ‚ in Linkssystemen eine Linksschraube (in Sonderfällen) Im Spiegelbild dreht sich zwar die Richtung des Vektorpfeils wie beim polaren Vektor um, Umlaufsinn und physikalischer Vorgang bleiben dagegen erhalten! Vektoren, die bei Inversion die Aktionsrichtung bzw. die Drehung im Spiegelbild beibehalten und nicht umkehren, werden axiale Vektoren genannt. Beim Kreuzprodukt (5.5) c“aˆb

mit

c K a und c K b

steht c senkrecht auf den (polaren) Vektoren a und b und seine Richtung im Raum wird durch die Rechtsschraubenregel zusätzlich festgelegt. ‚ Das Kreuzprodukt ist der Prototyp des axialen Vektors!

5.3 Physikalische Einteilung der Vektoren

73

Rechtsschraube

Linksschraube

Abb. 5.4: Konstanz der Drehbewegung des axialen Vektors im Spiegelbild

5.3.4

Flächenelement

Der Vektor des Flächenelementes da steht senkrecht auf der Fläche und weist im Sinne einer Rechtsschraube in Richtung des Einheitsvektors n der Flächennormalen, die sich aus dem Kreuzprodukt zweier Tangentenvektoren ergibt.

da eu

n ev da = du dv

Abb. 5.5: Zuordnung von Flächenelement, Normale und Umlaufsinn gemäß Rechtsschraubenregel

74

5 Vektorbeziehungen

Das gerichtete Flächenelement da “ n da “ eu ˆ ev du dv stellt als Fläche mit Umlaufsinn eine Plangröße dar und ist wegen des Kreuzproduktes ebenfalls ein axialer Vektor.

5.3.5

Multiplikative Verknüpfung von Skalaren und Vektoren

Bezeichnung der verschiedenen Größen ‚ echte Skalare

S, S1 , S2

‚ Pseudoskalare

Ψ, Ψ1 , Ψ2

‚ polare Vektoren

p, p1 , p2

‚ axiale Vektoren

A, A1 , A2

Die Produkte der verschiedenen Größen führen auf folgende Ergebnisse, bei denen der Betrag von polaren und axialen Vektoren ein echter Skalar ist. S1 S 2 “ S

S Ψ1 “ Ψ

Ψ1 Ψ 2 “ S

S p1 “ p

Ψp “ A

p ¨ p “ |p|2 “ S

S A1 “ A

ΨA “ p

A ¨ A “ |A|2 “ S

p1 ¨ p2 “ S

p¨A“Ψ

A1 ¨ A2 “ S

p1 ˆ p2 “ A

p1 ˆ A “ p

A1 ˆ A 2 “ A

(5.14)

Die Differentialoperatoren Nabla ∇, den man als einen polaren Vektor deuten kann, sowie Gradient (grad), Divergenz (div), Rotation (rot) und Delta (Δ) werden erst im Kapitel 17 ausführlich erörtert.

75

5.3 Physikalische Einteilung der Vektoren

Der Charakter der mit diesen Operatoren gebildeten Größen soll hier aber bereits angegeben werden. grad S “ ∇S div p “ ∇ ¨ p

“p “S

rot p “ ∇ ˆ p “ A div grad S “ ΔS

“S

grad Ψ “ ∇Ψ div A “ ∇ ¨ A

“A “Ψ

rot A “ ∇ ˆ A “ p div grad Ψ “ ΔΨ

(5.15)

“Ψ

Physikalische Gleichungen sind nur dann korrekt, wenn sie auf beiden Seiten des Gleichheitszeichens den gleichen Charakter der Größen sowie die gleiche Einheit oder Dimension aufweisen. Auf beiden Seiten müssen also entweder Skalare, polare bzw. axiale Vektoren oder Tensoren einer bestimmten Stufe mit der gleichen Einheit auftreten, was man durch eine Dimensionskontrolle überprüfen kann.

5.3.6

Beispiele physikalischer Skalare und Vektoren

Aufgeführt sind diejenigen Größen nach Charakter und mit prinzipiellen Beziehungen, die in den Anwendungen im zweiten Band auftreten. 5.3.6.1

Skalare

Masse Trägheitsmoment Materialkonstanten Ladungsgrößen Arbeit, Energie Potential magnetischer Fluß 5.3.6.2

m Θ ε, μ, κ Q, ρ “ div D dW “ F ¨ dr, E kin , Erot V, ϕ, φ dΨm “ B ¨ da

Pseudoskalare

Volumen, Volumenelement Spatprodukt dielektrischer Fluß Strom

v, dv a ¨ pb ˆ cq dΨe “ D ¨ da dI “ J ¨ da

76

5 Vektorbeziehungen

5.3.6.3

Polare Vektoren

Einheitsvektoren konstanter Vektor Ortsvektor, Abstandsvektor Wegelement Geschwindigkeit Beschleunigung Kraft Impuls elektrische Feldstärke dielektrische Verschiebung Stromdichte Vektorpotential Poynting-Vektor 5.3.6.4

e x , e y , ez , . . . ˘ u rP , r “ rP ´ rQ dr v “ dr{dt a “ dv{dt F p “ mv E “ ´ grad V D “ εE J “ rot H ´ dD{dt A S “EˆH

Axiale Vektoren

Fläche, Flächenelement Drehmoment Drehimpuls, Drall Winkelgeschwindigkeit magnetische Feldstärke Induktion

5.4 5.4.1

a, da “ n da M “rˆF L“rˆp ω H B “ μH “ rot A

Vektoren im Raum Zerlegung eines Vektors bezüglich einer Richtung

Der Einheitsvektor n mit | n | “ 1 weise in eine beliebige, vorgegebene Raumrichtung. Häufig ist n der Normalenvektor einer Fläche im Raum, der damit senkrecht auf der Tangentialebene dieser Fläche steht. Ein beliebiger Vektor a wird zerlegt in Richtung von n und senkrecht dazu, wobei der Teilvektor a || “ n ¨ a durch orthogonale Projektion von a auf n entsteht (Abbildung 5.6). a “ a || ` a K

77

5.4 Vektoren im Raum

a

a

a| a ||

n a n

n

n (n a)

Abb. 5.6: Vektorzerlegung Nach dem Entwicklungssatz (5.8) gilt n ˆ p n ˆ a q “ n looomooon p n ¨ a q ´ a looomooon p n ¨ n q “ a || ´ a “ ´ a K “ | a || |

“1

Der Zerlegungssatz für Vektoren sagt aus, dass ein beliebiger Vektor a stets in zwei Teilvektoren zerlegt werden kann, die in Richtung eines Einheitsvektors n und senkrecht zu diesem zeigen. a “ a || ` a K “ n p n ¨ a q ´ n ˆ p n ˆ a q

aK “ a ´ npn ¨ aq

(5.16) Ist n der Normalenvektor einer Fläche, so stellt dieser Satz die Zerlegung des Vektors a in seine Normal- und Tangentialkomponente bezüglich dieser Fläche dar. Diese Zerlegung ist ein nützliches Hilfsmittel zur Formulierung von Randbedingungen bei Problemen der Feldtheorie.

5.4.2

Vektordarstellung von Ebenen

Gegeben sei der Ortsvektor rM zum Punkt M , der wegen späterer Anwendung mit dem Wellenvektor k vom Betrag k indentifiziert wird und der den Einheitsvektor n hat, (Abbildung 5.7). rM besitzt dann folgende Darstellung. rM “ xM ex ` yM ey ` zM ez “ k “ k n

78

5 Vektorbeziehungen

In der Darstellung des Einheitsvektors n sind die Koeffizienten p, q, r die Richtungscosinus gegen die Achsen eines kartesischen Koordinatensystems, deren Quadrate sich zu Eins summieren. n “ p ex ` q ey ` r ez “ cos α ex ` cos β ey ` cos γ ez Die Skalarprodukte der Vektoren ergeben n ¨ n “ p2 ` q 2 ` r2 “ cos2 α ` cos2 β ` cos2 γ “ 1 n ¨ rM “ p xM ` q yM ` r zM “ k Gesucht wird die Ebene, die durch M geht und zu rM “ k senkrecht ist, also n als Flächennormale besitzt. In dieser Ebene liege der Vektor rM P , der von M zum beliebigen Punkt P mit dem Ortsvektor r zeigt. Der Einheitsvektor t von rM P , dessen Richtungscosinus λ, μ, ν sind, muss zu n orthogonal sein. t “ λ ex ` μ ey ` ν ez t ¨ n “ λp ` μq ` νr “ 0 r M P “ τ t “ r ´ k “ r ´ rM Das Skalarprodukt von rM P und n liefert folgende Beziehung. ˘ ` ˘ ` λp ` μq ` νr “ 0 “ px ` qy ` rz ´ loooooooooooomoooooooooooon pxM ` qyM ` rzM rM P ¨ n “ τ loooooooomoooooooon “ t¨n “ 0

“ n¨rM “ k

Daraus geht die Hesse’sche Normalform der Ebenengleichung hervor, px ` qy ` rz “ k

n ¨ r “ r cos ψ “ k

(5.17)

bei der die Koeffizienten p, q, r die Richtungscosinus der Normalen n und k den Abstand der Ebene vom Ursprung bedeuten. Die Division der Hesse-Form durch k liefert mit den Strecken a, b, c, die die Ebene auf den kartesischen Koordinatenachsen abschneidet, a“

k k “ , cos α p

b“

k k “ , cos β q

c“

k k “ cos γ r

79

5.4 Vektoren im Raum

n

rMP

P

M

rM = k



r

O Abb. 5.7: Vektoren bei der Ebene im Raum

die Achsenabschnittsform der Ebene. x y z ` ` “1 a b c

(5.18)

Durch Quadrieren und Addieren der drei vorletzten Beziehungen erhält man die Darstellung des Ebenenabstandes durch die Achsenabschnitte. ´ k ¯2 a

`

´ k ¯2

k“c

b

`

´ k ¯2 c

“ p2 ` q 2 ` r2 “ cos2 α ` cos2 β ` cos2 γ “ 1

1 abc “a 2 2 1 1 1 a b ` a 2 c 2 ` b2 c 2 ` ` a 2 b2 c 2

(5.19)

Die allgemeine Gleichung der Ebene

Ax ` By ` Cz “ D

(5.20)

80

5 Vektorbeziehungen

kann durch Division mit einem Faktor w , A “ wp . ` 2 ˘ B “ wq p ` q 2 ` r2 “ w2 Ñ A2 ` B 2 ` C 2 “ w2 loooooooomoooooooon C “ wr “1 auf Hesse-Form (5.17) gebracht werden. A B C D x ` y ` z “ px ` qy ` rz “ “k w w w w

Gram’sche Matrizen

5.5 5.5.1

Gram’sche Matrix für zwei Sätze von Vektoren

Die Gram’sche Matrix ist das dyadische Skalarprodukt (3.8) zweier beliebiger Sätze von Vektoren. Die Determinante dieser Matrix ist als Gram’sche Determinante bereits in (5.11) aufgetreten. Für zwei Vektorsätze a # und v # , bei denen der formale Laufindex p#q die Werte 1, 2, 3 annehmen kann mit einer Verallgemeinerung auf beliebige Werte n, enthält die Gram’sche Matrix die Skalarprodukte aller sechs Vektoren und lautet ¨ ˛ a ` ˘ ˘ ` ˘T ˚ 1 ‹ ` G a # , v # “ a # ¨ v # “ ˝a2 ‚¨ v1 , v2 , v3 a3 ˛ ¨ a1 ¨ v1 a1 ¨ v2 a1 ¨ v3 ‹ ˚ “ ˝ a2 ¨ v1 a2 ¨ v2 a2 ¨ v3 ‚ a3 ¨ v1 a3 ¨ v2 a3 ¨ v3

(5.21)

Bei identischen Vektorsätzen sind die Gram’schen Matrizen symmetrisch und werden Eigenmatrizen genannt. ` ˘ “ ` ˘ ‰T ` ˘T G a #, a # “ G a #, a # “ a# ¨ a#

(5.22)

81

5.5 Gram’sche Matrizen

Gram’sche Matrizen G p..q müssen von den im Abschnitt 6.6.3 betrachteten Metrikmatrizen G # und G# unterschieden werden, was durch die Indizierung problemlos möglich ist. Im besonderen Fall reziproker Vektoren gehen sie allerdings ineinander über.

5.5.2

Reziproke Vektoren und Reziprozitätsbedingung

Vektorsätze werden zueinander reziprok genannt, wenn die Vektoren des einen Satzes jeweils senkrecht stehen auf denjenigen Vektoren des anderen Satzes, die abweichende Indizes haben. Bei gleich indizierten Vektoren wird Eins gefordert. Im Hinblick auf die Anwendung ab Kapitel 6 werden reziproke Vektoren mit g bezeichnet und durch entgegengesetzte Stellung der Indizes gekennzeichnet. ¨ ˛ ¨ 1˛ g1 g ˚ ‹ ˚ 2‹ # g “ ˝g ‚ g “ ˝g2 ‚ , # g3 g3 Die Reziprozitätsbedingung für zwei solche Vektorsätze wird gebildet mit dem Kronecker-Symbol, das auf den Mathematiker Leopold Kronecker (1823 -1891) zurückgeht. # 1 i“k gi ¨ gk “ δik “ 0 i‰k g

#

` ˘T ` ˘ ¨ g# “ G g , g# “ E #

(5.23)

• Die Gram’sche Matrix für reziproke Vektoren ist eine Einheitsmatrix! Für zwei reziproke Vektorsätze ist in Abbildung 6.1 die relative Lage der Vektoren anschaulich dargestellt.

5.5.3

Vektorzerlegung nach reziproken Vektoren

Zerlegt man die Vektoren des einen Satzes in Richtung der Vektoren des reziproken Satzes, gi “ αi1 g1 ` αi2 g2 ` αi3 g3

82

5 Vektorbeziehungen

so findet man die Koeffizienten α durch Bildung der Skalarprodukte. g1 ¨ gk ` αi2 loomoon g2 ¨ gk ` αi3 loomoon g3 ¨ gk “ αik gi ¨ gk “ αi1 loomoon “0

“0

“ 1 pk “ 2q

Zusammenfassend erhält man aus der Zerlegung damit die folgenden Transformationsbeziehungen für die Umrechnung reziproker Vektorsätze mit den symmetrischen Gram’schen Eigenmatrizen. g

#

˘ ` g# “ G g# , g# g

˘ # ` “G g ,g g #

#

#

(5.24)

˛ g1 ¨ g1 g1 ¨ g2 g1 ¨ g3 ˘ ˚ ` ‹ G g ,g “ ˝ g1 ¨ g2 g2 ¨ g2 g2 ¨ g3 ‚ # # g1 ¨ g3 g2 ¨ g3 g3 ¨ g3 ¨

˛ g1 ¨ g1 g1 ¨ g2 g1 ¨ g3 ` ˘ ˚ ‹ G g# , g# “ ˝ g1 ¨ g2 g2 ¨ g2 g2 ¨ g3 ‚ g1 ¨ g3 g2 ¨ g3 g3 ¨ g3 ¨

(5.25)

Setzt man die beiden Beziehungen(5.24) ineinander ein, dann ergibt sich, dass Gram’sche Eigenmatrizen reziproker Vektoren zueinander invers und wegen der Symmetrie auch kontragredient sind. ˘ ı´1 ˘ ” T` ˘ ` ` G g# , g# “ G´1 g , g “ G g ,g #

#

#

#

(5.26)

Daraus folgt, dass die Reziprozitätsbedingung (5.23) die gegenseitige Darstellung reziproker Vektoren durch Gram’sche Eigenmatrizen gemäß (5.24) nach sich zieht! $ ˘ # ` ’ & g # “ G g #, g # g ` # ˘T “E Ñ g ¨ g ` ˘ # ’ % g# “ G g# , g# g #

Im weiteren Verlauf werden Vektorsätze häufig durch andere dargestellt, meist als Sätze von Basisvektoren bestimmter Koordinatensysteme, wobei

83

5.6 Ableitung von Vektoren

die Umrechnungen durch Gram’sche Matrizen nach (5.21) vermittelt werden. Die Untersuchung reziproker Koordinatensysteme im folgenden Kapitel wird zeigen, dass die beiden Gram’schen Matrizen (5.25) besondere Bedeutung besitzen, die dort als Metrikmatrizen eingeführt werden.

5.6 5.6.1

Ableitung von Vektoren Produkte und Einheitsvektor

Sind zwei Vektoren von einer Variablen u abhängig, dann gilt für die Ableitung von Skalarprodukt und Kreuzprodukt ˘ da d` da a¨b “ ¨b ` b ¨ du du du

˘ da d` da aˆb “ ˆb ` b ˆ du du du

(5.27) Für Vektoren konstanten Betrages wie den Tangenteneinheitsvektor t, dessen Richtung ortsabhängig sein kann, gilt ˘ dt d d ` | t |2 “ 0 t ¨ t “ 2t ¨ “ du du du



dt “0 du

Ñ

tK

dt du

für

|t| “ 1

(5.28)

• Ein Einheitsvektor t und seine Ableitung stehen senkrecht aufeinander!

5.6.2

Bewegung von Punkten auf Bahnkurven

Bei kinematischen Vorgängen mit der Zeit t als Parameter beschreibt der Ortsvektor rptq die Bahnkurve eines Punktes P im Raum, an dem sich z.B. ein Masseteilchen befinden kann. Das Element der Bogenlänge s der Bahnkurve hat den Wert | dr | “ ds. Seit Newton werden Zeitableitungen von Ortsfunktionen, die er Fluxionen nannte, durch übergesetzte Punkte gekennzeichnet.

84

5 Vektorbeziehungen

Die erste zeitliche Ableitung des Ortsvektors ist die Bahngeschwindigkeit v des Punktes P in Richtung des Tangenteneinheitsvektors t. vptq “

dr ds 9 “ | r9 | t “ v t “ “ rptq t dt dt

(5.29)

Die zweite zeitliche Ableitung ist die Bahnbeschleunigung a, aptq “

dt dv dv d2 r 9 “ vptq “ 2 “ r:ptq “ t `v dt dt dt dt

(5.30)

die sowohl eine Tangentialkomponente als auch wegen (5.28) eine dazu senkrechte Normalkomponente besitzt. Geschwindigkeit vptq und Beschleunigung aptq stellen die Bewegungsgrößen des Raumpunktes dar. Da im Newton’schen Bewegungsgesetz (3.2, Bd. II) wie in der Lorentz-Kraft (5.16, Bd. II) die Beschleunigung a “ r: nur durch r und r9 bestimmt wird, benötigt man keine höheren Zeitableitungen des Ortsvektors. Bei Darstellung ebener Kurven in Polarkoordinaten pρ, ϕq (s. Abschnitt 18.5.2) gilt für den Ortsvektor rptq “ ρptq eρ ptq

mit zeitabhängigem Azimut ϕptq

Mit den Ableitungen der polaren Einheitsvektoren eρ ptq “ ` cos ϕ ex ` sin ϕ ey

Ñ

e9 ρ “ ` ϕ9 eϕ

eϕ ptq “ ´ sin ϕ ex ` cos ϕ ey

Ñ

e9 ϕ “ ´ ϕ9 eρ

erhält man die Vektoren von Geschwindigkeit und Beschleunigung. 9 “ vR ` vF vptq “ rptq aptq “ r:ptq “ aR ` aF ` aC

“ ρ9 eρ ` ρϕ9 eϕ “ ‰ “ ρ: eρ ` ρ ´ ϕ9 2 eρ ` ϕ: eϕ ` 2 ρ9 ϕ9 eϕ (5.31)

Die verschiedenen Anteile heißen für ` ˘ ρ “ const. ρ9 “ ρ: “ 0 ` ˘ ϕ “ const. ϕ9 “ ϕ: “ 0

Ñ

Führungsgrößen

Ñ

Relativgrößen

Der dritte Anteil von aptq stellt die nach ihrem Entdecker Gaspard Coriolis (1792 -1843) benannte Coriolis-Beschleunigung dar.

85

5.6 Ableitung von Vektoren

5.6.3

Geradlinige Bahnkurve

Der einfachste Fall der Bewegung einer Masse m auf einer geraden Bahn wurde von Galileo Galilei (1564 -1642) in seinen Versuchen zum freien Fall mit rollenden Kugeln auf schiefen Ebenen untersucht und 1638 in seinem Hauptwerk Discorsi veröffentlicht. Dieses Buch steht am Beginn der modernen abendländischen Physik, da hier zum ersten Mal die Naturerkenntnis durch Experiment und mathematische Beschreibung gewonnen wird. Als Ergebnis der beschleunigten Bewegung hängen der durchlaufene Weg s und die dafür benötigte Zeit t im Fallgesetz quadratisch zusammen, wobei die Erdbeschleunigung g als gemessene Proportionalitätskonstante auftritt. s“

5.6.4

1 2 gt 2

Ñ

g “ 9.81

m s2

(5.32)

Kreisförmige Bahnkurve

Als spezieller ebener Fall wird die Bewegung auf einer Kreisbahn vom Radius R betrachtet, die in mathematisch positiver Richtung erfolgt. Aus der Proportionalität von Bogenlänge s und Winkel ϕ beim Kreis mit dem Umfang U folgt deren linearer Zusammenhang. U 2πR s “ “ ϕ 2π 2π

Ñ

s “ Rϕ

Ñ

ds “ R dϕ

(5.33)

Der dimensionslose ebene Winkel ϕ wird in Bogenmaß mit der Benennung Radian rrads oder in Grad r˝ s gemessen. Die Winkeländerung bei Zuwachs der Bogenlänge wird bei beliebigen Kurven als Krümmung κ bezeichnet, die dem reziproken Krümmungsradius entspricht und für den Kreis konstant ist.

κ“

1 dϕ “ ds R

(5.34)

Bewegt sich der Punkt mit der Winkelgeschwindigkeit ωptq auf dem Kreis, wobei von den Kräften abgesehen wird, die die Führung auf dem

86

5 Vektorbeziehungen

Kreis erzwingen, dann gilt für die kinematische Beschreibung dϕ “ ϕptq 9 “ ωptq dt

(5.35)

Auf der Kreisbahn bestehen Bahngeschwindigkeit und Bahnbeschleunigung nur aus den Führungsgrößen. vptq “ vF ptq “ vptq eϕ “

ds eϕ “ R ωptq eϕ dt

aptq “ aF ptq “ aptq eρ “ ´ R ω 2 ptq eρ ` R ωptq 9 eϕ Der radiale, nach innen gerichtete Anteil von a heißt Zentripetalbeschleunigung, der z.B. durch eine Seilkraft aufgebracht werden kann. Wird die Kreisbahn bei konstanter Winkelgeschwindigkeit ω0 mit gleichförmiger Bewegung durchlaufen, dann haben die Bewegungsgrößen die folgenden konstanten Beträge. v “ R ω0

a “ R ω02 “ v ω0 “

v2 R

(5.36)

Bei der Rotation des Ortsvektors r von konstantem Betrag, bei der der Vektor auf einem Kegelmantel und seine Spitze auf einem Kreis umlaufen (Abbildung 5.8), steht dessen Umfangsgeschwindigkeit v “ r9 nach (5.28) sowohl senkrecht auf r als auch auf dem Radiusvektor c mit | c | “ R. Ordnet man der Winkelgeschwindigkeit ω0 “ ϕ9 einen Rotationsvektor zu,  “ ω0 e ω ω der im Sinne einer Rechtsschraube auf der Bewegungsebene senkrecht steht, dann gilt für den Ortsvektor r bei konstantem Vektor rM r “ rM ` c

Ñ

r9 “ r9 M ` c9 “ c9

Die Umfangsgeschwindigkeit kann man wegen (5.31) v “ R ω0 | c | “ R “ r sin ϑ “ const.

87

5.6 Ableitung von Vektoren



R

M

c

v=

dr dt

P

rM r



 O Abb. 5.8: Rotation eines Vektors auf einer Kreisbahn als Kreuzprodukt darstellen.  ˆ r “ c9 “ ω  ˆc v “ r9 “ ω

Ñ

v“

dr  ˆr “ω dt

(5.37)

In einem zylindrischen System, bei dem der Rotationsvektor in z-Richtung weist und die Winkelgeschwindigkeit ω0 konstant ist, gilt dann v “ ω0 ez ˆ r “ ω0 ez ˆ c “ ω0 r sin ϑ eϕ “ ω0 R eϕ “ v eϕ mit dem korrekten Geschwindigkeitsbetrag nach (5.36) auf der Kreisbahn. Die Lösung der vektoriellen Differentialgleichung (5.37) für rptq “ xptq ex ` yptq ey ` rM ez

88

5 Vektorbeziehungen

dr  ˆ r “ ω 0 ez ˆ r “ω dt

Ñ

$ 9 “ ´ ω0 yptq ’ & xptq yptq 9 “ ` ω0 xptq ’ % 9 “0 zptq

wird explizit angegeben. Ableitung und gegenseitiges Einsetzen führen auf Differentialgleichungen mit harmonischen Lösungen. , $ x :ptq ` ω02 xptq “ 0 / ’ . & xptq “ a sin ω0 t ` b cos ω0 t 2 y:ptq ` ω0 yptq “ 0 yptq “ α sin ω0 t ` β cos ω0 t Ñ / ’ % zptq 9 “0 zptq “ rM Die Konstanten des Ansatzes werden aus der folgenden Anfangsbedingung rp0q “ x0 ex ` rM ez bestimmt. xp0q “ x0 “ b ,

9 xp0q “ a ω0 “ ´ ω0 yp0q “ 0

yp0q “ 0 “ β ,

yp0q 9 “ α ω0 “ ` ω0 xp0q “ ω0 x0

Mit dem Azimutwinkel ϕptq “ ω0 t lautet die Lösung für den Ortsvektor, ` ˘ rptq “ x0 cos ω0 t ex ` sin ω0 t ey ` rM ez der damit tatsächlich auf einem Kegelmantel umläuft, was man als Präzession oder Kreiselbewegung um die z-Achse bezeichnet.

5.6.5

Relativbewegungen

Unter dem Begriff Relativbewegung versteht man die Bewegung eines Punktes P , der sich innerhalb eines „Fahrzeugs“ relativ zu diesem bewegt, [7, S. 123], [13, S. 232]. Das können Bewegungen in einem Zug, auf einer rotierenden Scheibe oder auf der sich drehenden Erde sein. Im Koordinatensystem mit dem Ursprung O in der Abbildung 5.9 sei F ein fester Punkt des starren Fahrzeugs, gegen den sich P relativ bewegt. Der gesamte Bewegungsvorgang wird zerlegt in die Führungsbewegung des Fahrzeugs, nämlich eine translatorische von F und eine Drehbewegung um F , was später als Euler’sches Theorem (3.20, Bd. II) bezeichnet wird. Hierbei gilt für den Ortsvektor rP des im Fahrzeug festgehaltenen Punktes P und die nur vom Fahrzeug selbst herrührende Führungsgeschwindigkeit mit (5.37) rP ptq “ Rptq ` xptq “ ‰  ˆ x P fest vF ptq “ R9 ` ω

89

5.6 Ableitung von Vektoren



P x

Bahnkurve von P

F rP R

O Abb. 5.9: Relativbewegung eines Punktes auf einer Bahnkurve Hinzu tritt die Relativbewegung zwischen P und F , bei der die Relativgeschwindigkeit durch Ableitung nach den Koordinaten eines körperfesten, mit dem Fahrzeug verbundenen Bezugssystems gegeben ist. ˇ δx ˇˇ vR ptq “ δt ˇ F fest Aus der absoluten Geschwindigkeit mit beiden Anteilen δx  ˆx` v “ r9 P “ vF ` vR “ R9 ` ω δt

(5.38)

folgen wegen x “ rP ´ R die Differentiationsregel für x dx δx  ˆx  ˆ x “ vR ` ω “ x9 “ r9 P ´ R9 “ `ω dt δt sowie die Operatorgleichung für beliebige Vektoren anstelle von x, nach denen man die totale zeitliche Änderung eines Vektors berechnet, der im

90

5 Vektorbeziehungen

bewegten Bezugssystem dargestellt ist, insbesondere die Relativgeschwindigkeit vR . δ2x dvR δvR  ˆ vR  ˆ vR “ 2 ` ω “ `ω dt δt δt Mit den angegebenen Beziehungen erhält man die absolute Beschleunigung a “ v9 “

dvR dvF ` dt dt

dvR : `ω 9 ˆ x ` ω  ˆ x9 ` “R dt ` ˘ δ2x : `ω 9 ˆ x ` ω  ˆ vR ` ω  ˆx ` 2 `ω  ˆ vR “R δt die aus den drei Anteilen für Führungs-, Relativ- und Coriolis-Beschleunigung besteht. ” ˘ı ` δ2x : `ω  ˆ x ` 2 ` 2ω  ˆ vR 9 ˆ x ` ω  ˆ ω a“ R δt

(5.39)

Der Führungsanteil in der eckigen Klammer setzt sich zusammen aus der Translations- und Winkelbeschleunigung des Fahrzeugs und der Zentripetalbeschleunigung in Richtung auf die Drehachse. Die Coriolis-Beschleunigung des dritten Summanden verschwindet neben den beiden trivialen Fällen ω “ 0 oder vR “ 0 nur dann, wenn Relativgeschwindigkeit und Drehachse parallel sind.

5.6.6

Grundgrößen von Raumkurven

Im Raum sei P ein variabler Punkt auf einer Raumkurve. Die bereits auf Leonhard Euler (1707-1783) zurückgehende Art, den Punkt und damit die gesamte Raumkurve durch einen laufenden Parameter zu beschreiben, hat sich als besonders günstig erwiesen, da dann keine Koordinate vor anderen ausgezeichnet wird und auch bei Schleifen mit sich überkreuzenden Kurven eine eindeutige Zuordnung zwischen Parameterwerten und Kurvenpunkten gewährleistet ist.

5.6 Ableitung von Vektoren

91

Der Parameter kann eine beliebige Variable u oder die Bogenlänge s sein. Bei Bewegungen wie im Abschnitt 5.6.2 ist der Parameter die Zeit t und der Punkt P läuft auf seiner Bahnkurve. Der variable Punkt P der Raumkurve wird je nach dem verwendeten Parameter durch seinen Ortsvektor r “ rpuq oder r “ rpsq gekennzeichnet, der den Abstandsvektor zwischen Koordinatenursprung und Punkt P darstellt. Seine kartesischen Koordinten x, y, z sind dann von u bzw. von s oder im Fall der Bewegung von t abhängig. rpuq “ xpuq ex ` ypuq ey ` zpuq ez (5.40) rpsq “ xpsq ex ` ypsq ey ` zpsq ez Bei Fortschreiten auf der Raumkurve um den Parameterzuwachs du wandert der Punkt P zum Punkt Q und der Ortsvektor rpuq ändert sich dabei um das vektorielle Wegelement dr, wobei sich der Tangentenvektor der Raumkurve nach Betrag und Richtung ändert. Die Änderung des Ortsvektors mit dem Parameter u definiert im Grenzübergang den Tangentenvektor gpuq der Raumkurve, dessen Tangenteneinheitsvektor t sei. By Bz rpu ` Δuq ´ rpuq dr Bx “ lim “ ex ` ey ` ez du Δu Ñ 0 Δu Bu Bu Bu

g prq “ g puq “

dr “ ru “ | ru | t “ | g | t du

(5.41)

Die Ableitungen des Ortsvektors r stellen einerseits Ableitungen mit formaler Indizierung pru q dar, andererseits aber auch Vektoren mit eigener Bezeichnung pgq, so dass mehrfach Doppelbenennungen und -darstellungen auftreten. Die Bezeichnung von Tangentenvektoren mit g wird später bei reziproken und krummlinigen Koordinatensystemen generell verwendet! Aus (5.40) berechnet man das Quadrat des Wegelementes dr bzw. das Element der Bogenlänge ds als seinen Betrag. ” ´ Bx ¯2 ´ By ¯2 ´ Bz ¯2 ı du2 dr ¨ dr “ pdsq2 “ ru ¨ ru du2 “ ` ` Bu Bu Bu

92

5 Vektorbeziehungen

⊥ tP g (P) = ru (P) ~ t P

dg du

Q

Q

= r uu (Q)

tP P

u

dr

g (Q) = ru (Q) ~ t Q

u

r + dr r

O

Abb. 5.10: Vektoren in verschiedenen Punkten einer ebenen Raumkurve

ds “ | dr | “ | ru | du “ | g | du a ? “ ru ¨ ru du “ x2u ` yu2 ` zu2 du

(5.42)

Man kann nach dem Parameter u oder nach der Bogenlänge s differenzieren, wobei nach der Kettenregel die Umrechnung gilt du d 1 d d “ “ | g | du ds ds du Zum prinzipiellen Verständnis und aus theoretischer Sicht ist die Ableitung nach der Bogenlänge zweckmäßiger, aber für die konkrete Untersuchung von Raumkurven, die gewöhnlich nach (5.40) als Funktion eines Parameters u vorliegen, der auch die Zeit t sein kann, werden die Ableitungen nach diesem Parameter ebenfalls benötigt.

93

5.6 Ableitung von Vektoren

Bei Ableitung des Ortsvektors nach der Bogenlänge s erhält man den Tangenteneinheitsvektor t direkt. 1 dr dr “ rs “ ru “ t “ | dr | |g| ds

mit

| t | “ | rs | “ 1

Um die Änderung des Tangentenvektors g mit dem Parameter u zu berechnen, muss man in (5.41) die Produktregel anwenden, da sowohl Betrag als auch Einheitsvektor ortsabhängig sind. d |g| dt dg d2 r “ 2 “ ruu “ t ` |g| du du du du looomooon looomooon || zu t

K zu t

Der Vektor der Tangentenänderung besteht aus zwei Anteilen, von denen der erste parallel zu t ist. Der zweite Vektoranteil liegt nach (5.28) in einer zu t senkrechten Ebene, die Normalebene der Raumkurve heißt, und ist in ihr Inneres, d.h. zu ihrer konkaven Seite hin gerichtet. Die Änderung des Tangenteneinheitsvektors nach der Bogenlänge s definiert einen Einheitsvektor, der Hauptnormalenvektor n heißt und der auf t senkrecht steht. d2 r dt Ñ t ¨ n “ rs ¨ rss “ 0 “ 2 “ rss “ | rss | n K t ds ds Der Vektor n der Raumkurve liegt sowohl in der Normalebene als auch in der Schmiegungsebene, die von zwei infinitesimal benachbarten Tangentenvektoren aufgespannt wird, die den differentiellen Kontingenzwinkel dϕ “ | dt | einschließen. Da nur ebene Kurven vollständig in der Schmiegungsebene liegen, fällt diese Ebene in den Abbildungen 5.10 und 5.11 dann nicht mehr mit der Zeichenebene zusammen, wenn sich die Kurve im Raum windet. Der Betrag | rss | des Änderungsvektors, der die Stärke der Kurvenänderung wie in (5.34) beschreibt, heißt Krümmung κ und sein Reziprokwert Krümmungsradius ρ des Krümmungskreises der Raumkurve im betrachteten Raumpunkt, die folgendermaßen definiert werden. ˇ ˇ ˇ ˇ ˇ Δt ˇ 1 dt ˇˇ dt ˇˇ ˇ ˇ “ lim | t | Δϕ “ dϕ “ˇ “ | rss | “ κ “ “ lim ˇ n¨ ˇ ds ds ρ Δs Ñ 0 Δs ˇ Δs Ñ 0 Δs ds dt dϕ “ n “ κn ds ds

94

5 Vektorbeziehungen

d  

t (P)

P

ds =  d  Q

t =1

t (P) dt = d

t (Q)

 M

d

d

d d  

t (Q)

Krümmungskreis

Abb. 5.11: Winkel am Krümmungskreis in der Schmiegungsebene Die Krümmung ergibt sich wegen | t ˆ n | “ 1 auch aus dem Betrag des Kreuzproduktes und mit der Lagrange-Identität (5.10) folgt a | rs ˆ rss | “ κ | t ˆ n | “ κ “ | rss | “ prs ¨ rs qprss ¨ rss q ´ prs ¨ rss q2 Zur Berechnung der Krümmung aus der Parameterdarstellung (5.40) wird unter Verwendung des Bogenelementes (5.42) der folgende Ausdruck gebildet, „ j d |g| dt ds dt t ` |g| “ |g |2 t ˆ ru ˆ ruu “ | g | t ˆ du du ds du ` ˘ ? 3 ru ¨ ru rs ˆ rss “ | g | 3 rs ˆ rss “ womit die Krümmung der Raumkurve dann lautet | ru ˆ ruu | κ “ | rss | “ | rs ˆ rss | “ `? ˘3 ru ¨ ru ˇ ˇ a 1 ˇˇ dt ˇˇ κ“ “ˇ “ | rss | “ prs ¨ rs qprss ¨ rss q ´ prs ¨ rss q2 ˇ ρ ds a pru ¨ ru qpruu ¨ ruu q ´ pru ¨ ruu q2 “ `? ˘3 ru ¨ ru

(5.43)

95

5.6 Ableitung von Vektoren

Durch das Kreuzprodukt b“tˆn wird ein dritter Einheitsvektor, der Binormalenvektor b, eingeführt, der auf den beiden ersten senkrecht steht. Die drei Einheitsvektoren t, n, b bilden in dieser Reihenfolge ein orthonormiertes Rechtssystem und stellen das begleitende Dreibein der Raumkurve dar.

Normalebene rektifizierende Ebene b t n Schmiegungsebene

Abb. 5.12: Begleitendes Dreibein einer Raumkurve Je zwei von ihnen spannen eine der drei orthogonalen Ebenen auf. ‚ n und b

die Normalebene

K t

‚ t und n

die Schmiegungsebene

K b

‚ b und t

die rektifizierende Ebene

K n

Der Name der rektifizierenden Ebene wird am Ende des Abschnitts noch näher erläutert.

96

5 Vektorbeziehungen

In Abhängigkeit vom Ortsvektor lauten die drei Einheitsvektoren der Raumkurve t“

dr “ rs ds

n“

d2 r 1 “ rss ds2 κ (5.44)

b“tˆn“

d2 r

dr 1 ˆ 2 “ rs ˆ rss ds ds κ

Die Ableitungen der verschiedenen Beziehungen nach der Bogenlänge s db “0 ds

b¨b“1

Ñ



b¨t“0

Ñ

dt db ¨t`b¨ “0 ds ds

db dt ¨ t “ ´b ¨ “ ´κb ¨ n “ 0 ds ds zeigen, dass db{ds sowohl zu b als auch zu t orthogonal ist, und daher die Richtung der Hauptnormale n haben muss. Analog zur Krümmung definiert man durch db 1 “ ´τ n “ ´ n ds χ die Torsion oder Windung τ und den Torsionsradius χ der Raumkurve im betrachteten Raumpunkt. Das Vorzeichen ist so festgelegt, dass rechtsgewundene Raumkurven wie rechtssinnige Schraubenlinien eine positive Torsion besitzen, [6, S. 46]. Liegt die Raumkurve nicht in einer Ebene, dann windet sie sich im Raum, wobei zwei infinitesimal benachbarte Binormalenvektoren die Normalebene aufspannen und den differentiellen Torsionswinkel | db | einschließen. Mit ˘ dρ dn d ´ rss ¯ d ` “ “ ρ rss “ rss ` ρ rsss ds ds κ ds ds folgt für die Torsion als Funktion des Ortsvektors ” ´ dρ ¯ı ´ db dn ¯ τ “ ´n ¨ “ ´n ¨ t ˆ “ ´ ρ rss ¨ rs ˆ rss ` ρ rsss ds ds ds “ ρ2 xrs , rss , rsss y “

xrs , rss , rsss y xrs , rss , rsss y “ 2 κ rss ¨ rss

97

5.6 Ableitung von Vektoren

Nach Zwischenrechnung ergibt sich die Torsion in den beiden Parameterdarstellungen zu ˇ ˇ ˇ db ˇ xrs , rss , rsss y xru , ruu , ruuu y 1 ˇ“ “ τ “ “ ˇˇ ˇ χ ds rss ¨ rss pru ¨ ru q pruu ¨ ruu q ´ pru ¨ ruu q2 (5.45) Die Ableitungen dt{ds und db{ds weisen beide in n-Richtung und sind durch Krümmung κ und Windung τ bestimmt. Die Ableitung dn{ds ist orthogonal zu n und muss daher in der Ebene von t und b liegen. dn “ αt `βb ds Durch Ableitung der Skalarprodukte erhält man die Koeffizienten. dn dt ¨t`n¨ “α`κ“0 ds ds db dn ¨b`n¨ “β´τ “0 n¨b“0 Ñ ds ds Fasst man die Ableitungen der Dreibeinvektoren nach der Bogenlänge s zusammen, dann ergeben sich als Kernstück der Theorie der Raumkurven die Frenet’schen Formeln als Matrix-Gleichung mit schiefsymmetrischer Matrix, die 1847 angegeben wurden. n¨t“0

dt{ds

Ñ

¨ ˛ ¨ ˛¨ ˛ t 0 `κ 0 t d ˚ ‹ ˚ ˚ ‹ ‹˚ ‹ ˝ dn{ds ‚ “ ˝n‚ “ ˝´ κ 0 ` τ ‚˝n‚ ds db{ds b 0 ´τ 0 b ¨

˛

(5.46)

Diesen Formeln entnimmt man, dass die drei Ableitungsvektoren in einer Ebene E liegen, die zur rektifizierenden Ebene senkrecht ist und mit der Schmiegungsebene den Winkel δ mit tan δ “ τ {κ bildet. Die Geometrie einer Raumkurve wird durch Krümmung und Torsion bestimmt. Die Krümmung κ ist ein Maß für die Abweichung vom geradlinigen und die Torsion τ ein Maß für die Abweichung vom ebenen Verlauf. Sind Krümmung κpsq und Torsion τ psq als Funktionen der Bogenlänge und damit unabhängig von einem Koordinatensystem gegeben, dann nennt man sie die natürlichen Gleichungen der betreffenden Raumkurve.

98

5 Vektorbeziehungen

Der Fundamentalsatz der Kurventheorie sagt aus, dass bei beliebiger Vorgabe zweier stetiger Funktionen κpsq und τ psq die Frenet’schen Formeln als System partieller Differentialgleichungen stets integriert werden können, wobei deren Lösung eine Raumkurve in eindeutiger Weise definiert, die diese Funktionen für Krümmung und Torsion in Abhängigkeit von der Bogenlänge s als Parameter besitzt. Damit bilden die drei Größen Krümmung κ, Torsion τ und Bogenlänge s ein vollständiges System von Invarianten, aus dem alle anderen Größen berechnet werden können. Allerdings ist die Bestimmung von Raumkurven aus diesen drei Größen aufwendig und in geschlossener Form nur in einfachen Fällen z.B. bei ebenen Kurven möglich, [3, S. 51], [6, S. 68], [8, S. 18]. Das begleitende Dreibein kann als starrer Körper angesehen werden, der sich entlang der Raumkurve mit dem Parameter fortbewegt. Diese Bewegung läßt sich durch eine infinitesimale Drehung nach (5.37) beschreiben, v “dˆr bei der der Rotationsvektor d des Dreibeins als Darboux’scher Vektor bezeichnet wird. Da sich bei der Drehung die Spitzen der Dreibeinvektoren in Richtung ihrer Ableitungen (5.46) bewegen, muss der Rotationsvektor d auf der erwähnten Ebene E senkrecht stehen und damit folgende Form mit einer Konstanten c haben. ´ “ ` ˘‰ ` ˘ dn ¯ “ c n ˆ ´ κt ` τ b “ c τ t ` κb d“c nˆ ds Die Kreuzprodukte des Darboux’schen Vektors mit den Dreibeinvektoren ergeben eine Übereinstimmung mit den Frenet’schen Formeln genau dann, wenn die Konstante den Wert c “ 1 hat! d ˆ t “ κn “

dt ds

d ˆ n “ ´κ t ` τ b “ d ˆ b “ ´τ n “

db ds

dn ds

99

5.6 Ableitung von Vektoren

Damit haben der Darboux’sche Vektor und sein Betrag die folgende Darstellung. ˇ ˇ ˇ dn ˇ a ˇ “ κ2 ` τ 2 ˇ λ “ |d| “ ˇ ds ˇ

d “ τ t ` κb

(5.47)

Der Betrag λ des Darboux’schen Vektors heißt Totalkrümmung und seine Darstellung in der zweiten Formel wird Lancret’scher Satz genannt.

db/ds dn/ds

Schmiegungsebene

d

dt/ds

t

b



n  Ebene E



Normalebene

Abb. 5.13: Änderungen der Dreibeinvektoren und Darboux’scher Vektor d, alle Ebenen stehen senkrecht auf der Zeichenebene, die der rektifizierenden Ebene entspricht Verfolgt man das begleitende Dreibein bei Bewegung entlang seiner Raumkurve, dann überstreichen die drei Geraden, die durch die Richtungen der Dreibeinvektoren bestimmt werden, als Erzeugende gewisse Flächen im Raum, die man Regelflächen nennt, [6, S. 218], und deren Entstehung man in der Abbildung 5.12 verfolgen kann. Im Zusammenhang mit der Flächentheorie im zweiten Band werden solche Regelflächen erneut betrachtet. Die Regelfläche der Geraden durch t heißt Tangentenfläche, die die Hüllfläche der Schmiegungsebenen, also die Einhüllende dieser Flächenfamilie, darstellt. Die Regelfläche der Geraden durch den Darboux’schen Vektor d heißt Streckfläche, die die Hüllfläche der rektifizierenden Ebene ist.

100

5 Vektorbeziehungen

Dehnungslose und damit verzerrungsfreie und längentreue Abbildungen einer Fläche in eine Ebene nennt man eine Abwicklung wie man das bei Zylinder- oder Kegelmantel durchführen kann. Regelflächen, die in eine Ebene abwickelbar sind, heißen Torsen. Die genaue Definition, das Torsenkriterium, findet man in [6, S. 220]. Tangentenflächen und Streckflächen von Raumkurven sind abwickelbar und stellen Torsen dar. Führt man die Abwicklung der Streckfläche durch, dann geht die gekrümmte Raumkurve in dieser Ebene in eine Gerade über und wird dadurch gestreckt. Damit ist die Aufgabe der Längenbestimmung oder Rektifikation der Raumkurve als Länge dieser Geraden gelöst, wonach die rektifizierende Ebene ihren Namen erhalten hat. Die Regelflächen der Haupt- und Binormalenvektoren n und b stellen nur im Falle ebener Raumkurven Torsen dar! Raumkurven sind ein Teilgebiet der Differentialgeometrie, die detailliert in [1], [3], [6], [8], [10] und [12] behandelt werden.

5.6.7

Ableitungen in Koordinatensystemen

In einem dreidimensionalen Koordinatensystem pu, v, wq existieren in jedem Raumpunkt drei Tangentenvektoren als partielle Differentiale des Ortsvektors nach diesen Koordinaten, Br Br , rv “ , Bu Bv die generell mit g bezeichnet werden, ¨ ˛ ¨ ˛ gu ru ˚ ‹ ˚ ‹ bzw. g “ ˝ gv ‚ ” ˝ r v ‚ # gw rw ru “

rw “

g

#

Br Bw ¨ ˛ g1 ˚ ‹ “ ˝g2 ‚ g3

sowie sechs Änderungen der Tangentenvektoren. ruu ,

ruv “ rvu

rvv ,

ruw “ rwu

rww ,

rvw “ rwv

Diese Vektoren werden bei krummlinigen Koordinatensystemen in den Kapiteln 14 und 16 genauer untersucht und die Zerlegung der Vektoren der zweiten Ableitungen des Ortsvektors nach den einzelnen Koordinatenrichtungen führt auf die Christoffel-Symbole.

5.7 Integration von Vektorfunktionen

5.7

101

Integration von Vektorfunktionen

In Kapitel 19 und in den Anwendungskapiteln im zweiten Band treten häufig Integrale über Vektoren auf, bei deren Lösung ein bestimmtes Vorgehen befolgt werden muss. Als typisches Beispiel wird das Integral über den Vektor v betrachtet, der für die konkrete Durchführung im speziellen Koordinatensystem des Zylinders (s. Abschnitt 18.5.2) dargestellt sei. Dabei kann das Integral über eine der drei Koordinaten ξ “ ρ, ϕ, z erstreckt werden. ż ` ˘ a “ v ρ, ϕ, z dξ Die Lösung der Integrationsaufgabe besteht darin, dass man den Vektor in seine Komponenten zerlegt, wodurch drei Integrale entstehen. ż ż ż ` ˘ ` ˘ ` ˘ a “ vρ ρ, ϕ, z eρ dξ ` vϕ ρ, ϕ, z eϕ dξ ` vz ρ, ϕ, z ez dξ Da bei eρ und eϕ eine Ortsabhängigkeit vorliegt, müssen Einheitsvektoren grundsätzlich mitintegriert werden! Das gelingt am einfachsten, indem man eρ und eϕ wie bei (5.31) nach kartesischen Koordinaten zerlegt, da ja die kartesischen Einheitsvektoren ex , ey , ez als konstante Vektoren stets die gleiche Richtung besitzen und daher vor die einzelnen Integrale gezogen werden können. Die dadurch entstehenden Integrale ż “ ` ˘ ` ˘ ‰ vρ ρ, ϕ, z cos ϕ ´ vϕ ρ, ϕ, z sin ϕ dξ a “ ex ż “ ` ˘ ` ˘ ‰ vρ ρ, ϕ, z sin ϕ ` vϕ ρ, ϕ, z cos ϕ dξ ` ey ż ` ˘ ` ez vz ρ, ϕ, z dξ kann man dann als gewöhnliche Integrale berechnen. Anschließend kann der Vektor a ggf. wieder in Zylinderkoordinaten dargestellt werden. ` ˘ ` ˘ ` ˘ a “ aρ ρ, ϕ, z eρ ` aϕ ρ, ϕ, z eϕ ` az ρ, ϕ, z ez Dieses Vorgehen ist in jedem System mit krummlinigen Koordinaten und auch bei Mehrfachintegralen in entsprechender Weise erforderlich, wobei

102

5 Vektorbeziehungen

je nach der konkreten Situation, also der Bedeutung der Integrationsvariablen ξ, mitunter einfachere Integrationen auszuführen sind. Im angegebenen Beispiel würde bei ξ “ ρ oder ξ “ z die Integration der Einheitsvektoren keinen Beitrag liefern, da sie weder von ρ noch von z abhängig sind.

Literatur [1] Baule, B.: Differentialgeometrie Verlag S.Hirzel, Leipzig (1945) [2] Crowe, M. J.: A History of Vectoranalysis Dover Publications, New York (1994) [3] Duschek, A., Mayer, W.: Lehrbuch der Differentialgeometrie, Kurven und Flächen im euklidischen Raum B.G. Teubner Verlag, Leipzig und Berlin (1930) [4] Gantmacher, F. R.: Matrizenrechnung, Teil I VEB Deutscher Verlag der Wissenschaften, Berlin (1958) [5] Klingbeil, E.: Tensorrechnung für Ingenieure Bibliographisches Institut, Mannheim (1966) [6] Kreyszig, E.: Differentialgeometrie Akademische Verlagsgesellschaft Geest & Portig, Leipzig (1957) [7] Lagally, M. I., Franz,W.: Vorlesungen über Vektorrechnung Akademische Verlagsgesellschaft Geest & Portig, Leipzig (1959) 103

104

Literatur

[8] Laugwitz, D.: Differentialgeometrie B.G. Teubner Verlagsgesellschaft, Stuttgart (1960) [9] Nahin, P. J.: Oliver Heaviside The Johns Hopkins University Press, Baltimore and London (2002) [10] Norden, A. P.: Differentialgeometrie, Teil I/II VEB Deutscher Verlag der Wissenschaften, Berlin (1956/57) [11] Raschewski, P. K.: Riemannsche Geometrie und Tensoranalysis Verlag Harri Deutsch, Thun und Frankfurt/Main, 2. Aufl. (1995) [12] Struik, D. J.: Lectures on Classical Differential Geometry Addison-Wesley Publishing Company, 2. Aufl. (1961) [13] Szabó, I.: Einführung in die Technische Mechanik Springer Verlag, Berlin, Göttingen, Heidelberg, 6. Aufl. (1963)

Kapitel 6

Geradlinige Koordinatensysteme Zusammenfassung Als geradlinige Koordinatensysteme werden neben kartesischen Koordinaten als ständiges Referenzsystem reziproke Systeme mit ko- und kontravarianten Basisvektoren eingeführt, die ein wesentliches Kennzeichen der Tensorrechnung bedeuten. Bei ihrer Darstellung und zur Umrechnung bei Basiswechsel werden bereits ausführlich Matrizen verwendet.

6.1

Notwendigkeit und Bedeutung

Koordinatensysteme sind erforderlich, um in einem mit Maßstäben versehenen Referenzrahmen genaue geometrische Angaben über Relationen der physikalischen Objekte wie Längen, Abstände, Richtungen oder Winkel zu machen und die Lösung konkreter physikalischer Probleme zu ermöglichen. Alle dreidimensionalen, orthogonalen Koordinatensystemen die hier und später behandelt werden, sind Rechtssysteme, bei denen die Reihenfolge der drei Achsen bzw. ihrer Einheitsvektoren eine Rechtsschraube bildet. Ein wesentliches Kennzeichen von Koordinatensystemen besteht darin, dass jeder Punkt des Raumes durch die Angabe von drei Zahlen, die Längen oder Winkel bedeuten und Koordinaten des Punktes heißen, eindeutig bestimmt werden kann. 105 © Springer Fachmedien Wiesbaden GmbH, ein Teil von Springer Nature 2019 W. Werner, Vektoren und Tensoren als universelle Sprache in Physik und Technik 1, https://doi.org/10.1007/978-3-658-25272-4_6

106

6 Geradlinige Koordinatensysteme

Das einfachste orthogonale Koordinatensystem ist das kartesische oder euklidische System mit geradlinigen Koordinatenachsen fester Richtung im Raum, die paarweise aufeinander senkrecht stehen. In ihm wird der Abstand zweier Punkte und damit die Metrik des Raumes durch den Satz des Pythagoras bestimmt. In vielen Fällen der Praxis sind kartesische Koordinaten zur Beschreibung und Lösung einer Aufgabenstellung nicht angepasst und damit weniger gut für die mathematische Formulierung geeignet, so dass man sowohl geradlinig-schiefwinklige als auch krummlinige sowie nichtorthogonale Koordinatensysteme verwenden will und untersuchen muss. Von großer Bedeutung ist der Übergang von einem Koordinatensystem zu einem anderen mit gleichem Ursprung, wobei der Basiswechsel durch eine lineare oder affine Transformation vermittelt wird. Die dabei auftretenden Transformationsgesetze lassen sich mit Matrizen besonders einfach und übersichtlich beschreiben. Für die Tensorrechnung grundlegend ist die Verwendung von zwei aufeinander bezogenen, schiefwinkligen Koordinatensystemen, die man kovariante und kontravariante Grund- oder Basissysteme nennt und mit denen man die Darstellung von Größen und Beziehungen knapp und elegant formulieren kann.

6.2

Begriffe der Tensorrechnung

Einige Begriffe der Tensorrechnung verlangen bereits hier eine kurze sprachliche Erläuterung, denn sie wurden zu einer Zeit benannt, als in der Wissenschaft und bei den Gelehrten die Sprachen Latein und Griechisch noch selbstverständlich waren. Selbst moderne Begriffsbildungen der Naturwissenschaft, obwohl mehr und mehr aus dem englischsprachigen Raum stammend, enthalten häufig Wortbestandteile aus den klassischen Sprachen. • kovariant Der Sinn des Wortes bedeutet in gleicher Weise veränderlich, nämlich wie etwas anderes, was noch näher bestimmt wird, wodurch ein entsprechender Zusammenhang oder Vergleich hergestellt wird. • kontravariant Gegensatzwort mit der Bedeutung in anderer Weise veränderlich

6.3 Kartesische Koordinatensysteme

107

Beide Begriffe wurden von James Joseph Sylvester (1814 -1897) eingeführt, [2, 75], und bezeichnen zwei verschiedene Arten von Basisvektoren oder von Vektor- und Tensorkomponenten. • kogredient und kontragredient Diese Begriffe bedeuten in gleicher bzw. anderer Weise schreitend, vorangehend und beziehen sich speziell auf Transformationseigenschaften. Beide Begriffspaare werden bei Koordinatentransformationen verwendet, um die gleich- oder andersartige Verhaltensweise bei einem Basiswechsel zu bezeichnen. Das Wort kovariant tritt noch in zwei weiteren Ausdrucksweisen auf. Unter der kovarianten Formulierung der Naturgesetze versteht man die von einem speziell gewählten Koordinatensystem unabhängige und damit in allen Systemen gleichartige mathematische Darstellung physikalischer Gesetze, insbesondere die Lorentz-kovariante Formulierung. Unterwirft man ein solches Naturgesetz einer Lorentz-Transformation, die im Kapitel Spezielle Relativitätstheorie des zweiten Bandes behandelt wird, dann bleibt seine Darstellungsform erhalten und ist dadurch kovariant, also in gleicher Weise veränderlich. Die kovariante Ableitung ist ein Differentiationsprozess, der in krummlinigen Koordinatensystemen bei Produkten aus ortsabhängigen Vektorkomponenten und Basisvektoren auf beide Anteile erstreckt werden muss. Auf die kovariante Ableitung wird in Kapitel 17 ausführlich eingegangen. Die zu einer Matrix kontragrediente Matrix ist die Transponierte ihrer Kehrmatrix, die bei bestimmten Transformationen auftritt, die noch behandelt werden.

6.3 6.3.1

Kartesische Koordinatensysteme Eigenschaften der kartesischen Basisvektoren

Die kartesischen Basisvektoren e haben in jedem Raumpunkt die Richtung der drei geradlinigen Koordinatenachsen x, y, z und sind Einheitsvektoren der Länge Eins, die jeweils senkrecht aufeinander stehen und in dieser Reihenfolge ein orthogonales Rechtssystem bilden. Man unterscheidet sie

108

6 Geradlinige Koordinatensysteme

entweder durch eigene Buchstaben oder durch entsprechende Indizierung. , i “ ex “ e1 / . j “ ey “ e2 / k“ ez “ e3

Ñ

¨ ˛ ¨ ˛ ¨ ˛ i e1 ex ˚ ‹ ˚ ‹ ˚ ‹ e “ ˝ j ‚ “ ˝ey ‚ “ ˝e2 ‚ ez

k

mit

| ek | “ 1

e3

Die Skalarprodukte der Basisvektoren lauten auf Grund der Orthogonalität der Einheitsvektoren mit dem Kronecker-Symbol wie bei (5.23) # ei ¨ ek “ δik “

1 0

i“k i‰k

Sie bilden insgesamt als dyadisches Skalarprodukt eine Einheitsmatrix. e ¨ eT “ E

(6.1)

Für die Vektorprodukte der Basisvektoren ergibt sich ebenfalls auf Grund der Orthogonalität ei ˆ e j “ e k

p i, j, k zyklisch q

Das dyadische Kreuzprodukt der Einheitsvektoren liefert eine schiefsymmetrische oder alternierende Matrix, die kartesische Γ-Matrix. ˛ ¨ ˛ ¨ e1 0 e3 ´ e 2 ˘ ˚ ‹ ˚ ‹ ` 0 e1 ‚ Γ “ e ˆ eT “ ˝e2 ‚ˆ e1 , e2 , e3 “ ˝´ e3 e3 e 2 ´ e1 0

(6.2)

Das Spatprodukt der Basisvektoren lautet mit den Kreuzprodukten für zyklische Werte i, j, k 

 ei , e j , e k “ e i ¨ p e j ˆ e k q “ 1

(6.3)

109

6.3 Kartesische Koordinatensysteme

6.3.2

Basisvektoren bei Basiswechsel

Neben dem ursprünglichen Koordinatensystem e wird ein weiteres kartesisches und damit orthogonales System ˆ e betrachtet, dass durch räumliche Drehung aus dem alten hervorgeht. Hierbei handelt es sich, da nur erste Potenzen in der Darstellung auftreten, um eine lineare Transformation, die auch als affine Abbildung bezeichnet wird. Die orthogonalen Einheitsvektoren ˆ ek erhält man als vektorielles Gleichungssystem für die Vektorzerlegung der neuen nach den alten Einheitsvektoren. Die Transformation wird durch eine Gram’sche Matrix nach (5.21) beschrieben, die in kartesischen Systemen mit A bezeichnet wird. ¨ ˛¨ ˛ ¨ ˛ a11 a12 a31 ˆ e1 e1 ˘ ` ` ˘ ˚ ‹˚ ‹ ˚ ‹ T e2 ‚ “ G ˆ e ¨ e e “ ˝a21 a22 a23 ‚˝e2 ‚ “ A e ˆ e “ ˝ˆ e, e e “ ˆ a31 a32 a33 e3 ˆ e3 ˆ e “ Ae

e e “ A´1 ˆ

ˆ e ¨ eT “ A

(6.4)

Die Skalarprodukte aus alten und neuen Einheitsvektoren und damit die Elemente der Matrix A sind konstant und stellen die Richtungscosinus zwischen den alten und neuen Achsen dar. Für i ‰ k gilt ei , ek q “ cos pˆ ˆ ei ¨ ek “ | ˆ ei | | ek | cos pˆ ei , ek q “ aik ‰ aki “ ˆ ek ¨ e i

6.3.3

Eigenschaften orthogonaler Transformationen

Aus der Orthogonalität der Systeme nach (6.1) erhält man für die Transformationsmatrix A E“ˆ e¨ˆ eT “ A e ¨ eT A T “ A A T

A AT “ AT A “ E

AT “ A´1

`

AT

˘´1

` ˘T “ A´1 “ A (6.5)

Matrizen mit dieser Eigenschaft heißen nach (3.32) orthogonal und beschreiben Drehungen orthogonaler Koordinatensysteme im Raum.

110

6 Geradlinige Koordinatensysteme

Orthogonale Matrizen sind stets nichtsingulär, denn ihre inverse Matrix existiert und ist der transponierten gleich! Die dritte Beziehung von (6.5) drückt die Eigenschaft aus, dass A mit ihrer kontragredienten Matrix pAT q´1 identisch ist. Die Determinante der Transformationsmatrix ergibt sich aus dem Determinantensatz (3.46). Sie muss positiv sein, damit das Koordinatensystem bei der identischen Abbildung in sich selbst überführt wird. Bei einem negativen Wert der Determinante träte eine Spiegelung mit einem Wechsel von Rechts- zu Linkssystem auf. `

det A

˘2

“1

Ñ

det A “ `1

(6.6)

Ein weiterer Basiswechsel zu einem Koordinatensystem ˆ ˆ e wird durch zwei nacheinander ausgeführte Drehungen mit folgender Transformation darstellt. ˆ e “ BAe ˆ e “ Bˆ

ˆ ˆ e ¨ eT “ B A

(6.7)

Mit den Matrizen A und B ist auch die Produktmatrix B A orthogonal, die damit eine einzige Drehung des Koordinatensystems von e direkt zu ˆ ˆ e beschreibt. Da die Matrixmultiplikation nichtkommutativ ist, führen die Transformationen B A und A B außer in Sonderfällen zu verschiedenen Koordinatensystemen. Für die Elemente aik von A gilt wegen der Orthogonalität nach (6.5), dass die Skalarprodukte gleicher Zeilen bzw. Spalten Eins a211 ` a212 ` a213 “ 1 , ... a211 ` a221 ` a231 “ 1 , ... und ungleicher Zeilen bzw. Spalten Null sind, a11 a21 ` a12 a22 ` a13 a23 “ 0 , ... a11 a12 ` a21 a22 ` a31 a32 “ 0 , ... allgemein also für alle i und k ÿ ÿ aip akp “ api apk “ δik p

p

mit den entsprechenden Beziehungen für die Richtungscosinus.

111

6.4 Kovariante Basis als Grundsystem

6.4 6.4.1

Kovariante Basis als Grundsystem Grundvektoren als kovariante Basisvektoren

Als ein allgemeines Koordinatensystem werden drei beliebige, nichtkomplanare Grundvektoren gi vorgegeben, die schiefwinklig zueinander stehen und normalerweise keine Einheitsvektoren sind. | gi | ‰ 1 Die Grundvektoren g

#



 gi , gj , gk ‰ 0

(6.8)

bilden eine kovariante Basis, die mit unteren

Indizes oder dem formalem Laufindex # gekennzeichnet werden.

6.4.2

Darstellung im kartesischen System

Um die kovarianten Grundvektoren g

#

zu definieren, wird jeder einzelne

auf das kartesische Koordinatensystem e bezogen und nach (5.1) in die drei orthogonalen Richtungen ek zerlegt. Die frei vorgebbare Transformationsmatrix, die kartesische und kovariante Grundvektoren ineinander abbildet, wird mit U bezeichnet. ¨ ˛ ¨ ˛¨ ˛ g1 u11 u12 u13 e1 ˚ ‹ ˚ ‹˚ ‹ g “ ˝g2 ‚ “ ˝u21 u22 u23 ‚˝e2 ‚ “ U e # g3 u31 u32 u33 e3 g

#

“ Ue

e “ U´1 g

#

g

#

¨ eT “ U

(6.9)

Die Skalarprodukte zwischen Grundvektoren und kartesischen Einheitsvektoren stellen keine Richtungscosinus dar, da noch der Betrag | gi | hinzutritt! gi ¨ ek “ | gi | | ek | cos pgi , ek q “ | gi | cos pgi , ek q “ uik ‰ uki “ gk ¨ ei Die Gesamtheit aller Skalarprodukte stellt als Gram’sche Matrix die vorgegebene Transformationsmatrix U dar. ¨ ˛ g1 ¨ e1 g1 ¨ e2 g1 ¨ e3 ` ˘ ˚ ‹ U “ g ¨ e T “ G g , e “ ˝ g2 ¨ e 1 g2 ¨ e 2 g2 ¨ e 3 ‚ # # g3 ¨ e 1 g3 ¨ e 2 g3 ¨ e 3

112

6.5 6.5.1

6 Geradlinige Koordinatensysteme

Kontravariante Basis Kontravariante Basisvektoren

Als ein zweites, zunächst noch unabhängiges Koordinatensystem werden drei weitere nichtkomplanare Grundvektoren gi gewählt, die ebenfalls schiefwinklig zueinander stehen und keine Einheitsvektoren sind. ˇ iˇ ˇg ˇ ‰ 1



 gi , gj , gk ‰ 0

(6.10)

Die Vektoren g# bilden eine kontravariante Basis, die mitunter auch als Kobasis bezeichnet wird und die man mit oberen Indizes darstellt.

6.5.2

Darstellung im kartesischen System

Um die kontravarianten Vektoren g# entsprechend zu definieren, werden sie ebenfalls auf das kartesische Koordinatensystem e bezogen und in die drei Richtungen ek zerlegt. Diese Transformationsmatrix, die kartesische und kontravariante Grundvektoren ineinander abbildet, wird mit V bezeichnet. ¨ 1˛ ¨ ˛¨ ˛ g v11 v12 v13 e1 ˚ 2‹ ˚ ‹˚ ‹ # g “ ˝g ‚ “ ˝v21 v22 v23 ‚˝e2 ‚ “ V e g3 v31 v32 v33 e3 g# “ V e

e “ V´1 g#

g # ¨ eT “ V

(6.11)

Die Skalarprodukte zwischen den kontravarianten Vektoren und den kartesischen Einheitsvektoren stellen ebenfalls keine Richtungscosinus dar. ˇ ˇ ˇ ˇ gi ¨ ek “ ˇ gi ˇ | ek | cos pgi , ek q “ ˇ gi ˇ cos pgi , ek q “ vik ‰ vki “ gk ¨ ei Die Gesamtheit aller Skalarprodukte stellt als Gram’sche Matrix die zweite Transformationsmatrix V dar. ˛ ¨ 1 g ¨ e1 g 1 ¨ e 2 g 1 ¨ e3 ` ˘ ˚ ‹ V “ g # ¨ e T “ G g # , e “ ˝ g 2 ¨ e1 g 2 ¨ e 2 g 2 ¨ e3 ‚ g 3 ¨ e1 g 3 ¨ e 2 g 3 ¨ e3 Das kontravariante Basissystem bleibt jedoch nicht unabhängig, sondern wird durch eine Bedingung an das kovariante Grundsystem gekoppelt!

113

6.6 Reziproke Basissysteme

6.6 6.6.1

Reziproke Basissysteme Reziprozitätsbedingung bei ungleicher Indexstellung

Der Zusammenhang zwischen den ungleich indizierten ko- und kontravarianten Basen, also zwischen Basis und Kobasis, als zueinander reziproke Systeme wird wie in (5.23) dadurch definiert, dass die beiden Vektorsätze folgende Reziprozitätsbedingung erfüllen müssen und daher reziproke Basisvektoren bilden. gi ¨ gk “ δik

g

#

` ˘T ` ˘T ¨ g# “ g# ¨ g “E #

(6.12)

Die dyadischen Skalarprodukte und damit die Gram’schen Matrizen der zueinander reziproken Basisvektoren bilden eine Einheitsmatrix. Durch die Reziprozitätsbedingung sind beide Basen voneinander abhängig, so dass der zweite Vektorsatz festliegt, wenn der erste Satz gewählt worden ist! Bei reziproken Systemen steht jeder Vektor der einen Basis senkrecht auf denjenigen Vektoren der anderen Basis, die abweichende Indizes haben. gi K g j , g k

und gi K gj , gk

p i, j, k zyklisch q

(6.13)

Reziproke Vektoren bilden bei gleichem Index spitze Winkel, denn wegen (6.12) muss im Skalarprodukt ˇ ˇ ` ˘ ˇ ˇ gk ¨ gk “ ` 1 “ | gk | ˇ gk ˇ cos gk , gk auch der dritte Faktor positiv sein, so dass der Winkel zwischen den Vektoren im ersten oder vierten Quadranten liegt und damit den Richtungssinn im Raum bestimmt. ˘ ` 0 ă cos gk , gk ă 1

Ñ

´

` ˘ π π ă > gk , gk ă ` 2 2

114

6.6.2

6 Geradlinige Koordinatensysteme

Graphische Darstellung reziproker Vektoren

In der Abbildung 6.1 sind für den zweidimensionalen Fall die ko- und kontravarianten Basisvektoren g und g# mit ihren relativen Lagen dargestellt. #

Die Ebene, die von den kovarianten Vektoren pgi , gj q aufgespannt wird, besitzt als Flächennormale den kontravarianten Vektor gk bei zyklischen Werten i, j, k.

g2

g1 , g3

g2

g1 , g3

g1

g2 , g3

g3 , g3 g1 , g2 g1 , g2 g1

g2 , g3

Abb. 6.1: Reziproke Koordinatensysteme in zweidimensionaler Darstellung Die besondere Situation, die bei orthogonalen Koordinaten auftritt, läßt sich in der Abbildung veranschaulichen. Dreht man die Achse von g2 in Richtung von g2 , dann wird wegen der Bedingung (6.13) des Senkrechtstehens gleichzeitig g1 nach g1 gedreht, so dass die beiden ursprünglich separaten Koordinatensysteme schließlich richtungsmäßig zusammenfallen. Die Unterscheidung zwischen Ko- und Kontravarianz ist dann aufgehoben und nur noch dadurch gegeben, dass die Basisvektoren keine Einheitsvektoren sind sondern verschiedene, zueinander reziproke Längen oder Beträge haben.

115

6.6 Reziproke Basissysteme

6.6.3

Metrikmatrizen bei gleicher Indexstellung

Die Skalarprodukte der ko- und kontravarianten Basisvektoren bilden jeweils für sich, also bei gleicher Indexstellung, Gram’sche Eigenmatrizen nach (5.25), die Metrikmatrizen heißen und symmetrisch sind. Die den Basisvektoren entsprechende Indizierung der Matrizen mit nur einem #-Symbol wird im Abschnitt 11.2.2 noch kommentiert. ˛ ¨ g1 ¨ g1 g1 ¨ g2 g1 ¨ g3 ˘ ˚ ˘T ` ‹ ` “ ˝ g1 ¨ g2 g2 ¨ g2 g2 ¨ g3 ‚ “ G # G# “ G g , g # # g1 ¨ g3 g2 ¨ g3 g3 ¨ g3 ¨ 1 1 ˛ g ¨ g g1 ¨ g2 g1 ¨ g3 ˘ ˚ ˘T ` ‹ ` G# “ G g # , g # “ ˝ g 1 ¨ g 2 g 2 ¨ g 2 g 2 ¨ g 3 ‚ “ G # g1 ¨ g3 g2 ¨ g3 g3 ¨ g3 Die Elemente der symmetrischen Metrikmatrizen ¨

G#

˛ g11 g12 g13 ˚ ‹ “ ˝ g12 g22 g23 ‚ g13 g23 g33

¨

˛ g 11 g 12 g 13 ˚ ‹ G# “ ˝ g 12 g 22 g 23 ‚ g 13 g 23 g 33

(6.14)

sind die ko- und kontravarianten Metrikkoeffizienten. gi ¨ gk “ g ik “ g ki

gi ¨ gk “ gik “ gki

(6.15)

Sie haben ihren Namen daher, dass man mit ihrer Hilfe geometrische Eigenschaften wie Länge, Abstand und Winkel messen kann. Durch eine Abstandsdefinition, wie z.B. den euklidischen Abstand, wird die Metrik des Raumes bestimmt. Die Beträge der Basisvektoren erhält man aus den Skalarprodukten ?

gk ¨ gk “ | gk |2 “ gkk ą 0

Ñ

| gk | “

ˇ ˇ2 ˇ ˇ gk ¨ gk “ ˇ gk ˇ “ g kk ą 0

Ñ

ˇ ˇ a ˇ kˇ ˇ g ˇ “ g kk

gkk

(6.16)

116

6 Geradlinige Koordinatensysteme

und aus den Kosinusfunktionen kann man die Winkel zwischen den Achsen berechnen. ˘ ` gik cos gi , gk “ ? gii gkk

6.6.4

˘ ` g ik cos gi , gk “ a g ii g kk

(6.17)

Begründung für zwei Basissysteme

Der Grund für die Einführung von zwei reziproken Basissystemen liegt in den erweiterten algebraischen Möglichkeiten sowie den kompakten oder symmetrischen und daher auch eleganteren Formulierungen vieler Beziehungen, die sich bei geeigneter Kombination von Größen aus den beiden ko- und kontravarianten Systemen ergeben. Das wird allerdings erst in den folgenden Kapiteln deutlich, wenn Produkte und Verknüpfungen von Vektoren und Tensoren in Komponentendarstellung behandelt werden.

6.6.5

Orthogonale Koordinatensysteme

Wählt man die kovarianten Basisvektoren gi , gj , gk in der Form, dass sie paarweise aufeinander senkrecht stehen, dann liegt ein orthogonales Koordinatensystem vor, das bis auf die Beträge | gk | ‰ 1 einem kartesischen System entspricht. Damit die Reziprozitätsbedingung (6.12) erfüllt wird, müssen die kontravarianten Basisvektoren gi , gj , gk dann mit dem kovarianten Vektorsatz bezüglich der gleichnamigen Richtungen zusammenfallen pg „ g q, was bereits an der Abbildung 6.1 erläutert wurde. Eine solche Festlegung bedeutet die Aufhebung der Ko- und Kontravarianz in orthogonalen Koordinatensystemen, allerdings bei reziproken Beträgen für gleichnamige Basisvektoren.

117

6.7 Eigenschaften der Metrikmatrizen

6.7 6.7.1

Eigenschaften der Metrikmatrizen Umrechnung der reziproken Basisvektoren

Auf Grund der Vektorzerlegung (5.24) mit Gram’schen Matrizen kann man die gegenseitige Darstellung der zueinander reziproken ko- und kontravarianten Basisvektoren durch die Metrikmatrizen G # und G# angeben und durch Skalarproduktbildung erhält man mit der Reziprozitätsbedingung (6.12) die beiden Metrikmatrizen als dyadische Produkte. g

#

“ G # g#

G# “ g

#

` ˘T ¨ g #

(6.18) g # “ G# g

G# “ g # ¨ g `

#

˘ # T

Zur einfachen Bezeichnung kann man die Sprechweise G-ko und G-kon für die Metrikmatrizen G # und G# und entsprechend bei anderen Größen verwenden.

6.7.2

Inversion und Kontragredienz

Aus (6.18) und gemäß (5.26) ergibt sich, dass die Metrikmatrizen zueinander invers und wegen der Symmetrie auch zueinander kontragredient sind, wodurch ihre Determinanten nach dem Determinantensatz (3.46) zueinander reziprok sind. Dabei bezeichnet man die kovariante Determinante von G # üblicherweise mit g, die, wie sich in (6.20) zeigt, stets positiv ist. G # G# “ G# G # “ E

g “ det G # “

1 ą 0 det G#

˘T ` # ˘´1 “ ` # ˘T ‰´1 ` G# “ G# “ G “ G ˘T ` ˘´1 “ ` ˘T ‰´1 ` G# “ G# “ G# “ G#

(6.19)

118

6 Geradlinige Koordinatensysteme

6.7.3

Zusammenhang zwischen kartesischen und reziproken Koordinatensystemen

Aus den bisherigen Transformationen ergeben sich mit (6.9), (6.11) und (6.18) die Darstellungen,

g

#

` ˘T ¨ g # “ U e ¨ eT V T “ U V T “ E

` ˘T “ V e ¨ eT U T “ V U T “ E g# ¨ g #

g

˘T

`

#

¨ g

#

“ U e ¨ eT U T “ U U T “ G #

` ˘T g # ¨ g # “ V e ¨ eT V T “ V V T “ G # g

#

“ U e “ U V´1 g# “ G # g# “ U UT g#

g# “ V e “ V U´1 g

#

“ G# g

#

“ V VT g

#

aus denen man folgende Beziehungen für Metrik- und Transformationsmatrizen erhält.

G # “ U UT “ U V´1

U “ G# V

G# “ V VT “ V U´1

V “ G# U

` ˘2 det G # “ det U “ g ą 0

` ˘2 det G# “ det V “ 1{g

(6.20)

6.8 Weitere Produkte der Basisvektoren

UT “ V´1

` ˘´1 V “ UT

VT “ U´1

` ˘´1 U “ VT

119

(6.21) UVT “ UT V “ VUT “ VT U “ E

det U ¨ det V “ 1

Die Matrizen U und V sind zueinander kontragredient mit reziproken Determinanten. Wie die verschiedenen Umrechnungen und Beziehungen zeigen, sind die Matrizen voneinander abhängig und bei Vorgabe von einer der Matrizen U oder V kann man alle anderen berechnen.

6.8

6.8.1

Weitere Produkte der Basisvektoren

Spatprodukte

Die jeweiligen drei Basisvektoren spannen ein Parallelepiped auf, dessen Volumen nicht verschwindet und das als Spatprodukt dargestellt werden kann. Mit der kartesischen Zerlegung der kovarianten Basisvektoren nach (6.9) erhält man mit (6.3) für das Spatprodukt folgende Darstellung in Form einer

120

6 Geradlinige Koordinatensysteme

Determinante. ˘ ` g1 ¨ pg2 ˆ g3 q “ u11 e1 ` u12 e2 ` u13 e3 ¨ “` ˘ ` ‰ ¨ u21 e1 ` u22 e2 ` u23 e3 ˆ u31 e1 ` u32 e2 ` u33 e3 q ˘ “` ˘` ˘ ` “ u11 e1 ` u12 e2 ` u13 e3 ¨ u21 u32 ´ u22 u31 e1 ˆ e2 ˘` ˘ ` ` u22 u33 ´ u23 u32 e2 ˆ e3 ˘` ˘‰ ` ` u23 u31 ´ u21 u33 e3 ˆ e1    u11 u12 u13      “  u21 u22 u23  loooooomoooooon e1 , e 2 , e 3  u31 u32 u33  “1

“ det U ‰ 0 Für die kontravarianten Basisvektoren gilt eine entsprechende Berechnung. Als Ergebnis erhält man folgende Beziehungen mit den Bezeichnungen S# und S # für die beiden Spatprodukte der Basisvektoren. 



b

S# “ g1 , g2 , g3 “ det U “   S # “ g1 , g2 , g3 “ det V “

det G # “ b

?

g

1 det G# “ ? g

(6.22)

   S# S # “ g1 , g2 , g3 g1 , g2 , g3 “ det U det V “ 1 Die Vorzeichen der beiden Skalare S# und S # ergeben sich aus der relativen Lage der einzelnen Basisvektoren g bzw. g# in einem kartesischen #

Koordinatensystem. Da bei drei ungleichen Indizes i, j, k auf Grund der Reziprozität gi orthogonal zu gj und gk ist, muss mit einem Skalar α gelten gi K gj , gk

Ñ

gj ˆ gk “ α gi

Nach skalarer Multiplikation mit gi erhält man nach (6.12) für den Skalar α, ˘  `  gi ¨ gj ˆ gk “ gi , gj , gk “ S # “ α gi ¨ gi “ α

121

6.8 Weitere Produkte der Basisvektoren

so dass man für zyklische Werte von i, j, k die Basisvektoren des einen Satzes durch die Kreuz- und Spatprodukte des anderen Satzes ausdrücken kann. gi “ 

gj ˆ gk gj ˆ gk “ S# gi , gj , gk

gi “ 

g ˆ gk gj ˆ g k “ j S# gi , gj , gk (6.23)

6.8.2

Vektorprodukte

Die dyadischen Kreuzprodukte der gleichen Basisvektoren führen auf die beiden vektoriellen, alternierenden Γ-Matrizen der ko- und kontravarianten Basisvektoren, die der Γ-Matrix (6.2) des kartesischen Systems entsprechen. ˛ ¨ ˛ ¨ g1 0 g3 ´ g2 ˘T ˚ ‹ ` ` ˘ ‹ ˚ 0 g1 ‚ g ˆ g “ ˝g2 ‚ˆ g1 , g2 , g3 “ S# ˝´ g3 # # g3 g2 ´ g1 0 ˛ ¨ 1˛ ¨ g 0 g3 ´ g2 ` ˘T ˚ ‹ ` ˘ ‹ ˚ 0 g1 ‚ g # ˆ g # “ ˝g2 ‚ˆ g1 , g2 , g3 “ S # ˝´ g3 g3 g2 ´ g1 0 ˛ 0 g3 ´ g2 ‹ ˚ 0 g1 ‚ Γ# “ ˝´ g3 g2 ´ g1 0

˛ 0 g3 ´ g2 ‹ ˚ 0 g1 ‚ “ ˝´ g3 g2 ´ g1 0 ¨

¨

Γ#

(6.24)

Für die Kreuzprodukte der Basisvektoren bei gleicher Indexstellung erhält man damit folgende Beziehungen, wobei die Γ-Matrizen jeweils mit entgegengesetztem Index auftreten. g

#

` ˘T ˆ g “ S# Γ # #

` ˘T g# ˆ g# “ S # Γ #

(6.25)

Man kann diese Gleichungen von links mit den Metrikmatrizen multiplizieren oder die transponierten Basisvektoren nach (6.18) ersetzen und mit der inversen Metrikmatrix multiplizieren.

122

6 Geradlinige Koordinatensysteme

Beide Vorgehensweisen liefern unterschiedliche Resultate und man erhält jeweils zwei Darstellungen für die gemischten Kreuzprodukte, in denen die Produkte aus Metrik- und Γ-Matrizen auftreten. ” ` ˘T ` ˘T ı G # g# ˆ g# “ g ˆ g# “ G # S # Γ # #

g

˘T

`

#

ˆ g

g

#

#

“g

ˆ g# `

#

˘T

G # “ S# Γ #

` ˘T ˆ g # “ S # G # Γ # “ S # Γ # G# (6.26)

g# ˆ g

˘T

`

6.9 6.9.1

#

“ S# G # Γ # “ S # Γ # G #

Basisvektoren bei Basiswechsel Lineare Transformation der kovarianten und kontravarianten Basen

Neben den Koordinatensystemen g

#

ˆ und g# werden neue Systeme g

#

und

g ˆ# eingeführt, die durch lineare Transformationen aus den alten hervorgehen. Wie die alten sollen auch die neuen Systeme zueinander reziprok sein, müssen also die Reziprozitätsbedingung (6.12) in entsprechender Weise erfüllen. Die neuen Systeme werden dadurch definiert, dass man die beiden Transformationsmatrizen P und Q als Kopplungsmatrizen für die Umrechnung durch freie Wahl vorgibt. g ˆ

#

“ Pg

#

g ˆ# “ Q g # “ Q V e

“ PUe

Die Reziprozitätsbedingung führt dann auf folgende Beziehungen, ˆ E“g

#

` # ˘T ¨ g ˆ “Pg

E“g ˆ# ¨ g ˆ

˘T

`

#

#

` ˘T ¨ g # QT “ P QT

` “ Q g# ¨ g

˘T #

PT “ Q P T

(6.27)

123

6.9 Basisvektoren bei Basiswechsel

aus denen der Zusammenhang der beiden Matrizen hervorgeht. PT “ Q´1

Ñ

` ˘´1 Q “ PT (6.28)

QT “ P´1

Ñ

`

P“ Q

˘ T ´1

Die Transformationsmatrizen P und Q sind zueinander kontragredient und die folgenden Produkte entsprechen der Einheitsmatrix. P Q T “ P T Q “ Q PT “ Q T P “ E (6.29) det P ¨ det Q “ 1 Die Umrechnung der neuen Basisvektoren ergibt mit (6.18), (6.27) und (6.28) folgende Beziehungsketten, g ˆ

#

“ Pg

#

ˆ #g “ P G # g# “ P G # Q´1 g ˆ # “ P G # PT g ˆ# “ G ˆ#

g ˆ # “ Q g # “ Q G# g

#

“ Q G# P´1 g ˆ

#

“ Q G# Q T g ˆ

#

#

ˆ g “G ˆ

#

wonach die Metrikmatrizen in den neuen Systemen durch Kongruenztransformation nach (3.18) aus denen des alten Systems hervorgehen. ˆ # “ P G # PT G

6.9.2

ˆ # “ Q G# Q T G

(6.30)

Basen bei Drehung des kartesischen Systems

Sind alte und neue reziproke Basisvektoren im gleichen kartesischen System definiert, so gelten folgende Beziehungen zwischen den Basisvektoren. g

#

“ U e,

g# “ V e,

ˆ ˆˆ “U e

ˆ e, “U

sowie

g ˆ

ˆ e, g ˆ# “ V

sowie

ˆ ˆˆ g ˆ# “ V e

g ˆ

#

#

124

6 Geradlinige Koordinatensysteme

e =

e = g# =

e =

e =

g# =

g# =



Abb. 6.2: Verschiedene kartesische und reziproke Basissysteme

Die Drehung des kartesischen Systems erfolgt mit der orthogonalen Matrix A. ˆ e “ Ae Die Transformations- oder Kopplungsmatrizen findet man aus folgenden Beziehungsketten. g ˆ

#

“ Pg

#

ˆe“U ˆ U´1 g “ PUe “ U

#

ˆ ˆˆ “ P U AT ˆ e“U e

ˆ ˆ V´1 g# “ Q V ATˆ ˆe“V ˆˆ e“V g ˆ# “ Q g # “ Q V e “ V e

ˆ U´1 “ U ˆ VT P“U

ˆ “ PU U

ˆ ˆ “ P U AT U

ˆ “ QV V

ˆ ˆ “ Q V AT V

(6.31) ˆ V´1 “ V ˆ UT Q“V

6.9.3

Starre Drehung des Gesamtsystems

Es wird der Sonderfall betrachtet, dass das kartesische und die reziproken Koordinatensysteme zueinander starr bleiben und gemeinsam durch orthogonale Transformation mit der Matrix A gedreht werden.

125

6.9 Basisvektoren bei Basiswechsel

e =

e =

e = g# =

g# = 

Abb. 6.3: Starre Drehung beider Systeme Bezieht man dann alte und neue ko- und kontravariante Basen auf die entsprechenden kartesischen Systeme, so gelten die Beziehungen, g

#

ˆ “ U e und g

#

“ Uˆ e

e ˆ# “ V ˆ g# “ V e und g wobei die Transformationsmatrizen U und V für beide Fälle gelten, so dass nur ein Satz G # und G# von Metrikmatrizen existiert. Für die Umrechnung der reziproken Basisvektoren erhält man daher g ˆ

#

“ Uˆ e “ U A e “ U A U´1 g

#

“ PR g

#

“ PR Ue

g ˆ# “ V ˆ e “ V A e “ V A V´1 g# “ Q R g# “ Q R V e Der Vergleich der ko- und kontravarianten Basisvektoren liefert die Beziehungen für die zueinander kontragredienten Rotationsmatrizen, die durch Ähnlichkeitstransformation nach (3.17) aus der orthogonalen Matrix A erzeugt werden. ˘´1 ` P R “ U A U´1 “ U A VT “ QTR (6.32) Q R “ V A V´1 “ V A UT “ PTR `

˘´1

126

6 Geradlinige Koordinatensysteme

Für die Determinanten der drei Drehungsmatrizen gilt det A “ det P R “ det Q R “ ` 1

6.9.4

(6.33)

Transformationsmatrix der ebenen Drehung

Wird das kartesische Koordinatensystem px, y, z; eq um die z-Achse um den Winkel ϕ gedreht, so erhält man das System pˆ x, yˆ, zˆ ” z; ˆ eq. Die Gram’sche Matrix der kartesischen Einheitsvektoren stellt die orthogonale Transformationsmatrix dieser Rotation dar. ˛ ¨ ex ¨ e y ˆ ex ¨ e z ˆ ex ¨ ex ˆ ˘ ˚ ` ‹ e y ¨ ex ˆ ey ¨ e y ˆ ey ¨ ez ‚ e, e “ ˝ ˆ Aϕ “ G ˆ ˆ e z ¨ ex ˆ ez ¨ ey ˆ ez ¨ e z Die Transformation der Basisvektoren und die Transformationsmatrix der ebenen Drehung lauten ˛ cos ϕ sin ϕ 0 ‹ ˚ A ϕ “ ˝´ sin ϕ cos ϕ 0 ‚ 0 0 1 ¨

ˆ e “ Aϕ e

(6.34)

Wie bei allen orthogonalen Matrizen gilt für die Determinante der Matrix der ebenen Drehung det A ϕ “ 1 Bei Drehung in die entgegengesetzte Richtung ist der Winkel ϕ negativ, so dass sich die Vorzeichen bei den Sinusfunktionen umkehren und die transponierte Matrix entsteht.

6.9.5

Räumliche Drehung und Euler’sche Winkel

Das kartesische Koordinatensystem px, y, z ; eq wird aus seiner ursprünglichen Lage in drei Schritten in das neue System pˆ x, yˆ, zˆ ; ˆ eq gedreht, wobei drei Winkel auftreten, die Euler’sche Winkel heißen.

6.9 Basisvektoren bei Basiswechsel

127

Darstellung und Bezeichnung der Winkel entsprechen der vor allem in angewandter und Himmelsmechanik verwendeten Konvention, [1, 118], die in der Literatur aber nicht einheitlich ist. Im einzelnen finden die drei Drehbewegungen in mathematisch positiver ` ˘ Richtung folgendermaßen aus dem Ausgangssystem x, y, z ; e statt. 1. Drehung um die z-Achse mit dem Präzessionswinkel ϕ˘ ` in das erste Zwischensystem x1 , y1 , z1 ” z ; e p1q 2. Drehung ϑ um die x1 -Achse mit dem Nutationswinkel ˘ ` in das zweite Zwischensystem x2 ” x1 , y2 , z2 ; e p2q , die x1 -Achse heißt Knotenlinie 3. Drehung um die z2 -Achse ` mit dem Winkel ψ˘ in das System x3 , y3 , z3 ” z2 ; e p3q ` ˘ und damit in das Endsystem x ˆ, yˆ, zˆ ; ˆ e Die drei Darstellungen der Abbildung 6.4 zeigen die aufeinanderfolgenden Drehschritte mit den zugehörigen Koordinatensystemen und den Euler’schen Winkeln.

128

6 Geradlinige Koordinatensysteme

z1 z a) y1



y

 x

x1 Präzessionswinkel  z1  z

z2

b)

y2



y 

x

x2  x1 Nutationsionswinkel  Knotenlinie x 1 z1 z y^

^

c)

z ≡ z2

  x



x^

y

x2  x1

Abb. 6.4: Aufeinanderfolgende Drehschritte und Euler’sche Winkel

6.9 Basisvektoren bei Basiswechsel

129

Die orthogonalen Rotationsmatrizen und die drei Drehungen lauten ˛ ¨ cos ϕ sin ϕ 0 ‹ ˚ e p1q “ A ϕ e A ϕ “ ˝´ sin ϕ cos ϕ 0‚ , 0 0 1 ˛ ¨ 1 0 0 ‹ ˚ cos ϑ sin ϑ ‚ , e p2q “ A ϑ e p1q Aϑ “ ˝ 0 0 ´ sin ϑ cos ϑ ˛ ¨ cos ψ sin ψ 0 ‹ ˚ e p3q “ A ψ e p2q A ψ “ ˝´ sin ψ cos ψ 0‚ , 0 0 1 Die Gesamttransformation erfolgt mit der orthogonalen Matrix A als Produkt der orthogonalen Einzelmatrizen. ˆ e “ e p3q “ A e “ A ψ A ϑ A ϕ e Die Transformationsmatrix heißt auch Euler-Matrix A E , deren Elemente die Richtungscosinus zwischen den jeweiligen Koordinatenrichtungen sind. ¨

cos ϕ cos ψ ´ sin ϕ sin ψ cos ϑ | ˚ A “ A E “ ˝ ´ cos ϕ sin ψ ´ sin ϕ cos ψ cos ϑ | ¨ ¨ ¨ sin ϕ sin ϑ | ˛ | sin ϕ cos ψ ` cos ϕ sin ψ cos ϑ | sin ψ sin ϑ ‹ ¨ ¨ ¨ | ´ sin ϕ sin ψ ` cos ϕ cos ψ cos ϑ | cos ψ sin ϑ ‚ | ´ cos ϕ sin ϑ | cos ϑ (6.35) Da die Matrixmultiplikation nichtkommutativ ist, erhält man andere Koordinatensysteme, wenn die Reihenfolge der Einzelmatrizen geändert wird.

6.9.6

Graphische Darstellung der Systemkopplungen

Die alten und neuen zueinander reziproken ko- und kontravarianten Basissysteme sind miteinander über verschiedene Transformationsmatrizen ge-

130

6 Geradlinige Koordinatensysteme

koppelt und jedes Basissystem ist zusätzlich im kartesischen System darstellbar. Die Transformations- oder Koppungsmatrizen weisen eine Reihe von Beziehungen untereinander auf, die in diesem Kapitel abgeleitet wurden. Die Abbildung 6.5 dient der Veranschaulichung der verschiedenen Kopplungen und der zugehörigen Matrizen.







 



 











 







 







  

 



 



Abb. 6.5: Koppungsmatrizen zwischen den verschiedenen Basisvektoren Als Multiplikationsregel für die Abbildung gilt, dass ein Basisvektor am Pfeilende dadurch berechnet wird, dass man das Matrizenprodukt aus der neben dem Pfeil stehenden Matrix und dem Basisvektor an der Pfeilspitze bildet, z.B. für die kovarianten Basisvektoren g “ U e. #

Bei Umkehrung der Pfeilrichtung und beibehaltener Multiplikationsregel muss mit der inversen Matrix multipliziert werden. Für den wichtigen Fall

131

6.9 Basisvektoren bei Basiswechsel

der Umrechnung zwischen ko- und kontravarianten Basisvektoren sind beide Transformationsrichtungen angegeben. Die vollständige Zusammenstellung aller Umrechnungsformeln zwischen den Basisvektoren findet man in Tabelle 6.1.

6.9.7

Spatprodukte in neuen Systemen

Eine entsprechende Berechnung wie im Abschnitt 6.8.1 führt nach Zerlegung der neuen kovarianten Basisvektoren nach den alten auf das Spatprodukt im neuen System. ` ˘ ` ˘ ˆ2 ˆ g ˆ3 “ p11 g1 ` p12 g2 ` p13 g3 ¨ g ˆ1 ¨ g “` ˘ ` ˘‰ ¨ p21 g1 ` p22 g2 ` p23 g3 ˆ p31 g1 ` p32 g2 ` p33 g3 ˘ “` ˘` ` ˘ “ p11 g1 ` p12 g2 ` p13 g3 ¨ p21 p32 ´ p22 p31 g1 ˆ g ˘` ˘ ` ` p22 p33 ´ p23 p32 g2 ˆ g3 ` ˘` ˘‰ ` p23 p31 ´ p21 p33 g3 ˆ g1 Das Produkt wird zur Determinante zusammengefasst, wobei das Spatprodukt der alten Basisvektoren nach (6.22) selbst eine Determinante ist.    p11 p12 p13    ˘  `  g1 , g2 , g3 ˆ2 ˆ g ˆ3 “  p21 p22 p23  loooooomoooooon g ˆ1 ¨ g  p31 p32 p33  “S# “ det U

“ det P det U ‰ 0 Das Spatprodukt der kontravarianten Basisvektoren wird entsprechend gebildet. Als Ergebnis erhält man die Spatprodukte in den neuen Systemen für zyklische Werte von i, j, k. 



 ? ˆj , g ˆk “ det P det U “ g det P g ˆi , g

ˆj , g ˆ g ˆi , g

 k

(6.36) 1 “ det Q det V “ ? det Q g

132

6.10 6.10.1

6 Geradlinige Koordinatensysteme

Beispiele für Basissysteme Ko- und kontravariantes System A

Gegeben sei ein kovariantes Grundsystem, das folgendermaßen in kartesischer Basis vorgegeben wird. , ¨ ˛ g1 “ ex / 1 0 0 . g2 “ e x ` e y Ñ U“˝1 1 0‚ / 1 1 1 g 3 “ e x ` ey ` e z Mit U können alle anderen Größen für die ko- und kontravarianten Systeme berechnet werden. $ 1 ¨ ˛ g “ e x ´ ey ’ 1 ´1 0 & ` T ˘´1 g2 “ e y ´ ez “ ˝ 0 1 ´1‚ Ñ V“ U ’ % 0 0 1 3 g “ ez e “ VT g ex “

“ UT g # “ g1 ` g2 ` g3

g1



` g2 ` g3

´ g2 ` g3 “

` g3

ey “ ´ g1 ` g2 ez “

#

Für die Metrikmatrizen erhält man nach (6.20) ¨ ˛ 1 1 1 G # “ U UT “ ˝ 1 2 2 ‚ 1 2 3 ¨

G# “ G # `

˘´1

˛ 2 ´1 0 “ V VT “ ˝ ´1 2 ´1 ‚ 0 ´1 1

det U “ x gi , gj , gk y “ S# “ 1 det V “ x gi , gj , gk y “ S # “ 1 ˘2 ` g “ det G # “ det U “ 1{ det G# “ 1

133

6.10 Beispiele für Basissysteme

6.10.2

Ko- und kontravariantes System B

Gegeben sei ein zweites kovariantes Grundsystem mit folgender Definition. g1 “ 2 e x ` e y

, / .

e x ` 3 ey

g2 “

g3 “ ´ e x

V“ U

˛ 2 1 0 U“˝ 1 3 0‚ ´1 0 1

Ñ ` ez

`

¨

˘ T ´1

/ -

¨ ˛ 3 ´1 3 1˝ ´1 2 ´1 ‚ “ 5 0 0 5 ¨

G#

˛ 5 5 ´2 “ U UT “ ˝ 5 10 ´1 ‚ ´2 ´1 2

¨ ˛ 19 ´8 15 1 ˝ ´8 6 ´5 ‚ G# “ V V T “ 25 15 ´5 25

det U “ x gi , gj , gk y “ S# “ 5 det V “ x gi , gj , gk y “ S # “ 1{5 ` ˘2 g “ det G # “ det U “ 1{ det G# “ 25

6.10.3

Kopplung zwischen System A und System B

Die Kopplungsmatrizen werden nach (6.31) berechnet. g ˆ

#

“ Pg

#

mit g

#

und g ˆ

#

“g

#A

“g

#B

“ UA e “ UB e

134

6 Geradlinige Koordinatensysteme ¨

P “ U B U´1 A “ UB VA

˘T

Q “ V B V´1 A “ VB UA

˘T

`

`

6.10.4

2 “˝ 1 ´1 ¨ 1 ˝ “ ´2 ´1

˛¨ ˛ 1 0 1 0 0 3 0 ‚˝ ´1 1 0 ‚ 0 1 0 ´1 1 ˛ 1 0 3 0‚ ´1 1

¨ 3 1˝ ´1 “ 5 0 ¨ 3 1˝ ´1 “ 5 0

˛¨ ˛ ´1 3 1 1 1 2 ´1 ‚˝ 0 1 1 ‚ 0 5 0 0 1 ˛ 2 5 1 0‚ 0 5

Ko- und kontravariantes System C mit Drehung

Gegeben ist das kovariante Grundsystem , g1 “ 2 e x ` e y / . g2 “ 2 e x ` 2 e y Ñ / g3 “ ` ez

¨

˛ 2 1 0 U“˝2 2 0‚ 0 0 1

¨

`

V“ U

˘ T ´1

˛ 2 ´2 0 1 “ ˝ ´1 2 0 ‚ 2 0 0 2

Ñ

g# “ V e

¨

G#

˛ 5 6 0 “ U UT “ ˝ 6 8 0 ‚ 0 0 1 ¨

˛ 8 ´6 0 1 G# “ V VT “ ˝ ´6 5 0 ‚ 4 0 0 4 ˘2 ` g “ det G # “ det U “ 1{ det G# “ 4

6.10 Beispiele für Basissysteme

135

Wird das System um die z-Achse um den Winkel ϕ gedreht, dann erhält man die kontragredienten Rotationsmatrizen (6.32) mit der Transformationsmatrix A ϕ nach (6.34). ¨

P R “ U Aϕ U´1

˛ cos ϕ ´ 3 sin ϕ p5{2q sin ϕ 0 cos ϕ ` 3 sin ϕ 0 ‚ “ U Aϕ VT “ ˝ ´ 4 sin ϕ 0 0 1 ¨

Q R “ V Aϕ V´1

˛ cos ϕ ` 3 sin ϕ 4 sin ϕ 0 “ V Aϕ UT “ ˝ ´ p5{2q sin ϕ cos ϕ ´ 3 sin ϕ 0 ‚ 0 0 1 det P R “ det Q R “ 1

Mit den Gleichungen (6.18), (6.30), (6.32) und (6.20)ff. gilt, ˆ#“g G ˆ

#

` ˘T ` ˘T “ P RG # P R ¨ g ˆ #

` ˘ ` ˘T “ U Aϕ V T U U T V Aϕ U T “ G # ` # ˘T ` ˘T ˆ# “ g G “ Q R G# Q R ˆ ˆ# ¨ g ` ˘ ` ˘T “ V A ϕ U T V V T U A ϕ V T “ G# woraufhin alte und neue Metrikmatrizen identisch sind.

136

6 Geradlinige Koordinatensysteme

6.11

Tabellen

Hinweise zu den Tabellen 6.1 bis 6.3 Nach Vorgabe der Matrizen A, U und V können alle skalaren Matrizen berechnet werden. Die Γ-Matrizen enthalten vektorielle Elemente. Eigenschaften der Matrizen A

orthogonale Transformationsmatrix

U, V

zueinander kontragrediente Transformationsmatrizen zueinander kontragrediente Kopplungsmatrizen

P, Q G #, G

#

Γ, Γ # , Γ

zueinander inverse Metrikmatrizen #

alternierende Matrizen der Basisvektoren

Determinanten Die Matrizen besitzen folgende Determinanten und Verknüpfungen, die in den Gleichungen (6.19) bis (6.22) sowie (6.29) angegeben sind. det G # “ g ą 0 det G# “

1 g ?

  g “ S# “ g1 , g2 , g3   1 det V “ ? “ S # “ g1 , g2 , g3 g det U “

det G # det G# “ det U det V “ det P det Q “ 1 Berechnungsbeispiele ˆ e “ Ae g

#

“ G # g#

g # “ PT g ˆ# g ˆ

#

ˆ #g “G ˆ # “ P G # PT g ˆ#

g g ˆ g g ˆ

#

` ˘T ¨ g “ G# #

˘T

`

#

# #

¨ g

#

“ PG#

` ˘T ˆ g # “ S # Γ # G# ` ˘T ˆ g “ S # P Γ# #

U AT V AT P U AT Q V AT

U “ pVT q´1

V “ pUT q´1

ˆ PU “ U

ˆ QV “ V

g#

g ˆ

E

ˆ # “ Q G# Q T G

Q “ pPT q´1

Q G#

ˆ # “ P G # PT G E

PG#

P “ pQT q´1

PT “ Q´1

G # PT

QT “ P´1 G# Q T

A pP UqT

A pQ VqT

ˆ ´1 pP UqT “ V

g ˆ#

E

G # “ U UT

#

ˆ ´1 pQ VqT “ U

g ˆ

G# “ V V T

E

Tabelle 6.1: Umrechnung der Basisvektoren

g ˆ#

#

#

g

A UT

A VT

E

A

ˆ e

UT “ V´1

VT “ U´1

g#

AT “ A´1

E

#

g

ˆ e

e

e

6.11 Tabellen 137

138

6 Geradlinige Koordinatensysteme

eT

`

g#

˘T

`

g

˘T

`

#

g ˆ#

˘T

`

˘ T

`

g ˆ

˘T #

E

VT

UT

¨

U

E

G#

QT

G # PT

g# ¨

V

G#

E

G# Q T

PT

ˆ e¨

A

AVT

AUT

AUT G# QT

AVT G # PT

¨

PU

P

PG#

E

PG # PT

g ˆ# ¨

QV

Q G#

Q

QG# QT

E

e¨ g

g ˆ

#

#

`

QV

Tabelle 6.2: Dyadische Skalarprodukte der Basisvektoren

PUT

˘

139

6.11 Tabellen

eT

`

g#

˘T

`

g

˘T #

Γ

S # UT Γ # “ Γ V T

S # V T Γ# “ Γ UT

ˆ



S # G # Γ # “ S # Γ # G#

S # Γ# “ U Γ UT

g# ˆ



S # Γ # “ V Γ VT

S # G# Γ # “ S # Γ # G #

ˆ eˆ



A Γ VT

A Γ UT

ˆ

PUΓ

S # P G # Γ # “ S # P Γ # G#

S # P Γ# “ P U Γ UT

g ˆ# ˆ

QVΓ

S # Q Γ # “ Q V Γ VT

S # Q G# Γ # “ S # Q Γ # G #

eˆ g

g ˆ

#

#

Tabelle 6.3: Dyadische Kreuzprodukte der Basisvektoren

Literatur [1] Goldstein, H.: Klassische Mechanik Akademische Verlagsgesellschaft, Wiesbaden, 5. Aufl. (1978) [2] Wrede, R. C.: Introduction to Vector- and Tensor Analysis Dover Publications, New York (1972)

140

Kapitel 7

Vektoren und ihre Komponenten Zusammenfassung Vektoren werden als physikalische Größen in koordinatenfreier Form beschrieben. Die koordinatengebundene Darstellung ihrer Komponenten in kartesischen und reziproken Koordinatensystemen und deren Umrechnung im gleichen Basissystem erfolgt durch die Beschreibung mit Matrizen. Die verschiedenen Produkte von Vektoren werden in Komponentenform angegeben.

7.1 7.1.1

Vektoren in kartesischen Koordinatensystemen Allgemeiner Vektor

Ein Vektor stellt als Größe eine physikalische Invariante dar, die unabhängig ist vom Standort eines Beobachters und damit auch von jedem Koordinatensystem, in dem man den Vektor beschreiben kann. Jeder Vektor a kann in einem beliebig wählbaren Koordinatensystem eindeutig zerlegt werden in Richtung der drei stets als nichtkomplanar vorausgesetzten Basisvektoren dieses Systems. Wählt man zunächst als einfachsten Fall ein kartesisches Koordinatensystem px, y, zq mit den Einheitsvektoren e , dann stellen die orthogonalen Projektionen pa ¨ ex,y,z q des Vektors a auf die Koordinatenachsen seine kartesischen Komponenten ax , ay , az dar. 141 © Springer Fachmedien Wiesbaden GmbH, ein Teil von Springer Nature 2019 W. Werner, Vektoren und Tensoren als universelle Sprache in Physik und Technik 1, https://doi.org/10.1007/978-3-658-25272-4_7

142

7 Vektoren und ihre Komponenten

Bei Wahl numerischer Indizes zur Kennzeichnung der drei Achsen erhalten die einzelnen kartesischen Komponenten im Hinblick auf die Unterscheidung von den kovarianten (s. Gl. 7.9) als Ornament einen Quer¯2 , a ¯3 , was in der Matrixdarstellung a der Komponenten aber strich, a ¯1 , a nicht erforderlich ist. Die Größen α, β, γ sind die Winkel, die der Vektor a mit den drei kartesischen Achsen bildet und die die Richtungscosinus bestimmen, die schon mehrfach aufgetreten sind. Der Vektor a hat dann folgende Darstellungen im kartesischen System. ¯ 1 e1 ` a ¯ 2 e2 ` a ¯ 3 e3 a “ a x ex ` a y ey ` a z ez “ a “ pa ¨ e1 q e1 ` pa ¨ e2 q e2 ` pa ¨ e3 q e3 ˘ ` “ | a | cos α e1 ` cos β e2 ` cos γ e3

(7.1)

Der Vektor selbst ist frei oder beweglich, so dass er als Verschiebungsvektor keinen festen Anfangspunkt hat. Sein Betrag wird als euklidischer Abstand seiner Endpunkte a ¯k “ xkEnde ´ xkAnf ang nach dem Satz des Pythagoras berechnet, wobei die Richtungscosinus eine wichtige Beziehung erfüllen, die bereits im Abschnitt 5.4.2 auftrat. b a2x ` a2y ` a2z

|a| “ a “

(7.2) ´ a ¯2 x

a

`

´ a ¯2 y

a

`

´ a ¯2 z

a

“ cos2 α ` cos2 β ` cos2 γ “ 1

• Die Summe der Quadrate der Richtungscosinus ist Eins! Für kartesische Vektoren werden folgende Schreibweisen verwendet,

`

a“ a ¯1 , a ¯2 , a ¯3

˘

¨ ˛ ¨ ˛ e1 a ¯1 ˘ ` ˝e2 ‚ “ e1 , e2 , e3 ˝a ¯ 2 ‚ “ aT e “ e T a e3 a ¯3

(7.3)

bei denen es sich um formale Skalarprodukte der Matrizenrechnung aus Zeilen- und Spaltenvektor handelt. Dabei stellt der eine Anteil die Basis-

143

7.2 Vektoren in reziproken Systemen

vektoren des Koordinatensystems (mit doppelter Unterstreichung), der andere die skalaren Komponenten des Vektors (mit einfacher Unterstreichung) in diesem System dar.

7.1.2

Ortsvektor

Der Ortsvektor r ist ein fester oder gebundenen Vektor, dessen Anfangspunkt stets im Nullpunkt des Koordinatensystems liegt und der zu einem bestimmten Raumpunkt weist. Mit dem Ortsvektor r “ rpP q kann jeder einzelne Punkt P “ P prq im Raum eindeutig identifiziert werden. Die kartesischen Komponenten des Ortsvektors sind die orthogonalen Projektionen auf die Koordinatenachsen und daher mit den Koordinaten ¯2 , x ¯3 des Systems identisch! x, y, z bzw. x ¯1 , x r “ x ex ` y ey ` z ez “ x ¯ 1 e1 ` x ¯2 e2 ` x ¯ 3 e3 “ x T e (7.4) |r| “ r “

7.2 7.2.1

a

x2 ` y 2 ` z 2

Vektoren in reziproken Systemen Kovariante Basis

Für jeden Vektor a kann eine Zerlegung in Richtung einer frei wählbaren kovarianten Basis g angegeben werden, #

` ˘T a “ a1 g1 ` a2 g2 ` a3 g3 “ a# g

#

` ˘T # “ g a #

(7.5)

wobei die beiden rechts stehenden Darstellungen die formalen Matrizenprodukte aus Basisvektoren und noch zu bestimmenden Koeffizienten sind, die mit dem formalen Laufindex # als oberem Index gekennzeichnet werden. Die drei Teilvektoren ai gi sind die vektoriellen Komponenten von a in der kovarianten Basis. Damit sie gemäß der Vektoraddition (5.1) tatsächlich den Vektor a ergeben, müssen sie die Parallelprojektion auf die

144

7 Vektoren und ihre Komponenten

schiefwinkligen, kovarianten Koordinatenachsen der Basis darstellen, woraus die skalaren Koeffizienten ai bestimmt werden. Die Koeffizienten der Vektorzerlegung heißen • kontravariante Komponenten ai bzw. a# von a bezüglich des kovarianten Grundsystems g #

Die Vektorzerlegung erfolgt stets mit entgegengesetzter Indexstellung für Komponenten und Basis.

7.2.2

Kontravariante Komponenten

Zur Bestimmung der kontravarianten Komponente ai multipliziert man den Vektor mit dem kontravarianten Basisvektor gi oder mit dem kovarianten Kreuzprodukt gj ˆ gk , wobei in beiden Fällen wegen der Reziprozitätsbedingung (6.12) nur ein Glied der zerlegten Form von Null verschieden ist. a ¨ gi “ gi ¨

3 ÿ

ap gp “ ai

p“1 3 ` ˘ ` ˘ ÿ   a ¨ gj ˆ gk “ gj ˆ gk ¨ ap gp “ ai gi , gj , gk “ ai S# p“1

Die beiden Darstellungen der kontravarianten Komponenten lauten damit ˘ 1 ` ai “ a ¨ gi “ a ¨ gj ˆ gk S#

pi, j, k zyklischq

(7.6)

Mit der ersten Komponentendarstellung kann man auch folgende Matrixgleichung für die Komponenten angeben, bei denen der Vektor a als gemeinsamer vektorieller Faktor vor den Spaltenvektor tritt, ¨ 1˛ ¨ ˛ ¨ 1˛ a a ¨ g1 g ˚ 2‹ ˚ ‹ ˚ 2‹ # 2 a “ ˝a ‚ “ ˝a ¨ g ‚ “ a ¨ ˝g ‚ “ a ¨ g# a3 a ¨ g3 g3 so dass man für die Zerlegung des Vektors folgende Darstellung erhält. ´ ¯T ` ` ` ˘ ˘ ˘ a “ a ¨ g1 g 1 ` a ¨ g2 g 2 ` a ¨ g3 g 3 “ a ¨ g# g

#

(7.7)

145

7.2 Vektoren in reziproken Systemen

7.2.3

Kontravariante Basis

Der Vektor a kann ebenso zerlegt werden in Richtung der reziproken, kontravarianten Basis g# mit Koeffizienten mit unterem Index.

` ˘T ` ˘T a “ a1 g 1 ` a2 g 2 ` a 3 g 3 “ a # g # “ g # a #

(7.8)

Die Teilvektoren ai gi sind die vektoriellen Komponenten von a in der kontravarianten Basis, die die Parallelprojektion auf die reziproken Koordinatenachsen darstellen, woraus die skalaren Koeffizienten ai bestimmt werden. Die Koeffizienten der Vektorzerlegung heißen • kovariante Komponenten ai bzw. a # von a bezüglich des kontravarianten Grundsystems g# Auch hier erfolgt die Vektorzerlegung stets mit entgegengesetzter Indexstellung für Komponenten und Basis.

7.2.4

Kovariante Komponenten

Zur Bestimmung der kovarianten Komponenten ai multipliziert man den Vektor mit dem kovarianten Basisvektor gi oder mit dem kontravarianten Kreuzprodukt gj ˆ gk , wobei wieder nur ein Glied der zerlegten Form von Null verschieden ist. a ¨ gi “ gi ¨

3 ÿ

ap g p “ ai

p“1 3 ˘ ` ˘ ÿ `   a ¨ gj ˆ gk “ gj ˆ gk ¨ ap g p “ ai g i , g j , g k “ ai S # p“1

Die beiden Darstellungen der kovarianten Komponenten lauten damit ` ˘ 1 ai “ a ¨ gi “ a ¨ gj ˆ gk S#

pi, j, k zyklischq

(7.9)

146

7 Vektoren und ihre Komponenten

Auch hier kann man die entsprechende Matrixgleichung für die Komponenten angeben. ¨ ˛ ¨ ˛ ¨ ˛ a1 a ¨ g1 g1 ˚ ‹ ˚ ‹ ˚ ‹ a# “ ˝a2 ‚ “ ˝a ¨ g2 ‚ “ a ¨ ˝g2 ‚ “ a ¨ g # a3 a ¨ g3 g3 Die Zerlegung des Vektors lautet in diesem Fall ´ ¯T ` ` ` ˘ ˘ ˘ a “ a ¨ g1 g 1 ` a ¨ g2 g 2 ` a ¨ g3 g 3 “ a ¨ g g# #

7.2.5

(7.10)

Forminvariante Darstellung

Der Vektor ist als physikalische Größe eine Invariante, nur seine Zerlegung nach Koordinaten und damit seine Komponenten in verschiedenen Basissystemen fallen entsprechend anders aus. Zusammenfassend kann man nach (7.3), (7.5) und (7.8) folgende Vektorzerlegungen angeben, die die Forminvarianz von Vektoren in kartesischen und reziproken Koordinatensystemen ausdrückt. ` ˘T a “ a T e “ a# g

#

` ˘T “ a # g# (7.11)

˘T ˘T ` ` a “ a ¨ e e “ a ¨ g# g

¯T

´ #

“ a¨g

#

g#

Man erhält sechs weitere Darstellungen für den Vektor, wenn man die Faktoren in den formalen Skalarprodukten unter Beachtung der Transponierung gemäß (3.5) vertauscht. Die reziproke Kombination von ko- und kontravarianten Bestandteilen in den Vektordarstellungen ist stets an der entgegengesetzten Stellung der Indizes erkennbar. Dabei gilt folgende Sprachregelung. Ein Vektor wird ko- oder kontravariant genannt, wenn er durch ko- oder kontravariante Komponenten dargestellt wird!

(7.12)

147

7.3 Graphische Vektordarstellung

7.2.6

Betrag eines Vektors

Setzt man im Skalarprodukt eines Vektors mit sich selbst reziproke Kombinationen der Komponenten ein, so ergibt sich wegen der Reziprozitätsbedingung (6.12) eine entsprechend kompakte Darstellung für den Betrag wie im kartesischen System. Bei Verwendung gleichindizierter Komponenten treten dagegen die Metrikmatrizen hinzu, so dass Darstellungen und Berechnungen aufwendiger werden. ` ˘T ` ˘T a ¨ a “ | a |2 “ aT a “ a # a# “ a # G# a # ` ˘T ` ˘T “ a# a # “ a# G # a#

7.3 7.3.1

(7.13)

Graphische Vektordarstellung in reziproken Systemen Parallelprojektion in schiefwinkligen Systemen

Die Überlagerung der durch Parallelprojektion in Richtung reziproker Achsen entstehenden Teilvektoren erzeugen den Vektor a gemäß geometrischer Vektoraddition (Abbildung 7.1). a “ a1 g1 ` a2 g2 ` a3 g3 a “ a1 g 1 ` a2 g 2 ` a3 g 3

7.3.2

Orthogonalprojektion im schiefwinkligen System

Bei Orthogonalprojektion von a auf die kovarianten Achsen g

#

ergibt die

Vektoraddition der entstehenden Teilvektoren nach Abbildung 7.2 nicht den gegebenen Vektor a sondern einen anderen Vektor b und ist deshalb nicht anwendbar! a1K g1 ` a2K g2 “ b ‰ a

148

7 Vektoren und ihre Komponenten

g2 g2

g2

a2 g 2

a

a

a2 g 2

g3

g1

a1 g 1

g1 g3 = g

3

a1 g 1 g1

Abb. 7.1: Zerlegung eines Vektors nach reziproken Koordinaten im zweidimensionalen Fall

b g2

a

a2 g 2

g3

a1 g 1

g1

Abb. 7.2: Orthogonalprojektion eines Vektors

7.4 Beträge und Längen der Vektorkomponenten

7.4

7.4.1

149

Beträge und Längen der Vektorkomponenten Geometrische Beziehungen

Ko- und kontravariante Komponenten von Vektoren haben meist keine geometrisch anschauliche Bedeutung, da die Basisvektoren normalerweise keine Einheitsvektoren sind. In Abbildung 7.3 werden die verschiedenen Projektionen eines Vektors a dargestellt und ihre Längen werden angegeben.

D g2

F

g2

H

a

B

A

g3

E

O

g1 G g1

C

Abb. 7.3: Komponenten der beiden Vektorprojektionen

150

7 Vektoren und ihre Komponenten

7.4.1.1

Beträge und Skalarprodukte der Basisvektoren ? | gk | “ gkk ˇ ˇ a ˇ kˇ ˇ g ˇ “ g kk ˇ ˇ ˇ ˇ gk ¨ gk “ | gk | ˇ gk ˇ cosp gk , gk q “ 1

7.4.1.2

(*)

Beträge der vektoriellen Komponenten bei Parallelprojektion

Die Punkte A, B, C, D in Abbildung 7.3 sind die Endpunkte der Teilvektoren, die durch Parallelprojektion auf die ko- und kontravarianten Achsen entstehen und die gemäß vektorieller Addition den Vektor a ergeben. Für die Längen dieser Teilvektoren gilt nach Abbildung 7.1 OA “ a1 | g1 | , ˇ ˇ OC “ a1 ˇ g1 ˇ , 7.4.1.3

OB “ a2 | g2 | ˇ ˇ OD “ a2 ˇ g2 ˇ

Längen der Orthogonalprojektionen

Die Punkte E, F, G, H sind die Lotpunkte der Orthogonalprojektionen von a auf die Achsen der Basisvektoren und mit (*) gilt für ihre Längen OE “ OC cos p g1 , g1 q “

a1 , | g1 |

OF “ OD cos p g2 , g2 q “

a2 | g2 |

OG “ OA cos p g1 , g1 q “

a1 , | g1 |

OH “ OB cos p g2 , g2 q “

a2 | g2 |

Ko- und kontravariante Komponenten kann man in Diagrammen ˇ k ˇ nur im Falle von Einheitsvektoren direkt ablesen, d.h. wenn | gk | “ ˇ g ˇ “ 1 gilt.

7.4.2

Physikalische Vektorkomponenten

Alle Berechnungen von Vektoren innerhalb des Tensorkalküls werden mit ko- und kontravarianten Komponenten durchgeführt, die allerdings keine unmittelbare anschauliche Bedeutung haben und auch unterschiedliche Dimensionen besitzen können.

151

7.5 Umrechnung der Komponenten

Die physikalischen und dimensionsrichtigen Vektorkomponenten mit realer Bedeutung gewinnt man dadurch, dass man von den Teilvektoren in Richtung der reziproken Basen entsprechende Einheitsvektoren abspaltet. ˇ ˇ gk gk ˇ ˇ ak g k “ ak ˇ g k ˇ , a k g k “ a k | gk | k k o|n looomooon lo|og looomooon lo|ogmoo|n mo “ pak qph

“ pak qph

Einheitsvektor

Einheitsvektor

Für die ko- und kontravarianten physikalischen Komponenten erhält man daraus die Darstellungen ˇ ˇ a ` ˘ ˇ ˇ ak ph “ ak ˇ gk ˇ “ ak g kk

7.5

` k˘ ? a ph “ ak | gk | “ ak gkk

(7.14)

Umrechnung der Komponenten im gleichen Basissystem

Gemäß der Forminvarianz (7.11) erfolgt die Darstellung von Vektoren mit zusammengehörigen Paaren aus Komponenten und Basisvektoren, und zwar entweder mit a # und g# oder mit a# und g . Durch skalare Multi#

plikation ergibt sich der Ausdruck ` ˘T ` ˘T ` ˘T ` ˘T ` # ˘T ` ˘T “ a # g# ¨ g “ a g ¨ g “ aT e ¨ g a¨ g # # # # # looooomooooon loooooomoooooon loooomoooon “ G # “ pG # qT

“ UT

“E

und mit (6.19) und (6.20) folgt daraus der Zusammenhang zwischen ko- und kontravarianten sowie kartesischen Komponenten. a # “ G # a# “ U a

a# “ G# a # “ V a

(7.15)

Der Vergleich dieser Gleichung mit den Umrechnungsbeziehungen (6.18) der Basisvektoren, die noch einmal angegeben werden, g # “ G# g

#

sowie

g

#

“ G # g#

führt zur Erkenntnis, dass die zusammengehörigen Paare unterschiedlich, und zwar in kontragredienter Weise umgerechnet werden mit den nach (6.19) zueinander kontragredienten Metrikmatrizen.

152

7.6 7.6.1

7 Vektoren und ihre Komponenten

Produkte von Vektoren Skalarprodukt zweier Vektoren

Mit den forminvarianten Zerlegungen der beiden Vektoren ` ˘T ` ˘T a “ aT e “ a# g “ a # g# #

b “ eT b “ g `

˘ # T

` ˘T # b b# “ g #

wird das skalare Produkt gebildet. ` ˘T ` ˘T ` ˘T a ¨ b “ aT e ¨ eT b “ a# g ¨ g# b # “ a# g #

`

“ a#

˘T

g# ¨ g

˘T

`

#

b# “ a # `

˘T

#

` ˘T # b ¨ g #

g# ¨ g# `

˘T

b#

Man erhält unter Berücksichtigung der Reziprozitätsbedingung (6.12) und der Metrikmatrizen als dyadische Produkte (6.18) als Resultat fünf verschiedene Darstellungsformen, die man mit dem Betrag (7.13) eines Vektors vergleichen kann. ` ˘T ` ˘T a ¨ b “ aT b “ a# b # “ a# G # b# ` ˘T ` ˘T “ a # b # “ a # G# b #

(7.16)

Das Skalarprodukt nimmt eine dem kartesischen Fall entsprechende besonders einfache Form bei reziproker Vektorzerlegung an, denn in diesem Fall besteht das Produkt nur aus den kovarianten Komponenten des einen Vektors und den kontravarianten des anderen. Zerlegt man dagegen die Vektoren nach Basissystemen mit gleicher Indexstellung, dann treten zusätzlich die Metrikmatrizen auf. Im Skalarprodukt wie schon in der forminvarianten Vektordarstellung (7.11) zeigt sich besonders deutlich, dass die Einführung von zwei zueinander reziproken, ko- und kontravarianten Bezugssystemen sinnvoll ist, da dadurch eine kompakte und der kartesischen äquivalente Formulierung möglich wird. In Schreibweise und graphischem Erscheinungsbild wird diese elegante Formulierung durch die dabei auftretende entgegengesetzte Stellung der Indizes visuell unterstützt.

153

7.6 Produkte von Vektoren

7.6.2

Kreuzprodukt zweier Vektoren

Im kartesischen Fall erhält man mit der alternierenden Γ-Matrix (6.2) als Ergebnis die folgende formale Determinante. ˛ ¨ ¯b2 e3 ´ ¯b3 e2 ` ˘˚ ‹ a ˆ b “ aT e ˆ eT b “ aT Γ b “ a ¯1 , a ¯2 , a ¯3 ˝ ¯b3 e1 ´ ¯b1 e3 ‚ ¯b1 e2 ´ ¯b2 e1    e1 e 2 e 3      ¯1 a ¯2 a ¯3  aˆb“a    ¯b1 ¯b2 ¯b3  In den reziproken Systemen gibt es für das Kreuzprodukt je nach Vektorzerlegung weitere mögliche Darstellungen mit den Γ-Matrizen (6.24), von denen hier nur die beiden einfacheren Formen nach (6.25) ohne Metrikmatrizen notiert werden. ` ˘T ` ˘T ` ˘T ` ˘T c “ a ˆ b “ a # g # ˆ g # b # “ S # a # Γ # b # “ c# g #

˘T “ a# g

˘T

`

`

#

ˆ g

#

b# “ S # a `

˘ # T

Γ# b # “ c # `

˘T

g#

Insgesamt lauten die drei formalen Determinanten    e1 e2 e3      ¯1 a ¯2 a ¯3  “ S # aˆb“a    ¯b1 ¯b2 ¯b3 

   g1 g2 g3       a1 a2 a3  “ S #    b1 b2 b3 

   g1 g2 g3     1   a a2 a3   1  b b2 b3 

(7.17) Für die Komponenten des Ergebnisvektors des Kreuzproduktes erhält man folgende Darstellungen. c“aˆb ` ˘T ` ˘T “ c# g “ c # g # # “ ` ˘ ` ˘ ` ˘‰ # “ S g1 a2 b3 ´ a3 b2 ` g2 a3 b1 ´ a1 b3 ` g3 a1 b2 ´ a2 b1 “ ` ˘ ` ˘ ` ˘‰ “ S # g 1 a 2 b3 ´ a 3 b2 ` g 2 a 3 b1 ´ a 1 b3 ` g 3 a 1 b2 ´ a 2 b1 (7.18)

154

7.6.3

7 Vektoren und ihre Komponenten

Spatprodukt

Setzt man für das Kreuzprodukt die entwickelten Determinanten ein, wobei die griechischen Buchstaben deren Minoren bedeuten, ` ˘ ` ˘ a ¨ pb ˆ cq “ a1 g1 ` a2 g2 ` a3 g3 ¨ α g1 ` β g2 ` γ g3 ˘ ` ˘ ` “ a 1 g1 ` a 2 g 2 ` a 3 g 3 ¨ ξ g 1 ` η g 2 ` ζ g 3 so erhält man folgende Ergebnisse in Determinantenform. ` ˘   a ¨ b ˆ c “ a, b, c “ S #

   a1 a2 a3       b1 b 2 b 3  “ S #    c1 c2 c3 

   a1 a2 a3     1 2 3 b b b   1 2 3 c c c 

(7.19)

Kapitel 8

Vektorkomponenten bei Basiswechsel Zusammenfassung Eine wichtige Aufgabe ist die Transformation der Vektorkomponenten beim Wechsel der Koordinatensysteme. Für kartesische und reziproke Komponenten werden die Transformationsgesetze dargestellt. Verschiedene Vektorabbildungen und Transformationen werden untersucht und in Beispielen dargestellt.

8.1

Kartesische Komponenten

Ein physikalischer Vektor ist forminvariant und kann in alter peq und neuer Basis pˆ eq äquivalent dargestellt werden, wobei die Umrechnung der Basisvektoren durch orthogonale Transformationsmatrizen A bereits aus (6.4), (6.34) und (6.35) bekannt sind. aT A e aT ˆ e“ˆ a “ aT e “ ˆ Für die neuen Komponenten des Vektors folgt damit, da orthogonale Matrizen nach (6.5) ihren kontragredienten gleich sind ˆ aT A “ aT

Ñ

ˆ a “ pAT q´1 a “ A a 155

© Springer Fachmedien Wiesbaden GmbH, ein Teil von Springer Nature 2019 W. Werner, Vektoren und Tensoren als universelle Sprache in Physik und Technik 1, https://doi.org/10.1007/978-3-658-25272-4_8

156

8 Vektorkomponenten bei Basiswechsel

Wählt man für den beliebigen Vektor a speziell den Ortsvektor r, dessen Komponenten die Koordinaten x sind, so lauten die Zerlegungen, ˆT ˆ e r “ xT e “ x womit dann insgesamt folgende Umrechnungsformeln gelten. ˆ e “ Ae

ˆ a “ Aa

x ˆ “ Ax

(8.1)

In kartesischen Systemen werden Basisvektoren, Vektorkomponenten und Koordinaten in der gleichen Weise, also kogredient, transformiert! Kartesische Systeme bilden in dieser Hinsicht eine Ausnahme, da wegen der Orthogonalität der Basisvektoren nach Abschnitt 6.6.5 der Unterschied zwischen Ko- und Kontravarianz aufgehoben ist und die Kogredienz ein Wesensmerkmal orthogonaler Systeme darstellt.

8.2

Ko- und kontravariante Komponenten

Für einen Vektor a gelten nach (7.11) folgende forminvarianten Darstellungen in zueinander reziproken Basen. ` ˘T a “ a# g

#

` # ˘T ` ˘T a g ˆ “ a # g# “ ˆ

#

` ˘T # “ ˆ a# g ˆ

(8.2)

Setzt man die Umrechnungen der Basisvektoren nach (6.27) ein, dann gelten, da die Matrizen P und Q zueinander kontragredient sind, nach einfacher Umstellung die folgenden Transformationsformeln für Basisvektoren und Vektorkomponenten. g ˆ

#

“ Pg

#

ˆ a# “ Q a # “ Q G # a # (8.3)

g ˆ# “ Q g #

ˆ a # “ P a # “ P G # a#

157

8.3 Kogredienz und Kontragredienz

8.3

Kogredienz und Kontragredienz

Vektoren in reziproken Systemen werden gemäß (8.2) dargestellt durch zusammengehörige Paare mit entgegengesetzter Indexstellung, a# und g

#

a# und g #

oder

ˆ a# und g ˆ

oder

ˆ a# und g ˆ#

#

Man nennt Größen • kogredient wenn sie mit gleichen Matrizen transformiert werden • kontragredient wenn sie mit kontragredienten Matrizen transformiert werden In reziproken Systemen erfolgt die Umrechnung solcher Paare auf kontragrediente Weise, da die Faktoren mit zueinander kontragredienten Matrizen multipliziert werden. Mit den kontragredienten Matrizen P und Q gilt nach (8.3) und (6.29) z.B. ` ˘T ` ˘T ` # ˘T g ˆ “ a # QT P g# “ a# g ˆ a #

#

wie in (8.2) gefordert.

8.4 8.4.1

Allgemeine lineare Transformation Definition

Unter einer linearen Transformation, die man auch als affine Abbildung bezeichnet, versteht man die lineare Abhängigkeit zweier Vektoren, bei der jede Komponente des einen Vektors linear, also nur in erster Potenz, von allen Komponenten des anderen Vektors abhängt. Ausgangspunkt ist die Transformation der kartesischen Komponenten der Vektoren a und v mit einer beliebigen, nichtsingulären Transformationsmatrix T. , vx “ T11 ax ` T12 ay ` T13 az / / . vy “ T21 ax ` T22 ay ` T23 az Ñ v “ Ta (8.4) / / v “T a `T a `T a z

31

x

32

y

33

z

158

8 Vektorkomponenten bei Basiswechsel

Bei dieser affinen Abbildung von a nach v liegt bereits ein Vorgriff auf die im nächsten Kapitel zu behandelnde Tensorrechnung vor, bei der Transformationen eines Vektors in einen anderen untersucht werden.

8.4.2

Wechsel des Koordinatensystems

Gesucht wird der Zusammenhang der Vektorkomponenten, wenn zusätzlich ein Wechsel des Koordinatensystems durchgeführt wird. Das neue System ε sei geradlinig aber nicht kartesisch und seine Basisvektoren werden mit der regulären Matrix C dargestellt. ε “ Ce

(8.5)

Für Ausgangs- und Zielvektor gilt, aTε ε “ ˆ aTε C e a “ aT e “ ˆ ˆTε C e ˆTε ε “ v v “ vT e “ v mit denen die Komponenten beider Vektoren im neuen System lauten ` ˘´1 a ˆ a ε “ CT ` T ˘´1 ` ˘´1 ` ˘´1 v ˆε “ C v “ CT T a “ CT T CT ˆ aε Im neuen Koordinatensystem werden die Komponenten des transformierten Vektors durch Ähnlichkeitstransformation (3.17) mit der Matrix CT bestimmt. ` ˘´1 v “ Ta v ˆ ε “ CT T CT ˆ aε (8.6)

8.4.3

Orthogonale Systeme

Findet der Basiswechsel zwischen zwei kartesischen Koordinatensystemen e statt, die durch die orthogonale Matrix A mit den Basisvektoren e und ˆ umgerechnet werden, so gelten die Beziehungen (8.1), und die Komponenten im neuen Bezugssystem lauten a v ˆ “ A v “ A T a “ A T AT ˆ

8.4 Allgemeine lineare Transformation

159

Die Produktmatrix der Transformation nennt man die zu A kongruente Matrix. A

Ø

A T AT

(8.7)

Als Ergebnis erhält man die Transformation der kartesischen Vektorkomponenten im alten und im neuen System, wobei die Umrechnung zwischen den a als Kongruenztransformation nach (3.18) neuen Komponenten v ˆ und ˆ bezeichnet wird. v “ Ta

v ˆ “ A T AT ˆ a

(8.8)

In orthogonalen und damit auch kartesischen Systemen ist der Unterschied von Ko- und Kontragredienz, wie schon im Abschnitt 6.6.5 bemerkt, aufgehoben, da sowohl Basisvektoren als auch Komponenten nach (8.1) mit der orthogonalen Matrix A transformiert werden, die mit ihrer kontragredienten Matrix identisch ist.

8.4.4

Reziproke Systeme

Liegt ein Basiswechsel zwischen reziproken Systemen zugrunde, dann gelten mit (7.15) und (8.3) folgende Ketten von Beziehungen für die affine Abbildung der Vektorkomponenten. v ˆ # “ P U v “ P v # “ P G # v# “ P U T a “ P U T V T a # “ P U T U T a# “ P U T AT ˆ a “ P U T V T QT ˆ a # “ P U T U T PT ˆ a# v ˆ # “ Q V v “ Q v # “ Q G# v # “ Q V T a “ Q V T V T a # “ Q V T U T a# “ Q V T AT ˆ a “ Q V T V T QT ˆ a # “ Q V T U T PT ˆ a# An solchen Berechnungsbeispielen zeigen sich Stärke und Klarheit der Matrizendarstellung, denn die Indexschreibweise hätte durch die Vielzahl der Summen, die ggf. noch unterdrückt werden, und den verschiedenen Indizes, was man schon am einfachen Beispiel (3.13) sehen kann, eine große Unübersichtlichkeit zur Folge, die leicht zu Fehlern führen kann!

160

8 Vektorkomponenten bei Basiswechsel

Die Gesamtheit aller Transformationsbeziehungen sind in den Tabellen 8.1 und 8.2 zur Umrechnung der Vektorkomponenten bei Basiswechsel und bei affiner Transformation aufgeführt.

8.5 8.5.1

Beispiele für Vektortransformationen Vektorvorgabe im kartesischen System

Gegeben sei der folgende Vektor a “ ex ` 2 ey ` 3 ez

8.5.2

Ñ

¨ ˛ 1 a “ ˝2‚ 3

Vektordarstellung im System A

Die Zerlegung des Vektors nach den Basisvektoren von System A aus Beispiel 6.10.1 führt mit (7.15) auf die ko- und kontravarianten Komponenten. ¨ ˛¨ ˛ ¨ ˛ 1 0 0 1 1 a # “ U A a “ ˝ 1 1 0 ‚˝2‚ “ ˝3‚ 1 1 1 3 6 ¨ ˛¨ ˛ ¨ ˛ 1 ´1 0 1 ´1 a# “ V A a “ ˝ 0 1 ´1‚˝2‚ “ ˝´1‚ 0 0 1 3 3

8.5.3

Vektordarstellung im System B

Um den Vektor im System B darzustellen, benötigt man (8.3) und die Kopplungsmatrizen aus Beispiel 6.10.3 ¨

1 1 ` ˘T ˆ a # “ P a # “ U B V A a # “ ˝´2 3 ´1 ´1 ¨ 3 2 ` ˘T # 1 # # ˝ ´1 1 ˆ a “ Qa “ VB UA a “ 5 0 0

˛¨ ˛ ¨ ˛ 0 1 4 0 ‚˝3‚ “ ˝7‚ 1 6 2 ˛¨ ˛ ¨ ˛ 5 ´1 2 ‚ ˝ ‚ ˝ 0 ´1 “ 0‚ 5 3 3

161

8.5 Beispiele für Vektortransformationen

8.5.4

Starre Drehung von System A

Zusammen mit dem kartesischen wird das System A räumlich gedreht um die Euler’schen Winkel ϕ “ 30˝ ,

ϑ “ 60˝ ,

ψ “ 30˝

Mit der orthogonalen Euler-Matrix A E (6.35) für diese Drehungen ? ? ˛ 5 3 3 2 3 1˚ ? ‹ A E “ Aψ Aϑ Aϕ “ ˝´ 3 3 1 6 ‚ ? 8 ´6 4 2 3 ¨

und den Rotationsmatrizen (6.32) ? 5´3 3 ? 1˚ “ ˝4´6 3 ? 8 10 ´ 4 3 ¨ ? 5`3 3 ? 1˚ “ ˝ ´5 3 ? 8 2 3 ¨

P R “ U A A E VTA

Q R “ V A A E UTA

?

3 ? ´5 ` 3 ? ´ 15 ` 3 ? 4`6 3 ? 7´5 3 ? ´6 ` 2 3

˛ ? 2 3 ? ‹ 6`2 3 ‚ ? 10 ` 2 3 ? ˛ ´2 ` 8 3 ? ‹ 9´5 3 ‚ ? ´2 ` 2 3

werden die neuen Vektorkomponenten berechnet. ? ˛ 5 ` 12 3 ? ‹ ` ˘ 1˚ a # E “ P R a # “ ˝ 25 ` 9 3 ‚ ? 8 25 ` 11 3 ¨ ? ˛ ´ 15 ` 15 3 ? ` #˘ 1˚ ‹ a E “ Q R a# “ ˝ 20 ´ 5 3 ‚ ? 8 2 3 ¨

8.5.5

Physikalische Vektorkomponenten

Die ko- und kontravarianten, physikalischen Komponenten des Vektors a in den Systemen A und B werden mit (7.14) berechnet, wobei die Faktoren die

162

8 Vektorkomponenten bei Basiswechsel

Wurzeln aus den Hauptdiagonalelementen der Metrikmatrizen sind. ¨? ˛ ¨ ˛ ´1 2 ` #˘ ` ˘ ˚ ? ‹ ˚ ? ‹ a ph “ ˝´ 2 ‚ System A: a # ph “ ˝3 2 ‚ , ? 6 3 3 ¨ ? ˛ ¨ ? ˛ 2 5 4 19 ` #˘ ` ˘ 1˚ ? ‹ ˚ ‹ a ph “ ˝ 0 ‚ System B: a # ph “ ˝ 7 6 ‚ , ? 5 10 3 2

8.6

Tabellen

Hinweise zur Tabelle 8.1 Die weißen Feldblöcke links oben und rechts unten sind identisch! Direkte Transformation: von alt nach neu (blaue Felder)

Ñ

ˆ a# “ Pa#

Ñ

a # “ QT ˆ a#

Inverse Transformation: von neu nach alt (lila Felder) Hinweise zur Tabelle 8.2 Die Transformationsmatrix T kann man auch als Matrix der kartesischen Tensorkomponenten deuten! Berechnungsbeispiele v “ Ta v ˆ “ A T AT ˆ a ` ˘T # v ˆ# “ PUT PU ˆ a

E A UT

G# “ V V T A VT P Q G#

V

A

ˆ PU “ U

ˆ QV “ V

a#

ˆ a

ˆ a#

ˆ a#

V

U

E

G#

E

VT

E

G#

UT

PT “ Q´1

G # PT

QT “ P´1 G# Q T

pP UqT

ˆ a#

pQ VqT

ˆ a#

Tabelle 8.1: Umrechnung der Vektorkomponenten im eigenen Koordinatensystem und bei Basiswechsel

Q

PG#

U AT

G # “ U UT

E

U

a# V AT

AT

UT

VT

E

a

ˆ a

a#

a#

a

8.6 Tabellen 163

UT

VT

AT

PUT

QVT

v#

v#

v ˆ

v ˆ#

v ˆ#

U T UT V T UT A T UT P U T UT

U T VT V T VT A T VT P U T VT Q V T UT

T UT

T VT

Q V T VT

a#

a#

Q V T AT

P U T AT

A T AT

V T AT

U T AT

T AT

ˆ a

Q V T pQ VqT

P U T pQ VqT

A T pQ VqT

V T pQ VqT

U T pQ VqT

T pQ VqT

ˆ a#

Q V T pP UqT

P U T pP UqT

A T pP UqT

V T pP UqT

U T pP UqT

T pP UqT

ˆ a#

Tabelle 8.2: Umrechnung der Vektorkomponenten bei affiner Transformation

T

v

a

164 8 Vektorkomponenten bei Basiswechsel

Teil III

Tensoralgebra

165

Kapitel 9

Tensorbegriff und Tensor 2. Stufe Zusammenfassung Der Begriff des Tensors als linearer Abbildungsoperator wird definiert. Der Tensor 2. Stufe beschreibt bei physikalischen Anwendungen die Abbildung eines Vektors in einen anderen. Die Komponenten des Tensors werden in kartesischen und reziproken Systemen dargestellt und ihre Umrechnung in der gleichen Basis und bei Basiswechsel angegeben.

9.1 9.1.1

Lineare Vektorfunktion Abbildung von Vektoren und Tensordefinition

Ein Vektor s kann als ein Operator aufgefasst werden, der durch Skalarproduktbildung einem Vektor a den Skalar S zuordnet. psq

a Ñ S

ñ

s paq “ s ¨ a “ S

In dieser Interpretation führt der Operator s eine Abbildung von a nach S durch. Als Verallgemeinerung kommt man zum Begriff des Tensors, indem man im dreidimensionalen Raum einen linearen Operator T definiert, 167 © Springer Fachmedien Wiesbaden GmbH, ein Teil von Springer Nature 2019 W. Werner, Vektoren und Tensoren als universelle Sprache in Physik und Technik 1, https://doi.org/10.1007/978-3-658-25272-4_9

168

9 Tensorbegriff und Tensor 2. Stufe

der durch Skalarproduktbildung einem Vektor a einen Vektor v zuordnet und damit die Abbildung eines Vektors in einen anderen, also eine Vektorabbildung, durchführt. pT q

a Ñ v

ñ

v “ T paq “ T ¨ a

(9.1)

Die erste Darstellung in (9.1) betont die Operatorfunktion T paq des Tensors, die zweite Darstellung T ¨ a gibt die konkrete Ausführung der Abbildung durch Bildung des Skalarproduktes an. Da der Ausgangsvektor jede beliebige Richtung haben kann, wird durch diese Operation ein räumliches Vektorbüschel a in ein anderes Vektorbüschel v linear abgebildet, was symbolisch in Abbildung 9.1 dargestellt ist. In kartesischen Koordinaten lautet die Operatorgleichung für die drei Vektorkomponenten in Matrixform, ¨ ˛ ¨ ˛¨ ˛ vx Txx Txy Txz ax ˚ ‹ ˚ ‹˚ ‹ v “ ˝vy ‚ “ ˝ Tyx Tyy Tyz ‚˝ay ‚ “ T a vz

Tzx

Tzy

Tzz

(9.2)

az

bei der jede Komponente von v linear von allen drei Komponenten von a abhängt. Die vom Tensor T bzw. von der Matrix T seiner kartesischen Komponenten bewirkte Transformation stellt damit eine lineare oder affine Vektorfunktion dar. Diese lineare Operation ist identisch mit der bereits in (8.4) als affine Abbildung zwischen den kartesischen Komponenten zweier Vektoren behandelten Transformation v “ T a , wobei die dortige Transformationsmatrix der hier aufgestellten Operatormatrix T entspricht. • Lineare Operatoren T , die eine Vektorabbildung ausführen, werden Tensoren 2. Stufe genannt.

9.1.2

Linearitätseigenschaft

Die Linearität der Transformation oder Vektorabbildung wird durch folgende Eigenschaft definiert, bei der α und β beliebige reelle Zahlen be-

169

9.1 Lineare Vektorfunktion

Vektorbüschel a T

Vektorbüschel v

Abb. 9.1: Lineare Vektorabbildung durch einen Tensor deuten. T pα a ` β bq “ α T paq ` β T pbq “ αT ¨a `βT ¨b

(9.3)

Die Abbildung einer Summe gleicht der Summe der Abbildungen und skalare Faktoren können vor die Abbildung gezogen werden.

9.1.3

Tensorielles Produkt von Vektoren

Zwei Vektoren u und v bilden neben Skalar- und Kreuzprodukt ein drittes tensorielles oder dyadisches Produkt ohne Verknüpfungssymbol, das wegen uv ‰ vu nichtkommutativ ist und einen Tensor 2. Stufe darstellt. Tensoren, die durch tensorielle Produkte zweier Vektoren gebildet werden, heißen Dyaden und werden mit D bezeichnet. Dyaden treten in diesem Kapitel noch mehrfach auf und werden im Abschnitt 11.4.2 ausführlicher behandelt.

9.1.4

Projektion als lineare Abbildung

Ein einfaches Beispiel für eine lineare Vektorabbildung ist die orthogonale Projektion av des Vektors a in Richtung des Vektors v, der den Einheitsvektor ev “ v { | v | besitzt (Abbildung 9.2). Mit dem linearen Operator

170

9 Tensorbegriff und Tensor 2. Stufe

Pv der Projektion lautet die Abbildung av “ Pv paq “ Pv ¨ a

(9.4)

  





 

     







Abb. 9.2: Orthogonalprojektion eines Vektors auf eine Richtung Für die Projektion des Vektors a in v-Richtung gilt mit dem kommutativen Skalarprodukt eovmo eovn ¨ a “ Pv ¨ a “ Pv paq av “ av ev “ pa ¨ ev q ev “ ev pev ¨ aq “ lo Pv

Daraus folgt die Definition des linearen Projektionsoperators Pv , bei dem die beiden Einheitsvektoren ev direkt nebeneinander stehen. Pv “ ev ev

Pv paq “ Pv ¨ a “ ev ev ¨ a “ ev pev ¨ aq

(9.5)

Der Operator Pv wird durch ein tensorielles Produkt definiert und stellt eine Einheitsvektordyade dar. Der Projektionsoperator Pv bildet alle Vektoren, die vom Punkt O zur Ebene E zeigen, in den gleichen Vektor av ab, der die Richtung ev der Flächennormale und den kürzesten Abstandes d hat. av “ d ev “ Pv paq “ Pv pbq

171

9.2 Tensor 2. Stufe in kartesischer Basis

Das kreisförmige Vektorbüschel a um den Punkt O der Zeichenebene wird in kollineare Vektoren Pv “ av “ λev

mit

´ R ď λ ď `R

in ˘ ev -Richtung abgebildet. Damit stellt Pv keine eindeutige sondern eine entartete Abbildung dar, bei der eine zweidimensionale in eine eindimensionale Mannigfaltigkeit transformiert wird!

9.2 9.2.1

Tensor 2. Stufe in kartesischer Basis Darstellung der Abbildung durch einen Tensor

Die Abbildung von a in den Vektor v kann mit der Vektorzerlegung von a und der Linearitätseigenschaft (9.3) folgendermaßen dargestellt werden. v “ T ¨ a “ T ¨ pax ex ` ay ey ` az ez q “ ax T pex q ` ay T pey q ` az T pez q “ ax T ¨ ex ` ay T ¨ ey ` az T ¨ ez Dabei bedeutet jeder Ausdruck T ¨ ex,y,z “ T pex,y,z q gemäß Definition (9.1) einen Vektor, der kartesisch zerlegt werden kann. Bei dieser Zerlegung erfolgt die Indizierung der Koeffizienten so, dass eine Darstellung entsteht, die mit der am Anfang betrachteten Operatorgleichung (9.2) identifizierbar ist. v“

pTxx ex ` Tyx ey ` Tzx ez q ax ` pTxy ex ` Tyy ey ` Tzy ez q ay ` pTxz ex ` Tyz ey ` Tzz ez q az

Nach Ersetzen der kartesischen Komponenten von a ax,y,z “ a ¨ ex,y,z “ ex,y,z ¨ a und Ausklammern des Vektors a erhält man folgende Darstellung. ” v “T ¨a“ Txx ex ex ` Tyx ey ex ` Tzx ez ex ` Txy ex ey ` Tyy ey ey ` Tzy ez ey ı ` Txz ex ez ` Tyz ey ez ` Tzz ez ez

¨a

172

9 Tensorbegriff und Tensor 2. Stufe

Der Operator T besteht aus einer Summe von neun Gliedern, wobei jedes einzelne aus einem Koeffizienten, der die Tensorkomponente darstellt, und dem tensoriellen Produkt zweier Basisvektoren zusammengesetzt ist.

9.2.2

Tensordarstellung und Komponenten

Nach Umordnung der Glieder erhält man die Darstellung des Tensors 2. Stufe mit kartesischen Einheitsvektordyaden. T “

Txx ex ex ` Txy ex ey ` Txz ex ez ` Tyx ey ex ` Tyy ey ey ` Tyz ey ez

(9.6)

` Tzx ez ex ` Tzy ez ey ` Tzz ez ez Die Indizes x, y, z werden wie üblich durch 1, 2, 3 ersetzt und die kartesischen Tensorkomponenten erhalten zur Unterscheidung von den kovarianten mit unterem Index einen Querstrich. Der Tensor erscheint dann in der folgenden Summenform. T “

3 ÿ 3 ÿ

T¯ik ei ek

i“1 k“1

Mit der Matrix der kartesischen Komponenten ¨

Txx Txy Txz

˚ T “ ˝ Tyx Tyy Tzx

Tzy

Tyz Tzz

¨ ¯ ˛ T11 T¯12 T¯13 ‹ ˚ ¯ ‹ ‚ “ ˝ T21 T¯22 T¯23 ‚ T¯31 T¯32 T¯33 ˛

(9.7)

lautet die Tensordarstellung als Matrizenprodukt ¨

˛ e1 ` ˘ ˚ ‹ T “ e 1 , e 2 , e3 T ˝ e 2 ‚ “ eT T e e3

(9.8)

173

9.3 Tensor 2. Stufe in reziproken Basissystemen

9.3 9.3.1

Tensor 2. Stufe in reziproken Basissystemen Tensordarstellung in Summenform

Die Abbildung von a in den Vektor v kann wie bei der kartesischen Basis in entsprechender Weise in einem frei wählbaren, kovarianten Basissystem g und der dazu reziproken Basis g# angegeben werden. Bei kontravarian#

ter Komponentendarstellung ak “ gk ¨ a gemäß (7.6) folgt, wenn man die Vektoren T ¨ gk nach den kontravarianten Basisvektoren g# zerlegt ` ˘ v “ T ¨ a “ T ¨ g1 a1 ` g2 a2 ` g3 a3 ˘ ` ˘ ` ˘ ` ˘` ˘` ˘` “ T ¨ g1 g1 ¨ a ` T ¨ g2 g2 ¨ a ` T ¨ g3 g3 ¨ a ˘` ` ˘ “ T11 g1 ` T21 g2 ` T31 g3 g1 ¨ a ˘` ˘ ` (*) ` T12 g1 ` T22 g2 ` T32 g3 g2 ¨ a ` ˘` 3 ˘ 1 2 3 ` T13 g ` T23 g ` T33 g g ¨a Der Vektor a wird ausgeklammert und die Basisvektoren werden zu Dyaden zusammengefasst. Abhängig davon, ob man anfänglich a nach (7.6) oder (7.9) zerlegt, kann der Tensor T auf vier verschiedene Arten in Summenform mit Basisvektordyaden dargestellt werden. T “



3 ÿ 3 ÿ

Tik gi gk “

3 ÿ 3 ÿ

i“1 k“1

i“1 k“1

3 ÿ 3 ÿ

3 ÿ 3 ÿ

i“1 k“1

T i k g i gk “

T ik gi gk (9.9) T ik gi gk

i“1 k“1

Den Darstellungen (9.6) und (9.9) entnimmt man die Tatsache, dass jeder Tensor 2. Stufe aus der gewichteten Summe der Basisvektordyaden besteht.

9.3.2

Tensorraum

Der Tensor T besitzt als invariante Größe neben seinen neun kartesischen Komponenten pTq jeweils weitere neun kovariante pT ## q, kontravariante pT ## q und gemischte pT#¨ # , T#¨ # q Komponenten. Sie weisen im Raum der

174

9 Tensorbegriff und Tensor 2. Stufe

tensoriellen Produkte gemäß der dyadischen Verknüpfung von je zwei Basisvektoren in jeweils neun formale Richtungen ei ek , gi gk , gi gk , gi gk , bzw. gi gk eines zugehörigen neundimensionalen Tensorraumes. Im weiteren Verlauf des Tensorkalküls wird untersucht, welche Beziehungen diese Komponentenarten untereinander aufweisen und wie sie bei einem Basiswechsel transformiert werden.

9.3.3

Tensorzerlegung

Wählt man in der Beziehung (*) anstelle des Vektors a den kovarianten Basisvektor gk mit der entsprechenden Zerlegung, dann erhält man die Vektoren ˘` k ˘ ` g ¨ gk uk “ T ¨ gk “ T1k g1 ` T2k g2 ` T3k g3 loooomoooon “1

Die folgende Summe von Dyaden liefert nach (9.9) eine der Summendarstellungen des Tensors T . u 1 g 1 ` u2 g 2 ` u3 g 3 “

3 ÿ 3 ÿ

Tik gi gk “ T

i“1 k“1

Man kann in der Darstellung (*) anstelle von a auch den kontravarianten Basisvektor gk wählen, so dass man zwei Tensorzerlegungen erhält, die den Vektorzerlegungen (7.7) und (7.10) entsprechen. ˘ ˘ ˘ ˘T # ` ` ` ` T “ T ¨ g1 g1 ` T ¨ g2 g2 ` T ¨ g3 g3 “ T ¨ g g #

“ T ¨g `

˘ 1

g1 ` T ¨ g `

˘ 2

g2 ` T ¨ g `

˘ 3

g3 “ T ¨ g # `

˘T

g

#

(9.10)

9.3.4

Tensordarstellung in Matrizenform

Die Doppelsummen der verschiedenen Tensordarstellungen (9.9) werden wie im kartesischen Fall (9.8) als Matrizenprodukte geschrieben. In entsprechender Ausdrucksweise für Tensoren wie bei (7.12) kann man den kovarianten Tensor angeben, also die Darstellung mit kovarianten

175

9.3 Tensor 2. Stufe in reziproken Basissystemen

Komponenten. Für dyadische Produkte ist es dabei unwesentlich, ob neben oder zwischen den Vektoren ein skalarer Faktor steht. α gi gk “ gi α gk “ gi gk α T “

g1 T11 g1 ` g1 T12 g2 ` g1 T13 g3 ` g2 T21 g1 ` g2 T22 g2 ` g2 T23 g3

` g3 T31 g1 ` g3 T32 g2 ` g3 T33 g3 ˛ ¨ 1˛ ¨ g T11 T12 T13 ` 1 2 3˘ ˚ ‹ ˚ 2‹ “ g , g , g ˝ T21 T22 T23 ‚˝ g ‚ g3

T31 T32 T33 ` ˘T “ g# T ## g#

Insgesamt gibt es neben der kartesischen vier weitere Matrixdarstellungen des Tensors 2. Stufe. ` ˘T ` ˘T ## T “ eT T e “ g# T ## g# “ g T g #

`

“ g

9.3.5

˘ # T

¨# T#

g

˘T

`

#

“ g

#

T# ¨#

g

#

(9.11)

#

Komponentenmatrizen

Die ko- und kontravarianten sowie gemischten Komponenten sind die Elemente der folgenden vier Tensormatrizen. ¨

T11 T12 T13

˛

˚ ‹ T ## “ ˝ T21 T22 T23 ‚ ,

¨

˚ ¨# T# “˝

T11 T21 T31

T12 T22 T32

˛ T13 ‹ T23 ‚ , T33

˛

˚ ‹ T ## “ ˝ T 21 T 22 T 23 ‚ T 31 T 32 T 33

T31 T32 T33 ¨

T 11 T 12 T 13

(9.12) ¨ ˚ T# ¨# “ ˝

T 11 T 21 T 31

T 12 T 22 T 32

˛ T 13 ‹ T 23 ‚ T 33

176

9 Tensorbegriff und Tensor 2. Stufe

Wie bei Matrizen üblich bezeichnet bei einem Element der vordere Index die Zeile, der hintere Index die Spalte. Bei der Schreibweise der gemischten Komponenten wird der Deutlichkeit halber bei den Matrizen der hintere Index durch einen vorgestellten Punkt besonders gekennzeichnet, der bei den Matrixelementen entfällt.

9.3.6

Systemvektoren der Koordinaten, Basisvektoren als Vektorabbildung

Die kartesischen sowie die alten und neuen reziproken Basisvektoren kann man mit dem speziellen Zeilenvektor εT “ p1, 1, 1q

(9.13)

jeweils zu einem einzigen Systemvektor zusammenfassen, der für das entsprechende Koordinatensystem charakteristisch ist. e “ e1 ` e2 ` e3 “ εT e g kov “ g1 ` g2 ` g3 “ εT g

eˆ “ ˆ e1 ` ˆ e2 ` ˆ e3 “ εT ˆ e g ˆ kov “ g ˆ1 ` g ˆ2 ` g ˆ3 “ εT g ˆ

#

g kon “ g1 ` g2 ` g3 “ εT g#

#

g ˆ kon “ g ˆ1 ` g ˆ2 ` g ˆ 3 “ εT g ˆ#

(9.14) Die Transformationsbeziehungen (6.9) und (6.11) bzw. (8.1) und (8.3) der Basisvektoren g

#

“ Ue ,

ˆ e “ Ae ,

g ˆ

#

“ Pg

#

g ˆ# “ Q g #

g# “ V e ,

kann man auch als Operatorgleichungen oder Vektorabbildungen gemäß (9.1) auffassen, wenn man den Matrizen entsprechende Systemtensoren zuordnet. U “ eT U e , V “ eT V e ,

A “ eT A e ,

` ˘T P“ g Pg #

Q“ g `

˘ # T

#

Q g#

(9.15)

177

9.4 Tensorkomponenten bei gleicher Basis

Dabei wird die Produktbildung bei Tensoren bereits verwendet, die erst im nächsten Kapitel im Abschnitt 10.3.2 eingehend untersucht wird. Der Systemvektor gkov erhält dann die Darstellung gkov “ e ¨ U “ εT e ¨ eT U e “ εT U e “ εT g

#

Entsprechende Überlegungen führen zu folgenden Ergebnissen, die bei Basiswechsel zu kreuzweise zugeordneten Systemvektoren führen. eˆ “ e ¨ A “ εT A e gkov “ e ¨ U “ εT g

#

g ˆkov “ gkon ¨ P “ εT P g

9.3.7

gkon “ e ¨ V “ εT g#

, #

(9.16)

g ˆkon “ gkov ¨ Q “ εT Q g#

,

Tensorkomponenten bei doppeltem Skalarprodukt

Unter Verwendung der Beziehungen aus Abschnitt 10.3.3 kann man mit Hilfe der Systemvektoren die verschiedenen Tensorkomponenten darstellen, was am Beispiel der kovarianten gezeigt wird. g kov ¨ T ¨ g kov “ εT g

#

` ˘T ` ˘T ε ¨ g# T ## g# ¨ g

“ εT T ## ε “

#

3 ÿ 3 ÿ

Tik

i“1 k“1

Die Doppelsumme entspricht der Beziehung (3.52) für den Sonderfall, dass man die dortigen Vektoren durch den speziellen Vektor ε ersetzt.

9.4

Tensorkomponenten bei gleicher Basis

Die Komponenten des Tensors 2. Stufe werden ineinander umgerechnet, indem man die Basisvektoren in den Tensordarstellungen (9.11) nach (6.9), (6.11) und (6.18) oder nach Tabelle 6.1 ersetzt. Für den Tensor in kartesischer und kontravarianter Darstellung gelten als Beispiel dann folgende

178

9 Tensorbegriff und Tensor 2. Stufe

Umrechnungen. ` ˘T ` ˘T T “ eT T e “ g# U T UT g# “ g# T ## g# ` ˘T ## T g T “ g #

#

` ˘T ` ˘T “ g# G # T## G # g # “ g# T ## g#

T ## “ U T UT “ G # T ## G #

(9.17)

Andere Darstellungen und Ersetzungen führen zu den übrigen Beziehungen, bei denen die Elemente der einzelnen Ergebnismatrizen nach den Summendarstellungen der Beziehungen (3.11) und (3.13) berechnet werden. Die Multiplikation der Tensormatrizen mit den Metrikmatrizen G # und # G führt zum Heben oder Senken des benachbarten Indexkennzeichens, was bereits in (7.15) auftrat und worauf bei der Behandlung der Überschiebung im Abschnitt 11.2.5 noch näher eingegangen wird. ¨# T ## G # “ G # T ## “ T #

T ## G # “ G # T ## “ T # ¨#

(9.18) Die gesamten Umrechnungen der Tensormatrizen sind in Tabelle 9.1 aufgeführt.

9.5 9.5.1

Tensorkomponenten bei Basiswechsel Transformation der Tensorkomponenten

Ein Tensor ist als physikalische Größe forminvariant und kann wie früher bei Vektoren in alten pe, g # , g# q und neuen Basen pˆ e, g ˆ #, g ˆ# q auf verschiedene Weise äquivalent dargestellt werden. Für die Umrechnungen der Basisvektoren zwischen den alten und neuen Systemen gelten dabei die bereits verwendeten Beziehungen (8.1) und (8.3). Die Umrechnung der Komponenten des Tensors 2. Stufe erfolgt auf entsprechende Weise wie in Abschnitt 9.4 mit passenden Basisvektoren, was am

179

9.5 Tensorkomponenten bei Basiswechsel

Beispiel einiger Komponenten demonstriert wird. ˆˆ T “ eT T e “ ˆ e eT T e“ˆ eT A T A T ˆ ` # ˘T ` # ˘T ` ˘T ˆ ## g T ˆ# ˆ P T ## PT g ˆ# “ g ˆ T “ g# T ## g# “ g ` ˘T ## T “ g T g #

#

` ˘T Q T ## QT g ˆ “ g ˆ #

#

` ˘T ## ˆ T g ˆ “ g ˆ #

#

Damit erhält man die folgenden Ergebnisse. ˆ “ A T AT T

ˆ ## “ P T ## PT T

ˆ ## “ Q T ## QT T

(9.19)

Die Umrechnungen aller Tensormatrizen zwischen altem und neuem System sind in Tabelle 9.2 zusammengefasst. In der Summendarstellung lauten die ko- und kontravarianten Tensorkomponenten gemäß (3.13) Tˆik “

3 3 ÿ ÿ

Tμν piμ pkν ,

μ“1 ν“1

Tˆik “

3 3 ÿ ÿ

T μν qiμ qkν

μ“1 ν“1

Die Transformation der Komponenten des Tensors 3. Stufe wird im Abschnitt 11.5.3 behandelt.

9.5.2

Tensorkomponenten bei starrer Drehung

Wie im Abschnitt 6.9.3 wird der Sonderfall angegeben, bei dem kartesische und reziproke Koordinatensysteme zueinander starr bleiben und nur eine gemeinsame Rotation im Raum erfahren. Die Umrechnung der Tensormatrizen erfolgt weiterhin nach Tabelle 9.2, aber anstelle der allgemeinen Matrizen P und Q sind in diesem Fall die Rotationsmatrizen PR und QR nach (6.32) anzuwenden und die Beziehungen für ko- und kontravariante Tensormatrizen lauten dann ˆ ## “ PR T ## PT T R ,

ˆ ## “ Q T ## QT T R R

180

9.5.3

9 Tensorbegriff und Tensor 2. Stufe

Allgemeine Transformationsregel

Die kovarianten Komponenten von Vektoren und Tensoren werden bei Basiswechsel mit der Matrix P transformiert. Je nach Stufenzahl tritt diese Operation unter Berücksichtigung der Transponierung mehrfach auf. ÿ Ñ a ˆi “ piμ aμ ˆ a# “ Pa μ ÿ ÿ ˆ ## “ P T ## PT T Ñ Tˆik “ piμ pkν Tμν μ ν ÿ ÿ ÿ ˆ ijk “ ˆ ### W Ñ W piλ pjμ pkν Wλμν λ

μ

ν

Die Transformation kontravarianter Komponenten erfolgt mit der Matrix Q ÿ ˆ a# “ Q a Ñ a ˆi “ qiμ aμ μ ÿ ÿ ˆ ## “ Q T ## QT Ñ Tˆik “ qiμ qkν T μν T μ ν ÿ ÿ ÿ ˆ ijk “ ˆ ### W Ñ W qiλ qjμ qkν W λμν λ

μ

ν

und bei gemischten Komponenten treten Kombinationen auf. Die Multiplikation mit einer transponierten Matrix äußert sich in der Summendarstellung durch vertauschte Indizes gemäß den Beziehungen aus Abschnitt 3.2.3. Man kann damit die allgemeine Transformationsregel für den Wechsel zwischen Koordinatensystemen formulieren, die man auch als Definition eines Tensors ansehen kann. Dabei wird von der Regel (7.12) Gebrauch gemacht. Werden in einer n-fach indizierten Größe ‚ ein unterer Index wie ein kovarianter Vektor ‚ ein oberer Index wie ein kontravarianter Vektor transformiert, dann liegen die Komponenten eines Tensors n-ter Stufe vor.

(9.20)

Die neuen Komponenten hängen linear von den alten ab, ohne dass ein absolutes Glied hinzutritt! Anhand dieser Transformationseigenschaft kann bei jeder auftretenden Größe geprüft werden, ob es sich bei ihr um einen Tensor handelt oder nicht!

181

9.6 Tabellen

Diese allgemeine Vorschrift ist ein Beispiel dafür, dass man Größen nicht nur geometrisch anschaulich erklären kann, sondern auch dadurch, dass sie bestimmte algebraische Regeln erfüllen müssen oder dass ein bestimmtes Verhalten bei gewissen Operationen gefordert wird.

9.6

Tabellen

Hinweise und Berechnungsbeispiele zu den Tabellen 9.1 und 9.2 In kartesischen Koordinatensystemen fallen alle Tensorkomponenten zusammen, da nach Abschnitt 6.6.5 die Unterscheidung zwischen Ko- und Kontravarianz aufgehoben ist. Bezogen auf eine Basis e gilt ` ` ¨ #˘ ˘ T ” T ## kart. ” T # kart. ` ## ˘ ` # ˘ ” T ” T ¨ # kart. kart. Für die Umrechnung der Tensorkomponenten im gleichen System und bei Basiswechsel gelten folgende Beispiele. T “ VT T ## V T ## “ U T UT ¨# T ## “ G# T ## G# “ G# T #

ˆ “ A T AT T ˆ ## “ P T ## PT T ¨# # T ˆ# T “ PG# T# ¨# G Q

T ## G #

Tabelle 9.1: Umrechnung der Tensormatrizen im gleichen Basissystem

G# T ##

G # T ##

E

V A UT

T# ¨#

T ## G#

¨# G# T# G#

U A VT

¨# T#

# G # T# ¨# G

# T# ¨# G

¨# G # T#

V A VT

T ## E

G # T# ¨#

¨# T# G#

G # T ## G #

E

U A UT

T ## E

U T T# ¨# V

¨# V T T# U

UT T ## U

VT T ## V

E

T

G# T ## G#

T# ¨#

¨# T#

T ##

T ##

T

182 9 Tensorbegriff und Tensor 2. Stufe

183

9.6 Tabellen

T

T ##

T ##

ˆ T

A T AT

` ˘T A VT T ## A VT

` ˘T A UT T ## A UT

ˆ ## T

` ˘T PUT PU

P T ## PT

P G # T ## G # PT

ˆ ## T

` ˘T QVT QV

Q G# T ## G# QT

Q T ## QT

¨# ˆ# T

` ˘T PUT QV

P T ## G# QT

P G # T ## QT

ˆ# T ¨#

` ˘T QVT PU

Q G# T ## PT

Q T ## G # PT

¨# T#

T# ¨#

˘T ¨ #` A UT A VT T#

` ˘ T T A UT T# ¨# AV

ˆ ## T

¨# P T# G # PT

T P G # T# ¨# P

ˆ ## T

¨# T Q G # T# Q

# T Q T# ¨# G Q

¨# ˆ# T

¨# T P T# Q

# T P G # T# ¨# G Q

ˆ# T ¨#

¨# Q G# T# G # PT

T Q T# ¨# P

ˆ T

Tabelle 9.2: Umrechnung der Tensormatrizen bei Basiswechsel

Kapitel 10

Tensoren und ihre Produkte Zusammenfassung Nach Verallgemeinerung und Klassifizierung von Tensoren beliebiger Stufe werden in der Tensoralgebra die Verjüngung und verschiedene Produktbildungen bei Tensoren behandelt. Indexschreibweise, Summationskonvention und Matrixdarstellung werden gegenübergestellt und einer vergleichenden Bewertung unterzogen.

10.1 10.1.1

Klassifizierung von Tensoren Tensoren beliebiger Stufe

Alle physikalischen Größen lassen sich deuten als Tensoren unterschiedlicher Stufe. Die Stufenzahl ergibt sich dabei aus der Anzahl der Basisvektoren in den tensoriellen Produkten der einzelnen Glieder, die in ihrer Summe den Tensor in einem Bezugssystem beschreiben. Die folgende Aufstellung gibt Beispiele für Tensoren der niedrigsten Stufen, jeweils nur für kontravariante Komponenten in Summenform. Verallgemeinernd kann man die Stufenzahl beliebig erhöhen, aber in den meisten physikalischen Anwendungen treten nur Tensoren 2. Stufe auf. Im euklidischen Raum der Dimension n besitzt ein Tensor der Stufe p genau D “ np formale Richtungen oder Dimensionen und damit Komponenten im Tensorraum. 184 © Springer Fachmedien Wiesbaden GmbH, ein Teil von Springer Nature 2019 W. Werner, Vektoren und Tensoren als universelle Sprache in Physik und Technik 1, https://doi.org/10.1007/978-3-658-25272-4_10

185

10.1 Klassifizierung von Tensoren

Im dreidimensionalen Raum sind das bei Skalar und Vektor als Tensoren der Stufen p “ 0 und p “ 1 die vertrauten Werte D “ 1 für einen skalaren Wert und D “ 3 für die Komponenten der drei räumlichen Richtungen. Bei höherstufigen Tensoren erhält man entsprechend D “ 3p “ 9, 27, 81, . . . Komponenten. Die Darstellung höherstufiger Tensoren kann jeweils mit ko- und kontravarianten bzw. gemischten Komponenten erfolgen gemäß der Wahl der Basisvektoren und der Stellung ihrer Indizes. In Erweiterung der Regel (7.12) gelten als kontravariante Tensoren folgende Beispiele.

Tensor 0. Stufe “ ˆ Skalar

Tp0q “ S

Tensor 1. Stufe “ ˆ Vektor

Tp1q “ a “

3 ÿ

a i gi

i“1

Tensor 2. Stufe “ ˆ Tensor

Tp2q “ T “

3 ÿ 3 ÿ

T ij gi gj

i“1 j“1

Tensor 3. Stufe “ ˆ Tensor

Tp3q “ W “

3 ÿ 3 ÿ 3 ÿ

W ijk gi gj gk

i“1 j“1 k“1

(10.1) Bei physikalischen Anwendungen kann die Summation auch bis zur Dimension n “ 4 erfolgen, wenn neben den Ortskoordinaten x, y, z noch die Zeit t als vierte Koordinate hinzutritt, was in der Relativitätstheorie als Raumzeit bezeichnet wird. Bei allgemeinen Mannigfaltigkeiten laufen die Summationen bis zu beliebigen Werten n. In diesem Kapitel werden die Komponenten der verschiedenstufigen Tensoren als konstante Größen betrachtet, die für jeden Punkt des dreidimensionalen Raumes den gleichen Wert aufweisen. Erst in späteren Kapiteln werden Tensoren und Tensorfelder untersucht, bei denen die Komponenten ortsabhängig sind, wobei die von Punkt zu Punkt auftretenden Änderungen in der Tensoranalysis durch Differentiationsprozesse untersucht werden.

186

10.1.2

10 Tensoren und ihre Produkte

Matrixdarstellung

Für Vektor und zweistufigen Tensor sind die Darstellungen in Matrixform durch (7.5), (7.8) und (9.11) bereits bekannt. ` ˘T ` ˘T a “ a# g “ a # g # #

` ˘T ## ` ˘T T g T “ g# T## g# “ g #

`

“ g

˘ # T

T ¨## g

˘T

`

#

“ g

#

#

# T# ¨# g

Für drei- und vierstufige Tensoren wurde im Abschnitt 3.8 eine erweiterte Matrixmultiplikation definiert, die mit einer relativ einfachen Darstellung formuliert werden kann. Gezeigt wird das am Beispiel der kovarianten Komponenten des dreistufigen Tensors, bei dem zunächst das Produkt in den spitzen Klammern ausgeführt wird. Dabei entsteht die formale Matrix Y mit neun Vektoren als Elemente.  ` ˘T  Tp3q “ g# T ## p#q ˝ g# g# ¨ 1˛ g ¯ ´ ` 1 2 3˘ # ˚ 2‹ # # “ g ,g ,g T##1 g , T##2 g , T##3 g ˝g ‚ g3 ` # ˘T “ g Y g# Die sieben anderen Darstellungen werden entsprechend formuliert. Bei Tensoren, deren Stufe größer als vier ist, kann man die Summenform verwenden oder weitere spezielle Matrixmultiplikationen definieren.

10.2 10.2.1

Verjüngung von Tensoren Zielsetzung

Die Verjüngung von Tensoren bietet die Möglichkeit aus vorliegenden Tensoren weitere Tensoren oder Tensorinvarianten zu erzeugen. Bei Tensoren ab Stufe 2 bedeutet die Verjüngung die Bildung des Skalarproduktes zwischen einem Paar von Basisvektoren, wobei es entsprechend viele Möglichkeiten gibt je nach Auswahl der beteiligten Basisvektoren und der Stellung ihrer Indizes. Die Stufe des Ergebnistensors, die

187

10.2 Verjüngung von Tensoren

der Anzahl der verbleibenden Basisvektoren entspricht, wird bei dieser Produktbildung gegenüber der Ausgangsstufe um 2 verringert. Durch diese Stufenerniedrigung wird der Tensor „verjüngt“.

10.2.2

Verjüngung beim Tensor 2. Stufe

Das Ergebnis der Verjüngung eines Tensors 2. Stufe resultiert in einem Tensor 0. Stufe und damit in einem Skalar J. Das Skalarprodukt zwischen den Basisvektoren kann links oder rechts mit gleichem Ergebnis geschrieben oder mit dem vec-Operator nach (3.58) formuliert werden. ı ı ”` ˘ ` ˘T ” T J “ g# ¨ T ## g# “ g# T ## ¨ g# ` ˘T ‰ “ “ ` ˘ ‰T “ ` ˘ ‰T ` ˘ “ vec T ## vec g# ¨ g# vec G# “ vec T ## “

3 ÿ 3 ÿ

Tik g ik

i“1 k“1

Auf Grund der verschiedenen Komponenten gibt es beim Tensor 2. Stufe fünf Darstellungsmöglichkeiten der Verjüngung, wobei die Verwendung der kartesischen und gemischten Komponenten wegen der Reziprozitätsbedingung (6.12) der Basisvektoren einfacher ausfällt. Der Skalar J ist in allen Fällen gleich und stellt als Spur der Tensormatrizen eine Tensorinvariante dar. Erinnert sei daran, dass die Metrikmatrizen (6.14) symmetrisch sind!

J“

3 ÿ 3 ÿ i“1 k“1

J“

3 ÿ 3 ÿ

3 ÿ

T¯ik ei ¨ ek “

3 ÿ 3 ÿ i“1 k“1

“ sp T

i“1

Tik gi ¨ gk “

i“1 k“1

J“

T¯ii

3 3 ÿ ÿ

g ik Tik

` ˘ “ sp G# T ##

k“1 i“1

T ik gi ¨ gk “

3 ÿ 3 ÿ i“1 k“1

T ik δik “

3 ÿ i“1

T ii

“ sp T#¨ #

188

10 Tensoren und ihre Produkte

J“

3 ÿ 3 ÿ

T

ik

gi ¨ gk “

i“1 k“1

J“

3 ÿ 3 ÿ

3 3 ÿ ÿ

gik T ik

˘ ` “ sp G # T ##

k“1 i“1

T i k g i ¨ gk “

i“1 k“1

3 ÿ 3 ÿ

Ti k δki “

i“1 k“1

3 ÿ

“ sp T #¨ #

Ti i

i“1

˘ ` ˘ ` J “ sp T “ sp T #¨ # “ sp T#¨ # “ sp G# T ## “ sp G # T ## (10.2) Im Abschnitt 11.4.3 werden die Verjüngungen von speziellen Tensoren angegeben.

10.2.3

Verjüngung höherstufiger Tensoren

Bei den ko- oder kontravarianten Komponenten bewirkt die Verjüngung das Auftreten der Elemente der Metrikmatrizen. Bei den gemischten Komponenten werden wegen des Kronecker-Symbols ein unterer und ein oberer Index gleich, so dass Summen entfallen wie im Beispiel eines vierstufigen Tensors, der zum Tensor 2. Stufe wird. 3 ÿ 3 3 ÿ 3 ÿ ÿ i“1 j“1 k“1 p“1

3 3 ÿ 3 ÿ ` ˘ ÿ W ijkp gi gj gk ¨ gp “ g i gj W ijkk k“1 loooomoooon looomooon i“1 j“1 “ δkp

“ T ij



3 ÿ 3 ÿ

T ij gi gj

i“1 j“1

Ist die Anzahl der Indizes gerade, dann entsteht nach mehrfacher Verjüngung und Auftreten der Koeffizienten gik , g ik oder δik schließlich ein Tensor 0. Stufe, der eine skalare Invariante darstellt. Ein wichtiges Anwendungsbeispiel im Abschnitt 2.2.13 (Bd. II) sind die Verjüngungen des vierstufigen Krümmungstensors zum zweistufigen RicciTensor und zum Krümmungsskalar.

189

10.3 Produktbildung bei Tensoren

10.3 10.3.1

Produktbildung bei Tensoren Tensorielles Produkt

Das tensorielle Produkt zweier Vektoren wurde im Abschnitt 9.1.3 definiert und führte auf Dyaden. Allgemein können zwei Tensoren beliebiger Stufe ein nichtkommutatives Produkt bilden, indem sie nebeneinander gestellt und in tensorieller Weise miteinander verknüpft werden. Das Ergebnis dieser Produktbildung ist ein Tensor, dessen Stufe der Summe der Einzelstufen entspricht und der entsprechend viele Basisvektoren besitzt, z.B. in folgenden Fällen. ` ˘T # ` # ˘T a b g T “ ab “ g #



ÿÿ i

Tp5q “ T W “ “

”`

j

g

i

˘T #

T ## g

ÿÿÿÿÿ i

10.3.2

a i b k g i gj “

j

#

ÿÿ

k

p

ı”` #

T ij gi gj

j

g

˘T  #

W ## p#q ˝ g

 #

ı g

#

T ijkpq gi gj gk gp gq

q

Skalarprodukte aus Tensor 2. Stufe und Vektor

Im verjüngenden Produkt von Tensor 2. Stufe und Vektor wird zwischen zwei Basisvektoren der beteiligten Faktoren ein Skalarprodukt gebildet, wobei es wie bei der Verjüngung eines einzelnen Tensors mehrere Möglichkeiten gibt, hier also zwei. Dabei ist die Stufe des Produkttensors um 2 niedriger als die Summe der Einzelstufen, so dass ein Vektor entsteht. Da die Reihenfolge der Basisvektoren entscheidend ist, sind bei Tensorprodukten die Skalarprodukte nicht kommutativ und man muss zwei Multiplikationsarten unterscheiden. • Aus der Sicht der Tensorrechnung ist die Kommutativität des Skalarproduktes von Vektoren (5.2) ein Sonderfall! Bei Rechtsmultiplikation wird der Tensor T von rechts mit dem Vektor a skalar multipliziert.

190

10 Tensoren und ihre Produkte

Damit die Rechnung einfach ausfällt, wird für die am Skalarprodukt beteiligten Basisvektoren entgegengesetzte Indexstellung gewählt. In Summenform lautet ein Ergebnis beispielsweise

v “T ¨a“

ÿÿÿ i

j

k

ÿ ` ˘ ÿ ÿ ij T ij ak gi gj ¨ gk “ T a j gi “ v i gi i loooomoooon j i looomooon “ δjk

“ vi

In Matrixform ergeben die Skalarprodukte der Basisvektoren die Einheitsmatrix. Es werden alle Matrixdarstellungen angegeben und man erhält den Ergebnisvektor v neben der kartesischen auch in ko- und kontravarianter Darstellung.

v “ T ¨ a “ eT T e ¨ eT a “ eT T a “ eT v ` ˘T ` ˘T # ` # ˘T v “ T ¨ a “ g# T ## g# ¨ g a “ g T ## a# #

`

“ g

˘ # T

`

˘ # T

“ g

¨# T# g

#

#

“ g

˘T #

˘T

` ˘T ¨ # a # “ g# T# a#

v#

` ˘T ## T g v “T ¨a“ g `

¨ g# `

#

` ˘T ## ` ˘T ¨ g# a # “ g T a# #

# T# ¨# g ¨ g

˘T

`

#

a# “ g

˘T

`

#

# T# ¨# a

` ˘T # “ g v #

Bei Linksmultiplikation wird der Tensor T von links mit dem Vektor a skalar multipliziert und für den Ergebnisvektor w ergibt sich in den ver-

191

10.3 Produktbildung bei Tensoren

schiedenen Fällen ` ` ˘ ˘T w “ a ¨ T “ aT e ¨ eT T e “ TT a e “ eT TT a “ eT w ` ˘T w “ a ¨ T “ a# g

#

` ˘T ` ˘T ¨ g# T## g# “ a# T## g#

` ˘T # # ` ˘T # # ` ˘T T¨# g “ a# T¨# g “ a # g# ¨ g #

`

“ w#

˘T

g#

` ˘T ## ` ˘T T g w “ a ¨ T “ a # g# ¨ g #

˘T “ a# g

`

` `

“ w

˘ # T

#

g

¨ g

˘ # T

¨# T# g

#

` ˘T “ a # T## g ˘T ¨ # “ a# T# g

#

`

#

#

#

Die Ergebnisse beider Multiplikationsarten lauten für die kartesischen Vektorkomponenten v “ Ta

w “ TT a

(10.3)

und für die ko- und kontravarianten Vektorkomponenten ¨# a# v # “ T## a# “ T#

` ` ˘T ˘T w # “ T## a# “ T# a# ¨#

# v# “ T## a # “ T# ¨# a

` ` ¨ # ˘T # ˘T w# “ T## a # “ T# a (10.4)

Der Unterschied bei Rechts- und Linksmultiplikation besteht darin, dass die Tensormatrizen in zueinander transponierter Form in die Berechnung eingehen und zwar im kartesischen sowie ko- und kontravarianten Fall direkt, im gemischten Fall dagegen gekreuzt! Wählt man für die am Skalarprodukt beteiligten Basisvektoren dagegen gleiche Indexstellung, so treten in den Ergebnissen zusätzlich die Metrikmatrizen auf. Die Umrechnung aller Komponenten findet man in Tabelle 10.1.

192

10 Tensoren und ihre Produkte

Diese Ergebnisse hätte man in Indexschreibweise nicht so einfach und übersichtlich ableiten können!

10.3.3

Doppeltes Skalarprodukt beim Tensor 2. Stufe

Wird ein Tensor 2. Stufe gleichzeitig von links und von rechts mit einem Vektor skalar multipliziert, so erhält man einen Skalar. Die Vektoren werden dabei wieder in geeigneter Komponentenform dargestellt, damit sich die Basisvektoren kompensieren. Die Summenform ergibt wie in 3.52 S “a¨T ¨b“

ÿÿÿÿ i



p

ÿÿ i

q

j

` ˘` q ˘ ai T pq bj looomooon gi ¨ gp looomooon g ¨ gj “ δip

“ δjq

ai T ij bj

j

In Matrixdarstellung ergeben die Skalarprodukte der Basisvektoren die Einheitsmatrix. Der Skalar ist mit seinem transponierten Wert identisch, was auch für die Transponierung der Matrizenprodukte gelten muss. S “ a ¨ T ¨ b “ ST ` ˘T ` ˘T S “ a# T## b# “ a # T## b # ` ˘T ¨ # ` ˘T “ a# T# b # “ a # T#¨ # b# ˘T ` ˘T ` ` ˘T ` ## ˘T T## a# “ b # T S T “ b# a# ` ˘T ` # ˘T ` ˘ T ` ¨ # ˘T # “ b# a “ T ¨# a# “ b# T#

è a b¨T

Der transponierte Wert S T entspricht dem doppelten Skalarprodukt eines anderen Tensors mit vertauschten Vektoren. è a S “ a ¨ T ¨ b ” ST “ b ¨ T Der Vergleich zeigt, dass beim Tausch der Rechts- und Linksfaktoren der Ă die transponierten Matrizen des ursprünglichen Tensors neue Tensor T besitzt, den man deshalb transponierten Tensor nennt.

193

10.3 Produktbildung bei Tensoren

10.3.4

Transponierter Tensor

Ă ist dadurch gekennzeichnet, dass er bei Der zu T transponierte Tensor T der Produktbildung folgende Eigenschaften besitzt. Ă T ¨a“a¨T

è a a¨T ¨b“b¨T

(10.5)

Aus (10.4) und dem Ergebnis des doppelten Skalarproduktes folgt, dass die transponierten Tensormatrizen des ursprünglichen Tensors die Komponenten des transponierten Tensors bilden. r “ TT T

` ˘T r T ## “ T##

` ˘ r ¨ # “ T# T T # ¨#

r ## T

r# “ T T ¨# #

(10.6) ˘T “ T## `

`

¨ # ˘T

Bei den gemischten Komponenten ist die gekreuzte Zuordnung zu beachten! Die kartesischen sowie die ko- und kontravarianten Komponentenmatrizen der Summe der Differenz

Ă T `T Ă T ´T

sind symmetrisch sind alternierend

Für die gemischten Komponentenmatrizen gilt für Summe und Differenz mit ` ˘T , ¨# . ˘ T#¨ # B “ T# T ` ¨ # ˘T - B “ ˘ C # C “ T ¨ # ˘ T# eine kreuzweise Zuordnung bei Transponierung.

10.3.5

Skalarprodukt zweier Tensoren 2. Stufe

Das Skalarprodukt ergibt als verjüngendes Produkt von zwei Tensoren 2. Stufe wieder einen Tensor der Stufe 2. T “M ¨N

194

10 Tensoren und ihre Produkte

Je nach der Darstellung der beiden Tensoren erhält man für die Tensormatrizen des Produktes mit (6.12) und (6.18) vier Ergebnisse mit und vier ohne Metrikmatrizen. T## “ M## G# N##

¨# “ M# G # N#¨ #

¨# # T## “ M## G # N## “ M# ¨ # G N#

10.4

¨# T# “ M## N##

¨# ¨# “ M# N#

## T# N## ¨# “ M

“ M#¨ # N#¨ #

Summationskonvention

10.4.1

Begründung

In Vektor- und Tensorrechnung treten bei Verwendung der Indexschreibweise eine Fülle von Ein- und Mehrfachsummen auf, um die verschiedenen Größen und deren Produkte durch ihre Komponenten in Koordinatensystemen darzustellen. Da der Schreibaufwand dabei hoch ist und die Darstellung der Summen als schwerfällig betrachtet wurde, führte Einstein bei Anwendung der Tensorrechnung in seiner Relativitätstheorie eine Summationskonvention ein, bei der zur kürzeren Schreibweise und geringerer Handarbeit keine Summenzeichen geschrieben werden. Das formale Kennzeichen besteht darin, dass homogene Polynome nur durch ihr typisches Monom dargestellt werden und die tatsächlich auszuführenden Summationen durch die im Monom zweifach auftretenden Indizes angezeigt werden. a1 x1 ` ... ` an xn “

n ÿ

ak xk

ñ

ak xk

k“1

Diese Summationsregel, die in der Tensorliteratur seitdem durchgängig Anwendung findet, lautet folgendermaßen. Tritt in einem Produkt der gleiche Index zweimal auf, einmal unten (kovariant) und einmal oben (kontravariant), so wird ohne Schreibung des Summenzeichens über diesen Index von 1 bis 3 (ggf. bis n) summiert.

195

10.4 Summationskonvention

In der vorliegenden Darstellung der Tensorrechnung wird von dieser Summationskonvention kein Gebrauch gemacht, da die Produktbildung bei Matrizen die Summation implizit enthält! Summenform und Indexschreibweise werden in der vorliegenden Abhandlung nur verwendet, um manche Darstellungen oder Ableitungen zunächst in ausführlicher Form zu verdeutlichen oder alternativ darzustellen, und in diesen Fällen erscheint dem Autor die Schreibweise mit Summenzeichen übersichtlicher und von klarerer Gestalt und dadurch pädagogisch sinnvoller. Die übersichtliche Behandlung einer mathematischen Fragestellung hängt wesentlich ab von einem zweckmäßigen formalen Kalkül. So führt die Anwendung der Vektorrechnung in Differentialgeometrie und in vielen physikalischen Bereichen zu einer erheblichen Vereinfachung und Lösung von speziellen Koordinatensystemen, [1, S. 101]. Ebenso bringt die Darstellung der Tensorrechnung mit Matrizen erhebliche Vorteile in Schreibweise und Übersichtlichkeit und damit im Verständnis dieses Kalküls.

10.4.2

Vergleich und Bewertung

Physikalische Größen stellen Summen von Produkten aus Komponenten und Basisvektoren dar, wie bereits im Abschnitt 3.7 und in Kapitel 7 gezeigt wurde. Einige dieser Beziehungen lauten beispielsweise ` ˘T a “ a# g

#

` ˘T “ a # g# ` ˘T T “ g# T## g# ` ˘T ## “ g T g #

#



ÿ



ÿ



ÿ ÿ



ÿ ÿ

i i

a i gi ai g i

i i

j j

Tij gi gj T ij gi gj

Mit der Summationskonvention (SK) schreibt man kürzer a SK “ ai gi “ ai gi T SK “ Tij gi gj “ T ij gi gj Die Gegenüberstellung zeigt, dass Matrixdarstellung und Summationskonvention schreibtechnisch etwa von gleicher Effizienz sind!

196

10 Tensoren und ihre Produkte

Die Matrixdarstellung besitzt jedoch den Vorteil der größeren Übersichtlichkeit und Transparenz und weist insbesondere bei komplexeren Operationen nicht die Fehleranfälligkeit auf, die bei einer größeren Anzahl von ko- und kontravarianten Indizes besteht. Man muss lediglich die Regeln der Nichtkommutativität und Transponierung sowie die Stellung der formalen Laufsymbole (#) für Ko- und Kontravarianz beachten. Bei Indexschreibweise sind dagegen Benennung und Anzahl von Indizes zu berücksichtigen und es ist schwerer zu erkennen, wo Transponierung und Inversion auftreten oder sich Elemente Kronecker-mäßig kompensieren. Einige Beispiele mögen das illustrieren. Beim Wechsel des Basissystems nach (6.27) gilt in Matrix- und Summenform g ˆ

#

“ Pg

g ˆi “

#

ÿ μ

“ PUe

piμ gμ “

ÿ ÿ μ

ν

piμ uμν eν

Für eine Darstellung gemäß Summationskonvention wäre zunächst zu entscheiden, ob die Indizes der Matrix U des kartesischen sowie P des reziproken Systems bei Basiswechsel ko- oder kontravarianten Charakter haben, um der entgegengesetzten Stellung der Indizes nach obiger Summationsregel zu entsprechen. Diese Fragestellung ist für die Matrixform gegenstandslos! Deshalb erweitern manche Autoren die Summationskonvention dahingehend, dass generell über doppelt auftretende Indizes summiert wird, ohne ihre reziproke Stellung zu fordern, im Beispiel also g ˆi SK “ piμ gμ “ piμ uμν eν Der Unterschied der beiden Darstellungsarten liegt weiterhin darin, dass die Matrixschreibweise bei Basisvektoren oder Komponenten wie g , a # , T ## #

definitionsgemäß stets mehrere Elemente zu Spaltenvektoren oder Matrizen zusammenfasst. Die Indexschreibweise der Summationskonvention kann dagegen immer nur die Beziehung für ein einzelnes Element angeben. Als Beispiel für die Umrechnung von Tensorkomponenten nach Tabelle 9.2 erhält man nach mehrfacher Anwendung von (3.11) und (3.13) in

197

10.4 Summationskonvention

Matrix- und Summenschreibweise ¨# ˆ# T “ P U T V T QT # T “ P G # T# ¨# G Q

Tˆi k “

ÿ ÿ ÿ ÿ



ÿ ÿ ÿ ÿ

μ

ν

μ

σ

ν

τ

σ

τ

piμ uμν T¯νσ vτ σ qkτ piμ gμν T νσ g στ qkτ

und mit Summationskonvention entfallen die vier Summenzeichen. ` k˘ Tˆi SK “ piμ uμν T¯νσ vτ σ qkτ “ piμ gμν T νσ g στ qkτ Bei Umkehrung der Beziehung folgt für das erste Beispiel ¨ # ` T ˘´1 ` T ˘´1 ˆ# Q V T “ U´1 P´1 T ¨#

ˆ# P U “ V T QT T T¯i k “ `

T¯i k

˘ SK

ÿ ÿ ÿ ÿ μ

ν

σ

τ

vμi qνμ Tˆνσ pστ uτ k

“ vμi qνμ Tˆνσ pστ uτ k

In Indexschreibweise führt das zu einer Flut verschiedener Indizes bei zusätzlicher Kennzeichnung von kartesischen sowie ko- und kontravarianten Komponenten, was sowohl mit als auch ohne Summenzeichen nicht einfach zu durchschauen ist und leicht zum Irrtum führen kann, da ja auch noch (Einzel-)Indizes auftreten können, über die nicht summiert wird! Neben der Unterscheidung von ko- und kontravarianten Indizes ist auch eine Kennzeichnung der Elemente einer Matrix und ihrer Inversen notwendig, was weitere Indizes, Markierungen oder Suffixe erforderlich macht. Dagegen erkennt man bei der Matrixschreibweise sofort, wo Transponierung oder Inversion von Matrizen auftritt, oder ob sich zwei Matrizen zur Einheitsmatrix reduzieren. Hinzu kommt, dass Summationsindizes formal keine eigene Bedeutung haben, sondern nur Platzhalter darstellen, die durch andere Buchstaben ersetzt werden können, wovon in der Literatur auch ausführlich Gebrauch

198

10 Tensoren und ihre Produkte

gemacht wird. Bei Verwendung wechselnder Indexbuchstaben kann die Unübersichtlichkeit am Ende erheblich werden! Durch die Unterdrückung der Summenzeichen muss die Laufweite eines Index bekannt sein, was in vielen aber nicht allen Fällen durch den sachlichen Zusammenhang gegeben ist. Treten gleichzeitig verschiedene Laufweiten auf wie in den Kapiteln 2 und 11 im zweiten Band, dann werden in der Literatur üblicherweise lateinische Indizes für die Laufweite 1,2,3 und griechische für 0,1,2,3 verwendet, um die sonst notwendigen Kommentare bei den Gleichungen zu vermeiden. Dagegen zeichnet sich die Darstellung mit Matrizen auch bei vielen Faktoren durch übersichtliche und klare Formulierung aus und kann auch in entsprechenden Software-Programmsystemen in dieser Form leicht formuliert und ausgeführt werden. In der reinen Mathematik bei multilinearer Algebra oder Differentialgeometrie in höherdimensionalen Riemann’schen Räumen, wo Tensoren beliebiger Stufenzahl auftreten, sind Indexschreibweise und Summationskonvention sicher die geeigneten Darstellungsmittel. Dieses Buch richtet sich dagegen vornehmlich an Ingenieure und Naturwissenschaftler der Praxis, denen die Matrizenrechnung vertraut ist und in deren Problemstellungen insbesondere Tensoren 2. Stufe auftreten. Für diese Anwendungsfälle können Vektoren und Tensoren sowie Ableitungen und Differentialoperatoren der weiteren Kapitel in klarer und übersichtlicher Matrixdarstellung formuliert werden.

199

10.5 Tabelle

10.5 10.5.1

Tabelle Hinweise zur Tabelle 10.1

Die Tabelle stellt die Komponenten der Produkte v “T ¨a

w “a¨T

und

dar, wobei v, w und a die Komponenten im gleichen kartesischen System bedeuten. Der obere Feldblock entspricht dem linken oberen Block der Tabelle 8.2 in Verbindung mit den Tabellen 8.1 und 9.1.

10.5.2

Berechnungsbeispiele ¨# ¨# v # “ U T a “ T# a # “ T# G # a# “ T ## a#

v# “ T ## a # “ T#¨ # a# “ G# T ## a# w “ TT a “ pV TqT a # “ pT ## VqT a#

10.5.3

Systemvektoren

Setzt man anstelle des Vektors a einen der Systemvektoren nach (9.14) ein, ` ˘T ε gkov “ g #

` ˘T gkon “ g# ε

oder

dann gilt die Tabelle gleichermaßen, wenn man die Komponenten von a durch den dort definierten Spaltenvektor ε “ p1, 1, 1qT ersetzt, also entweder a# “ ε oder a # “ ε . In den konkreten Beziehungen sind die Vektorkomponenten dann die Summen aus drei Tensorkomponenten, z.B. ` ˘T ## ` ˘T # ` ˘T v “ T ¨ gkon “ g T g ¨ g# ε “ g v #

¨

#

T 11 ` T 12 ` T 13

#

˛

˚ ‹ v# “ T ## ε “ ˝ T 21 ` T 22 ` T 23 ‚ T 31 ` T 32 ` T 33

T#¨ # “ T ## G # “ G# T ## pU TqT “ pT ## VqT pT ## qT

T ## pV TqT “ pT ## UqT pT#¨ # qT “ pT ## qT G# pT ## qT

V T “ T ## U TT

U TT “ pT ## qT V

V TT “ pT ## qT U

v#

w

w#

w#

Tabelle 10.1: Vektorkomponenten beim verjüngenden Produkt

¨# T pT# q “ pT ## qT G #

T ##

¨# T# “ T ## G# “ G # T ##

U T “ T ## V

v#

T UT “ VT T ##

T VT “ UT T ##

T

a#

a#

v

a

200 10 Tensoren und ihre Produkte

Literatur [1] Kreyszig, E.: Differentialgeometrie Akademische Verlagsgesellschaft Geest & Portig, Leipzig (1957)

201

Kapitel 11

Spezielle Tensoren Zusammenfassung Als spezielle Tensoren werden symmetrischer und alternierender Tensor sowie Einheits- oder Metriktensor und Dyaden definiert und in ihren Eigenschaften untersucht. Beim Tensor 3. Stufe hat der antisymmetrische ε -Tensor eine spezielle Bedeutung, mit dem das Kreuzprodukt algebraisch dargestellt werden kann. Abschließend wird der Kronecker-Tensor 6. Stufe behandelt.

11.1 11.1.1

Symmetrischer Tensor 2. Stufe Symmetrieeigenschaften der Komponenten

Ein Tensor S wird als symmetrisch bezeichnet, wenn zunächst für seine kovariante Komponentenmatrix Symmetrie gefordert wird. ` ˘T S ## “ S ## Auf Grund dieser Eigenschaft folgt gemäß Tabelle 9.1 die Symmetrie der kartesischen und kontravarianten Komponenten. ` ˘T S “ VT S ## V “ VT S ## V “ ST ˘T ` ## ˘T ` S ## “ G# S ## G# “ G# S ## G# “ S 202 © Springer Fachmedien Wiesbaden GmbH, ein Teil von Springer Nature 2019 W. Werner, Vektoren und Tensoren als universelle Sprache in Physik und Technik 1, https://doi.org/10.1007/978-3-658-25272-4_11

203

11.1 Symmetrischer Tensor 2. Stufe

Damit gelten folgende Beziehungen für kartesische und ko- und kontravariante Komponentenmatrizen, die jeweils symmetrisch sind und damit nur sechs unabhängige Elemente besitzen. S “ ST

˘T ` S ## “ S ##

˘T ` S ## “ S ##

(11.1)

Für die gemischten Komponenten gilt wegen der Symmetrie gegenseitige Transponierung. ` ˘T ` ˘T S ¨## “ S ## G# “ G# S ## “ S# ¨# Die Stellung der Indizes, ob vorn oder hinten, ist dadurch nicht mehr entscheidend, so dass man bei symmetrischen Tensoren die Indizes übereinander setzen kann! ˛ ˛ ¨ 1 ¨ 1 S1 S1 2 S1 3 S 1 S 21 S 31 ‹ ‹ ˚ 1 ` # ˘T ˚ 1 2 3 ‹ 2 3 ‹ ˚ S ¨## “ ˚ ˝ S2 S2 S2 ‚ “ S ¨ # “ ˝ S 2 S 2 S 2 ‚ S3 1 S3 2 S3 3

S 13 S 23 S 33

` # ˘T ¨# S# # “ S# “ S ¨#

(11.2)

Die Matrix S # # ist nach (3.10) nicht symmetrisch und hat neun unabhängige Komponenten. Der Koeffizient Sik “ Si k “ S ki gilt im Tensorraum sowohl für die Richtung gi gk als auch für die Richtung gk gi . Ein symmetrischer Tensor 2. Stufe besitzt damit drei symmetrische Tensormatrizen für die kartesischen, ko- und kontravarianten und eine unsymmetrische Matrix für die gemischten Komponenten.

11.1.2

Symmetrie der Tensorprodukte

Auf Grund der Eigenschaften der Komponentenmatrizen ist der symmetrische Tensor seinem transponierten gleich, so dass folgende Vertauschungsregeln für symmetrische Tensoren gelten. Ă“ S S

S ¨a“a¨S

a¨S ¨b“b¨S ¨a

(11.3)

204

11.2 11.2.1

11 Spezielle Tensoren

Einheitstensor oder Metriktensor Definierende Eigenschaft

Der Einheitstensor E ist ein spezieller symmetrischer Tensor, der bei Links- wie Rechtsmultiplikation mit einem Vektor oder Tensor wieder diese Größe liefert. E stellt damit das Einselement der Tensormultiplikation dar. E ¨a“a¨E “a

11.2.2

T ¨E “E ¨T “T

(11.4)

Komponenten des Einheitstensors

Der Vergleich zwischen der Umrechnung der Vektorkomponenten nach Tabelle 8.1 und der Rechtsmultiplikation a “ E ¨ a nach (10.4) bzw.Tabelle 10.1 ergibt für die ko- und kontravarianten sowie die gemischten Komponenten des Einheitstensors folgende Beziehungen. Dabei bedeutet E ohne Indizes wie üblich die Einheitsmatrix. a # “ G # a# “ E ## a# ,

a# “ G# a # “ E ## a #

¨# a # “ E a # “ E# a# ,

# a# “ E a# “ E# ¨# a

Insgesamt erhält man für die Matrizen des Einheitstensors das Ergebnis E ## “ G #

E ## “ G#

E ¨## “ E#¨ # “ E

(11.5)

Die ko- und kontravarianten Komponentenmatrizen des Einheitstensors sind identisch mit den Metrikmatrizen (6.14) und seine gemischten entsprechen der Einheitsmatrix! Der Einheitstensor E wird wegen seiner Komponenten und deren Eigenschaften auch Metriktensor oder Fundamentaltensor genannt und in der Literatur meist mit G bezeichnet. Diese Schreibweise wird im weiteren Verlauf sowie im zweiten Band in den Kapiteln Flächentheorie und Relativitätstheorie verwendet. Abweichend von der doppelten Indizierung von Tensormatrizen haben die beiden Metrikmatrizen G # und G# nur einen Index erhalten, da der Einheitstensor nach (11.5) keine echten gemischten Komponenten besitzt!

205

11.2 Einheitstensor oder Metriktensor

11.2.3

Matrix- und Summenform

Aus der allgemeinen Tensordarstellung (9.11) geht hervor, dass der Einheitsoder Metriktensor in kartesischen und reziproken Koordinaten von besonders einfacher Gestalt ist. ` ˘T G “ eT e “ g # g

E ”G

#

` ˘T # g “ g #

(11.6)

Dabei zeigt sich erneut die Eleganz der Darstellung, weil nur die Basisvektordyaden auftreten! ÿ3 G “ e1 e1 ` e2 e2 ` e3 e3 “ ek ek k“1 ÿ3 “ g1 g1 ` g2 g2 ` g3 g3 “ gk g k k“1 ÿ3 “ g1 g1 ` g2 g2 ` g3 g3 “ g k gk k“1

Dagegen bestehen die ko- und kontravarianten Darstellungen aus dem vollen Satz von neun Komponenten bei jeweils sechs unabhängigen Koeffizienten. ` ˘T # G “ g G g #

#

` ˘T “ g# G # g#

(11.7)

G “

g 11 g1 g1 ` g 22 g2 g2 ` g 33 g3 g3 ` ˘ ` ˘ ` ˘ ` g 12 g1 g2 ` g2 g1 ` g 13 g1 g3 ` g3 g1 ` g 23 g2 g3 ` g3 g2

G “

g11 g1 g1 ` g22 g2 g2 ` g33 g3 g3 ` ˘ ` ˘ ` ˘ ` g12 g1 g2 ` g2 g1 ` g13 g1 g3 ` g3 g1 ` g23 g2 g3 ` g3 g2

11.2.4

Metriktensor bei Basiswechsel

Wie jeder Tensor ist der Metrik- oder Fundamentaltensor gegenüber Koordinatentransformationen als universelle Größe eine Invariante. Deshalb gilt mit (6.29) z.B. ` ˘T # ` ˘ T # ` ˘T g “ g ˆ Q PT g ˆ# “ g ˆ g ˆ G “ g #

`

“ g

˘ # T

#

G # g# “ g ˆ `

#

˘ # T

` # ˘T ˆ #g G P G # PT g ˆ# “ g ˆ ˆ#

206

11 Spezielle Tensoren

Beim Wechsel des Koordinatensystems gelten daher folgende Darstellungen. ` ˘T # ` ˘T Q G # QT g ˆ ˆ g ˆ “ g G “ g ˆ #

#

` # ˘T g ˆ “ g ˆ

#

#

` # ˘T P G # PT g ˆ# “ g ˆ

(11.8)

Die Komponenten des Metriktensors werden bei Basiswechsel entsprechend Tabelle 9.2 transformiert.

11.2.5

Überschiebung

Die Überschiebung bedeutet eine tensorielle Multiplikation mit anschließender Verjüngung, also die Bildung eines Skalarprodukts. Die einzelnen Operationen wurden bereits angewendet, sollen aber an Beispielen noch explizit erläutert werden, da die Überschiebung in der Literatur häufig anzutreffen ist. Allgemein gilt der Überschiebungssatz für Tensoren beliebiger Stufe. Die Überschiebung eines Tensors der Stufe m mit einem Tensor der Stufe n führt auf einen

(11.9)

Tensor der Stufe pm ` n ´ 2q. Tpmq Tpnq U ¨T “W “ “

Tpmq ¨ Tpnq “ Tpm`n´2q

Ñ

ÿ ÿ ÿ ÿ ÿ i

j

k

p

q

U ijk gi gj gk ¨ gp gq T pq

ÿ ÿ ÿ ´ÿ i

j

q

¯ U ijk T kq gi gj g q k looooooooomooooooooon “W

i q j

Der zweistufige Tensor Φ wird mit den Vektoren x und y überschoben. ` ˘T ` ˘T # ` ˘T y x ¨ Φ ¨ y “ x# g ¨ g# Φ## g# ¨ g #

˘ # T

“ x Φ ## y# ÿ ÿ “ ϕik xi y k `

i

k

#

207

11.2 Einheitstensor oder Metriktensor

Hierbei handelt es sich um das doppelte Skalarprodukt aus Abschnitt 10.3.3, bei dem als Ergebnis ein Skalar als bilineare Form (3.54) entsteht. Eine häufige Operation ist die Überschiebung mit dem Metriktensor G ” E , bei der nach (11.4) der Ausgangstensor T unverändert bleibt! T G

Ñ

T ¨G

GT

Ñ

G ¨T

+

` ˘T ` ˘T T “ T ¨ G “ g# T ## g# ¨ g# g `

“ g

˘ # T

T ## G# g

T



#

“ g# `

#

˘T

T ¨## g

#

Die Überschiebung bewirkt, dass bei der Matrix T## ein Index heraufgezogen wird. Führt man die Operation mit anderen Tensordarstellungen durch, dann kann auch ein Index herabgezogen werden. Dieses Heben und Senken von Indizes durch Überschiebung mit dem Metriktensor ist in der Tensorliteratur eine häufig angewandte Methode, um einen Tensor mit anderen Komponenten darzustellen. ## ¨# #  G “ G # T## “ G T ## G# “ T ¨###  # T# “ T#

  ¨ # # #  T ¨## G # “ T G G # “ G# T¨# “  # T ## “ T ## ## 

Bei der elementweisen Durchführung bedeutet das die Multiplikation einer Gleichung mit den entsprechenden Metrikkoeffizienten und einer anschließenden Summation. Tik

Ñ

ÿ

Ti k

Ñ

ÿ

k

Tik g k “ T i 

k

T i k gk “ T i

Die Transformationsbeziehungen von Tensorkomponenten im gleichen Koordinatensystem nach (9.17) und bei Basiswechsel nach (9.19) können ebenfalls durch Überschiebung mit dem Metriktensor G berechnet werden. Verschie-

208

11 Spezielle Tensoren

dene Beispiele der Produktbildung führen z.B. auf folgende Ergebnisse. ` ˘T ## T g T “T ¨G “ g #

` ˘T # G g T “G ¨T “ g #

` # ˘T T “G ¨T ¨G “ g ˆ g ˆ `

“ g ˆ

˘ # T

#

#

#

` ˘T # # ` ˘T T ¨# g ¨ g# G # g# “ g #

` ˘T # # ` ˘T T ¨# g ¨ g# T ## g# “ g #

` ˘T ` ˘T # ¨ g# T ## g# ¨ g ˆ g ˆ #

P T ## PT g ˆ# “ g ˆ `

˘ # T

ˆ ## g T ˆ#

Alle Transformationsbeziehungen der Tabellen 9.1 und 9.2 können daher auch als Überschiebungen mit dem Metriktensor nach der obigen Definition interpretiert und berechnet werden. Die Eigenschaften der Metrikmatrizen erhält man in gleicher Weise, indem man an Stelle des beliebigen Tensors T den Metriktensor G selbst einsetzt.

11.3 11.3.1

Alternierender Tensor 2. Stufe Eigenschaften der Komponenten

Ein Tensor A wird als alternierend (schief- oder antisymmetrisch bzw. antimetrisch) bezeichnet, wenn seine kartesischen sowie ko- und kontravarianten Komponentenmatrizen schiefsymmetrisch sind. A “ ´ AT

˘T ` A ## “ ´ A ##

˘T ` A ## “ ´ A##

(11.10)

Die ko- und kontravarianten Matrizen haben folgende Komponenten, die jeweils nur drei unabhängige Elemente besitzen. ¨

A ##

˛ 0 `A12 `A13 0 `A23 ‚ “ ˝´A12 ´A13 ´A23 0

˛ 0 `A12 `A13 0 `A23 ‚ “ ˝´A12 13 23 ´A ´A 0 ¨

A##

(11.11)

209

11.3 Alternierender Tensor 2. Stufe

Für die gemischten Komponenten gilt gegenseitige alternierende Transponierung, ˘T ˘T ` ` A ¨## “ A ## G # “ ´ G # A ## “ ´ A#¨ #

(11.12)

deren Matrizen nach (3.10) keine Symmetrieeigenschaften aufweisen und deren Hauptdiagonalen auch nicht Null sind. Im Tensorraum hat die Richtung gi gk den Koeffizienten Ai k und die Richtung gk gi den entgegengesetzten Koeffizienten ´Aki . Ein alternierender Tensor 2. Stufe besitzt damit schiefsymmetrische Tensormatrizen für die kartesischen, ko- und kontravarianten und unsymmetrische für die gemischten Komponenten.

11.3.2

Antisymmetrie der Tensorprodukte

Auf Grund der Eigenschaften der Komponentenmatrizen ist der alternierende Tensor seinem negativen transponierten gleich, so dass sich die folgenden Vertauschungsregeln für alternierende Tensoren ergeben. AĂ“ ´ A

A ¨ a “ ´a ¨ A

a ¨ A ¨ b “ ´b ¨ A ¨ a

(11.13)

Das doppelte Skalarprodukt kann auf Grund der schiefsymmetrischen Matrizen mit A31 “ ´A13 auch als Determinante geschrieben werden. ` ˘T a ¨ A ¨ b “ a# A ## b#   A23 A31 A12   a2 a3 “  a1  1  b b2 b3

      

` ˘T “ a # A## b #   A23 A31 A12   a2 a3 “  a1   b1 b2 b3

      

Bei gleichen Vektoren verschwinden Determinante und doppeltes Skalarprodukt. a¨A ¨a“0

(11.14)

210

11 Spezielle Tensoren

11.3.3

Tensorform des Kreuzproduktes

Das Kreuzprodukt der Vektoren a und b lautet nach Abschnitt 7.6.2 für kontravariante Vektorkomponenten ` ˘T c “ a ˆ b “ S # a# Γ # b # ˛ ¨ 1˛ ¨ b 0 ` g3 ´ g2 ` 1 2 3˘˚ ‹ ˚ 2‹ 3 1 0 ` g ‚˝b ‚ “ S# a , a , a ˝´ g 2 ` g ´ g1 0 b3 “ ` ˘ ` ˘ ` ˘‰ “ S# g 1 a 2 b 3 ´ a 3 b 2 ` g 2 a 3 b 1 ´ a 1 b 3 ` g 3 a 1 b 2 ´ a 2 b 1 ` ˘T “ c # g# Die Rechtsmultiplikation des alternierenden Tensors A , der die kovarianten Komponenten (11.11) hat, mit dem Vektor b führt auf

` ˘T # ` ˘T b c “ A ¨ b “ g# A ## g# ¨ g #

˛ ¨ 1˛ b 0 ` A12 ` A13 ` 1 2 3˘˚ ‹ ˚ 2‹ 0 ` A23 ‚˝b ‚ “ g , g , g ˝´ A12 ´ A13 ´ A23 0 b3 ` ˘ ` ˘ ` ˘ “ g1 A13 b3 ` A12 b2 ` g2 ´ A12 b1 ` A23 b3 ` g3 ´ A23 b2 ´ A13 b1 ¨

Wenn man die Komponenten des Vektors a auf folgende Weise identifiziert, S# a1 “ ´A23 ,

S# a2 “ A13 “ ´A31 ,

S# a3 “ ´A12

dann kann man einen alternierender Tensor Apaq definieren, dessen kovariante Komponenten aus den kontravarianten von a bestehen und der aus

11.4 Tensor-Merkmale und Eigenschaften

211

den alternierenden Dyaden der Basisvektoren aufgebaut ist. ` ˘T Apaq “ g# A ##paq g# ˛ 0 ´ a3 ` a2 ` ˘T ˚ ‹ 0 ´ a1 ‚ g # “ S# g# ˝` a3 ´ a2 ` a1 0 ” ´ ¯ ´ ¯ ´ ¯ı “ ´ S# a 1 g 2 g 3 ´ g 3 g 2 ` a 2 g 3 g 1 ´ g 1 g 3 ` a 3 g 1 g 2 ´ g 2 g 1 ¨

(11.15) Dadurch kann man das Kreuzprodukt zweier Vektoren durch das algebraische Skalarprodukt ausdrücken, das aus diesem alternierenden Tensor und dem anderen Vektor gebildet wird. c “ a ˆ b “ Apaq ¨ b

(11.16)

Diese Art der Darstellung ist allerdings nur im dreidimensionalen Raum möglich, da allein dort die Anzahl der drei Vektorkomponenten mit den drei unabhängigen Komponenten des alternierenden Tensors übereinstimmt!

11.4 11.4.1

Tensor-Merkmale und Eigenschaften Additive Tensorzerlegung

Nach den Untersuchungen in den Abschnitten 11.1.1 und 11.3.1 werden die Symmetrieeigenschaften von Tensoren gemäß ihrer ko- und kontravarianten Komponenten beurteilt und nicht nach ihren gemischten, denn diese sind von allgemeiner Natur und weisen keine bestimmte Struktur auf. Infolge der Eigenschaften transponierter Tensoren nach Abschnitt 10.3.4 kann ein beliebiger Tensor T stets in eine Summe aus symmetrischem und alternierendem Anteil zerlegt werden T “

1 Ăq ` 1 pT ´ T Ăq “ S ` A pT `T loooomoooon 2 2 loooomoooon symmetrisch

alternierend

212

11 Spezielle Tensoren

mit folgendem Ergebnis für die beiden Anteile. T “S `A

Ă 2S “ T ` T

Ă 2A “ T ´ T

(11.17)

Diese Zerlegung ist deshalb von besonderem Interesse, da bei Basiswechsel die Teiltensoren ihren Symmetriecharakter behalten! Symmetrische und alternierende Anteile im alten Koordinatensystem liefern auch im neuen System entsprechende Anteile. Am Beispiel der kovarianten Komponenten läßt sich das einfach zeigen, denn bei Basiswechsel gilt für beide Anteile nach Tabelle 9.2 folgende Umrechnung. ‰ ‰ # ` # ˘T “ ` # ˘T “ ˆ ## ` A ˆ ## g S S ## ` A ## g# ˆ “ g T “ g ˆ ˆ ## “ S ˆ ## ` A ˆ ## “ P T ## PT “ P S ## PT ` P A ## PT T ˘ ` ˆ ## “ P S ## PT “ S ˆ ## T S

˘ ` ˆ ## “ P A ## PT “ ´ A ˆ ## T A

(11.18) Für die kontravarianten Tensorkomponenten gelten entsprechende Beziehungen, dagegen existieren für die gemischten keine besonderen Symmetrieeigenschaften.

11.4.2

Dyaden

Dyaden sind nach den Abschnitten 9.1.3 und 10.3.1 spezielle Tensoren aus zwei Vektoren, die im tensoriellen oder dyadischen Produkt direkt nebeneinander stehen. Das Produkt ist nichtkommutativ, die Faktoren sind nicht vertauschbar. Die Dyade D “ Dab “ ab erzeugt als linearer Operator, der auf einen Vektor v angewendet wird, durch Skalarproduktbildung der beiden rechts stehenden Faktoren eine affine Abbildung des Vektors v in einen neuen Vektor in a-Richtung. Dab pvq “ Dab ¨ v “ a pb ¨ vq ‰ Dba pvq “ Dba ¨ v “ b pa ¨ vq

(11.19)

213

11.4 Tensor-Merkmale und Eigenschaften

Die ko- und kontravarianten Darstellungen der Dyade ab haben folgende Formen. ` ˘T # ` # ˘T ` ˘T ## D “ ab “ g D g a b g “ g “ g

˘ # T

`

a# b#

˘T

#

#

#

#

`

g# “ g `

˘ # T

D ## g#

Die Komponentenmatrizen von Dyaden enthalten nach (3.8) normale Produkte der skalaren Vektorkoeffizienten. Die Matrizen ` ˘ sind`singulär, ˘ denn als ## dyadische Produkte haben sie den Rang rg D ## “ rg D “ 1. Besondere Tensoren sind symmetrische und alternierende Dyaden. Die symmetrische Dyade hat folgende Gestalt und Eigenschaft. D sym “ ab ` ba ` ˘ ` ˘ ` ˘ ` ˘ D sym ¨ v “ a b ¨ v ` b a ¨ v “ v ¨ D sym “ v ¨ a b ` v ¨ b a Für die antisymmetrische oder alternierende Dyade gilt folgende Darstellung D alt “ ab ´ ba ` ˘ D alt ¨ v “ ab ´ ba ¨ v ` ˘ ` ˘ ` ˘ ` ˘ “ a b ¨ v ´ b a ¨ v “ ´ v ¨ D alt “ v ¨ a b ´ v ¨ b a und mit kovarianten Vektorkomponenten folgt ` ˘T ` ˘T ı # ` ˘T ” Dalt “ g# a# b# ´ b# a# g Nach Ausführung der Rechnung erhält man folgende spezielle Form, bei der die drei alternierenden Dyaden der Basisvektoren auftreten. Dalt “ ab ´ ba “

˘“ ‰ a 1 b2 ´ a 2 b1 g 1 g 2 ´ g 2 g 1 ` ˘“ ‰ ` a 3 b1 ´ a 1 b3 g 3 g 1 ´ g 1 g 3 ˘“ ‰ ` ` a 2 b3 ´ a 3 b2 g 2 g 3 ´ g 3 g 2 `

(11.20)

Wie der Vergleich mit (7.18) zeigt, stimmen die Koeffizienten der alternierenden Dyade bis auf die Metrikdeterminante (6.22) mit den Komponenten

214

11 Spezielle Tensoren

des Kreuzproduktes c “ a ˆ b überein. ” ` ˘ ` ˘ ` ˘ı Dalt “ S # c3 g1 g2 ´ g2 g1 ` c2 g3 g1 ´ g1 g3 ` c1 g2 g3 ´ g3 g2 Im Abschnitt 11.8.3 kommt die Dyade Dalt noch in besonderer Weise zur Anwendung.

11.4.3

Verjüngung spezieller Tensoren

Der bei der Verjüngung im Abschnitt 10.2.2 eingeführte Skalar J hat folgende Werte für besondere Tensoren. Einheits- oder Metriktensor 3 ÿ 3 ÿ ` ˘ gik g ik “ 3 JE “ JG “ sp G # G# “ sp E “ i“1 k“1

Symmetrischer Tensor ` ˘ JS “ S11 g 11 ` S22 g 22 ` S33 g 33 ` 2 S12 g 12 ` S13 g 13 ` S23 g 23 “ S11 ` S22 ` S33 “ sp S# #

Alternierender Tensor Die Verjüngung ergibt Null gemäß (3.53). #

JA “ sp pA ## G q “

3 ÿ 3 ÿ i“1 k“1

Aik g

ik



3 ÿ 3 ÿ

Aik gik “ 0

i“1 k“1

Bei der Verjüngung eines beliebigen Tensors, den man nach (11.17) zerlegen kann, liefert nur der symmetrische Anteil einen Beitrag, da der alternierende Anteil Null ergibt.

215

11.5 Tensor 3. Stufe

11.5 11.5.1

Tensor 3. Stufe Summenform der Komponenten

Die Darstellung des Tensors mit kovarianten Komponenten lautet im alten und im neuen Koordinatensystem Tp3q “

3 ÿ 3 ÿ 3 ÿ

T ijk gi gj gk “

i“1 j“1 k“1

3 ÿ 3 ÿ 3 ÿ

Tˆijk g ˆi g ˆj g ˆk

i“1 j“1 k“1

Die kontravarianten sowie die sechs gemischten Formen des Tensors werden in entsprechender Weise gebildet.

11.5.2

Matrixdarstellung

Die Matrixdarstellung des Tensors 3. Stufe ist bereits im Abschnitt 3.8.2 behandelt worden, wo auch die erweiterte Matrixmultiplikation definiert wurde. Die Matrix eines Tensors 3. Stufe hat im dreidimensionalen Raum jeweils 27 Elemente, die man anschaulich in Quaderform oder als Blockmatrix anordnen kann. Zur Darstellung der Komponenten werden die drei Schichten der Tensorblockmatrix als Einzelmatrizen nebeneinander zwischen Doppelbalken geschrieben, wobei der Schichtindex rechts in Klammern steht. Die kovariante Tensorblockmatrix hat dann die Gestalt   T ## p#q “  T ## 1 , T ## 2 , T ## 3  und ihre Blockelemente sind die Untermatrizen für k “ 1, 2, 3. ¨ ˛ T11k T12k T13k ˚ ‹ T ## k “ ˝ T21k T22k T23k ‚ T31k

T32k T33k

Für das Matrizenprodukt wurde ein besonderes Symbol mit spitzen Klammern und Verknüpfungszeichen eingeführt,  ` ˘T  ` ˘T T ## p#q ˝ g# g# “ g# Y g# Tp3q “ g#

(11.21)

216

11 Spezielle Tensoren

wobei die Reihenfolge der Basisvektoren g# im Tensor Tp3q der Folge der Indizes der Tensorblockmatrix entspricht. Das Symbol in spitzen Klammern stellt eine Matrix Y mit Vektorelementen dar, bei der der innere Spaltenvektor g# mit den drei Untermatrizen T ## k der Tensorblockmatrix T ## p#q einzeln normale Matrizenprodukte bildet,     Y “ T ## p#q ˝ g# “  T ## 1 , T ## 2 , T ## 3  ˝ g# ´ ¯ “ T ## 1 g# , T ## 2 g# , T ## 3 g# (*) so dass folgende Spaltenvektoren von Y entstehen. ¨

T11k T12k T13k

˚ T ## k g# “ ˝ T21k T22k T23k T31k T32k T33k ¨

˛ ¨ 1˛ g ‹ ˚ 2‹ ‚˝g ‚ g3

T11k g1 ` T12k g2 ` T13k g3

˛

‹ ˚ “ ˝ T21k g1 ` T22k g2 ` T23k g3 ‚ T31k g1 ` T32k g2 ` T33k g3 Die 3 ˆ 3 -Matrix Y hat neun Vektoren als Elemente und ihre Darstellung mit kovarianten Tensorkomponenten lautet ¨ T111 g1 ` T121 g2 ` T131 g3 | ˚ T g1 ` T221 g2 ` T231 g3 | ¨ ¨ ¨ Y“˚ ˝ 211 T311 g1 ` T321 g2 ` T331 g3 | | T112 g1 ` T122 g2 ` T132 g3 | ¨ ¨ ¨ | T212 g1 ` T222 g2 ` T232 g3 | ¨ ¨ ¨ | T312 g1 ` T322 g2 ` T332 g3 | | T113 g1 ` T123 g2 ` T133 g3

˛

‹ ¨ ¨ ¨ | T213 g1 ` T223 g2 ` T233 g3 ‹ ‚ | T313 g1 ` T323 g2 ` T333 g3

217

11.5 Tensor 3. Stufe

Im abschließenden Multiplikationsschritt wird der Tensor 3. Stufe als normales Matrizenprodukt aus Zeilenvektor, Matrix und Spaltenvektor gemäß (11.21) gebildet, wobei alle drei Faktoren Vektoren als Elemente enthalten. Jeder der 27 Summanden besteht aus einem Koeffizienten Tijk und dem tensoriellen Produkt aus drei Basisvektoren gi gj gk . Die vollständige Darstellung des Tensors 3. Stufe lautet dann in Ergänzung zu (11.21) in normaler Matrixformulierung für die kovarianten Tensorkomponenten ı ` ˘T ” T ##1 g# , T ##2 g# , T ##3 g# g# Tp3q “ g#

11.5.3

(11.22)

Komponenten bei Basiswechsel

Zur Umrechnung der 27 Komponenten des Tensors 3. Stufe zwischen verschiedenen Koordinatensystemen geht man aus von der Beziehung (11.21), ` # ˘T ` ˘T ˆ g Y Tp3q “ g ˆ# “ g # Y g # ˆ bei der die vektorielle Matrix Y eine Transformation wie in Abschnitt 9.5.1 bzw. nach Tabelle 9.2 erfährt. ˆ “ P Y PT Y ` ˘T , dann erhält man mit Multipliziert man Tp3q von rechts skalar mit g ˆ #

Tabelle 6.2

` ˘T ` # ˘T ` ˘ ` ˘T ` # ˘T ˆ “ g# T Y g# ¨ g Y ˆ “ g ˆ ˆ “ g Y PT Tp3q ¨ g #

#

Für die linke Seite bei diesem Skalarprodukt gilt ı ` # ˘T ” ` # ˘T ˆ ##1 g ˆ “ g ˆ ##2 g ˆ ##3 g T Y ˆ ˆ# , T ˆ# , T ˆ# g ˆ ”`

ı ` # ˘T ` # ˘T ˆ ##1 g ˆ ##2 g ˆ ##3 g T T T ˆ# , g ˆ ˆ# , g ˆ ˆ# ” ı “ Tˆ{1{ , Tˆ{2{ , Tˆ{3{ “

g ˆ#

˘T

218

11 Spezielle Tensoren

und für die rechte Seite folgt mit (*) `

g#

˘T

”`

ı ` ˘T ` ˘T T ##1 g# , g# T ##2 g# , g# T ##3 g# PT ” ı “ T{1{ , T{2{ , T{3{ PT

Y PT “

g#

˘T

Die Zeilenvektoren beider Seiten enthalten in den eckigen Klammern Tensoren 2. Stufe als Elemente und ihre Gleichsetzung liefert bei Beachtung der Transponierung von P für das k-te Element Tˆ{k{ “ T{1{ pk1 ` T{2{ pk2 ` T{3{ pk3 Nach skalarer Multiplikation dieser Tensorgleichung von links mit g ˆ und # ` ˘T von rechts mit g ˆ erhält man mit Tabelle 6.2 für die Umrechnung der #

Komponenten des Tensors 3. Stufe das folgende Ergebnis, das der Transformationsregel (9.20) entspricht. ˆ ##k “ pk1 P T ##1 PT ` pk2 P T ##2 PT ` pk3 P T ##3 PT T

ˆ ##k “ T

3 ÿ

pkλ P T ##λ PT

(11.23)

λ“1

Für das einzelne Element erhält man mit (3.13) die Summendarstellung Tˆijk “

3 ÿ 3 3 ÿ ÿ

piμ pjν pkλ Tμνλ

μ“1 ν“1 λ“1

Die Transformationsbeziehung kann als Blockmatrixgleichung wie in (3.62) formuliert werden, bei der die formale Multiplikation mit P zeilenweise gemäß (11.23) erfolgen muss.  T ˆ ##1 ¯T  ´  ˆ ## p#q ˆ “ T  T ##2  ˆ ##3 T

  T  PT    ##1 P    “ P ˝  P T ##2 PT      P T ##3 PT 

       

(11.24)

11.6 Vollständige Tensoren gemäß Symmetrie

11.6

219

Vollständige Tensoren gemäß Symmetrie

11.6.1

Definition

Vollständig symmetrische bzw. antisymmetrische Tensoren sind hinsichtlich sämtlicher Paare beliebiger Indizes symmetrisch bzw. alternierend.

11.6.2

Vollständig symmetrischer Tensor 3. Stufe

Von den 27 ko- und kontravarianten Komponenten des Tensors Sp3q sind nur 10 voneinander unabhängig. Als Beispiel werden die kovarianten Komponenten angegeben und mit Buchstaben bezeichnet. a “ S111

b “ S112 “ S121 “ S211 c “ S113 “ S131 “ S311

d “ S222

e “ S221 “ S212 “ S122 f “ S223 “ S232 “ S322

p “ S333

q “ S331 “ S313 “ S133 r “ S332 “ S323 “ S233 w “ S123 “ S132 “ S213 “ S231 “ S312 “ S321

Die Matrix zu diesem Tensor wird als Blockmatrix mit drei Untermatrizen zwischen Doppelbalken dargestellt.

S ## p#q

11.6.3

¨ ˛ ¨ ˛ ¨ ˛  a b c  b e w c w q    ˝ ‚ ˝ ‚ ˝ ‚ “ b e w , e d f , w f r    c w q w f r q r p 

Vollständig antisymmetrischer Tensor 3. Stufe

Von den 27 ko- und kontravarianten Komponenten des Tensors Ap3q ist jeweils nur eine einzige unabhängig, bei der alle Indizes voneinander verschiedene Werte aufweisen. Sie erscheinen mit wechselnden Vorzeichen an 3! “ 6 Positionen der Blockmatrix A ## p#q und werden mit α# und α# bezeichnet.

220

11 Spezielle Tensoren

Als Beispiel wird die kovariante Komponente angegeben, wobei die geraden oder zyklischen Permutationen positiv und die ungeraden oder antizyklischen negativ sind. α# “ A123 “ A231 “ A312 “ ´ A132 “ ´ A213 “ ´ A321 11.6.3.1

(11.25)

Transformation bei Basiswechsel

Nach (11.23) oder der allgemeinen Transformationsregel (9.20) gilt für die einzige unabhängige kovariante Tensorkomponente im neuen System α ˆ # “ Aˆ123 “

3 ÿ 3 ÿ 3 ÿ

Aijk p1i p2j p3k

i“1 j“1 k“1

“ A123

“ A123

“      

` p11 p22 p33 ` p12 p23 p31 ` p13 p21 p32 ‰ ´ p11 p23 p32 ´ p12 p21 p33 ´ p13 p22 p31  p11 p12 p13  p21 p22 p23  “ A123 det P “ α# det P p31 p32 p33 

und entsprechend für die kontravariante Tensorkomponente. α ˆ # “ Aˆ123 “

3 ÿ 3 ÿ 3 ÿ

Aijk q1i q2j q3k “ A123 det Q “ α# det Q

i“1 j“1 k“1

α ˆ # “ α# det P

11.7 11.7.1

α ˆ # “ α# det Q “ α# { det P

(11.26)

ε -Tensor Definition gemäß Transformationsverhalten

Die Transformation der kovarianten Komponenten des Einheits- oder Metriktensors E “ G zwischen altem und neuem Basissystem lautet mit (11.5) und Tabelle 9.2, ˆ # “ P G # PT “ P E ## PT ˆ ## “ G E

221

11.7 ε -Tensor

wonach für die Determinante folgt ˘ ` ˆ # “ gˆ “ det P det G # det P “ g det P 2 det G a ? gˆ “ g det P Die einzige Komponente α# des vollständig antisymmetrischen Tensors Ap3q ? und die Wurzel aus der kovarianten Determinante g zeigen das gleiche ? Transformationsverhalten. Wählt man deshalb für α# den Wert g , so entsteht ein spezieller vollständig antisymmetrischer Tensor 3. Stufe, der ε -Tensor heißt. Seine einzigen beiden unabhängigen Komponenten haben bei zyklischer Permutation in Ergänzung zu den Beziehungen (6.22) die zueinander reziproken Werte

ε# “

?

b g “

det G # “ det U “ x g1 , g2 , g3 y “ S # (11.27)

1 ε# “ ? “ g

b det G# “ det V “ x g1 , g2 , g3 y “ S #

und ihre Transformationsbeziehungen bei Basiswechsel lauten

εˆ# “ ε# det P “

?

g det P “ det U det P (11.28)

1 εˆ# “ ε# det Q “ ? det Q “ det V det Q g Der vollständig antisymmetrische ε -Tensor 3. Stufe hat damit gemäß (11.25) die folgende Blockmatrix der kovarianten Komponenten.

ε ## p#q “ ε#

¨ ˛ ¨ ˛ ¨ ˛  0 0 0  0 0 ´1 0 1 0    ˝0 0 1‚ , ˝0 0 0 ‚ , ˝´1 0 0‚     0 ´1 0 1 0 0 0 0 0 

(11.29)

222

11 Spezielle Tensoren

11.7.2

Determinantenform der Tensorkomponenten

Die Komponente ε ijk des ε -Tensors kann man als Determinante aus Kronecker-Symbolen schreiben und sie wird dann auch als Levi-Civita-Permutations-Symbol bezeichnet.

ε ijk “ ε#

  δ1i δ1j   δ2i δ2j   δ3i δ3j

δ1k δ2k δ3k

   ? “ g  

$ ’ & `1 i, j, k zyklisch ´1 i, j, k antizykl. ’ % 0 sonst

(11.30)

Die Determinante ist nur für i ‰ j ‰ k von Null verschieden, da anderenfalls zwei Spalten identisch sind. Die verbleibenden sechs Möglichkeiten liefern entweder `1 oder ´1 bei gerader bzw. ungerader Permutation der Zahlen i, j, k und entsprechen den Werten in (11.25) und (11.29).

11.7.3

Räumliche Darstellung

Wird die Blockmatrix des ε -Tensors als räumliches Gebilde in Würfelform dargestellt, dann erhält man die Abbildung 11.1 . Alle 27 Positionen der möglichen Tensorkomponenten sind beim Würfel zu sehen, die kräftigen tatsächlich, die blassen im Hintergrund. Die roten und gelben Positionen entsprechen den echten Komponenten des ε -Tensors, alle anderen sind Null. Die Fläche dieser sechs Werte bildet im Würfel einen schrägen Schnitt in Form eines regelmäßigen Sechsecks, dessen Ecken abwechselnd die Werte `ε# in rot und ´ε# in gelb aufweisen.

11.7.4

Matrix- und Summenform des ε -Tensors

Der ε -Tensor hat nach (11.21/11.22) eine spezielle Form, bei der mit (11.29) in der spitzen Klammer die negative, vektorielle, alternierende Γ-Matrix

223

11.7 ε -Tensor

k=1 k=2 k=3

Abb. 11.1: Räumliche Darstellung der 27 Komponenten des ε -Tensors

nach (6.24) entsteht.  ` ˘T  ε ## p#q ˝ g# g# ε “ g# ı ` ˘T ” “ g# ε ## 1 g# , ε ## 2 g# , ε ## 3 g# g# looooooooooooooooooooooomooooooooooooooooooooooon “´Γ#

˛ 0 g3 ´ g2 ` ˘T ˚ ‹ 0 g1 ‚ g# “ ´ ε# g# ˝´ g3 g2 ´ g1 0 ¨

In ko- und kontravarianter Form lautet die Matrixdarstellung des ε -Tensors ` ˘T ` ˘T ε “ ´ ε# g # Γ # g # “ ´ ε# g Γ# g #

#

(11.31)

224

11 Spezielle Tensoren

Das tensorielle Produkt aus Vektormatrix Γ # und Spaltenvektor g# führt auf den Spaltenvektor der alternierenden Dyaden der Basisvektoren. ˛ ¨ 1˛ ¨ 2 3 ˛ g 0 g3 ´ g2 g g ´ g3 g2 ‹˚ ‹ ˚ ˚ ‹ 0 g1 ‚˝g2 ‚ “ ˝ g3 g1 ´ g1 g3 ‚ ´ Γ # g# “ ´ ˝´ g3 g2 ´ g1 0 g3 g1 g2 ´ g2 g1 ¨

(11.32) Führt man die Matrixmultiplikation (11.31) aus, dann erhält man die Darstellung des ε -Tensors mit positiven Summanden für die geraden und negativen für die ungeraden Permutationen sowie die Dreifachsummendarstellungen mit den Koeffizienten nach (11.29) bzw. (11.30). ” ı ε “ ε# g 1 g 2 g 3 ` g 2 g 3 g 1 ` g 3 g 1 g 2 ´ g 1 g 3 g 2 ´ g 2 g 1 g 3 ´ g 3 g 2 g 1

ε“

3 ÿ 3 ÿ 3 ÿ

εijk gi gj gk “

i“1 j“1 k“1

11.7.5

3 ÿ 3 ÿ 3 ÿ

εijk gi gj gk

(11.33)

i“1 j“1 k“1

Skalarprodukte mit dem ε -Tensor

Die Transponierung des Spaltenvektors (11.32) stellt den zugehörigen Zeilenvektor dar. Auf der linken Seite darf man dabei nicht die Transponierregel der Matrizenrechnung für Produkte (3.42) anwenden, da dann die Reihenfolge der Basisvektoren vertauscht würde! Anstelle der nicht gültigen Beziehung `

Γ# g #

˘T

` ˘T ` # ˘T ` ˘T ‰ g# “ ´ g# Γ # Γ

zeigt die Ausführung der tensoriellen Matrixmultiplikationen dagegen, dass folgende Beziehung richtig ist. `

Γ# g #

˘T

` ˘T “ ` g# Γ # ´ ¯ “ ´ g2 g3 ´ g3 g2 , g3 g1 ´ g1 g3 , g1 g2 ´ g2 g1

(11.34)

225

11.8 Tensorinterpretation von Vektorprodukten

Bei Multiplikationen des ε -Tensors mit einem Vektor erhält man die folgenden identischen Tensoren 2. Stufe. ` ˘T # ` ˘T ` ˘T ε ¨ a “ ´ ε# g # Γ # g # ¨ g a “ ´ ε# g# Γ # a# #

`

a ¨ ε “ ´ ε# a

˘ # T

g

`

#

¨ g

˘ # T

` ˘T Γ # g # “ ´ ε # a# Γ # g #

Die Rechts- und Linksmultiplikation des ε -Tensors mit einem Vektor entspricht dem negativen alternierenden Tensor Apaq nach (11.15) unter Berücksichtigung von (11.27). a ¨ ε “ ε ¨ a “ ´ Apaq

(11.35)

Mit der Vertauschungsregel (11.13) für alternierende Tensoren 2. Stufe folgt, a ¨ ε ¨ b “ ´ Apaq ¨ b “ ` b ¨ Apaq “ ´ b ¨ ε ¨ a woraus man die Vertauschungsregel für das doppelte Skalarprodukt mit dem ε -Tensor erhält. a ¨ε ¨ b “ ´b ¨ε ¨ a

11.8

(11.36)

Tensorinterpretation von Vektorprodukten

Neben Skalar- und Kreuzprodukt ist das tensorielle Produkt die dritte Verknüpfung zweier Vektoren, die durch unbestimmte oder dyadische Kombination der Basisvektoren in der Form gi gj , gi gj gk , etc. die unterschiedlichen Richtungen in höherdimensionalen Tensorräumen kennzeichnet.

11.8.1

Kreuzprodukt

Der Vergleich der Kreuzproduktdarstellung aus den Abschnitten 7.6.2 und 11.3.3 a ˆ b “ ε# pa# qT Γ# b#

226

11 Spezielle Tensoren

mit dem doppelten Skalarprodukt des ε -Tensors, ` ˘T a ¨ ε ¨ b “ ´ ε # a# Γ # b # “ ´ b ¨ ε ¨ a zeigt den Zusammenhang der verschiedenen Darstellungen. a ˆ b “ ´ a ¨ ε ¨ b “ b ¨ ε ¨ a “ Apaq ¨ b

(11.37)

Innerhalb des Tensorkalküls kommt man im dreidimensionalen Raum daher zu einer Neuinterpretation des Kreuzproduktes • entweder als doppeltes Skalarprodukt der Vektoren mit dem ε -Tensor • oder als Skalarprodukt des zweiten Vektors mit dem zum ersten Vektor gehörigen alternierenden Tensor 2. Stufe In der Summenform und unter Verwendung des Levi-Civita-Permutations-Symbols hat das Kreuzprodukt und seine Komponenten die folgenden Darstellungen.

v “aˆb“

3 ÿ 3 ÿ 3 ÿ

εijk ai bj gk

i“1 j“1 k“1

(11.38) vk “

3 ÿ

3 ÿ

εijk ai bj “ ε# p ai bj ´ aj bi q

i“1 j“1

Die ursprünglich erforderliche Zusatzbedingung der Rechtsschraubenregel, die zur eindeutigen Definition des Kreuzproduktes in der Vektorrechnung notwendig ist und im Abschnitt 5.1.5 erläutert wurde, ist im Rahmen des Tensorkalküls mit diesen Darstellungen entfallen. Die aus mathematischer Sicht unbefriedigende Situation einer zusätzlichen Bedingung wird dadurch gelöst, dass der Tensorkalkül rein algebraisch mit einer einzigen Produktdefinition, dem Skalarprodukt (5.2), aufgebaut werden kann, das keine weitere Bedingung benötigt!

227

11.8 Tensorinterpretation von Vektorprodukten

11.8.2

Spatprodukt

Mit der Darstellung des Kreuzproduktes nach (11.37) kann man auch das Spatprodukt als reines Skalarprodukt ausdrücken, wobei für kontravariante Komponenten der Vektoren gilt ` ˘ ` ˘T a ¨ pb ˆ cq “ ´ a ¨ b ¨ ε ¨ c “ ε# a# g

#

` ˘T ¨ b # Γ # c#

Die Matrix in der Mitte der rechten Seite ist auf Grund der Reziprozitätsbedingung schiefsymmetrisch, ˛ ¨ 0 ´ b3 ` b2 ` ˘T ‹ ˚ 0 ´ b1 ‚ g ¨ b# Γ# “ ˝` b3 # ´ b2 ` b1 0 woraus sich Determinanten- und Summenform des Spatproduktes ergeben. 

11.8.3

` ˘ ` ˘  a, b, c “ a ¨ b ˆ c “ ´ a ¨ b ¨ ε ¨ c  1 2 3 a a a  3 ÿ 3 ÿ 3   ÿ “ ε#  b1 b2 b3  “ εijk ai bj ck  c1 c2 c3  i“1 j“1 k“1

(11.39)

Doppeltes Kreuzprodukt

Der Entwicklungssatz (5.8) der Vektorrechnung kann innerhalb des Tensorkalküls als Skalarprodukt aus einem Vektor und einer alternierenden Dyade nach (11.20) gedeutet werden. ` ˘ ` ˘ ` ˘ ` ˘ u ˆ a ˆ b “ a b ¨ u ´ b a ¨ u “ ab ´ ba ¨ u “ Dalt ¨ u (11.40) Das Kreuzprodukt aus polarem Vektor u und axialem Vektor a ˆ b bildet als Skalarprodukt aus alternierender Dyade und Vektor das gesamte räumliche Vektorbüschel u in die Ebene ab, die von den Vektoren a und b aufgespannt wird und erzeugt dadurch ein ebenes Vektorbüschel. Die alternierende Dyade D alt , die den Operator dieser entarteten Abbildung darstellt, wird deshalb auch als planare Dyade bezeichnet.

228

11 Spezielle Tensoren

11.8.4

Zusammenfassende Bewertung

Die drei Arten von Multiplikationen zweier Vektoren, • Skalarprodukt • Vektor- oder Kreuzprodukt • dyadisches oder tensorielles Produkt sind nicht unabhängig voneinander. Auftretende Kreuzprodukte können vielmehr durch die beiden anderen Produkte ausgedrückt werden und man kommt im dreidimensionalen Raum zu einer neuen Deutung von Plangröße, axialem Vektor und Rechtsschraubenregel durch Skalarprodukte mit planarer Dyade und ε -Tensor. Diese Darstellung im Rahmen des Tensorkalküls ist vom Grundsatz her der Kreuzproduktbildung der Vektorrechnung überlegen, da sie rein algebraisch ohne zusätzliche Bedingung aufgebaut wird und nicht auf das künstliche Hilfsmittel der Rechtsschraube zurückgreifen muss! Dennoch werden Generationen von Naturwissenschaftlern und Ingenieuren nicht auf die vertraute Form des Kreuzproduktes verzichten wollen oder können, denn im dreidimensionalen Raum ist diese Darstellung äußerst anschaulich und in der Wirkungsweise vieler physikalischer Größen wie Drehmoment, Tangentialgeschwindigkeit bei Drehbewegungen, Poynting’scher Vektor oder Lorentz-Kraft sehr einprägsam und verständlich und daher für die Vektorrechnung die gängige Methode in allen Ingenieurwissenschaften. Dagegen stellt die Tensorrechnung ein Gebiet der Mathematik dar, das zwar umfassender und allgemeiner ist, aber als schwierig gilt und nicht im Kernbereich der Universitätslehrpläne von Physik und Ingenieurwissenschaften steht und deshalb nur einem eingeschränkten Akademikerkreis als Handwerkszeug zur Verfügung steht.

11.9 11.9.1

Kronecker-Tensor 6. Stufe Definition und Komponenten

Der Kronecker-Tensor 6. Stufe stellt das tensorielle Produkt zweier ε -Tensoren dar. Von allen Komponentendarstellungen dieses Produkttensors ist nur diejenige mit symmetrischen, gemischten Komponenten von

229

11.9 Kronecker-Tensor 6. Stufe

praktischem Interesse.

δp6q “ ε ε “

3 ÿ 3 3 ÿ 3 ÿ 3 ÿ 3 ÿ ÿ

pqr i j k δ ijk g g g gp gq gr

(11.41)

i“1 j“1 k“1 p“1 q“1 r“1

Die skalaren Werte der Komponenten werden mit einem mehrfach indizierten Kronecker-Symbol bezeichnet und aus den Spatprodukten der Basisvektoren nach (11.27) und (11.30) gebildet. pqr “ εijk εpqr “ ε# ε# “ x gi , gj , gk y x gp , gq , gr y δ ijk

Die Komponenten stellen Gram’sche Determinanten nach (5.11) dar, die aus den Skalarprodukten der Basisvektoren bestehen und daher eine Determinante aus einfachen Kronecker-Symbolen bilden.      gi ¨ gp gi ¨ gq gi ¨ gr   δ p δ q δ r  i  i   i      pqr “  gj ¨ gp gj ¨ gq gj ¨ gr  “  δjp δjq δjr  δ ijk      gk ¨ gp gk ¨ gq gk ¨ gr   δ p δ q δ r  k

k

k

Mit den Komponenten (11.30) des ε -Tensors, dem Tausch von Zeilen und Spalten in der ersten Determinante und dem Determinantensatz (3.46) erhält man das gleiche Ergebnis.      δ1i δ1j δ1k   δ 1p δ 1q δ 1r      ?   1   ε ijk ε pqr “ g  δ2i δ2j δ2k  ?  δ 2p δ 2q δ 2r    g  3p 3q 3r   δ3i δ3j δ3k  δ δ δ  »¨ ˛ ¨ 1p 1q 1r ˛fi δ1i δ2i δ3i δ δ δ —˚ ‹ ˚ 2p 2q 2r ‹ffi δ δ ‚fl “ det –˝ δ1j δ2j δ3j ‚˝ δ 3p 3q δ1k δ2k δ3k δ δ δ 3r  p q   δ δ δr  i  i  i   “  δjp δjq δjr   p q r  δ δ δ  k k k pqr bzw. die darstellende Determinante ist nur für i ‰ j ‰ k Das Element δ ijk und p ‰ q ‰ r von Null verschieden, da anderenfalls zwei Zeilen oder Spalten

230

11 Spezielle Tensoren

identisch sind. Die verschiedenen Permutationen von i, j, k und p, q, r führen auf 3! ˆ 3! “ 36 nichtverschwindende von insgesamt 36 “ 729 Komponenten des Kronecker-Tensors, die folgende Werte haben. pqr δ ijk

11.9.2

pqr (zykl.)

pqr (antizykl.)

ijk (zykl.)

`1

´1

ijk (antizykl.)

´1

`1

Verjüngungen des Kronecker-Tensors

Die Verjüngung des Kronecker-Tensors wird als Skalarprodukt zwischen einem Paar reziproker Basisvektoren gebildet, wobei ein Kronecker-Symbol entsteht und sich die Tensorstufe um zwei erniedrigt. 1. Verjüngung ( r “ k ) δp4q “

3 3 ÿ 3 ÿ 3 ÿ ÿ

g i g j g p gq

i“1 j“1 p“1 q“1

3 ÿ

pqk δ ijk

k“1

Von den drei Determinanten in der Summe 3 ÿ

pqk pq1 pq2 pq3 δ ijk “ δ ij1 ` δ ij2 ` δ ij3

k“1

ist bei Erfüllung der Bedingung i ‰ j ‰ k und p ‰ q ‰ k für ein festes k nur jeweils eine einzige von Null verschieden, die sich auf ihren Hauptminor reduziert.  p q     δ δ δk   δp δq 0   p q  i  i i  i  i  δ δ       i i  pqk pq “  δjp δjq δjk  “  δjp δjq 0  “  p q  “ δip δjq ´ δiq δjp “ δ ij δ ijk δ δ  p q k    j j  δ δ δ  0 0 1 k k k Damit lautet der Kronecker-Tensor 4. Stufe δp4q “

3 ÿ 3 ÿ 3 3 ÿ ÿ i“1 j“1 p“1 q“1

pq i j δ ij g g gp gq

231

11.9 Kronecker-Tensor 6. Stufe

2. Verjüngung ( q “ j ) δp2q “

3 ÿ 3 ÿ

g i gp

i“1 p“1

In der Summe 3 ÿ

pj δ ij



p1 δi1

`

p2 δi2

j“1

`

p3 δi3

3 ÿ

pj δ ij

j“1

       δp δ1   δp δ2   δp δ3   i  i  i i  i  i  “ p ` `   δ1 1   δ2p 1   δ3p 1 

verschwinden für i ‰ p alle drei Determinanten. Für i “ p ist eine der Determinanten Null, die beiden anderen entsprechen dem Hauptminor, der Eins ist. Damit gilt für den Kronecker-Tensor 2. Stufe δp2q “ 2

3 ÿ 3 ÿ

δ ip gi gp

i“1 p“1

3. Verjüngung ( p “ i ) Der Kronecker-Tensor 0. Stufe ist ein Skalar mit dem Wert δp0q “ 2

3 ÿ i“1

δii “ 6

Kapitel 12

Hauptachsentransformation symmetrischer Tensoren Zusammenfassung Die Hauptachsentransformation symmetrischer Tensoren stellt ein wichtiges Teilgebiet dar, das auch in linearer Algebra und Matrizenkalkül große Bedeutung hat. Behandelt werden das Eigenwertproblem zur Bestimmung von Eigenwerten und Eigenvektoren, die Spektralverschiebung sowie Invarianten und Potenzen der Tensormatrizen. Untersucht werden quadratische Formen und die damit beschriebenen Tensorflächen. Bei Tensorellipsoiden läßt sich die Zuordnung der Vektoren durch die Poinsot’sche Konstruktion veranschaulichen.

12.1

Zielsetzung und Bedingungen der Transformation

Die forminvariante Abbildung des Vektors u durch den Tensor 2. Stufe T in den Vektor v, die in (9.1) definiert wurde,

v “T ¨u 232 © Springer Fachmedien Wiesbaden GmbH, ein Teil von Springer Nature 2019 W. Werner, Vektoren und Tensoren als universelle Sprache in Physik und Technik 1, https://doi.org/10.1007/978-3-658-25272-4_12

(12.1)

233

12.1 Zielsetzung und Bedingungen der Transformation

kann in beliebigen Bezugssystemen untersucht werden und die Darstellung der zugehörigen Komponenten sowie ihre Umrechnung wurden bereits ausführlich erörtert. Von großem Interesse ist die Frage, ob ein ausgezeichnetes Koordinatensystem existiert, in dem die Komponentendarstellung von T besonders einfach ausfällt. Gerade für die in der Physik am häufigsten auftretenden symmetrischen Tensoren T ” S der 2. Stufe ist es stets möglich, ein Bezugssystem zu finden, in dem nur die Diagonalglieder der ko- und kontravarianten Tensormatrizen von Null verschieden sind. Die Diagonalisierung der Tensormatrizen und das Auffinden des zugehörigen Koordinatensystems wird Hauptachsentransformation genannt. Das spezielle Bezugssystem, das sich als orthogonal herausstellt, heißt Hauptachsensystem, dessen Koordinaten mit ξ, η, ζ bezeichnet werden. Die Matrizen werden mit HA indiziert oder sie erhalten ein Dach im neuen System. Die obige Vektorabbildung nimmt für einen symmetrischen Tensor S als Matrixgleichung v “ S u folgende einfache Gestalt im Hauptachsensystem an.

v HA

¨ ˛ ¨ ˛¨ ˛ vξ Sξ 0 0 uξ ˚ ‹ ˚ ‹˚ ‹ ˆ “v ˆ “ ˝vη ‚ “ ˝ 0 Sη 0 ‚˝uη ‚ “ S u ˆ “ S HA u HA 0 0 Sζ vζ uζ

(12.2)

Für Tensor und Vektorabbildung gelten folgende Darstellungen. ` ˘T ## S “ eT S e “ g S g “ eTHA S HA e HA #

#

v “ S ¨ u “ v ξ eξ ` v η eη ` v ζ eζ “ S ξ u ξ eξ ` S η u η eη ` S ζ u ζ eζ Fällt der Vektor u in eine der drei Hauptachsenrichtungen, dann hat der abgebildete Vektor v die gleiche Richtung, so dass in diesem Fall beide Vektoren parallel sind. Beispielsweise gilt v “ v ξ eξ “ S ξ u ξ eξ

für u “ uξ eξ

bei uη “ uζ “ 0

In dem besonderen Hauptachsensystem müssen die Tensorkomponenten die Diagonalform ihrer ko- und kontravarianten Matrizen erfüllen, in den rezi-

234

12 Hauptachsentransformation

proken Basissystemen also ˆ ## “ S ## ˆ ## S “ ˆ D HA ˆ ## “ S## S HA

ˆ ## “ ˆ D

Damit bei der Umrechnung der Tensormatrizen nach Tabelle 9.1 die Maˆ trixmultiplikationen tatsächlich auf Diagonalform der S-Matrizen führen, ˆ ## G ˆ#“G ˆ ## G ˆ# ˆ #S ˆ #D ˆ ## “ G S

Ñ

ˆ ## D

ˆ ## “ G ˆ ## G ˆ#“G ˆ ## G ˆ# ˆ #S ˆ #D S

Ñ

ˆ ## D

müssen nach (3.29) bis (3.31) die beiden Metrikmatrizen selbst Diagonalform besitzen! Daher muss gelten, ˆ # “ Diag pˆ ˆ#“Δ G gkk q ˆ # “ Diag pˆ ˆ# “ Δ G g kk q was nach (6.18) oder Tabelle 6.1 für die reziproken Basisvektoren ˆ #g ˆ #g g ˆ “G ˆ# “ Δ ˆ# #

ˆ#g ˆ g ˆ# “ G

#

ˆ#g “Δ ˆ

#

die Forderung nach sich zieht, dass die ko- und kontravarianten Vektoren g ˆk und g ˆk bei gleichem Index k einander proportional sind und damit in die gleiche Richtung weisen! Da ko- und kontravariante Basissysteme stets die Reziprozitätsbedingung erfüllen müssen, hat diese Richtungsgleichheit die Orthogonalität beider Systeme zur Folge, was nach Abschnitt 6.6.5 die Aufhebung der Kound Kontravarianz bedeutet und anhand der Abbildung 6.1 überprüft werden kann. Man erhält damit folgende zwingende Aussage. Die Hauptachsenrichtungen eines symmetrischen Tensors stehen paarweise aufeinander senkrecht und bilden ein orthogonales Koordinatensystem! (12.3) Um die Koordinatensysteme zu unterscheiden, wird das kartesische System wie bisher mit den Basisvektoren e und den Indizes x, y, z bzw. 1, 2, 3, das orthogonale Hauptachsensystem dagegen mit e HA oder den Indizes ξ, η, ζ gekennzeichnet.

235

12.2 Durchführung der Transformation

12.2 12.2.1

Durchführung der Transformation Aufstellung der Gleichungssysteme

Aus den gegebenen Komponenten S ## oder S## eines symmetrischen Tensors S werden zunächst die symmetrischen, kartesischen Komponenten S nach Tabelle 9.1 berechnet. Falls S im konkreten Fall bereits vorliegt, ist dieser Schritt natürlich nicht erforderlich! e “ VT g

#

“ UT g #

S “ VT S ## V “ UT S## U “ ST Eine orthogonale Transformation mit noch unbekannter und zu bestimmender orthogonaler Matrix A, die ja einer Drehung des Koordinatensystems entspricht, soll dann die kartesische Basis e in das orthogonale Hauptachsensystem e HA überführen, und eine Kongruenztransformation nach (3.18) soll die kartesischen Komponenten S auf Diagonalform S HA der Hauptachsenkomponenten bringen. e HA “ A e

S HA “ A S AT “ D “ Diag pdk q

(12.4)

` ˘´1 “ A gewinnt man zur Bestimmung Nach Rechtsmultiplikation mit AT der Diagonalglieder der symmetrischen Matrix S HA das homogene Gleichungssystem der Hauptachsentransformation. AS ´ DA “ 0 Multipliziert man die ausführliche ¨ ˛¨ a11 a12 a13 S11 S12 ˚ ‹˚ ˝a21 a22 a23 ‚˝S12 S22 a31 a32 a33 S13 S23 ¨ d1 0 ˚ ´ ˝ 0 d2 0 0

(12.5)

Matrixform aus, ˛ S13 ‹ S23 ‚ S33 ˛ ˛¨ ˛ ¨ a11 a12 a13 0 0 0 0 ‹ ‹˚ ‹ ˚ 0 ‚˝a21 a22 a23 ‚ “ ˝0 0 0‚ 0 0 0 d3 a31 a32 a33

236

12 Hauptachsentransformation

dann ergeben sich neun Gleichungen, von denen die drei Zeilen der Matrix A jeweils ein homogenes Gleichungssystem liefern, insgesamt also drei, deren Koeffizientenmatrizen bis auf die Unbekannten dk für k “ 1, 2, 3 identisch sind. ˛¨ ˛ ¨ ˛ ¨ ak1 0 S12 S13 S11 ´ dk ‹˚ ‹ ˚ ‹ ˚ S22 ´ dk S23 ‚˝ak2 ‚ “ ˝0‚ ˝ S12 0 S13 S23 S33 ´ dk ak3

12.2.2

(12.6)

Charakteristische Gleichung und Bestimmung der Eigenwerte

Die drei homogenen Gleichungssysteme haben die gleiche Koeffizientenmatrix und damit die gleiche Determinante, in der man die Elemente d1 , d2 , d3 in der Diagonale, die ja noch unbekannt sind, durch eine einzige unbekannte Variable S ersetzen kann. Der Spaltenvektor a k enthält die Elemente der k-ten Zeile der noch unbekannten Matrix A. `

ak

˘T

˘T ` ˘ ` “ ˆ a k# “ ak1 , ak2 , ak3

pk “ ξ, η, ζq

(12.7)

Damit kann man (12.6) zusammenfassen. `

˘ S ´ S E ak “ 0

Die Bestimmung der Werte S und der zugehörigen Spaltenvektoren a k bilden das Eigenwertproblem. Da ein homogenes Gleichungssystem nur dann nichttriviale Lösungen besitzt, wenn die Determinante seiner Koeffizientenmatrix verschwindet, lautet die Forderung für die Lösbarkeit des ˘Systems, dass die Determinante der ` charakteristischen Matrix S ´ S E Null sein muss. Die Matrix muss also singulär sein und daher den Rangabfall d ě 1 aufweisen! ˘ ` P pSq ” det S ´ S E “ 0

(12.8)

237

12.2 Durchführung der Transformation

Nach Entwicklung der Determinante erhält man eine Gleichung 3. Grades in der Unbekannten S, die charakteristische oder Säkulargleichung oder auch charakteristisches Polynom P pSq heißt. Symmetrische Matrizen S “ ST besitzen drei reelle Wurzeln Sξ , Sη , Sζ , die Eigenwerte der Matrix S heißen. Speziell bei positiv definiter symmetrischer Matrix S sind alle Eigenwerte positiv. Diese Wurzeln oder Eigenwerte des charakteristischen Polynoms bilden nach algebraischer oder numerischer Berechnung die Diagonalglieder der Matrix S HA des symmetrischen Tensors S im orthogonalen Hauptachsensystem. ` ˘ ` ˘ S HA “ Diag Sk “ Diag Sξ , Sη , Sζ

(12.9)

Mit der Bestimmung der Eigenwerte ist der erste Teil des Eigenwertproblems (12.4) bzw. (12.5) abgeschlossen.

12.2.3

Bestimmung der Eigenvektoren

Als Lösungen der drei homogenen Gleichungssysteme (12.6) mit den nunmehr bekannten Eigenwerten Sk müssen im zweiten Teil des Eigenwertproblems die Eigenvektoren a k ermittelt werden, `

˘ S ´ Sk E a k “ 0

S a k “ Sk a k

pk “ ξ, η, ζq

(12.10)

deren Elemente die orthogonale Transformationsmatrix A bestimmen. Eine zweite Interpretation des Eigenwertproblems besteht darin, bei der linearen Abbildung S x “ Sk x diejenigen Vektoren x “ a k aufzufinden, die durch die Matrix S bis auf einen skalaren Faktor in sich selbst überführt werden. Es liegt also eine Proportionalitätsabbildung mit Streckung oder Stauchung vor. In der Funktionalanalysis heißt ein solcher Lösungsvektor Fixpunkt x der Abbildung S x “ x. Bei symmetrischer Matrix S sind die Eigenvektoren a k linear unabhängig, und zwar entweder zueinander orthogonal oder orthogonalisierbar. Wie man sie berechnet, wird weiter unten beschrieben.

238

12 Hauptachsentransformation

Die auf den Betrag Eins normierten Eigenvektoren a˚k der Matrix S bilden die Spaltenvektoren der orthogonalen Modalmatrix X . ˘ ` X “ a˚ξ , a˚η , a˚ζ

XT “ X´1

} a˚k } “ 1

(12.11)

Mit der Modalmatrix kann die Lösung des Eigenwertproblems nach Zusammenfassung der drei Eigenvektorgleichungen S a˚k “ Sk a˚k in erweiterter Gestalt formuliert werden, bei der die Diagonalmatrix S HA der Eigenwerte nach (3.31) in Rechtsmultiplikation auftritt. ` ˘ S X “ X Diag Sk “ X S HA

XT S X “ S HA

(12.12)

Die symmetrische Tensormatrix S wird durch Kongruenztransformation mit der orthogonalen Modalmatrix X ihrer Eigenvektoren in die reelle Diagonalmatrix S HA ihrer Eigenwerte transformiert.

12.2.4

Orthogonale Transformationsmatrix

Aus dem Vergleich von (12.4) und (12.12) ergibt sich die orthogonale Transformationsmatrix A durch Transponierung aus der Modalmatrix, ` ˘´1 A “ XT “ X´1 “ AT

(12.13)

womit die normierten Eigenvektoren a˚k den Spalten von X bzw. den Zeilen von A entsprechen. ¨ ` ˚ ˘T ˛ aξ ˚ ` ˚ ˘ ` ˘ ‹ ˚ T ‹ X “ a ξ , a˚η , a˚ζ Ø A“˚ a η ‚ ˝ ` ˚ ˘T aζ Die Hauptachsenvektoren e HA werden durch Umrechnung mit den orthogonalen Matrizen aus den kartesischen Basisvektoren ermittelt. e HA “ A e “ XT e

(12.14)

12.2 Durchführung der Transformation

12.2.5

239

Berechnung der Eigenvektoren

Für das homogene Gleichungssystem (12.10) mit symmetrischer Matrix S sei der Eigenwert Sk “ μ bekannt, es gilt also ` ` ˘ ˘ mit det S ´ μ E “ 0 S ´ μE aμ “ 0 Die Eigenvektoren sind in ihrem Betrag unbestimmt. Denn mit a μ ist auch der proportionale Vektor α a μ bei beliebigem reellen α Lösung des homogenen Systems, so dass man die Eigenvektoren normieren kann. Hat die charakteristische Matrix S ´ μ E den Rang rg “ 2 bzw. den Rangabfall d “ 1, dann gibt es zu einem einfachen Eigenwert μ genau einen linear unabhängigen Eigenvektor a μ von unbestimmtem Betrag, d.h. eine Eigenrichtung. Da die Eigenvektoren in ihrem Betrag beliebig sind, wird z.B. die dritte Komponente zu aμ3 “ 1 festgelegt, ˛¨ ˛ ¨ ¨ ˛ .. S12 S11 ´ μ . S13 ‹ ˚aμ1 ‹ ˚ ˚0‹ ‹˚ ‹ ˚ ˚ ‹ .. ˚ ‹ ˚ S12 ˚ ‹ S22 ´ μ . S23 ‹ ‹ ˚aμ2 ‹ “ ˚ 0 ‹ ˚ ˚ ‹ ˚ ¨¨¨¨¨¨ ˚¨ ¨ ¨‹ ¨¨¨¨¨¨ ¨ ¨¨¨¨¨¨ ‹ ‚˝ ¨ ¨ ¨ ‚ ˝ ˝ ‚ .. 1 0 S23 S13 . S33 ´ μ so dass man aus den beiden ersten Zeilen des homogenen Gleichungssystems ˜ ˜ ¸ ¸˜ ¸ S11 ´ μ S13 S12 aμ1 “ ´ S12 S22 ´ μ aμ2 S23 die unbekannten Komponenten aμ1 und aμ2 mit der Kehrmatrix nach (3.22) berechnen kann. Mit den ermittelten Werten kann dann die Genauigkeit der numerischen Lösung mit der dritten Zeile anhand des Residuums ε überprüft werden. S13 aμ1 ` S23 aμ2 ` S33 ´ μ “ ε « 0 Für einfache Eigenwerte μ “ S ξ, η, ζ erhält man auf diese Weise die drei orthogonalen Eigenvektoren a ξ , a η , a ζ , deren Komponenten die orthogonalen Richtungen im Raum und damit die Hauptachsen e HA bestimmen. Bei mehrfachen Eigenwerten kann man die Eigenvektoren orthogonal auswählen, sie also orthogonalisieren, was in den Abschnitten 12.6.3 und 5.3.2 (Bd. II) demonstriert wird.

240

12.2.6

12 Hauptachsentransformation

Normierung der Eigenvektoren

Um die Eigenvektoren ak nach (12.7) endgültig festzulegen, werden sie so normiert, dass ihr Betrag und damit die Zeilennormen von A Eins sind. ¨ ˛ ak1 b 1 ˚ ‹ ak a “ Nk “ } a k } “ a2k1 ` a2k2 ` 1 Ñ a˚k “ ˝ k2 ‚ }ak } Nk 1 Die Hauptachsenvektoren (12.4) werden mit den normierten Werten zu Einheitsvektoren. ˘ 1 ` e k HA “ ak1 ex ` ak2 ey ` ez Nk Damit folgen für Zeilennormen und Hauptachsenvektoren | a˚k | “ } a˚k } “

12.2.7

b`

a˚k

˘T

a˚k “ 1

| e k HA | “ 1

(12.15)

Ebener Fall und Mohr’scher Kreis

Aus physikalischen Gründen tritt manchmal der Fall auf, dass die beiden Vektoren u und v der Abbildung (12.1) nur in einer Ebene liegen können. Legt man das kartesische Koordinatensystem so, dass die Vektoren keine z-Komponenten haben, dann lautet die Operatorgleichung ˛¨ ˛ ¨ ˛ ¨ ux Sxx Sxy 0 vx ‹˚ ‹ ˚ ‹ ˚ v “ ˝vy ‚ “ ˝Sxy Syy 0‚˝uy ‚ “ S u 0 0 1 0 0 Das Hauptachsensystem kann in diesem Fall nur ein System sein, das gegenüber dem kartesischen mit dem Winkel ϕ um die gemeinsame z-Achse gedreht ist. Die Kongruenztransformation nach (12.4), die die symmetrische Tensormatrix S in die Diagonalform der Eigenwerte (12.9) verwandelt, wird dann mit der Matrix der ebenen Drehung (6.34) durchgeführt. ˛ ¨ Sξ ˚ 0 ‹ ˚ S η 0‚ S HA “ Aϕ S AT ϕ “˝˚ 0 0 1

241

12.2 Durchführung der Transformation

Nach Ausführung der Multiplikationen erhält man an den Positionen mit Stern (*) den folgenden Ausdruck, der natürlich Null sein muss. p˚q “ Sxy pcos2 ϕ ´ sin2 ϕq ´ pSxx ´ Syy q sin ϕ cos ϕ “ 0 Löst man die Gleichung auf, dann erhält man als Ergebnis den Drehwinkel ϕ und damit die Orientierung zwischen dem kartesischen und dem Hauptachsensystem. 2 Sxy cos 2ϕ “ pSxx ´ Syy q sin 2ϕ tan 2ϕ “

2 Sxy Sxx ´ Syy

Für die beiden Diagonalelemente, also die Eigenwerte von S, ergibt sich Sξ “ Sxx cos2 ϕ ` Syy sin2 ϕ ` Sxy sin 2ϕ Sη “ Sxx sin2 ϕ ` Syy cos2 ϕ ´ Sxy sin 2ϕ Der Zusammenhang zwischen kartesischen und Hauptachsenkomponenten kann geometrisch interpretiert werden, wenn man die obige Transformationsgleichung umkehrt. ˛ ¨ Sxx Sxy 0 ‹ ˚ S “ AT ϕ S HA Aϕ “ ˝Sxy Syy 0‚ 0 0 1 ¨ ˛ Sξ cos2 ϕ ` Sη sin2 ϕ pSξ ´ Sη q sin ϕ cos ϕ 0 ‹ ˚ “ ˝ pSξ ´ Sη q sin ϕ cos ϕ Sξ sin2 ϕ ` Sη cos2 ϕ 0‚ 0 0 1 Dann gelten folgende Beziehungen. Sxx “ Sξ cos2 ϕ ` Sη sin2 ϕ “

1 1 pSξ ` Sη q ` pSξ ´ Sη q cos 2ϕ 2 2

Sxy “ pSξ ´ Sη q sin ϕ cos ϕ “

1 pSξ ´ Sη q sin 2ϕ 2

(12.16)

242

12 Hauptachsentransformation

In einem Koordinatensystem mit den Achsen Sxx und Sxy beschreiben diese Gleichungen einen Kreis, der Mohr’scher Kreis heißt (Abbildung 12.1) und beim ebenen Spannungszustand der Mechanik im Abschnitt 4.2.6 (Bd. II) auftritt. Man kann die geometrische Deutung auch leicht in der komplexen z-Ebene für den Zeiger z “ Sxx ` jSxy veranschaulichen. Im Fall Sξ ą Sη ą 0 durchläuft ein Punkt P den Kreis für ϕ “ 0 .. π von A über B, C, D zurück nach A.

 







    









 





Abb. 12.1: Mohr’scher Kreis Dabei gelten die folgenden vier Werte SxxA “ Sξ ,

SxxC “ Sη ,

SxxM “

1 pSξ ` Sη q, 2

R“

1 pSξ ´ Sη q 2

Die zweite Darstellungsmöglichkeit mit den Beziehungen 1 1 pSξ ` Sη q ´ pSξ ´ Sη q cos 2ϕ 2 2 1 “ pSξ ´ Sη q sin 2ϕ 2

Syy “ Sxy

bietet nichts grundsätzlich Neues, weil der Mohr’sche Kreis lediglich in anderer Weise durchlaufen wird. Je nach den Werten und Vorzeichen der Eigenwerte Sξ und Sη kann derMohr’sche Kreis rechts oder links von der Ordinate liegen, sie schneiden oder berühren. Für den Fall Sξ “ Sη entartet der Kreis zu einem Punkt.

243

12.3 Invarianten bei Matrixtransformationen

Für die Tensormatrix und ihre Hauptachsenmatrix gelten die invarianten Beziehungen 2 det S “ Sxx Syy ´ Sxy “ det S HA “ Sξ Sη

sp S “ Sxx ` Syy ` 1 “ sp S HA “ Sξ ` Sη ` 1 Aus den Umrechnungen der Tensorkomponenten folgen damit Beziehungen, die als Tensorinvarianten bei der Drehung des Koordinatensystems unverändert bleiben und die jetzt näher untersucht werden.

12.3 12.3.1

Invarianten bei Matrixtransformationen Charakteristische Größen der Matrix

Das charakteristische Polynom einer Matrix R, die nicht symmetrisch sein muss, lautet gemäß (12.8), wenn man beide Summanden vertauscht ` ˘ P pλq “ det λ E ´ R “ 0 Entwickelt man die Determinante nach λ, so entsteht ein Polynom 3. Grades, das man nach dem Fundamentalsatz der Algebra in die Linearfaktoren seiner Nullstellen und damit der Eigenwerte der Matrix zerlegen kann. P pλq “ λ3 ` α2 λ2 ` α1 λ ` α0 “ pλ ´ λ1 q pλ ´ λ2 q pλ ´ λ3 q “ 0 Führt man die Determinantenentwicklung durch und multipliziert die Linearfaktoren aus, so erhält man aus dem Vergleich gemäß dem Wurzelsatz von Vieta drei charakteristische skalare Größen der Matrix, ihre Spur sp R , ihre Summe der Minoren som R (sum of minors) und ihre Determinante det R . ´ α2 “ sp R

“ R11 ` R22 ` R33 “ λ1 ` λ2 ` λ3

 R  11 R12 ` α1 “ som R “   R21 R22

   R   11 R13 `   R31 R33

“ λ1 λ2 ` λ 1 λ3 ` λ2 λ3 ´ α0 “ det R

“ λ1 λ2 λ3

   R   22 R23 `   R32 R33

    

(12.17)

244

12 Hauptachsentransformation

Alle drei Größen werden durch die Eigenwerte λk der Matrix bestimmt!

12.3.2

Invarianten bei Ähnlichkeitstransformation

Für beliebige Matrizen A und B werden durch Ähnlichkeitstransformation ˆ erzeugt. zwei Matrizen R bzw. R R “ B A B´1

ˆ “ B´1 A B R

(12.18)

Bei diesen Transformationen bleiben verschiedene Größen der zueinander ˆ erhalten und bilden daher Invarianten ähnlichen Matrizen A und R bzw. R der Transformation. Für die charakteristische Gleichung von R gilt nach Erweiterung und dem Determinantensatz (3.46) ` ˘ det p R ´ λ E q “ det B A B´1 ´ λ B E B´1 “ ` ˘ ‰ “ det B A ´ λ E B´1 ` ˘ “ loooooooomoooooooon det B det B´1 det A ´ λ E “1

ˆ durchgeführt werden. Daraus und eine entsprechende Rechnung kann für R folgt die Gleichheit der charakteristischen Polynome der drei Matrizen A, ˆ, R und R ` ˘ ` ˘ ` ˘ ˆ ´ λE det A ´ λ E “ det R ´ λ E “ det R

(12.19)

die daher auch die gleichen Eigenwerte besitzen. Nach (12.17) haben sie gleiche Werte für Determinante, Spur und Summe der Minoren, die die Invarianten der zueinander ähnlichen Matrizen bilden! ˆ det A “ det R “ det R sp A “ sp R

ˆ “ sp R

(12.20)

ˆ som A “ som R “ som R Die Aussagen dieses Abschnitts gelten bei beliebiger Matrix A aber orthogonaler Matrix BT “ B´1 ebenso für die Kongruenztransformation!

245

12.3 Invarianten bei Matrixtransformationen

12.3.3

Spektralverschiebung

Betrachtet wird die Ausgangsmatrix B und die zugeordnete Matrix C, (12.21)

C “ αB ` pE

die sich durch die Zahlen α und p im Niveau der Elemente und in der Hauptdiagonale unterscheidet. Die Matrix B möge als Gesamtheit der Eigenwerte das Spektrum λB besitzen, so dass gilt ` ˘ det B ´ λ E “ 0 Ñ λB “ tλk u Dann ist das Spektrum λC der Matrix C gegenüber dem Spektrum λB in systematischer Weise verändert, denn die Eigenwerte erfahren eine allgemeine Spektralverschiebung. ” ” ` ` ˘ λ ´ p ˘ı λ´p ı det C ´ λ E “ det α B ´ E E “0 “ αn det B ´ α α ˘ ` det C ´ λ E “ 0

Ñ

λC “ αλB ` p

(12.22)

Bei Spektralverschiebung der Eigenwerte besitzen die Matrizen B und C dagegen die gleichen Eigenvektoren! Wenn μ Eigenwert von B ist, dann folgt für C mit dem Eigenwert αμ ` p ` ˘ ‰ “ ` ˘ ‰ “ C ´ αμ ` p E x “ αB ` pE ´ αμ ` p E x “

˘ ` ˘ ‰ ` C ´ αμ ` p E x “ 0 “ ˆ B ´ μE x “ 0

bei gleichem x

(12.23) Da ihre Eigenvektoren identisch sind, besitzen beide Matrizen B und C auch die gleiche Modalmatrix X und damit das gleiche Hauptachsensystem. Beide Matrizen werden daher mit der gleichen orthogonalen Matrix A in die Diagonalform ihrer jeweiligen Eigenwerte transformiert. A B AT “ B HA “ Diag pλB q ` ˘ A C AT “ A αB ` pE AT “ αB HA ` pE “ C HA “ Diag pαλB ` pq “ Diag pλC q

246

12 Hauptachsentransformation

12.3.4

Matrixpotenzen

Nach dem Theorem von Cayley-Hamilton erfüllt eine Matrix ihr eigenes charakteristisches Polynom, [1, S. 178]. Gilt also für eine reguläre Matrix R, P pλq “ det p λE ´ R q “ λ3 ` α2 λ2 ` α1 λ ` α0 “ 0 dann gilt auch die Beziehung, P pRq “ R3 ` α2 R2 ` α1 R ` α0 E “ 0 woraus dann mit (12.17) folgt R3 “ R2 sp R ´ R som R ` E det R

(12.24)

Multipliziert man diese Gleichung mit R bzw. R´1 und fasst zusammen, dann folgen die beiden Resultate ` ˘ ` ˘ R4 “ R2 sp 2 R ´ som R ` R det R ´ sp R som R ` E sp R det R R´1 “

‰ 1 “ 2 R ´ R sp R ` E som R det R

Das kann man beliebig fortsetzen, so dass sich jede ganzzahlige Potenz einer regulären 3 ˆ 3 -Matrix durch die Grundmatrix, ihr Quadrat und ihre drei skalaren Invarianten ausdrücken läßt.

12.3.5

Eigenwerte und Eigenvektoren von Potenzen symmetrischer Matrizen

Jede symmetrische Matrix S kann nach Gleichung (12.4) mit der orthogonalen Matrix A ihrer Eigenvektoren (12.13) diagonalisiert werden, A S AT “ S HA “ Diag pSk q wobei S und S HA nach (12.19) die gleichen Eigenwerte Sk “ S ξ, η, ζ besitzen. Das Quadrat der Matrix S ist mit der gleichen Matrix A diagonalisierbar AT A S AT “ S HA S HA “ S2HA “ Diag pSk2 q A S2 AT “ A S loomoon “E

247

12.3 Invarianten bei Matrixtransformationen

und ebenso alle höheren Potenzen. Auch die inverse Matrix S´1 läßt sich mit A diagonalisieren, denn es gilt `

S HA

˘´1

` ˘´1 ` T ˘´1 ´1 ´1 “ A S AT “ A S A “ A S´1 AT “ Diag p1 {Sk q

Für die Potenzen symmetrischer Matrizen S folgt damit Sn besitzt die Eigenwerte Sξn , Sηn , Sζn für n “ ˘1, 2, . . .

(12.25)

Für die Matrixinvarianten gelten damit folgende Beziehungen. sp Sn “ Sξn ` Sηn ` Sζn ˘n ` ˘n ` ˘n ` som Sn “ Sξ Sη ` Sξ Sζ ` Sη Sζ ˘n ` det Sn “ Sξ Sη Sζ Die symmetrische Matrix S besitzt für den Eigenwert μ den Eigenvektor x, der das Eigenwertproblem löst. `

˘ S ´ μE x “ 0

bzw.

Sx “ μx

Bei Multiplikation mit S und S´1 folgt, S 2 x “ μ S x “ μ2 x S´1 S x “ x “ μ S´1 x

Ñ

S´1 x “

1 x μ

was sich beliebig beim gleichen Eigenvektor x fortsetzen läßt. `

˘ S n ´ μn E x “ 0

für

n “ ˘1, 2, . . .

Ganzzahlige Potenzen symmetrischer Matrizen S besitzen die gleichen Eigenvektoren und damit das gleiche orthogonale Hauptachsensystem!

(12.26)

248

12.3.6

12 Hauptachsentransformation

Deviator

Der Deviator ist ein spezieller symmetrischer Tensor 2. Stufe, dessen Matrix die Spur Null hat. Damit besitzt ein Deviator nur fünf unabhängige Elemente, wobei die Werte der Diagonalelemente in der Darstellung der kovarianten Tensormatrix auch anders verteilt sein können. D11 D12

D13

˛

˚ Dv “ ˝ D12 D22

D23

‹ ‚

¨

(12.27)

D13 D23 ´D11 ´ D22 Nach (12.17) ist dann die Summe der Eigenwerte Null, so dass sie nicht alle das gleiche Vorzeichen haben können. Benutzt man diese Eigenschaft der verschwindenden Spur, dann lassen sich die Deviatorinvarianten durch die Spuren der Potenzen der Deviatormatrix darstellen. sp Dv “ D11 ` D22 ` D33 “ λξ ` λη ` λζ “ 0 ˘ 1 ` som Dv “ ´ sp Dv2 2 ˘ 1 ` det Dv “ ` sp Dv3 3

12.3.7

Tensorinvarianten

Die Umrechnung der Tensormatrizen im gleichen Basissystem nach Tabelle 9.1 führt für Determinanten und Spur bei Anwendung der Regeln (3.43) sowie der Gleichungen (6.20) und (6.21) auf folgende Ergebnisse von einfacher Form. ¨# “ det T# det T “ det T# ¨#

1 det T ## “ det T g ¨# sp T “ sp T#

“ g det T##

(12.28)

“ sp T# ¨#

Da die Umrechnungen im gleichen Basissystem wie auch bei Basiswechsel nach Tabelle 9.2 nicht in allen Fällen Kongruenztransformationen darstellen, bleiben Determinante und Spur der Matrizen nicht immer unverändert.

249

12.3 Invarianten bei Matrixtransformationen

In den Tabellen 12.1 und 12.2 sind die Ergebnisse zusammengefasst, wobei die invarianten Beziehungen farblich hervorgehoben sind. Bei Basiswechsel erhält man aus den Tabellen ergänzend zu den letzten Beziehungen das Ergebnis, dass Determinanten und Spuren der kartesischen und gemischten Tensormatrizen in direkter Form invariant sind. ¨#

ˆ # “ det T ˆ ¨ # “ det T “ det T ¨ # “ det T# ˆ “ det T det T # ¨# #

¨# ¨# # ˆ “ sp T ˆ# ˆ# sp T “ sp T ¨ # “ sp T “ sp T# “ sp T ¨ #

12.3.8

(12.29)

Tensorprodukt bei Orthogonaltransformation

Das Skalarprodukt zweier Tensoren, die kartesisch dargestellt werden, lautet , ˆ ˆ e . eT M M “ eT M e “ ˆ Ñ K “M ¨N ˆˆ e eT N N “ eT N e “ ˆ Der Basiswechsel zwischen zwei orthogonalen Koordinatensystemen wird wie bisher durch eine orthogonale Matrix A beschrieben. Die Umrechnung der Komponenten erfolgt durch Kongruenztransformation und die kartesischen Elemente ergeben sich nach (3.13). ˆ “M ˆ “ A K AT “ A M N AT “ A M AT A N AT ˆ N K ˆ “ A M AT M

Ñ

ˆ ik “ M

3 3 ÿ ÿ

Mpq aip akq

p“1 q“1

ˆ “ A N AT N

Ñ

ˆik “ N

3 3 ÿ ÿ

Nrs air aks

r“1 s“1

Nach (12.29) bleiben die Spuren bei Basiswechsel gleich. 3 3 ÿ 3 ÿ ˘ ÿ ` ˆ “ sp K “ sp M ˆ ii “ ˆ ip N ˆpi ˆ “ ˆ N sp K K M

˘ “ sp M N “ `

i“1

i“1 p“1

3 ÿ

3 ÿ 3 ÿ

i“1

Kii “

i“1 p“1

Mip Npi

250

12 Hauptachsentransformation

Für den Produkttensor, bei dem ein Faktor transponiert ist, gilt dann wegen der Transponierung K

˚

“ M ¨ NĂ

3 3 ÿ 3 ÿ ÿ ` ˚ T˘ ˚ ˚ ˆ ˆ ˆ ip N ˆip ˆ ˆ Kii “ M sp K “ sp K “ sp M N “ i“1 p“1

i“1 3 ÿ

˘ ` “ sp M NT “

Kii˚ “

i“1

12.4

Quadratische Formen

12.4.1

Definition und Auftreten

3 ÿ 3 ÿ

Mip Nip

i“1 p“1

Unter einer reellen quadratischen Form in n Veränderlichen xk versteht man folgenden homogenen Ausdruck zweiten Grades. Q “ a11 x1 x1 ` 2 a12 x1 x2 ` . . . ` 2 a1n x1 xn ` a22 x2 x2 ` . . . ` 2 a2n x2 xn .. .. . . ` ann xn xn Sind insbesondere die Koeffizienten symmetrisch, aik “ aki , dann ergibt sich für die quadratische Form Q“

x1 pa11 x1 ` a12 x2 ` . . . ` a1n xn q ` x2 pa21 x1 ` a22 x2 ` . . . ` a2n xn q .. .. .. . . . ` xn pan1 x1 ` an2 x2 ` . . . ` ann xn q “

n ÿ n ÿ

aik xi xk

i“1 k“1

Q “ xT A x

xT “ px1 , x2 , . . . , xn q

A “ AT

(12.30)

Die quadratische Form Q ist gemäß der Matrixmultiplikation eine einzelne skalare Größe.

251

12.5 Tensorflächen

Hat A Diagonalform, so reduziert sich Q auf eine Summe von Quadraten. Bei schiefsymmetrischer Matrix A “ ´ AT , ist Q gleich Null. Quadratische Formen treten auf als Energieausdrücke für ‚ kinetische und potentielle Energie mechanischer Systeme ‚ elektrische und magnetische Energie in der Elektrodynamik In der Mathematik treten Ausdrücke Q “ const. auf als Mittelpunktsgleichungen von Quadriken. Eine Quadrik ist ein quadratisches Polynom mit n Unbekannten. ‚ Kurven zweiter Ordnung

(Kegelschnitte für n “ 2)

‚ Flächen zweiter Ordnung

(Raumflächen für n “ 3)

Für quadratische Formen mit symmetrischen Koeffizienten gilt der Euler’sche Homogenitätssatz.

Q“

n ÿ n ÿ

aij xi xj

i“1 k“1

12.4.2

Ñ

n ÿ BQ xi “ 2Q Bxi i“1

(12.31)

Klassifizierung

Quadratische Formen und ihre Matrizen heißen ‚ positiv definit für

Q “ xT A x ą 0

@x‰0

‚ positiv semidefinit für

Q “ xT A x ě 0

@x‰0

Für positiv definites Q ą 0 ist die Matrix A regulär mit det A ‰ 0 und die Spaltenvektoren x und A x können nicht orthogonal sein.

12.5 12.5.1

Tensorflächen Erzeugung quadratischer Formen

Jeder symmetrische Tensor S erzeugt eine quadratische Form, wenn man das doppelte Skalarprodukt a ¨ S ¨ a mit einem Vektor bildet.

252

12 Hauptachsentransformation

Zur geometrischen Interpretation dieser Form als Raumfläche reicht es aus, an Stelle des tatsächlich auftretenden physikalischen Vektors a den Ortsvektor r im kartesischen System für die Multiplikation zu verwenden. Q “ r ¨ S ¨ r “ xT S x “ const. Bei konstanten Werten definiert die quadratische Form Mittelpunktsflächen 2. Ordnung im Raum, die sog. Tensorflächen. Als Repräsentant der gesamten Flächenschar wird die spezielle Fläche mit dem Scharparameter Eins angesehen.

Q “ r ¨ S ¨ r “ x Sx “ T

3 ÿ 3 ÿ

Sik xi xk “ 1

(12.32)

i“1 k“1

Als Tensorflächen können sowohl Ellipsoide als auch ein- oder zweischalige Hyperboloide auftreten. Für symmetrische planare Dyaden treten als Ausartung Zylinderflächen auf.

12.5.2

Hauptachsentransformation und Tensorellipsoid

Die Komponentenmatrizen physikalisch auftretender Tensoren sind regulär und meistens symmetrisch mit positiv definiten quadratischen Formen. Physikalische Vektoren sind stets endlich, so dass dann bei der geometrischen Beurteilung wegen | r | ă 8 alle Raumflächen ausgeschlossen werden, die sich ins Unendliche erstrecken. Bei positiv definiten Tensormatrizen erhält man durch Hauptachsentransformation die Diagonalmatrix S HA mit drei reellen, positiven Eigenwerten Sk . Die quadratische Form reduziert sich auf eine Summe von Quadraten und im Hauptachsensystem ξ, η, ζ gilt Q “ r ¨ S ¨ r “ Sξ ξ 2 ` Sη η 2 ` Sζ ζ 2 “ 1 Als Mittelpunktsfläche 2. Ordnung ergibt sich ein Tensorellipsoid mit der Gleichung ´ ξ ¯2 a

`

´ η ¯2 b

`

´ ζ ¯2 c



ξ2 η2 ζ2 ` ` “1 1 { Sξ 1 { Sη 1 { Sζ

253

12.5 Tensorflächen

Die Achsen des Ellipsoids entsprechen den orthogonalen Hauptachsen des Tensors und die reziproken Eigenwerte bilden die Längen seiner Halbachsen a, b, c. Treten bei der Hauptachsentransformation symmetrischer Tensoren negative Eigenwerte auf, dann stellt die Tensorfläche bei einem negativen Eigenwert ein einschaliges, bei zwei negativen Eigenwerten ein zweischaliges Hyperboloid dar.

12.5.3

Poinsot’sche Konstruktion

Bei der Vektorabbildung gilt für den Vektor v “ S ¨ r “ eT S x die folgende kartesische Komponentendarstellung mit symmetrischem S . ¨ ˛ ¨ ˛ vx x ˚ ‹ ˚ ‹ v “ ˝ vy ‚ “ S ˝ y ‚ “ S x z vz Leitet man die quadratische Form Qpx, y, zq “ r ¨ v “ r ¨ S ¨ r “ xT S x “ const. nach der Koordinate x ab, so folgt mit dem Zeilenvektor eT 1 “ p1, 0, 0q der Skalar ` T ‰ ˘T BQ B “ T T T “ 2 eT “ x S x “ eT 1 S x ` x S e 1 “ e1 S x ` e 1 S x 1 Sx Bx Bx und nach Zusammenfassung mit den anderen Ableitungen und Zeilenvektoren erhält man ¨ ˛ BQ { Bx ˚ ‹ ˝BQ { By ‚ “ 2 E S x “ 2 S x “ 2 v BQ { Bz Die Komponenten des Spaltenvektors auf der linken Seite stimmen mit dem totalen Differential der Funktion Q und damit dem Gradienten überein,

254

12 Hauptachsentransformation

der im Abschnitt 17.1 ausführlich behandelt wird. BQ BQ BQ dx ` dy ` dz Bx By Bz ¨ ˛ BQ { Bx ˚ ‹ “ pdx, dy, dzq e ¨ eT ˝BQ { By ‚ “ dr ¨ grad Q

dQ “

BQ { Bz Der Gradient ist ein Vektor, der nach (17.7) auf den Niveauflächen Q “ const. senkrecht steht, im vorliegenden Fall also auf der Tensorfläche. Aus dem Vergleich der Komponenten folgert man grad Q “ 2 eT v “ 2 eT S x “ 2 v “ 2 S ¨ r Damit steht der Vektor v “ S ¨ r, der dem Ortsvektor r durch den symmetrischen Tensor S zugeordnet wird, ebenfalls senkrecht auf der Fläche des Tensorellipsoids, also senkrecht auf der Tangentialebene. Die Richtung von v entspricht somit der Normalen n der Tensorfläche im Endpunkt P prq von r. Für jedes r kann diese Richtung von v durch die Poinsot’sche Konstruktion auf einfache Weise gefunden werden, indem man vom Koordinatenursprung das Lot auf die Tangentialebene des Tensorellipsoids im Punkt P prq fällt. Die Abbildung 12.2 gibt ein Beispiel für diese Konstruktion, bei der man einen anschaulichen Überblick erhält, wie der Tensor S das Vektorbüschel r als Stellvertreter für einen zugrunde liegenden physikalischen Vektor a in das zugeordnete Vektorbüschel v abbildet. Man erhält damit eine geometrische Veranschaulichung für die Wirkung der Tensoroperation als Abbildung eines Vektors in einen anderen, wie das bei Einführung der Tensoren im Abschnitt 9.1.1 beschrieben wurde. Der Konstruktion entnimmt man ferner, dass bei einem Tensorellipsoid beide Vektoren v und r nur dann parallel sind, wenn r in die Richtung der Hauptachsen fällt, und dass beide Vektoren niemals aufeinander senkrecht stehen können.

12.6 Beispiele für Hauptachsentransformationen





 

  

 Abb. 12.2: Poinsot’sche Konstruktion

12.6 12.6.1

Beispiele für Hauptachsentransformationen 2 ˆ 2 -Matrix

Für die symmetrische Matrix ˆ ˙ ´64 20 S“ 20 32 liefert das charakteristische Polynom die Eigenwerte, det pS ´ λ Eq “ λ2 ` 32λ ´ 2448 “ pλ ´ 36qpλ ` 68q “ 0

255

256

12 Hauptachsentransformation

mit denen die Diagonalmatrix im Hauptachsensystem lautet ˆ ˙ 36 0 S HA “ 0 ´68 Mit den Eigenwerten werden die Eigenvektoren berechnet. ˆ ˙ˆ ˙ ˆ ˙ ´64 ´ 36 20 x11 0.2 pS ´ λ1 Eq x1 “ “ 0 Ñ x1 “ 1 20 32 ´ 36 1 ˆ ˙ˆ ˙ ˆ ˙ ´64 ` 68 20 x21 ´5 “ 0 Ñ x2 “ pS ´ λ2 Eq x2 “ 1 20 32 ` 68 1 Nach Normierung lautet die Modalmatrix, ˜ ¸ ˜ ? ¸ ? ` ˚ ˚˘ 1 ´5 2{ 104 ´5{ 26 1 ? ? “? “ AT X “ x1 , x2 “ 5 1 1{ 26 10{ 104 26 mit der die Diagonalmatrix im Hauptachsensystem durch Kongruenztransformation berechnet wird. ˆ ˙ 36 0 T T X S X “ A S A “ S HA “ 0 ´68 Die Matrizen X und A sind orthogonal, denn es gilt ˜ ¸˜ ¸ ˜ ¸ 1 ´5 1 5 1 0 1 “ “E X XT “ AT A “ 26 5 1 ´5 1 0 1

12.6.2 12.6.2.1

3 ˆ 3 -Matrix, einfache Eigenwerte Erstes Beispiel

Gegeben ist die symmetrische Matrix ¨ ˛ 0 1 2 S“˝ 1 5 3 ‚ 2 3 2 Das charakteristische Polynom ˘ ` det S ´ λ E “ ´λ3 ` 7λ2 ` 4λ ´ 10 “ pλ ´ 1qp´λ2 ` 6λ ` 10q “ 0

12.6 Beispiele für Hauptachsentransformationen

257

hat die Eigenwerte ? ? ˘ ` ` ˘ λ “ 1, 3 ` 19, 3 ´ 19 “ 1, 7.358899, ´1.358899 Mit der Berechnungsmethode nach Abschnitt 12.2.5 erhält man die Eigenvektoren ? ˛ ? ˛ ¨ ˛ ¨ ¨ `1 ´ 2 ` ?19 ´ 2 ´ ?19 1 1 x1 “ ˝´1‚ , x2 “ ˝` 3 ` 19 ‚ , x3 “ ˝` 3 ´ 19 ‚ 5 5 `1 5 5 Mit den normierten Eigenvektoren ¨ ˛ ? `1 3˝ ‚ ˚ ´1 x1 “ 3 `1 ¨ c ´ ¨ c ´ ˛ ˛ 1 1 7 ? ¯ 7 ? ¯ 19 ‹ 1´ ˚ ˚ ´ 3 1 ` 38 19 ‹ 3 38 ˚ ˚ ‹ ‹ ˚ c ´ ˚ c ´ ‹ ‹ ¯ ¯ ˚ ˚ ‹ ‹ ? ? 1 1 8 8 ˚ ˚ ˚ ˚ ‹ x2 “ ˚ 19 ‹ , x3 “ ˚ ´ 19 ‹ 1` 1´ ‹ 3 38 3 38 ˚ ˚ ‹ ‹ ˚ c ´ ˚ ‹ ‹ c ´ ¯ ¯ ˝ ˝ ‚ ‚ ? ? 1 1 1 1 19 19 ` 1´ 1` 3 38 3 38 lautet die Modalmatrix mit gerundeten Werten, ¨ ˛ `0.57735 `0.25628 ´0.77523 ` ˚ ˚ ˚˘ X “ x1 , x2 , x3 “ ˝ ´0.57735 `0.79951 ´0.16567 ‚ “ AT `0.57735 `0.54323 `0.60956 die die Ausgangsmatrix durch Kongruenztransformation wegen der Rundungsfehler nur näherungsweise auf Diagonalform bringt. ¨ ˛ 1 «0 «0 ‚ «0 XT S X “ A S AT “ S HA “ ˝ « 0 7.35886 «0 «0 ´1.35889 12.6.2.2

Zweites Beispiel

Gegeben ist die symmetrische Matrix ¨ ˛ 60 ´10 20 40 5 ‚ S “ ˝ ´10 20 5 20

258

12 Hauptachsentransformation

Das charakteristische Polynom ˘ ` det S ´ λ E “ ´λ3 ` 120λ2 ´ 3875λ ` 26500 “ 0 liefert nach numerischer Berechnung die Eigenwerte ` ˘ λ “ 9.319437, 40.540711, 70.139852 Mit der Berechnungsmethode nach Abschnitt 12.2.5 erhält man die Eigenvektoren ¨ ¨ ¨ ˛ ˛ ˛ ´0.45612 0.35455 2.68854 x1 “ ˝´0.31164‚ , x2 “ ˝2.68993‚ , x3 “ ˝´0.72613‚ 1 1 1 Nach Normierung der orthogonalen Eigenvektoren lautet die Modalmatrix, ¨ ˛ ´0.39925 0.12261 0.90861 ` ˘ X “ x˚1 , x˚2 , x˚3 “ ˝ ´0.27278 0.93025 ´0.24540 ‚ “ AT 0.87533 0.34583 0.33796 mit der die Diagonalmatrix im Hauptachsensystem durch Kongruenztransformation berechnet wird. ¨ ˛ 9.3195 «0 «0 40.5407 «0 ‚ XT S X “ A S AT “ S HA “ ˝ « 0 «0 «0 70.1397 Durch Rundungsfehler sind die Matrizen thogonal. ¨ 1`ε X X T “ AT A “ ˝ « 0 «0

12.6.3

X und A nur näherungsweise or˛ «0 «0 1 ` ε « 0 ‚« E «0 1`ε

3 ˆ 3 -Matrix, zweifacher Eigenwert

Für die symmetrische Matrix ¨

˛ 13 18 6 3 ‚ S “ ˝ 18 ´14 6 3 ´22

12.6 Beispiele für Hauptachsentransformationen

259

lautet das charakteristische Polynom, det pS ´ λ Eq “ ´λ3 ´ 23λ2 ` 529λ ` 12167 “ ´pλ ´ 23qpλ ` 23q2 “ 0 das einen zweifachen Eigenwert hat. λ “ p 23, ´23, ´23 q Der Eigenvektor zum einfachen Eigenwert λ “ 23 wird nach Abschnitt 12.2.5 berechnet mit dem Ergebnis ¨ ˛ 6 x1 “ ˝ 3 ‚ 1 Für den zweifachen Eigenwert λ “ ´23 erhält man aus pS ´ λ Eq x “ 0 drei proportionale Gleichungen. , 36xa ` 18xb “ ´ 6xc / . 18xa ` 9xb “ ´ 3xc / 6xa ` 3xb “ ´ 1xc

Ñ

xc “ ´ 6xa ´ 3xb

Mit der Wahl von ˆ

xa xb

˙

ˆ ˙ 1 “ 0

und

ˆ ˙ ˆ ˙ xa 0 “ xb 1

werden xc und damit die beiden linear unabhängigen Eigenvektoren bestimmt. ¨ ¨ ˛ ˛ 1 0 ` ˘ x2 “ ˝ 0 ‚ und x3 “ ˝ 1 ‚ mit x1 K x2 , x3 ´6 ´3 Die Modalmatrix fasst die Eigenvektoren zusammen, die die folgende Kehrmatrix besitzt. ¨ ¨ ˛ ˛ 6 1 0 6 3 1 1 ˝ 0 1 ‚ Ñ 10 ´18 ´6 ‚ X“˝ 3 X´1 “ 46 ´18 37 ´3 1 ´6 ´3

260

12 Hauptachsentransformation

X ist nicht orthogonal, da es die Eigenvektoren x2 , x3 wegen der beliebigen Wahl auch nicht sind. Die Auflösung der Gleichung (12.12) S X “ X Diag pSk q “ X S HA muss deshalb durch Ähnlichkeitstransformation erfolgen, bei der man die Kehrmatrix benötigt. X´1 S X “ S HA ¨ 1 ˝ “ 46

˛¨ ˛¨ ˛ 6 3 1 13 18 6 6 1 0 10 ´18 ´6 ‚˝ 18 ´14 3 ‚˝ 3 0 1 ‚ ´18 37 ´3 6 3 ´22 1 ´6 ´3 ¨ ˛ 23 0 0 0 ‚ “ ˝ 0 ´23 0 0 ´23

x2 und x3 bilden eine Eigenebene, in der jeder Vektor c “ αx2 ` βx3 für beliebige α und β Eigenvektor ist. Die drei Eigenvektoren kann man dadurch orthogonalisieren, dass man einen zu x2 orthogonalen Vektor sucht, den man mit c “ x2 ` β x3 ansetzt. `

x2

˘T

` ˘T ` ˘T ` ˘T c “ x2 x2 ` β x2 x3 “ } x2 }2 ` β x2 x3 “ 37 ` 18β “ 0

¨

¨ ¨ ˛ ˛ ˛ 1 0 18 37 ˝ 1 ˝ 1 ‚“ ´37 ‚ c “ ˝ 0 ‚´ 18 18 ´6 ´3 3 1 ? 1 ? 1 a 2 18 ` 372 ` 32 “ 1702 “ 37 ¨ 46 |c| “ 18 18 18 Fasst man die normierten Eigenvektoren ¨

˛ 6 1 x˚1 “ ? ˝ 3 ‚ , 46 1

¨

˛ 1 1 x˚2 “ ? ˝ 0 ‚ , 37 ´6

¨

˛ 18 1 ˝ ´37 ‚ c˚ “ ? 37 ¨ 46 3

261

12.7 Tabellen

zur normierten Modalmatrix X˚ zusammen, dann läßt sich die Diagonalisierung von S unter Vermeidung der Matrixinversion durch einfache Kongruenztransformation durchführen. ? ¨ ? ˛ 6 37 46 18 1 ˚ ? ‹ X˚ “ ? 0 ´37 ‚ ˝ 3 37 37 ¨ 46 ? ? 37 ´6 46 3 ¨

pX˚ qT S X˚ “ S HA

12.7

˛ 23 0 0 0 ‚ “ ˝ 0 ´23 0 0 ´23

Tabellen

Hinweise zu den Tabellen 12.1 und 12.2 In einer Zeile sind Determinanten und Spuren untereinander jeweils gleich, aber nicht alle Beziehungen sind von einfacher Form. Die Determinanten und Spuren in den blauen Feldern sind nach (12.28) in einfacher Weise invariant. Die Determinanten in den grünen Feldern sind bei starrer Drehung des Basissystems wegen det P “ det PR “ 1 invariant! Bei den Spuren ergeben sich in den grauen Feldern keine einfachen Ausdrücke.

¨#

##

det T

det T g det T ##

g det T ##

det T ## det2 P

det T ##

det T g det2 P g 2 det2 P 1 det T ## g 1 det T ## g

g 2 det2 P det T

det2 P det T ##

g det T ##

1 det T ## g

g det2 P det T

det T

T ##

T ##

T# ¨#

¨# det T#

det T# ¨# det T# ¨#

¨# det T# ¨# det T#

g det2 P

g det2 P det T# ¨#

¨# g det2 P det T#

g det2 P

det T# ¨#

T# ¨#

¨# det T#

¨# T#

Tabelle 12.1: Determinanten der Tensormatrizen bei Basiswechsel

ˆ ¨# det T

#

ˆ# det T

ˆ det T

ˆ ## det T

ˆ det T

T

262 12 Hauptachsentransformation

¨#

##

sp T

sp T

sp T

sp pG# T ## q

sp pG# T ## q

sp pP T ## PT q

sp pG# T ## q

T ##

sp pG # T ## q

sp pG # T ## q

sp pQ T ## QT q

sp pG # T ## q

T ##

Tabelle 12.2: Spur der Tensormatrizen bei Basiswechsel

ˆ ¨# sp T

#

ˆ# sp T

ˆ sp T

ˆ ## sp T

ˆ sp T

T

sp T# ¨# sp T# ¨#

¨# sp T#

sp T# ¨#

¨# sp T#

¨# sp T#

T# ¨#

¨# T#

12.7 Tabellen 263

Literatur [1] Zurmühl, R.: Matrizen Springer Verlag, Berlin, Göttingen, Heidelberg, 4. Aufl. (1964)

264

Teil IV

Tensoranalysis

265

Kapitel 13

Allgemeine Funktionssysteme Zusammenfassung Im Hinblick auf die Einführung krummliniger Koordinatensysteme werden Funktionssätze definiert und untersucht. Die dabei auftretenden Funktional- oder Jacobi-Matrizen enthalten als Elemente partielle Differentiale. Die Verwendung der Funktionalmatrizen bietet eine große Übersichtlichkeit, da man durch verschiedene Relationen die auftretenden Beziehungen auf nur eine einzige Basismatrix pro Koordinatensystem zurückführen kann.

13.1 13.1.1

Eigenschaften eines Funktionssystems Definition des Funktionssatzes

Gegeben sei ein Funktionssystem aus n unabhängigen, stetigen und stetig differenzierbaren, ggf. nur stückweise eindeutigen Funktionen mit m voneinander unabhängigen Variablen, die für die spätere Anwendung ` # ˘ in kontravarianter Form auftreten und die den Funktionssatz # x u bilden. $ 1 x “ x1 pu1 , ’ ’ & ` ˘ .. x# u# “ . ’ ’ % n x “ xn pu1 ,

. . . , um q .. . . . . , um q

267 © Springer Fachmedien Wiesbaden GmbH, ein Teil von Springer Nature 2019 W. Werner, Vektoren und Tensoren als universelle Sprache in Physik und Technik 1, https://doi.org/10.1007/978-3-658-25272-4_13

(13.1)

268

13 Allgemeine Funktionssysteme

Die Bezeichnung von Funktionen und Variablen wurde im Hinblick auf die folgenden Kapitel gewählt, in denen beide mit Koordinaten verschiedener Systeme identifiziert werden und x# normalerweise ein kartesisches System darstellt. Zunächst bedeuten die x# und u# jedoch allgemeine mathematische Größen. Wegen der späteren Anwendungen wird nur der Fall n “ m betrachtet. Da Funktionen xi und Variable uk untereinander unabhängige Größen sind, gilt für die partiellen Ableitungen Bxi Bui “ “ δik Bxk Buk

13.1.2

(13.2)

Totale Differentiale

Die Bildung der totalen oder vollständigen Differentiale dxk “

Bxk 1 Bxk 2 Bxk n du ` du ` . . . ` du Bu1 Bu2 Bun

pk “ 1, . . . , nq

führt mit den Spaltenvektoren ˛ x1 ˚ ‹ x# “ ˝ ... ‚, xn ¨

˛ u1 ˚ ‹ u# “ ˝ ... ‚, un ¨

˛ dx1 ˚ ‹ dx# “ ˝ ... ‚, dxn ¨

˛ du1 ˚ ‹ du# “ ˝ ... ‚ dun ¨

auf deren Matrixdarstellung mit besonderer Schreibweise für die Matrix. ` ˘ dx# “ F x# { u# du#

13.1.3

(13.3)

Funktionalmatrix, Jacobi-Matrix

` ˘ Die Funktional- oder Jacobi-Matrix F x# { u# der totalen Differentiale fasst alle partiellen Differentiale der abhängigen nach den unabhängigen Variablen zusammen und stellt eine Verallgemeinerung des Differential-

269

13.1 Eigenschaften eines Funktionssystems

quotienten für Funktionssysteme dar! ¨

Bx1 Bu1 .. .

˚ ` # #˘ ˚ ˚ F x {u “ ˚ ˚ ˝ Bxn Bu1

Bx1 Bu2 .. . Bxn Bu2

... ..

.

...

Bx1 Bun .. .

˛

‹ ‹ ‹ ‹ ‹ Bxn ‚ Bun

(13.4)

Bei gleichen Argumenten wird die Matrix nach (13.2) zur Einheitsmatrix. ` ˘ F x# { x# “ E

13.1.4

(13.5)

Funktionaldeterminante, Jacobi’sche Determinante

Für die Determinante der Funktionalmatrix, die in der Literatur, [1, I, S. 414], [2, S. 200], [3, III1 , S. 53], meist Jacobi’sche Determinante genannt wird, findet man verschiedene Bezeichnungen. ` ˘ D px1 , . . . , xn q B px1 , . . . , xn q det F x# { u# “ “ ‰ 0 D pu1 , . . . , un q B pu1 , . . . , un q

(13.6)

Für unabhängige Funktionen x# hat die Funktionalmatrix vollen Rang n, so dass die Funktionaldeterminante ungleich Null ist, [2, S. 221], [3, III1 , S. 56].

13.1.5

Lineares Funktionssystem

Wenn der funktionale Zusammenhang zwischen x# und u# linear ist, dann liegt eine affine Abbildung zwischen den Variablen vor mit konstanten Matrixelementen von A, so dass gilt x# “ A u#

Ñ

` ˘ dx# “ F x# { u# du# ” A du#

(13.7)

270

13.1.6

13 Allgemeine Funktionssysteme

n-dimensionale Volumenelemente

Die Volumenelemente der beiden Variablensysteme bestehen aus den folgenden Produkten der einzelnen Differentiale. 1

2

n

dΩ “ dx dx ¨ . . . ¨ dx “ ˆ “ du1 du2 ¨ . . . ¨ dun “ dΩ

n ź k“1 n ź

dxk duk

k“1

Der Zusammenhang zwischen beiden Elementen, den man u.a. bei der Substitution der Variablen in Mehrfachintegralen benötigt, wird durch den Betrag der Funktionaldeterminante vermittelt, [1, III, S. 199, 352], [3, II, S. 270]. ˇ ` ˘ ˇˇ ˇ ˆ dΩ “ ˇ det F x# { u# ˇ dΩ

13.2 13.2.1

(13.8)

Inverses Funktionssystem Inverser Funktionssatz und Argumenttausch

` ˘ Die formale Umkehrung des Funktionssatzes x# u# , die man in theoretischer Hinsicht bei eindeutigen und hinreichend glatten d.h. differenzierbaren Funktionen wenigstens stückweise immer ausführen kann, erzeugt das inverse Funktionssystem, $ 1 u “ u1 px1 , ’ ’ & ` ˘ .. u# x# “ . ’ ’ % n u “ un px1 ,

. . . , xn q .. .

(13.9)

. . . , xn q

für dessen totale Differentiale die Matrixgleichung lautet ` ˘ du# “ F u# { x# dx#

(13.10)

Setzt man die Differentiale ineinander ein, so folgt ` ˘ ` ˘ ` ˘ dx# “ F x# { u# du# “ F x# { u# F u# { x# dx# “ E dx#

271

13.2 Inverses Funktionssystem

mit dem allgemeinen Element der Produktmatrix Bxi Bu2 Bxi Bun Bxi Bu1 ` ` . . . ` “ δik Bu1 Bxk Bu2 Bxk Bun Bxk sowie auch in umgekehrter Reihenfolge, ` ˘ ` ˘ ` ˘ du# “ F u# { x# dx# “ F u# { x# F x# { u# du# “ E du# bei denen das Produkt der Funktionalmatrizen auf die Einheitsmatrix führt. Die Funktionalmatrizen des direkten und des inversen Systems sind damit zueinander invers, so dass ein Tausch der Matrixargumente in folgender Form ausgedrückt werden kann, ` ˘ ` ˘ F u# { x# “ F´1 x# { u#

(13.11)

wodurch ihre Determinanten zueinander reziprok sind. ` ˘ ` ˘ det F x# { u# det F u# { x# “ 1

13.2.2

(13.12)

Kettenregel und Multiplikationssatz

Sind die Variablen uk ihrerseits abhängig von Variablen tk , so gilt für “ #den ` # ˘‰ # die Ableitungen mittelbarer Funktionen x u t dxk “

Bxk 1 Bxk n dt ` . . . ` dt Bt1 Btn

pk “ 1, . . . , nq

mit dem Differentialquotienten des allgemeinen Gliedes gemäß Kettenregel Bxk Bu1 Bxk Bun Bxk “ ` ... ` n i 1 i Bt Bu Bt Bu Bti

@ i, k

Nach Zusammenfassung der Differentiale zum Spaltenvektor folgt ` ˘ ` ˘ ` ˘ dx# “ F x# { t# dt# “ F x# { u# F u# { t# dt#

272

13 Allgemeine Funktionssysteme

Man erhält daraufhin den Multiplikationssatz der Funktionalmatrizen und ihrer Determinanten als Verallgemeinerung der Kettenregel. ` ˘ ` ˘ ` ˘ F x # { t# “ F x # { u # F u # { t # (13.13) det F x# { t `

13.3

˘ #

“ det F x# { u `

˘ #

det F u# { t `

˘ #

Taylor’sche Formel

Zwei differentiell benachbarte Punkte seien im n-dimensionalen Raum durch folgende Darstellungen gegeben. P prq “ P pu1 , . . . , un q Qprq “ P pr ` drq “ P pu1 ` du1 , . . . , un ` dun q Den Wert einer Ortsfunktion ϕ im benachbarten Punkt Q erhält man nach der Taylor’sche Formel. ϕpr ` drq “ ϕprq ` dϕprq `

1 1 2 d ϕprq ` d3 ϕprq ` . . . 2! 3!

(13.14)

Dabei haben die Differentialausdrücke in symbolischer Schreibweise, die man formal nach dem binomischen Lehrsatz entwickelt, folgende Bedeutung, [1, I, S. 386], [3, I, S. 343]. ´ B ¯k B B 1 2 n du ` du ` . . . ` du ϕprq dk ϕprq “ Bu1 Bu2 Bun Man erhält mit dem ersten Differential (k “ 1) eine neue Darstellung des totalen Differentials, wenn man mit dem Skalarprodukt der Basisvektoren erweitert, die auch im krummlinigen Fall gemäß Gleichung (14.16) die Reziprozitätsbedingung gi ¨ gk “ δik erfüllen müssen. dϕprq “

n ÿ Bϕ i g ¨ gi dui i loomoon Bu i“1 “1

˘ ´ Bϕ Bϕ ¯ “ g1 du ` . . . ` gn dun ¨ g1 1 ` . . . ` gn n Bu Bu “ dr ¨ grad ϕprq `

1

273

13.3 Taylor’sche Formel

Dabei entsteht das Skalarprodukt aus Wegelement dr und dem Gradienten als Differentiationsoperator grad der Ortsfunktion ϕprq, der erst im Abschnitt 17.1 ausführlich behandelt wird. Für das zweite Differential (k “ 2) ergibt sich nach entsprechender Erweiterung eine Darstellung, die dem doppelten Skalarprodukt im Abschnitt 10.3.3 aus den Wegelementen und dem zweistufigen Ableitungstensor T pBq entspricht, der wegen der Vertauschbarkeit der gemischten Ableitungen nach dem Satz von Schwarz symmetrisch ist, [1, I, S. 382]. d2 ϕprq “

n ÿ n ÿ i“1 k“1 n ÿ n ÿ

B2 ϕ dui duk Bui Buk

B2 ϕ gk ¨ gk duk i Buk Bu i“1 k“1 ` ˘ “ g1 du1 ` . . . ` gn dun ¨ ” B2 ϕ B2 ϕ B2 ϕ ¨ g1 1 1 g1 ` g1 1 2 g2 ` . . . ` g1 1 n gn Bu Bu Bu Bu Bu Bu .. .. .. . . . ı 2 2 2 B ϕ B ϕ B ϕ ` gn 1 n g1 ` gn 2 n g2 ` . . . ` gn n n gn ¨ Bu Bu Bu Bu Bu Bu ˘ ` ¨ g1 du1 ` . . . ` gn dun “

dui gi ¨ gi

“ ‰ “ dr ¨ T pBq ϕprq ¨ dr Die Elemente der symmetrischen Matrix des kovarianten Ableitungstensors werden gebildet durch die gemischten zweiten partiellen Ableitungen. B2 ˚ Bpu1 q2 ˚ ˚ B2 ˚ ˚ pBq 1 2 T ## x..y “ ˚ ˚ Bu .Bu ˚ .. ˚ ˚ ˝ B2

B2 Bu1 Bu2

Bu1 Bun

Bu2 Bun

¨

B2 Bpu2 q2 .. . B2

... ... ..

.

...

˛ B2 Bu1 Bun ‹ ‹ ‹ B2 ‹ ‹ Bu2 Bun ‹ ‹ x..y .. ‹ . ‹ ‹ ‚ 2 B Bpun q2

(13.15)

274

13 Allgemeine Funktionssysteme

Die weiteren Glieder der Taylor’schen Formel mit höheren Ableitungen kann man in entsprechender Weise durch höherstufige Tensoren darstellen, auf deren Angabe hier verzichtet wird. Der Ausdruck für den Zuwachs der Ortsfunktion ϕ beim Übergang von P nach Q lautet damit Δϕprq “ ϕpr ` drq ´ ϕprq “ dr ¨ grad ϕprq `

“ ‰ 1 dr ¨ T pBq ϕprq ¨ dr ` . . . 2

(13.16)

Literatur [1] Fichtenholz, G. M.: Differential- und Integralrechnung I/II/III VEB Deutscher Verlag der Wissenschaften, Berlin, 5. Aufl. (1972) [2] Kowalewski, G.: Einführung in die Determinantentheorie Walter de Gruyter, Berlin, 3. Aufl. (1942) [3] Smirnow, W. I.: Lehrgang der höheren Mathematik, I-IV VEB Deutscher Verlag der Wissenschaften, Berlin, 6. Aufl. (1964/68)

275

Kapitel 14

Krummlinige Koordinatensysteme Zusammenfassung Bei vielen Problemen der Praxis sind kartesische oder geradlinige Koordinaten nicht an die Geometrie des Problems angepasst, so dass zunächst krummlinige Koordinaten untersucht werden, um technische Aufgabenstellungen in geeigneten Koordinatensystemen mit Hilfe der Tensoranalysis zu formulieren. Mit den definierenden Funktionssätzen und ihren Funktionalmatrizen werden Ortsvektor, Wegelement und reziproke Basisvektoren sowie die Metrik des Raumes bestimmt und an Beispielen demonstriert.

14.1

Einführung krummliniger Koordinaten

Zur Lösung konkreter physikalischer Probleme benötigt man geeignete Koordinatensysteme, die dem geometrischen Charakter von vorgegebenen Anordnungen, der Verteilung von Quellen oder vorhandenen Grenzflächen angepasst sind, so dass sich die Berechnungen einfacher formulieren lassen. Bei der Darstellung des Tensorkalküls werden diese Koordinatensysteme als nichtorthogonal angenommen, so dass man zwischen ko- und kontravarianten Größen unterscheiden muss. 276 © Springer Fachmedien Wiesbaden GmbH, ein Teil von Springer Nature 2019 W. Werner, Vektoren und Tensoren als universelle Sprache in Physik und Technik 1, https://doi.org/10.1007/978-3-658-25272-4_14

277

14.2 Definition des Koordinatensystems

Aus den allgemeinen Ergebnissen läßt sich der für die technischen Anwendungen besonders wichtige Sonderfall der orthogonalen Koordinatensysteme einfach ableiten, der im Kapitel 18 ausführlich erörtert wird.

14.2

Definition des Koordinatensystems

Ein System von kontravarianten Koordinaten pu, v, wq “ ˆ pu1 , u2 , u3 q, die weder geradlinig noch orthogonal sind, wird dadurch eingeführt, dass die kartesischen Koordinaten px, y, zq “ ˆ px1 , x2 , x3 q, ebenfalls in kontravarianter Schreibweise, durch drei stetige und stetig differenzierbare Funktionen dieser Koordinaten dargestellt werden. f x “ x pu, v, wq, x1 “ x1 pu1 , u2 , u3 q,

y “ y pu, v, wq, x2 “ x2 pu1 , u2 , u3 q,

z “ z pu, v, wq x3 “ x3 pu1 , u2 , u3 q

Für diesen Funktionssatz, der das Koordinatensystem definiert, wird wie in (13.1) folgende Schreibweise verwendet. ` ˘ x# “ x# u#

(14.1)

In Zukunft wird nur dieses System der kontravarianten Koordinaten benötigt und allein dafür werden Formeln abgeleitet. Kovariante Koordinaten werden nur einmal kurz betrachtet, aber dann nicht weiter benutzt, da man sie auf bestimmte Weise in die kontravarianten umrechnen kann. Jeder Punkt des Raumes wird durch Angabe eines der Koordinatentripel px1 , x2 , x3 q oder pu1 , u2 , u3 q eindeutig identifiziert. Ein Bild des Koordinatensystems x# gewinnt man durch die Betrachtung der Koordinatenflächen oder Flächenscharen u1 , u2 , u3 “ const. Je zwei dieser drei Flächenscharen schneiden sich in einer Koordinatenlinie, längs derer sich nur die dritte Koordinate ändert. In Abbildung 14.1 eines ebenen Systems schneiden sich die Koordinatenflächen für konstante Werte u2 “ const. und u3 “ z0 in Koordinatenlinien, auf denen nur u1 variiert. Flächen für konstante Werte u1 “ a, b und u2 “ c, d schneiden sich in Koordinatenlinien senkrecht zur Zeichenebene, auf der die dritte Koordinate u3 “ z variabel ist. Auf der Koordinatenfläche u3 “ const., die in der Abbildung der Zeichenebene entspricht aber im allgemeinen Fall gekrümmt ist, wird jeder Punkt

278

14 Krummlinige Koordinatensysteme







 

 



 

  

   

   

Abb. 14.1: Scharen krummliniger Koordinatenlinien in einer Ebene z “ z0 “ const. Tangentenvektoren gk in P durch die beiden anderen Koordinaten u1 und u2 eindeutig bestimmt und der Ortsvektor eines Flächenpunktes hängt nur von diesen beiden Parametern ab. ˘ ` für u3 “ const. r “ r u 1 , u2 Eine solche funktionale Beschreibung heißt Parameterdarstellung der Fläche und die beiden Parameter u1 und u2 heißen Gauß’sche Koordinaten dieser Fläche, da Gauß derjenige war, der die Geometrie auf gekrümmten Flächen begründete, die im zweiten Band erörtert wird. Die totalen Differentiale des kartesischen Systems, die nach (14.1) von den Koordinaten des krummlinigen Systems abhängen, werden in Matrizenform zusammengefasst und lauten wie in (13.3) ` ˘ dx# “ F x# { u# du#

(14.2)

Die Transformation zwischen krummlinigen und kartesischen Differentialen wird durch die Funktionalmatrix bestimmt und mit ihrer Transponierten

279

14.3 Grundgrößen der Koordinatensysteme

in gekürzter und normaler Darstellung der partiellen Ableitungen wegen späterer Produktbildung in umgekehrter Reihenfolge angegeben. ¨ xu

yu

` ˘ ˚ F T x # { u# “ ˝ xv

yv

¨

x w yw

zu

˚ ˚ ˚ ‹ ˚ zv ‚ “ ˚ ˚ ˚ zw ˝ ˛

Bx1 Bu1 Bx1 Bu2 Bx1 Bu3

Bx2 Bu1 Bx2 Bu2 Bx2 Bu3

Bx3 Bu1 Bx3 Bu2 Bx3 Bu3

˛ ‹ ‹ ‹ ‹ ‹ ‹ ‹ ‚ (14.3)

¨

¨

Bx1

Bx1

Bx1

˛

˚ ˚ ˚ ‹ ˚ yw ‚ “ ˚ ˚ ˚ zw ˝

Bu1 Bx2 Bu1 Bx3 Bu1

Bu2 Bx2 Bu2 Bx3 Bu2

Bu3 Bx2 Bu3 Bx3 Bu3

‹ ‹ ‹ ‹ ‹ ‹ ‹ ‚

xu x v xw

` ˘ ˚ F x # { u # “ ˝ yu

yv

zu

zv

˛

In dem so definierten dreidimensionalen Koordinatensystem werden zunächst geometrische Größen wie Ortsvektor, Wegelement und Abstandsquadrat betrachtet, um anschließend die Metrik des Raumes zu untersuchen.

14.3 14.3.1

Grundgrößen krummliniger Koordinatensysteme Ortsvektor und kovariante Grundvektoren

Der Ortsvektor zu einem beliebigen Raumpunkt P prq lautet wie in (7.4), nur dass die kartesischen Koordinaten xi puk q nach (14.1) jetzt von drei Parametern abhängen. Eine weitere Darstellung des Ortsvektors findet man in Abschnitt 14.5.4. ` ˘T ˘ ` r “ rpP q “ r x1 , x2 , x3 “ x1 e1 ` x2 e2 ` x3 e3 “ x# e

(14.4)

Die partiellen Ableitungen des Ortsvektors r stellen wie in (5.41) die Tangentenvektoren der Koordinatenlinien dar. Im kartesischen System

280

14 Krummlinige Koordinatensysteme

entsprechen sie den Einheitsvektoren ek , im krummlinigen System u# bedeuten sie dagegen die ortsabhängigen kovarianten Grundvektoren gk prq. Fasst man sie zum Spaltenvektor zusammen, dann erhält man die Darstellung mit der transponierten Funktionalmatrix (14.3). ek “ gk prq “

Br Bxk 3 3 ÿ ÿ Br Br Bxp Bxp “ “ ep Bxp Buk Buk Buk p“1 p“1

¨

g1 prq

˛

¨

Br{Bu1

˛

‹ ˚ ˚ ‹ g prq “ ˝ g2 prq ‚ “ ˝ Br{Bu2 ‚ #

Br{Bu3

g3 prq

` ˘ g prq “ FT x# { u# e #

(14.5)

Dieses Ergebnis entspricht im kartesischen Koordinatensystem der ortsunabhängigen Beziehung (6.9). g

#

“ Ue

Die Skalarprodukte zwischen Grundvektoren und kartesischen Einheitsvektoren bedeuten in den beiden Fällen $ (örtlich konstant) & Uk ` ˘  Ñ gk ¨ e “ | gk | cos gk , e % Bx (ortsabhängig) Buk Ein typisches Kennzeichen der Tensorrechnung besteht im Indexwechsel, bei dem Ableitungen, die nach kontravarianten Koordinaten gebildet werden, kovariante Größen erzeugen. Ein oberer, kontravarianter Index im Nenner des Differentials wird dadurch zu einem unteren, kovarianten Index der entstehenden Größe bzw. des Differentialausdrucks! Die kovarianten Grundvektoren sind von Ort zu Ort verschieden und bilden in jedem Raumpunkt ein eigenes, anders ausgerichtetes, nichtorthogonales Basistripel oder Trihedron. Sie sind normalerweise keine Einheitsvektoren und haben daher nicht den Betrag Eins, aber man kann sie ähnlich

14.3 Grundgrößen der Koordinatensysteme

281

wie bei den physikalischen Vektorkomponenten (7.14) in ortsabhängige metrische Faktoren hk prq und Einheitsvektoren ck prq des krummlinigen Koordinatensystems zerlegen. gk prq “ | gk prq | ck prq “ hk prq ck prq gk prq “ | gk prq | | gk prq | looomooon looomooon metrischer Faktor

Einheitsvektor

gk prq “

14.3.2

Br “ hk prq ck prq Buk

(14.6)

Wegelement als kontravarianter Vektor

Das Wegelement ist das totale Differential des Ortsvektors. Im kartesischen und im krummlinigen System gelten die Beziehungen Br Br Br dx1 ` 2 dx2 ` 3 dx3 “ e1 dx1 ` e2 dx2 ` e3 dx3 Bx1 Bx Bx Br Br Br dr “ 1 du1 ` 2 du2 ` 3 du3 “ g1 prq du1 ` g2 prq du2 ` g3 prq du3 Bu Bu Bu

dr “

mit den zugehörigen Matrixdarstellungen. ` ` ˘T ˘T dr “ dx# e “ du# g prq #

(14.7)

Das Wegelement dr ist nach (7.12) von Natur aus ein kontravarianter Vektor, da es durch kontravariante Komponenten du# ausgedrückt wird. Die Richtung des Wegelementes in einem Raumpunkt P wird bestimmt durch das Verhältnis seiner Komponenten, also der Differentiale du1 , du2 , du3 sowie der Beträge der Grundvektoren gk zueinander.

14.3.3

Differentielles Abstandsquadrat

Das differentielle Abstandsquadrat wird berechnet als Skalarprodukt des Wegelementes mit sich selbst und sein Betrag | dr | stellt das Element der

282

14 Krummlinige Koordinatensysteme

x2 e 2 dx 2

r

P

Q

dr e 1 dx 1

u2

Q

g 2 du 2

dr u1

P

x1

r

g 1 du 1 = h 1 c1 du 1

O

O

Abb. 14.2: Wegelement in kartesischen und krummlinigen Koordinaten

Bogenlänge ds dar. dr ¨ dr “ pdrq2 “ | dr |2 “ pdsq2 ą 0 ` ˘T “ dx# e ¨ eT dx# ˘T ‰T “ ` “ du# g prq ¨ g prq du# #

#

` ˘T ` ˘ ` ˘ “ du# FT x# { u# F x# { u# du# Das Abstandsquadrat stellt nach Abschnitt 12.4.2 eine positiv definite quadratische Differentialform in den Variablen duk dar.

˘T ˘T ` ˘ ` ˘ ` ` | dr |2 “ dx# dx# “ du# FT x# { u# F x# { u# du# ą 0 (14.8) Die im Abstandsquadrat auftretende Matrix ist daher positiv definit und regulär. Sie ist die symmetrische Gram’sche Eigenmatrix der kovarianten Basisvektoren nach (5.25) und stellt die im krummlinigen System ortsabhängige symmetrische kovariante Metrikmatrix dar. Wie in (6.19) wird

283

14.3 Grundgrößen der Koordinatensysteme

ihre stets positive Determinante mit g bezeichnet. ` ˘ ` ˘ G # prq “ FT x# { u# F x# { u# (14.9) g “ det G # prq “ det2 F x# { u `

˘ #

ą 0

Das allgemeine Glied lautet,

gik “ gki “ gi ¨ gk “

Br Br Bx1 Bx1 Bx2 Bx2 Bx3 Bx3 ¨ “ ` ` Bui Buk Bui Buk Bui Buk Bui Buk (14.10)

aus dem die ortsabhängige Metrikmatrix aufgebaut ist. ¨ ˛ g1 ¨ g1 g1 ¨ g2 g1 ¨ g3 ˚ ‹ G # prq “ ˝ g1 ¨ g2 g2 ¨ g2 g2 ¨ g3 ‚ g1 ¨ g3 g2 ¨ g3 g3 ¨ g3 Mit den Metrikkoeffizienten hat die quadratische Differentialform des Abstandsquadrates die folgende Gestalt in Form einer Doppelsumme mit insgesamt 6 ¨ 3 “ 18 Summanden. ` ˘2 ` ˘2 ` ˘2 | dr |2 “ g11 du1 ` g22 du2 ` g33 du3 ` 2 g12 du1 du2 ` 2 g13 du1 du3 ` 2 g23 du2 du3

| dr |2 “ ds2 “

3 ÿ 3 ÿ

gik dui duk ą 0

(14.11)

i“1 k“1

14.3.4

Wegelement in einer Koordinatenfläche

Liegt das Wegelement als Sonderfall in der Koordinatenfläche u3 “ const., dann ergibt sich wegen du3 “ 0 eine auf zwei Koordinaten reduzierte Darstellung. ` ˘2 ` ˘2 | dr |2 “ g1 ¨ g1 du1 ` 2 g1 ¨ g2 du1 du2 ` g2 ¨ g2 du2

284

14 Krummlinige Koordinatensysteme

Mit den von Carl Friedrich Gauß (1777-1855) eingeführten und mit E, F, G bezeichneten metrischen Fundamentalgrößen E “ g1 ¨ g1 “ g11 ą 0

F “ g1 ¨ g2 “ g12

G “ g2 ¨ g2 “ g22 ą 0

(14.12) folgt die erste Grundform der Flächentheorie, die positiv definit ist. ` ` ˘2 ˘2 | dr |2 “ G I “ E prq du1 ` 2 F prq du1 du2 ` G prq du2 ą 0 (14.13) Hieraus folgt auf Grund der positiven Größen und Quadrate ˘2 ` ˘` ˘2 ` E | dr |2 “ E du1 ` F du2 ` EG ´ F 2 du2 ą 0 die positive Diskriminante der ersten Grundform, [1, S. 104].  g g D “ EG ´ F “ g11 g22 ´ pg12 q “  11 12 g12 g22 I

2

2

   ą 0 

(14.14)

Mit der Identität von Lagrange (5.10) erhält man, | g1 ˆ g2 | 2 “ g11 g22 ´ pg12 q2 “ | g1 | 2 | g2 | 2 sin2 γ “ EG sin2 γ wobei γ der Winkel zwischen g1 und g2 ist. Damit gilt für die erste Grundform auch folgende Darstellung. DI “ EG ´ F 2 “ EG sin2 γ

F 2 “ EG cos2 γ

(14.15)

Bei orthogonalen Basisvektoren g1 K g2 gilt F “ 0.

14.3.5

Reziproke, kontravariante Basisvektoren

Wie bei geradlinigen werden auch bei krummlinigen Koordinatensystemen zu den kovarianten Grundvektoren g prq kontravariante Basisvektoren g# prq #

285

14.3 Grundgrößen der Koordinatensysteme

über die Reziprozitätsbedingung definiert, die bis auf die Ortsabhängigkeit wie in (6.12) lautet. gi prq ¨ gk prq “ δik

‰T “ ‰T “ g prq ¨ g# prq “ g# prq ¨ g prq “ E #

#

(14.16) Die kontravarianten Basisvektoren g# prq sind die Tangentenvektoren der zugehörigen Koordinatenlinien u # . Diese kovarianten Koordinaten u # haben keine besondere geometrische sondern nur formale Bedeutung und werden in weiteren Berechnungen durch kontravariante Koordinaten ersetzt wie später gezeigt wird. Erst im Kapitel 17 ist es möglich, den kontravarianten Basisvektoren g# prq auch eine physikalische Bedeutung zuzuschreiben. Für den zugeordneten zweiten, kovarianten Funktionssatz u # gilt ` ˘ x# “ x# u #

Ñ

` ˘ dx# “ F x# { u # du #

(14.17)

Die Tangentenvektoren der kovarianten Koordinatenlinien u # werden ebenfalls als Ableitungen des Ortsvektors berechnet, Br “ gk prq Buk wodurch das Wegelement eine (14.7) entsprechende Form erhält. ` ˘T ˘T ` dr “ dx# e “ du# g# prq Ersetzt man darin das Differential dx# , dann liefert der Vergleich die Darstellung der kontravarianten Grundvektoren als Ergänzung zu (14.5). ` ˘ g# prq “ FT x# { u# e

14.3.6

(14.18)

Beziehungen der Funktionalmatrizen

Ersetzt man in (14.16) die Basisvektoren durch die Darstellungen ihrer Funktionalmatrizen, so erhält man eine Matrixrelation, die zusammen mit der

286

14 Krummlinige Koordinatensysteme

für inverse Funktionssysteme abgeleiteten Gleichung (13.11) bei Argumenttausch den Wechsel zwischen ko- und kontravarianten Koordinaten ermöglicht. ‰T “ ` ˘ ` ˘ g# prq ¨ g prq “ FT x# { u# e ¨ eT F x# { u# “ E #

` ˘ ` ˘ ` ˘ FT x# { u# “ F´1 x# { u# “ F u# { x#

(14.19)

Die Anwendung dieser Beziehung gestattet es, alle auftretenden ` ˘ Darstellungen von Funktionalmatrizen auf die Basismatrix F x# { u# zurückzuführen, ` # ˘die direkt aus der Definition des krummlinigen Koordinatensystems # x u nach (14.1) durch Bildung der partiellen Ableitungen der kartesischen Koordinaten x# nach den kontravarianten u# berechnet werden kann. Auf diese Weise vermeidet man, dass die unanschaulichen Koordinaten u# in den Berechnungen auftreten. ` ˘ ` ˘ Sofern man den Funktionssatz x# u# in u# x# invertieren kann, was `häufig nur ˘ stückweise` gelingt, ˘ ließe sich zwar auch die inverse Matrix ´1 # # # # x { u direkt als F u { x berechnen. Das kommt aber, wenn überF haupt, nur in theoretischen Überlegungen vor und wird in praktischen Fällen vermieden, da die Berechnung der Kehrmatrix bei 3 ˆ 3 -Matrizen im allgemeinen kein allzu großes Problem darstellt.

14.3.7

Darstellung der Basisvektoren

Im Ergebnis kann man die ko- und kontravarianten`Basisvektoren gemäß ˘ # # (14.5), (14.18) und (14.19) aus dem Funktionssatz x u , der das` krumm-˘ linige Koordinatensystem definiert, allein mit der Basismatrix F x# { u# berechnen. Beide Beziehungen werden deshalb gegenübergestellt.

` ˘ g prq “ FT x# { u# e #

` ˘ g# prq “ F´1 x# { u# e

(14.20)

287

14.4 Metrik des Raumes

14.4 14.4.1

Metrik des Raumes Metrikkoeffizienten und Klassifizierung

Die Koeffizienten der positiv definiten quadratischen Form | dr |2 “ pdrq2 lassen sich gemäß (14.6) und (14.10) auf folgende Weise ausdrücken.

gik prq “ gi prq ¨ gk prq “

Br Br ¨ “ hi prqhk prq ci prq ¨ ck prq Bui Buk

(14.21)

Sie heißen Metrikkoeffizienten, weil sie die Maßverhältnisse, d.h. die Struktur von Weg- oder Linienelement und damit auch von Flächen- und Volumenelementen in der Differentialgeometrie bestimmen, die im Abschnitt 14.5.3 angegeben werden. Wird eine Metrik oder Abstandsdefinition durch eine quadratische Differentialform (14.8) beschrieben, so heißt sie Riemann’sche Metrik und der Raum, in dem eine solche Metrik vorliegt, heißt Riemann’scher Raum. Im gewöhnlichen dreidimensionalen Raum R3 , in dem ein kartesisches Koordinatensystem mit pythagoräischem Abstand definiert werden kann, liegt als Sonderfall eine euklidische Metrik in einem euklidischen Raum vor.

14.4.2

Metrikmatrizen und Metriktensor

Die Metrikmatrix (14.9) ist identisch mit der symmetrischen Gram’schen Eigenmatrix (5.25) der kovarianten Basisvektoren. ‰T “ ˘ ` G # prq “ G g , g “ g prq ¨ g prq #

“F

` T

x# { u

˘ #

#

#

#

F x# { u `

˘ #

Als zweite Matrix erhält man die Gram’sche Eigenmatrix der kontravarianten Basisvektoren mit den Relationen der Funktionalmatrizen nach (14.19). ` ˘ “ ‰T G# prq “ G g# , g# “ g# prq ¨ g# prq ` ˘“ ` ˘‰´1 “ F´1 x# { u# FT x# { u#

288

14 Krummlinige Koordinatensysteme

Beide Matrizen stellen zusammen die ko- und kontravarianten symmetrischen Metrikmatrizen als Produkte der Funktionalmatrizen mit der Determinante g nach (14.9) dar, ` ˘ ` ˘ G # prq “ FT x# { u# F x# { u# (14.22) G# prq “ F “

` T

x# { u

˘ #

F x# { u `

˘‰ # ´1

die zueinander invers und wegen der Symmetrie auch kontragredient sind. “ ‰´1 “ ` ‰´1 ˘T G# prq “ G # prq “ G # prq

G # prq G# prq “ E

(14.23) Die tensoriellen Produkte der Grundvektoren bilden analog zu (11.6) und (11.7) die gemischten und die ko- und kontravarianten Komponenten des Metrik- oder Fundamentaltensors G prq im krummlinigen Koordinatensystem. ‰T ‰T “ “ G prq “ eT e “ g prq g# prq “ g prq G # prq g prq #

#

#

‰T “ ‰T “ g# prq g prq “ g# prq G # prq g# prq

(14.24)



#

Setzt man die Darstellungen (14.20) ineinander ein, so erhält man die Transformationsbeziehungen bzw. Umrechnungen zwischen ko- und kontravarianten Basisvektoren, die durch die Metrikmatrizen vermittelt werden. g prq “ G # prq g# prq #

G # prq “ g

#

` ˘T ¨ g #

(14.25) #

#

g prq “ G prq g prq #

#

#

`

G prq “ g ¨ g

˘ # T

Die im Zusammenhang mit der Metrik auftretenden Beziehungen entsprechen formal genau denen, die in den Abschnitten 6.7.1 und 11.2 für geradlinige Koordinatensysteme abgeleitet wurden und die in Tabelle 15.2 gegenübergestellt werden.

289

14.4 Metrik des Raumes

Der Unterschied zu den früheren Ergebnissen besteht in der Tatsache, dass alle Größen wegen der krummlinigen Koordinaten ortsabhängig sind und die Elemente der Matrizen durch partielle Ableitungen gebildet werden!

14.4.3

Winkel zwischen Wegelementen

Zwei Wegelemente, die in verschiedene räumliche Richtungen weisen, unterscheiden sich nach (14.7) durch ihre Differentiale. Der Winkel γ zwischen ihnen wird durch das Skalarprodukt definiert. ˘T ` ` ˘T # dr ¨ dˇ r “ | dr | | dˇ r | cos γ “ du# g ¨ g dˇ u #

`

“ du

˘ # T

#

G # prq dˇ u#

Liegen die Wegelemente in der Fläche du3 “ 0 auf Koordinatenlinien, z.B. r in u2 -Richtung, dann gilt dr in u1 -Richtung und dˇ ? ? | dr | “ | g1 | du1 “ g11 du1 “ E du1 dr “ g1 du1 , ? ? u2 “ g22 du2 “ G dˇ dˇ r “ g2 dˇ u2 , | dˇ r | “ | g2 | dˇ u2 und aus dr ¨ dˇ r “ g1 ¨ g2 du1 dˇ u2 “ g12 du1 dˇ u2 “ F du1 dˇ u2 “

?

EG du1 dˇ u2 cos γ

folgen die Winkelfunktionen, die (14.15) entsprechen. F g12 “? g11 g22 EG d c 2 EG ´ F 2 g11 g22 ´ g12 sin γ “ “ EG g11 g22

cos γ “ ?

Bei g12 “ F “ 0 liegt ein Netz von orthogonalen Koordinatenlinien vor. Beide Wegelemente sind zueinander orthogonal, wenn ihr Skalarprodukt Null ist und damit ihre bilineare Differentialform verschwindet. dr K dˇ r

Ø

˘T ` u# “ 0 dr ¨ dˇ r “ du# G # dˇ

(14.26)

290

14.5 14.5.1

14 Krummlinige Koordinatensysteme

Weitere Berechnungen Spatprodukt

Das gemischte Produkt der kovarianten Grundvektoren wird mit den Ableitungen des Ortsvektors nach (14.5) gebildet. j „ Br Br Br x g 1 , g2 , g 3 y “ 1 ¨ ˆ Bu Bu2 Bu3 ˆ 1 ˙ Bx Bx2 Bx3 “ e ` e ` e 1 2 3 ¨ Bu1 Bu1 Bu1 ˙ „ˆ 1 Bx2 Bx3 Bx e1 ` 2 e2 ` 2 e3 ˆ ¨ Bu2 Bu Bu ˙j ˆ 1 Bx2 Bx3 Bx e1 ` 3 e2 ` 3 e3 ˆ Bu3 Bu Bu ˆ ˙ Bx1 Bx2 Bx3 Bx3 Bx2 ´ “ 1 Bu Bu2 Bu3 Bu2 Bu3 ˆ ˙ Bx2 Bx1 Bx3 Bx3 Bx1 ´ ´ Bu1 Bu2 Bu3 Bu2 Bu3 ˆ ˙ Bx3 Bx1 Bx2 Bx2 Bx1 ´ ` Bu1 Bu2 Bu3 Bu2 Bu3 Diesen Ausdruck kann man zur Determinante zusammenfassen.    Bx1 Bx2 Bx3     Bu1 Bu1 Bu1      ` ˘  Bx1 Bx2 Bx3  x g1 , g2 , g3 y “   “ det FT x# { u# 2 2 2  Bu Bu Bu    Bx1 Bx2 Bx3      3 3 3 Bu Bu Bu Mit der Gram’schen Determinante (5.12) kommt man zwar schneller zum Ziel, dafür bleibt aber das Vorzeichen unbestimmt. ` ˘ x g1 , g2 , g3 y2 “ det G # prq “ det F2 x# { u# “ g ą 0

291

14.5 Weitere Berechnungen

Das Ergebnis für krummlinige Koordinaten bestätigt die Beziehung (14.9) mit der Determinante g der kovarianten Metrikmatrix. S# prq “ x g1 , g2 , g3 y “ det F px# { u# q “

b a det G # prq “ gprq (14.27)

14.5.2

Darstellung der kontravarianten Basisvektoren

Nach der gleichen Methode wie bei geradlinigen Koordinaten im Abschnitt 6.8.1 werden auf Grund der Reziprozität die Kreuzprodukte ermittelt. g j ˆ gk “ α g i gi ¨ pgj ˆ gk q “ x gi , gj , gk y “ α gi ¨ gi “ α Damit lassen sich die kontravarianten durch die kovarianten Basisvektoren ausdrücken mit zyklischer Folge von i, j, k. gi prq “

14.5.3

g j ˆ gk gj ˆ gk g j ˆ gk “ a “ # # x gi , gj , gk y det F px { u q gprq

(14.28)

Flächen- und Volumenelemente

Das gerichtete Flächenelement da12 der Koordinatenfläche u3 “ const. wird gebildet aus dem Kreuzprodukt der beiden Tangentenvektoren in u1 und u2 -Richtung. Sein Betrag ist der Flächeninhalt des von den beiden infinitesimalen Vektoren gebildeten Parallelogramms und der Einheitsvektor n3 seiner Flächennormalen weist nach (14.28) in g3 -Richtung. Mit dem Betrag des Kreuzproduktes gemäß Lagrange-Identität (5.10) und der Diskriminante DI der Gauss’schen Grundform (14.14) erhält man ` ˘ ` ˘ g1 ˆ g 2 | g1 ˆ g2 | du1 du2 da12 “ g1 du1 ˆ g2 du2 “ | g1 ˆ g 2 | a “ n3 EG ´ F 2 du1 du2 “ n3 da12 “ g3 x gi , gj , gk y du1 du2 “ g3

?

g du1 du2 “ g3 da3

292

14 Krummlinige Koordinatensysteme

da 12 u2

g3

du 1

g2 du 2

g1

u1

Abb. 14.3: Flächenelement

Damit lautet das Flächenelement in krummlinigen Koordinaten mit zyklischen Werten für i, j, k folgendermaßen.

daij “ gk dak “ nk daij “ nk

b

gii gjj ´ pgij q2 dui duj

(14.29)

Eine zweite Darstellung erhält man, wenn man in die Diskriminante (14.14) die Metrikkoeffizienten einsetzt und die Koordinaten wieder durch px, y, zq und pu, v, wq ausdrückt. DI “ | g1 ˆ g2 |2 “ ‰ “ ‰ “ EG ´ F 2 “ g11 g22 ´ pg12 q2  Br Br     Br ¨ Br  g ¨ g g1 ¨ g2   Bu1 Bu1 Bu1 ¨ Bu2  “ “  1 1  g1 ¨ g2 g2 ¨ g2   Br Br Br Br    ¨ ¨ Bu1 Bu2 Bu2 Bu2    xu xv ` yu yv ` zu zv  x2u ` yu2 ` zu2  “   x u x v ` y u y v ` zu zv  x2v ` yv2 ` zv2

293

14.5 Weitere Berechnungen

Die letzte Determinante kann als Produkt zweier Rechteckmatrizen nach (3.47) durch die Summe dreier Determinantenquadrate ausgedrückt werden. » ˛fi ¨ ˆ ˙ xu xv ` 12 ˘2 ˘2 ` x u y u zu ˝ yu yv ‚fl du1 du2 “ det – da x v y v zv zu zv «      ff  x u yu  2  x u zu  2  y u zu  2 ` 1 2 ˘ 2   `    du du “   x v zv  `  y v zv  x v yv  ‰` ˘2 “ “ D12 ` D22 ` D32 du1 du2 Die Determinanten D˘k sind nach (14.3) zweireihige Minoren der Funktio` nalmatrix FT x# { u# . Insgesamt erhält man für das Flächenelement der Fläche u3 “ const. da

12

b a 1 2 2 “ g11 g22 ´ pg12 q du du “ D12 ` D22 ` D32 du1 du2

(14.30)

Für die beiden anderen Flächenelemente da13 und da23 existieren entsprechende Beziehungen mit zyklischen Indizes und anderen Minoren. Das Volumenelement in krummlinigen Koordinaten wird mit dem Spatprodukt (14.27) berechnet, bei dem die Wurzel aus der Determinante des Metriktensors als Gewichtsfunktion auftritt. dv “ g1 ¨ pg2 ˆ g3 q du1 du2 du3 dv “ x gi , gj , gk y du1 du2 du3 “

?

g du1 du2 du3

(14.31)

Mit diesen Ergebnissen für Flächen- und Volumenelemente können Mehrfachintegrale in krummlinigen Koordinaten formuliert und berechnet werden.

14.5.4

Darstellung des Ortsvektors

Im kartesischen System sind die Koordinaten des Raumpunktes P px1 , x2 , x3 q nach (7.4) bzw. (14.4) gleichzeitig die Komponenten des Ortsvektors. ` ˘T (*) rpP q “ x1 e1 ` x2 e2 ` x3 e3 “ x# e

294

14 Krummlinige Koordinatensysteme

z

e3 e1

x

u2

u3

r e2

P

u1 y

x

3

x1

x2

Abb. 14.4: Ortsvektor zum Raumpunkt P

Im krummlinigen Koordinatensystem kennzeichnen die Koordinaten zwar ebenfalls einen Raumpunkt P pu1 , u2 , u3 q, aber deren Zusammensetzung mit den Basisvektoren gk zum Ausdruck pu# qT g stellt dagegen nicht den Orts#

vektor dar!

In krummlinigen Koordinatensystemen bilden die Koordinaten u# pP q des Punktes P normalerweise nicht die Komponenten des Ortsvektors! Um den Ortsvektor nach den kovarianten Basisvektoren des krummlinigen Koordinatensystems zu zerlegen, muss man die Beziehung (14.20) in die kartesische Form (*) einsetzen, mit der man im Punkte P prq “ P px1 , x2 , x3 q “ P pu1 , u2 , u3 q den Ortsvektor darstellen kann.

` ˘T ` ˘T “ T # # ‰´1 r “ x# e “ x# g F px { u q

#

(14.32)

295

14.6 Beispiele krummliniger Koordinatensysteme

14.6 14.6.1

Beispiele krummliniger Koordinatensysteme Wendelkoordinaten (ρ, ψ, ζ)

Wendelkoordinaten stellen ein nichtorthogonales, krummliniges Koordinatensystem dar, das man sich anhand seiner Flächenscharen für konstant gehaltene Koordinaten wie bei einer Wendeltreppe vorstellen kann. Funktionssätze zur Koordinatendarstellung ˛ a ¨ ˛ ¨ ¨ ˛ ¨ ˛ x ρ ρ cospψ ` aζq x2 ` y 2 ‹ ˚ ‹ ˚ ˚ ‹ ˚ ‹ ‹ x# “ ˝y ‚ “ ˝ ρ sinpψ ` aζq ‚ , u# “ ˝ψ ‚ “ ˚ arctanpy{xq ´ az ˝ ‚ z

ζ

ζ

z

Die Vorgabe eines Raumpunktes P px, y, zq führt zu folgenden geometrischen Größen. Höhe

z

Abstand

ρ“

Winkel

ϕ “ arctanpy{xq “ ψ ` aζ

a x2 ` y 2

Flächenscharen ρ “ const.

konzentrische Kreiszylinder

ψ “ const.

rechts- oder linksgängige Schraubenflächen für ˘ a

ζ “ const.

parallele Horizontalebenen

Funktionalmatrix ¨ ˛ cos pψ ` aζq ´ ρ sin pψ ` aζq ´ aρ sin pψ ` aζq ˚ ‹ F px# { u# q “ ˝ sin pψ ` aζq ` ρ cos pψ ` aζq ` aρ cos pψ ` aζq‚ 0 ¨

0

cos pψ ` aζq

1

sin pψ ` aζq

0

˛

˚ ‹ F´1 px# { u# q “ ˝´ ρ´1 sin pψ ` aζq ρ´1 cos pψ ` aζq ´ a‚ 0

0

1

296

14 Krummlinige Koordinatensysteme

Basisvektoren gρ prq “

cos pψ ` aζq ex `

sin pψ ` aζq ey

gψ prq “

´ ρ sin pψ ` aζq ex `

ρ cos pψ ` aζq ey

gζ prq “

´ aρ sin pψ ` aζq ex `

aρ cos pψ ` aζq ey

gρ prq “

cos pψ ` aζq ex `

sin pψ ` aζq ey

` ez

gψ prq “ ´ ρ´1 sin pψ ` aζq ex ` ρ´1 cos pψ ` aζq ey ´ a ez gζ prq “

ez

Matrizen des Metriktensors ¨ 1 0 0 ˚ 2 a ρ2 G # prq “ ˝0 ρ

˛ ‹ ‚,

¨ ˛ 1 0 0 ˚ ‹ G# prq “ ˝0 a2 ` 1{ρ2 ´ a‚

0 a ρ2 1 ` pa ρq2

0

´a

1

Determinanten g “ det G # prq “ 1 { det G# prq “ det2 F px# { u# q “ ρ2

Flächen- und Volumenelemente ρ “ const.

Ñ

ψ “ const.

Ñ

daψζ “ ρ dψ dζ a daρζ “ 1 ` paρq2 dρ dζ

ζ “ const.

Ñ

daρψ “ ρ dρ dψ dv “ ρ dρ dψ dζ

14.6.2

Astroidkoordinaten (u, ϕ, z)

Hierbei handelt es sich um ein ebenes Koordinatensystem, das in den Ebenen z “ const. nichtorthogonal ist, wie die Abbildung 14.5 zeigt.

297

14.6 Beispiele krummliniger Koordinatensysteme

Funktionssatz zur Koordinatendarstellung ¨ ˛ ¨ ˛ x u cos3 ϕ ˚ ‹ ˚ ‹ x# “ ˝y ‚ “ ˝ u sin3 ϕ ‚ ,

ϕ “ const. Ñ Azimutebenen z “ const.

z

z

u “ const. Ñ Astroiden Ñ Horizontalebenen

Funktionalmatrix ¨ ˛ ¨ ˛ xu xϕ xz cos3 ϕ ´ 3 u sin ϕ cos2 ϕ 0 ‹ ` ˘ ˚ ‹ 3 2 y yϕ yz ‹ “ ˚ F x # { u# “ ˚ ˝ u ‚ ˝ sin ϕ ` 3 u sin ϕ cos ϕ 0 ‚ z u zϕ zz 0 0 1 1 ˚ cos ϕ ˚ ` ˘ ˚ F´1 x# { u# “ ˚´ sin ϕ ˚ 3 u cos2 ϕ ˝ ¨

0

1 sin ϕ cos ϕ 3 u sin2 ϕ 0

˛ 0 ‹ ‹ ‹ 0‹ ‹ ‚ 1

Basisvektoren gu prq “

cos3 ϕ ex `

sin3 ϕ ey

gϕ prq “ ´ 3 u sin ϕ cos2 ϕ ex ` 3 u sin2 ϕ cos ϕ ey gz prq “ gu prq “ gϕ prq “

` ez 1 ex ` cos ϕ sin ϕ ´ ex ` 3 u cos2 ϕ

gz prq “

1 ey sin ϕ cos ϕ ey 3 u sin2 ϕ ` ez

Matrizen des Metriktensors Zur knapperen Schreibweise werden die Abkürzungen s “ sin ϕ und c “

298

14 Krummlinige Koordinatensysteme

cos ϕ verwendet. s6 ` c6

¨

3 u s c rs2 ´ c2 s 0

˚ 2 2 G # prq “ ˚ ˝3 u s c rs ´ c s

¨ ˚ 1 ˚ 1 ˚ # s2 ´ c2 G prq “ 2 2 ˚ s c ˚ ˚ 3usc ˝ 0

‹ 0‹ ‚

3us2 c2

0

0 s2 ´ c2 3usc s6 ` c6 p3 u s cq2 0

˛

1 ˛ 0 ‹ ‹ ‹ ‹ 0 ‹ ‹ ‚ 2 2 s c

Determinanten ` ˘ ` ˘2 g “ det G # prq “ 1 { det G# prq “ det2 F x# { u# “ 3 u sin2 ϕ cos2 ϕ

Flächen- und Volumenelemente u “ const.

Ñ

φ “ const.

Ñ

daφz “ 3 u sin ϕ cos ϕ dϕ dz ` ˘ dauz “ sin6 ϕ ` cos6 ϕ du dz

z “ const.

Ñ

dauφ “ 3 u sin2 ϕ cos2 ϕ du dϕ dv “ 3 u sin2 ϕ cos2 ϕ du dϕ dz

14.6 Beispiele krummliniger Koordinatensysteme

Abb. 14.5: Koordinatenlinien der Astroidkoordinaten in der Ebene z “ 0 Astroiden in blau, u “ 1{4, 2{4, . . . , 8{4 Strahlen in rot, ϕ “ 15˝ , 30˝ , . . . , 345˝

299

Literatur [1] Kreyszig, E.: Differentialgeometrie Akademische Verlagsgesellschaft Geest & Portig, Leipzig (1957)

300

Kapitel 15

Transformation der Komponenten in krummlinigen Koordinatensystemen Zusammenfassung Die Transformationen von Vektor- und Tensorkomponenten werden dargestellt, die in krummlinigen Koordinatensystemen ortsabhängig sind. Die Beziehungen entsprechen formal den Ergebnissen in geradlinigen Systemen.

15.1

Transformationen bei gleicher Basis

Vektoren und Tensoren sind als physikalische Größen unabhängig vom gewählten Koordinatensystem und in diesem Sinne invariant. Eine Zerlegung in ko- oder kontravariante Komponenten hat wegen der Ortsabhängigkeit nur Sinn, wenn der Raumpunkt bekannt ist, in dem die Zerlegung betrachtet wird. Für Vektoren erhält man nach Ersetzen der Basisvektoren gemäß (14.25) Zerlegung und Umrechnung aus dem Vergleich der Komponenten. ‰T “ ‰T “ v “ g prq v# prq “ g# prq G # prq v# prq #

‰T “ ‰T “ g# prq v # prq “ g prq G# prq v # prq “

#

301 © Springer Fachmedien Wiesbaden GmbH, ein Teil von Springer Nature 2019 W. Werner, Vektoren und Tensoren als universelle Sprache in Physik und Technik 1, https://doi.org/10.1007/978-3-658-25272-4_15

302

15 Transformation der Komponenten

v# prq “ G# prq v # prq

v # prq “ G # prq v# prq

(15.1)

Bis auf die Ortsabhängigkeit entsprichen diese Ergebnisse den Gleichungen (7.15), wenn man beachtet, dass die Metrikmatrizen nach (14.22) aus den Funktionalmatrizen zu berechnen sind. Für den Tensor 2. Stufe gilt eine entsprechende Rechnung und für seine kontravarianten Komponenten erhält man entsprechend (9.18) ‰T “ ‰T “ T prq “ g# prq T ## g# prq “ g prq G# prq T ## prq G# prq g prq #

#

T ## prq “ G# prq T ## prq G# prq

(15.2)

Sowohl für Vektoren als auch für Tensoren entsprechen die Transformationsbeziehungen formal den früheren Ergebnissen für geradlinige Koordinatensysteme, so dass die Tabellen 8.1 und 9.1 in entsprechender Weise für die Umrechnung der Komponenten in krummlinigen Koordinatensystemen herangezogen werden können.

15.2 15.2.1

Transformationen bei Basiswechsel Neues Koordinatensystem

Für zwei allgemeine, krummlinige Koordinatensysteme sind u# und w# die alten und die neuen kontravarianten Koordinaten, die die zugehörigen ˆ prq besitzen. Die kartesischen Kokovarianten Basisvektoren g prq und g #

#

ordinaten und ihre Differentiale haben folgende Darstellungen. ` ˘ x# “ x# u#

Ñ

` ˘ dx# “ F x# { u# du#

Ñ

dx# “ F x# { w

(15.3) x# “ x

` #

w

˘ #

`

˘ #

dw#

Der Zusammenhang der beiden krummlinigen Systeme ` ˘ “ ` ˘‰ ` ˘ u# “ u# x# “ u# x# w # “ u# w #

303

15.2 Transformationen bei Basiswechsel

lautet für die Differentiale nach der Kettenregel (13.13) ` ˘ ` ˘ ` ˘ du# “ F u# { w# dw# “ F u# { x# F x# { w# dw# und damit für die Funktionalmatrix nach Argumenttausch gemäß (13.11) ` ˘ ` ˘ ` ˘ F u# { w# “ F´1 x# { u# F x# { w#

(15.4)

Dies ist eine weitere allgemeine Beziehung der Funktionalmatrizen, die zu den erwähnten und (14.19) hinzu tritt. Die verschiedenen Eigenschaften der Funktionalmatrizen sind in Tabelle 15.1 zusammengestellt.

15.2.2

Umrechnung von Basisvektoren und Metrikmatrizen

Beim Übergang vom System u# zum System w# geht aus den äquivalenten Darstellungen des Wegelementes (14.7) nach Ersetzen der Differentiale die Transformation der kovarianten Basisvektoren hervor. ` ` ` ˘T ˘T ` ˘ ˘T dr “ du# g prq “ dw# FT u# { w# g prq “ dw# g ˆ prq #

g ˆ prq “ F #

` T

u# { w

˘ #

#

#

˘ ` ˘ ‰T “ ` g prq “ F u# { x# F x# { w# g prq #

#

Zur Umrechnung der kontravarianten Basisvektoren setzt man die Beziehungen (14.20) im alten und neuen System ineinander ein. g# prq “ F´1 px# { u# q e

und

g ˆ# prq “ F´1 px# { w# q e

Als Ergebnis erhält man die Transformationsbeziehungen der Basisvektoren, bei denen wie früher die jetzt allerdings ortsabhängigen Kopplungsmatrizen P und Q Anwendung finden, was der Klarheit und Verkürzung der Formeln dient. “ ‰´1 g prq “ P prq g prq g ˆ prq “ FT px# { w# q FT px# { u# q #

#

#

g ˆ# prq “ F´1 px# { w# q F px# { u# q g# qprq “ Q prq g# qprq

(15.5)

304

15 Transformation der Komponenten

Hier zeigt sich erneut die formale Äquivalenz der Beziehungen mit denen der geradlinigen Koordinatensysteme, die sich lediglich in der Ortsabhängigkeit aller Größen unterscheiden, so dass man die Tabelle 6.1 bei Basiswechsel in entsprechender Weise verwenden kann. Aus den beiden letzten Beziehungen folgen die Umrechnungen der Metrikmatrizen, die als Komponenten des Metriktensors in krummlinigen Systemen den Transformationen für Tensorkomponenten bei Basiswechsel gemäß Tabelle 9.2 entsprechen. ` ˘T ` ˘T T ˆ#“g G ˆ ¨ g ˆ “ Pg ¨ g P “ P G # PT #

#

#

#

` ˘T ` # ˘T ˆ# “ g G “ Q g # ¨ g # Q T “ Q G# Q T ˆ ˆ# ¨ g ˆ # prq “ Q prq G# prq QT prq G

ˆ # prq “ P prq G # prq PT prq G

(15.6)

15.2.3

Umrechnung der Komponenten von Vektoren und Tensoren

Aus den forminvarianten Darstellungen berechnet man mit (15.5) die kontravarianten Vektorkomponenten ` ˘T # ` ˘T ` T ˘´1 # ` ˘T # v“ g ˆ ˆ P v ˆ v “ g v “ g #

#

#

sowie die kovarianten Tensorkomponenten ` ˘T ` ˘T ` T ˘´1 T “ g# T ## g# “ g ˆ T ## Q´1 g ˆ Q #

˘T

`

“ g ˆ

#

ˆ ## g T ˆ

#

#

mit den Resultaten v ˆ# prq “ Q prq v# prq

ˆ ## prq “ P prq T ## prq PT prq T

(15.7)

Alle anderen Komponenten werden in entsprechender Weise berechnet.

305

15.2 Transformationen bei Basiswechsel

Bei den Komponenten zeigt sich ebenfalls die Äquivalenz der Resultate mit denjenigen bei geradlinigen Koordinatensystemen. Formal kann man daher zur Umrechnung von Vektor- und Tensorkomponenten bei Basiswechsel auf die Tabellen 8.1 und 9.2 zurückgreifen!

15.2.4

Kontragrediente Transformation

Die Bestandteile des Vektors v bei seiner Zerlegung in ‚ die kovarianten Basisvektoren ˆ prq g prq bzw. g #

#

‚ und seine kontravarianten Vektorkomponenten ˆ# prq v# prq bzw. v werden gemäß den Beziehungen (14.25/15.1) bzw. (15.5/15.7) auf verschiedene, nämlich kontragrediente Weise umgerechnet. Das gilt sinngemäß auch für alle Tensorkomponenten. Die Transformationen werden vermittelt durch die Kopplungsmatrizen P prq und Q prq bzw. durch die ihnen zugeordneten Funktionalmatrizen. ` ˘“ ` ˘ ‰´1 ` ˘ P prq “ FT x# { w# FT x# { u# “ FT u# { w #

(15.8)

` ˘ ` ˘ ` ˘ ` ˘ Q prq “ F´1 x# { w# F x# { u# “ F w# { u# “ F´1 u# { w# Die Transformationsmatrizen sind zueinander kontragredient, so dass für sie (6.28) entsprechend gilt. PT prq “ Q´1 prq “ F´1 px# { u# q F px# { w# q “ F pu# { w# q

(15.9)

“ ‰´1 “ T # # ‰´1 QT prq “ P´1 prq “ FT px# { u# q FT px# { w# q “ F pu { w q Diese Beziehungen bleiben auch dann gültig, wenn man eines der krummlinigen Koordinatensysteme mit dem kartesischen System identifiziert, wenn

306

15 Transformation der Komponenten

man also z.B. w# ” x# und g ˆ

#

” g ˆ# ” e setzt. In diesem Falle gilt

nämlich nach (15.5) mit (13.5) g prq “ P´1 prq e “ FT px# { u# q e #

g# prq “ Q´1 prq e “ F´1 px# { u# q e und das stimmt mit den Beziehungen (14.20) überein. Da normalerweise krummlinige Koordinatensysteme in der Form x# pu# q und x# pw# q beschrieben werden, ist für Transformationen nur die Berechnung der beiden Basismatrizen F px# { u# q und F px# { w# q bzw. ihrer Transponierten oder Inversen durch Bildung der partiellen Ableitungen der x# nach den u# oder w# erforderlich.

15.2.5

Gegenüberstellung der Transformationen

Die Transformationen der verschiedenen Größen zwischen zwei Koordinatensystemen werden vermittelt durch die folgenden Matrizen. ‚ Geradlinige Koordinatensysteme Transformationsmatrizen A, U, V, P und Q mit konstanten Elementen ‚ Krummlinige Koordinatensysteme Funktionalmatrizen F px# { u# q und F px# { w# q mit partiellen Ableitungen Die Umrechnungen von Basisvektoren, Vektor- und Tensorkomponenten nach den Tabellen 6.1, 8.1 und 9.2 sind auch bei krummlinigen Koordinatensystemen anwendbar, wenn man die Matrixzuordnungen nach Tabelle 15.2 beachtet, der man entnehmen kann, wie die Matrizen A bis Q in krummlinigen Koordinatensystemen durch die Funktionalmatrizen zu ersetzen sind. Bei den Transformationen der Vektor- und Tensorkomponenten in den erwähnten Tabellen treten zwei besondere Matrizenprodukte auf, die hier explizit angegeben werden. ` ˘“ ` ˘‰´1 T ` # # ˘ ` # # ˘ F x {u F x {u P prq G # prq “ FT x# { w# FT x# { u#

307

15.3 Tabellen

P prq G # prq “ FT px# { w# q F px# { u# q

(15.10)

` ˘ ` ˘ ` ˘“ ` ˘‰´1 Q prq G# prq “ F´1 x# { w# F x# { u# F´1 x# { u# FT x# { u# “ ` ˘ ` ˘‰´1 Q prq G# prq “ FT x# { u# F x# { w#

(15.11)

Beide Matrizenprodukte sind zueinander kontragredient, denn es gilt P prq G # prq “

15.3

““ ‰T ‰´1 Q prq G# prq

Tabellen

Argumenttausch

` ˘ ` ˘ F u# { x# “ F´1 x# { u#

Kettenregel

` ˘ ` ˘ ` ˘ F u # { t# “ F u # { x # F x # { t#

Ko- & Kontra-Wechsel

` ˘ ` ˘ ` ˘ FT x# { u# “ F´1 x# { u# “ F u# { x#

Matrix für zwei Systeme

` ˘ ` ˘ ` ˘ F u# { w# “ F´1 x# { u# F x# { w#

Tabelle 15.1: Beziehungen der Funktionalmatrizen

308

15 Transformation der Komponenten

geradlinig

krummlinig

ˆ e“

Ae

g prq “

Ue

` ˘ F T x# { u# e

g# prq “

Ve

` ˘ F´1 x# { u# e

g prq “

G # g#

` ˘ ` ˘ FT x# { u# F x# { u# g# prq

g# prq “

G# g



#

#

g ˆ prq “

Pg

g ˆ# prq “

Q g#

#

#

#

` ˘ ` ˘ ‰´1 F T x# { u# F x # { u# g prq #

F

` T

x# { w

˘“ #

F

` T

x# { u

˘‰ # ´1

g prq

` ˘ ` ˘ F´1 x# { w# F x# { u# g# prq

Tabelle 15.2: Matrix-Korrespondenzen

#

Kapitel 16

Ableitung krummliniger Grundvektoren Zusammenfassung In krummlinigen Koordinatensystemen sind die Grund- oder Basisvektoren ortsabhängig. Ihre Ableitungen nach den verschiedenen Koordinatenrichtungen stellen ebenfalls Vektoren dar, bei deren Zerlegung die ChristoffelSymbole als Koeffizienten der verschiedenen Richtungen definiert und für verschiedene Koordinatensysteme angegeben werden.

16.1

Darstellung der Grundvektoren und ihrer Änderungen

Die Abbildung 16.1 dient dazu, eine klare Vorstellung über die krummlinigen Grundvektoren und ihre Änderungen bei Fortschreiten in Richtung der Koordinatenlinien zu gewinnen. Dafür genügt die zweidimensionale Darstellung. Da aber alle Indizes jeweils von 1 bis 3 laufen, sind von den neun Änderungsvektoren bzw. Differentialquotienten nur vier dargestellt! 309 © Springer Fachmedien Wiesbaden GmbH, ein Teil von Springer Nature 2019 W. Werner, Vektoren und Tensoren als universelle Sprache in Physik und Technik 1, https://doi.org/10.1007/978-3-658-25272-4_16

310

16 Ableitung der Grundvektoren

Die Größen in der Abbildung haben folgende Bedeutung: uk

kontravariante Koordinaten

gk prq “

Br Buk

kovariante Grundvektoren als Tangentenvektoren der kontravarianten Koordinatenlinien

Bgi Buk

Änderung des Tangentenvektors gi bei Fortschreiten auf der Koordinatenlinie uk (16.1) ∂ g2 ∂u2

u2

= g 2,2

∂ g1 ∂u2

g2(P) g2(R2)

u1 + du 1 = g 1,2

Q

g1(P) R2

g1(R2)

dr

g2(R 1)

u 2+ du 2 ∂ g2 ∂u1

= g 2,1 g2(P)

∂r g2(P) = 2 ∂u

g1(P) ∂ g1 = g 1,1 ∂u1

R1

u1 = const. P

g1(P) =

r

∂r ∂ u1

u 2 = const.

g1(R 1) u1

O

Abb. 16.1: Krummliniges Koordinatensystem

311

16.2 Ableitung kovarianter Grundvektoren

16.2 16.2.1

Ableitung kovarianter Grundvektoren Schreibweise für Ableitungen nach Koordinaten

Um die vielfach auftretenden Ableitungen einfacher zu notieren, wird eine abkürzende Schreibweise definiert. Die partielle Ableitung einer Größe nach einer kontravarianten Koordinate wird durch einen meist mit  bezeichneten unteren, kovarianten Index hinter einem Komma gekennzeichnet, wofür auch das kovariante partielle Symbol B in der Literatur häufig anzutreffen ist. B x..y “ x..y,  “ B x..y Bu

16.2.2

p  “ 1, 2, 3 q

(16.2)

Durchführung der Ableitung

Die Grundvektoren gk eines krummlinigen Koordinatensystems x# pu# q wurden bereits in Abschnitt 14.3.1 eingeführt. Sie stellen als Änderungen des Ortsvektors die Tangentenvektoren der Koordinatenlinien dar. Wie dort erörtert, wird der obere, kontravariante Index im Nenner des Differentials zu einem unteren, kovarianten Index, so dass eine kovariante Größe entsteht. Für die kovarianten Grundvektoren gilt mit (14.4) die Darstellung, gk prq “

Br Bx1 Bx2 Bx3 B “` ˘T ‰ “ r “ e ` e ` e3 “ k x # e 1 2 , k k k k k Bu Bu Bu Bu Bu

was nach Zusammenfassung der Ableitungen auf das Ergebnis (14.5) führt. ` ˘ g prq “ FT x# { u# e #

(16.3)

Differenziert man gk prq nach den kontravarianten Koordinaten, so erhält man nach dem Satz von Schwarz für gemischte Ableitungen, [1, I, S. 382] die Symmetriebeziehung für die Ableitung der kovarianten Grundvektoren gk, “

B2 r Bg Bgk “ k  “ k “ g,k  Bu Bu Bu Bu

312

16 Ableitung der Grundvektoren

sowie die Permutationsbeziehung für beliebige Permutationen tk ,  , mu.

gk,,m “

Bg k ,  B2r “ k  m “ g k , m ,  “ ... “ gtk ,  , mu m Bu Bu Bu Bu

(16.4)

g k ,  , m prq “ gtk ,  , mu prq

g k ,  prq “ g  , k prq

Bei k,  “ 1, 2, 3 sind von den neun ersten Ableitungen der Grundvektoren wegen der Symmetrie nur sechs unabhängig voneinander. Wenn man die ersten Ableitungen zusammenfasst, die nach der gleichen Koordinate abgeleitet werden, dann erhält man den folgenden Spaltenvektor.

¨ Bg g

#,



#

Bu

g1 ,  prq

˛

¨

g  , 1 prq

˛

‹ ˚ ‹ ˚ “ ˝ g2 ,  prq ‚ “ ˝ g  , 2 prq ‚ “ g g3 ,  prq

,#

g  , 3 prq

Die Ableitung der kovarianten Grundvektoren wird nach (16.3) berechnet und führt mit einer speziellen Schreibweise für die Ableitung der Funktionalmatrix auf die folgende Darstellung.

g

#,

prq “

` ˘ Be B “ T` # #˘ ‰ F x {u e ` F T x # { u#  Bu looBu moon “0

g

#,

prq “

ˇ ˘ ` B T # #ˇ  x g “ F { u u e Bu #

(16.5)

Die Ableitungen der Funktionalmatrix sind Matrizen mit doppelten partiellen Ableitungen, die zu einer Blockmatrix zusammengefasst werden, bei

313

16.3 Zerlegung der Ableitungen

der der formale Ableitungsindex in Klammern gesetzt wird. B 2 x1 ˚ Bu1 Bu ˇ ˘ ` ` ˘ ˚ B .. F T x # { u# ˇ u “  F T x # { u# “ ˚ . ˚ Bu ˝ B 2 x1 Bu3 Bu ¨

... .. . ...

˛ B 2 x3 Bu1 Bu ‹ ‹ .. ‹ . ‹ 2 3 B x ‚ Bu3 Bu

ˇ “ ‰ FT x# { u# ˇ up#q › ˇ ˘ ˇ ˘ ˇ ˘ ›› ` ` ` › “ › FT x # { u# ˇ u1 , F T x # { u# ˇ u2 , F T x # { u# ˇ u3 › (16.6)

16.3

Zerlegung der Ableitungen

16.3.1

Ableitung der kovarianten Grundvektoren

Die Ableitungen der kovarianten Grundvektoren (16.5) stellen ebenfalls Vektoren dar, die man mit der Umkehrung von (16.3) in Richtung der kovarianten Grundvektoren zerlegen kann. g

#,

ˇ ˘“ ` ` ˘ ‰´1 ¨# prq “ FT x# { u# ˇ u FT x# { u# g prq “ Γ #  g prq #

#

(16.7) Die Koeffizienten Γkm dieser Vektorzerlegung heißen ChristoffelSymbole nach dem deutschen Mathematiker Elwin Bruno Christoffel (1829 - 1900), die die Elemente der ortsabhängigen Christoffel-Ma¨# trix Γ #  bilden, die ohne das Argument prq geschrieben wird. ¨# Bei der Schreibweise der Christoffel-Matrix Γ #  bezeichnet das untere #-Symbol die Zeile. Das obere #-Symbol für die Spalte wird bei der Matrix mit Punkt, bei den einzelnen Elementen dagegen ohne Punkt geschrieben. Für die Ableitung des k-ten Grundvektors erhält man mit (16.4) die entwickelte und in k und  symmetrische Form, aus der die Symmetrieeigenschaft der Christoffel-Symbole in den unteren Indizes folgt.

314

16 Ableitung der Grundvektoren

g k ,  prq “ Γk1 g1 prq ` Γk2 g2 prq ` Γk3 g3 prq “

g k ,  prq “ g  , k prq

16.3.2

Ñ

ÿ3 m“1

Γkm g m prq

Γkm “ Γm k

(16.8)

Geometrische Bedeutung der Christoffel-Symbole

In der Ableitung g k ,  prq haben die Indizes k, , m des Christoffel-Symbols Γkm folgende Bedeutung: • die Änderung des k-ten kovarianten Basisvektors gk prq • hervorgerufen durch Fortschreiten in Richtung der -ten Koordinate u • zerlegt in die m-te der drei räumlichen Richtungen gm prq



m k

Zerlegungsrichtung Koordinatenrichtung Basisvektor

Abb. 16.2: Bedeutung der Indizes im Christoffel-Symbol

16.3.3

Ableitung der kontravarianten Basisvektoren

Zur Ableitung der kontravarianten Basisvektoren geht man aus von der Einheitsmatrix und von (14.20). ˘ Be B ` B “ ` # # ˘ ´1 ` # # ˘ ‰ “ 0 “ e E “ F x { u looooooooomooooooooon F x {u e Bu Bu Bu “ g# prq

315

16.3 Zerlegung der Ableitungen

Nach Produktregel und Vergleich mit (16.7) folgt ˇ ˘ ` ` ˘ B # F x# { u# ˇ u g# prq ` F x# { u# g prq “ 0 Bu looooomooooon “ g# prq ,

ˇ ˘ “ ¨ # ‰T # ` ˘ ` g prq g# prq “ ´ F´1 x# { u# F x# { u# ˇ u g# prq “ ´ Γ #  ,

(16.9) Die Zerlegung der Ableitungen in Richtung der kontravarianten Basisvektoren führt auf die transponierte Matrix der Christoffel-Symbole. Für die Ableitung des k-ten kontravarianten Basisvektors erhält man die entwickelte Form, bei der aber keine Symmetriebeziehung existiert!

gk,  prq “ ´ Γ1k g1 prq ´ Γ2k g2 prq ´ Γ3k g3 prq

(16.10)

Dafür besteht eine andere Relation der kontravarianten Ableitungen. Summiert man nämlich die folgenden Kreuzprodukte, dann sind drei Glieder wegen paralleler Vektoren Null und die restlichen heben sich wegen der antisymmetrischen Eigenschaft der Vektorprodukte und der symmetrischen der Christoffel-Symbole nach (16.8) gegenseitig auf.

3 ÿ

g ˆ gk,  “ 0

(16.11)

“1

16.3.4

Ableitung der Metrikmatrizen

Die Metrikmatrizen sind nach Abschnitt 14.4.2 die Gram’schen Matrizen der Skalarprodukte der Basisvektoren. Für die Ableitung der kovarianten

316

16 Ableitung der Grundvektoren

Matrix gilt nach Produktregel und (16.7) ˘ ` ‰T “ “ g prq ¨ g prq G # prq “ G g , g #

G # ,  prq “

#

#

#

˘T ` ` ˘T BG # `g ¨ g ¨ g “g  #, # # #, Bu ` ˘ T “ ¨ # ‰T ` ˘ T ¨# “ Γ# `g ¨ g Γ#  g ¨ g #

#

#

#

¨# “ Γ#  G# ` G# Γ#



¨ # ‰T

sowie eine entsprechende Rechnung für die kontravariante Matrix. Wegen der Symmetrie der Metrikmatrizen sind die Matrizen der Ableitungen ebenfalls symmetrisch. “ ¨# ‰T ¨# G # ,  prq “ ` Γ #  G # prq ` Γ #  G # prq (16.12) ¨# # G#,  prq “ ´ G# prq Γ #  ´ G prq Γ # 



16.3.5

¨ # ‰T

Totales Differential der Basisvektoren

Das totale Differential der kovarianten Basisvektoren wird in entsprechender Weise gebildet wie beim Wegelement (14.7) und mit den Symmetriebeziehungen (16.4), (16.8) und der Darstellung (16.7) der Ableitungen erhält man dgk “

Bgk 1 Bgk 2 Bgk 3 du ` 2 du ` 3 du “ g 1, k du1 ` g 2, k du2 ` g 3, k du3 Bu1 Bu Bu ` ˘T dgk “ du# g

#, k

` ˘T ¨ # “ du# Γ # k g

#

(16.13)

Bei den kontravarianten Basisvektoren kann man entsprechend vorgehen, aber wegen der fehlenden Symmetriebeziehung kann keine Darstellung mit der Christoffel-Matrix angegeben werden. Im Abschnitt 17.3.3 des folgenden Kapitels wird im Zusammenhang mit Vektorgradient und Richtungsableitung auch das totale Differential der kontravarianten Basisvektoren mit der zugehörigen Matrix entwickelt.

317

16.3 Zerlegung der Ableitungen

16.3.6

Charakter der Grundvektoren und ihrer Ableitungen

Ein krummliniges Koordinatensystem wird durch den Funktionssatz x# pu# q definiert, aus dem für jeden Raumpunkt die kovarianten Grundvektoren g #

als Tangentenvektoren der Koordinatenlinien uk “ const. sowie deren Abbestimmt werden können, die deren Richtungsänderungen leitungen g #,

entlang der Koordinatenlinien beschreiben. Beide Größen haben zwar Vektorcharakter mit Betrag und Richtung, aber sie sind keine invarianten Vektoren im Sinne der Tensorrechnung wie ein physikalischer Vektor v, da sie in einem festen Raumpunkt beim Wechsel zu einem anderen Koordinatensystem nicht erhalten bleiben. Die ˆ weisen im neuen Sysneuen Grundvektoren g ˆ und ihre Ableitungen g #,

#

tem x# pw# q normalerweise in andere Richtungen und ihre Beträge können sich ebenfalls ändern.

y

g1

g2

y g1

v

w2

v

u2 P

P

w1 u1 x

g2

x

Abb. 16.3: Basisvektoren und physikalische Vektoren beim Wechsel des Koordinatensystems Diese Vektoren stellen zwar notwendige Größen dar, mit denen die geometrischen Eigenschaften des Koordinatensystems adäquat beschrieben werden, aber sie sind zu unterscheiden von physikalischen oder echten Vektoren wie Geschwindigkeit, Kraft oder Feldstärke, die im festen Raumpunkt bei Basiswechsel keine Änderungen von Betrag und Richtung erfahren. Physikalische Vektoren sind stets Invarianten mit eigenständiger Bedeutung, die von allen Koordinatensystemen losgelöst sind.

318

16 Ableitung der Grundvektoren

16.4 16.4.1

Christoffel-Symbole und ihre Matrizen Darstellung und Symmetrie der Christoffel-Symbole

Die Christoffel-Symbole sind die Komponenten der Zerlegung der Vekund g# in Richtung der zugehörigen Basisvektoren torableitungen g #,

g

#

,

und g# . Mit ihnen werden in jedem Raumpunkt die Änderungen der

Grundvektoren beim Fortschreiten in Richtung der Koordinatenlinien ausgedrückt. Aus (16.7) und (16.9) sowie (14.20) und (16.5) erhält man Darstellungen für die Matrizen der Christoffel-Symbole. ¨# Γ#  “g

#,

‰T “ ‰T “ prq ¨ g# prq “ ´ g prq ¨ g# prq #

,

(16.14) ¨# Γ# 

ˇ “ ‰´1 “ FT px# { u# ˇ u q FT px# { u# q

Mit der Funktionalmatrix (14.3), ihrer Inversen (13.11) sowie ihrer Ableitung (16.6) lautet die zweite Darstellung ausführlich B 2 x1 ˚ Bu1 Bu ˚ .. “˚ . ˚ ˝ B 2 x1 Bu3 Bu ¨

¨# Γ# 

B 2 x2 Bu1 Bu .. . B 2 x2 Bu3 Bu

˛¨ 1 B 2 x3 Bu ˚ ‹ 1  Bu Bu ‹ ˚ Bx1 .. ‹ ˚ .. . ‹˚ . B 2 x3 ‚˝ Bu1 Bx3 Bu3 Bu

Bu2 Bx1 .. . Bu2 Bx3

˛ Bu3 Bx1 ‹ .. ‹ ‹ . ‹ Bu3 ‚ Bx3

mit dem allgemeinen Glied Γkm “

3 ÿ p“1

B 2 xp Bum “ Γ m k Buk Bu Bxp

Insgesamt gibt es 27 Christoffel-Symbole, von denen wegen der Symmetriebeziehung aber nur 18 unabhängig und davon häufig auch einige Null sind, was später noch präzisiert wird.

319

16.4 Christoffel-Symbole und ihre Matrizen

16.4.2

Christoffel-Matrizen und H-Matrix

Die in den Ableitungen der Grundvektoren (16.7) und (16.9) für  “ 1, 2, 3 auftretenden Christoffel-Matrizen haben folgende Elemente. ¨

Γ11 Γ12

˚ 1 ¨# Γ#  “ ˝ Γ2 

Γ22

Γ31

Γ13

Γ11 Γ21

¨

˛

‹ Γ23 ‚



¨# Γ# 

‰T

˚ “ ˝ Γ12

Γ32 Γ33

Γ13

Γ22

Γ31

˛

‹ Γ32 ‚

Γ23 Γ33

(16.15) Die Zusammenfassung der Matrizen führt zur Christoffel-Blockmatrix, bei der der Ableitungsindex in Klammern steht.    ¨# ¨# ¨# ¨#  “ Γ# , Γ , Γ Γ  #1 #2 #3  p#q

(16.16)

In ausführlicher Form lautet diese Matrix folgendermaßen, bei der die gleichfarbigen Anteile wegen der Symmetrie (16.8) in den unteren Indizes jeweils übereinstimmen. Insgesamt gibt es daher nur 18 verschiedene Symbole.

¨# Γ# p#q

¨ 1 ˛ ¨ 1 ˛ ¨ 1 ˛  Γ1 1 Γ121 Γ131 Γ1 2 Γ122 Γ132 Γ1 3 Γ123 Γ133    ˚ ‹ ˚ ‹ ˚ ‹ “  ˝ Γ211 Γ221 Γ231 ‚, ˝ Γ212 Γ222 Γ232 ‚, ˝ Γ213 Γ223 Γ233 ‚     Γ1 Γ2 Γ3 Γ312 Γ322 Γ332 Γ313 Γ323 Γ333  31 31 31 (16.17)

Die Spaltenvektoren g

#,

werden ebenfalls zu einer Matrix zusammenge-

fasst, wodurch wegen (16.4) die symmetrische, vektorielle H-Matrix der Ableitungen der kovarianten Grundvektoren entsteht. ¨ ´ H ## prq “

g

#,1

, g

#,2

, g

g1,1 g1,2

g1,3

˛

¯ #,3

˚ “ ˝ g1,2 g1,3

g2,2

‹ g2,3 ‚

(16.18)

g2,3 g3,3

Setzt man die Christoffel-Symbole nach (16.7) ein, dann kann man die H -Matrix gemäß der erweiterten Matrixmultiplikation nach Abschnitt 3.8.2

320

16 Ableitung der Grundvektoren

durch die Christoffel-Blockmatrix ausdrücken. ´ ¨# ¯ ¨# ¨# H prq “ Γ # 1 g , Γ # 2 g , Γ # 3 g ##

#

#

   ¨# ¨# ¨#  “  Γ# , Γ , Γ 1 #2 #3  ˝ g    ¨#  “  Γ # p#q  ˝ g  “

¨# Γ# p#q ˝ g

#

#

#



#

Die Ausführung dieser Multiplikation führt auf Grund der Symmetrieeigenschaften in den gleichfarbigen Anteilen der Christoffel-Blockmatrix zur symmetrischen H-Matrix.

16.4.3

L-Symbole und L-Matrix

Nach der Differentiationsregel (3.48) erhält man für die Ableitungen der kovarianten Basisvektorprodukte folgenden Ausdruck gik ,  “

˘ ` ˘ Bgik B ` “  gi ¨ gk “ gi ¨ gk ,  “ gi ,  ¨ gk ` gi ¨ gk ,   Bu Bu

Da solche Skalarprodukte mehrfach auftreten, wird der einzelne Summand als ortsabhängiges L-Symbol abgekürzt, das wegen (16.4) in den beiden ersten Indizes symmetrisch ist. Lik “ gi, ¨ gk “ g,i ¨ gk “ Lik (16.19) gik ,  “ g i ,  ¨ g k ` g k ,  ¨ g i “ L i  k ` L k  i In der Literatur werden die L-Symbole häufig als Christoffel-Symbole 1. Art bezeichnet, um sie von den Größen Γi k zu unterscheiden, die dann Christoffel-Symbole 2. Art genannt werden. In der Literatur sind auch weitere Schreibweisen mit verschiedenen Klammerungen für diese Drei-Indizes-Symbole zu finden, die hier aber nicht angegeben werden. In der vorliegenden Darstellung bilden L und Γ das entsprechende typographische Größenpaar für die Symbole 1. und 2. Art!

321

16.4 Christoffel-Symbole und ihre Matrizen

Fasst man alle L-Symbole zusammen, dann erhält man mit der H-Matrix die skalare L-Blockmatrix. › › › › L ## p#q prq “ › H ## ¨ g1 , H ## ¨ g2 , H ## ¨ g3 ›

(16.20)

Der Zusammenhang zwischen Christoffel- und L-Symbolen folgt aus Gleichung (16.8) durch skalare und normale Multiplikation mit Basisvektoren g k und Metrikkoeffizienten g kp und anschließende Summation. 3 ÿ

gi, ¨ gk g

kp

k“1



3 ÿ

Lik g

k“1

kp



3 ÿ

Γi q

q“1

3 ÿ

gqk g kp “ Γi p k“1 looooomooooon “ δqp nach (14.23)

Lik “

3 ÿ p“1

Γi p gpk

Γi p “

3 ÿ

L i  k g kp

(16.21)

k“1

Die Beziehung links zeigt man auf entsprechende Weise.

16.4.4

Berechnung der Christoffel-Symbole

Drei Basisvektorableitungen für verschiedene Indexkombinationen, die durch L-Symbole dargestellt werden, führen durch geeignete Kombination zu einer Darstellung der Christoffel-Symbole. A:

gip , j “ gi , j ¨ gp ` gp , j ¨ gi “ L i j p ` L p j i

B:

gjp , i “ gj , i ¨ gp ` gp , i ¨ gj “ L j i p ` L p i j

C:

gij , p “ gi , p ¨ gj ` gj , p ¨ gi “ L i p j ` L j p i

Bei der Summation S “ A ` B ´ C entfallen wegen der Symmetriebeziehung (16.19) der L-Symbole vier Glieder und es verbleibt S “ gip , j ` gjp , i ´ gij , p “ 2 L i j p Mit diesem Ergebnis und der zweiten Beziehung (16.21) erhält man die Darstellung der Christoffel-Symbole durch Metrikkoeffizienten und

322

16 Ableitung der Grundvektoren

deren Ableitungen und damit durch die Elemente des Metriktensors G prq. 2 Γi kj “ 2

3 ÿ

g kp L i j p “

p“1

3 ÿ

` ˘ g kp gip , j ` gjp , i ´ gij , p

(16.22)

p“1

Im speziellen Fall, dass der obere Index einem unteren gleich ist, ergibt sich für die Summe der Christoffel-Symbole eine kompaktere Darstellung. 3 ÿ

2

Γi kk

k“1



3 ÿ 3 ÿ

g

kp

p gip , k ´ gik , p q `

k“1 p“1

3 ÿ 3 ÿ

g kp gkp , i

k“1 p“1

Da sich alle Glieder der ersten Doppelsumme gegenseitig aufheben, erhält man für die zweite Doppelsumme mit (3.50) das folgende einfache Ergebnis. 2

3 ÿ

Γi kk “

3 ÿ k“1

16.5.1

g kp gkp , i “

k“1 p“1

k“1

16.5

3 ÿ 3 ÿ

Γi kk

˘ g,i ` 1 B det G “ “ ln g # ,i det G # Bui g

` ? ˘ ˘ 1 g,i 1` “ “ ln g , i “ ln g , i “ 2 g 2

`? ˘ g ,i ? g

(16.23)

Spezielle Koordinatensysteme Christoffel-Symbole in geradlinigen Koordinatensystemen

In geradlinigen und damit auch kartesischen Koordinatensystemen haben die Basisvektoren auf den Koordinatenlinien feste Richtungen. In Abbildung 16.1 würde das z.B. bedeuten, dass auf den dann geraden Koordinatenlinien uk gilt gk pP q “ gk pRk q In diesem Fall gibt es keine Richtungsänderungen der Tangenten, so dass die Ableitungen der Grundvektoren Nullvektoren darstellen. g k ,  prq “

Bgk “0 Bu

Ñ

g

#,

prq “ 0

323

16.5 Spezielle Koordinatensysteme

Da in (16.5) bei linear unabhängigen Basisvektoren e der Nullvektor nur durch verschwindende Koeffizienten erzeugt werden kann, müssen alle Ableitungen der Funktionalmatrizen zu Nullmatrizen werden und nach (16.14) auch alle Christoffel-Symbole Null sein. ˇ FT px# { u# ˇ u q “ 0

16.5.2

¨# Γ#  “0

Ñ

p@ q

(16.24)

Christoffel-Symbole in ebenen Koordinatensystemen

In ebenen Koordinatensystemen möge die z-Richtung die geradlinige Koordinate bedeuten, die senkrecht steht auf den beiden ebenen, krummlinigen Koordinaten u1 und u2 . Die H-Matrix (16.18) hat dann folgende reduzierte Gestalt, da bei Fortschreiten auf den Koordinatenlinien nur die Basisvektoren g1 , g2 ihre Richtungen ändern. ¨

g1,1 g1,2 0

˚ H ## “ ˝ g2,1 0

˛

‹ g2,2 0 ‚ 0

0

Das bedeutet nach (16.8), dass die folgenden Christoffel-Symbole Null sind, um den Nullvektor zu erzeugen. g

16.5.3

#,3

“g

3,#

“ 0

Ñ

¨# Γ# 3 “ 0

(16.25)

Christoffel-Symbole in orthogonalen Koordinatensystemen

In orthogonalen, krummlinigen Koordinatensystemen stehen in jedem Raumpunkt die Koordinatenlinien und damit ihre Tangentenvektoren paarweise aufeinander senkrecht, so dass die ko- und kontravarianten Basisvektoren nach den Abschnitten 6.6.5 und 8.4.3 richtungsmäßig zusammenfallen. Zur Darstellung der daraus folgenden Beziehungen wird der kovariante Basisvektorsatz verwendet.

324

16 Ableitung der Grundvektoren

Die Skalarprodukte der ungleichnamigen Basisvektoren sind wegen der Orthogonalität Null und damit auch ihre Ableitungen, gik “ gi ¨ gk “ 0 ˘ ` gik ,  “ gi ¨ gk ,  “ 0

+ für i ‰ k

(16.26)

wodurch die Metrikmatrizen und ihre Ableitungen Diagonalform annehmen. ` ˘ ` ˘ “ Diag gk ¨ gk “ Diag gkk G # prq “ Δ # prq ` ˘ G # ,  prq “ Δ # ,  prq “ Diag gkk,  ˘ ` ˘ ` G# prq “ Δ# prq “ Diag gk ¨ gk “ Diag gkk ` ˘ “ Diag gkk,  G#,  prq “ Δ#,  prq In der Darstellung (16.22) der Christoffel-Symbole bleibt dann von der Summe nur ein einziges Glied übrig, und zwar dasjenige, bei dem der erste Faktor gleiche Indizes hat. ` ˘ 2 Γi kj “ g kk gik , j ` gjk , i ´ gij , k

(16.27)

Zur Bestimmung der orthogonalen Christoffel-Symbole kann man vier verschiedene Fälle unterscheiden, bei der die Symmetriebeziehung (16.8) in den unteren Indizes und unbedingt die Beziehung (16.26) berücksichtigt werden muss! 1. i ‰ j ‰ k diese 2 ˆ 3 “ 6 Symbole sind alle Null:

Γi kj “ 0

Γ213 “ Γ312 “ Γ123 “ Γ321 “ Γ132 “ Γ321 “ 0 2. i ‰ j, k “ i oder k “ j für diese 2 ˆ 6 “ 12 Symbole gilt: Γ112 “ Γ211

Γ221 “ Γ122

Γ331 “ Γ133

Γ113 “ Γ311

Γ223 “ Γ322

Γ332 “ Γ233

2 Γi ij “ 2 Γjii “ g ii gii , j

325

16.6 Christoffel-Symbole bei Basiswechsel

3. i “ j ‰ k 2 Γi ki “ ´ g kk gii , k

für diese 6 Symbole gilt: Γ212 ,

Γ313 ,

Γ121 ,

Γ323 ,

Γ131 ,

Γ232

4. i “ j “ k 2 Γi ii “ g ii gii , i

für diese letzten 3 Symbole gilt: Γ111 ,

Γ222 ,

Γ333

Tatsächlich müssen dadurch in orthogonalen Koordinatensystemen nur 15 Christoffel-Symbole berechnet werden. Im Kapitel 18 ergeben sich durch die Eigenschaften der metrischen Faktoren noch weitere Reduktionen. Die Christoffel-Blockmatrix für orthogonale Koordinatensysteme hat damit folgenden Aufbau, bei dem die vier Kategorien von Elementen mit verschiedenen Farben gekennzeichnet sind.

¨# Γ# p#q

¨ 1 ˛ ¨ 1 ˛ ¨ 1 ˛  Γ1 1 Γ121 Γ131 Γ1 2 Γ122 0 Γ1 3 0 Γ133    ˚ ‹ ˚ ‹ ˚ ‹ Γ223 Γ233 ‚  “  ˝ Γ211 Γ221 0 ‚, ˝ Γ212 Γ222 Γ232 ‚, ˝ 0    Γ1 0 Γ331 0 Γ322 Γ332 Γ313 Γ323 Γ333  31 (16.28)

16.6

Christoffel-Symbole bei Basiswechsel

` ˘ # u# Die Koordinatensysteme werden durch die beiden Funktionssätze x ` ˘ und x# w# definiert. Für die Umrechnung der Grundvektoren beim Basiswechsel geht man aus von Gleichung (15.5) oder den Beziehungen der Tabelle 15.2, wobei wie dort zur kürzeren Darstellung die ortsabhängige Kopplungsmatrix P verwendet wird. “ ‰´1 g ˆ prq “ FT px# { w# q FT px# { u# q g prq #

#

T

#

#

“ F pu { w q g prq “ P prq g prq #

#

326

16 Ableitung der Grundvektoren

Bei der Ableitung von g ˆ prq ist zu beachten, dass die Differentiation im #

neuen System w# nach den Koordinaten w erfolgen muss! Bˆ g g ˆ

#,

prq “

# Bw

Bg BP # “ g `P  # Bw Bw

Für die Ableitung der kovarianten Basisvektoren nach den neuen Koordinaten und mit (16.7) folgt Bg

# Bw

Bg “

# Bu1

“g

#,1

Bg Bu3 Bg Bu2 Bu1 # # ` ` Bu3 Bw Bu2 Bw Bw Bu3 Bu1 Bu2 ` g ` g # , 3 Bw  # , 2 Bw  Bw

Bu1 ¨ # Bu2 ¨ # Bu3 ¨ # Γ g ` Γ g ` Γ g Bw # 1 # Bw # 2 # Bw # 3 # ” Bu1 Bu2 ¨ # Bu3 ¨ # ı ¨# “ Γ ` Γ ` Γ g # Bw # 1 Bw # 2 Bw # 3 ` ˘ “ C r ,  g prq “

#

In die Beziehung (16.14) für die Christoffel-Symbole im neuen System werden die verschiedenen Größen eingesetzt und mit Tabelle 6.2 folgt ı ` # ˘T ” BP ` # ˘T ¨# ˆ# Γ ˆ ¨ g ˆ “ ` P C ¨ g ˆ g  “g #, # Bw loooooomoooooon “ QT “ P´1

ˇ ˘ ` ` ˘ ` ˘ ` ˘ “ F T u# { w # ˇ w  F T w # { u# ` FT u# { w # C F T w # { u# ¨# ˆ# Die Christoffel-Symbole Γ  im neuen System sind im zweiten Summan¨# den durch die Matrix C linear in den Christoffel-Symbolen Γ #  des alten Systems. Da aber durch den ersten Summanden absolute Glieder additiv hinzutreten, wird die allgemeine Transformationsregel (9.20) verletzt, so dass daher folgende Aussage gilt.

‚ Die Christoffel-Symbole sind keine Komponenten eines Tensors 3. Stufe!

327

16.7 Beispiele für Christoffel-Symbole

16.7

Beispiele für Christoffel-Symbole

16.7.1

Christoffel-Symbole und Ableitungen

Zur Berechnung der Christoffel-Symbole kann man (16.14) oder (16.22) verwenden, wobei die erste Beziehung die günstigere ist, weil die Matrizen leichter zu berechnen sind. In der Christoffel-Blockmatrix (16.16) werden alle ChristoffelSymbole und in der H-Matrix (16.18) alle Ableitungen der Basisvektoren zusammengefasst.

16.7.2

Wendelkoordinaten

Funktionalmatrix Die Matrix liegt nach Abschnitt 14.6.1 bereits vor und ihre Transponierte sowie deren Kehrmatrix lauten mit den Abkürzungen s “ sinpψ ` aζq und c “ cospψ ` aζq c

¨

s

` ˘ ˚ FT x# { u# “ ˝ ´ ρ s

0

ρc

˛

‹ 0‚

´ aρ s aρ c 1 ¨ “

c ´ s{ρ 0

˛

` ˘ ‰´1 ˚ “˝s FT x# { u#

c{ρ

‹ 0‚

0

´a

1

Ableitungen der Funktionalmatrix ˇ “ ‰ FT x# { u# ˇ up#q ›¨ ˛› ˛¨ ˛¨ › 0 0 0 ´s c 0 ´as ac 0 › › › ›˚ ‹˚ ‹› ‹˚ c 0 ‚,˝ ´ ρ c ´ ρ s 0 ‚,˝ ´ a ρ c ´ a ρ s 0 ‚ › “ ›˝ ´ s › › › ´as ac 0 ´aρc ´aρs 0 ´ a2 ρ c ´ a2 ρ s 0 ›

328

16 Ableitung der Grundvektoren

Christoffel-Blockmatrix ›¨ ˛ › ˛ ¨ ˛ ¨ › 0 0 0 0 1{ρ 0 0 a{ρ 0 › › › ‹ › ›˚ ‹ ˚ ‹ ˚ ¨# 0 1{ρ 0 ´ ρ 0 0 ´ a ρ 0 0 “ Γ# , , › › ‚ ˝ ‚ ˝ ‚ ˝ p#q › › › 0 a{ρ 0 2 ´aρ 0 0 ´a ρ 0 0 › Matrix der Einheitsvektorableitungen Die Basisvektoren g bereits in Abschnitt 14.6.1 angegeben.

H ##

› › ¨# “ ›Γ# p#q

¨ ˛ ¨ gρ,ρ gρ,ψ gρ › › ˚ ‹ ˚ › ˝ ˝gψ ‚ “ ˝ gψ,ρ gψ,ψ gζ

gζ,ρ

gζ,ψ

˚ “ ˝ gψ {ρ

wurden

˛

‹ gψ,ζ ‚ gζ,ζ

gψ {ρ

a gψ {ρ

´ ρ gρ

‹ ´ a ρ gρ ‚

0

¨

gρ,ζ

#

˛

a gψ {ρ ´ a ρ gρ ´ a2 ρ gρ

16.7.3

Astroidkoordinaten

Funktionalmatrix Die Matrix liegt nach Abschnitt 14.6.2 bereits vor und ihre Transponierte sowie deren Kehrmatrix lauten mit s “ sin ϕ und c “ cos ϕ ¨

c3

s3

0

˛

` ˘ ˚ ‹ FT x# { u# “ ˝´ 3usc2 3us2 c 0 ‚ 0

0

1 ˚c ˚ ˚ “ ˚1 ˚s ˝ ¨



F

T

`

#

x {u

#

˘ ‰´1

0

s 3uc2 c 3us2

´

0

1

˛ 0 ‹ ‹ ‹ 0‹ ‹ ‚ 1

329

16.7 Beispiele für Christoffel-Symbole

Ableitungen der Funktionalmatrix ˇ “ ‰ FT x# { u# ˇ up#q ›¨ ˛¨ ˛¨ ˛› › 0 0 0 3s2 c 0 ´ 3sc2 0 0 0 › › › ›˚ ‹˚ ‹˚ ‹› “ ›˝´ 3sc2 3s2 c 0 ‚,˝3ucp3s2 ´ 1q 3usp3c2 ´ 1q 0 ‚,˝ 0 0 0 ‚ › › › › 0 0 0 0 0 0 0 0 0 › Christoffel-Blockmatrix ›¨ ˛ ¨ ˛ ¨ ˛ › › 0 0 0 0 1{u 0 0 0 0 › › › ›˚ ‹ ˚ ‹ ˚ ‹ › ¨# 0 1{u 0 3u 4 cot 2ϕ 0 0 0 0 “ , Γ# , › › ˝ ‚ ˝ ‚ ˝ ‚ p#q › › › 0 0 0 0 0 0 0 0 0 › Matrix der Einheitsvektorableitungen Die Basisvektoren g ¨

#

wurden bereits in Abschnitt 14.6.2 angegeben.

gu,u gu,ϕ

gu,z

˛

¨

0

gϕ {u

˚ H ## “ ˝ gϕ,u

gϕ,ϕ

‹ ˚ gϕ,z ‚ “ ˝gϕ {u 3ugu ` 4 cot 2ϕgϕ

gz,u

gz,ϕ

gz,z

0

0

0

˛

‹ 0‚ 0

Literatur [1] Fichtenholz, G. M.: Differential- und Integralrechnung I/II/III VEB Deutscher Verlag der Wissenschaften, Berlin, 5. Aufl. (1972)

330

Kapitel 17

Differentialoperationen Zusammenfassung In der physikalischen Realität sind besonders solche Größen von Interesse, die nicht konstant sind, sondern sich von Ort zu Ort oder auch mit der Zeit als stetige Funktionen verändern. Jedem Punkt des Raumes können für variable physikalische Größen Tensoren zugeordnet werden und je nach der Stufe liegen dann orts- und ggf. zeitabhängige Skalar-, Vektor- oder allgemein Tensorfelder vor. Gegenstand der Tensoranalysis ist die Untersuchung, wie sich die Tensoren bzw. ihre Komponenten in Abhängigkeit von Koordinaten und Variablen ändern. Die verschiedenen Differentialoperationen der einzelnen Größen werden untersucht und am Ende des Kapitels tabellarisch zusammengefasst. Das Helmholtz-Theorem sagt aus, dass jedes reguläre Vektorfeld als Summe eines Quellenfeldes und eines Wirbelfeldes dargestellt werden kann. In allen physikalischen Feldern ist die Unterscheidung zwischen dem Quellpunkt Q als Ursache und Ausgangspunkt der Feldwirkungen und dem Aufpunkt P , in dem diese Wirkungen auftreten, notwendig. Der Abstandsvektor zwischen beiden Punkten sowie sein direkter und reziproker Betrag werden untersucht und eine Reihe von Differentialoperationen werden dargestellt. 331 © Springer Fachmedien Wiesbaden GmbH, ein Teil von Springer Nature 2019 W. Werner, Vektoren und Tensoren als universelle Sprache in Physik und Technik 1, https://doi.org/10.1007/978-3-658-25272-4_17

332

17 Differentialoperationen

17.1

Gradient skalarer Ortsfunktionen

17.1.1

Totales Differential als Skalarprodukt

Im krummlinigen Koordinatensystem u# wird der Zuwachs dV einer skalaren Ortsfunktion V pu1 , u2 , u3 q in einem Raumpunkt P prq durch den folgenden Differentialausdruck bestimmt, der als totales oder vollständiges Differential bezeichnet wird und aus Sicht der Tensorrechnung als skalare Größe eine Invariante gegenüber Koordinatentransformationen darstellt.

dV “

3 ÿ BV BV BV BV 1 2 3 du ` du ` du “ du 1 2 3  Bu Bu Bu Bu “1

(17.1)

Diese Darstellung des totalen Differentials kann man mit dem Spaltenvektor V , # der Ableitungen von V durch Erweiterung mit der Einheitsmatrix aus den Basisvektoren auch als Skalarprodukt zweier Vektoren ausdrücken. ˘T ˘T ˘T ` ˘T ` ` ` dV “ du# V , # “ du# E V , # “ du# g ¨ g# V , # #

˘ ´ ` BV BV BV ¯ “ du1 g1 ` du2 g2 ` du3 g3 ¨ g1 1 ` g2 2 ` g3 3 Bu Bu Bu Hierbei stellt der erste Faktor den kontravarianten Vektor des Wegelementes nach (14.7) dar und der zweite Faktor wird bezeichnet als Gradient grad V der skalaren Ortsfunktion V pu1 , u2 , u3 q, der gemäß der Regel (7.12) als kovarianter Vektor erscheint. Damit stellt das totale Differential der Ortsfunktion ein Skalarprodukt dar, das man nach (11.9) auch als Überschiebung der beiden Tensoren 1. Stufe dr und grad V deuten kann. dV “ dr ¨ grad V “ dr ¨ ∇V

17.1.2

(17.2)

Gradient und Nabla als kovariante Vektoren

Für die Bildung des Gradienten wurde von William Rowan Hamilton (1805 -1865) der symbolische Nabla-Vektor ∇ als Differentialoperator eingeführt.

333

17.1 Gradient skalarer Ortsfunktionen

Auf Grund dieser Definition des Gradienten kann man die Schreibweise (16.2) der partiellen Ableitung durch eine Darstellung mit Nabla erweitern, die bei Matrizen auf alle Elemente wirkt. ∇ x..y “

B x..y “ x..y,  “ B x..y Bu

(17.3)

Nabla ist ein kovarianter Vektor, da sein Spaltenvektor ∇ # die partiellen Ableitungen als kovariante Komponenten zusammenfasst. ∇ x..y “ grad x..y “ g1

∇#

` # ˘T B x..y 2 B x..y 3 B x..y ∇ # x..y ` g ` g “ g Bu1 Bu2 Bu3

¨ ˛ ¨ ˛ ¨ ˛ ∇1 B{Bu1 B1 ˚ ‹ ˚ ‹ ˚ ‹ 2 “ ˝∇2 ‚ “ ˝B{Bu ‚ “ ˝B2 ‚ ∇3 B{Bu3 B3

(17.4)

In Nabla-Schreibweise können die kovarianten Grundvektoren gk nach (14.5) als Ortsvektorableitungen formuliert werden. g prq “ ∇ # r #

(17.5)

Der Gradient eines Skalars ist wie Nabla von Natur aus ein kovarianter Vektor, da er nur mit kovarianten Komponenten in Richtung der kontravarianten Basisvektoren in Erscheinung tritt. ˛ ¨ ¨ ˛ ∇1 V BV {Bu1 ` ˘T ˚ ` ˘T ‹ ` ˘T ˚ ‹ grad V “ ∇V “ g# ∇ # V “ g# ˝∇2 V ‚ “ g# ˝BV {Bu2 ‚ ∇3 V BV {Bu3 (17.6) Das totale Differential (17.2) einer skalaren Ortsfunktion stellt ein Skalarprodukt dar, das gebildet wird aus einem reziproken Vektorpaar mit den beiden Faktoren ‚ Wegelement dr

als kontravarianter Vektor (14.7)

‚ Gradient grad V

als kovarianter Vektor

334

17 Differentialoperationen

Dies ist ein weiteres Beispiel dafür, dass es in der Tensorrechnung sinnvoll ist, zwei reziproke Basissysteme zu verwenden, bei deren gemeinsamer Anwendung wichtige Beziehungen auf elegante Weise formuliert werden können.

17.1.3

Physikalische Deutung des Gradienten, Niveauflächen und Feldlinien

Eine skalare Ortsfunktion V pu1 , u2 , u3 q bildet im Raum ein skalares Feld. Auf bestimmten Flächen, sog. Niveauflächen, weist diese Funktion konstante Werte auf. Liegt das Wegelement dr in einer Niveaufläche V pu1 , u2 , u3 q “ const., auf der dV “ 0 gilt, so sind die Vektoren dr und grad V nach (17.2) in diesem Raumpunkt orthogonal, da ihr Skalarprodukt verschwindet. ‚ Der Gradient einer Ortsfunktion steht senkrecht auf ihren Niveauflächen!

(17.7)

Stellt der Einheitsvektor n die Normale der Niveaufläche dar, die in Richtung zunehmender Werte von V zeigt, so gilt grad V “ n | grad V |

n ~ grad V = v dr 

V > V0 V < V0

P V = V0 = const.

Abb. 17.1: Ebene Darstellung der Niveaufläche einer skalaren Ortsfunktion Bei beliebigen Lagen von dr wird der Zuwachs der Funktion V dV “ dr ¨ grad V “ | dr | | grad V | cos α

335

17.1 Gradient skalarer Ortsfunktionen

in einem Raumpunkt am größten für α “ 0, so dass der Gradient in die Richtung der stärksten Zunahme von V weist. Er ist damit dem Normalenvektor proportional und steht senkrecht auf den Niveauflächen. In physikalischen Feldern existieren im Raum zwei Feldfunktionen • das Skalarfeld V pu1 , u2 , u3 q, dessen Niveauflächen bei Potentialfunktionen die Äquipotentialflächen bilden • das Vektorfeld vpu1 , u2 , u3 q “ grad V pu1 , u2 , u3 q, dessen Tangentenrichtungen die Strom- oder Feldlinien bilden Damit das Wegelement dr in die Tangentenrichtung des Vektorfeldes v weist, muss folgende Differentialgleichung für die Feldlinien gelten. dr Ò v

dr ˆ v “ dr ˆ grad V “ 0

ñ

(17.8)

Das führt mit der Γ-Matrix (6.25) auf die Beziehung ` ˘T # dr ˆ v “ pdu# qT g ˆ g v “ S # pdu# qT Γ# v# “ 0 #

#

pv 3 du2 ´ v 2 du3 q g1 ` pv 1 du3 ´ v 3 du1 q g2 ` pv 2 du1 ´ v 1 du2 q g3 “ 0 Da jede Komponente dieser Vektorgleichung für sich Null sein muss, erhält man das äquivalente Differentialgleichungssystem. du1 : du2 : du3 “ v 1 : v 2 : v 3

(17.9)

Mit den kovarianten Komponenten des Gradienten und (15.1) führt das auf folgende Differentialgleichungen, die nach Integration die Feldlinien liefert. ` ˘T ` ˘T v “ grad V “ g# ∇ # V “ g# v # v # “ G# v # “ G# ∇ # V vi g i1 ∇1 V ` g i2 ∇2 V ` g i3 ∇3 V dui “ k “ k1 k du v g ∇1 V ` g k2 ∇2 V ` g k3 ∇3 V

(17.10)

336

17 Differentialoperationen

Die graphische Darstellung von Niveau- und Feldlinien bildet ein Feldbild, das als Hilfsmittel dient, um einen anschaulichen Überblick über die Feldstruktur zu gewinnen. Leicht zu überblicken sind ebene oder rotationssymmetrische Felder, bei denen die Feldbilder in einer Ebene darstellbar sind. Dabei haben Feldlinien keine physikalische Realität, sondern geben als gedachte oder gezeichnete Verbindungslinien zwischen benachbarten Raumpunkten die Tangentenrichtung des Feldvektors oder der Feldstärke an. Die Feldlinien schneiden die Niveau- oder Äquipotentialflächen senkrecht, die mit gleichmäßigem Abstand dV dargestellt werden. Ein Maß für den Betrag der Feldstärke gewinnt man durch die Dichte der Feldlinien, wobei ein geringer Abstand eine hohe Feldstärke bedeutet. Für ein Feldbild zeichnet man einige der theoretisch unendlich vielen Feldlinien, die einen systematischen Abstand haben, so dass sich zwischen ihnen immer der gleiche Vektorfluss befindet, der in Abschnitt 19 definiert wird. Die Dichte der Feldlinien und damit der pro Volumeneinheit transportierte Fluss ist ein Maß für die Stärke des Feldes. Im dreidimensionalen Raum umschließt ein Bündel von Feldlinien schlauchartig eine Flussröhre, über deren Begrenzung kein Fluss ein- oder austreten kann. In Abbildung 17.2 ist beispielhaft ein ebenes Feldbild dargestellt, bei dem die Feldlinien des Vektorfeldes v “ grad V und die Niveauflächen des Skalarfeldes V “ const. ein Netz von orthogonalen Kurvenscharen bilden, die man auch als orthogonale Trajektorien bezeichnet, [8, II, S. 34].

17.1.4

Geometrische Deutung der kontravarianten Basisvektoren

Die kontravarianten Basisvektoren gi , die bisher nicht betrachtet wurden, lassen sich als Gradient der Koordinaten u# darstellen, denn wegen der Beziehung Bui {Buk “ δki bleibt in (17.4) jeweils nur ein Glied übrig. gi “ grad ui “ ∇ui

dui “ dr ¨ grad ui “ gi ¨ dr

(17.11)

Auf Grund der Reziprozitätsbedingung steht der kontravariante Basisvektor gi in einem Raumpunkt P pu1 , u2 , u3 q senkrecht auf den kovarianten

337

17.1 Gradient skalarer Ortsfunktionen

grad V V2 > V 1

Äquipotentialflächen

Feldlinien

V = V1 V = const. , dV = 0 Abb. 17.2: Orthogonale Scharen von Niveauflächen und Feldlinien Vektoren gj und gk , # gi “ grad ui

K

gj gk

pi, j, k zyklischq

die nach Abbildung 14.1 die Tangenten der Koordinatenlinien uj und uk bilden. gi steht damit gleichzeitig senkrecht auf einer Fläche ui “ const. und weist als Gradient in die Richtung der größten Zunahme der Koordinate ui . Die Darstellungen in Abbildung 17.3 zeigen die ko- und kontravarianten Basisvektoren und zum Vergleich noch einmal das krummlinige Koordinatensystem der Abbildung 14.1.

17.1.5

Skalare Ortsfunktion bei Basiswechsel

Betrachtet wird eine skalare Ortsfunktion V prq im alten und neuen Koordinatensystem u# “ u# pw# q, die identische Werte im gleichen Raumpunkt P pu1 , u2 , u3 q “ P pw1 , w2 , w3 q aufweist. Vˆ pw1 , w2 , w3 q ” V pu1 , u2 , u3 q

338

17 Differentialoperationen

  

g 

 

r   g 

 



g      

     

r  

     

g  g  



 

g   



  

Abb. 17.3: Kurvenscharen und Basisvektoren in krummlinigen Systemen Ihre Ableitungen in Richtung der neuen Koordinaten lauten 1 2 3 B Vˆ ˆ ,  ” V ,  “ BV “ BV Bu ` BV Bu ` BV Bu “ V Bu1 Bw Bu2 Bw Bu3 Bw Bw Bw

Bu1 Bu2 Bu3 V ` V ` V,3 , 1 , 2 Bw Bw Bw Fasst man die Ableitungen zu Spaltenvektoren zusammen, so folgt mit der Funktionalmatrix gemäß (14.3) und (17.4) ¨ ˛ ¨ ˛ ¨ ˛ Vˆ , 1 ∇1 Vˆ V ` # #˘ ˚ , 1‹ ˚ˆ ‹ ˚ ˆ‹ T ˆ V , # “ ˝V , 2 ‚ “ ˝∇2 V ‚ “ F u { w ˝V , 2 ‚ V,3 ∇3 Vˆ Vˆ , 3 “

der Zusammenhang der Funktionsableitungen in den Systemen als Matrixgleichung. ` ˘ ` ˘ ˆ , # prq “ ∇ # Vˆ “ FT u# { w# ∇ # V “ FT u# { w# V , # prq V (17.12)

339

17.2 Ableitung von Vektoren und Tensoren

Die Komponenten des Gradienten erfüllen bei Basiswechsel die Transformationsregel (9.20) für einen kovarianten Vektor gemäß Tabelle 8.1. Bei einer skalaren Ortsfunktion entsprechen die partiellen Ableitungen den weiter unten definierten kovarianten Ableitungen.

17.2

Ableitung von Vektoren und Tensoren

17.2.1

Partielle Ableitung der Vektorkomponenten

Leitet man die Komponenten eines beliebigen Vektors vprq in der Darstellung (15.1) ab, dann erhält man mit (16.12) Beziehungen, die die Ableitungen nach (17.3) durch die reziproken Komponenten ausdrücken. “ # ‰ Bv# # # G “ G#,  v # ` G# v # ,  “ v prq “ ∇ v “ ∇ v   # ,   Bu “ ‰ Bv # “ v # ,  prq “ ∇ v # “ ∇ G # v# “ G # ,  v# ` G # v#,   Bu “ # ¨ # ` # ¨ # ˘T ‰ # v# v# ,  prq “ G v # ,  ´ G Γ #  ` G Γ #  (17.13) ¨# ¨# # v # ,  prq “ G # v#,  ` Γ #  G ` Γ# G



`

˘ ‰ # T

v#

Solche Darstellungen, die aus zwei oder mehr Anteilen bestehen, sind bei Ableitungen in krummlinigen Koordinatensystemen grundsätzlich zu erwarten, da sowohl Komponenten als auch Grundvektoren ortsabhängig sind und gemäß der Produktregel differenziert werden müssen. Beispiele dafür sind im Abschnitt 5.6 bei der Untersuchung von Raumkurven und der Bewegung von Punkten auf Bahnkurven bereits aufgetreten.

17.2.2

Partielle Ableitung von Vektoren, Vektorableitung

Die nach den kontravarianten Koordinaten gebildete partielle Ableitung des Vektors selbst, die Vektorableitung genannt wird, hat mit (17.3) die folgende

340

17 Differentialoperationen

kontravariante Komponentendarstellung. ‰ “ ` ˘T Bv “ v ,  “ ∇ v “ ∇ v # g  # Bu “ ` # ˘T ‰ ` ˘T g ` v # ∇ g “ ∇ v #

“ v#,  `

˘T

g

`

#

` v

˘ # T

g

#

#,

Ein ähnlicher Ausdruck ergibt sich für die kovarianten Komponenten und mit (16.7) und (16.9) erhält man die beiden Darstellungen der Vektorableitung, v ,  prq “ ∇ vprq “

“ ` # ˘ T ` # ˘T ¨ # ‰ v , ` v Γ# g

#

“` ˘ T ` ˘T ` ¨ # ˘ T ‰ # “ v#, ´ v# Γ# g

(17.14)

die selbst ein Vektor ist und nach diesen Beziehungen in Richtung der Basisvektoren zerlegt wird.

17.2.3

Kovariante Ableitung von Vektoren

Für die Komponenten der Vektorableitung wird eine abkürzende Schreibweise eingeführt, bei der die Operation der Ableitung durch eine Variable hinter einem senkrechten Strich gekennzeichnet wird.

v, “

“ ˇ ‰T “ ˇ ‰T Bv “ ∇ v “ v # ˇ  g “ v # ˇ  g #  # Bu

(17.15)

Aus dem Vergleich der beiden letzten Beziehungen folgen unter Beachtung ˇ ˇ # ˇ ˇ der Transponierung die Komponenten v  und v#  der Vektorableitung. Man nennt sie die kovarianten Ableitungen eines Vektors in ko- und kontravarianter Komponentendarstellung, die sich aus den partiellen Ableitungen und Zusatzgliedern mit Christoffel-Symbolen zusammensetzen. Dabei bezieht sich die kovariante Ableitung nur auf die Komponenten und

17.2 Ableitung von Vektoren und Tensoren

341

nicht auf den Vektor selbst!

ˇ ` ¨ # ˘T # v# ˇ  prq “ v#,  ` Γ # v  (17.16) ˇ ¨# v# ˇ  prq “ v # ,  ´ Γ #  v#

Die Vektorableitung lautet für beide Fälle mit den Elementen der Christoffel-Matrizen (16.15) ausführlich



` ˘ı v 1,  ` v 1 Γ1 1 ` v 2 Γ2 1 ` v 3 Γ3 1 g1 ” ˘ı ` ` v 2,  ` v 1 Γ1 2 ` v 2 Γ2 2 ` v 3 Γ3 2 g2 ” ` ˘ı ` v 3,  ` v 1 Γ1 3 ` v 2 Γ2 3 ` v 3 Γ3 3 g3 ” ˘ı ` “ v1 ,  ´ v1 Γ1 1 ` v2 Γ1 2 ` v3 Γ1 3 g1 ” ˘ı ` ` v2 ,  ´ v1 Γ2 1 ` v2 Γ2 2 ` v3 Γ2 3 g2 ” ` ˘ı ` v3 ,  ´ v1 Γ3 1 ` v2 Γ3 2 ` v3 Γ3 3 g3

v ,  “ ∇ v “

Im Gegensatz zur partiellen Ableitung kann die kovariante Ableitung einer einzelnen Vektorkomponente nur berechnet werden, wenn auch alle anderen Komponenten bekannt sind! Durch Erweiterung mit der Einheitsmatrix kann die Vektorableitung auch als Skalarprodukt aus einem Tensor C und dem Vektor v dargestellt werden, woraus man den Tensorcharakter der kovarianten Ableitung erkennt. Auf Grund der Herleitung darf dabei der Operator ∇ des Tensors nur auf die Vektorkomponenten aber nicht auf dessen Basisvektoren

342

17 Differentialoperationen

einwirken! ` ˘T # ˇ ` ˘T ” # ` ¨ # ˘T # ı v, “ g v ˇ “ g v , ` Γ# v # # ` ¨ # ˘ T ı # ` ˘T # ` ˘T ” v “C ¨v g ¨ g E ∇ ` Γ # “ g  # # looooooooooomooooooooooon “C# ¨#

ı ˇ ` ˘T ` ˘T ” ¨# v ,  “ g# v# ˇ  “ g# v v#, ´ Γ#  # ” ı ` ˘T ` ˘T ¨# g ¨ g# v # E ∇ ´ Γ # “ g#  looooooooomooooooooon #

“ Cˆ ¨ v

¨#

ˆ “C #

17.2.4

Transformation der kovarianten Ableitungen

Um in den Beziehungen (17.16) die kovarianten Ableitungen auch in den reziproken Vektorkomponenten auszudrücken, wird die Umrechnung der Komponenten nach (15.1) eingesetzt und die Metrikmatrix als Skalarprodukt der Basisvektoren nach (14.25) dargestellt. ` ˘T v # “ G# v # “ g # ¨ g # v # ` ˘T # v v # “ G # v# “ g ¨ g #

#

Die kovariante Ableitung lautet mit den Christoffel-Symbolen nach (16.9) ˇ “ ‰ ` ¨ # ˘T # ` ˘T v# ˇ  prq “ ∇ g# ¨ g# v # ` Γ # G v#  ` ˘T ` ˘T v# “ g# ¨ g# v # ` g# ¨ g# ,

,

` ¨ # ˘T # ` G v#, ` Γ# G v#  #

` ˘T ¨ # ` ¨ # ˘T # ` # ˘ T v # ´ g# ¨ g# Γ # “ ´ Γ# g ¨ g  v#  ` ¨ # ˘T # ` G# v # ,  ` Γ # G v#  Eine entsprechende Rechnung kann man auch für die zweite Beziehung in (17.16) durchführen. In beiden Ausdrücken kompensieren sich das erste und letzte Glied, so dass nur die mittleren Glieder übrig bleiben.

343

17.2 Ableitung von Vektoren und Tensoren

Die Transformationsgesetze der kovarianten Ableitungen eines Vektors lauten damit genauso wie die Umrechnungen der Vektorkomponenten selbst. ˇ ˇ ‰ “ ¨# “ G# prq v# ˇ  prq v# ˇ  prq “ G# v # ,  prq ´ Γ #  v # prq (17.17) ˇ ‰ “ ¨# # v# ˇ  prq “ G # v#,  prq ` Γ #  v prq

ˇ “ G # prq v# ˇ  prq

Das ist nicht überraschend sondern war zu erwarten, da ja die Vektorableitung von v einen Vektor w darstellt, “ ˇ ‰T w “ v ,  “ v# ˇ  g

#

` ˘T “ w# g

#

ˇ ‰T ` ˘T “ v # ˇ  g# “ w # g# “

dessen Komponenten w # und w# die Transformation nach (15.1) erfüllen!

17.2.5

Kovarianzmatrizen

Die einzelnen Vektorableitungen (17.15) werden zum Spaltenvektor zusammengefasst, wodurch gemäß Definition (17.4) der Nabla-Operator des Vektors entsteht. ˛ ¨` ˇ ˘ ˛ ¨` ˇ ˘T T #ˇ ¨ ˛ ¨ ˛ g v v# ˇ ∇1 v v,1 ˚` ˇ1 ˘T # ‹ ˚` ˇ1 ˘ ‹ ˚ ‹ ˚ ‹ ˚ ‹ T ∇ # v “ ˝∇2 v ‚ “ ˝v , 2 ‚ “ ˚ v# ˇ2 g ‹ “ ˚ v# ˇ ‹ g ˝` ˇ ˘ # ‚ ˝` ˇ2 ˘ ‚ # T T v,3 ∇3 v v# ˇ3 g v# ˇ3 # ¨` ˇ ˘T ˛ ¨` ˇ ˘ ˛ T v# ˇ1 g# v# ˇ1 ‹ ˚` ˇ ˘ ‹ ˚` ˇ ˘ T ‹ ˚ T # “ ˚ v# ˇ2 g# ‹ “ ˚ v# ˇ2 ‹ ˝ ‚g ‚ ˝` ˇ ˘ ` ˇ ˘T T v# ˇ3 g# v# ˇ3 ∇ #v “

´

ˇ ¯T V# ˇ # g

´ #



ˇ ¯T # V# ˇ# g

(17.18)

344

17 Differentialoperationen

ˇ Die beiden dabei entstehenden Matrizen heißen Kovarianzmatrizen V# ˇ # ˇ und V # ˇ # des Vektors v, die als Elemente die kovarianten Ableitungen (17.16) der Vektorkomponenten enthalten, wobei die Transponierung zu beachten ist.

ˇ V# ˇ #

ˇ ˇ ˛ ¨ 1 ˇˇ v 1 v 1 ˇ2 v 1 ˇ3 ˇ ˇ ‹ ˚ ˇ “ ˝v 2 ˇ1 v 2 ˇ2 v 2 ˇ3 ‚ ˇ ˇ ˇ v 3 ˇ1 v 3 ˇ2 v 3 ˇ3

ˇ V# ˇ#

ˇ ˇ ˛ ¨ ˇˇ v1 1 v1 ˇ2 v1 ˇ3 ˇ ˇ ‹ ˚ ˇ “ ˝v2 ˇ1 v2 ˇ2 v2 ˇ3 ‚ ˇ ˇ ˇ v3 ˇ1 v3 ˇ2 v3 ˇ3

(17.19) Wie bei Matrizen üblich bezeichnet der vordere Index, der für die Komponente steht, die Zeile und der hintere für die Ableitung nach dem senkrechten Strich die Spalte. Die Zusammenfassung der Spaltenvektoren (17.17) zu Kovarianzmatrizen ´ ˇ ˇ ˇ ˇ ¯ ´ ˇ ˇ ˇ ¯ V # ˇ # “ v # ˇ 1 , v # ˇ 2 , v # ˇ 3 “ G# v # ˇ 1 , G # v # ˇ 2 , G # v # ˇ 3 führt auf folgende Umrechnung, die formal derjenigen von Tensormatrizen mit Heben und Senken der Indizes entspricht. ˇ ˇ V # ˇ # “ G# V # ˇ #

17.2.6

ˇ ˇ V # ˇ # “ G # V# ˇ #

(17.20)

Totales Differential und absolute Differentiale

Das totale Differential eines Vektors wird in entsprechender Weise gebildet wie das Wegelement im Abschnitt 14.3.2, wobei für die Vektorableitungen die kovarianten Ableitungen (17.15) bzw. (17.18) eingesetzt werden. dv “

` # ˘T Bv Bv Bv 1 2 3 du ` du ` du “ du ∇ #v Bu1 Bu2 Bu3

Mit den Kovarianzmatrizen erhält man die beiden Darstellungen, ` ˘ T ´ # ˇ ¯T dv “ du# g V ˇ#

#

ˇ ¯T # ` ˘T ´ “ du# g V# ˇ#

345

17.2 Ableitung von Vektoren und Tensoren

aus denen sich das totale oder vollständige Differential des Vektors ergibt. ˘T ` ˘T ` ` ˘T # ˇ dv “ du# ∇ # v “ g Dv# V ˇ # du# “ g #

#

`

“ g

˘ # T

ˇ V# ˇ

du# “ g# `

#

˘T

(17.21)

Dv #

Die dabei auftretenden Spaltenvektoren Dv# und Dv # der Komponenten des totalen Differentials bilden die absoluten Differentiale der Vektorkomponenten, die mit den Kovarianzmatrizen gebildet werden.

ˇ Dv # “ V # ˇ # du#

ˇ Dv# “ V# ˇ # du#

(17.22)

Der Vergleich mit dem totalen Differential einer skalaren Ortsfunktion V prq nach (17.1) zeigt, dass beim absoluten Differential Dv k der Vektorkomponente v k an die Stelle der partiellen die kovariante Ableitung tritt.

DV ” dV “

ÿ 

V ,  du

Dv k “

ÿ 

ˇ v k ˇ  du

(17.23)

Für totale und absolute Differentiale der kontravarianten Vektorkomponenten gelten nach (17.1), (17.2) und (17.16) die Beziehungen

dv k “

ÿ 

v k,  du “ dr ¨ grad v k (17.24)

Dv k “ dv k `

ÿ ÿ 

p

Γpk v p du

Das absolute Differential Dv k einer einzelnen Vektorkomponente besteht aus dem totalen Differential dv k dieser Komponente und einer Doppelsumme aus Christoffel-Symbolen und allen Vektorkomponenten.

346

17 Differentialoperationen

17.2.7

Zweite Vektorableitung

Zur Berechnung der zweiten Vektorableitung des Vektors v wird die erste Ableitung (17.15) ` ˘T # ˇ v, “ g v ˇ # ` ˘ T ” # ` ¨ # ˘T # ı “ g v , ` Γ# v #

noch einmal nach der Koordinate um partiell abgeleitet. Mit den Basisvektoren nach (16.7) und (16.9) erhält man für die Darstellung mit kontravarianten Komponenten den folgenden umfangreichen Ausdruck mit einer entsprechenden Abkürzung. ` ˘ ` ˘T ” # ` ¨ # ˘T # ı v, ,m “ g v , ` Γ# v #,m ” ` ˘T # ` ¨ # ˘T # ı v , ` Γ# v ` g #

`



g

`

v,

˘ ,m



`

g

˘T `

¨# Γ# m

˘T ”

` ¨ # ˘ T # ` ¨ # ˘T # ı v,m v#,  , m ` Γ #  ,m v ` Γ#

#

`

` g

,m

#

˘T #

˘T ”

` ¨ # ˘T # ı v v#,  ` Γ # 

ˇ ˇ v# ˇ  ˇ m

Die Komponenten der zweiten Vektorableitung stellen die zweifachen kovarianten Ableitungen des Vektors v dar, die in ko- und kontravarianter Form lauten ˇ ˇ v# ˇ  ˇ m “

` ¨ # ˘T # ` ¨ # ˘T # v#,  , m ` Γ # v ` Γ#m v, , m  ”` ` ¨ # ¨ # ˘T ı # ¨ # ˘T ` Γ# ` Γ# Γ#m v  ,m (17.25)

ˇ ˇ v# ˇ ˇ

 m



¨# ¨# v# ,  , m ´ Γ #  v# , m ´ Γ # m v# ,  ”` ı ¨# ˘ ¨# ¨# ´ Γ# ´ Γ Γ  ,m #m #  v#

347

17.2 Ableitung von Vektoren und Tensoren

17.2.8

Kovariante Ableitung von Tensoren, Tensorableitung

Für die Ableitung eines Tensors 2. Stufe erhält man aus (9.11) für die ko- und kontravarianten Komponenten nach der Produktregel jeweils drei Glieder.

”` ˘ ı ”` ˘ ı BT T ## # T # “ T “ ∇ T g T g g “ ∇ g ,    ## # # Bu ` ` ˘ ˘T ` # ˘T T T ## g# ` g# T ## ,  g# ` g# T ## g# “ g

,

,

˘T

`

“ g

#,

T ## g

˘T

`

#

` g

#

T ##,  g

˘T

`

#

` g

#

T ## g

#,

Ersetzt man in der Tensorableitung T ,  die Ableitungen der Basisvektoren durch Christoffel-Symbole, dann erhält man einen Ausdruck, der selbst ein Tensor ist.

` # ˘T ” ` ¨ # ˘T ı # BT ¨# T ` T ´ T “ T “ g ´ Γ g Γ# ,  ## ## ,  ## #  Bu ˇ ` ˘T “ g# T ## ˇ  g# ı ` ˘T ” ` ¨ # ˘T ## ¨# Γ# T “ g ` T ##,  ` T ## Γ #  g #

˘T

`

“ g

#

ˇ T ## ˇ  g

#

#

Aus dem Vergleich ergeben sich die kovarianten Ableitungen des Tensors 2. Stufe und entsprechende Formeln kann man auch für die gemischten

348

17 Differentialoperationen

Komponenten berechnen. ˇ ` ¨ # ˘T ¨# T ## ˇ  “ ´ Γ #  T ## ` T ## ,  ´ T ## Γ #  ˇ ` ¨ # ˘T ## ¨# T ## ˇ  “ ` Γ # T ` T ##,  ` T ## Γ #   (17.26) ˇ ¨# ¨# ¨# ¨# ¨# T #¨ # ˇ  “ ´ Γ #  T# ` T# , ` T# Γ# ˇ ` ¨ # ˘T ` ¨ # ˘T # T#¨ # ˇ  “ ` Γ # T ¨ # ` T#¨ # ,  ´ T#¨ # Γ #   Insgesamt lautet damit die Tensorableitung nach der Koordinate u in den verschiedenen Komponentendarstellungen T, “

ˇ # ` ˘T ## ˇ ` # ˘T BT ˇ g ˇ g “ g T T “ ∇ T “ g  ##  #  # Bu ˇ ` ˘T # ˇ # ` ˘T T ¨# ˇ g “ g# T #¨ # ˇ  g “ g #

(17.27)

#

Wie beim Vektor kann man auch beim Tensor die kovarianten Ableitungen durch die reziproken Komponenten ausdrücken. Dazu setzt man am Beispiel der kovarianten Tensorkomponenten die Umrechnungsbeziehung T ## “ G # T ## G # in die erste Beziehung (17.26) ein. Nach Ausführung der Ableitung der Metrikmatrix nach (16.12) im mittleren Glied erhält man einen Ausdruck mit sieben Summanden, von denen sich vier wegheben, so dass die folgende Darstellung übrig bleibt. ”` ı ˇ ¨ # ˘T ## ## ¨# ## T ## ˇ  “ G # Γ # T ` T ` T Γ  , # G# Sie gibt das Transformationsgesetz der kovarianten Ableitung eines Tensors für die kovarianten Komponenten an, was sich mit entsprechender

17.2 Ableitung von Vektoren und Tensoren

349

Rechnung auch für die anderen Komponenten nachweisen läßt. ˇ ˇ T ## ˇ  “ G # T ## ˇ  G #

(17.28)

Die Ergebnisse (17.17) und (17.28) zeigen, dass die kovarianten Ableitungen Tensoren 1. und 2. Stufe darstellen, da sie das tensorielle Transformationsgesetz der Komponenten von Vektoren und Tensoren erfüllen. Man kann deshalb die Tabellen 8.1 und 9.1 in sinngemäßer Weise auch für die Umrechnung der kovarianten Ableitungen von Vektoren und Tensoren 2. Stufe heranziehen! In entsprechender Weise wie beim Vektor wird auch die zweite Tensorableitung berechnet, die auf die zweifachen kovarianten Ableitungen der Tensorkomponenten führt. Da der Umfang erheblich ist, insbesondere, wenn man noch die ersten kovarianten Ableitungen ersetzt, wird nur die Beziehung für die kontravarianten Komponenten angegeben. `

T,

˘ ,m

` ˘T ## ˇ ˇ ˇ ˇ g# “ g T  m #

ˇ ˇ T## ˇ  ˇ m “

` `

`

¨# Γ# m

˘T

¨ # ˘T Γ#  ,m

ˇ ˇ ¨# ## T ## ˇ  ` T ## ˇ  Γ # m ` T ,,m

(17.29)

` ¨ #˘ T## ` T## Γ #  ,m

` ¨ # ˘T ## ¨# ` Γ# T , m ` T##, m Γ #  

17.2.9

Kovariante Ableitung des Metriktensors, Lemma von Ricci

Der Metriktensor G prq besitzt nach Abschnitt 14.4.2 die kovariante Metrikmatrix G # prq, deren kovariante Ableitung nach (17.26) berechnet wird. Dabei gilt wegen gik “ gki für ein einzelnes Element ” ı ˇ gik ˇ  “ ´ Γi1 g1k ` Γi2 g2k ` Γi3 g3k ` gik ,  ” ı ´ gi1 Γk1 ` gi2 Γk2 ` gi3 Γk3

350

17 Differentialoperationen

Die Summen führen mit (16.21) und (16.19) auf die Beziehung (A) im Abschnitt 16.4.4, so dass die kovarianten Ableitungen der Metrikkoeffizienten Null ergeben. ”ÿ ı ÿ ˇ gik ˇ  “ gik ,  ´ Γiq gqk ` Γkq giq “ gik ,  ´ r gik ,  s “ 0 q

q

Für die gemischte Metrikmatrix erhält man ebenso ˇ ¨# ¨# ¨# ¨# ¨# ¨# ¨# E #¨# ˇ  “ ´ Γ #  E# ` E# , ` E# Γ# “ ´Γ# E ` 0 ` EΓ# “ 0 Mit dem Verschwinden der kovarianten Ableitung der Metrikmatrizen ist die Tensorableitung des Metriktensors Null, was als Lemma von Ricci bezeichnet wird. ˇ ˇ ˇ G# ˇ “ G# ˇ “ E ˇ “ 0

17.2.10

BG “ G ,  “ ∇ G “ 0 Bu

(17.30)

Kovariante Ableitung bei Basiswechsel

Für die forminvariante Vektor- und Tensorableitung nach (17.15) und (17.27) kann man mit der gleichen Methode wie in den Abschnitten 8.2 und 9.5.1 zeigen, dass folgende Umrechnungen gültig sind. ˇ ˇ v ˆ# ˇ “ Pv# ˇ

ˇ ˇ ˆ ## ˇ “ P T ## ˇ PT T  

(17.31)

Die kovarianten Ableitungen weisen bei Basiswechsel also das gleiche Verhalten auf wie die Komponenten selbst und erfüllen die Transformationsgesetze für Tensoren der verschiedenen Stufen nach der allgemeinen Transformationsregel (9.20). Dadurch sind für Vektoren und Tensoren 2. Stufe die Tabellen 8.1 und 9.2 zur Umrechnung der kovarianten Ableitungen bei Basiswechsel in sinngemäßer Weise anwendbar.

17.2.11

Überblick über die Ableitungen

Für Skalarfunktionen sind partielle und kovariante Ableitung identisch, da kein Basisvektor als zweiter abzuleitender Faktor existiert! V, ” V |

17.2 Ableitung von Vektoren und Tensoren

351

Für Vektoren und Tensoren gilt diese Identität nicht mehr! Nach den Ergebnissen (17.15) und (17.27) stellt man fest, dass der Begriff der kovarianten Ableitung die Komponenten der Vektor- oder Tensorableitung bezeichnet, also der partiell abgeleiteten Vektoren oder Tensoren insgesamt, die jedoch nicht mit den Ableitungen der einzelnen Komponenten dieser Größen übereinstimmen. Die partielle Ableitung einer einzelnen Vektor- oder Tensorkomponente kann man bilden, wenn sie als Funktion der Koordinaten gegeben ist. Dagegen kann man nach (17.16) die kovariante Ableitung dieser Komponente nur dann berechnen, wenn auch alle anderen Komponenten bekannt sind! Die kovariante Ableitung umfasst zwar die partielle Ableitung, aber hinzu treten weitere Glieder mit Komponenten und Christoffel-Symbolen, so dass erst mehrere Summanden das Ergebnis bestimmen. Nach den durchgeführten Berechnungen besteht die kovariante Ableitung einer Vektorkomponente aus vier, die einer Tensorkomponente 2. Stufe aus sieben Summanden. Erinnert sei daran, dass nach Abschnitt 16.5.1 in geradlinigen Koordinatensystemen alle Christoffel-Symbole Null sind, wodurch in kartesischen Systemen die kovarianten Ableitungen der Komponenten mit den partiellen übereinstimmen! Als Zusammenfassung der Ableitungen ergeben sich exemplarisch die Darstellungen im folgenden Rahmen für die verschiedenen Ableitungen von Vektoren und Tensoren 2. Stufe. Die kovarianten Ableitungen der Komponenten von Tensoren bestimmter Stufe liefern wieder solche Tensorkomponenten. Das gilt hier zunächst für den euklidischen Raum, wird aber im Kapitel Flächentheorie des zweiten Bandes für nichteuklidische, Riemann’sche Räume verallgemeinert. Die kovariante Ableitung erfüllt die allgemeinen Regeln der Ableitung von skalarem Faktor, Summe und Produkt und geht in die gewöhnliche, partielle Differentiation im kartesischen Fall über. Da der Tensorcharakter der abgeleiteten Größen erhalten bleibt, stellt die kovariante Ableitung einen verallgemeinerten, vom jeweiligen Koordinatensystem losgelösten und daher absoluten Differentiationsprozess dar, der von Ricci in seinem absoluten Differentialkalkül (1884) entwickelt wurde.

352

17 Differentialoperationen

‚ partielle Ableitung der Komponenten v#,  “ ∇ v# “

Bv# Bu

T ##,  “ ∇ T ## “

BT ## Bu

‚ kovariante Ableitung der Komponenten ˇ ` ¨ # ˘T # v v# ˇ  “ v#,  ` Γ #  ˇ ` ¨ # ˘T ## ¨# T ## ˇ  “ Γ # T ` T ##,  ` T ## Γ #  

(17.32)

‚ partielle Ableitung von Vektor und Tensor, Vektor- bzw. Tensorableitung ` ˘T # ˇ Bv v ˇ v ,  “ ∇ v “  “ g # Bu ` ˘T ## ˇ BT ˇ g T ,  “ ∇ T “ “ g T  # # Bu ‚ totale Ableitung von Vektoren ˘T ` ˘T ` ˘T # ˇ ` Dv# V ˇ # du# “ g dv “ du# ∇ # v “ g #

#

In einer Reihe von Büchern zur Tensorrechnung wird der umgekehrte Weg wie in der vorliegenden Darstellung eingeschlagen, indem die Suche nach einer Differentiationsvorschrift verfolgt wird, die die Ableitung von Tensorkomponenten als Größen darstellt, die das tensorielle Transformationsgesetz bei Basiswechsel erfüllen. Diese gesuchte Vorschrift ist die von Ricci entwickelte kovariante Ableitung, [1, S. 265].

17.3 17.3.1

Produkte mit Nabla-Vektor Zielsetzung

Nabla mit den Zeichen ∇ und ∇ ist der von William Rowan Hamilton eingeführte, von Peter Guthrie Tait weiterentwickelte und von Oliver

353

17.3 Produkte mit Nabla-Vektor

Heaviside in elektrodynamischer Theorie und mathematischer Physik eingesetzte Differentialoperator (17.4), der auf Tensoren verschiedener Stufen angewendet werden kann. Der Gradient war nach Definition (17.6) das erste Beispiel für die Anwendung von Nabla auf eine skalare Ortsfunktion. Als Differentiationsvorschrift muss der Nabla-Operator gemäß der Produktregel auf jeden ableitbaren Anteil einzeln angewendet werden, auf den Nabla insgesamt einwirkt. Das trat bei den partiellen Ableitungen von Vektoren und Tensoren bereits auf und wurde entsprechend ausgeführt. Im folgenden wird nicht nur eine Nabla-Komponente ∇ “ B{Bu als partielle Ableitung untersucht, sondern als weitergehende Operation wird Nabla als kompletter, symbolischer Vektor ∇ mit allen Komponenten auf Vektoren und Tensoren angewendet. Dabei werden auch Operationen untersucht, die in der Vektoranalysis nicht definiert sind wie die Gradientenbildung eines Vektors, die aber in der Tensorrechnung eine Verallgemeinerung erfahren. Bei den Gesamtableitungen mit dem Operator Nabla sind manche Komponentendarstellungen von Vektoren und Tensoren geeigneter als andere, weil man bestimmte Eigenschaften ausnutzen kann, worauf speziell hingewiesen wird.

17.3.2

Vektorgradient, Tensor der kovarianten Ableitungen

Das tensorielle Produkt aus Nabla-Operator und Vektor ist der Gradient des Vektors, der nach (17.4) und (17.15) lautet, Bv Bv Bv ` g2 2 ` g3 3 “ g1 v , 1 ` g2 v , 2 ` g3 v , 3 Bu1 Bu Bu ˛ ¨ ˛ ¨ v,1 ∇1 v ` ˘T ˚ ‹ ` ˘T ˚ ‹ ` ˘T “ g# ˝v , 2 ‚ “ g# ˝∇2 v ‚ “ g# ∇ # v ∇3 v v,3

∇v “ g1

und der durch ko- oder kontravariante Vektorkomponenten ausgedrückt werden kann. Mit (17.18) erhält man daraus die Darstellungen für ∇v mit den Kovarianzmatrizen (17.19). ` ˘T ` ˘ T ´ # ˇ ¯T ∇v “ g# ∇ # v “ g# V ˇ# g

#

ˇ ¯T ` ˘T ´ “ g# V # ˇ # g#

354

17 Differentialoperationen

Da die Elemente dieser Matrizen aus den kovarianten Ableitungen der Vektorkomponenten gebildet werden, die nach (17.31) das Transformationsgesetz für Tensoren erfüllen, stellt der Gradient des Vektors v einen Tensor 2. Stufe dar. Man nennt ihn Vektorgradient Grad v, den man mit großem Anfangsbuchstaben schreibt und der auch als Tensor K der kovarianten Ableitungen bezeichnet wird. ` ˘ T ´ # ˇ ¯T K “ Grad v “ ∇v “ g# V ˇ# g

#

` ˘T “ g# K ¨## g

#

ˇ ¯T ` ˘T ´ ` ˘T “ g# V # ˇ # g# “ g# K ## g# (17.33) Bei Berücksichtigung der Transponierung gilt für die Elemente der Tensorˇ matrizen Kik “ v k ˇi , wobei die Indizes i die Zeile und k die Spalte bezeichnen. Bei der Zerlegung des Vektorgradienten in die Symmetrieanteile K “ Ksym ` Kalt “ Ksym ` U kann der alternierende oder unsymmetrische Anteil U mit Hilfe des transponierten Tensors nach (10.6) und (11.17) ermittelt werden. Da sich die beiden Transponierungen p„q und pT q kompensieren, gilt für die kovarianten Komponenten ` ˘ “ ‰ # Ą “ g# T 2 U 2 U “ K ´ KĂ“ ∇v ´ ∇v ## g ´ 2 U ## “

ˇ ¯T ´ Č ˇ ¯T ´ ˇ ¯T ˇ ˇ ˇ V# # ´ V# # “ V# ˇ# ´ V# ˇ#

Für ein einzelnes Element folgt mit (17.16), da sich die Summen aufheben ÿ ÿ Γkpi vp ´ vi , k ` Γipk vp “ ´ 2 Uki 2 Uik “ vk |i ´ vi |k “ vk , i ´ p

2 Uik “ vk |i ´ vi |k “ vk , i ´ vi , k

p

Uik ´ Uki “ vk , i ´ vi , k

(17.34)

Die Differenz der kovarianten Komponentenableitungen eines Vektors reduziert sich wegen der Symmetriebeziehung (16.8) der ChristoffelSymbole auf die Differenz der partiellen Ableitungen.

355

17.3 Produkte mit Nabla-Vektor

Für die kontravarianten Komponenten existiert dagegen keine entsprechende Beziehung! Der unsymmetrische Anteil U des Vektorgradienten ist ein alternierender Tensor 2. Stufe, dessen kovariante Komponenten aus den Differenzen der partiellen Ableitungen der kovarianten Vektorkomponenten bestehen, die im Hinblick auf die Rotationsbildung (17.51) noch in abgekürzter Schreibweise mit pp, q, rq notiert werden. ˛ ¨ ˛ ¨ ˛ ¨ v2, 1 ´ v1, 2 r U12 ‹ ˚ ‹ ˚ ‹ ˚ 2 ˝ U23 ‚ “ ˝ v3, 2 ´ v2, 3 ‚ “ ˝ p ‚ q U31 v1, 3 ´ v3, 1 ¨

0

v2 , 1 ´ v1 , 2 v3 , 1 ´ v1 , 3

˚ 2 U ## “ ˝v1 , 2 ´ v2 , 1

0

˛

0

¨

‹ ˚ v3 , 2 ´ v2 , 3 ‚ “ ˝´ r

v1 , 3 ´ v3 , 1 v2 , 3 ´ v3 , 2

0

q

r

´q

0

˛

‹ p ‚

´p

0 (17.35)

17.3.3

Vektorgradient der Basisvektoren

Wendet man den Nabla-Vektor auf die kovarianten Basisvektoren an, so folgt für den Vektorgradienten wegen der Symmetriebeziehung (16.4) g k ,  “ ∇ gk “ g  , k “ ∇k g  ¨

∇ 1 gk

˛

¨

∇ k g1

˛

` ˘T ` ˘T ˚ ‹ ‹ ` ˘T ˚ ∇g k “ g# ∇ # gk “ g# ˝ ∇2 gk ‚ “ g# ˝ ∇k g2 ‚ ∇ k g3

∇ 3 gk ` ˘T “ g # ∇k g

#

` ˘T “ g# g

#,k

Mit (16.7) erhält man den Vektorgradienten der kovarianten Basisvektoren in gemischter Darstellung, wobei die Christoffel-Symbole als Komponentenmatrix des Tensors auftreten. ` ˘T Grad gk “ ∇gk “ g# g

#,k

` ˘T ¨ # “ g# Γ # k g

#

(17.36)

356

17 Differentialoperationen

Für die reziproken Basisvektoren ergibt sich folgende Darstellung, ¨ k ˛ g ,1 ` # ˘T ˚ k ‹ ` # ˘T k k ∇# g “ g ∇g “ g ˝ g ,2 ‚ gk, 3 Γ1k1

Γ1k2

Γ1k3

` ˘T ˚ k Γ “ ´ g# ˚ ˝ 12 Γ1k3

Γ2k2

‹ Γ2k3 ‹ g# ‚ Γ3k3

¨ ` ˘T “ g# gk

,#

Γ2k3

˛

aus der man gemäß (16.10) den Vektorgradienten der kontravarianten Basisvektoren in kovarianter Darstellung mit symmetrischer Komponentenmatrix aus Christoffel-Symbolen (s. 16.17) erhält. ` ˘T Grad gk “ ∇gk “ g# gk

,#

17.3.4

` ˘T k g# “ ´ g# Γ ##

(17.37)

Gradient von Tensoren 2. Stufe Tensorgradient

Der Gradient eines Tensors ist das tensorielle Produkt aus Nabla-Operator und Tensor, der Tensorgradient genannt wird. Mit (17.27) erhält man die folgende von vier möglichen Komponentendarstellungen. ` ˘T BT BT BT ` g2 2 ` g3 3 “ g# ∇ # T 1 Bu Bu Bu ˇ ˛ ¨ ˘T ` ¨ ˛ g# T ## ˇ 1 g# T,1 ˇ #‹ ‹ ` # ˘T ˚ ` ˘T ˚ ‹ ˚ ` # ˘T ˇ ‹“ g g T T “ g# ˚ ˚ , 2 ## 2 g ‹ ˝ ‚ ‚ ˝ ˇ # ` # ˘T ˇ T,3 T ## 3 g g

Grad T “ ∇T “ g1

 ` ˘T “ g#

ˇ   T ## ˇ ` # ˘T  .. 1 g ˝ . ˇ  T ˇ ## 3

    ˝ g#  

Der Gradient eines Tensors 2. Stufe ist ein Tensor 3. Stufe, hier dargestellt mit den kovarianten Ableitungen der kovarianten Tensorkomponenten.

357

17.3 Produkte mit Nabla-Vektor

Gemäß der erweiterten Matrixmultiplikation nach Abschnitt 3.8 für die transponierte Form der Blockmatrix und entsprechende Formeln mit anderen Tensorkomponenten gilt ` ˘T Grad T “ ∇T “ g# ∇ # T ¯T  ˇ ` ˘T  ` # ˘T ´ “ g# ˝ T ## ˇ p#q ˝ g# g

(17.38)

Wird der Gradient speziell auf den Tensor K der kovarianten Ableitungen des Vektors v angewendet, dann gilt nach (17.33) ˇ ¯T ` ˘T ´ K “ Grad v “ ∇v “ g# V # ˇ # g# ` ˘T “ g# K ## g# ` ˘ ` ˘ Grad K “ Grad Grad v “ ∇K “ ∇ ∇v ¯T  ˇ ` ˘T  ` # ˘ T ´ ˝ K ## ˇ p#q ˝ g# g “ g# ¯T ˇ K ## ˇ p#q sind die kovarianten Abˇ ˇ ˇ leitungen der Kovarianzmatrix (17.19), wodurch die Elemente Kik ˇ  “ vk ˇi ˇ  die doppelten kovarianten Ableitungen des Vektors v nach (17.25) darstellen. ˇ ˇ ˇ ˇ ˛ ¨ ˇˇ ˇˇ v1 1  v2 ˇ1 ˇ  v3 ˇ1 ˇ  ´ ˇ ˇ ˇ ˇ ‹ ˇ ˇ ˇ ¯T ˚ ˇ ˇ ˇ ˇ ˇ ˇ ˇ ˇ ‹ K ## ˇ  “ V # ˇ # ˇ  “˚ ˝ v1 2  v2 2  v3 2  ‚ ˇ ˇ ˇ ˇ ˇ ˇ v1 ˇ3 ˇ  v2 ˇ3 ˇ  v3 ˇ3 ˇ  ´

Die Untermatrizen der Blockmatrix

Das totale oder vollständige Differential eines Tensors wird in entsprechender Weise wie beim Vektor gebildet mit den Tensorableitungen nach (17.27). Im Vergleich mit (17.38) erhält man die Summe aus drei Tensoren. ˘T ` BT BT BT du1 ` 2 du2 ` 3 du3 “ du# ∇# T 1 Bu Bu Bu ¯T  ˇ ` # ˘T  ` # ˘ T ´ g ˝ T ## ˇ p#q ˝ g# “ du

dT “

358

17 Differentialoperationen

ˇ Die skalaren Differentiale du# werden mit den Matrizen T ## ˇ p#q zusammengefasst, wodurch man die absoluten Differentiale der kovarianten Tensorkomponenten erhält. ` ˘T dT “ g# DT ## g#

DT ik “

ÿ

3 “1

ˇ T ik ˇ  du

(17.39)

` ˘ Der skalare Operator a ¨ grad

17.3.5

` ˘ Der Operator a ¨ grad ist das Skalarprodukt aus Vektor und NablaOperator, der auf Tensoren beliebiger Stufe angewendet werden kann. `

˘ ` ˘T a ¨ grad “ a ¨ ∇ “ a# g

#

` ˘T ` ˘T ¨ g# ∇ # “ a# ∇ #

Ist der Vektor a speziell der kovariante Basisvektor gk , dann reduziert sich der letzte Ausdruck auf ein einziges Differential nach der entsprechenden Koordinate und man erhält folgende Beziehung, die (17.3) entspricht.

`

˘ B gk ¨ grad “ gk ¨ ∇ “ ∇k “ k Bu

(17.40)

Wendet man den skalaren Operator auf einen Vektor an, dann entsteht ein neuer Vektor, der mit den Ergebnissen des Vektorgradienten nach (17.33) folgende Darstellung hat. ` ˘ w “ a ¨ grad v “ a ¨ Grad v ` ˘ T ´ # ˇ ¯T V ˇ# g “ a#

#

` ˘T “ a# K ¨## g

#

(17.41)

ˇ ¯T ` ˘T ´ ` ˘T “ a# V # ˇ # g# “ a# K ## g# Die Komponenten dieses Vektors werden berechnet mit den Kovarianzmatrizen (17.19) der kovarianten Ableitungen. Da es keine besonderen Vereinfachungen gibt, sind nach (17.16) alle 36 Summanden tatsächlich vorhanden, und jede Komponente von w wird aus zwölf Gliedern gebildet.

17.3 Produkte mit Nabla-Vektor

359

Die Anwendung des skalaren Operators auf einen Tensor führt zu einem neuen Tensor und mit (17.38) erhält man folgendes Ergebnis. ` ˘ W “ a ¨ grad T “ a ¨ Grad T  ˇ ˘T ` ˘T  ` # ˘T ` ˝ T ## ˇ # ˝ g# g “ a#

17.3.6

(17.42)

Gradientenbildung und Richtungsableitung

Der in der Differentialrechnung für skalare Ortsfunktion V prq definierte Begriff des totalen Differentials führte durch geeignete Erweiterung und Interpretation auf den Begriff des Gradienten und die Darstellung (17.2). dV “ dr ¨ grad V “ dr ¨ ∇V Die Bildung des totalen Differentials von Vektoren und Tensoren, das man zur Abgrenzung besser vollständiges Differential nennen sollte, wird im Tensorkalkül verallgemeinert und für alle Größen in gleicher Weise definiert. Nach Abschnitt 17.2.5 wird das Differential dv eines Vektors vprq durch Erweiterung mit den reziproken Basisvektoren als Skalarprodukt dargestellt und führt auf die Definition des Vektorgradienten (17.33). ` ˘ ´ Bv Bv Bv ¯ dv “ g1 du1 ` g2 du2 ` g3 du3 ¨ g1 1 ` g2 2 ` g3 3 Bu Bu Bu “ dr ¨ Grad v “ dr ¨ ∇v Entsprechend wurde auch das vollständige Differential eines Tensor 2. Stufe definiert. Insgesamt ergeben sich damit die Darstellungen der vollständigen Differentiale in gleicher formaler Weise. dV “ dr ¨ ∇V “ dr ¨ grad V dv “ dr ¨ ∇v “ dr ¨ Grad v

(17.43)

dT “ dr ¨ ∇T “ dr ¨ Grad T Das Ergebnis der Anwendung des Nabla-Operators auf eine Größe zeigt, dass die Bildung des Gradienten die Stufe des Ergebnistensors um

360

17 Differentialoperationen

Eins erhöht, wodurch in den Komponenten ein zusätzlicher kovarianter Index auftritt. Skalar V

Ñ

Vektor

v “ ∇V “ grad V

Vektor v

Ñ

Tensor

T “ ∇v “ Grad v

Tensor T

Ñ

Tensor

Tp3q “ ∇T “ Grad T

(17.44)

Zerlegt man in (17.43) das Wegelement dr “ t dr in einem Raumpunkt in seinen Betrag dr und den zugehörigen Einheitsvektor t, dann kann die Änderung in Richtung des Wegelementes auch als Richtungsableitung der Ortsfunktionen geschrieben werden, bei der der skalare Operator des letzten Abschnitts auftritt. ` ˘ dV “ t ¨ grad V “ t ¨ ∇ V dr ` ˘ dv “ t ¨ Grad v “ t ¨ ∇ v dr ` ˘ dT “ t ¨ Grad T “ t ¨ ∇ T dr

(17.45)

Bei der Behandlung von Richtungsableitungen erscheint in der Literatur mitunter im Nenner des Differentials ein Vektor. Diese Art der Darstellung ist deshalb keine gute Wahl und höchstens symbolisch zu verstehen, da die Division durch einen Vektor nicht definiert ist!

17.3.7

Divergenz von Vektoren

Bildet man das Skalarprodukt aus Nabla-Vektor und Vektor, so entsteht eine Skalarfunktion, die Divergenz des Vektors heißt. Wie die Herleitung in Abschnitt 17.3.2 zeigt, entspricht die Divergenzbildung der Verjüngung des Vektorgradienten, bei der nach Abschnitt 11.4.3 nur dessen symmetrischer Anteil Ksym einen Beitrag liefert. ˇ ¯T ` ˘T ` ˘T ´ div v “ ∇ ¨ v “ g# ¨ ∇ # v “ g# ¨ V# ˇ # g

#

361

17.3 Produkte mit Nabla-Vektor

Die Divergenz wird wegen der Reziprozität der Basisvektoren nach (10.2) durch die Spur der Kovarianzmatrix (17.19) gebildet. ÿ ˇ div v “ ∇ ¨ v “ sp V# ˇ # “

3 k“1

ˇ v k ˇk

(17.46)

Die ausführliche Darstellung der Divergenz eines Vektors lautet nach (17.16) div v “

˘‰ ` v 1, 1 ` v 1 Γ111 ` v 2 Γ211 ` v 3 Γ311 ` “ ˘‰ ` v 2, 2 ` v 1 Γ122 ` v 2 Γ222 ` v 3 Γ322 ` “ ˘‰ ` v 3, 3 ` v 1 Γ133 ` v 2 Γ233 ` v 3 Γ333 “

Mit (16.23) kann man dafür einen kompakten Ausdruck angeben. `? ˘ 3 3 3 3 3 3 ÿ ÿ ÿ ÿ ÿ ÿ g ,p ˇ v k ˇk “ v k, k ` vp Γpkk “ v k, k ` vp ? g p“1 p“1 k“1 k“1 k“1 k“1 1 ÿ 3 `? k ˘ div v “ ? g v ,k k“1 g

(17.47)

Zum besseren Verständnis und zum Vergleich wird auch die direkte Berechnung der Divergenz durchgeführt. Wegen der Bildung des Skalarproduktes ist die Vektordarstellung mit kontravarianten Komponenten geeignet, da man dann die Reziprozitätsbedingung der Basisvektoren ausnutzen kann. Um dabei den Differentialoperator ∇ # auf beide Anteile im Produkt anzuwenden, werden im zweiten Summanden wegen der Nichtkommutativität der Matrizen die Faktoren des Skalarproduktes unter Beachtung der Transponierungsregel vertauscht, damit die Reihenfolge der Basisvektoren erhalten bleibt. ∇¨v “

“ ` # ˘T ‰ “ ` ˘T g ∇ # ¨ v# g

‰ #

“ ` ˘T ‰ “ ` ˘T # ‰ v “ g# ∇ # ¨ g # ` ˘T ” ` ˘T ” ` ˘T ı ` ˘T ı # “ g# ¨ ∇ # v# g ` g# ¨ ∇ # g v #

#

362

17 Differentialoperationen

Die dyadischen Produkte in den eckigen Klammern stellen folgende Matrizen mit skalaren bzw. vektoriellen Elementen dar. Die Matrix im ersten Summanden enthält die partiellen Ableitungen der Vektorkomponenten. ¨

∇1

˛

¨

v 1, 1 v 2, 1 v 3, 1

˛

´ ¯T ` ˘T ˚ ˘ ˚ ‹` ‹ ∇ # v# “ ˝ ∇2 ‚ v 1 , v 2 , v 3 “ ˝ v 1, 2 v 2, 2 v 3, 2 ‚ “ V #, # ∇3

v 1, 3 v 2, 3 v 3, 3

Die zweite Matrix entspricht der symmetrischen H-Matrix (16.18), bei der jedes Element aus drei Summanden mit Christoffel-Symbolen besteht. ¨

∇1

˛

¨

g1, 1 g1, 2 g1, 3

˛

` ˘T ˚ ˘ ˚ ‹` ‹ “ ˝ ∇2 ‚ g1 , g2 , g3 “ ˝ g1, 2 g2, 2 g2, 3 ‚ “ H ## ∇# g #

∇3

g1, 3 g2, 3 g3, 3

In den Skalarprodukten der Divergenz ∇ ¨ v bilden die rechten Faktoren Spaltenvektoren mit vektoriellen Elementen. ` ˘T Bei der anschließenden Skalarproduktbildung mit dem linken Faktor g #

reduziert die Reziprozitätsbedingung die Anzahl der Summanden. Aus der ersten Matrix bleiben nur die Diagonalglieder übrig. In der zweiten Matrix sind nach Einsetzen von g

#,

¨# “ Γ#  g

#

nach (16.7) von den 27 Summanden nur neun von Null verschieden, so dass man für die Divergenz das gleiche Ergebnis wie bei der ersten Berechnung erhält.

17.3.8

Divergenz von Tensoren 2. Stufe

Die Divergenz eines Tensors wird gebildet durch das Skalarprodukt aus Nabla-Operator und Tensor und stellt die Verjüngung des Tensorgradienten dar. Dabei vermindert sich die Tensorstufe von drei auf eins, so dass durch die Divergenzbildung ein Vektor entsteht. Die Berechnung wird für die kontravarianten Tensorkomponenten T## durchgeführt, so dass die Reziprozitätsbedingung ausgenutzt werden kann und der entstehende Vektor mit kontravarianten Komponenten auftritt.

363

17.3 Produkte mit Nabla-Vektor

Die normale Verjüngung von ∇T führt mit (17.27) zur gewöhnlichen Divergenz. ` ˘T BT BT BT ` g2 ¨ 2 ` g3 ¨ 3 “ g# ¨ ∇ # T 1 Bu Bu Bu ˇ ‰ ˘ “ ` T “ g1 ¨ g T## ˇ1 g # # “ ` ˘T ## ˇ ‰ 2 ˇ T g `g ¨ g 2 # # “ ` ˘T ## ˇ ‰ 3 ˇ T g `g ¨ g 3

div T “ ∇ ¨ T “ g1 ¨

#

#

Die gewöhnliche Divergenz besteht aus den kovarianten Ableitungen der Tensorkomponenten, wobei deren transponierte Indizierung zu beachten ist! Diese Darstellung gilt nach (17.27) in entsprechender Weise für andere Tensorkomponenten, wobei auch Metrikkoeffizienten auftreten können.

div T “ ∇ ¨ T “

3 ÿ 3 ÿ

ˇ T pk ˇp gk “

k“1 p“1

ˇ ˇ ˇ ‰ T 11 ˇ1 ` T 21 ˇ2 ` T 31 ˇ3 g1 ˇ ˇ ˇ ‰ “ ` T 12 ˇ1 ` T 22 ˇ2 ` T 32 ˇ3 g2 ˇ ˇ ˇ ‰ “ ` T 13 ˇ1 ` T 23 ˇ2 ` T 33 ˇ3 g3 “

(17.48) Da das Skalarprodukt mit einem Tensor nach Abschnitt 10.3.2 nicht kommutativ ist, existiert noch eine zweite alternative Divergenz, bei der die Faktoren der Verjüngung vertauscht sind. Diese Divergenz erhält die Be˚

zeichnung div . Der Nabla-Operator steht dann rechts, da er aber die Differentiation des Tensors bewirken soll, erhält er als Ornament einen Pfeil nach links. Als zweite Möglichkeit kann man die Skalarfaktoren vertauschen und gemäß (10.5) den normalen Nabla-Operator auf den transponierten Tensor anwenden. ˚

Ð

Ă “ g1 ¨ div T “ T ¨ ∇ “ ∇ ¨ T

Ă Ă Ă BT BT BT ` g2 ¨ 2 ` g3 ¨ 3 1 Bu Bu Bu

Die alternative Divergenz besteht aus den kovarianten Ableitungen der Tensorkomponenten, deren Indizierung wegen der Transponierung die normale

364

17 Differentialoperationen

Anordnung aufweist. ˚

Ă“ div T “ ∇ ¨ T

3 ÿ 3 ÿ

ˇ T kp ˇp gk “

k“1 p“1

ˇ ˇ ˇ ‰ T 11 ˇ1 ` T 12 ˇ2 ` T 13 ˇ3 g1 ˇ ˇ ˇ ‰ “ ` T 21 ˇ1 ` T 22 ˇ2 ` T 23 ˇ3 g2 ˇ ˇ ˇ ‰ “ ` T 31 ˇ1 ` T 32 ˇ2 ` T 33 ˇ3 g3 “

(17.49)

17.3.9

Differentialoperationen des Metriktensors

ˇ Nach dem Lemma von Ricci (17.30) sind die kovarianten Ableitungen G # ˇ  ˇ und G # ˇ  der Metrikmatrizen und damit die Tensorableitungen G ,  Null, so dass als Folge davon sowohl der Gradient als auch beide Divergenzen des Metriktensors verschwinden. Grad G prq “ ∇ G “ 0 (17.50) ˚

Ð

div G prq “ ∇ ¨ G “ div G prq “ G ¨ ∇ “ 0

17.3.10

Rotation von Vektoren

Bei Bildung des Kreuzproduktes aus Nabla-Vektor und Vektor entsteht ein Vektor, der Rotation des Ausgangsvektors heißt. Die Vorgehensweise entspricht derjenigen bei der Berechnung der Divergenz. ` ˘T rot v “ ∇ ˆ v “ g# ˆ ∇ # v Allerdings erweist es sich in diesem Fall als günstiger, den Vektor mit kovarianten Komponenten darzustellen. Um den Differentialoperator ∇ # auf beide Anteile im Produkt anzuwenden, müssen wie bei der Divergenz die Faktoren des Skalarproduktes unter

365

17.3 Produkte mit Nabla-Vektor

Beachtung der Transponierungsregel vertauscht werden. ` ˘T ‰ “ ` ˘T rot v “ g# ˆ ∇ # v # g# ‰ “ ` ˘T ` ˘T “ g# ˆ ∇ # g# v # ` ˘T ” ` ˘T ı # ` # ˘T ” ` ˘T ı “ g# ˆ ∇ # v # ˆ ∇ # g# g ` g v# In den eckigen Klammern treten entsprechende dyadische Produkte auf wie bei der Divergenz. Für den Vektor s des ersten Summanden gilt mit (6.25) ¨

v1, 1 v2, 1 v3, 1

˛

¯T ` ˘T ´ ` ˘T ˚ ‹ s “ g# ˆ ˝ v1, 2 v2, 2 v3, 2 ‚ g# “ g# ˆ V # , # g# v1, 3 v2, 3 v3, 3 “S

“ #

pv3, 2 ´ v2, 3 q g1 ` pv1, 3 ´ v3, 1 q g2 ` pv2, 1 ´ v1, 2 q g3



Im zweiten Summanden sind alle Elemente des Zeilenvektors zT mit vektoriellen Elementen auf Grund der Beziehung (16.11) Null, ¨

g1, 1 g2, 1 g3, 1

˛

` ˘T ˚ ` ˘T ` ˘T ‹ “ g# ˆ ˝ g1, 2 g2, 2 g3, 2 ‚ zT “ g # ˆ ∇ # g # g1, 3 g2, 3 g3, 3 ´ “

g1 ˆ g1, 1 ` g2 ˆ g1, 2 ` g3 ˆ g1, 3 , . . . . . . , g1 ˆ g3, 1 ` g2 ˆ g3, 2 ` g3 ˆ g3, 3

¯ “ 0

so dass für die Rotation nur der erste Anteil s übrig bleibt. Mit den Größen des ε -Tensors nach (11.27) bzw. (11.30) 1 ε# “ S # “ ? g

sowie

εijk “ ˘ ε#

kann man die Rotation in Komponenten und den Abkürzungen aus (17.35) oder unter Berücksichtigung der Ableitungsoperation ∇i vj “ vj , i auch als

366

17 Differentialoperationen

formale Determinante darstellen. “ ‰ rot v “ S # pv3, 2 ´ v2, 3 q g1 ` pv1, 3 ´ v3, 1 q g2 ` pv2, 1 ´ v1, 2 q g3 “ ‰ “ S # p g1 ` q g2 ` r g3    g1 g2 g3   1   rot v “ ∇ ˆ v “ ?  ∇1 ∇2 ∇3    g   v v v 1 2 3

(17.51)

In der Summenform lautet der Rotationsvektor unter Verwendung des ε -Tensors oder des unsymmetrischen Anteils U des Vektorgradienten K in (17.33) ÿ ÿ ÿ ÿ ÿ ÿ εijk vj , i gk “ εijk Uij gk rot v “ i

j

k

i

j

k

und seine kontravarianten Komponenten haben folgende Gestalt. `

rot v

˘k



ÿ ÿ i

j

εijk vj , i “

ÿ ÿ j

k

1 εijk Uij “ ? pvj, i ´ vi, j q g

(17.52) Mit Hilfe der Tensoren U bzw. ε kann man die Bildung des Kreuzproduktes vermeiden und den Differentialoperator Rotation in Tensorform algebraisch ausdrücken. Da die Rotation mit den kovarianten Vektorkomponenten gebildet wird, muss man diese, falls sie noch nicht zur Verfügung stehen, zunächst gemäß den Gleichungen (15.1) und (17.13) aus den kontravarianten Komponenten berechnen. Für das totale Differential eines Vektors v ergibt sich neben den Darstellungen (17.21) und (17.43) noch ein weiterer Ausdruck, bei dem die Rotation auftritt. Zerlegt man den Vektorgradienten (17.33) in seinen symmetrischen und alternierenden Anteil, dv “ dr ¨ Grad v “ dr ¨ K “ dr ¨ Ksym ` dr ¨ U dann kann der unsymmetrische Anteil U durch die Rotation des Vektors ausgedrückt werden. 2 dr ¨ U “ rot v ˆ dr

dv “ dr ¨ Ksym `

1 rot v ˆ dr 2

(17.53)

367

17.4 Zusammengesetzte Argumente

17.4

Operationen bei zusammengesetzten Argumenten

Die Anwendung der Differentialoperatoren auf Produkte von skalaren und vektoriellen Größen kann in formaler Weise durchgeführt werden, ohne die Komponentendarstellungen zu verwenden. Bei Nichtvertauschbarkeit wird der Faktor, auf den der Nabla-Vektor anzuwenden ist, zur eindeutigen Markierung durch einen senkrechten Pfeil als Ornament gekennzeichnet.

17.4.1

Gradient von Produkten

Beim Produkt aus zwei skalaren Ortsfunktionen kann die Rechnung einfach ausgeführt werden, da keine Reihenfolge einzuhalten ist. ` ˘ ` ˘ grad U V “ ∇ U V “ V ∇U ` U ∇V

` ˘ grad U V “ U grad V ` V grad U

(17.54)

Um den Gradienten vom Skalarprodukt zweier Vektoren zu bilden, werden folgende Ausdrücke betrachtet und der Entwicklungssatz (5.8) angewendet. ` ˘ ` Ó˘ ` ˘ Ó a ˆ rot v “ a ˆ ∇ ˆ v “ ∇ a ¨ v ´ a ¨ ∇ v ˘ Ó ` ˘ ` Ó ˘ ` v ˆ rot a “ v ˆ ∇ ˆ a “ ∇ v ¨ a ´ v ¨ ∇ a Die Summe beider Ausdrücke liefert das gesuchte Ergebnis, wenn man die beiden Gradienten zusammenfasst. ` ˘ ` ˘ ` Ó ˘ ` Ó˘ ∇ a ¨ v ` ∇ a ¨ v “ ∇ a ¨ v “ grad a ¨ v

` ˘ ` ˘ ` ˘ grad a ¨ v “ a ¨ grad v ` v ¨ grad a ` a ˆ rot v ` v ˆ rot a (17.55)

368

17.4.2

17 Differentialoperationen

Divergenz von Produkten

Die Divergenz von Skalar mal Vektor läßt sich ebenfalls leicht ausführen. ` ˘ ` ˘ ` ˘ div V a “ ∇ ¨ V a “ ∇V ¨ a ` V ∇ ¨ a ` ˘ div V a “ V div a ` a ¨ grad V

(17.56)

Die Divergenz eines Kreuzproduktes wird unter Anwendung des Spatproduktes (5.7) berechnet. ` ˘ ` Ó ˘ ` ` ˘ ` ˘ Ó ˘ div a ˆ v “ ∇ ¨ a ˆv ` ∇ ¨ aˆ v “ ∇ ˆ a ¨ v ´ ∇ ˆ v ¨ a ` ˘ div a ˆ v “ v ¨ rot a ´ a ¨ rot v

(17.57)

Die Divergenz von Skalar mal Tensor kann gemäß Abschnitt 17.3.8 ausgeführt werden. ` ˘ j „ ÿ 3 3 3 ÿ ` ˘ ÿ BV k k B VT k BT ¨T g ¨ “ V g ¨ ` g div V T “ k k k Bu Bu Bu k“1 k“1 k“1 ` ˘ div V T “ V div T ` grad V ¨ T

17.4.3

(17.58)

Rotation von Produkten

Die Rotation von Skalar mal Vektor wird ähnlich wie bei der Divergenz durchgeführt. ` ˘ ` ˘ ` ˘ rot V a “ ∇ ˆ V a “ ∇V ˆ a ` V ∇ ˆ a ` ˘ rot V a “ V rot a ´ a ˆ grad V

(17.59)

Die Rotation eines Kreuzproduktes wird unter Anwendung des Entwicklungssatzes berechnet. ` ` ˘ ` Ó ˘ Ó ˘ rot a ˆ v “ ∇ ˆ aˆ v ´ ∇ ˆ vˆ a ` ˘ Ó ` ˘ Ó ` ` Ó ˘ Ó ˘ “ a ∇¨ v ´ a ¨ ∇ v ´ v ∇¨ a ` v ¨ ∇ a

17.5 Mehrfachprodukte mit Nabla-Vektor

` ˘ ` ˘ ` ˘ rot a ˆ v “ a div v ´ v div a ` v ¨ grad a ´ a ¨ grad v

17.5 17.5.1

369

(17.60)

Mehrfachprodukte mit Nabla-Vektor Zweistufiger Ableitungstensor

Das tensorielle Produkt des Nabla-Vektors (17.4) mit sich selbst führt auf den zweistufigen symmetrischen Ableitungstensor T pBq , der in der Taylor’schen Formel im Abschnitt 13.3 auftrat. ` ˘T ” ` ˘T ı # ` # ˘T ” pBq ı # (17.61) ∇# ∇# g “ g T ## g ∇ ∇ “ T pBq “ g# pBq

pBq

Das einzelne kovariante Element lautet T ik “ ∇i ∇k und die Matrix T ## ist in (13.15) für den allgemeinen Fall angegeben.

17.5.2

Identisch verschwindende Produkte

Die Anwendung von zwei Differentialoperatoren auf Skalare oder Vektoren bietet nur in fünf Fällen sinnvolle Kombinationen. Dabei wird der NablaOperator formal als Vektor gedeutet. Zwei der fünf Kombinationen sind grundsätzlich Null. Die erste identisch verschwindende Verknüpfung lautet ` ˘ rot grad V “ ∇ ˆ ∇V ” 0

(17.62)

Das Ergebnis ist dadurch plausibel, weil das Kreuzprodukt von zwei gleichgerichteten Vektoren stets Null ist. Das folgt aber ebenso aus der verschwindenden Determinante nach (17.51), da die gemischten Ableitungen gleich sind, z.B. ` ` ˘ ˘ B ´ BV ¯ B ´ BV ¯ ´ 3 “0 ∇2 ∇3 V ´ ∇3 ∇ 2 V “ 2 Bu Bu3 Bu Bu2    g1 g2 g3     rot grad V “ S #  ∇1 ∇2 ∇3  “ 0    ∇1 V ∇2 V ∇3 V 

370

17 Differentialoperationen

Die zweite Kombination verschwindet identisch, da ein Spatprodukt mit zwei gleichen Vektoren stets Null ist. ` ˘ div rot v “ ∇ ¨ ∇ ˆ v ” 0

17.5.3

(17.63)

Laplace-Operator

Eine besonders wichtige Kombination stellt das Skalarprodukt des NablaVektors mit sich selbst dar, was der Verjüngung des Ableitungstensors (17.61) entspricht. Dadurch entsteht der Laplace-Operator, der mit dem Zeichen Delta geschrieben wird. Δ “ div grad “ ∇ ¨ ∇ “ ∇2

(17.64)

Die Anwendung des Laplace-Operators auf skalare Ortsfunktionen führt auf drei wichtige und häufig auftretende Differentialgleichungen der mathematischen Physik, die man nach den drei Gelehrten Pierre Simon Laplace (1749 -1827), Siméon Denis Poisson (1781-1840) und Hermann (von) Helmholtz (1821-1894) als Laplace-Gleichung, Poisson-Gleichung und Helmholtz-Gleichung bezeichnet und die im zweiten Band noch ausführlich untersucht werden. Zur Berechnung des Laplace-Operators bildet man nach (17.4) den Vektor, ` ˘T ` ˘T v “ grad V “ g# ∇ # V “ g# v # dessen Divergenz nach (17.46) als Verjüngung des Vektorgradienten von v durch die Spur der Kovarianzmatrix gebildet wird. Damit lautet der Laplace-Operator formal ΔV “ div grad V “ div v “ ∇ ¨ v “ sp V# | # “

3 ÿ

v k |k

k“1

Da der Gradient ein kovarianter Vektor ist, der mit kovarianten Komponenten auftritt, müssen die Elemente der Kovarianzmatrix (17.19) umgerechnet werden. Nach (17.17) gilt für deren Elemente, “ ‰ ¨# v # |  “ G# v # |  “ G# v # ,  ´ Γ #  v#

17.5 Mehrfachprodukte mit Nabla-Vektor

371

so dass die Summanden des Laplace-Operators folgendermaßen aufgebaut sind, vk | k “

3 ÿ

3 ” ı ÿ g kp vp , k ´ Γpqk vq

p“1

q“1

die ihrerseits aus den ersten und zweiten partiellen Ableitungen der skalaren Ortsfunktion V gebildet werden. ˘ ` BV B2 V , v “ ∇ V “ “ vk , p ∇ p p , k k Bup Buk Bup Der Laplace-Operator lautet damit insgesamt v p “ ∇p V “

ΔV “

3 3 ÿ ÿ k“1 p“1

„ g

kp

j 3 ÿ B2 V q BV ´ Γp k Buq Buk Bup q“1

(17.65)

Ein spezieller Fall ist die Anwendung des Laplace-Operators auf das Produkt zweier skalarer Ortsfunktionen. Mit den Beziehungen (17.54) und (17.56) erhält man folgendes Ergebnis. ` ˘ Δ U V “ U ΔV ` V ΔU ` 2 grad U grad V

17.5.4

(17.66)

Vektor-Laplace-Operator

Für die Anwendung des Laplace-Operators auf Vektoren geht man aus von der doppelten Rotation eines Vektors und erhält mit dem Entwicklungssatz die folgende Beziehung. ` ˘ ` ˘ ` ˘ rot rot v “ ∇ ˆ ∇ ˆ v “ ∇ ∇ ¨ v ´ ∇ ¨ ∇ v “ grad div v ´ Δ v Der dabei auftretende Vektor-Laplace-Operator Δ v wird gebildet aus zwei Kombinationen von Differentialoperatoren, die dessen Definition darstellen. Mitunter wird der Vektor-Laplace-Operator auch mit einem eigenen Zeichen geschrieben, um ihn deutlicher vom skalaren Laplace-Operator zu unterscheiden, [4, S. 3], [5, S. 13]. Δ v “ v “ grad div v ´ rot rot v

(17.67)

372

17 Differentialoperationen

Die Anwendung des Vektor-Laplace-Operators auf das Produkt von skalarer und vektorieller Ortsfunktion führt mit den Beziehungen (17.54) bis (17.60) auf zwölf Glieder, die sich erheblich kompensieren und zu folgendem Ergebnis zusammenfassen lassen. ` ˘ ` ˘ Δ V a “ V Δ a ` a ΔV ` 2 grad V ¨ grad a

17.6

(17.68)

Helmholtz-Theorem

Das nach Hermann (von) Helmholtz benannte Helmholtz-Theorem ist von fundamentaler Bedeutung bei der Untersuchung von Vektorfeldern. Es sagt aus, dass jedes stetig differenzierbare und im Unendlichen reguläre Vektorfeld V prq eindeutig als Summe eines wirbelfreien Vektorfeldes, also eines Quellenfeldes VQ prq, und eines quellenfreien Vektorfeldes, also eines Wirbelfeldes VW prq, dargestellt werden kann, [2, S. 620], [6, I, S. 53] [7, S. 100], [13, S. 22]. V prq “ VQ prq ` VW prq

(17.69)

Die beiden Teilfelder erfüllen folgende Differentialbeziehungen. ‚ Quellenfeld:

div VQ ‰ 0

aber

rot VQ “ 0

‚ Wirbelfeld:

rot VW ‰ 0

aber

div VW “ 0

Bei gegebenen Ortsfunktionen ρprq und J prq für Quellen und Wirbel, die im Kapitel Elektrodynamik im zweiten Band physikalische Bedeutung erlangen, gilt für das Gesamtfeld, das man mit Hilfe zweier Potentialfunktionen bestimmt. ˘ ` div V “ div VQ ` VW “ div VQ “ ρprq ‰ 0 ` ˘ rot V “ rot VQ ` VW “ rot VW “ J prq ‰ 0 Das wirbelfreie Quellenfeld VQ prq läßt sich dann nach (17.62) und (17.64) darstellen als (aus Konventionsgründen negativer) Gradient einer skalaren Ortsfunktion, die man (Skalar-) Potential ψprq nennt. VQ “ ´ grad ψ

Ñ

div VQ “ ´ div grad ψ “ ´ Δψ “ ρprq

373

17.6 Helmholtz-Theorem

Das quellenfreie Wirbelfeld VW prq wird nach (17.63) und (17.67) als Rotation einer vektoriellen Ortsfunktion dargestellt, die man Vektorpotential Aprq nennt. VW “ rot A

Ñ

rot VW “ rot rot A “ grad div A ´ Δ A “ J prq

Das Vektorpotential A ist allerdings nicht eindeutig, da die Vektorfunktion r “ A ` grad χ A mit beliebiger Ortsfunktion χprq wegen (17.62) auf das gleiche Wirbelfeld VW führt. r “ rot pA ` grad χq “ rot A ` rot grad χ “ rot A rot A Zur eindeutige Festlegung des Vektorpotentials A erweist sich die folgende Bedingung als einfachste Wahl. div A “ 0 Dadurch müssen beide Potentialfunktionen inhomogene Differentialgleichungen äquivalenter mathematischer Form erfüllen, die Poisson-Gleichungen heißen. Δψprq “ ´ ρprq

Δ Aprq “ Aprq “ ´ J prq

(17.70)

Die Poisson-Gleichung des Vektorpotentials umfasst als Vektorgleichung dabei drei skalare Differentialgleichungen, die in krummlinigen Koordinaten gekoppelt sind und nur im kartesischen Fall in drei Einzeldifferentialgleichungen zerfallen. Der Beweis des Helmholtz-Theorems wird konstruktiv geführt, indem man die Lösungen der Poisson-Gleichungen für die Hilfsfunktionen ψ und A entwickelt und konkret angibt, aus denen die vektoriellen Teilfelder des Gesamtfeldes durch Differentiation bestimmt werden. VQ prq “ ´ grad ψprq

VW prq “ rot Aprq

(17.71)

Im Kapitel Elektrodynamik des zweiten Bandes treten die beiden Potentialfunktionen als elektrodynamische Potentiale in Erscheinung, wo auch die Lösung der skalaren Poisson-Gleichung ausführlich behandelt wird.

374

17 Differentialoperationen

17.7

Beziehungen für den Abstandsvektor

17.7.1

Bedeutung des Abstandsvektors

Für die Untersuchung von Feldern ist es notwendig, zwischen einem Quellpunkt Q als Ursache und Ausgangspunkt für die Feldwirkungen und dem Aufpunkt P zu unterscheiden, in dem diese Wirkungen auftreten. Beide Punkte werden im Raum eindeutig durch ihre Ortsvektoren rP und rQ gekennzeichnet. Die Feldeigenschaften, die durch die Feldvektoren repräsentiert und beschrieben werden, sind dann Funktionen des Abstandsvektors r, dessen Richtung von Q nach P weist, sowie seines Betrages r für den Abstand zwischen diesen beiden Punkten.

r = rP − rQ

Wirkung in P

Ursache in Q rP rQ



O Abb. 17.4: Abstandsvektor zwischen Quellpunkt Q und Aufpunkt P Für den Abstandsvektor gelten folgende Beziehungen mit der Richtung nach P von Q. r “ rP ´ rQ

r “ | r | “ | rP ´ rQ |

(17.72)

Im Dreieck OP Q der Abbildung 17.4 kann man den Abstand r durch den Kosinussatz ausdrücken. b 2 ´ 2 r r cos ϑ (17.73) r “ rP2 ` rQ P Q

375

17.7 Beziehungen für den Abstandsvektor

Handelt es sich nicht um eine einzelne sondern um mehrere Punktquellen, so muss deren Feldwirkung durch Summation über alle Quellpunkte überlagert werden. Liegen die Quellen linien- bzw. flächenförmig oder räumlich verteilt vor, so müssen ihre Felder durch Integration über die entsprechenden Quellengebiete ermittelt werden. Summation oder Integration sind dabei über die Koordinaten der Quellpunkte Q auszuführen und die daraus berechneten Potentiale und Feldvektoren sind anschließend Funktionen der Koordinaten des Aufpunktes P als Variable im Feld sowie der charakteristischen Eigenschaften der Quellengrößen und ihrer Geometrie als Parameter. Wenn für die Lösung eines Feldproblems die Integration von Vektorfunktionen erfolgen muss, dann sind die Überlegungen des Abschnitts 5.7 bei der Durchführung anzuwenden.

17.7.2

Ableitungen nach verschiedenen Koordinaten

Ableitungen nach den Koordinaten des Aufpunktes P , die in den Feldbeziehungen auftreten, werden im allgemeinen ohne nähere Kennzeichnung durchgeführt, da man normalerweise wissen will, wie sich die Feldeigenschaften von Punkt zu Punkt im Raum bei festgehaltenen Quellen ändern. Falls bei der Untersuchung von Feldern dagegen nach den Koordinaten des Quellpunktes Q abgeleitet werden soll, erhalten die Differentialoperatoren zur Unterscheidung den Index Q. In kartesischer Form gilt für den Abstandsvektor und seinen Betrag r “ pxP ´ xQ q ex ` pyP ´ yQ q ey ` pzP ´ zQ q ez (17.74)

b r “ |r| “

pxP ´ xQ

q2

` pyP ´ yQ

q2

` pzP ´ zQ

q2

Mit px, y, zq “ px1 , x2 , x3 q folgt für die Ableitungen nach den Koordinaten von P bzw. Q wegen der besonderen Form des euklidischen Abstandes nur ein Wechsel des Vorzeichens. xkP ´ xkQ B Br B B Br B B “ “ “´ k “´ k k k r Br BxP BxP Br BxQ Br BxQ

376

17 Differentialoperationen

xkP ´ xkQ Br Br “ ´ “ r BxkP BxkQ

(17.75)

Da sich alle Differentialoperationen kartesisch formulieren und ausführen lassen, tritt bei einmaliger Differentiation nach den Koordinaten von Q ein Vorzeichenwechsel auf, bei zweimaliger Differentiation bleibt das Vorzeichen dagegen erhalten. Damit gelten folgende Relationen für die Differentialoperatoren. grad ϕprq ” grad P ϕprq “ ´ grad Q ϕprq div ϕprq ” div P ϕprq

“ ´ div Q ϕprq

rot ϕprq ” rot P ϕprq

“ ´ rot Q ϕprq

Δϕprq ” ΔP ϕprq “ ` ΔQ ϕprq

(17.76)

Alle Ableitungen, die sich auf den Abstandsvektor r beziehen, sind auch für den Ortsvektor rP gültig, da man den Quellpunkt Q stets in den Ursprung eines Koordinatensystems legen kann. Insbesondere gilt wegen xkP ´ xkQ B xkP B BrP B Br B B “ k “ “ “ rP BrP r Br BxkP BxP BrP BxkP Br folgende Ableitungsregel xkP ´ xkQ B xkP B “ rP BrP r Br

17.7.3

xkP ´ xkQ B r B “ rP BrP Br xkP

(17.77)

Reihenentwicklung des reziproken Abstands

Eine häufig auftretende Funktion ist der reziproke Abstand 1{r, dessen Quadrat im Newton’schen Gravitationsgesetz und im Coulomb’schen Gesetz die grundlegende Ortsabhängigkeit beschreibt. Dieser Abstand hat daher große Bedeutung bei Punktquellen in statischen Feldern und er tritt auch sonst bei der Formulierung und Lösung vieler Feldprobleme auf.

377

17.7 Beziehungen für den Abstandsvektor

Die Berechnung von Potentialen erfolgt im elektrostatischen Feld durch Integration von Ladungselementen ρprQ q über einen räumlichen Bereich. In solchen Coulomb-Integralen wird der Abstand r im Nenner durch den Kosinussatz (17.73) ausgedrückt. ¡ ¡ ρprQ q ρprQ q dvQ “ dvQ | rP ´ rQ | r vQ

vQ

Diese Integrale können schon bei einfachen Ladungsverteilungen aufwendig oder nicht geschlossen lösbar sein. Als Beispiel führt das Feld einer homogenen, kreisringförmigen Linienladung bereits auf ein elliptisches Integral, [12, II, S. 20] ! Zur Berechnung solcher Integrale kann man den reziproken Abstand 1{r in eine Reihe entwickeln, um die Integration gliedweise auszuführen. In größerer Entfernung von den Quellen für | rP | " | rQ | erhält man dann oft schon mit wenigen Reihengliedern gute Näherungen für die gesuchten Felder. Mit dem Kosinussatz erhält man folgenden Ausdruck für den reziproken Abstand, der im Wesentlichen die erzeugende Funktion der LegendrePolynome, [3, S. 133], [11, S. 173], darstellt. 1 1 “b r 2 rP2 ´ 2 rP rQ cos ϑ ` rQ “

1 c rP

1 1´2

´ r ¯2 rQ Q cos ϑ ` rP rP

8 ` ˘ 1 1 ÿ ´ rQ ¯n Pn cos ϑ “ r rP n“0 rP

prQ ă rP q

(17.78)

Die einfachsten Legendre-Polynome lauten P0 “ 1

2 P3 “ 5 cos3 ϑ ´ 3 cos ϑ

P1 “ cos ϑ

8 P4 “ 35 cos4 ϑ ´ 30 cos2 ϑ ` 3

2 P2 “ 3 cos2 ϑ ´ 1

8 P5 “ 63 cos5 ϑ ´ 70 cos3 ϑ ` 15 cos ϑ

378

17 Differentialoperationen

Die Deutung der Koeffizienten als Legendre-Polynome oder Kugelfunktionen führt bei Ladungs- oder Massenanordnungen zu einer Interpretation als Multipolentwicklung von Fernfeldern, [2, S. 200], [9, S. 57], [10, S. 140]. [12, II, S. 30]. Auf die einfachsten Fälle von Dipol, Quadrupol und Multipole wird im Abschnitt 5.2.2 (Bd. II) noch näher eingegangen.

17.7.4

Differentialoperationen für den Abstandsvektor

Die Differentiation des Betrages des Abstandsvektors führt mit (5.27) auf eine Darstellung, aus der man im Vergleich mit (17.2) und (17.6) einen Ausdruck für den Gradienten des Abstandsvektors erhält, der in die Richtung des Einheitsvektors r{r weist. r2 “ r ¨ r dr “ dr ¨

Ñ

2 r dr “ 2 r ¨ dr

r “ dr ¨ grad r r grad r “ ∇r “

dr “ dr ¨ grad r

r r

(17.79)

Eine Funktion ϕprq, die nur vom Betrag r des Abstandsvektors abhängt, hat den Zuwachs dϕ, aus dem ihr Gradient folgt. dϕprq “ dr ¨ grad ϕprq dϕprq “

dϕ dϕ dϕ r dr “ dr ¨ grad r “ dr ¨ dr dr dr r

grad ϕprq “

dϕ dϕ r grad r “ dr dr r

(17.80)

Der reziproke Abstand ϕprq “ 1{r tritt als wichtige Ortsfunktion bei vielen Feldproblemen auf. Der Gradient des reziproken Abstands lautet grad

´1¯ 1 r r 1 “∇ “´ 2 “´ 3 r r r r r

(17.81)

379

17.7 Beziehungen für den Abstandsvektor

Der Abstandsvektor läßt sich mit der Funktion ϕprq “ r2 {2 als Gradient darstellen, grad ϕprq “ grad

´ r2 ¯ 2

“ r grad r “ r

so dass wegen (17.62) die Rotation des Abstandsvektors der Nullvektor ist. Mit (17.59) und (17.80) ergibt sich auch für die Rotation von Produkten beliebiger Funktionen ϕprq und dem Abstandsvektor Null. “ ‰ rot ϕprq r “ ϕprq rot r ´ r ˆ grad ϕprq “ 0 rot r “ 0

“ ‰ rot ϕprq r “ 0

(17.82)

Der Vektorgradient des Abstandsvektors wird mit der ersten Beziehung von Abschnitt 17.3.2 und (17.5) berechnet ` ˘T ` ˘T ∇r “ g# ∇ # r “ g# g

#

(*)

und mit (11.6) erhält man das Ergebnis, dass er dem Einheits- oder Metriktensor entspricht. Grad r “ ∇r “ E prq “ G prq

(17.83)

Wendet man den skalaren Operator (17.41) auf den Abstandsvektor an, dann erhält man wegen (11.4) für beliebige Vektoren a das folgende Ergebnis, das bei der Berechnung des Vektor-Laplace-Operators noch benötigt wird. pa ¨ grad q r “ a ¨ Grad r “ a ¨ E “ a

(17.84)

Die Divergenz des Abstandsvektors folgt durch Verjüngung des Vektorgradienten, die nach (*) durch die Spur der Einheitsmatrix gegeben ist. div r “ ∇ ¨ r “ sp E “ 3

(17.85)

380

17 Differentialoperationen

Für die Divergenz eines Produktes gilt nach (17.56) und (17.80) “ ‰ div ϕprq r “ ϕprq div r ` r ¨ grad ϕprq

“ ‰ dϕ div ϕprq r “ 3 ϕprq ` r dr

(17.86)

Der Laplace-Operator einer Funktion ϕprq ergibt sich als Divergenz der Beziehung (17.80), wobei ϕ1 “ dϕ{dr gilt. Δϕprq “ div grad ϕprq “ div

Δϕprq “

´ ϕ1 ¯ ϕ1 r ϕ 2 ´ ϕ1 r “3 `r r r r2

ı d2 ϕ 2 dϕ 1 d ´ 2 dϕ ¯ 1 d2 ” ` r ϕprq “ r “ dr2 r dr r2 dr dr r dr2

(17.87)

Mit den Gleichungen (17.67), (17.68), (17.82) und (17.84) ergeben sich folgende Vektor-Laplace-Beziehungen. “ ‰ Δ ϕprq r “ r Δϕprq ` 2 grad ϕprq

Δr “ 0

(17.88)

Die Grundlösungen von Laplace- und Helmholtz-Gleichung, die in mathematischer Physik und Feldtheorie eine wichtige Rolle spielen, erhält man mit (17.87) durch Anwendung des Laplace-Operators auf den reziproken Abstand und die Ausstrahlungsfunktion der Kugelwelle.

Δ

´1¯ r

“ 0

Δ

´ e´jkr ¯ r

` k2

´ e´jkr ¯ r

“ 0

(17.89)

Beide Differentialgleichungen sind im gesamten Raum gültig außer an der Singularitätsstelle r “ 0 der beiden Funktionen. Wendet man den Ableitungstensor (13.15) in kartesischen Koordinaten (18.51) auf den reziproken Abstand an, dann erhält man folgende sym-

381

17.8 Beispiele für Basisvektoren

metrische Tensormatrix. ˛ ¨ ´ ¯2 xy x xz ´ 1 3 3 3 ‹ ˚ r rr rr ‹ ˚ ´1¯ ´ ¯ ‹ 1 ˚ yz xy y 2 pBq ‹ ˚ T “ 3˚ ´1 3 3 3 ‹ r r ˚ rr r rr ‹ ´ ¯ ‚ ˝ xz yz z 2 ´1 3 3 3 rr rr r

(17.90)

Die Spur der Matrix ist Null, der Tensor ist also ein Deviator und besitzt daher nur fünf voneinander unabhängige Elemente. Beim Übergang auf Kugelkoordinaten gemäß Abschnitt 18.5.3 weisen die Elemente nur Winkelfunktionen auf und die Matrix lautet dann ˛ ¨ 3 sin2 ϑ cos2 ϕ ´ 1 3 sin2 ϑ sin ϕ cos ϕ 3 sin ϑ cos ϑ cos ϕ ´1¯ 1˚ ‹ “ 3 ˝ 3 sin2 ϑ sin ϕ cos ϕ 3 sin2 ϑ sin2 ϕ ´ 1 3 sin ϑ cos ϑ sin ϕ ‚ TpBq r r 3 sin ϑ cos ϑ cos ϕ 3 sin ϑ cos ϑ sin ϕ 3 cos2 ϑ ´ 1

17.8 17.8.1

Beispiele für Basisvektoren Zylinderkoordinaten im ebenen Bild

Da es sich um ein orthogonales Koordinatensystem handelt, bilden die kound kontravarianten Basisvektoren richtungsgleiche orthogonale Dreibeine, deren Beträge sich aber in ϕ-Richtung unterscheiden. Im nächsten Kapitel werden die Eigenschaften orthogonaler Koordinaten und deren metrische Faktoren eingehend erörtert. Die Tangentenvektoren der Koordinatenlinien, die gleichzeitig die Normalen der Koordinatenflächen sind, weisen als Gradienten in Richtung der stärksten Zunahme der Variablen. Die Relationen der Basisvektoren berechnet man mit (14.20), (18.54) und (3.41). eρ “ gρ “ gρ “ grad ρ eϕ “

1 gϕ “ ρ gϕ “ ρ grad ϕ ρ

weisen in ρ -Richtung weisen in ϕ -Richtung

382

17 Differentialoperationen

y

e  = 1 g  =  g 

 = const.

 e = g  = g 

  = const. x ez = g z = g z Abb. 17.5: Koordinatenlinien der Zylinderkoordinaten in der Ebene z “ 0

17.8.2

Astroidkoordinaten im ebenen Bild

Diese Koordinaten wurden eingeführt im Abschnitt 14.6.2. Die kovarianten Basisvektoren g sind die Tangentenvektoren der Koordinatenlinien u# , wobei

#

gu

in u-Richtung und



in ϕ-Richtung weisen

Die kontravarianten Basisvektoren g# sind die Normalen der Koordinatenflächen u# “ const. und geben als Gradienten die Richtung der stärksten Zunahme der Koordinaten an. gu “ grad u gϕ “ grad ϕ

K zu u “ const. K zu ϕ “ const.

383

17.9 Tabellen

y



u=const.

g

gz =

gz

g

gu gu

 = const. u

x

Abb. 17.6: Koordinatenlinien der Astroidkoordinaten in der Ebene z “ 0

17.9

Tabellen

Die Tabelle 17.1 gibt eine Zusammenstellung der verschiedenen Differentialoperatoren in vektoranalytischer und symbolischer Schreibweise, deren Ergebnisse Tensoren 0. bis 3. Stufe sind. In der Tabelle 17.2 findet man eine Zusammenstellung verschiedener Differentialoperationen, die auf Funktionen des Abstandsvektors angewendet werden.

384

17 Differentialoperationen

Operator

Symbol

Ergebnis

grad V

∇V

v

Grad v

∇v

T

Grad T

∇T

W “ Tp3q

`

`

˘ a ¨ grad v

˘ a¨∇ v

w

div v

∇¨v

S

div T

∇¨T

v

rot v

∇ˆv

w

div grad V

ΔV “ ∇2 V

S

div rot v

` ˘ ∇¨ ∇ˆv

” 0

rot grad V

` ˘ ∇ ˆ ∇V

” 0

grad div v

` ˘ ∇ ∇¨v

w

rot rot v

` ˘ ∇ˆ ∇ˆv

w

Δv

v

w

` ˘ T pBq V

` ˘ ∇∇ V

T

Tabelle 17.1: Differentialoperatoren

385

17.9 Tabellen

grad r “ grad ϕprq “ ´1¯

grad

r

r r dϕ r dr r

“ ´

r r3

div r “ 3 “ ‰ dϕ div ϕprq r “ 3 ϕprq ` r dr rot r “ 0 “ ‰ rot ϕprq r “ 0 Grad r “ G prq `

˘ a ¨ grad r “ a Δr “ Δϕprq “ Δ

´1¯ r

2 r ı 1 d2 ” r ϕprq r dr2

“0

pr ‰ 0q

Δr “ 0 “ ‰ Δ ϕprq r “ r Δϕprq ` 2 grad ϕprq

Tabelle 17.2: Differentialoperationen beim Abstandsvektor

Literatur [1] Kreyszig, E.: Differentialgeometrie Akademische Verlagsgesellschaft Geest & Portig, Leipzig (1957) [2] Lehner, G.: Elektromagnetische Feldtheorie Springer Verlag, Berlin, Heidelberg, 7. Aufl. (2010) [3] Lense, J.: Reihenentwicklungen der mathematischen Physik Walter de Gruyter & Co., Berlin, 2. Aufl. (1947) [4] Moon, P., Spencer, D. E.: Field Theory Handbook Springer Verlag, Berlin, Heidelberg, New York (1971) [5] Moon, P., Spencer, D. E.: Foundations of Electrodynamics Dover Publications Inc., Mineola, New York (2013) [6] Morse, P. M. / Feshbach, H.: Methods of Theoretical Physics, I/II McGraw-Hill Book Company, (1953) [7] Simonyi, K.: Theoretische Elektrotechnik VEB Deutscher Verlag der Wissenschaften, Berlin, 9. Aufl. (1989) [8] Smirnow, W. I.: Lehrgang der höheren Mathematik, I-IV VEB Deutscher Verlag der Wissenschaften, Berlin, 6. Aufl. (1964/68) 386

Literatur

387

[9] Sommerfeld, A.: Vorlesungen über theoretische Physik III, Elektrodynamik Akademische Verlagsgesellschaft Geest & Portig, 4. Aufl. (1964) [10] Sommerfeld, A.: Vorlesungen über theoretische Physik VI, Partielle Differentialgleichungen der Physik Akademische Verlagsgesellschaft Geest & Portig, 6. Aufl. (1965) [11] Stratton, J. A.: Electromagnetic Theory McGraw-Hill Book Company (1941) [12] Wunsch, G.: Feldtheorie I/II VEB Verlag Technik, Berlin (1973/75) [13] Zangwill, A.: Modern Electrodynamics Cambridge University Press, Cambridge UK (2013)

Kapitel 18

Orthogonale Koordinatensysteme Zusammenfassung Orthogonale Koordinatensysteme stellen Sonderfälle von krummlinigen Systemen dar, die in der physikalischen und technischen Praxis eine überragende Bedeutung besitzen. Ihre besonderen Eigenschaften wie die Aufhebung von Ko- und Kontravarianz und die Darstellung der verschiedenen Differentialoperatoren werden ausführlich behandelt und für einige wichtige Koordinatensysteme tabellarisch angegeben.

18.1 18.1.1

Krummlinige orthogonale Koordinaten Bedeutung

Orthogonale Koordinatensysteme, bei denen sich die krummlinigen Koordinatenlinien jeweils senkrecht schneiden, haben für die angewandten Wissenschaften eine überragende Bedeutung, da sehr viele konkrete Probleme in solchen Systemen formuliert und gelöst werden können. In der mathematischen Physik und in den Ingenieurwissenschaften treten eine Reihe fundamentaler partieller Differentialgleichungen auf, deren Lösung durch Separation der Variablen (s. Abschnitt 5.7.5, (Bd. II)) nur in orthogonalen Koordinatensystemen möglich ist [3, S. 1], [4, S. 21]. Aus die388 © Springer Fachmedien Wiesbaden GmbH, ein Teil von Springer Nature 2019 W. Werner, Vektoren und Tensoren als universelle Sprache in Physik und Technik 1, https://doi.org/10.1007/978-3-658-25272-4_18

18.1 Krummlinige orthogonale Koordinaten

389

sem Grunde werden in manchen Büchern zur Vektor- und Tensorrechnung lediglich orthogonale Systeme behandelt.

18.1.2

Grundlegende Eigenschaften

Ein orthogonales Koordinatensystem wird beschrieben durch den Funktionssatz x# “ x# pu# q, der die kartesischen Koordinaten durch die krummlinigen darstellt. In diesem System stehen die Koordinatenlinien u1 , u2 , u3 und damit die kovarianten Basisvektoren g1 , g2 , g3 als deren Tangenten in jedem Raumpunkt aufeinander senkrecht. Wie im Abschnitt 16.5.3 bereits ausgeführt, verschwinden ihre ungleichnamigen Skalarprodukte sowie deren Ableitungen, so dass die Metrikmatrizen Diagonalform aufweisen. + gik “ gi ¨ gk “ 0 für i ‰ k g ik “ gi ¨ gk “ 0 Gleichnamige ko- und kontravariante Basisvektoren fallen richtungsmäßig zusammen, wodurch Ko- und Kontravarianz aufgehoben sind, was bereits im Abschnitt 6.6.5 betrachtet wurde. Die Einheitsvektoren der krummlinigen orthogonalen Koordinatensysteme werden mit c bezeichnet im Unterschied zu den kartesischen Einheitsvektoren mit e . ` ˘ cT “ c 1 , c 2 , c 3

c “ c prq

| ck prq | “ 1

(18.1)

Die Vektorsätze c , g und g# bilden in jedem Raumpunkt richtungsglei#

che orthogonale Dreibeine, die jedoch verschiedene Maßstäbe aufweisen können. c k Ò gk Ò g k

Ñ

Parallelität für k “ 1, 2, 3 aber keine Identität!

Die kovarianten Grundvektoren in Richtung der Koordinatenlinien wurden bereits in (14.6) in metrische Faktoren hk prq und Einheitsvektoren ck prq zerlegt, für die dann gilt gk prq “ hk prq ck prq gk prq “ | gk prq | | g k prq | looomooon looomooon metrischer Faktor

Einheitsvektor

390

18 Orthogonale Koordinatensysteme

gk prq “ hk prq ck prq “ | gk prq | ck prq

(18.2)

Auf Grund ihrer Definition als Betrag der Basisvektoren sind die metrischen Faktoren stets positiv und mit der Reziprozitätsbedingung folgt

hk “ | gk | “

?

gkk

ˇ ˇ a ˇ kˇ ˇ g ˇ “ g kk “

1 1 “ | gk | hk

(18.3)

Da die zueinander inversen Metrikmatrizen der paarweise aufeinander senkrecht stehenden Basisvektoren Diagonalform haben, werden zur Abkürzung vier Diagonalmatrizen eingeführt, deren Verknüpfungen sich aus den Potenzgesetzen der Diagonalmatrizen (3.28) ergeben.

˛ 0 h1 0 ` ˘ ˚ ‹ Δ h “ Diag hk “ ˝ 0 h2 0 ‚ 0 0 h3 ¨

Δ 1{h

¨ ˛ 1{h1 0 0 ´1¯ ` ˘ ´1 ˚ ‹ 1{h2 0 ‚ “ Diag “˝ 0 “ Δh hk 0 0 1{h3

(18.4)

˛ 0 h21 0 ` ˘2 ` ˘ ˚ ‹ “ Δ h “ Diag h2k “ ˝ 0 h22 0 ‚ 0 0 h23 ¨

G # prq ” Δ #

˛ ¨ 0 0 1{h21 ´ ¯ ` ˘2 1 ‹ ˚ 1{h22 0 ‚ G# prq ” Δ# “ Δ 1{h “ Diag 2 “ ˝ 0 hk 0 0 1{h23

391

18.1 Krummlinige orthogonale Koordinaten

18.1.3

Metrische Faktoren und Wegelement, Flächen- und Volumenelemente

Die metrischen Faktoren haben für orthogonale Koordinatensysteme deshalb so große Bedeutung, da sie in fast allen Beziehungen auftreten! ` ˘ Man berechnet sie nach (14.5) aus dem Funktionssatz x# u# der orthogonalen Koordinaten durch das Skalarprodukt der kovarianten Basisvektoren. gk ¨ gk “ gkk “ h2k “ c hk prq “

´ Br ¯2 ´ Bx1 Bx2 Bx3 ¯2 “ e ` e ` e3 1 2 Buk Buk Buk Buk ´ Bx1 ¯2 Buk

`

´ Bx2 ¯2 Buk

`

´ Bx3 ¯2 Buk

(18.5)

Die Ableitung der metrischen Faktoren, die später benötigt wird, lautet hk ,  “

Bhk 1 ´ Bx1 B 2 x1 Bx2 B 2 x2 Bx3 B 2 x3 ¯ “ ` ` hk Buk Buk Bu Buk Buk Bu Buk Buk Bu Bu

hk

3 ÿ Bhk Bxp B 2 xp “ h ∇ h “ k  k Bu Buk Buk Bu p“1

(18.6)

Die Diagonalmatrix Δh der metrischen Faktoren besitzt die Determinante, h “ h1 h2 h3 “ det Δ h “ det

b Δ#

(18.7)

die man mit der Determinante g “ det G # nach (14.9) bzw. (14.27) für den allgemeinen krummlinigen Fall vergleichen kann. Das Wegelement (14.7) lautet im orthogonalen Koordinatensystem dr “ h1 c1 du1 ` h2 c2 du2 ` h3 c3 du3 mit der Matrixform ˘T ` dr “ cT Δh du# “ du# Δh c

(18.8)

392

18 Orthogonale Koordinatensysteme

Aus den allgemeinen Beziehungen (14.29) und (14.31) folgen Flächen- und Volumenelement in orthogonalen Koordinatensystemen. daij “ hi hj dui duj ck

18.1.4

dv “ h du1 du2 du3

(18.9)

Einheitsvektoren und ihre Umrechnung

Ersetzt man in der Beziehung (18.2) die Grundvektoren g

#

nach (14.5),

dann erhält man die Darstellung der Einheitsvektoren mit kovarianten oder kartesischen Basisvektoren. ` ˘ c prq “ Δ 1{h g prq “ Δ 1{h FT x# { u# e “ Aprq e #

(18.10) Δh c prq “ g prq “ F #

` T

x# { u

˘ #

e “ Δh Aprq e

Die Umrechnung entspricht dem Basiswechsel zwischen zwei orthogonalen Koordinatensystemen, die durch x# “ x# pu# q verknüpft sind, so dass Aprq eine orthogonale Transformationsmatrix darstellt, die ggf. einen Index zur Kennzeichnung des krummlinigen Systems erhält. ` ˘ Aprq “ A u prq “ Δ 1{h FT x# { u#

(18.11)

Die Orthogonalität von Aprq zeigt sich unter Verwendung von (14.22) und (18.4). ` ˘ Aprq AT prq “ Δ 1{h FT x# { u# Fpx# { u# q Δ 1{h “ Δ 1{h G # Δ 1{h “ Δ 1{h Δ # Δ 1{h “ E Aprq AT prq “ E

A´1 prq “ AT prq “ A adj prq

det A “ ` 1 (18.12)

393

18.2 Ableitung der Einheitsvektoren

Die Elemente von Aprq sind die ortsabhängigen Richtungscosinus zwischen den Einheitsvektoren c prq und e und jedes Element aik ist nach (3.21) seinem algebraischen Komplement Aik gleich! Aus der letzten Gleichung folgt eine wichtige Eigenschaft in orthogonalen Koordinatensystemen, wodurch die Vermeidung der Inversion bei Funktionalmatrizen möglich wird. “ ` ˘ ‰´1 ` ˘´1 ` ˘ “ AT prq “ F x# { u# Δ 1{h Δ 1{h A´1 prq “ FT x# { u# ` ˘ ` ˘2 ` ˘ ` ˘ F´1 x# { u# “ Δ 1{h FT x# { u# “ Δ# FT x# { u#

(18.13)

Beim Basiswechsel zwischen zwei orthogonalen Systemen u# und c. w# gilt folgende Umrechnung für die Einheitsvektoren c und ˆ ` ˘ ` ˘ ˆ 1{h FT x# { w# F x# { u# Δ 1{h c ˆ c “ A w e “ A w ATu c “ Δ

18.1.5

(18.14)

Prüfung auf Rechtssystem

Wenn der Funktionssatz x# pu# q zur Beschreibung eines bestimmtem Koordinatensystems gegeben ist und nicht aus geometrischen oder anderen Gründen klar ist, in welcher Reihenfolge die Variablen uk und damit die Einheitsvektoren c ein Rechtssystem bilden, dann kann man das auf folgende Weise feststellen. Aus dem gegebenen Funktionssatz werden sowohl die Funktionalmatrix FT px# { u# q als auch die metrischen Faktoren hk berechnet und gemäß (18.10) wird für eine beliebige Wahl zweier Einheitsvektoren ca und cb aus c das Kreuzprodukt berechnet. Sein Ergebnis muss den dritten Einheitsvektor cc liefern, dessen Vorzeichen darüber entscheidet, ob die Reihenfolge ca , cb , cc ein Rechtssystem bildet oder nicht.

18.2 18.2.1

Ableitung der Einheitsvektoren Christoffel-Symbole in orthogonalen Systemen

Geht man von der allgemeinen Beziehung (16.14) aus, dann kann man die Christoffel-Symbole in orthogonalen Koordinatensystemen leichter be-

394

18 Orthogonale Koordinatensysteme

rechnen, da die Bildung der inversen Matrix gemäß (18.13) entfällt! ˇ ¨# ˇ Γ# ˇ

ortho

ˇ ˘ ` ` ˘ “ F T x # { u# ˇ u  F x # { u# Δ#

(18.15)

Für ein einzelnes Christoffel-Symbol gilt dann mit (16.6) und (14.3) die Darstellung

Γkm

ˇ ˇ ˇ ˇ

ortho

3 1 ÿ B 2 xp Bxp “ 2 hm p“1 Buk Bu Bum

Der Vergleich mit (18.6) sowie der bereits im Abschnitt 16.5.3 betrachtete Sonderfall der orthogonalen Koordinatensysteme gestatten es, die Christoffel-Symbole durch metrische Faktoren auszudrücken. Von den dortigen vier Fällen verschiedener Indexsituationen erhält man mit den Beziehungen (18.3) und (18.6) gii “ h2i ,

g ii “

1 h2i

gii , k “ ∇k ph2i q “ 2 hi ∇k hi “ 2 hi hi ,k “ 2 hi

Bhi Buk

die Darstellungen für Fall 2 :

2 Γiik “ ` g ii gii, k “ `

2 Bhi hi Buk

Fall 3 :

2 Γiki “ ´ g kk gii, k “ ´

2hi Bhi h2k Buk

pi ‰ kq

Wegen (16.26) umfasst der Fall 2 auch den Fall 4 und insgesamt erhält man

Γiik “

1 Bhi hi Buk

Γiki “ ´

hi Bhi h2k Buk

Γiii “

1 Bhi hi Bui

(18.16)

395

18.2 Ableitung der Einheitsvektoren

Nach (16.28) lautet die vollständige Christoffel-Blockmatrix damit

¨# Γ# p#q

›¨ › 1 Bh1 › › ˚ h1 Bu1 ›˚ ›˚ › ˚ 1 Bh1 “ ›› ˚ ˚ 2 › ˚ h1 Bu ›˚ › ˝ 1 Bh1 › › h Bu3 1 ¨

h1 Bh1 ´ 2 h2 Bu2 1 Bh2 h2 Bu1 0 1 Bh1 h1 Bu2

˚ ˚ ˚ ˚ h2 Bh2 ˚´ ˚ h2 Bu1 ˚ 1 ˚ ˝ 0 ¨ ˚ ˚ ˚ ˚ ˚ ˚ ˚ ˚ ˝

´

˛ h1 Bh1 ´ 2 h3 Bu3 ‹ ‹ ‹ ‹ 0 ‹ ‹, ‹ ‹ 1 Bh3 ‚ h3 Bu1 ˛

1 Bh2 h2 Bu1

0

1 Bh2 h2 Bu2 1 Bh2 h2 Bu3

‹ ‹ ‹ h2 Bh2 ‹ ‹, ´ 2 h3 Bu3 ‹ ‹ ‹ 1 Bh3 ‚ h3 Bu2

1 Bh1 h1 Bu3

0

0

1 Bh2 h2 Bu3

h3 Bh3 h21 Bu1

´

h3 Bh3 h22 Bu2

˛ › › 1 Bh3 › 1 › h3 Bu ‹ ‹ › ‹ › › 1 Bh3 ‹ ‹ › 2 ‹ h3 Bu ‹ ›› ‹ › 1 Bh3 ‚ ›› › h3 Bu3 (18.17)

396

18 Orthogonale Koordinatensysteme

18.2.2

Durchführung der Ableitung und zugehörige Matrizen

Für die Ableitung der Einheitsvektoren c prq nach der Koordinate  berechnet man zunächst unter Verwendung von (18.16) und (3.29) die Ausdrücke, ∇  hk “

Bhk “ hk Γkk Bu

∇

´1¯ 1 k 1 Γ “ ´ 2 ∇  hk “ ´ hk hk k  hk

(18.18) ´ 1 ¯ı ” 1 ı ` ˘ Γkk “ ´ Δ 1{h Diag Γkk “ ´ Diag Δ 1{h ,  “ Diag ∇ hk hk woraus mit (18.10) und (16.7) folgt ‰ “ “ Δ 1{h g c ,  “ ∇ c “ ∇ Δ 1{h g ` Δ 1{h ,  g ”

#

#,

#

“ Δ 1{h



¨# Γ# 

´ Diag Γkk `

˘‰

g

#

Der Ausdruck in der Klammer stellt eine modifizierte Christoffel-Mar ¨ # mit verschwindender Hauptdiagonale dar, die man auch mit dem trix Γ # Diagonalisierungsoperator Dg aus Abschnitt 3.5.2 darstellen kann. ` ˘ “ ‰ r ¨ # “ Γ ¨ # ´ Diag Γ k “ Γ ¨ # ´ Dg Γ ¨ # Γ # k # # #

(18.19)

Die drei Einzelmatrizen werden zur modifizierten Christoffel-Blockmatrix zusammengefasst, wobei der Ableitungsindex in Klammern steht. › ¨# › r r ¨# , Γ r ¨ # ›› r ¨ # “ ›› Γ , Γ Γ # p#q #1 #2 #3

(18.20)

Im Vergleich mit dem Ergebnis (16.28) bleiben für die modifizierte Blockmatrix orthogonaler Koordinatensysteme nur noch zwölf nichtverschwindende Christoffel-Elemente übrig, die durch die metrischen Faktoren nach (18.16) darstellbar sind. ¨ ˛ ¨ ˛ ¨ ˛  0 Γ122 0 0 0 Γ133  0 Γ121 Γ131   ‹ ˚ 1 ˚ 1 3 ‹,˚ 0 3 ‹ r ¨# “  Γ Γ 0 0 0 Γ 0 Γ , Γ  ‚ ˝ ‚ ˝ ‚ ˝ # p#q 21 22 22 23    2 1 2  Γ311 0 0 0 Γ3 2 0 Γ3 3 Γ3 3 0  (18.21)

397

18.2 Ableitung der Einheitsvektoren

Setzt man die Ergebnisse zusammen, dann erhält man mit (18.10) die Ableitungen der Einheitsvektoren in der Darstellung mit kovarianten bzw. kartesischen Basisvektoren oder in der besonders geeigneten Form der Zerlegung in Richtung der Einheitsvektoren c des Koordinatensystems selbst. r ¨ # g prq c ,  prq “ Δ 1{h Γ # #



r ¨# Δ 1{h Γ #

` ˘ F T x# { u# e

r ¨ # Δ c prq “ Δ 1{h Γ h # Die Multiplikation mit den beiden Diagonalmatrizen bedeutet, dass die einzelnen Christoffel-Symbole lediglich mit einem Quotienten aus metrischen Faktoren multipliziert werden und folglich alle Nullelemente der modifizierten Christoffel-Blockmatrix erhalten bleiben. ´

¨#

r Δ 1{h Γ # Δh

¯ ik



hk r k Γ hi i 

Zur kompakten Darstellung der Einheitsvektorableitungen wird die Λ -Blockr matrix definiert, bei der die Γ-Untermatrizen gemäß der erweiterten Matrixmultiplikation (3.63) jeweils einzeln mit den Diagonalmatrizen multipliziert werden, und der dritte Index in Klammern dabei wie üblich die einzelne Untermatrix bezeichnet. Λ ## p#q

› › › › “ › Λ ## 1 , Λ ## 2 , Λ ## 3 › › › › › r ¨# Δ , Δ Γ r ¨# r ¨# “ › Δ 1{h Γ h 1{h # 2 Δ h , Δ 1{h Γ # 3 Δ h › #1  Λ ## p#q prq “

r ¨# ˝ Δ Δ 1{h ˝ Γ h # p#q

 (18.22)

Damit man die Berechnung der Einheitsvektorableitungen im einzelnen überblicken kann, wird die Λ-Blockmatrix vollständig angegeben. Dabei werden die Christoffel-Symbole in (18.21) durch die metrischen Faktoren und deren Ableitungen nach (18.16) ausgedrückt und mit dem entsprechenden

398

18 Orthogonale Koordinatensysteme

Quotienten multipliziert.

Λ ## p#q

›¨ ˛ › 1 Bh1 1 Bh1 › ´ 0 ´ ›˚ h2 Bu2 h3 Bu3 ‹ ‹ ›˚ ‹ ›˚ ‹ › ˚ 1 Bh1 ‹, › ˚ “ › ˚` 0 0 ‹ 2 h Bu 2 ‹ ›˚ ‹ ›˚ › ˝ 1 Bh1 ‚ › ` 0 0 › 3 h3 Bu ˛ ¨ 1 Bh2 0 0 ` ‹ ˚ h1 Bu1 ‹ ˚ ‹ ˚ ‹ ˚ 1 Bh2 1 Bh 2 ‹, ˚´ 0 ´ ˚ h Bu1 3 h3 Bu ‹ 1 ‹ ˚ ‹ ˚ ‚ ˝ 1 Bh2 0 ` 0 h3 Bu3 ¨ 1 Bh3 0 0 ` ˚ h1 Bu1 ˚ ˚ ˚ 1 Bh3 ˚ 0 0 ` ˚ 2 h 2 Bu ˚ ˚ ˝ 1 Bh3 1 Bh3 ´ ´ 0 1 h1 Bu h2 Bu2

˛ › › › ‹ › ‹ › ‹ › ‹ › ‹ › ‹ › ‹ › ‹ › ‚› › ›

(18.23) Im Ergebnis zeigt sich die interessante Eigenschaft, dass die Λ-Blockmatrix aus drei schiefsymmetrischen Einzelmatrizen besteht, was in den anderen Darstellungen nicht zu erkennen ist. Bei der Berechnung der Ableitungen der Einheitsvektoren existieren in orthogonalen Koordinatensystemen daher nur noch sechs unabhängige Matrixelemente! Die Zusammenfassung der Spaltenvektoren c ,  “ Λ ##  c zu einer Matrix führt auf die C-Matrix der Ableitungen der orthogonalen Einheitsvektoren, die der H-Matrix der kovarianten Basisvektor-

399

18.3 Vektor- und Tensorkomponenten

ableitungen nach (16.18) für den allgemeinen Fall entspricht.

´ C ## “

¯

c ,1 , c ,2 , c ,3 “



 Λ ## p#q ˝ c

¨

c1,1 c1,2

˚ “ ˝ c2,1 c3,1

c2,2

c1,3

˛

‹ c2,3 ‚

c3,2 c3,3

(18.24) Im Gegensatz zur H-Matrix ist die C-Matrix nicht symmetrisch! Wie man an der Struktur der Λ-Blockmatrix unschwer erkennen kann, bestehen die drei Diagonalvektoren c k,k aus jeweils zwei Teilvektoren, die in die beiden anderen Richtungen p ‰ k q weisen. Die restlichen sechs Vektoren haben nur jeweils eine Komponente in der Richtung, die durch den Ableitungsindex hinter dem Komma angegeben wird.

18.3 18.3.1

Vektor- und Tensorkomponenten Darstellung physikalischer Komponenten

In orthogonalen Koordinatensystemen sind in spezieller Weise die physikalischen Komponenten von Vektoren und Tensoren die relevanten Größen, da dort normalerweise orthogonale Einheitsvektoren c dieses Systems anstelle der zusammenfallenden ko- oder kontravarianten Basisvektoren für die Darstellung verwendet werden. Alle Transformationen von Komponenten erfolgen in orthogonalen Koordinatensystemen durch Diagonalmatrizen nach (18.4) oder orthogonale Matrizen nach (18.12), wodurch die Berechnungen wegen ihrer besonderen Eigenschaften einfacher ausfallen. Ein Vektor kann mit seinen kontravarianten, seinen physikalischen oder auch mit seinen kartesischen Komponenten dargestellt werden, je nachdem welche Basisvektoren eines Koordinatensystems man wählt. Mit (18.10) folgt ` ˘T v “ v# g

#

` ˘T ` ` ˘T ˘T “ v# Δ h c “ v ph c “ v ph A e “ vT e “ vT AT c

Für die kovarianten Komponenten, die bei Gradient und Rotation benötigt werden, gilt ` ˘T ` ˘T ` ˘T ` ˘T v “ v # g# “ v # Δ# g “ v # Δ# Δ h c “ v # Δ 1{h c #

400

18 Orthogonale Koordinatensysteme

Insgesamt hat man also folgende Darstellungen. ˘T ` ` ˘T v “ v ph c “ vT e “ v# g

#

` ˘T “ v # g#

(18.25)

Die vier verschiedenen Komponentensätze v ph , v, v# und v # eines Vektors in den Basen c, e, g und g# werden damit auf folgende Weise transformiert.

#

v ph “ A v “ Δ 1{h v # “ Δ h v#

(18.26)

Um Verwechslungen zu vermeiden, werden die physikalischen Komponenten speziell indiziert, und die vier Spaltenvektoren für physikalische, kartesische, ko- und kontravariante Komponenten lauten dann ¨ ¨ ˛ ¨ ˛ ¨ 1˛ ˛ vph1 vx v1 v ˚ ˚ ‹ ˚ ‹ ˚ 2‹ ‹ # v ph “ ˝vph2 ‚ , v “ ˝vy ‚ , v # “ ˝v2 ‚ , v “ ˝v ‚ vph3 vz v3 v3 Der Vergleich von (18.10) und (18.26) zeigt, dass Einheitsvektoren c und physikalische Vektorkomponenten v ph in orthogonalen Koordinatensystemen in gleichartiger Weise mit der Matrix Aprq nach (18.11) und damit kogredient transformiert werden. Bei Tensoren erfolgen die Umrechnungen in entsprechender Weise, hier am Beispiel der kontravarianten Komponenten. ` ˘T ## AT Tph A e Δ h T## Δ h c “ eT looooomooooon T g “ cT looooooomooooooon T “ g # # “ T ph

“T

T ph “ A T AT “ Δ 1{h T## Δ 1{h “ Δ h T## Δ h

(18.27)

Für den Basiswechsel zwischen zwei orthogonalen Systemen, die durch x# “ x# pu# q und x# “ x# pw# q beschrieben werden, lauten die Umrechnungen der physikalischen Vektor- und Tensorkomponenten folgendermaßen, wobei die Matrizenprodukte wieder orthogonale Matrizen ergeben. v phw prq “ A w ATu v phu

T phw prq “ A w ATu T phu A u ATw

(18.28)

401

18.3 Vektor- und Tensorkomponenten

18.3.2

Ableitung der Komponenten

Mit den Beziehungen (18.18) erhält man die Ableitung der Diagonalmatrizen (18.4) “ ` ‰ “ ‰ ˘ Δh ,  “ Diag ∇ hk “ Diag hk Γkk “ Δh Diag Γkk und damit insgesamt ˘ ` Δ 1{h ,  “ ´ Δ 1{h Diag Γkk

˘ ` Δ h ,  “ Δ h Diag Γkk

(18.29)

Die Ableitung der ko- und kontravarianten Vektorkomponenten folgt aus der Darstellung (18.26) v # ,  “ ∇ v # “ ∇ pΔ h v ph q

“ Δ h ,  v ph ` Δ h v ph , 

v#,  “ ∇ v# “ ∇ pΔ 1{h v ph q “ Δ 1{h ,  v ph ` Δ 1{h v ph ,  ” ı ` ˘ v # ,  “ Δ h v ph ,  ` Diag Γkk v ph (18.30) v#, 

” “ Δ 1{h v ph ,  ´ Diag

`

Γkk

˘

ı v ph

Die Ableitung der kontravarianten Tensorkomponenten gemäß (18.27) ergibt sich in entsprechender Weise. “ ‰ T##,  “ ∇ Δ 1{h T ph Δ 1{h T##,  “ Δ 1{h



` ` ˘ ˘ı ´ Diag Γkk T ph ` T ph ,  ´ T ph Diag Γkk Δ 1{h (18.31)

18.3.3

Vektor- und Tensorableitung

Normalerweise werden nur kartesische oder krummlinige orthogonale Darstellungen verwendet, so dass man die kovarianten Ableitungen von Vektoren und Tensoren nach (17.16) und (17.26) nicht benötigt.

402

18 Orthogonale Koordinatensysteme

Aus (18.25) folgt für die Vektorableitung nach einer beliebigen Koordinate und der -ten Spalte c ,  der C-Matrix (18.24) ”` ı ˘T ` ˘T ˘T ` v ,  “ ∇ v “ v ,  e “ v ph ,  ` v ph Λ ##  c

(18.32)

In entsprechender Weise folgt aus T “ eT T e “ cT T ph c ` ˘T T ,  “ c ,  T ph c ` cT T ph ,  c ` cT T ph c ,  die Tensorableitung. T ,  “ ∇  T “ eT T ,  e “ c T

”`

Λ ## 

˘T

ı T ph ` T ph ,  ` T ph Λ ##  c (18.33)

18.4 18.4.1

Differentialoperationen Basisvektoren und Maßstäbe

Die Darstellung der ko- und kontravarianten Basisvektoren erhält man aus (18.10) mit (18.4). g# prq “ Δ 1{h c prq

g prq “ Δ h c prq #

(18.34)

Nach diesen Beziehungen sind auch die Maßstäbe der richtungsgleichen orthogonalen Dreibeine g , g# und c des Koordinatensystems gemäß #

(18.3) bestimmt. Die kontravarianten Basisvektoren stellen gemäß (17.11) die Gradienten der Koordinaten dar, so dass sich folgende Relationen der Vektoren zueinander ergeben. 1 gk “ ck “ hk gk hk

gk “ grad uk “

1 ck hk

(18.35)

403

18.4 Differentialoperationen

18.4.2

Gradient in orthogonalen Koordinaten

Setzt man die Basisvektoren (18.34) in (17.6) ein, dann ergibt sich die Darstellung des Gradienten einer skalaren Ortsfunktion in orthogonalen Koordinaten. ` ˘T ` ˘T grad V “ ∇ # V g# “ ∇ # V Δ 1{h c grad V “

18.4.3

1 BV 1 BV 1 BV c1 ` c2 ` c3 1 2 h1 Bu h2 Bu h3 Bu3

(18.36)

Divergenz in orthogonalen Koordinaten

Die Divergenz eines Vektors wird nach (17.46) mit der kovarianten Ableitung (17.16) berechnet. div v “

3 ÿ k“1

ˇ v k ˇk “

` ˘ v 1, 1 ` v 1 Γ111 ` v 2 Γ211 ` v 3 Γ311 ` ˘ ` v 2, 2 ` v 1 Γ122 ` v 2 Γ222 ` v 3 Γ322 ˘ ` ` v 3, 3 ` v 1 Γ133 ` v 2 Γ233 ` v 3 Γ333

Indem man die kontravarianten Vektorkomponenten nach (18.26) durch die physikalischen ersetzt, erhält man mit (18.18) und (18.16) die Divergenz als Funktion der metrischen Faktoren. ´1 ¯ 1 1 Bv phk v phk “ ´ Γ k v phk v k, k “ ∇k k hk hk Bu hk k k 3 3 ÿ ÿ ˇ v php 1 Bv phk k v phk v k ˇk “ v k, k ` Γpkk v p “ ´ Γ ` Γpkk kk k hk Bu hk hp p“1 p“1

div v “

1 Bv ph1 ´ 1 ` h1 Bu1 h2 1 Bv ph2 ´ 1 ` ` h2 Bu2 h1 ´ 1 Bv ph3 1 ` ` 3 h3 Bu h1

Bh2 1 Bh3 ¯ v ph1 ` Bu1 h3 Bu1 h1 1 Bh3 ¯ v ph2 Bh1 ` Bu2 h3 Bu2 h2 ¯ 1 Bh2 v ph3 Bh1 ` 3 Bu h2 Bu3 h3

404

18 Orthogonale Koordinatensysteme

Die kanonische Form der Divergenz findet man dadurch, dass man mit der Determinante h “ h1 h2 h3 nach (18.7) erweitert und die Glieder jeder Zeile zusammenfasst.

` ` ˘ ˘ ˘j „ ` B h1 v ph2 h3 B h1 h2 v ph3 B v ph1 h2 h3 ` ` Bu1 Bu2 Bu3 ˆ ˙ 3 1 ÿ B h “ v ph p h p“1 Bup hp

1 div v “ h

18.4.4

(18.37)

Rotation in orthogonalen Koordinaten

Die Rotation eines Vektors erhält man nach (17.51), indem man die Ableitungen der kovarianten Komponenten nach (18.30) durch die physikalischen ersetzt.

“ ‰ Bv phk Bhk `  v phk v k ,  “ hk v phk ,  ` Γkk v phk “ hk Bu Bu ı ` ` ˘ ˘ ˘ 1 ”` rot v “ v3, 2 ´ v2, 3 h1 c1 ` v1, 3 ´ v3, 1 h2 c2 ` v2, 1 ´ v1, 2 h3 c3 h ¯ ´ Bv ¯ı Bh3 Bh2 h1 ”´ Bv ph3 ph2 ` v ` v “ ´ h c1 h3 2 ph ph 3 2 h Bu2 Bu2 Bu3 Bu3 ¯ ´ Bv ¯ı h2 ”´ Bv ph1 Bh1 Bh3 ph3 ` ` v ` v ´ h c2 h1 3 ph ph 1 3 h Bu3 Bu3 Bu1 Bu1 ¯ ´ Bv ¯ı h3 ”´ Bv ph2 Bh2 Bh1 ph1 ` ` v ` v ´ h c3 h2 1 ph ph 2 1 h Bu1 Bu1 Bu2 Bu2 Durch Zusammenfassen der Differentiale erreicht man zwei kanonische Darstellungen der Rotation, die erste als direkten Ausdruck, die zweite in

405

18.4 Differentialoperationen

Form einer Determinante.

˘ ˘j ` „ ` B h3 v ph3 B h2 v ph2 rot v “ c1 ´ Bu2 Bu3 ` ˘ ˘j „ ` B h1 v ph1 B h3 v ph3 1 c2 ` ´ h1 h3 Bu3 Bu1 ` ˘ ˘j „ ` B h2 v ph2 B h1 v ph1 1 c3 ` ´ h1 h2 Bu1 Bu2 1 h 2 h3

ˇ ˇ h 1 c1 ˇ ˇ 1 ˇˇ B rot v “ ˇ h ˇ Bu1 ˇ ˇ h1 v ph 1

18.4.5

h2 c2 B Bu2 h2 v ph2

(18.38)

ˇ h2 c2 ˇˇ ˇ ˇ B ˇ ˇ 3 Bu ˇ ˇ h3 v ph ˇ 3

Laplace-Operator in orthogonalen Koordinaten

Ausgangspunkt für die Berechnung des Laplace-Operators ist die Divergenzbeziehung (17.46), bei der der Vektor v den Gradienten einer Ortsfunktion V bedeutet.

ΔV “ div grad V “ div v “

3 ÿ

ˇ v k ˇk

k“1

Die in der Summe auftretenden kovarianten Ableitungen müssen gemäß (17.17) durch die kovarianten Komponenten ausgedrückt werden, da der Gradient nach (17.4) nur mit diesen Komponenten auftritt, die dann ihrerseits wie bei (17.65) durch die Ableitungen der Ortsfunktion V ausgedrückt

406

18 Orthogonale Koordinatensysteme

werden. ˇ “ ‰ ¨# v# ˇk “ Δ# v # , k ´ Γ # k v# ˇ ˘‰ ` 1 “ v k ˇk “ 2 vk , k ´ Γk1k v1 ` Γk2k v2 ` Γk3k v3 hk BV Buk B2 V “ ∇k v k “ pBuk q2

v k “ ∇k V “ vk , k

Mit den Christoffel-Symbolen nach (18.16) erhält man die Darstellung des Laplace-Operators in orthogonalen Koordinatensystemen. „ 2 j B V 1 Bh1 BV h1 Bh1 BV h1 Bh1 BV 1 ´ ` ` ΔV “ h21 pBu1 q2 h1 Bu1 Bu1 h22 Bu2 Bu2 h23 Bu3 Bu3 „ 2 j 1 B V h2 Bh2 BV 1 Bh2 BV h2 Bh2 BV ` 2 ` ´ ` h2 pBu2 q2 h21 Bu1 Bu1 h2 Bu2 Bu2 h23 Bu3 Bu3 „ 2 j 1 B V h3 Bh3 BV h3 Bh3 BV 1 Bh3 BV ` 2 ` ` ´ h3 pBu3 q2 h21 Bu1 Bu1 h22 Bu2 Bu2 h3 Bu3 Bu3 Ähnlich wie bei der Divergenz findet man auch hier die kanonische Form des Laplace-Operators, indem man mit der Determinante h erweitert und die Glieder spaltenweise zusammenfasst. ΔV “

1 h



˙ h2 h3 BV h1 Bu1 ˆ ˙ h1 h3 BV B ` 2 Bu h2 Bu2 ˆ ˙j h1 h2 BV B ` 3 Bu h3 Bu3

B Bu1

ˆ

ˆ ˙ 3 1 ÿ B h BV “ h p“1 Bup hp Bup

(18.39)

18.5 Beispiele von Koordinatensystemen

18.5

407

Beispiele orthogonaler Koordinatensysteme

Die in diesem Kapitel entwickelten Beziehungen und Differentialoperatoren werden in tabellarischer Weise für verschiedene Koordinatensysteme aufgeführt, wobei die kartesischen Koordinaten als Referenzsystem angegeben werden. Die konkreten Beispiele krummliniger Systeme stellen die in den Anwendungen besonders wichtigen Koordinaten des Kreiszylinders und der Kugel sowie das weniger geläufige Koordinatensystem des abgeplatteten Rotationsellipsoids dar [1], [2], [3], [5]. Die Reihenfolge der Koordinaten bildet in allen Fällen ein Rechtssystem und die krummlinigen Einheitsvektoren mit individuellem Index werden mit e ... und nicht mit c ... bezeichnet.

18.5.1

Kartesische Koordinaten (x, y, z)

Einheitsvektoren und metrische Faktoren Die Einheitsvektoren sind nicht ortsabhängig und weisen in allen Raumpunkten jeweils in die gleiche Richtung. ¨ ˛ # ex div ex “ div ey “ div ez “ 0 e “ ˝ey ‚ ‰ f prq Ñ rot ex “ rot ey “ rot ez “ 0 ez Alle metrischen Faktoren sind Eins und ihre Ableitungen daher alle Null. $ ’ Δ h “ Δ 1{h “ Δ # “ Δ# “ E ’ ’ ’ & › › › › ¨# h x “ hy “ h z “ 1 Ñ 0 Γ# “ , 0 , 0 › › p#q ’ ’ ’ ’ % C ## “ 0 Da alle Christoffel-Symbole Null sind, reduzieren sich nach Abschnitt 17.2.11 die kovarianten Ableitungen auf die partiellen! Gradient grad V “

BV BV BV ex ` ey ` ez Bx By Bz

(18.40)

408

18 Orthogonale Koordinatensysteme

Divergenz

div v “

Bvx Bvy Bvz ` ` Bx By Bz

(18.41)

Rotation      rot v “     „ “

ex B Bx vx

ey B By vy

Bvy Bvz ´ By Bz

" rot rot v “ " ` " ` “



B By



B Bz



B Bx



ez B Bz vz j

        

(18.42)

„ ex `

Bvx Bvz ´ Bz Bx

Bvy Bvx ´ Bx By

j

Bvy Bvz ´ By Bz

j

Bvx Bvz ´ Bz Bx

j

B ´ Bz



B ´ Bx



B By



´



j ey `

Bvy Bvx ´ Bx By

Bvx Bvz ´ Bz Bx

j*

Bvy Bvx ´ Bx By

j*

Bvy Bvz ´ By Bz

j*

j ez

ex ey ez

(18.43)

˘ ˘ ˘ B ` B ` B ` div v ex ` div v ey ` div v ez Bx By Bz ` ˘ ´ Δvx ex ` Δvy ey ` Δvz ez grad div v ´ Δv

Laplace-Operator

ΔV “

B2 V B2 V B2 V ` ` Bx2 By 2 Bz 2

(18.44)

409

18.5 Beispiele von Koordinatensystemen

Vektor-Laplace-Operator Δ v “ Δvx ex ` Δvy ey ` Δvz ez j „ 2 B vx B 2 vx B 2 vx ex “ ` ` Bx2 By 2 Bz 2 „ 2 j B vy B 2 vy B 2 vy ` ` ` ey Bx2 By 2 Bz 2 j „ 2 B 2 vz B 2 vz B vz ez ` ` ` Bx2 By 2 Bz 2

(18.45)

Divergenzen eines Tensors 2. Stufe div T “ ∇ ¨ T “

˚

Ă“ div T “ ∇ ¨ T

`

˘ Txx, x ` Tyx, y ` Tzx, z ex ` ˘ ` Txy, x ` Tyy, y ` Tzy, z ey ` ˘ ` Txz, x ` Tyz, y ` Tzz, z ez

(18.46a)

`

˘ Txx, x ` Txy, y ` Txz, z ex ` ˘ ` Tyx, x ` Tyy, y ` Tyz, z ey ` ˘ ` Tzx, x ` Tzy, y ` Tzz, z ez

(18.46b)

Divergenzen eines vierdimensionalen Tensors der Raumzeit div T “ l ¨ T “

˚

Ă“ div T “ l ¨ T



‰ T00 , 0 ` T10 , 1 ` T20 , 2 ` T30 , 3 e0 “ ‰ ` T01 , 0 ` T11 , 1 ` T21 , 2 ` T31 , 3 e1 ‰ “ ` T02 , 0 ` T12 , 1 ` T22 , 2 ` T32 , 3 e2 ‰ “ ` T03 , 0 ` T13 , 1 ` T23 , 2 ` T33 , 3 e3

(18.47a)



‰ T00 , 0 ` T01 , 1 ` T02 , 2 ` T03 , 3 e0 “ ‰ ` T10 , 0 ` T11 , 1 ` T12 , 2 ` T13 , 3 e1 ‰ “ ` T20 , 0 ` T21 , 1 ` T22 , 2 ` T23 , 3 e2 ‰ “ ` T30 , 0 ` T31 , 1 ` T32 , 2 ` T33 , 3 e3

(18.47b)

410

18 Orthogonale Koordinatensysteme

Rotation eines Tensors 2. Stufe BT BT BT ` ey ˆ ` ez ˆ Bx By Bz ‰ ‰ “ “ “ Tzx , y ´ Tyx , z ex ex ` Tzy , y ´ Tyy , z ex ey “ ‰ ` Tzz , y ´ Tyz , z ex ez “ “ ‰ ‰ ` Txx , z ´ Tzx , x ey ex ` Txy , z ´ Tzy , x ey ey “ ‰ ` Txz , z ´ Tzz , x ey ez “ “ ‰ ‰ ` Tyx , x ´ Txx , y ez ex ` Tyy , x ´ Txy , y ez ey “ ‰ ` Tyz , x ´ Txz , y ez ez

rot T “ ∇ ˆ T “ ex ˆ

(18.48)

Vektorgradient ¨

Bvx ˚ Bx ˛ ¨ ˚ ∇1 v ˚ ‹ ˚ ˚ Bv ∇v “ Grad v “ eT ˝ ∇2 v ‚ “ eT ˚ x ˚ By ˚ ∇3 v ˝ Bv x Bz

Bvy Bx Bvy By Bvy Bz

Bvz Bx Bvz By Bvz Bz

˛ ‹ ‹ ‹ ‹ ‹e ‹ ‹ ‚

(18.49)

Skalarer Operator eines Vektors `

˘ Bv Bv Bv ` ay ` az a ¨ grad v “ a ¨ Grad v “ ax Bx By Bz ` ` ` ˘ ˘ ˘ “ a ¨ grad vx ex ` a ¨ grad vy ey ` a ¨ grad vz ez „ j Bvx Bvx Bvx “ ax ` ay ` az ex Bx By Bz „ j Bvy Bvy Bvy ` ax (18.50) ` ay ` az ey Bx By Bz „ j Bvz Bvz Bvz ` ax ` ay ` az ez Bx By Bz

411

18.5 Beispiele von Koordinatensystemen

Symmetrischer Ableitungstensor ¨

B2 V ˚ Bx2 ˚ ˚ 2 ˚ ` ˘ T˚ B V T pBq pBq T V “ e T ## pV q e “ e ˚ ˚ Bx By ˚ 2 ˝ B V Bx Bz

B2 V Bx By B2V By 2 B2V By Bz

˛ B2 V Bx Bz ‹ ‹ ‹ 2 B V ‹ ‹ e By Bz ‹ ‹ ‹ 2 B V ‚

(18.51)

Bz 2

Spezielles Kreuzprodukt Für die Divergenz des Kreuzproduktes aus einem symmetrischen Tensor 2. Stufe S nach (18.46) und dem Ortsvektor ¨ ˛ ¨ ˛ e1 ex ˘ ` ˘ ` r “ xT e “ x, y, z ˝ey ‚ “ x1 , x2 , x3 ˝e2 ‚ ez e3 erhält man nach Zwischenrechnung folgende Beziehung zwischen Vektoren, die in dieser allgemeinen Form in beliebigen Koordinatensystemen gültig ist. ` ˘ ` ˘ div S ˆ r “ div S ˆ r “ ´ r ˆ div S (18.52)

18.5.2

Zylinderkoordinaten (ρ, ϕ, z)

Funktionssätze zur Koordinatendarstellung ˛ ¨ ˛ ¨ ρ cos ϕ x ` ˘ ‹ ˚ ‹ ˚ x# “ ˝y ‚ “ ˝ ρ sin ϕ ‚ “ x# u# (18.53) z z ˛ ¨ a ρ “ const. Ñ Kreiszylinder ρ “ x2 ` y 2 ‹ ˚ # ϕ “ const. Ñ Azimutebenen u “ ˝ϕ “ arctan y{x‚, z “ const. Ñ Horizontalebenen z Funktionalmatrix ˛ ¨ cos ϕ ´ ρ sin ϕ 0 ` ˘ ˚ ‹ ρ cos ϕ 0 ‚, F x# { u# “ ˝ sin ϕ 0 0 1

` ˘ det F x# { u# “ ρ

(18.54)

412

18 Orthogonale Koordinatensysteme

Matrizen des Metriktensors ˛ ¨ 1 0 0 ‹ ˚ G # “ Δ # “ ˝ 0 ρ2 0 ‚, 0 0 1

˛ 1 0 0 ‹ ˚ G# “ Δ# “ ˝ 0 1{ρ2 0 ‚ 0 0 1 ¨

(18.55)

Metrische Faktoren, Transformationsmatrix und Einheitsvektoren ˛ ¨ ˛ ¨ ˛ hρ cos ϕ sin ϕ 0 1 ‹ ˚ ˚ ‹ ˚ ‹ Aprq “ A ϕ prq “ ˝ ´ sin ϕ cos ϕ 0 ‚ h # “ ˝ hϕ ‚ “ ˝ ρ ‚, 0 0 1 1 hz ¨ ¨ ˛ ˛ eρ ` cos ϕ ex ` sin ϕ ey ˚ ˚ ‹ ‹ c “ ˝ eϕ ‚ “ A ϕ e “ ˝´ sin ϕ ex ` cos ϕ ey ‚ (18.56) ez ez ¨

Die Matrix Aprq ist identisch mit der Matrix A ϕ der ebenen Drehung nach (6.34). Elemente der Geometrie r “ ρ cos ϕ ex ` ρ sin ϕ ey ` z ez dr “ dρ eρ ` ρ dϕ eϕ ` dz ez ds2 “ dρ2 ` ρ2 dϕ2 ` dz 2 dv “ ρ dρ dϕ dz

daρϕ “ ρ dρ dϕ daρz “ dρ dz

(18.57)

daϕz “ ρ dϕ dz

Christoffel-Blockmatrizen

¨# Γ# p#q

r ¨# Γ # p#q

¨ ˛ ¨ ˛ ¨ ˛  0 0 0 0 0 0  0 1{ρ 0   ‹ ˚ ‹ ˚ ‹ ˚ “  ˝0 1{ρ 0 ‚, ˝´ ρ 0 0 ‚, ˝ 0 0 0 ‚     0 0 0 0 0 0 0 0 0  ¨ ˛ ¨ ˛ ¨ ˛  0 0 0 0 0 0  0 1{ρ 0   ‹ ˚ ‹ ˚ ‹ ˚ “  ˝0 0 0 ‚, ˝´ ρ 0 0 ‚, ˝ 0 0 0 ‚     0 0 0 0 0 0 0 0 0 

(18.58)

413

18.5 Beispiele von Koordinatensystemen

Ableitung der Einheitsvektoren

C ##

¨ ˛ ¨ ˛ ¨ ˛ ¨ ˛  0 0 0 0 0 0  eρ 0 1 0   ‹ ˚ ‹ ˚ ‹ ˚ ‹ ˚ “  ˝0 0 0 ‚, ˝´ 1 0 0 ‚, ˝ 0 0 0 ‚  ˝ ˝eϕ ‚    0 0 0 0 0 0 ez 0 0 0  0

eρ, ρ

eρ, ϕ

eρ, z

˚ C ## “ ˝ eϕ, ρ

eϕ, ϕ

‹ ˚ eϕ, z ‚ “ ˝ 0

ez, ρ

ez, ϕ

ez, z

¨

˛

¨

˛ 0 ‹ 0‚

eϕ ´ eρ

0

0

0

Gradient grad V “

1 BV BV BV eρ ` eϕ ` ez Bρ ρ Bϕ Bz

Divergenz div v “ div eρ “

Bvρ vρ 1 Bvϕ Bvz ` ` ` Bρ ρ ρ Bϕ Bz 1 , ρ

div eϕ “ div ez “ 0

Rotation „ rot v “

Bvϕ 1 Bvz ´ ρ Bϕ Bz

rot eρ “ 0 ,

j

rot eϕ “

„ eρ ` 1 ez , ρ

Bvρ Bvz ´ Bz Bρ

j

„ eϕ `

Bvϕ vϕ 1 Bvρ ` ´ Bρ ρ ρ Bϕ

rot ez “ 0

Laplace-Operator

ΔV “

B2 V 1 BV B2 V 1 B2 V ` ` ` Bρ2 ρ Bρ ρ2 Bϕ2 Bz 2

j ez

414

18 Orthogonale Koordinatensysteme

18.5.3

Kugelkoordinaten (r, ϑ, ϕ)

Funktionssätze zur Koordinatendarstellung ˛ ¨ ˛ ¨ r sin ϑ cos ϕ x ` ˘ ‹ ˚ ‹ ˚ x# “ ˝y ‚ “ ˝ r sin ϑ sin ϕ ‚ “ x# u# r cos ϑ z a ˛ x2 ` y 2 ` z 2 `a ˘‹ ˚ u# “ ˝ϑ “ arctan x2 ` y 2 {z ‚, ϕ “ arctan py{xq ¨

r“

(18.59)

r “ const. Ñ Kugelflächen ϑ “ const. Ñ Kegelflächen ϕ “ const. Ñ Azimutebenen

Funktionalmatrix ˛ sin ϑ cos ϕ r cos ϑ cos ϕ ´ r sin ϑ sin ϕ ` ˘ ˚ ‹ r sin ϑ cos ϕ ‚ F x# { u# “ ˝ sin ϑ sin ϕ r cos ϑ sin ϕ cos ϑ ´ r sin ϑ 0 ` # #˘ det F x { u “ r2 sin ϑ ¨

Matrizen des Metriktensors ¨

˛ 1 0 0 ‹ ˚ 0 G # “ Δ # “ ˝ 0 r2 ‚ 2 2 0 0 r sin ϑ ˛ ¨ 1 0 0 ‹ ˚ 0 G# “ Δ# “ ˝ 0 1{r2 ‚ 2 2 0 0 1{pr sin ϑq

Metrische Faktoren, Einheitsvektoren und Transformationsmatrix ˛ ¨ ¨ ˛ ¨ ˛ hr er 1 ‹ ˚ ˚ ‹ ˚ ‹ c “ ˝ eϑ ‚ “ A e h # “ ˝ hϑ ‚ “ ˝ r ‚, r sin ϑ hϕ eϕ ˛ ¨ sin ϑ cos ϕ sin ϑ sin ϕ cos ϑ ‹ ˚ (18.60) A “ ˝ cos ϑ cos ϕ cos ϑ sin ϕ ´ sin ϑ ‚ ´ sin ϕ cos ϕ 0

415

18.5 Beispiele von Koordinatensystemen

Elemente der Geometrie (18.61)

r “ r sin ϑ cos ϕ ex ` r sin ϑ sin ϕ ey ` r cos ϑ ez dr “ dr er ` r dϑ eϑ ` r sin ϑ dϕ eϕ

darϑ “ r dr dϑ

ds2 “ dr2 ` r2 dϑ2 ` r2 sin2 ϑ dϕ2

darϕ “ r sin ϑ dr dϕ

dv “ r2 sin ϑ dr dϑ dϕ

daϑϕ “ r2 sin ϑ dϑ dϕ

Christoffel-Blockmatrizen ›¨ ˛ ˛ ¨ › 0 0 0 1{r 0 0 › ›˚ ‹ ‹ ˚ ¨# 0 ‚, Γ# ˝ 0 1{r 0 ‚, ˝´ r 0 p#q “ › › › 0 0 1{r 0 0 cot ϑ ¨ 0 0 ˚ 0 0 ˝

1{r

˛ › › › ‹ › cot ϑ ‚ › › › 0 ´ r sin2 ϑ ´ sin ϑ cos ϑ

r ¨# Γ # p#q

›¨ ˛ ˛ ¨ › 0 0 0 0 1{r 0 › ‹ ‹ ˚ ›˚ “ › ˝ 0 0 0 ‚, ˝´ r 0 0 ‚, › › 0 0 0 0 0 0 ¨ 0 0 ˚ 0 0 ˝

1{r

˛ › › › ‹ › cot ϑ ‚ › › › 2 ´ r sin ϑ ´ sin ϑ cos ϑ 0

Ableitung der Einheitsvektoren ›¨ ˛ ˛ ¨ › 0 0 0 0 1 0 › ‹ ›˚ ‹ ˚ C ## “ › ˝ 0 0 0 ‚, ˝´1 0 0 ‚, › › 0 0 0 0 0 0 ¨ 0 0 ˚ 0 ˝ 0

sin ϑ

˛ › ¨ ˛ › er › ‹ › ˚ ‹ cos ϑ ‚ › ˝ ˝eϑ ‚ › › eϕ ´ sin ϑ ´ cos ϑ 0

416

18 Orthogonale Koordinatensysteme 0

er,r

er,ϑ

er,ϕ

˚ C ## “ ˝ eϑ,r

eϑ,ϑ

‹ ˚ eϑ,ϕ ‚ “ ˝ 0 ´er

¨

eϕ,r

˛

¨

0

eϕ,ϑ eϕ,ϕ

eϑ 0

sin ϑ eϕ

˛

cos ϑ eϕ

‹ ‚

´ sin ϑ er ´ cos ϑ eϑ

Gradient grad V “

BV 1 BV 1 BV er ` eϑ ` eϕ Br r Bϑ r sin ϑ Bϕ

(18.62)

Divergenz div v “ div er “

1 Bvϑ cot ϑ 1 Bvϕ Bvr 2 ` vr ` ` vϑ ` Br r r Bϑ r r sin ϑ Bϕ 2 , r

div eϑ “

cot ϑ , r

div eϕ “ 0

Rotation „ rot v “

j 1 Bvϕ cot ϑ 1 Bvϑ ` vϕ ´ er r Bϑ r r sin ϑ Bϕ j „ Bvϕ 1 Bvr 1 ` ´ ´ vϕ eϑ r sin ϑ Bϕ Br r „ j Bvϑ 1 1 Bvr ` ` vϑ ´ eϕ Br r r Bϑ

rot er “ 0 ,

rot eϑ “

1 eϕ , r

rot eϕ “

cot ϑ 1 er ´ e ϑ r r

Laplace-Operator ΔV “

18.5.4

B2 V 2 BV cot ϑ BV B2V 1 B2 V 1 ` ` ` ` Br2 r Br r2 Bϑ2 r2 Bϑ r2 sin2 ϑ Bϕ2

(18.63)

Gegenseitige Darstellung der Koordinatensysteme

Einheitsvektoren von Zylinder- und Kugelkoordinaten Nach (18.14) gilt für die Umrechnungen mit den oben angegebenen Matrizen c Zyl “ A Zyl ATKug c Kug ` ˘T cKug “ A Kug ATZyl c Zyl “ A Zyl ATKug c Zyl

417

18.5 Beispiele von Koordinatensystemen

c Zyl

˛¨ ˛ ¨ ˛ ¨ ˛ er eρ sin ϑ cos ϑ 0 sin ϑ er ` cos ϑ eϑ ‹˚ ‹ ˚ ˚ ‹ ˚ ‹ 0 1 ‚˝eϑ ‚ “ ˝ eϕ “ ˝eϕ ‚ “ ˝ 0 ‚ cos ϑ ´ sin ϑ 0 ez eϕ cos ϑ er ´ sin ϑ eϑ

c Kug

˛¨ ˛ ¨ ˛ ¨ ˛ eρ er sin ϑ 0 cos ϑ sin ϑ eρ ` cos ϑ ez ‹˚ ‹ ˚ ˚ ‹ ˚ ‹ “ ˝eϑ ‚ “ ˝ cos ϑ 0 ´ sin ϑ ‚˝eϕ ‚ “ ˝ cos ϑ eρ ´ sin ϑ ez ‚ 0 1 0 eϕ ez eϕ

¨

¨

Physikalische Vektorkomponenten Ein Vektor hat im kartesischen, Zylinder- und Kugelkoordinatensystem nach (18.26) folgende Darstellungen mit physikalischen Komponenten und Einheitsvektoren. v “ vT e “ vTZyl c Zyl “ vTKug c Kug v Zyl “ A Zyl ATKug v Kug ˘T ` v Kug “ A Zyl ATKug v Zyl “ A Kug ATZyl v Zyl ¨

v Zyl

v Kug

18.5.5

˛ ¨ vρ vr ˚ ‹ ˚ “ ˝vϕ ‚ “ ˝ vz vr ¨ ˛ ¨ vr vρ ˚ ‹ ˚ “ ˝ vϑ ‚ “ ˝ vρ vϕ

˛ sin ϑ ` vϑ cos ϑ ‹ vϕ ‚ cos ϑ ´ vϑ sin ϑ ˛ sin ϑ ` vz cos ϑ ‹ cos ϑ ´ vz sin ϑ ‚ vϕ

Koordinaten des abgeplatteten Rotationsellipsoids (η, ξ, ϕ)

Abkürzungen wη “

a 1 ´ η2 ,

wξ “

a ξ2 ` 1 ,

v“

a η2 ` ξ2

c ist der Radius des Fokalkreises aller Rotationsellipsoide

418

18 Orthogonale Koordinatensysteme

Funktionssatz zur Koordinatendarstellung

˛ ¨ ¨ ˛ ¨ a ˛ x c wη wξ cos ϕ c p1 ´ η 2 qpξ 2 ` 1q cos ϕ ‹ ˚ ˚ ‹ ˚ a ‹ ‹ 2 2 x# “ ˝ y ‚ “ ˚ ˝ c p1 ´ η qpξ ` 1q sin ϕ ‚ “ ˝ c wη wξ sin ϕ ‚ cηξ z cηξ

η “ const. Ñ einschalige Rotationshyperboloide ξ “ const. Ñ Rotationsellipsoide ϕ “ const. Ñ Azimutebenen

p´1 ď η ď `1q p0 ď ξ ď 8q p0 ď ϕ ď 2πq

Funktionalmatrix

¨ `

#

F x {u

#

˘

˚ ˚ “˚ ˚ ˝

˛ wξ wη cos ϕ ` c ξ cos ϕ ´ c wη wξ sin ϕ wη wξ ‹ ‹ wξ wη ‹ sin ϕ ` c ξ sin ϕ ` c wη wξ cos ϕ ‹ ´cη wη wξ ‚

´cη





0

` ˘ det F x# { u# “ c3 v 2 “ c3 pη 2 ` ξ 2 q

Matrix des Metriktensors ˛ v ¯2 0 0 ˚ wη ‹ ˚ ‹ ´ v ¯2 2 ˚ ‹ G# “ Δ# “ c ˚ 0 ‹ 0 ˝ ‚ wξ ` ˘2 0 0 wη wξ ` ˘ det G # “ det Δ # “ det2 F x# { u# “ c6 v 4 “ c6 pξ 2 ` η 2 q2 ¨´

419

18.5 Beispiele von Koordinatensystemen

Metrische Faktoren und Transformationsmatrix ¨ h#



˛

¨

v wη v wξ

˚ ‹ ˚ ˚ ‹ ˚ ˚ ‹ “ ˚ hξ ‹ “ c ˚ ˚ ˝ ‚ ˝ hϕ wη wξ

‹ ‹ ‹ ‹ ‚

wξ wξ wη ˛ cos ϕ ´ η sin ϕ ξ v v v ‹ ˚ ˚ ‹ w w w ˚ “ ˚ ` ξ η cos ϕ ` ξ η sin ϕ η ξ ‹ ‹ ˝ v v v ‚ ´ sin ϕ cos ϕ 0 ¨

Aprq “ A Ell

˛

´η

Prüfung des Rechtssystems wξ wξ wη ı cos ϕ ex ´ η sin ϕ ey ` ξ ez ˆ v v v ” wξ ı wη wη ˆ `ξ cos ϕ ex ` ξ sin ϕ ey ` η ez v v v ´ w ¯2 ı ” ´ w ¯2 ξ η sin ϕ ` ξ cos ϕ ex “´ η v v ” ´ w ¯2 ´ w ¯2 ı ξ η ` η cos ϕ ` ξ sin ϕ ey v v ” ´ η ξ w w ¯2 ´ η ξ w w ¯2 ı η ξ η ξ ´ sin ϕ cos ϕ ´ sin ϕ cos ϕ ez v2 v2 ” ´ w ¯2 ´ w ¯2 ı ” ı ξ η “ η ` ξ ´ sin ϕ ex ` cos ϕ ey v v loooooooooooomoooooooooooon loooooooooooomoooooooooooon ”

eη ˆ eξ “

´η

“1

“ eϕ

e η ˆ e ξ “ eϕ Die Variablen η, ξ, ϕ bzw. die Einheitsvektoren eη , eξ , eϕ bilden in dieser Reihenfolge ein Rechtssystem.

420

18 Orthogonale Koordinatensysteme

Christoffel-Blockmatrix ›¨ ´ ´ w ¯2 › w ξ ¯2 ξ › η ´ ξ 0 ›˚ v wη v wη ›˚ ›˚ η ξ ›˚ ¨# “ Γ# 0 ›˚ p#q ›˚ v2 v2 ›˚ ›˝ η › 0 0 ´ 2 › wη ξ η ˚ v2 v2 ˚ ´ ´ ¯ ¯ ˚ ˚´ η wη 2 ξ wη 2 ˚ v wξ v wξ ˚ ˚ ˝ 0 0

˛ ‹ ‹ ‹ ‹ ‹, ‹ ‹ ‚

¨

¨ ˚ ˚ ˚ ˚ ˚ ˚ ˝ η

˛ 0 ‹ ‹ ‹ 0 ‹ ‹, ‹ ‹ ξ ‚ wξ2

0

0

0

0

η wη2 ξ wξ2

´

´ w w ¯2 ´ w w ¯2 η ξ η ξ ´ξ v v

0

˛ › › › ‹ › ‹ › ‹ › ‹ › ‹ › ‹ › ‚› › ›

Ableitung der Einheitsvektoren

C ##

›¨ › › 0 ›˚ ›˚ ›˚ “ › ˚` ξ wξ ›˚ › ˝ v 2 wη › › 0

´

ξ wξ v 2 wη 0 0 ¨

˛ ¨ 0 ‹ ˚ ‹ ˚ ‹ ˚ η wη , ´ 0‹ 2 ‹ ˚ ‚ ˝ v wξ 0 0

0

0

˚ ˚ ˚ ˚ 0 ˚ ˝ wξ `η v

0 0 ´ξ

wη v

`

η wη v 2 wξ

0

˛

0

‹ ‹ 0‹ ‹, ‚

0

0

wξ v wη `ξ v ´η

0

˛ › › ¨ ˛ › eη ‹ › ‹ › ˚ ‹ ‹ › ˚ ‹ ‹ › ˝ ˝ eξ ‚ ‹ › ‚› › eϕ ›

421

18.5 Beispiele von Koordinatensystemen eη,η

eη,ξ

eη,ϕ

˚ C ## “ ˝ eξ,η

eξ,ξ

‹ eξ,ϕ ‚

¨

eϕ,η

˛

eϕ,ξ eϕ,ϕ

wξ ξ wξ η wη eξ ` 2 eξ ´η eϕ 2 ˚ v wη v wξ v ˚ ˚ ξ w wη η wη ξ “˚ eη ´ 2 eη `ξ eϕ ˚` 2 v wξ v ˚ v wη ˝ wξ wη 0 0 η eη ´ ξ eξ v v Darstellung durch Zylinder- und Kugelkoordinaten ¨

˛

´

‹ ‹ ‹ ‹ ‹ ‹ ‚

c Ell “ A Ell ATZyl c Zyl “ A Ell ATKug c Kug ¨ ˛ wξ wη ´ η ` ξ e e ρ z eη v v ˚ ‹ ‹ ˚ ‹ ˚ wξ wη ‹ ˚ eξ ‹ “ ˚ eρ ` η ez ‹ ˝ ‚ ˚` ξ ˝ ‚ v v eϕ eϕ ¨

˛

´ w ¯ ¯ ¨´ wη wξ wη ξ ξ cos ϑ ´ η sin ϑ er ´ η cos ϑ ` ξ sin ϑ eϑ v v v v ˚ ˚´ ´ w ¯ ¯ w w w ˚ “ ˚ η ξ cos ϑ ` ξ η sin ϑ e ` ξ η cos ϑ ´ η ξ sin ϑ e r ϑ ˝ v v v v eϕ Gradient grad V “

wξ BV wη BV 1 BV eη ` eξ ` eϕ c v Bη c v Bξ c wη wξ Bϕ

Divergenz wη cv



wξ ` cv



div v “

`

1 1 ´ v 2 wη2

˙

1 1 ` 2 2 v wξ

˙

Bvη `η Bη

ˆ

Bvξ `ξ Bξ

ˆ

Bvϕ 1 c wη wξ Bϕ

j vη j vξ

˛ ‹ ‹ ‹ ‹ ‚

422

18 Orthogonale Koordinatensysteme wη div eη “ η cv

ˆ

1 1 ´ 2 2 v wη

˙

wξ div eξ “ ξ cv

ˆ

1 1 ` 2 2 v wη

˙

div eϕ “ 0 Rotation j ¯ Bvξ wξ ´ Bvϕ 1 ξ ` 2 vϕ ´ eη rot v “ c v Bξ c wη wξ Bϕ wξ „ j ¯ wη ´ Bvϕ Bvη 1 η ´ ´ 2 vϕ ` eξ c v Bη wη c wη wξ Bϕ „ ¯j wη ´ Bvξ η ¯ wξ ´ Bvη ξ ` ` 2 vξ ´ ` 2 v η eϕ c v Bη v c v Bξ v „

1 ξ wη eϕ c v v2 1 η wξ rot eξ “ eϕ c v v2 ı 1 ” ξ η rot eϕ “ eη ` eξ c v wξ wη rot eη “ ´

Laplace-Operator 1 ΔV “ pc vq2

„ wη2

2 B2 V BV BV 2 B V ´ 2 η ` 2ξ ` w ` ξ 2 2 Bη Bη Bξ Bξ

ˆ

v wη wξ

˙2

B2 V Bϕ2

j

Literatur [1] Flammer, C.: Spheroidal Wave Functions Stanford University Press (1957) [2] Meixner, J., Schäfke, F. W.: Mathieusche Funktionen und Sphäroidfunktionen Springer Verlag, Berlin, Göttingen, Heidelberg (1954) [3] Moon, P., Spencer, D. E.: Field Theory Handbook Springer Verlag, Berlin, Heidelberg, New York (1971) [4] Morse, P. M., Feshbach, H.: Methods of Theoretical Physics, I/II McGraw-Hill Book Company, (1953) [5] Werner, W.: Rotationsellipsoid als elektromagnetischer Hohlraumresonator Diss. TU Berlin (1977)

423

Kapitel 19

Integralsätze und zeitabhängige Felder Zusammenfassung Zur Untersuchung, Berechnung und Beschreibung physikalischer Felder existiert eine Reihe von Integralsätzen (Gauß, Stokes, Green, Stratton), mit denen Aussagen über die Quellen und Wirbel von Feldern formuliert werden. Diese Sätze sowie die zeitliche Ableitung von Feldgrößen und Integralen werden im Hinblick auf ihr Auftreten in den physikalischen Anwendungen dargestellt.

19.1 19.1.1

Grundlegende Integralsätze Fluss von Feldern und Gauß’scher Satz

Ein Vektorfeld vprq wird durch die Quellen des Feldes charakterisiert, deren Quellstärke oder Quellergiebigkeit eine wichtige Größe für den Feldbegriff darstellt. Als anschauliches Bild für diese Vorstellung kann man den Vektor v der Geschwindigkeit einer inkompressiblen Flüssigkeit ansehen. Das Skalarprodukt v ¨ da stellt dann ein Maß für die Flüssigkeitsmenge dar, die durch das Flächenelement da strömt. Verallgemeinernd bezeichnet man für beliebige Vektoren diese skalare Größe als Fluss des Vektorfeldes oder Vektorfluss Ψ . Für ein Element 424 © Springer Fachmedien Wiesbaden GmbH, ein Teil von Springer Nature 2019 W. Werner, Vektoren und Tensoren als universelle Sprache in Physik und Technik 1, https://doi.org/10.1007/978-3-658-25272-4_19

425

19.1 Grundlegende Integralsätze

des Flusses gilt mit der nach außen zeigenden Flächennormalen n dΨ “ v ¨ da “ v ¨ n da “ vn da Der Vektorfluss ist ein Maß für die Normalkomponente des Vektorfeldes v bezüglich einer Fläche. ij v ¨ da

Ψ “

(19.1)

a

Über eine zum Vektorfeld vprq parallel liegende Fläche, für deren Elemente v ¨ da “ 0 gilt, kann kein Fluss Ψ treten. Solche Flächen von schlauchartiger Form, die einen konstanten Fluss führen, heißen Flussröhren. In entsprechender Weise wird der Fluss des Tensorfeldes oder der Tensorfluss Υ definiert, der einen Vektor darstellt. dΥ “ T ¨ da “ T ¨ n da ij

ij T ¨ da “

Υ “ a

T ¨ n da

(19.2)

a

Zur Untersuchung des Vektorflusses Ψ sind am kartesischen, würfelförmigen Volumenelement der Abbildung 19.1 nur diejenigen Größen des Vektorfeldes v “ v x ex ` v y ev ` v z ez angegeben, die den Flussanteil in y-Richtung bestimmen. Das Skalarprodukt mit den nach außen zeigenden Normalen liefert für den Flussanteil, der in y-Richtung durch das Volumen hindurchtritt, folgenden Ausdruck. ” ı Bvy Bvy dΨy “ ´ vy px, y, zq ` vy px, y, zq ` dy dx dz “ dx dy dz By By Durch das Volumenelement tritt der Gesamtfluss, ” Bv Bvy Bvz ı x dΨ “ dΨx ` dΨy ` dΨz “ ` ` dx dy dz “ div v dv Bx By Bz der nach (18.41) der Divergenz des Feldvektors als Quellstärke im betreffenden Raumpunkt entspricht.

426

19 Integralsätze und zeitabhängige Felder

z dz vy (x, y, z) +

∂vy dy ∂y

y

vy (x, y, z) dx

x

dy

Abb. 19.1: Zunahme einer Funktion in y-Richtung Integriert man den Vektor v, der selbst sowie seine ersten Ableitungen als stetig vorausgesetzt werden, über die geschlossene, stückweise glatte Oberfläche a eines beliebigen Volumens v, dessen Normale nach außen zeigt, dann erhält man den Gauß’schen Satz oder auch Gauß-Ostrogradski’schen Satz, der ein geschlossenes Oberflächenintegral mit einem Volumenintegral verknüpft. ¡ £ v ¨ da “ div v dv (19.3) Ψ “ a

v

In quellenfreien Raumgebieten hat ein Feld die Divergenz Null. £ Ψ “

v ¨ da “ 0

Ø

div v “ 0

(19.4)

a

Physikalisch besagt der Gauß’sche Satz, dass der gesamte Fluss Ψ eines Raumgebietes entweder über dessen Oberfläche ein- und wieder austreten muss oder in seinem Inneren in Quellen erzeugt wird bzw. in Senken verschwindet.

19.1.2

Zirkulation eines Feldes und Stokes’scher Satz

Die zweite wichtige Größe für den Feldbegriff ist die Zirkulation Z oder Wirbelstärke eines Vektorfeldes vprq, wodurch die Wirbel des Feldes beschrieben werden.

427

19.1 Grundlegende Integralsätze

Das Skalarprodukt v ¨ dr, das auf dem Rand eines im Sinne einer Rechtsschraube umlaufenen Flächenelementes da gebildet wird, ist ein Element der Zirkulation, die damit ein Maß für die Tangentialkomponente des Vektorfeldes bezüglich des Randes einer Fläche darstellt. dZ “ v ¨ dr “ v ¨ t dr “ vt dr Für ein kartesisches Flächenelement da “ dx dy mit dem Tangentenvektor dr “ t dr seines Randes gilt die Abbildung 19.2, bei dem nur die für das Skalarprodukt relevante Vektorkomponente pro Randteilstück angegeben ist. Die Vorzeichen der einzelnen Glieder ergeben sich aus den Richtungen von Vektorfeld und Tangentenvektor auf den einzelnen Seiten des Flächenelementes. Der Beitrag zur Zirkulation bei einem Umlauf lautet, ´ ´ Bvy ¯ Bvx ¯ dZ “ vx dx ` vy ` dx dy ´ vx ` dy dx ´ vy dy Bx By ” Bv Bvx ı y “ ´ dx dy “ ez ¨ rot v dx dy “ rot v ¨ ez da Bx By “ rot v ¨ da der nach (18.42) der Rotation des Feldvektors als Wirbelstärke im betreffenden Raumpunkt entspricht.

y

vx +

∂vx dy ∂y vy +

vy

vx

∂vy dx ∂x

x

Abb. 19.2: Funktionswerte am Element dx dy Integriert man den Vektor v, der zusammen mit seinen ersten Ableitungen stetig sei, auf einer geschlossenen, stückweise glatten Kontur C, über

428

19 Integralsätze und zeitabhängige Felder

der eine beliebige Fläche a hutförmig aufgespannt ist, dann erhält man den Stokes’schen Satz, der ein Konturintegral mit einem Flächenintegral verknüpft. ij

¿ v ¨ dr “

Z “

rot v ¨ da

C

(19.5)

a

In wirbelfreien Raumgebieten hat ein Feld die Rotation Null.

¿ v ¨ dr “ 0

Z “

rot v “ 0

Ø

(19.6)

C

In physikalischen Systemen, bei denen der Vektor eine Kraft F oder eine Feldstärke E bedeutet, stellt das Wegintegral des Vektors (ggf. bis auf eine Konstante) die Arbeit W dar, die auf dem durchlaufenen Weg von A nach B verrichtet wird, z.B. im elektrostatischen Feld einer Punktladung Q. ż

B A

19.1.3

ż

B

F ¨ dr “ Q

W “

E ¨ dr A

Anschauliche Darstellung von Quellen und Wirbeln

Ein Feld, das durch den Feldvektor v “ vprq im gesamten Raum beschrieben wird, besitzt ‚ Quellen, wenn seine Divergenz nicht identisch verschwindet, div v ı 0 ‚ Wirbel, wenn seine Rotation nicht identisch verschwindet, rot v ı 0 die punktförmig, linienförmig oder räumlich verteilt sein können.

429

19.1 Grundlegende Integralsätze

a)

b)

Abb. 19.3: Feldlinien eines Feldes a) Quellpunkt als Ausgangspunkt von Feldlinien b) Wirbelfaden, der von Feldlinien umlaufen wird

In Ergänzung zu den Sätzen von Gauß und Stokes gilt allgemeiner £

¡

Ψ“

v ¨ da “

div v dv

a

v



ÿ

der von v umschlossenen Quellen

(

ij

¿ v ¨ da “

Z“ C

rot v ¨ da a



ÿ

der durch a hindurchtretenden Wirbelfäden

(

Bei räumlich verteilten Quellen oder Wirbeln ist die Summation sinngemäß durch eine Integration zu ersetzen, die sich über das entsprechende Raumgebiet erstreckt. Die Aufteilung von Feldern nach ihren Quellen und Wirbeln ist Gegenstand des Helmholtz-Theorems in Abschnitt 17.6. Die im gesamten Raum definierten Einheitsvektoren krummliniger Koordinatensysteme können ebenfalls Divergenz und Rotation aufweisen. Bei Zylinder- und Kugelkoordinaten sind für die in Abbildung 19.4 dargestellten Einheitsvektoren Quellen und Wirbel im gesamten Raum verteilt, so dass deren Integrale nirgends verschwinden. Ihre konkreten Divergenz- und Rotationswerte wurden in Abschnitt 18.5 bereits angegeben.

430

19 Integralsätze und zeitabhängige Felder

19.1.3.1

Beispiele für Einheitsvektoren

‚ mit räumlich verteilter Divergenz:

eρ , e r , eϑ

‚ mit räumlich verteilter Rotation:

eϕ , e ϑ









Abb. 19.4: Divergenz und Rotation einiger Einheitsvektoren

19.2 19.2.1

Abgeleitete Integralsätze Sonderfälle des Gauß’schen Satzes

Kann der Feldvektor v als Rotation eines anderen Feldvektors dargestellt werden, v “ rot w, so folgt mit (17.63) nach (19.4) ein divergenzfreies oder quellenfreies Feld, das auch solenoidales oder Wirbelfeld genannt wird. £ div rot w ” 0 Ñ rot w ¨ da “ 0 (19.7) a

Mit einem beliebigen, konstanten Vektor u ˘ gelten nach (17.56) und (17.57) die beiden folgenden Divergenzbeziehungen. ` ˘ ˘ ¨ grad V div V u ˘ “ V lo div ˘ omou on ` u “0

`

˘

div u ˘ ˆ v “ v ¨ lo rot ˘ ˘ ¨ rot v omou on ´ u “0

Setzt man diese Ausdrücke in den Gauß’schen Satz ein, dann erhält man unter Abwandlung des Spatproduktes und nach Herausziehen des konstanten

431

19.2 Abgeleitete Integralsätze

Vektors u ˘ aus den Integralen folgende Integralsätze. £

¡ grad V dv “ v

£

¡ rot v dv “ ´

V da v

a

v ˆ da a

(19.8)

19.2.2

Divergenz-Theorem für Tensoren 2. Stufe

Ein zum Gauß’schen Satz (19.3) äquivalentes Theorem für Tensoren 2. Stufe geht aus von der kartesischen Darstellung (9.8). ¨

Txx Txy Txz

˚ T “ eT T e “ eT ˝ Tyx Tyy Tzx

Tzy

˛

‹ Tyz ‚ e Tzz

Diesem Tensor werden drei Vektoren zugeordnet, die aus den Spalten seiner Komponentenmatrix gebildet werden, und deren Divergenzen nach (18.41) und (18.46) den drei Komponenten des Vektors div T entsprechen. tpxq “ Txx ex ` Tyx ey ` Tzx ez Ñ

div tpxq “

BTxx BTyx BTzx ` ` “ ex ¨ div T Bx By Bz

tpyq “ Txy ex ` Tyy ey ` Tzy ez Ñ

div tpyq “

BTxy BTyy BTzy ` ` “ ey ¨ div T Bx By Bz

tpzq “ Txz ex ` Tyz ey ` Tzz ez Ñ

div tpzq “

BTyz BTxz BTzz ` ` “ ez ¨ div T Bx By Bz

Nach dem Gauß’schen Satz gilt für den Skalar aus dem ersten Vektor ¡

¡ v

div tpxq dv “

£ “ v

ex ¨ div T



dv “ a

tpxq ¨ da

432

19 Integralsätze und zeitabhängige Felder

Nach Multiplikation mit den Einheitsvektoren erhält man für die Summe gemäß der Vektorzerlegung nach (7.1) ¡ ¡ “ ‰ div T dv “ ex div tpxq ` ey div tpyq ` ez div tpzq dv v

v

£ “

“ a

‰ ex tpxq ` ey tpyq ` ez tpzq ¨ da

Im Integranden des Flächenintegrals stellen die tensoriellen Produkte drei Ă Dyaden dar, die zusammen den zum Tensor T transponierten Tensor T nach Abschnitt 10.3.4 bilden. Txx ex ex ` Tyx ex ey ` Tzx ex ez

ex tpxq ` ey tpyq ` ez tpzq “

` Txy ey ex ` Tyy ey ey ` Tzy ey ez ` Txz ez ex ` Tyz ez ey ` Tzz ez ez Ă r e“T “ eT T Das Divergenz-Theorem für Tensoren 2. Stufe ist eine Vektorgleichung, die eine Verallgemeinerung des Gauß’schen Satzes darstellt. £

¡

£

div T dv “ v

19.2.3

da ¨ T

è da “ T a

(19.9)

a

Sonderfälle des Stokes’schen Satzes

Kann der Feldvektor v als Gradient einer skalaren Ortsfunktion dargestellt werden, v “ grad V , so folgt mit (17.62) nach (19.6) ein wirbelfreies Feld, das auch laminares Feld, Quellen-, Potential- oder Gradientenfeld genannt wird. ¿

¿ rot grad V ” 0

grad V ¨ dr “

Ñ C

dV “ 0

(19.10)

C

Die Integration der Tangentialkomponente des Feldvektors v “ grad V bzw. des totalen Differentials dV über einen geschlossenen Weg C ist Null. Gradientenfelder, die man auch als konservative Felder bezeichnet, sind wirbelfrei und ihre Rotation ist Null. In konservativen Feldern sind die

433

19.2 Abgeleitete Integralsätze

Wegintegrale unabhängig vom Integrationsweg, denn auf verschiedenen Wegen zwischen festen Punkten A und B gilt ż

¿

B

ż

v ¨ dr “ 0 “ C

„ ` A (Weg

1)

A

ż „

B (Weg

Ñ

B

ż v ¨ dr “

A (Weg

2)

1)

B

v ¨ dr A (Weg

2)

Konturintegrale über geschlossene Wege verschwinden daher und in konservativen Kraftfeldern ist die Arbeit auf geschlossenen Wegen Null. Mit einem beliebigen, konstanten Vektor u ˘ gilt nach (17.59) ` ˘ ˘ ˆ grad V rot V u ˘ “ V lo rot ˘ omou on ´ u “0

Setzt man diesen Ausdruck in den Stokes’schen Satz ein, dann erhält man unter Abwandlung des Spatproduktes und nach Herausziehen des konstanten Vektors u ˘ aus den Integralen folgenden Integralsatz. ij

¿ V dr “ ´ C

19.2.4

grad V ˆ da

(19.11)

a

Stokes-Theorem für Tensoren 2. Stufe

Ähnlich wie beim Divergenz-Theorem für Tensoren läßt sich auch ein zum Stokes’schen Satz (19.5) äquivalentes Theorem ableiten. Dabei wird die Rotation eines Tensors 2. Stufe in kartesischen Koordinaten nach (18.48) dargestellt durch die Tensorzerlegung (9.10). ` ` ` ˘ ˘ ˘ rot T “ rot T ¨ ex ex ` rot T ¨ ey ey ` rot T ¨ ez ez Die drei Vektoren, die man aus den Spalten der Komponentenmatrix des Tensors T bilden kann, weisen nach (18.42) und (18.48) folgende Rotationen auf. tpxq “ Txx ex ` Tyx ey ` Tzx ez

Ñ

rot tpxq “ rot T ¨ ex

tpyq “ Txy ex ` Tyy ey ` Tzy ez

Ñ

rot tpyq “ rot T ¨ ey

tpzq “ Txz ex ` Tyz ey ` Tzz ez

Ñ

rot tpzq “ rot T ¨ ez

434

19 Integralsätze und zeitabhängige Felder

Nach dem Stokes’schen Satz gilt für den ersten Vektor ¿ ij ij “ ‰ dr ¨ tpxq “ da ¨ rot tpxq “ da ¨ rot T ¨ ex C

a

a

Nach tensorieller Multiplikation mit den Einheitsvektoren von rechts und anschließender Summation erhält man folgende Darstellung. ¿ “ ‰ dr ¨ tpxq ex ` tpyq ey ` tpzq ez C

ij da ¨



“` ` ` ˘ ˘ ˘ ‰ rot T ¨ ex ex ` rot T ¨ ey ey ` rot T ¨ ez ez

a

In den Integralen bilden die drei Dyaden in den eckigen Klammern die Tensoren T bzw. rot T . Das Stokes’sche Theorem für Tensoren 2. Stufe ist eine Vektorgleichung, die eine Verallgemeinerung des Stokes’schen Satzes darstellt. Der Tausch der Faktoren führt nach (10.5) auf die transponierten Tensoren. ij

¿ dr ¨ T “ C

ij

¿ da ¨ rot T

è dr “ T C

a

Č rot T ¨ da

(19.12)

a

Green’sche Sätze für Skalarfelder

19.2.5

Wendet man die Beziehung (17.56) auf den Ausdruck U grad V an und setzt sie in den Gauß’schen Satz (19.3) ein, dann folgt die erste Green’sche Formel. £

¡ “



U grad V ¨ da

U ΔV ` grad U grad V dv “

v

(19.13)

a

Vertauscht man U und V und bildet die Differenz beider Ausdrücke, dann erhält man die zweite Green’sche Formel, die auch als Green’scher Satz oder Green’sches Theorem bezeichnet wird. £

¡ “ v

‰ U ΔV ´ V ΔU dv “

“ a

U grad V ´ V grad U



¨ da

(19.14)

435

19.2 Abgeleitete Integralsätze

Hierbei werden als Bedingungen für die skalaren Ortsfunktionen U und V Stetigkeit der Funktionen selbst und ihrer ersten und zweiten Ableitungen im Volumen v bis hin zum stückweise glatten Rand vorausgesetzt. Für den Sonderfall U “ 1 folgt mit da “ n da die spezielle Beziehung ¡

£

£

ΔV dv “ v

grad V ¨ da “ a

a

BV da Bn

(19.15)

Stratton’sche Sätze für Vektorfelder

19.2.6

Wendet man die Beziehung (17.57) auf den Ausdruck v ˆ rot w an und setzt sie in den Gauß’schen Satz (19.3) ein, dann folgt der erste Stratton’sche Satz, [2, S. 167], [5, S. 250]. £

¡ “





rot v rot w ´ v rot rot w dv “

v

‰ v ˆ rot w ¨ da

(19.16)

a

Vertauscht man v und w und bildet die Differenz, dann erhält man den zweiten Stratton’schen Satz. £

¡ “ v





v rot rot w ´ w rot rot v dv “

‰ w ˆ rot v ´ v ˆ rot w ¨ da

a

(19.17) Hierbei werden als Bedingungen für die vektoriellen Ortsfunktionen v und w Stetigkeit der Vektoren selbst und der auftretenden Ableitungen im Volumen v bis hin zum Rand vorausgesetzt. Für Vektorfelder werden folgende Divergenzausdrücke gebildet. ` ˘ div v div w “ div v div w ` v grad div w ` ˘ div v ˆ rot w “ rot v rot w ´ v rot rot w Nach Vertauschen der Vektoren v und w, Differenzbildung beider Ausdrücke, Anwendung des Vektor-Laplace-Operators (17.67) und Einsetzen in den Satz von Gauß erhält man zwei Integraldarstellungen, deren Summe

436

19 Integralsätze und zeitabhängige Felder

auf den Green’schen Satz für Vektoren führt, [3, II, S. 1767]. ¡ “

‰ v Δ w ´ w Δ v dv

v

(19.18)

£ “





v div w ´ w div v ` v ˆ rot w ´ w ˆ rot v ¨ da

a

19.3 19.3.1

Zeitableitung von Feldgrößen Totale Ableitung einer Skalarfunktion nach der Zeit

Eine skalare Orts- und Zeitfunktion V pu1 , u2 , u3 ; tq besitzt ein totales Differential, bei dem der Gradient nach (17.6) den örtlichen Anteil bestimmt. dV “ “

BV BV BV BV dt ` 1 du1 ` 2 du2 ` 3 du3 Bt Bu Bu Bu BV BV dt ` dr ¨ grad V “ dt ` δV Bt Bt

δV “ dr ¨ grad V “ dr ¨ ∇V Dabei bedeuten die unterschiedlichen Differentialzeichen die totale pdq, die zeitliche pBq und die örtliche pδq Änderung der Größe. Zur richtungsabhängigen Differentiation nach Abschnitt 17.3.6 tritt die zeitliche Änderung hinzu. Die totale Zeitableitung einer skalaren Funktion lautet damit, dV BV dr BV “ ` ¨ grad V “ ` r9 ¨ grad V dt Bt dt Bt

(19.19)

wobei nach Newton totale Zeitableitungen durch übergesetzte Punkte bezeichnet werden (s. Abschnitt 5.6.2).

437

19.3 Zeitableitung von Feldgrößen

19.3.2

Totale Ableitung einer Vektorfunktion nach der Zeit

Eine orts- und zeitbhängige Vektorfunktion v pu1 , u2 , u3 ; tq besitzt das totale Differential, dv “

Bv Bv Bv dt ` dr ¨ Grad v “ dt ` dr ¨ ∇v “ dt ` δv Bt Bt Bt

wobei der örtliche Anteil durch den Vektorgradienten nach (17.33) und (17.43) bzw. den skalaren Operator nach (17.41) bestimmt wird. ` ˘ δv “ dr ¨ Grad v “ dr ¨ ∇v “ dr ¨ grad v Die totale Zeitableitung einer vektoriellen Funktion lautet damit Bv dr Bv dv “ v9 “ ` ¨ Grad v “ ` r9 ¨ Grad v dt Bt dt Bt

19.3.3

(19.20)

Euler’sche Differentiationsregel

Die totalen Zeitableitungen können auf Tensoren beliebiger Stufe übertragen werden mit der folgenden formalen Differentiationsregel. d x..y B x..y δ x..y B x..y dr “ ` “ ` ¨ ∇ x..y dt Bt δt Bt dt

(19.21)

Die Anteile in diesem Differentiationsausdruck sind benannt nach der von Euler untersuchten Bewegung idealer Flüssigkeiten mit folgender Bedeutung [1, S. 339, 443], [4, II, S. 315], [6, S. 397]. ‚ substantielle oder totale Änderung Gesamtänderung der Feldgröße

dV {dt ,

dv{dt

‚ lokale Änderung zeitliche Änderung der Feldgröße am festen Ort

BV {Bt ,

Bv{Bt

‚ konvektive oder stationäre Änderung r9 ¨ grad V , r9 ¨ Grad v örtliche Änderung der Feldgröße zur festen Zeit

438

19 Integralsätze und zeitabhängige Felder

Die konvektive Änderung ist das Produkt aus der zeitlichen Änderung des Ortsvektors r9 und der Richtungsabhängigkeit durch den Gradienten grad V bzw. den Vektorgradienten` Grad v. ˘ Der skalare Operator a ¨ grad nach Abschnitt 17.3.5, bei dem das Wegelement an die Stelle des allgemeinen Vektors tritt, ` ˘ ` ˘ δ x..y “ dr ¨ grad x..y “ dr ¨ ∇ x..y “

ÿ

dup ∇p x..y “

p

ÿ

dup

p

B x..y Bup

führt durch zeitliche Ableitung auf die konvektive oder stationäre Änderung der entsprechenden Größe. ´ dr ´ dr ¯ ¯ δ x..y “ ¨ grad x..y “ ¨ ∇ x..y δt dt dt ˘ ˘ ` ` “ r9 ¨ ∇ x..y “ r9 ¨ grad x..y “

ÿ dup ∇p x..y dt p



ÿ dup B x..y dt Bup p

In stationären Feldern, in denen keine Zeitabhängigkeit existiert, ist die lokale Änderung Null und die substantielle Änderung ist mit der konvektiven identisch.

19.4 19.4.1

Zeitliche Ableitung von Integralen Aufgabenstellung

Die betrachteten, zeitlich abzuleitenden Integrale mögen sich über Bereiche B erstrecken, die mit einem in Bewegung befindlichen Medium verknüpft sind. Dabei ist die Zeitabhängigkeit eine zweifache, und zwar einerseits über den Integranden V pr, tq und andererseits über den variablen Integrationsbereich Bptq. Sieht man das als eine Abhängigkeit von zwei variablen Größen an, dann ist bei der Differentiation des Integrals ż “ ‰ J “ J V pr, tq , Bptq “ V pr, tq db Bptq

439

19.4 Zeitliche Ableitung von Integralen

der totale Zuwachs des Integrals J aus lokalem pBq und stationärem pδq Anteil zusammengesetzt. dJ “ BJ ` δJ

r  

r   

r

r

 



 



    

    

Abb. 19.5: Zeitliche Variation des Integrationsbereichs Die totale Zeitableitung von Integralen kann dann als Überlagerung von lokaler und stationärer Änderung gemäß (19.21) ausgeführt werden. ˇ ˇ δJ ˇˇ dJ BJ ˇˇ ` “ dt Bt ˇ B“B0 “const. δt ˇ V pr, t“t0 “const.q Bei der ersten Differentiation wird der Integrationsbereich und bei der zweiten der Integrand als zeitlich konstant angesehen. d dt

ż

ż V pr, tq db “ Bptq

BV pr, tq δ db ` Bt δt B0

ż V pr, t0 q db

(19.22)

Bptq

Das erste Integral läßt sich einfach als Differentiation unter dem Integralzeichen ausführen, aber das zweite muss wegen des variablen Integrationsbereiches (Abbildung 19.5) für verschiedene Fälle genauer untersucht werden, [4, II, S. 317].

440

19 Integralsätze und zeitabhängige Felder

19.4.2

Volumenintegral einer skalaren Funktion

Beim Volumenintegral der skalaren Funktion V ¡ J“

V pr, tq dv v

entsteht der variable Integrationsbereich vptq dadurch, dass das Flächenelement da in der Zeit dt das Volumenelement dv “ da ¨ v dt mit der Geschwindigkeit v überstreicht (Abbildung 19.6).

da

... ...

v dt Bereich B da

dv = d a . v dt

Abb. 19.6: Durch ein Flächenelement überstrichenes Volumenelement Multipliziert man dieses Volumenelement mit der Skalarfunktion V und integriert über die gesamte Oberfläche a des zylindrischen Volumens, dann ergibt sich der stationäre Zuwachs des Integrals, der nach dem Gauß’schen Satz umgeformt wird. ¡

£

“ ‰ div V pr, tq v dv

V pr, tq v ¨ da “ dt

δJ “ dt a

v

Nach Division durch dt und Entwicklung der Divergenz nach (17.56) erhält man nach (19.22) die totale Zeitableitung des Volumenintegrals einer

441

19.4 Zeitliche Ableitung von Integralen

Skalarfunktion V . d dt

¡ V pr, tq dv v

¡ „ “ v

19.4.3

(19.23)

j BV pr, tq ` V pr, tq div v ` v ¨ grad V pr, tq dv Bt

Flächenintegral einer vektoriellen Funktion

Das Flächenintegral ij Bpr, tq ¨ da

Ψ“ a

entspricht nach (19.1) dem Fluss des Vektorfeldes Bpr, tq durch eine nicht geschlossene Fläche. Der variable Integrationsbereich entsteht dadurch, dass das Flächenelement da, das die Randlinie C besitzt, das Volumenelement dv “ da ¨ v dt in der Zeit dt mit der Geschwindigkeit v überstreicht, das von Mantel- und Deckelflächen umschlossen wird (Abbildung 19.7).

d a = n da C da (t + d t)

v dt

dv = d a . v dt

d a M = d r × v dt

dr

da (t)

...

Oberfläche a

...

Abb. 19.7: Durch ein Flächenelement überstrichenes Volumenelement

442

19 Integralsätze und zeitabhängige Felder

Der Fluss, der durch die Oberfläche dieses Volumenelementes dv tritt, wird einerseits bestimmt durch die Integrale über die drei Flächen, bei der die Umkehr der Normalenrichtung bei der unteren Deckelfläche im zweiten Flächenintegral zum negativen Vorzeichen führt. Andererseits läßt sich der Fluss nach dem Gauß’schen Satz auch als Volumenintegral ausdrücken. £ ij ij ij ¡ Bpr, tq ¨ da “ „ ´ „ ` „ “ div B dv ages

apt`dtq

aptq

apMq

v

Untersucht wird der stationäre Flussanteil beim Grenzübergang dt Ñ 0, wenn die Höhe des infinitesimalen Zylinders auf Null schrumpft und der gesamte Fluss allein durch die Deckelflächen tritt (Abbildung 19.8). 



   





Abb. 19.8: Fluss eines Feldes durch eine Fläche Die Integrale über die Deckelflächen stellen die Änderung des stationären Flussanteils dar. ij ¡ ij ij „ ´ „ “ div B dv ´ B ¨ daM ΔpδΨ q “ apt`dtq

aptq

v

apMq

Dividiert man auf der linken Seite durch dt und führt den Grenzübergang durch, dann entsteht die Definition des Differentialquotienten. j „ij ij ΔpδΨ q 1 δΨ „ ´ „ lim “ “ lim dt Ñ 0 dt Ñ 0 dt dt δt apt`dtq aptq Ersetzt man auf der rechten Seite die Differentiale in den Integralen, ij ¡ ` ˘ ` ˘ dt div B v ¨ da ´ dt B ¨ dr ˆ v ΔpδΨ q “ v

apMq

19.4 Zeitliche Ableitung von Integralen

443

dann vermindert sich bei Division durch dt in beiden Integralen die Dimension um Eins und nach Umwandlung des entstehenden Konturintegrals nach dem Stokes’schen Satz erhält man ij ¿ ` ˘ ` ˘ δΨ “ div B v ¨ da ´ v ˆ B ¨ dr δt aptq C Die totale zeitliche Änderung des Vektorflusses aus lokalem und stationärem Anteil lautet schließlich, wenn man den Stokes’schen Satz auf das Konturintegral anwendet ij d dΨ Bpr, tq ¨ da “ dt dt a j ij „ “ ‰ BBpr, tq “ ` v div Bpr, tq ´ rot v ˆ Bpr, tq ¨ da Bt a

(19.24)

Speziell für geschlossene Flächen gilt wegen (19.7) d dt

19.4.4

£ „

£ Bpr, tq ¨ da “ a

a

j BBpr, tq ` v div Bpr, tq ¨ da Bt

(19.25)

Konturintegral einer vektoriellen Funktion

Das Linienintegral eines Vektorfeldes auf einem geschlossenen Weg entspricht der Zirkulation nach (19.5). ¿ Z“ Hpr, tq ¨ dr C

Der variable Integrationsbereich entsteht dadurch, dass das Linienelement dr in der Zeit dt ein Flächenelement da mit der Geschwindigkeit v überstreicht, das von vier Randkurven umschlossen wird (Abbildung 19.9). Die Zirkulation, die durch die gesamte Randlinie gebildet wird, entspricht einerseits den vier Linienintegralen, die das Flächenelement da im Sinne einer Rechtsschraube umschließen, andererseits kann sie nach dem Stokes’schen Satz auch als Flächenintegral ausgedrückt werden. ż ż ż ż ij ¿ H ¨ dr “ „ ` „ ` „ ` „ “ rot H ¨ da Cges Cptq Cpt`dtq C C a ab cd loooooooomoooooooon loooomoooon “ J˚

“ J ˚˚

444

19 Integralsätze und zeitabhängige Felder

C cd

c

d

C(t+dt)

Kontur C

b d

v dt dr

C(t)

...

...

d a = d r × v dt

C ab a

Abb. 19.9: Durch ein Konturelement überstrichenes Flächenelement Untersucht wird der stationäre Anteil pδq der Zirkulation beim Grenzübergang dt Ñ 0. In den Integralen J ˚˚ gilt für die Differentiale dr “ ˘ v dt. Zur Berechnung der Änderung des stationären Zirkulationsanteils wird im Integral J ˚ die Integrationsrichtung umgekehrt und mit da “ dr ˆ v dt im Flächenintegral ergibt sich insgesamt der Zuwachs ż

ż

ΔpδZq “

„ ´ Cptq

„ Cpt`dtq

ij

ż

ż

` ˘ dt rot H ¨ dr ˆ v ´



dt H ¨ v `

a

Cab

dt H ¨ v Ccd

Dividiert man durch dt und führt den Grenzübergang durch, dann entsteht auf der linken Seite die Definition des Differentialquotienten. ΔpδZq 1 lim “ ´ lim dt Ñ 0 dt Ñ 0 dt dt

„ż

j

ż „ Cpt`dtq

´

„ Cptq

“´

δZ δt

Auf der rechten Seite vermindert sich die Dimension der Integrale um Eins, so dass der stationäre Anteil aus einem Linienintegral und Produkten gemäß dem Mittelwertsatz besteht. ż ` ˘ ` ˘ ˇˇ ` ˘ ˇˇ δZ v ˆ rot H ¨ dr ´ H ¨ v ˇ ` H ¨ v ˇ ´ “ dt a d Cptq

19.4 Zeitliche Ableitung von Integralen

445

Die totale zeitliche Änderung der Zirkulation aus lokalem und stationärem Anteil lautet schließlich ż dZ d Hpr, tq ¨ dr “ dt dt C ` ˘ ˇˇ ` ˘ ˇˇ “ H ¨v ˇ ´ H ¨v ˇ a

ż „ ` C

d

(19.26)

j BHpr, tq ´ v ˆ rot Hpr, tq ¨ dr Bt

Speziell für geschlossene Konturen gilt wegen a “ d d dt

¿ „

¿ Hpr, tq ¨ dr “ C

C

j BHpr, tq ´ v ˆ rot Hpr, tq ¨ dr Bt

(19.27)

Literatur [1] Budó, A.: Theoretische Mechanik VEB Deutscher Verlag der Wissenschaften, Berlin, 6. Aufl. (1971) [2] Lagally, M. I., Franz,W.: Vorlesungen über Vektorrechnung Akademische Verlagsgesellschaft Geest & Portig, Leipzig (1959) [3] Morse, P. M. / Feshbach, H.: Methods of Theoretical Physics, I/II McGraw-Hill Book Company, (1953) [4] Smirnow, W. I.: Lehrgang der höheren Mathematik, I-IV VEB Deutscher Verlag der Wissenschaften, Berlin, 6. Aufl. (1964/68) [5] Stratton, J. A.: Electromagnetic Theory McGraw-Hill Book Company (1941) [6] Szabó, I.: Einführung in die Technische Mechanik Springer Verlag, Berlin, Göttingen, Heidelberg, 6. Aufl. (1963)

446

Abbildungsverzeichnis 3.1 3.2 3.3 3.4 3.5

Falk-Schema für zwei Matrizen . . . . . . . . . . . . . . . . Piktogramme der Matrixmultiplikation . . . . . . . . . . . . Rechts- und Linksmultiplikation mit quadratischen Matrizen Äquivalenztransformation einer Matrix . . . . . . . . . . . . Graphische Darstellung einer Matrix 3. Ordnung . . . . . . .

5.1 5.2 5.3 5.4 5.5 5.6 5.7 5.8 5.9 5.10 5.11 5.12 5.13

Geometrische Addition und Subtraktion von Vektoren . . . . Inversion des kartesischen Koordinatensystems . . . . . . . . . Richtungsumkehr des polaren Vektors im Spiegelbild . . . . . Konstanz der Drehbewegung des axialen Vektors im Spiegelbild Zuordnung von Flächenelement, Normale und Umlaufsinn gemäß Rechtsschraubenregel . . . . . . . . . . . . . . . . . . . . Vektorzerlegung . . . . . . . . . . . . . . . . . . . . . . . . . . Vektoren bei der Ebene im Raum . . . . . . . . . . . . . . . . Rotation eines Vektors auf einer Kreisbahn . . . . . . . . . . Relativbewegung eines Punktes auf einer Bahnkurve . . . . . Vektoren in verschiedenen Punkten einer ebenen Raumkurve . Winkel am Krümmungskreis in der Schmiegungsebene . . . . Begleitendes Dreibein einer Raumkurve . . . . . . . . . . . . Dreibeinvektoren und Darboux’scher Vektor . . . . . . . . .

73 77 79 87 89 92 94 95 99

6.1 6.2 6.3 6.4 6.5

Reziproke Koordinatensysteme . . . . . . . . . . . . . . . . . Verschiedene kartesische und reziproke Basissysteme . . . . . Starre Drehung beider Systeme . . . . . . . . . . . . . . . . . Aufeinanderfolgende Drehschritte und Euler’sche Winkel . . Koppungsmatrizen zwischen den verschiedenen Basisvektoren

114 124 125 128 130

7.1

Zerlegung eines Vektors nach reziproken Koordinaten . . . . . 148 447

© Springer Fachmedien Wiesbaden GmbH, ein Teil von Springer Nature 2019 W. Werner, Vektoren und Tensoren als universelle Sprache in Physik und Technik 1, https://doi.org/10.1007/978-3-658-25272-4

. . . . .

29 29 31 31 46 65 71 72 73

448

Abbildungsverzeichnis

7.2 7.3

Orthogonalprojektion eines Vektors . . . . . . . . . . . . . . . 148 Komponenten der beiden Vektorprojektionen . . . . . . . . . 149

9.1 9.2

Lineare Vektorabbildung durch einen Tensor . . . . . . . . . . 169 Orthogonalprojektion eines Vektors auf eine Richtung . . . . 170

11.1 Räumliche Darstellung der 27 Komponenten des ε -Tensors . . 223 12.1 Mohr’scher Kreis . . . . . . . . . . . . . . . . . . . . . . . . 242 12.2 Poinsot’sche Konstruktion [8ex] . . . . . . . . . . . . . . . . 255 14.1 14.2 14.3 14.4 14.5

Scharen krummliniger Koordinatenlinien . . . . . . . . . . . . Wegelement in kartesischen und krummlinigen Koordinaten . Flächenelement . . . . . . . . . . . . . . . . . . . . . . . . . . Ortsvektor zum Raumpunkt P . . . . . . . . . . . . . . . . . Koordinatenlinien der Astroidkoordinaten in der Ebene z “ 0

16.1 Krummliniges Koordinatensystem . . . . . . . . . . . . . 16.2 Bedeutung der Indizes im Christoffel-Symbol . . . . 16.3 Basisvektoren und physikalische Vektoren beim Wechsel Koordinatensystems . . . . . . . . . . . . . . . . . . . .

278 282 292 294 299

. . . 310 . . . 314 des . . . 317

17.1 17.2 17.3 17.4 17.5 17.6

Ebene Darstellung der Niveaufläche einer skalaren Ortsfunktion334 Orthogonale Scharen von Niveauflächen und Feldlinien . . . . 337 Kurvenscharen und Basisvektoren in krummlinigen Systemen 338 Abstandsvektor zwischen Quellpunkt Q und Aufpunkt P . . . 374 Koordinatenlinien der Zylinderkoordinaten in der Ebene z “ 0 382 Koordinatenlinien der Astroidkoordinaten in der Ebene z “ 0 383

19.1 19.2 19.3 19.4 19.5 19.6 19.7 19.8 19.9

Zunahme einer Funktion in y-Richtung . . . . . . . . . . . Funktionswerte am Element dx dy . . . . . . . . . . . . . Feldlinien eines Feldes . . . . . . . . . . . . . . . . . . . . Divergenz und Rotation einiger Einheitsvektoren . . . . . Zeitliche Variation des Integrationsbereichs . . . . . . . . Durch ein Flächenelement überstrichenes Volumenelement Durch ein Flächenelement überstrichenes Volumenelement Fluss eines Feldes durch eine Fläche . . . . . . . . . . . . Durch ein Konturelement überstrichenes Flächenelement .

. . . . . . . . .

. . . . . . . . .

426 427 429 430 439 440 441 442 444

Tabellenverzeichnis 6.1 6.2 6.3

Umrechnung der Basisvektoren . . . . . . . . . . . . . . . . . 137 Dyadische Skalarprodukte der Basisvektoren . . . . . . . . . . 138 Dyadische Kreuzprodukte der Basisvektoren . . . . . . . . . . 139

8.1 8.2

Umrechnung der Vektorkomponenten im eigenen Koordinatensystem und bei Basiswechsel . . . . . . . . . . . . . . . . . 163 Umrechnung der Vektorkomponenten bei affiner Transformation164

9.1 9.2

Umrechnung der Tensormatrizen im gleichen Basissystem . . 182 Umrechnung der Tensormatrizen bei Basiswechsel . . . . . . . 183

10.1 Vektorkomponenten beim verjüngenden Produkt . . . . . . . 200 12.1 Determinanten der Tensormatrizen bei Basiswechsel . . . . . 262 12.2 Spur der Tensormatrizen bei Basiswechsel . . . . . . . . . . . 263 15.1 Beziehungen der Funktionalmatrizen . . . . . . . . . . . . . . 307 15.2 Matrix-Korrespondenzen . . . . . . . . . . . . . . . . . . . . . 308 17.1 Differentialoperatoren . . . . . . . . . . . . . . . . . . . . . . 384 17.2 Differentialoperationen des Abstandsvektors . . . . . . . . . . 385

449 © Springer Fachmedien Wiesbaden GmbH, ein Teil von Springer Nature 2019 W. Werner, Vektoren und Tensoren als universelle Sprache in Physik und Technik 1, https://doi.org/10.1007/978-3-658-25272-4

Personenverzeichnis Christoffel, Elwin Bruno, 313 Coriolis, Gaspard, 84 Einstein, Albert, 6 Euler, Leonhard, 90 Faraday, Michael, 57 Galilei, Galileo, 85 Gauß, Carl Friedrich, 6, 284 Gibbs, Josiah Willard, 63 Hamilton, William Rowan, 332, 352 Heaviside, Oliver, 63, 353 Helmholtz, Hermann (von), 370, 372 Kronecker, Leopold, 81 Laplace, Pierre Simon, 370 Levi-Civita, Tullio, 6 Maxwell, James Clerk, 58 Poisson, Siméon Denis, 370 Ricci-Curbastro, Gregorio, 6 Riemann, Bernhard, 6 Sommerfeld, Arnold, 5 Sylvester, James Joseph, 107 Tait, Peter Guthrie, 352 450 © Springer Fachmedien Wiesbaden GmbH, ein Teil von Springer Nature 2019 W. Werner, Vektoren und Tensoren als universelle Sprache in Physik und Technik 1, https://doi.org/10.1007/978-3-658-25272-4

Personenbezogene Begriffe Cayley-Hamilton-Theorem, 246 Christoffel-Matrix, 313 Christoffel-Symbole, 313 Coriolis-Beschleunigung, 84 Coulomb’sches Gesetz, 376 Coulomb-Integral, 377

Jacobi-Matrix, 268 Kronecker-Symbol, 81 Kronecker-Tensor, 228

Darboux’scher Vektor, 98 Euler’sche Differentiationsregel, 437 Euler’sche Winkel, 126 Euler’sches Theorem, 88 Euler-Matrix, 129 Falk-Schema, 28 Frenet’sche Formeln, 97

Lagrange-Identität, 69 Lancret’scher Satz, 99 Laplace’scher Entwicklungssatz, 39 Laplace-Gleichung, 370 Laplace-Operator, 370 Vektor-Laplace-Operator, 371 Legendre-Polynome, 377 Levi-Civita-Symbol, 222 Lorentz-Transformation, 55 Maxwell’sche Gleichungen, 58 Maxwell’sche Theorie, 64 Mohr’scher Kreis, 242

Galilei-Transformation, 55 Gauß’sche Koordinaten, 278 Gauß’scher Satz, 426 Gram’sche Determinante, 70 Gram’sche Matrix, 80 Green’sche Formel, 434 Green’scher Satz, 434

Newton’sches Gravitationsgesetz, 376 Poinsot’sche Konstruktion, 253 Poisson-Gleichung, 370 Satz des Pythagoras, 106

Helmholtz-Gleichung, 370 Helmholtz-Theorem, 372 Hesse’sche-Normalform, 78

Ricci, Lemma von Ricci, 349 Riemann’sche Metrik, 287 Riemann’scher Raum, 287

Jacobi’sche Determinante, 269 451

© Springer Fachmedien Wiesbaden GmbH, ein Teil von Springer Nature 2019 W. Werner, Vektoren und Tensoren als universelle Sprache in Physik und Technik 1, https://doi.org/10.1007/978-3-658-25272-4

452

Satz von Schwarz, 273 Stokes’scher Satz, 428 Stokes-Theorem, 433 Stratton’sche Sätze, 435 Taylor’sche Formel, 272 Vieta’scher Wurzelsatz, 243

Personenbezogene Begriffe

Gesamtverzeichnis der Bücher Mathematik Abramowitz, Milton / Stegun, Irene A.: Handbook of Mathematical Functions Dover Publications, Inc., New York (1965) Apelblat, Alexander: Tables of Integrals and Series Verlag Harri Deutsch, Thun und Frankfurt am Main (1996) Bellman, Richard: Methoden der Störungsrechnung in Mathematik, Physik und Technik Oldenbourg Verlag München Wien (1967) Betz, Albert: Konforme Abbildung Springer Verlag, Berlin, Göttigen, Heidelberg, 2. Aufl. (1964) Bossert, Martin: Kanalcodierung B. G. Teubner, Stuttgart, 2. Aufl. (1998) Bossert, Martin / Bossert, Sebastian: Mathematik der digitalen Medien VDE Verlag GmbH, Berlin, Offenbach (2010) Byrd, Paul F. / Friedman, Morris D.: Handbook of Elliptic Integrals for Engineers and Physicists Springer-Verlag, Berlin Göttingen Heidelberg (1954) Fichtenholz, Grigori M.: Differential- und Integralrechnung I/II/III 453 © Springer Fachmedien Wiesbaden GmbH, ein Teil von Springer Nature 2019 W. Werner, Vektoren und Tensoren als universelle Sprache in Physik und Technik 1, https://doi.org/10.1007/978-3-658-25272-4

454

Gesamtverzeichnis der Bücher

VEB Deutscher Verlag der Wissenschaften, Berlin, 5. Aufl. (1972) Flammer, Carson: Spheroidal Wave Functions Stanford University Press (1957) Goldberg, Jack L. / Schwartz, Arthur J.: Systems of Ordinary Differential Equations Harper & Row, Publishers, New York etc. (1972) Gonzalez, Rafael C. / Woods, Richard E.: Digital Image Processing Addison-Wesley Publishing Company (1993) Gradshteyn, I. S. / Ryzhik, I. M.: Table of Integrals, Series, and Products Academic Press, New York (1980) Gröbner, Wolfgang / Hofreiter, Nikolaus: Integraltafel, Bestimmte Integrale Springer Verlag, Wien, 3. Aufl. (1966) Gröbner, Wolfgang / Hofreiter, Nikolaus: Integraltafel, Unbestimmte Integrale Springer Verlag, Wien New York, 5. Aufl. (1975) Guillemin, Ernst Adolph: Mathematische Methoden des Ingenieurs R. Oldenbourg Verlag, München, Wien (1966) Hamming, Richard W.: Information und Codierung VCH Verlagsgesellschaft, Weinheim (1987) Jahnke, Eugen / Emde, Fritz / Lösch, Friedrich: Tafeln höherer Funktionen B. G. Teubner Verlagsgesellschaft, Stuttgart, 7. Aufl. (1966) Jaeger, Lars: Die Naturwissenschaften: Eine Biographie Springer-Verlag, Berlin Heidelberg (2015) Kamke, Erich: Differentialgleichungen reeller Funktionen Akademische Verlagsgesellschaft Geest & Portig, Leipzig, 2. Aufl. (1950)

Mathematik

455

Kneschke, Alfred: Differentialgleichungen und Randwertprobleme Band 2, Partielle Differentialgleichungen VEB Verlag Technik, Berlin (1960) Koppenfels, Werner / Stallmann, Friedemann: Praxis der konformen Abbildung Springer Verlag, Berlin, Göttigen, Heidelberg (1959) Lawrentjew, M. A. / Schabat, B. W.: Methoden der komplexen Funktionentheorie VEB Deutscher Verlag der Wissenschaften, Berlin (1967) Lense, Josef: Reihenentwicklungen der mathematischen Physik Walter de Gruyter & Co., Berlin, 2. Aufl. (1947) Lense, Josef: Kugelfunktionen Akademische Verlagsgesellschaft Geest & Portig, Leipzig (1950) Lin, Shu / Costello, Daniel J.: Error Control Coding: Fundamentals and Applications Pearson-Prentice Hall, Upper Saddle River, NJ, 2. Aufl. (2004) Magnus, Wilhelm / Oberhettinger, Fritz / Soni, R. P.: Formulas and Theorems for the Special Functions of Mathematical Physics Springer-Verlag, New York, Berlin 3. Aufl. (1966) Meixner, Josef / Schäfke, Friedrich Wilhelm: Mathieusche Funktionen und Sphäroidfunktionen Springer Verlag, Berlin, Göttingen, Heidelberg (1954) Meyer zur Capellen, W.: Integraltafeln Springer Verlag, Berlin, Göttingen, Heidelberg (1950) Moon, Parry / Spencer, Domina E.: Field Theory Handbook Springer Verlag, Berlin, Heidelberg, New York (1971) Nahin, Paul J.: Inside Interesting Integrals Springer Science+Business Media New York (2015)

456

Gesamtverzeichnis der Bücher

Needham, Tristan: Anschauliche Funktionentheorie Oldenbourg Verlag München Wien (2001) Norton, Richard E.: Complex Variables for Scientists and Engineers Oxford University Press (2010) Olver, Frank W. J. et al.: NIST Handbook of Mathematical Functions Cambridge University Press, New York (2010) Robin, Louis: Fonctions sphériques de Legendre et fonctions sphéroidales, I/II/III Gauthier-Villars, Paris (1957) Samueli, Jean-Jacques / Boudenot, Jean-Claude: Trente livres de mathématiques qui ont changé le monde Ellipses Edition Marketing S.A., Paris (2006) Smirnow, Wladimir I.: Lehrgang der höheren Mathematik, I-IV VEB Deutscher Verlag der Wissenschaften, Berlin, 6. Aufl. (1964/68) Sneddon, Ian N.: Spezielle Funktionen der mathematischen Physik Bibliographisches Institut, Mannheim (1963) Sommerfeld, Arnold: Vorlesungen über theoretische Physik VI, Partielle Differentialgleichungen der Physik Akademische Verlagsgesellschaft Geest & Portig, 6. Aufl. (1965) Spanier, Jerome / Oldham, Keith B.: An Atlas of Functions Hemisphere Publishing Corporation (1987) Wladimirow, W. S.: Gleichungen der mathematischen Physik VEB Deutscher Verlag der Wissenschaften, Berlin (1972) Wussing, Hans: Carl Friedrich Gauss BSB B.G.Teubner Verlagsgesellschaft, Leipzig (1974)

Matrizen

457

Matrizen Gantmacher, F. R.: Matrizenrechnung, Teil I VEB Deutscher Verlag der Wissenschaften, Berlin (1958) Kowalewski, Gerhard: Einführung in die Determinantentheorie Walter de Gruyter, Berlin, 3. Aufl. (1942) Promberger, Miroslav: Anwendung von Matrizen und Tensoren in der theoretischen Elektrotechnik Akademie-Verlag, Berlin (1960) Schmeidler, Werner: Vorträge über Determinanten und Matrizen Akademie-Verlag, Berlin (1949) Schwarz, H. R. / Rutishauser, H. / Stiefel, E.: Numerik symmetrischer Matrizen B. G. Teubner, Stuttgart (1972) Tropper, A. Mary: Matrizenrechnung in der Elektrotechnik Bibliographisches Institut, Mannheim (1962) Voigt, Christian / Adamy, Jürgen: Formelsammlung der Matrizenrechnung Oldenbourg Verlag, München, Wien (2007) Zurmühl, Rudolf: Matrizen Springer Verlag, Berlin, Göttingen, Heidelberg, 4. Aufl. (1964) Zurmühl, Rudolf / Falk, Sigurd: Matrizen und ihre Anwendungen, Grundlagen Springer Verlag, Berlin, Heidelberg, New York, Tokyo, 5. Aufl. (1984)

Vektoren und Tensoren Crowe, Michael J.: A History of Vectoranalysis Dover Publications, New York (1994)

458

Gesamtverzeichnis der Bücher

Kästner, Siegfried: Vektoren, Tensoren, Spinoren Akademie-Verlag, Berlin (1960) Kay, David C.: Tensor Calculus Schaum’s Outline Series, McGraw-Hill Book Company (2011) Klingbeil, Eberhard: Tensorrechnung für Ingenieure Bibliographisches Institut, Mannheim (1966) Lagally, Max / Franz, Walter: Vorlesungen über Vektorrechnung Akademische Verlagsgesellschaft Geest & Portig, Leipzig (1959) Päsler, Max: Grundzüge der Vektor- und Tensorrechnung Walter de Gruyter, Berlin, New York (1977) Raschewski, Petr K.: Riemannsche Geometrie und Tensoranalysis Verlag Harri Deutsch, Thun und Frankfurt/Main, 2. Aufl. (1995) Schultz-Piszachich, Wolfgang: Tensoralgebra und -analysis Verlag Harri Deutsch, Thun und Frankfurt/Main (1979) Simmonds, James. G.: A Brief on Tensor Analysis Springer Verlag, New York, Berlin, Heidelberg, 2. Aufl. (1994) Synge, J. L. / Schild, A.: Tensor Calculus University of Toronto Press, Toronto (1949) Teichmann, Horst: Physikalische Anwendungen der Vektor- und Tensorrechnung Bibliographisches Institut, Mannheim (1973) Wrede, Robert. C.: Introduction to Vector- and Tensor Analysis Dover Publications, New York (1972)

Differentialgeometrie

Differentialgeometrie Barrie, David: Sextant - Die Vermessung der Meere Malik National Geographic (2017) Baule, Bernhard: Differentialgeometrie Verlag S.Hirzel, Leipzig (1945) Blaschke, Wilhelm: Vorlesungen über Differentialgeometrie Elementare Differentialgeometrie Springer Verlag, Berlin, 5. Aufl. (1973) Duschek, Adalbert / Mayer, Walther: Lehrbuch der Differentialgeometrie Kurven und Flächen im euklidischen Raum B.G. Teubner Verlag, Leipzig und Berlin (1930) Duschek, Adalbert / Mayer, Walther: Lehrbuch der Differentialgeometrie Riemannsche Geometrie B.G. Teubner Verlag, Leipzig und Berlin (1930) Kreyszig, Erwin: Differentialgeometrie Akademische Verlagsgesellschaft Geest & Portig, Leipzig (1957) Laugwitz, Detlef: Differentialgeometrie B.G. Teubner Verlagsgesellschaft, Stuttgart (1960) Norden, A. P.: Differentialgeometrie, Teil I/II VEB Deutscher Verlag der Wissenschaften, Berlin (1956/57) Seidel, Wolfgang: Sternstunden der Kartografie Malik National Geographic (2017) Struik, Dirk J.: Lectures on Classical Differential Geometry

459

460

Gesamtverzeichnis der Bücher

Addison-Wesley Publishing Company, 2. Aufl. (1961) Torge, Wolfgang: Geschichte der Geodäsie in Deutschland Walter de Gruyter, Berlin New York, 2. Aufl. (2009)

Physik Bergmann, Ludwig, Schaefer, Clemens: Lehrbuch der Experimentalphysik, Band III Optik Walter de Gruyter, Berlin New York, 8. Aufl. (1987) Born, Max: Optik Springer Verlag, Berlin Heidelberg New York, 3. Aufl. (1972) Budó, Agoston: Theoretische Mechanik VEB Deutscher Verlag der Wissenschaften, Berlin, 6. Aufl. (1971) Buxton, R. B.: Introduction to Functional Magnetic Resonance Imaging Cambridge University Press, 2. Aufl. (2009) Dössel, Olaf: Bildgebende Verfahren in der Medizin Springer Verlag, Berlin Heidelberg, 2. Aufl. (2016) Finkelnburg, Wolfgang: Einführung in die Atomphysik Springer Verlag, Berlin, Heidelberg, New York, 6. Aufl. (1967) Fischer, Ernst Peter: Die andere Bildung Was man von den Naturwissenschaften wissen sollte Econ Ullstein List Verlag, München (2001) Fischer, Ernst Peter: Einstein, Hawking, Singh & Co., Bücher die man kennen muss Piper Verlag, München (2004) Gleick, James: Isaac Newton - Die Geburt des modernen Denkens

Physik

Artemis & Winkler Verlag, Düsseldorf und Zürich (2004) Goldstein, Herbert: Klassische Mechanik Akademische Verlagsgesellschaft, Wiesbaden, 5. Aufl. (1978) Goldstein, Herbert / Poole, Charles P. / Safko, John L.: Klassische Mechanik Wiley-VCH Verlag, Weinheim, 3. Aufl. (2006) Hecht, Eugene: Optics Addison-Wesley Longman Inc., 3. Aufl. (1998) Höfling, Oskar: Physik Ferd. Dümmlers Verlag, 15. Aufl. (1990) Hummel, Rolf E.: Understanding Materials Science Springer Verlag, New York, 2. Aufl. (2004) Jaeger, Lars: Die Naturwissenschaften: Eine Biographie Springer-Verlag, Berlin Heidelberg (2015) Jammer, Max: Der Begriff der Masse in der Physik Wissenschaftliche Buchgesellschaft, Darmstadt (1964) Kessel, Siegfried, Fröhling, Dirk: Technische Mechanik - Engineering Mechanics Springer Vieweg, Wiesbaden, 2. Aufl. (2012) Kittel, Charles et al.: Berkeley Physik Kurs I, Mechanik Vieweg Verlag, Braunschweig, 5. Aufl. (1991) Kleber, Will: Einführung in die Kristallographie VEB Verlag Technik, Berlin, 14. Aufl. (1979) Koks, Don: Explorations in Mathematical Physics Springer Science+Business Media LLC (2006)

461

462

Gesamtverzeichnis der Bücher

Levi-Civita, Tullio: Fragen der klassischen und relativistischen Mechanik Springer-Verlag Technik, Berlin Heidelberg New York (1973) Lüders, Klaus / Pohl, Robert Otto: Pohls Einführung in die Physik, Mechanik, Akustik und Wärmelehre Springer-Verlag, Berlin Heidelberg, 19. Aufl. (2004) Michelson, Albert Abraham: Studies in Optics Dover Publications, New York (1995) Morse, Philip M. / Feshbach, Herman: Methods of Theoretical Physics, I/II McGraw-Hill Book Company, (1953) Ramsauer, Carl: Grundversuche der Physik in historischer Darstellung Springer-Verlag, Berlin, Göttingen, Heidelberg (1953) Schöpf, Hans-Georg: Von Kirchhoff bis Planck Vieweg Verlag, Braunschweig (1978) Simonyi, Károly: Kulturgeschichte der Physik Verlag Harri Deutsch, Frankfurt am Main, 3. Aufl. (2004) Sommerfeld, Arnold: Vorlesungen über theoretische Physik IV, Optik Akademische Verlagsgesellschaft Geest & Portig, 3. Aufl. (1964) Stephani, Hans / Kluge, Gerhard: Grundlagen der theoretischen Mechanik VEB Deutscher Verlag der Wissenschaften, Berlin (1980) Szabó, István: Einführung in die Technische Mechanik Springer Verlag, Berlin, Göttingen, Heidelberg, 6. Aufl. (1963) Szabó, István: Höhere Technische Mechanik Springer Verlag, Berlin, Heidelberg, New York, 5. Aufl. (1977)

Elektrodynamik

Szabó, István: Geschichte der mechanischen Prinzipien Birkhäuser Verlag, Basel und Stuttgart (1977) Trigg, George L.: Experimente der modernen Physik Friedr. Vieweg & Sohn, Braunschweig/Wiesbaden (1984) Vlaardingerbroek, Marinus T. / den Boer, Jacques: Magnetic Resonance Imaging Springer Verlag, Berlin, Heidelberg (1996) Vogel, Helmut: Gerthsen Physik Springer Verlag, Berlin, Heidelberg, New York, 19. Aufl. (1997) Volz, Helmut: Einführung in die Theoretische Mechanik, I/II Akademische Verlagsgesellschaft, Frankfurt am Main (1971/72)

Elektrodynamik Buchholz, Herbert: Elektrische und magnetische Potentialfelder Springer-Verlag, Berlin, Göttingen, Heidelberg (1957) Ceruzzi, Paul E.: Eine kleine Geschichte der EDV mitp-Verlag , Bonn (2003) Collin, Robert E.: Field Theory of Guided Waves McGraw-Hill , New York (1960) Collin, Robert E.: Foundations for Microwave Engineering McGraw-Hill Inc., 2. Aufl. (1992) Durand, Emile: Electrostatique et Magnétostatique Masson, France (1953) Griffiths, David J.:

463

464

Gesamtverzeichnis der Bücher

Elektrodynamik Pearson Studium, 3. Aufl. (2011) Harrington, Roger F.: Time-harmonic Electromagnetic Fields McGraw-Hill Book Company (1961) Heinrich Hertz: Festschrift anläßlich der Erforschung der elektromagnetischen Wellen vor 100 Jahren Heinrich-Hertz-Institut Berlin (1988) Jackson, John David: Klassische Elektrodynamik Walter de Gruyter, Berlin/Boston, 5. Aufl. (2014) Kellogg, Oliver Dimon: Foundations of Potential Theory Springer Verlag, Berlin, Heidelberg, New York (1967) Kraus, John D.: Electromagnetics McGraw-Hill Inc., 4. Aufl. (1992) Kraus, John D., Marhefka, Ronald J.: Antennas McGraw-Hill Inc., 3. Aufl. (2002) Lehner, Günther: Elektromagnetische Feldtheorie Springer Verlag, Berlin, Heidelberg, 7. Aufl. (2010) Lüders, Christian: Mobilfunksysteme Vogel Verlag, Würzburg, (2001) Meinhold, Peter / Miltzlaff, Gerhard: Feld- und Potentialtheorie Verlag Harri Deutsch, Thun und Frankfurt/Main (1978) Montgomery, C. G. / Dicke, R. H. / Purcell, E. M.: Principles of Microwave Circuits McGraw-Hill, New York, Toronto, London (1948) Moon, Parry / Spencer, Domina E.:

Elektrodynamik

Foundations of Electrodynamics Dover Publications Inc., Mineola, New York (2013) Nahin, Paul J.: Oliver Heaviside The Johns Hopkins University Press, Baltimore and London (2002) Ollendorff, Franz: Potentialfelder der Elektrotechnik Verlag von Julius Springer (1932) Panofsky, Wolfgang K. H., Phillips, Melba: Classical Electricity and Magnetism Addison-Wesley Publishing Company, 2. Aufl. (1988) Purcell, Edward M.: Berkeley Physik Kurs II, Elektrizität und Magnetismus Vieweg Verlag, Braunschweig, 4. Aufl. (1989) Ramaswami, Rajiv / Sivarajan, Kumar N.: Optical Networks Morgan Kaufmann Publishers, San Francisco, 2. Aufl. (2002) Saleh, Bahaa E. A. / Teich, Malvin Carl: Fundamentals of Photonics John Wiley & Sons, Inc., Hoboken NJ, 2. Aufl. (2007) Sattelberg, Kurt: Vom Elektron zur Elektronik Elitera-Verlag, Berlin (1971) Schaumburg, Hanno: Einführung in die Werkstoffe der Elektrotechnik B. G. Teubner, Stuttgart (1993) Schildt, Gerhard-Helge: Grundlagen der Impulstechnik B. G. Teubner, Stuttgart (1987) Schwab, Adolf J.: Begriffswelt der Feldtheorie Springer Vieweg, 7. Aufl. (2013) Simonyi, Károly: Theoretische Elektrotechnik

465

466

Gesamtverzeichnis der Bücher

VEB Deutscher Verlag der Wissenschaften, Berlin, 9. Aufl. (1989) Sjobbema, D. J. W.: Die Geschichte der Elektronik Elektor-Verlag, Aachen (1999) Sneddon, Ian N.: Mixed Boundary Value Problems in Potential Theory John Wiley & Sons, Inc., New York (1966) Sommerfeld, Arnold: Vorlesungen über theoretische Physik III, Elektrodynamik Akademische Verlagsgesellschaft Geest & Portig, 4. Aufl. (1964) Soohoo, Ronald F.: Theory and Application of Ferrites Prentice-Hall Inc., Englewood Cliffs, New Jersey (1960) Stratton, Julius Adams: Electromagnetic Theory McGraw-Hill Book Company (1941) Werner, Wolfgang: Rotationsellipsoid als elektromagnetischer Hohlraumresonator Diss. TU Berlin (1977) Wunsch, Gerhard: Feldtheorie I/II VEB Verlag Technik, Berlin (1973/75) Zangwill, Andrew: Modern Electrodynamics Cambridge University Press, Cambridge UK (2013) Zinke, Otto / Brunswig, Heinrich: Lehrbuch der Hochfrequenztechnik I Springer Verlag, Berlin, Heidelberg, New York, 2. Aufl. (1973) Zuhrt, Harry: Elektromagnetische Strahlungsfelder Springer Verlag, Berlin, Göttingen, Heidelberg (1953)

Relativitätstheorie

Relativitätstheorie Aczel, Amir D.: Die göttliche Formel Rowohlt Taschenbuch Verlag, Hamburg (2002) Born, Max: Die Relativitätstheorie Einsteins Springer Verlag, Berlin, Heidelberg, New York, 5. Aufl. (1969) Bührke, Thomas: Einsteins Jahrhundertwerk Deutscher Taschenbuch Verlag, München (2015) Einstein, Albert: Über die spezielle und die allgemeine Relativitätstheorie Friedr. Vieweg & Sohn GmbH Verlag, Braunschweig, 7. Aufl. (1920) Einstein, Albert / Infeld, Leopold: Die Evolution der Physik Anaconda Verlag GmbH, Köln (2014) Falk, Gottfried / Ruppel, Wolfgang: Mechanik, Relativität, Gravitation Springer Verlag, Berlin, Heidelberg, New York, 3. Aufl. (1983) Ferreira, Pedro G.: Die perfekte Theorie Verlag C.H.Beck, München (2014) French, A. P.: Die spezielle Relativitätstheorie, M.I.T. Einführungskurs Physik Friedr. Vieweg & Sohn GmbH Verlag, Braunschweig (1971) Freund, Jürgen: Spezielle Relativitätstheorie für Studienanfänger vdf Hochschulverlag AG an der ETH Zürich (2007) Hobson, M. P. / Efstathiou, G. P. / Lasenby, A. N.: General Relativity Cambridge University Press, Cambridge (2006) Kacser, Claude: Einführung in die Spezielle Relativitätstheorie

467

468

Gesamtverzeichnis der Bücher

Berliner Union, Stuttgart (1970) Lambourne, Robert J. A.: Relativity, Gravitation and Cosmology Cambridge University Press, Cambridge (2010) Lawden, D. F.: Introduction to Tensor Calculus, Relativity and Cosmology Dover Publications, New York, 3. Aufl. (2002) Melcher, Horst: Relativitätstheorie in elementarer Darstellung VEB Deutscher Verlag der Wissenschaften, Berlin, 4. Aufl. (1974) Misner, Charles W. / Thorne, Kip S. / Wheeler, John Archibald: Gravitation W. H. Freeman and Company, San Francisco (1973) Rebhan, Eckhard: Theoretische Physik: Relativitätstheorie und Kosmologie Spektrum Akademischer Verlag, Berlin, Heidelberg (2012) Resnick, Robert: Einführung in die spezielle Relativitätstheorie Ernst Klett Verlag, Stuttgart (1976) Schröder, Ulrich E.: Gravitation, Einführung in die Allgemeine Relativitätstheorie Verlag Harri Deutsch, 5. Aufl. (2011) Schröder, Ulrich E.: Spezielle Relativitätstheorie Verlag Europa Lehrmittel, 5. Aufl. (2014) Sexl, Roman / Schmidt, Herbert Kurt: Raum - Zeit - Relativität Rowohlt Taschenbuch Verlag, Reinbek bei Hamburg (1978) Sexl, Roman / Sexl, Hannelore: Weiße Zwerge - schwarze Löcher Rowohlt Taschenbuch Verlag, Reinbek bei Hamburg (1975) Sexl, Roman / Urbantke, Helmuth: Gravitation und Kosmologie Bibliographisches Institut, Zürich (1975)

Astronomie

Skinner, Ray: Relativity for Scientists and Engineers Dover Publications, Mineola, New York (2014) Taylor, Edwin F. / Wheeler, John Archibald: Physik der Raumzeit Spektrum Akademischer Verlag, Heidelberg, Berlin, Oxford (1994) Weyl, Hermann: Raum, Zeit, Materie Springer Verlag, Berlin, Heidelberg, New York, 8. Aufl. (1993)

Astronomie Aschenbach, Bernd / Hahn, Hermann-Michael / Trümper, Joachim: The Invisible Sky, ROSAT and the Age of X-Ray Astronomy Copernicus Springer-Verlag, New York (1998) Becker, Friedrich: Geschichte der Astronomie Bibliographisches Institut, Mannheim (1968) Bennett, Jeffrey / Donahue, Megan / Schneider, Nicholas / Voit, Mark: Astronomie Pearson Studium (2010) Bojowald, Martin: Zurück vor den Urknall S. Fischer Verlag, Frankfurt am Main, 3. Aufl. (2009) Bucerius, Hans: Himmelsmechanik I/II Bibliographisches Institut, Mannheim (1966) Comins, Neil F.: Astronomie Spektrum Akademischer Verlag, Heidelberg (2011) Frebel, Anna: Auf der Suche nach den ältesten Sternen S. Fischer Verlag, Frankfurt am Main (2012) Grosser, Morton:

469

470

Gesamtverzeichnis der Bücher

Entdeckung des Planeten Neptun Suhrkamp Verlag, Frankfurt am Main (1970) Grote, Hartmut: Gravitationswellen Verlag C.H.Beck, München (2018) Hanslmeier, Arnold: Faszination Astronomie Springer Verlag, Berlin, Heidelberg, 2. Aufl. (2016) Lawrence, Andy: Astronomical Measurement Springer Verlag, Berlin, Heidelberg (2014) Liddle, Andrew: Einführung in die moderne Kosmologie Wiley-VCH Verlag, Weinheim (2009) Panek, Richard: Das 4% Universum Carl Hanser Verlag, München (2011) Pauldrach, Adalbert W. A.: Das dunkle Universum Springer Verlag, Berlin, Heidelberg (2015) Riordan, Michael / Schramm, David N.: Die Schatten der Schöpfung Spektrum Akademischer Verlag, Heidelberg, Berlin, New York (1991) Schneider, Peter: Extragalactic Astronomy and Cosmology Springer-Verlag, Berlin Heidelberg, 2. Aufl. (2015) Serjeant, Stephen: Observational Cosmology Cambridge University Press, Cambridge (2010) Sharov, Alexander S. / Novikov, Igor D.: Edwin Hubble Birkhäuser Verlag, Basel, Boston, Berlin (1994) Singh, Simon: Big Bang

Astronomie

Carl Hanser Verlag, München (2005) Sobel, Dava: Längengrad Berliner Taschenbuch Verlag, Berlin (2003) Sobel, Dava: Und die Sonne stand still Berlin Verlag, Berlin (2012) Sobel, Dava: Das Glas-Universum Berlin Verlag, München (2017) Stewart, Ian: Die Berechnung des Kosmos Rowohlt Taschenbuch Verlag, Reinbek bei Hamburg (2018) Tegmark, Max: Unser mathematisches Universum Ullstein Verlag, Berlin (2015) Unsöld, Albrecht / Baschek, Bodo: Der neue Kosmos Springer-Verlag, Berlin Heidelberg, New York, 7. Aufl. (2002) Vaas, Rüdiger: Vom Gottesteilchen zur Weltformel Franckh-Kosmos Verlags-GmbH, Stuttgart (2013) Vaas, Rüdiger: Signale der Schwerkraft Franckh-Kosmos Verlags-GmbH, Stuttgart (2017) Verschuur, Gerrit: The Invisible Universe Springer International Publishing Switzerland, 3. Aufl. (2015) Wulf, Andrea: Die Jagd auf die Venus Bertelsmann, München, (2012)

471

Sachverzeichnis Richtungsableitung, 360 von Integralen, 438 Zeitableitung, siehe dort Zusammenfassung, 351 Abstand Abstandsdefinition, 115, 287 Abstandsquadrat differentielles, 281 Abstandsvektor Bedeutung, 374 Differentialoperationen, 378 Tabelle, 383 euklidischer, 142 reziproker Abstand, 378 affin Abbildung, 109, 157, 269 Raum, 64 Transformation, 28, 106 Vektor, 64 Vektorfunktion, 168 Vektorraum, 65 Arbeit, 428 konservatives Feld, 433

Abbildung affine, 157, 269 entartete, 171, 227 Proportionalitätsabbildung, 237 Vektorabbildung, 167 Ableitung Basisvektoren kontravariant, 314 Einheitsvektoren, 393 Funktionalmatrix, 312 Grundvektoren H-Matrix, 319 kovariant, 313 Indexwechsel im Tensorkalkül, 280 kovariante bei Basiswechsel, 350 Metriktensor, 349 Skalarfunktion, 339 Tensor, 347 Vektor, 340 Metrikmatrizen, 315 nach dem Aufpunkt, 375 orthogonale Komponenten, 401 partielle nach kovarianter Koordinate, 311 Vektor, 339 Vektorkomponenten, 339

Basisvektoren Basiswechsel, 122 kontravariante, 112, 291 geometrische Deutung, 336 kovariante, 111 473

© Springer Fachmedien Wiesbaden GmbH, ein Teil von Springer Nature 2019 W. Werner, Vektoren und Tensoren als universelle Sprache in Physik und Technik 1, https://doi.org/10.1007/978-3-658-25272-4

474

orthogonale Systeme, 390 nichtkomplanar, 68 reziproke, 113 Spatprodukt, 119, 131 totales Differential, 316 Umrechnung, 117, 288 Vektorprodukt, 121 Basiswechsel in orthogonalen Systemen, 400 krummlinig, 303 Vektorkomponenten kartesisch, 155 ko- und kontravariant, 156 Beschleunigung absolute Beschleunigung, 90 Bahnbeschleunigung, 84 Coriolis-Beschleunigung, 84 Zentripetalbeschleunigung, 86 Betrag Spaltenvektor, 26 Vektor, 66, 142 Bewegung geradlinige Bewegung, 85 idealer Flüssigkeiten, 437 Kreiselbewegung, 88 kreisförmige Bewegung, 85 Präzession, 88 bilineare Form, 43, 207 Blockmatrix, 38 Christoffel-Blockmatrix orthogonale Systeme, 325 Christoffel-Matrix, 319, 395 Funktionalmatrix, 312 Gleichungssystem, 38 höhere Ordnung, 46 Λ-Blockmatrix, 397 Tensorblockmatrix, 215

Sachverzeichnis

antisymmetrisch, 219 bei Basiswechsel, 218 ε -Tensor, 221 symmetrisch, 219 Bogenlänge, 83, 91, 282 Element, 91 Christoffel-Matrix, 313 Blockmatrix, 319, 395 modifizierte, 396 Transponierte, 315 Christoffel-Symbole 1. Art, 2. Art, 320 Astroidkoordinaten, 328 aus Metrikkoeffizienten, 322 aus metrischen Faktoren, 394 Bedeutung der Indizes, 314 bei Basiswechsel, 325 spezielle Koordinatensysteme eben, 323 geradlinig, 322 orthogonal, 323, 394 Symmetrieeigenschaft, 314 Wendelkoordinaten, 327 Coulomb-Integral, 377 Determinante, 25 Funktionaldeterminante, 269 g der Metrikmatrix, 117, 283 Gram’sche Determinante, 70 h in orthogonalen Systemen, 391 Jacobi’sche Determinante, 269 Unterdeterminante, 33 Deviator, 248, 381 Dichte von Feldlinien, 336 Differential

475

Sachverzeichnis

absolutes Tensorkomponenten, 358 Vektorkomponenten, 345 totales, 268, 332 Tensor, 357 Vektor, 345 vollständiges, 268, 332, 359 Differentialform bilineare, 289 quadratische, 282, 287 Divergenz Feldvektor, 425 Metriktensor, 364 Tensor alternative, 363 gewöhnliche, 363 Tensor 2. Stufe, 362 Vektor, 360 von Produkten, 368 Dreibein Basistripel, 280 begleitendes, 95 orthogonales, 389, 402 Trihedron, 280 Dyade, 169, 212 alternierende, 211, 213, 227 Basisvektordyaden, 173, 205, 224 Einheitsvektordyade, 170, 172 nichtkommutativ, 212 planare, 227 symmetrische, 213 Ebene Achsenabschnittsform, 79 allgemeine Gleichung, 79 Hesse’sche Normalform, 78 Normalebene, 93

rektifizierende, 95 Schmiegungsebene, 93 ebene Drehung, 126 Knotenlinie, 127 Einheiten Bogenmaß, 85 physikalische Größen, 18–22 Radian (rad), 85 SI-System, 4 Einheitsvektoren Ableitung, 393 Definition, 66 Divergenz und Rotation, 429 Integration, 101 orthogonaler Basiswechsel, 393 Ortsabhängigkeit, 67, 101 spezielle Koordinatensysteme kartesisch, 107 krummlinig, 281 orthogonal, 389 Umrechnung, 392 Erde, Zahlenwerte Erdbeschleunigung, 85 euklidisch Abstand, 142 Metrik, 287 Norm, 26 Raum, 54, 65, 287 Vektorraum, 66 Euler Euler-Matrix, 129 Euler’sche Differentiationsregel, 437 Euler’sche Winkel, 126 Parameterdarstellung von Kurven, 90 Feld

476

Beispiele und Darstellungen, 58 Feldvorstellung, 57 Flussröhre, 336, 425 Gradientenfeld, 432 konservatives Feld, 432 Kraftlinien, 57 laminares Feld, 432 Quellen, 57, 424 Quellenfeld, 372 Randbedingungen, 57 solenoidales Feld, 430 stationäres Feld, 438 Wirbel, 426 Wirbelfeld, 372, 430 wirbelfreies Feld, 432 Zustand des Raumes, 57 Feldbild, 336 Äquipotentialflächen, 335, 336 Feldlinien, 335, 336 Differentialgleichung, 335 Niveauflächen, 334 Feldquellen, 57 Quellstärke, 424 Wirbelstärke, 426 Zirkulation, 426 zeitliche Änderung, 445 Fläche Abwicklung, 100 Äquipotentialflächen, 335 Flächenelement gerichtetes, 74, 291 krummliniges, 292 orthogonales, 392 Flächennormale, 291 Flächenschar, 252, 277 Fundamentalgrößen metrische, 284

Sachverzeichnis

gerichtete, 67 Koordinatenflächen, 277 Niveauflächen, 334 Parameterdarstellung, 278 Raumfläche, 251 Regelfläche, 99 Streckfläche, 99 Tangentenfläche, 99 Tensorfläche, 251 Torse, 100 Flächentheorie Diskriminante, 284 Grundform, 284 Fluss Flussröhre, 336, 425 Tensorfluss, 425 Vektorfluss, 336, 424 zeitliche Änderung, 443 formal Laufindex, 11, 34 Matrix, 33 Richtungen, 174 Skalarprodukt, 142 Formeln Frenet’sche Formeln, 97 Funktion erzeugende, 377 Kugelfunktionen, siehe dort Ortsfunktion, 332 Basiswechsel, 337 Potentialfunktion, 372 Vektorfunktion Integration, 101 lineare, 168 Funktionalmatrix, 268, 278 Ableitung, 312 Argumenttausch, 271

Sachverzeichnis

Basismatrix, 286, 306 bei Basiswechsel, 303 Blockmatrix, 312 Kettenregel, 272 Multiplikationssatz, 272 Tabelle, 307 Vermeidung der Inversion, 393 Funktionssatz, 267, 277, 389 inverser, 270 Geschwindigkeit absolute, 89 Bahngeschwindigkeit, 84 Führungsgeschwindigkeit, 88 Relativgeschwindigkeit, 90 Umfangsgeschwindigkeit, 86 Winkelgeschwindigkeit, 85 konstante, 86 Gesetz Fallgesetz, 85 Formulierung der Naturgesetze, 55 physikalische Gesetze, 55 Transformationsgesetze der Komponenten, 56 kovariante Ableitung, 343, 349, 350 mit Matrizen, 106 Gleichung Helmholtz-Gleichung, 370 Grundlösung, 380 Laplace-Gleichung, 370 Grundlösung, 380 Poisson-Gleichung, 370, 373 Säkulargleichung, 237 Gleichungssystem Differentialgleichungssystem, 335 homogenes, 235

477

lineares, 28 mit Blockmatrizen, 38 vektorielles, 109 Gradient, 253 kovarianter Vektor, 333 Metriktensor, 364 physikalische Deutung, 334 skalare Ortsfunktion, 332 Tensor 2. Stufe, 356 Vektor, 354 von Produkten, 367 Größe Feldgrößen, 57 Zeitableitung, 436 Änderung, 437 Führungsgrößen, 84 Fundamentalgrößen, 284 Plangröße, 67, 74 Relativgrößen, 84 Grundvektoren Ableitung, 311 Permutationsbeziehung, 312 Symmetriebeziehung, 311 kontravariante, 285 kovariante, 280 Gruppe orthogonale Matrix, 37 Hauptachsentransformation charakteristische Matrix, 236 charakteristisches Polynom, 237 Diagonalisierung, 233 Eigenrichtung, 239 Eigenvektoren, 237, 239 Normierung, 240 Eigenwerte, 237 Eigenwertproblem, 236 Fixpunkt, 237

478

Hauptachsenrichtungen, 233 Hauptachsensystem, 233 Kongruenztransformation, 235, 238 Modalmatrix, 238 Mohr’scher Kreis, 240 Residuum, 239 Säkulargleichung, 237 Hydrodynamik ideale Flüssigkeit, 437 Index Heben und Senken, 178, 207 Indexwechsel bei Ableitungen, 280 kontravariant, 112 kovariant, 111 Laufindex, 7, 11, 34 Integralsatz Gauß’scher Satz, 426 Sonderfälle, 430 Green’sche Formel, 434 Green’scher Satz, 434 Bedingungen, 435 für Vektoren, 436 Stokes’scher Satz, 428 Sonderfälle, 432 Stratton’sche Sätze, 435 Bedingungen, 435 Integration Einheitsvektoren, 101 Vektorfunktionen, 101 Invarianz Deviatorinvarianten, 248 Forminvarianz, 55 Forminvarianz von Vektoren, 146 Matrixtransformationen, 243

Sachverzeichnis

physikalische Invarianten, 56, 141 System von Invarianten, 98 Tensorinvarianten, 186, 248 kanonische Form Divergenz, 404 Laplace-Operator, 406 Rotation, 404 Kegelschnitt, 251 Ko- und Kontravarianz Aufhebung, 114, 116, 234, 389 Kobasis, 112 kogredient, 107, 157, 400 Komponenten Ableitung, 401 Beträge, 150 kontravariante, 144 kovariante, 145 Parallelprojektion, 144 physikalische, 150 in orthogonalen Systemen, 399 skalare, 65 Umrechnung, 151 vektorielle, 65 kontragredient, 37, 82, 107, 117, 119, 123, 151, 157, 305 kontravariant, 106 Basis, 112 Koordinaten abgeplattetes Rotationsellipsoid, 417 Astroidkoordinaten, 296 Gauß’sche Koordinaten, 278 kartesische Koordinaten, 407 ko- und kontravariant, 106 kontravariante, 277 Koordinatenflächen, 277

Sachverzeichnis

Koordinatenlinien, 277 Koordinatensysteme Drehung, 109 geradlinige, 105 kartesische, 107 orthogonale, 323, 388 Rechtssystem, siehe dort Referenzsystem, 407 Kugelkoordinaten, 414 Ableitungstensor, 381 Einheitsvektoren, 429 orthogonale, 114 orthogonale Projektionen, 143 orthogonales Netz, 289 Separation der Variablen, 388 Wendelkoordinaten, 295 Zylinderkoordinaten, 411 Einheitsvektoren, 429 kovariant, 106 Basis, 111 Formulierung der Naturgesetze, 107 kovariante Ableitung, 107 Lorentz-kovariant, 107 Kovarianz physikalischer Gesetze, 55 Kreuzprodukt alternativ, 67 Betragsquadrat, 69 doppeltes, 69 Tensorform, 227 dyadisches, 108 Neuinterpretation, 226 Null, Parallelität, 67 Rechtsschraubenregel, 67, 72, 226 Tensorform, 210, 226

479

Vektorform, 153 vertraute Form, 228 Krümmung, 85, 93 Totalkrümmung, 99 Kugelfunktionen, 378 Legendre-Polynome, 377 Kurve Bahnkurve, 83, 91 orthogonale Kurvenschar, 336 Parameterdarstellung, 90 Raumkurve, 90 natürliche Gleichungen, 97 Rektifikation, 100 Lagrange-Identität, 69 Lemma von Ricci, 349 lineare Unabhängigkeit, 68, 70 Linearität von Transformationen, 168 Lorentz -Transformation, 55 -kovariante Formulierung, 107 Mannigfaltigkeit, 185 Matrix Adjunkt, 32 algebraisches Komplement, 32, 393 Blockmatrix, siehe dort C-Matrix, 398 charakteristische, 236 Christoffel-Matrix, 313, 319 Diagonalmatrix, 35 Dimension, 46 Eigenmatrix, 80 Eigenwerte, 237, 244 Einheitsmatrix, 35, 108, 113, 123, 204, 269

480

Euler-Matrix, 129 Falk-Schema, 28 formale, 33 Funktionalmatrix, siehe dort Γ-Matrix, 108, 121 Gram’sche Matrix, 34, 80, 109 H-Matrix, 319 Jacobi-Matrix, 268 Kehrmatrix, 32 2 ˆ 2, 33 Koeffizientenmatrix, 28 kongruente, 159 kontragrediente, 37, 107, 110 Kovarianzmatrix, 344 Spur, 361, 370 L-Matrix, 321 Matrixpotenzen, 246 Metrikmatrizen, siehe dort Ordnung, 46 Orthogonalmatrix, 36 Rechts-/Linksmultiplikation, 27 Rotationsmatrizen, 125 singuläre, 26 Spaltenvektor, 24 Spektrum, 245 Transformationsmatrix, siehe dort Transponierung, 24, 27 Verkettbarkeit, 26 Zeilenvektor, 24 Matrixinvarianten bei Kongruenztransformation, 244 bei Matrixpotenzen, 247 bei Ähnlichkeitstransformation, 244 Spektralverschiebung, 245 Spur, Som, Det, 243

Sachverzeichnis

Metrik des Raumes, 66, 106, 115, 287 euklidische Metrik, 287 metrische Faktoren, 281, 389, 391 Riemann’sche Metrik, 287 Metrikkoeffizienten, 115, 287 Metrikmatrizen, 288 Ableitung, 315 Diagonalform, 389, 390 Eigenschaften, 117 Elemente, 115 kovariant, 282 mit einem Index, 204 Minor, 33 Multipolentwicklung, 378 Nabla, 332, 352 kovarianter Vektor, 333 Nabla-Vektor, 332 nichtkommutativ Kreuzprodukt, 67 Matrizenprodukt, 27 tensorielles Produkt, 169 Operator Diagonalisierungsoperator, 36 Differentialoperator, 74, 332, 353 Tabelle, 383 Laplace-Operator, 370 linearer, 167 Nabla-Operator, 353 Operatorgleichung, 168 Projektionsoperator, ` ˘ 170 skalarer a ¨ grad , 358 vec-Operator, 44 Vektor-Laplace-Operator, 371 orthogonal

481

Sachverzeichnis

Basisvektoren, 284 Differentialoperationen, 402 Dreibein, 389, 402 Einheitsvektoren, 389 Koordinaten, 114 Koordinatensysteme, 323, 388 Kurvenschar, 336 Projektion, 141 Trajektorien, 336 Transformationsmatrix, 109, 392 Wegelemente, 289 positiv definit, 70, 251, 282, 284 Tensormatrix, 252 Potential elektrodynamische Potentiale, 373 Skalarpotential, 372 Vektorpotential, 373 Probekörper, 57 Produkt aus zwei und drei Matrizen, 27 dyadisches, 26, 169 Falk-Schema, 28 Kreuzprodukt, siehe dort Skalarprodukt, siehe dort Spatprodukt, siehe dort tensorielles, 169, 189 verjüngendes, 189 Punkt Aufpunkt, 374 Fixpunkt, 237 Flächenpunkt, 278 Quellpunkt, 374 Raumpunkt, 279 übergesetzter nach Newton, 83 vorgestellter bei Matrizen, 176

quadratische Form, 43, 250 Quadrik, 251 Rang, Rangabfall, 25 Raum affiner Raum, 64 euklidischer Raum, 54, 65, 287 Metrik, 66, 106, 115, 287 Riemann’scher Raum, 287 Raumzeit, 185 Rechts-/Linksmultiplikation Diagonalmatrix, 35 ε -Tensor, 225 Matrix, 27 Tensor, 189, 190 Rechtsschraube, 72, 105 Rechtssystem, 105, 107, 407 Prüfung, 393, 419 reziproker Abstand, 376 Reziprozitätsbedingung, 81, 113, 285 Richtungscosinus, 37, 78, 109, 129, 142, 393 Quadratsumme, 142 Rotation Feldvektor, 427 Ortsvektor, 86 Tensorform, 366 Vektor, 364 von Produkten, 368 Satz Additionssatz für Determinanten, 39 Determinantensatz, 39 Entwicklungssatz für Vektoren, 69 von Laplace, 39

482

Euler’scher Homogenitätssatz, 251 Fundamentalsatz der Algebra, 243 der Kurventheorie, 98 Funktionssatz, siehe dort Integralsatz, siehe dort Kosinussatz, 374, 377 Lancret’scher Satz, 99 Satz des Pythagoras, 106, 142 Satz von Schwarz, 273, 311 Wurzelsatz von Vieta, 243 Zerlegungssatz für Vektoren, 77 Schreibweise Ableitung Funktionalmatrix, 312 nach Koordinaten, 311 Basisvektoren ko- und kontravariant, 111, 112 mit Doppelkreuz (#), 111, 112 mit Nabla, 333 Blockmatrizen, 46 Christoffel-Matrix, 313 Funktionalmatrix, 268 Funktionssatz, 277 gemischte Komponenten, 176 höherstufige Tensoren, 49 kartesische Komponenten, 142 kovariante Ableitung, 340 Nabla-Operator, 333 Ornament, 142, 363, 367 Pfeil mit zwei Spitzen, 72 Schrifttypen, 12 Sonderzeichen, 11

Sachverzeichnis

Unterstreichung, 11 Vektoren, 142 Verknüpfung von Produkten, 12 Separation der Variablen, 388 Skalarprodukt bei reziproker Zerlegung, 152 Definition, 66 doppeltes, 177, 192, 207, 251 dyadisches, 80, 108 Faktortausch, 25 formales, 142 für das Kreuzprodukt, 211 kommutativ, 66 Matrizen, 25 mit ε -Tensor, 224 nichtkommutativ, 189 Null, Orthogonalität, 26, 66 Vektoren, 65, 152 Winkel, 66 Spatprodukt, 68 alternativ, 68 Basisvektoren, 108, 120, 131 kovariante Grundvektoren, 291 Pseudoskalar, 68 Tensorform, 227 Vektoren, 154 Strahlung Ausstrahlungsfunktion der Kugelwelle, 380 Summationskonvention, 6, 194 Index-Laufweite, 198 Summationsregel, 194 Symbol Christoffel-Symbole, siehe dort

Sachverzeichnis

Kronecker-Symbol, 81, 108, 229 L-Symbole, 320 Laufsymbol, 11 Levi-Civita-Symbol, 222 Systemkopplungen, 129 Taylor’sche Formel, 272 Tensor 3. Stufe, 215 ε -Tensor, 220 vollständig antisymmetrisch, 219 vollständig symmetrisch, 219 Ableitungstensor, 273, 369, 380 alternierender, 208 Begriff, 167 Definition, 180 der kovarianten Ableitungen, 354 Deviator, 248, 381 Differentiationsvorschrift, 352 Einheitstensor, 204 Fundamentaltensor, 204, 288 in orthogonalen Systemen, 400 kartesische Darstellung, 171 kartesische Komponenten, 172 Komponentenmatrizen, 175 kovarianter Tensor, 174 Kronecker-Tensor, 228 Mannigfaltigkeit, 185 Matrizenform, 174 Matrizenprodukt, 172 Metriktensor, 204, 288 Stufenerniedrigung, 187 Stufenzahl, 184 Summenform, 173 symmetrischer, 202

483

Diagonalisierung, 233 Systemtensor, 176 Tensorfeld, 185 Transformationsregel, 180 transponierter, 193 Vektorabbildung, 168 Verjüngung, 186, 187 Vertauschungsregel, 203, 209, 225 Zerlegung, 174, 211 Tensorableitung, 347 in orthogonalen Systemen, 402 zweite, 349 Tensorfläche, 251 Poinsot’sche Konstruktion, 253 Tensorellipsoid, 252 Tensorgradient, 356 Verjüngung, 362 Tensorinterpretation doppeltes Kreuzprodukt, 227 Kreuzprodukt, 225 Rotation, 366 Spatprodukt, 227 Tensorinvarianten, 186, 243, 248 Spur der Tensormatrizen, 187 Tensorkalkül, 6, 226, 228 Tensorkomponenten bei Basiswechsel, 178 bei gleicher Basis, 177 Matrizenform, 175 Tensorraum, 173 Theorem Divergenz-Theorem für Tensoren 2. Stufe, 432 Euler’sches Theorem, 88 Green’sches Theorem, 434 Helmholtz-Theorem, 372

484

Stokes-Theorem für Tensoren 2. Stufe, 433 von Cayley-Hamilton, 246 Theorie der Raumkurven, 97 Maxwell’sche Theorie, 64 Transformationstheorie, 56 Torsion, 96 Transformation Ähnlichkeitstransformation, 32, 125, 158 Äquivalenztransformation, 30 affine, 28, 106, 109 bei Basiswechsel Basisvektoren, 303 Differentiale, 302 Komponenten, 304 Metrikmatrizen, 304 Galilei-Transformation, 55 Hauptachsentransformation, siehe dort Kongruenztransformation, 32, 123, 159 kovariante Ableitung, 342 lineare, 28, 109, 157 Linearitätseigenschaft, 168 Lorentz-Transformation, 55 orthogonale, 109 Orthogonaltransformation, 37 Tensorkomponenten, 302 Vektorkomponenten, 301 Transformationsmatrix, 56 der ebenen Drehung, 126 Kopplungsmatrizen P, Q geradlinig, 122 krummlinig, 303, 305 Matrizen U, V, 111, 112

Sachverzeichnis

orthogonale Matrix, 392 orthogonale Matrix A, 109, 235 Überschiebung, 206 Vektor Abstandsvektor, 374 Addition, 64 affiner, 64 axialer, 72 Betrag, 66, 142, 147 Binormalenvektor, 95 Darboux’scher Vektor, 98 Drehvektor, 72 Einheitsvektor, siehe dort freier, 64 gebundener, 64, 143 Hauptnormalenvektor, 93 in orthogonalen Systemen, 399 Invariante, 141, 146 ko- und kontravarianter Vektor, 146 Normierung, 66 Nullvektor, 65, 68, 322 Orthogonalprojektion, 141, 147 Ortsvektor, 64, 71, 91, 143, 279, 293 totales Differential, 281 Parallelprojektion, 147 physikalischer, 155, 317 polarer, 71 reziproker, 81 Zerlegung, 81 Rotationsvektor, 86 Schubvektor, 71 Systemvektor, 176 Tangenteneinheitsvektor, 83, 91 Tangentenvektor, 91, 100, 279

485

Sachverzeichnis

Verschiebungsvektor, 142 Zerlegung, 76, 143, 145, 146 Vektorableitung, 339 in orthogonalen Systemen, 402 zweite, 346 Vektorgradient, 354, 359 der Basisvektoren, 355 Verjüngung, 360 Verjüngung, 186 höherstufige Tensoren, 188 spezielle Tensoren, 214 Tensorgradient, 362 Vektorgradient, 360 Volumenelement, 270, 293 orthogonales, 392 Wegelement, 91 in Koordinatenfläche, 283 kontravarianter Vektor, 281 orthogonale Systeme, 391 orthogonale Wegelemente, 289 totales Differential, 281 Wegintegral konservatives Feld, 433 Winkel Azimutwinkel, 88 Kontingenzwinkel, 93 Nutationswinkel, 127 Präzessionswinkel, 127 spitzer Winkel, 113 Torsionswinkel, 96 Wirkung auf Probekörper, 57 der Tensoroperation, 254 Fernwirkung, 57 im Aufpunkt, 374 Nahwirkung, Feldwirkung, 57

Zeitableitung Flächenintegral, 441 Konturintegral, 443 Ortsfunktionen, 83 totale Skalarfunktion, 436 Vektorfunktion, 437 von Integralen, 439 Volumenintegral, 440