Die Tensorrechnung, die als Spezialfall die Vektorrechnung umfasst, ist zur Beschreibung physikalischer Zusammenhänge au
1,252 278 4MB
German Pages XXIV, 485 [502] Year 2019
Wolfgang Werner
Vektoren und Tensoren als universelle Sprache in Physik und Technik 1 Tensoralgebra und Tensoranalysis
Vektoren und Tensoren als universelle Sprache in Physik und Technik 1
Wolfgang Werner
Vektoren und Tensoren als universelle Sprache in Physik und Technik 1 Tensoralgebra und Tensoranalysis
Wolfgang Werner Berlin, Deutschland
ISBN 978-3-658-25271-7 ISBN 978-3-658-25272-4 (eBook) https://doi.org/10.1007/978-3-658-25272-4 Die Deutsche Nationalbibliothek verzeichnet diese Publikation in der Deutschen Nationalbibliografie; detaillierte bibliografische Daten sind im Internet über http://dnb.d-nb.de abrufbar. Springer Vieweg © Springer Fachmedien Wiesbaden GmbH, ein Teil von Springer Nature 2019 Das Werk einschließlich aller seiner Teile ist urheberrechtlich geschützt. Jede Verwertung, die nicht ausdrücklich vom Urheberrechtsgesetz zugelassen ist, bedarf der vorherigen Zustimmung des Verlags. Das gilt insbesondere für Vervielfältigungen, Bearbeitungen, Übersetzungen, Mikroverfilmungen und die Einspeicherung und Verarbeitung in elektronischen Systemen. Die Wiedergabe von allgemein beschreibenden Bezeichnungen, Marken, Unternehmensnamen etc. in diesem Werk bedeutet nicht, dass diese frei durch jedermann benutzt werden dürfen. Die Berechtigung zur Benutzung unterliegt, auch ohne gesonderten Hinweis hierzu, den Regeln des Markenrechts. Die Rechte des jeweiligen Zeicheninhabers sind zu beachten. Der Verlag, die Autoren und die Herausgeber gehen davon aus, dass die Angaben und Informationen in diesem Werk zum Zeitpunkt der Veröffentlichung vollständig und korrekt sind. Weder der Verlag, noch die Autoren oder die Herausgeber übernehmen, ausdrücklich oder implizit, Gewähr für den Inhalt des Werkes, etwaige Fehler oder Äußerungen. Der Verlag bleibt im Hinblick auf geografische Zuordnungen und Gebietsbezeichnungen in veröffentlichten Karten und Institutionsadressen neutral. Springer Vieweg ist ein Imprint der eingetragenen Gesellschaft Springer Fachmedien Wiesbaden GmbH und ist ein Teil von Springer Nature. Die Anschrift der Gesellschaft ist: Abraham-Lincoln-Str. 46, 65189 Wiesbaden, Germany
Meiner Frau Nelly gewidmet
Vorwort Die Absicht des vorliegenden ersten Bandes des zweibändigen Gesamtwerkes besteht darin, die Tensorrechnung in einer Weise zu entwickeln und darzustellen, wie sie in dieser Form in der einschlägigen Literatur nicht behandelt wird. Dabei ist die Vektorrechnung in der für Ingenieure und Naturwissenschaftler vertrauten Form als spezieller Fall der Tensorrechnung der Ausgangspunkt der Darstellung. Vektoren und Tensoren werden mit Matrizen beschrieben und im Unterschied zu den üblichen Darstellungen wird die Indexschreibweise nur gelegentlich zur Erläuterung verwendet. Die Beschäftigung mit Koordinatensystemen, die Beschreibung von Vektoren und Tensoren in koordinatenfreier und -gebundener Form, die Umrechnung ihrer Komponenten beim Wechsel der Systeme sowie ihr Auftreten und ihre Anwendungen in den physikalischen Fachgebieten begleiten den Autor mit wechselnder Intensität seit Studium und Assistenzzeit am Lehrstuhl für Theoretische Elektrotechnik und während langjähriger Forschungsund Lehrtätigkeit auf den Gebieten der Systemtheorie und der allgemeinen und optischen Nachrichtentechnik. Erst seit dem Ende der aktiven Berufsphase mit jahrzehntelanger Erfahrung in Darstellung und Weitergabe von wissenschaftlichen Inhalten im Forschungs- und Hochschulbereich als Wissenschaftler und Hochschullehrer stand genügend Zeit zur Verfügung für die intensive und tiefgehende Bearbeitung der für die Ingenieurwissenschaften grundlegenden Vektoren und Tensoren, sowie deren Anwendung und Auftreten in wesentlichen Bereichen der Physik. Die berufliche Erfahrung als Lehrender vor Generationen von Studenten führte zur Erkenntnis, dass klare Formulierungen, einfache Schreibweise und nachvollziehbare Rechengänge, die auch manchen genialen Einfall, KunstVII
VIII griff oder „Trick“ mit einschließen, das Verständnis stark fördern und den Erkenntnisgewinn bei angemessenem Zeitaufwand ermöglichen. Ein wesentliches Merkmal des Gesamtwerks besteht darin, die Einfachheit der Grundideen zu betonen, ohne die Komplexität der mathematischen Behandlung einzuschränken, dabei aber ihre Durchführung klar zu erläutern. Der gesamten Darstellung liegt die Absicht zugrunde, alle Überlegungen durch transparente Angabe von Zwischenschritten sowie durch Querverweise in genügender Ausführlichkeit darzulegen, um den Gang der Rechnung übersichtlich zu gestalten und auch einfallsreiche oder längere Ableitungen nachvollziehbar zu machen. Zusätzlich sind besonders im zweiten Band, der den Anwendungen gewidmet ist, viele Zitate der einschlägigen Literatur angegeben, um den Leser auf weitere und ausführlichere Darstellungen eines bestimmten Sachverhaltes hinzuweisen oder um längere und aufwendige Ableitungen abzukürzen oder zu vermeiden. Ein ernstzunehmendes Hindernis bei Behandlung und Darstellung der Tensorrechnung sieht der Autor darin, dass die übliche und durchgängige Schreibweise mit vielen Indizes insbesondere bei den als wesentlich anzusehenden Koordinatentransformationen schwer zu überblicken ist und dem klaren Erfassen der zugrunde liegenden Sachverhalte im Wege steht. Das wird verstärkt durch die bei der Tensorrechnung auftretenden unteren und oberen Indizes zur Kennzeichnung der gemeinsam verwendeten ko- und kontravarianten Komponenten sowie die als Einstein’sche Summationskonvention bezeichnete Unterdrückung aller Summenzeichen. Darin liegt sicher einer der Gründe, dass das ganze Thema als schwierig und undurchsichtig gilt und nur mit erheblichem Aufwand zu erlernen ist. Selbst der berühmte Mathematiker Hermann Weyl bemerkt im Vorwort seines Buches 1 , dass seine Darstellung der Relativitätstheorie „vor den Genuss der Erkenntnisfrucht den Schweiß des Tensorkalküls gesetzt hat“ ! Um hier eine Alternative zu bieten, die der Anschaulichkeit dienen, das Verständnis fördern und vielleicht einen neuen Zugang ermöglichen soll, werden von Anfang an Vektoren und Tensoren als eigenständige physikalische Größen eingeführt, die unabhängig vom Koordinatensystem und damit invariant sind. Ihre Darstellung in Koordinatensystemen, also ihre Zerlegung in Komponenten für die einzelnen Koordinatenrichtungen sowie deren Transformationen beim Wechsel solcher Systeme, werden konsequent mit Matrizen formuliert und nur selten für einführende Beispiele oder Erläuterungen wird 1
Weyl, H.: Raum, Zeit, Materie, Springer Verlag, 8. Aufl. (1993)
IX Summen- und Indexschreibweise verwendet. Außer einer formalen Kennzeichnung mit einem speziellen Symbol zur Unterscheidung zwischen ko- und kontravarianten Komponenten treten kaum Indizes auf. Da die Bildung von Matrizenprodukten die Summation mit impliziter Indizierung einschließt, bleiben die Beziehungen insgesamt übersichtlich und leicht verständlich. Matrizen gehören seit langem zum Handwerkszeug von Naturwissenschaftlern, Ingenieuren und weiteren Berufskreisen und sind insbesondere bei vielen numerischen Verfahren unverzichtbar, so dass die Behandlung der Tensorrechnung mit diesen mathematischen Größen einprägsam und elegant durchgeführt werden kann. Großer Wert wird weiterhin gelegt auf systematische Vorgehensweise, Unterstützung der Vorstellung durch anschauliche Abbildungen und Beispiele sowie eine klare und ausführliche Erläuterung zentraler Begriffe der Tensorrechnung. An mathematischen Vorkenntnissen werden lediglich Differential- und Integralrechnung sowie die Grundlagen von Matrizen und Vektoren vorausgesetzt, wobei auf die beiden letzten Themenbereiche noch in eigenen Kapiteln als Übersicht und Formelsammlung für die spätere Verwendung eingegangen wird. Wer den Eindruck gewinnt, dass sich die Beschäftigung mit dem Gegenstand lohnt und bereit ist, dem logischen Ablauf der Darstellung zu folgen, wird trotz einer gewissen Ausdauer kaum Schwierigkeiten haben, das vorgelegte Thema zu erfassen und sich zu eigen zu machen. Geschrieben wurde das Buch von einem Ingenieur, allerdings mit profundem theoretischen Hintergrund, dessen Absicht es ist, Begriffe und Sachverhalte so deutlich und verständlich wie möglich darzustellen. Mit der beruflichen Ausrichtung wird auch der Verzicht auf mathematische Strenge und Beweisführung begründet, die man bei Bedarf in den zitierten, einschlägigen Lehrbüchern finden kann. In inhaltlicher Hinsicht wird keine Originalität angestrebt, denn es existieren viele Lehr- und Fachbücher zu den verschiedenen Themengebieten oder zu einzelnen Aspekten, auf die im Text verwiesen wird und die im umfangreichen Gesamtverzeichnis der Bücher thematisch geordnet aufgeführt sind. Neu zu sein scheint dagegen die Art der Darstellung, die besondere Schreibweise und die Verwendung von Matrizen. Ursprünglich war dieses Buch nur als ein Handbüchlein geplant, das sich für viele zum Nutzen im Themenbereich von Vektor- und Tensorrechnung erweisen sollte. Mit dem Fortschritt der Bearbeitung und der Erkenntnis,
X dass die physikalischen Anwendungen unverzichtbar sind für ein grundlegendes Verständnis dieses mathematischen Handwerkszeuges, nahm der Umfang immer mehr zu, so dass die anfängliche Idee zugunsten eines am Ende zweibändigen Gesamtwerkes aufgegeben wurde. Die Hoffnung des Autors besteht dennoch darin, dass beide Bücher Eingang finden in die „handhabbare“ wissenschaftliche Literatur und nicht nur auf Bibliotheksbrettern vor sich hindösen. Sollte sich dieses Ziel erfüllen, dann ist die Absicht des Autors vollkommen erreicht. Danken möchte ich an erster Stelle meiner Frau und lebenslanger Partnerin Nelly, der ich dieses Buch widme, für ihre langjährige ungeheure Geduld und Nachsicht mit einem beflissenen und MINT-begeisterten Akademiker und nun auch Autor. Rat und Unterstützung erhielt ich durch die Professoren Hans-Joachim Gelbrich und Joachim Meißner, die über viele Jahre hinweg Freunde und Kollegen sowie zuverlässige und stets bereite Gesprächspartner waren und die auch eine kritische Durchsicht von Teilen des Manuskriptes vornahmen. Dem Springer-Verlag und seinem Cheflektor Herrn Dapper danke ich für die Annahme und bereitwillige Unterstützung dieses Buchprojektes. Danken möchte ich auch Frau Broßler vom Lektorat, die die Vertragsabwicklung und Manuskriptbearbeitung durchführte und bei vielen Kontakten auf eine Reihe von Sonderwünschen einging, die für mich von besonderer Bedeutung in der Gestaltung beider Bände waren. Frau Barth von der Firma le-tex danke ich für wertvolle Hinweise bei Fragen zum Schreib- und Formelsatzprogramm LATEX.
Inhaltsverzeichnis I
Grundlagen
1
1 Einführung Literatur . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .
3 9
2 Verzeichnis der verwendeten Symbole 11 2.1 Allgemeine Bemerkungen zur Schreibweise . . . . . . . . . . . 11 2.2 Mathematische Größen . . . . . . . . . . . . . . . . . . . . . . 13 2.3 Physikalische Größen . . . . . . . . . . . . . . . . . . . . . . . 18 3 Beziehungen der Matrizenrechnung 3.1 Definitionen . . . . . . . . . . . . . . . . . . . 3.1.1 Spaltenvektor und Zeilenvektor . . . . 3.1.2 Matrix . . . . . . . . . . . . . . . . . . 3.2 Produkte von Matrizen . . . . . . . . . . . . . 3.2.1 Skalarprodukt (Zeile mal Spalte) . . . 3.2.2 Dyadisches Produkt (Spalte mal Zeile) 3.2.3 Matrizenprodukt . . . . . . . . . . . . 3.2.4 Lineares Gleichungssystem . . . . . . . 3.2.5 Matrizenprodukte mit Falk-Schema . 3.2.6 Piktogramme der Matrixmultiplikation 3.2.7 Rechts- und Linksmultiplikation . . . . 3.2.8 Matrixtransformationen . . . . . . . . 3.3 Inverse Matrix und adjungierte Matrix . . . . 3.4 Formale Matrizen und Produkte . . . . . . . 3.5 Spezielle Matrizen . . . . . . . . . . . . . . . 3.5.1 Einheitsmatrix . . . . . . . . . . . . . 3.5.2 Diagonalmatrizen . . . . . . . . . . . . XI
. . . . . . . . . . . . . . . . .
. . . . . . . . . . . . . . . . .
. . . . . . . . . . . . . . . . .
. . . . . . . . . . . . . . . . .
. . . . . . . . . . . . . . . . .
. . . . . . . . . . . . . . . . .
. . . . . . . . . . . . . . . . .
. . . . . . . . . . . . . . . . .
. . . . . . . . . . . . . . . . .
23 24 24 24 25 25 26 26 28 28 30 30 30 32 33 35 35 35
XII
Inhaltsverzeichnis 3.5.3 Orthogonale Matrizen . . . . . . . . . . . . Spezielle Beziehungen . . . . . . . . . . . . . . . . 3.6.1 Distributivität und Assoziativität . . . . . . 3.6.2 Ausklammern . . . . . . . . . . . . . . . . . 3.6.3 Blockmatrizen . . . . . . . . . . . . . . . . 3.6.4 Transponierung und Inversion . . . . . . . . 3.6.5 Determinante und Spur für n ˆ n -Matrizen 3.6.6 Laplace’scher Entwicklungssatz . . . . . . 3.6.7 Additions- und Determinantensatz . . . . . 3.6.8 Differentiation von Matrizen . . . . . . . . . 3.6.9 Ableitung von Determinanten . . . . . . . . 3.7 Summen als Matrizenprodukte . . . . . . . . . . . 3.7.1 Einfache Summe . . . . . . . . . . . . . . . 3.7.2 Doppelsummen . . . . . . . . . . . . . . . . 3.7.3 vec-Operator . . . . . . . . . . . . . . . . . 3.8 Erweiterung der Matrixmultiplikation . . . . . . . . 3.8.1 Höhere Matrizen . . . . . . . . . . . . . . . 3.8.2 Tensoren 3. und 4. Stufe . . . . . . . . . . . 3.9 Grenzen der Berechnung mit Matrizen . . . . . . . Literatur . . . . . . . . . . . . . . . . . . . . . . . . . . . 3.6
4 Physikalische Größen und Felder 4.1 Zielsetzung der Physik . . . . . . . . . . . . . . . . 4.2 Transformation physikalischer Größen . . . . . . . 4.3 Physikalische Felder . . . . . . . . . . . . . . . . . 4.3.1 Der Begriff des Feldes . . . . . . . . . . . . 4.3.2 Beispiele für Felder und ihre Darstellungen
II
. . . . . . . . . . . . . . . . . . . .
. . . . .
. . . . . . . . . . . . . . . . . . . .
. . . . .
. . . . . . . . . . . . . . . . . . . .
. . . . .
. . . . . . . . . . . . . . . . . . . .
. . . . .
. . . . . . . . . . . . . . . . . . . .
. . . . .
. . . . . . . . . . . . . . . . . . . .
36 37 37 38 38 39 39 39 39 41 41 42 42 43 44 46 46 48 52 53
. . . . .
54 54 56 57 57 58
Vektorrechnung
5 Vektorbeziehungen 5.1 Grundlegende Eigenschaften von Vektoren . . . . . 5.1.1 Affiner Vektorbegriff . . . . . . . . . . . . . 5.1.2 Vektoraddition . . . . . . . . . . . . . . . . 5.1.3 Skalarprodukt und metrische Eigenschaften 5.1.4 Einheitsvektoren . . . . . . . . . . . . . . . 5.1.5 Kreuzprodukt . . . . . . . . . . . . . . . . .
61 . . . . . .
. . . . . .
. . . . . .
. . . . . .
. . . . . .
. . . . . .
63 63 64 64 65 66 67
XIII
Inhaltsverzeichnis
5.2
Mehrfachprodukte der Vektorrechnung . . . . . . . . . . . . . 68 5.2.1 Spatprodukt . . . . . . . . . . . . . . . . . . . . . . . 68 5.2.2 Doppeltes Kreuzprodukt, Entwicklungssatz . . . . . . 69 5.2.3 Vierfachprodukt, Identität von Lagrange . . . . . . 69 5.2.4 Gram’sche Determinante . . . . . . . . . . . . . . . . 70 5.3 Physikalische Einteilung der Vektoren . . . . . . . . . . . . . 71 5.3.1 Inversion des Koordinatensystems . . . . . . . . . . . . 71 5.3.2 Polare Vektoren . . . . . . . . . . . . . . . . . . . . . . 71 5.3.3 Axiale Vektoren . . . . . . . . . . . . . . . . . . . . . . 72 5.3.4 Flächenelement . . . . . . . . . . . . . . . . . . . . . . 73 5.3.5 Multiplikative Verknüpfung von Skalaren und Vektoren 74 5.3.6 Beispiele physikalischer Skalare und Vektoren . . . . . 75 5.4 Vektoren im Raum . . . . . . . . . . . . . . . . . . . . . . . . 76 5.4.1 Zerlegung eines Vektors bezüglich einer Richtung . . . 76 5.4.2 Vektordarstellung von Ebenen . . . . . . . . . . . . . . 77 5.5 Gram’sche Matrizen . . . . . . . . . . . . . . . . . . . . . . . 80 5.5.1 Gram’sche Matrix für zwei Sätze von Vektoren . . . . 80 5.5.2 Reziproke Vektoren und Reziprozitätsbedingung . . . 81 5.5.3 Vektorzerlegung nach reziproken Vektoren . . . . . . . 81 5.6 Ableitung von Vektoren . . . . . . . . . . . . . . . . . . . . . 83 5.6.1 Produkte und Einheitsvektor . . . . . . . . . . . . . . 83 5.6.2 Bewegung von Punkten auf Bahnkurven . . . . . . . . 83 5.6.3 Geradlinige Bahnkurve . . . . . . . . . . . . . . . . . . 85 5.6.4 Kreisförmige Bahnkurve . . . . . . . . . . . . . . . . . 85 5.6.5 Relativbewegungen . . . . . . . . . . . . . . . . . . . . 88 5.6.6 Grundgrößen von Raumkurven . . . . . . . . . . . . . 90 5.6.7 Ableitungen in Koordinatensystemen . . . . . . . . . . 100 5.7 Integration von Vektorfunktionen . . . . . . . . . . . . . . . . 101 Literatur . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 103 6 Geradlinige Koordinatensysteme 6.1 Notwendigkeit und Bedeutung . . . . . . . . . . . . . 6.2 Begriffe der Tensorrechnung . . . . . . . . . . . . . . 6.3 Kartesische Koordinatensysteme . . . . . . . . . . . 6.3.1 Eigenschaften der kartesischen Basisvektoren 6.3.2 Basisvektoren bei Basiswechsel . . . . . . . . 6.3.3 Eigenschaften orthogonaler Transformationen 6.4 Kovariante Basis als Grundsystem . . . . . . . . . .
. . . . . . .
. . . . . . .
. . . . . . .
. . . . . . .
. . . . . . .
105 105 106 107 107 109 109 111
XIV
Inhaltsverzeichnis
6.4.1 Grundvektoren als kovariante Basisvektoren . . . . . 6.4.2 Darstellung im kartesischen System . . . . . . . . . . 6.5 Kontravariante Basis . . . . . . . . . . . . . . . . . . . . . . 6.5.1 Kontravariante Basisvektoren . . . . . . . . . . . . . 6.5.2 Darstellung im kartesischen System . . . . . . . . . . 6.6 Reziproke Basissysteme . . . . . . . . . . . . . . . . . . . . 6.6.1 Reziprozitätsbedingung bei ungleicher Indexstellung 6.6.2 Graphische Darstellung reziproker Vektoren . . . . . 6.6.3 Metrikmatrizen bei gleicher Indexstellung . . . . . . 6.6.4 Begründung für zwei Basissysteme . . . . . . . . . . 6.6.5 Orthogonale Koordinatensysteme . . . . . . . . . . . 6.7 Eigenschaften der Metrikmatrizen . . . . . . . . . . . . . . . 6.7.1 Umrechnung der reziproken Basisvektoren . . . . . . 6.7.2 Inversion und Kontragredienz . . . . . . . . . . . . . 6.7.3 Zusammenhang zwischen Koordinatensystemen . . . 6.8 Weitere Produkte der Basisvektoren . . . . . . . . . . . . . 6.8.1 Spatprodukte . . . . . . . . . . . . . . . . . . . . . . 6.8.2 Vektorprodukte . . . . . . . . . . . . . . . . . . . . . 6.9 Basisvektoren bei Basiswechsel . . . . . . . . . . . . . . . . 6.9.1 Lineare Transformation der Basen . . . . . . . . . . 6.9.2 Basen bei Drehung des kartesischen Systems . . . . . 6.9.3 Starre Drehung des Gesamtsystems . . . . . . . . . . 6.9.4 Transformationsmatrix der ebenen Drehung . . . . . 6.9.5 Räumliche Drehung und Euler’sche Winkel . . . . 6.9.6 Graphische Darstellung der Systemkopplungen . . . 6.9.7 Spatprodukte in neuen Systemen . . . . . . . . . . . 6.10 Beispiele für Basissysteme . . . . . . . . . . . . . . . . . . . 6.10.1 Ko- und kontravariantes System A . . . . . . . . . . 6.10.2 Ko- und kontravariantes System B . . . . . . . . . . 6.10.3 Kopplung zwischen System A und System B . . . . . 6.10.4 Ko- und kontravariantes System C mit Drehung . . . 6.11 Tabellen . . . . . . . . . . . . . . . . . . . . . . . . . . . . . Literatur . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .
. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .
111 111 112 112 112 113 113 114 115 116 116 117 117 117 118 119 119 121 122 122 123 124 126 126 129 131 132 132 133 133 134 136 140
7 Vektoren und ihre Komponenten 141 7.1 Vektoren in kartesischen Koordinatensystemen . . . . . . . . 141 7.1.1 Allgemeiner Vektor . . . . . . . . . . . . . . . . . . . . 141 7.1.2 Ortsvektor . . . . . . . . . . . . . . . . . . . . . . . . . 143
XV
Inhaltsverzeichnis
7.2
7.3
7.4
7.5 7.6
Vektoren in reziproken Systemen . . . . . . . . . . . . . 7.2.1 Kovariante Basis . . . . . . . . . . . . . . . . . . 7.2.2 Kontravariante Komponenten . . . . . . . . . . . 7.2.3 Kontravariante Basis . . . . . . . . . . . . . . . . 7.2.4 Kovariante Komponenten . . . . . . . . . . . . . 7.2.5 Forminvariante Darstellung . . . . . . . . . . . . 7.2.6 Betrag eines Vektors . . . . . . . . . . . . . . . . Graphische Vektordarstellung . . . . . . . . . . . . . . . 7.3.1 Parallelprojektion in schiefwinkligen Systemen . 7.3.2 Orthogonalprojektion im schiefwinkligen System Beträge und Längen der Vektorkomponenten . . . . . . 7.4.1 Geometrische Beziehungen . . . . . . . . . . . . . 7.4.2 Physikalische Vektorkomponenten . . . . . . . . . Umrechnung der Komponenten . . . . . . . . . . . . . . Produkte von Vektoren . . . . . . . . . . . . . . . . . . . 7.6.1 Skalarprodukt zweier Vektoren . . . . . . . . . . 7.6.2 Kreuzprodukt zweier Vektoren . . . . . . . . . . 7.6.3 Spatprodukt . . . . . . . . . . . . . . . . . . . .
8 Vektorkomponenten bei Basiswechsel 8.1 Kartesische Komponenten . . . . . . . . . . . 8.2 Ko- und kontravariante Komponenten . . . . 8.3 Kogredienz und Kontragredienz . . . . . . . . 8.4 Allgemeine lineare Transformation . . . . . . 8.4.1 Definition . . . . . . . . . . . . . . . . 8.4.2 Wechsel des Koordinatensystems . . . 8.4.3 Orthogonale Systeme . . . . . . . . . . 8.4.4 Reziproke Systeme . . . . . . . . . . . 8.5 Beispiele für Vektortransformationen . . . . . 8.5.1 Vektorvorgabe im kartesischen System 8.5.2 Vektordarstellung im System A . . . . 8.5.3 Vektordarstellung im System B . . . . 8.5.4 Starre Drehung von System A . . . . . 8.5.5 Physikalische Vektorkomponenten . . . 8.6 Tabellen . . . . . . . . . . . . . . . . . . . . .
. . . . . . . . . . . . . . .
. . . . . . . . . . . . . . .
. . . . . . . . . . . . . . .
. . . . . . . . . . . . . . .
. . . . . . . . . . . . . . .
. . . . . . . . . . . . . . .
. . . . . . . . . . . . . . . . . .
. . . . . . . . . . . . . . .
. . . . . . . . . . . . . . . . . .
. . . . . . . . . . . . . . . . . .
143 143 144 145 145 146 147 147 147 147 149 149 150 151 152 152 153 154
. . . . . . . . . . . . . . .
155 . 155 . 156 . 157 . 157 . 157 . 158 . 158 . 159 . 160 . 160 . 160 . 160 . 161 . 161 . 162
XVI
III
Inhaltsverzeichnis
Tensoralgebra
165
9 Tensorbegriff und Tensor 2. Stufe 9.1 Lineare Vektorfunktion . . . . . . . . . . . . . . . . . . . . 9.1.1 Abbildung von Vektoren und Tensordefinition . . . 9.1.2 Linearitätseigenschaft . . . . . . . . . . . . . . . . 9.1.3 Tensorielles Produkt von Vektoren . . . . . . . . . 9.1.4 Projektion als lineare Abbildung . . . . . . . . . . 9.2 Tensor 2. Stufe in kartesischer Basis . . . . . . . . . . . . . 9.2.1 Darstellung der Abbildung durch einen Tensor . . 9.2.2 Tensordarstellung und Komponenten . . . . . . . . 9.3 Tensor 2. Stufe in reziproken Basissystemen . . . . . . . . 9.3.1 Tensordarstellung in Summenform . . . . . . . . . 9.3.2 Tensorraum . . . . . . . . . . . . . . . . . . . . . . 9.3.3 Tensorzerlegung . . . . . . . . . . . . . . . . . . . . 9.3.4 Tensordarstellung in Matrizenform . . . . . . . . . 9.3.5 Komponentenmatrizen . . . . . . . . . . . . . . . . 9.3.6 Systemvektoren der Koordinaten . . . . . . . . . . 9.3.7 Tensorkomponenten bei doppeltem Skalarprodukt . 9.4 Tensorkomponenten bei gleicher Basis . . . . . . . . . . . 9.5 Tensorkomponenten bei Basiswechsel . . . . . . . . . . . . 9.5.1 Transformation der Tensorkomponenten . . . . . . 9.5.2 Tensorkomponenten bei starrer Drehung . . . . . . 9.5.3 Allgemeine Transformationsregel . . . . . . . . . . 9.6 Tabellen . . . . . . . . . . . . . . . . . . . . . . . . . . . .
. . . . . . . . . . . . . . . . . . . . . .
. . . . . . . . . . . . . . . . . . . . . .
167 167 167 168 169 169 171 171 172 173 173 173 174 174 175 176 177 177 178 178 179 180 181
10 Tensoren und ihre Produkte 10.1 Klassifizierung von Tensoren . . . . . . . . . . . . . . . 10.1.1 Tensoren beliebiger Stufe . . . . . . . . . . . . 10.1.2 Matrixdarstellung . . . . . . . . . . . . . . . . 10.2 Verjüngung von Tensoren . . . . . . . . . . . . . . . . 10.2.1 Zielsetzung . . . . . . . . . . . . . . . . . . . . 10.2.2 Verjüngung beim Tensor 2. Stufe . . . . . . . . 10.2.3 Verjüngung höherstufiger Tensoren . . . . . . . 10.3 Produktbildung bei Tensoren . . . . . . . . . . . . . . 10.3.1 Tensorielles Produkt . . . . . . . . . . . . . . . 10.3.2 Skalarprodukte aus Tensor 2. Stufe und Vektor 10.3.3 Doppeltes Skalarprodukt beim Tensor 2. Stufe .
. . . . . . . . . . .
. . . . . . . . . . .
184 184 184 186 186 186 187 188 189 189 189 192
. . . . . . . . . . .
. . . . . . . . . . .
XVII
Inhaltsverzeichnis
10.3.4 Transponierter Tensor . . . . . . . . . 10.3.5 Skalarprodukt zweier Tensoren 2. Stufe 10.4 Summationskonvention . . . . . . . . . . . . . 10.4.1 Begründung . . . . . . . . . . . . . . . 10.4.2 Vergleich und Bewertung . . . . . . . 10.5 Tabelle . . . . . . . . . . . . . . . . . . . . . . 10.5.1 Hinweise zur Tabelle 10.1 . . . . . . . 10.5.2 Berechnungsbeispiele . . . . . . . . . . 10.5.3 Systemvektoren . . . . . . . . . . . . . Literatur . . . . . . . . . . . . . . . . . . . . . . . .
. . . . . . . . . .
. . . . . . . . . .
. . . . . . . . . .
. . . . . . . . . .
. . . . . . . . . .
. . . . . . . . . .
. . . . . . . . . .
. . . . . . . . . .
. . . . . . . . . .
193 193 194 194 195 199 199 199 199 201
11 Spezielle Tensoren 11.1 Symmetrischer Tensor 2. Stufe . . . . . . . . . . . . . 11.1.1 Symmetrieeigenschaften der Komponenten . . 11.1.2 Symmetrie der Tensorprodukte . . . . . . . . 11.2 Einheitstensor oder Metriktensor . . . . . . . . . . . 11.2.1 Definierende Eigenschaft . . . . . . . . . . . . 11.2.2 Komponenten des Einheitstensors . . . . . . . 11.2.3 Matrix- und Summenform . . . . . . . . . . . 11.2.4 Metriktensor bei Basiswechsel . . . . . . . . . 11.2.5 Überschiebung . . . . . . . . . . . . . . . . . 11.3 Alternierender Tensor 2. Stufe . . . . . . . . . . . . . 11.3.1 Eigenschaften der Komponenten . . . . . . . 11.3.2 Antisymmetrie der Tensorprodukte . . . . . . 11.3.3 Tensorform des Kreuzproduktes . . . . . . . . 11.4 Tensor-Merkmale und Eigenschaften . . . . . . . . . 11.4.1 Additive Tensorzerlegung . . . . . . . . . . . 11.4.2 Dyaden . . . . . . . . . . . . . . . . . . . . . 11.4.3 Verjüngung spezieller Tensoren . . . . . . . . 11.5 Tensor 3. Stufe . . . . . . . . . . . . . . . . . . . . . 11.5.1 Summenform der Komponenten . . . . . . . . 11.5.2 Matrixdarstellung . . . . . . . . . . . . . . . 11.5.3 Komponenten bei Basiswechsel . . . . . . . . 11.6 Vollständige Tensoren gemäß Symmetrie . . . . . . . 11.6.1 Definition . . . . . . . . . . . . . . . . . . . . 11.6.2 Vollständig symmetrischer Tensor 3. Stufe . . 11.6.3 Vollständig antisymmetrischer Tensor 3. Stufe 11.7 ε -Tensor . . . . . . . . . . . . . . . . . . . . . . . . .
. . . . . . . . . . . . . . . . . . . . . . . . . .
. . . . . . . . . . . . . . . . . . . . . . . . . .
. . . . . . . . . . . . . . . . . . . . . . . . . .
. . . . . . . . . . . . . . . . . . . . . . . . . .
. . . . . . . . . . . . . . . . . . . . . . . . . .
202 202 202 203 204 204 204 205 205 206 208 208 209 210 211 211 212 214 215 215 215 217 219 219 219 219 220
XVIII
Inhaltsverzeichnis
11.7.1 Definition gemäß Transformationsverhalten 11.7.2 Determinantenform der Tensorkomponenten 11.7.3 Räumliche Darstellung . . . . . . . . . . . . 11.7.4 Matrix- und Summenform des ε -Tensors . . 11.7.5 Skalarprodukte mit dem ε -Tensor . . . . . 11.8 Tensorinterpretation von Vektorprodukten . . . . . 11.8.1 Kreuzprodukt . . . . . . . . . . . . . . . . . 11.8.2 Spatprodukt . . . . . . . . . . . . . . . . . 11.8.3 Doppeltes Kreuzprodukt . . . . . . . . . . . 11.8.4 Zusammenfassende Bewertung . . . . . . . 11.9 Kronecker-Tensor 6. Stufe . . . . . . . . . . . . . 11.9.1 Definition und Komponenten . . . . . . . . 11.9.2 Verjüngungen des Kronecker-Tensors . . . .
. . . . . . . . . . . . .
. . . . . . . . . . . . .
. . . . . . . . . . . . .
. . . . . . . . . . . . .
12 Hauptachsentransformation 12.1 Zielsetzung und Bedingungen der Transformation . . . . . 12.2 Durchführung der Transformation . . . . . . . . . . . . . . 12.2.1 Aufstellung der Gleichungssysteme . . . . . . . . . 12.2.2 Charakteristische Gleichung und Eigenwerte . . . . 12.2.3 Bestimmung der Eigenvektoren . . . . . . . . . . . 12.2.4 Orthogonale Transformationsmatrix . . . . . . . . 12.2.5 Berechnung der Eigenvektoren . . . . . . . . . . . 12.2.6 Normierung der Eigenvektoren . . . . . . . . . . . 12.2.7 Ebener Fall und Mohr’scher Kreis . . . . . . . . . 12.3 Invarianten bei Matrixtransformationen . . . . . . . . . . 12.3.1 Charakteristische Größen der Matrix . . . . . . . . 12.3.2 Invarianten bei Ähnlichkeitstransformation . . . . 12.3.3 Spektralverschiebung . . . . . . . . . . . . . . . . . 12.3.4 Matrixpotenzen . . . . . . . . . . . . . . . . . . . . 12.3.5 Eigenwerte und Eigenvektoren bei Matrixpotenzen 12.3.6 Deviator . . . . . . . . . . . . . . . . . . . . . . . . 12.3.7 Tensorinvarianten . . . . . . . . . . . . . . . . . . . 12.3.8 Tensorprodukt bei Orthogonaltransformation . . . 12.4 Quadratische Formen . . . . . . . . . . . . . . . . . . . . . 12.4.1 Definition und Auftreten . . . . . . . . . . . . . . . 12.4.2 Klassifizierung . . . . . . . . . . . . . . . . . . . . 12.5 Tensorflächen . . . . . . . . . . . . . . . . . . . . . . . . . 12.5.1 Erzeugung quadratischer Formen . . . . . . . . . .
. . . . . . . . . . . . .
. . . . . . . . . . . . .
220 222 222 222 224 225 225 227 227 228 228 228 230
. . . . . . . . . . . . . . . . . . . . . . .
232 . 232 . 235 . 235 . 236 . 237 . 238 . 239 . 240 . 240 . 243 . 243 . 244 . 245 . 246 . 246 . 248 . 248 . 249 . 250 . 250 . 251 . 251 . 251
XIX
Inhaltsverzeichnis
12.5.2 Hauptachsentransformation und Tensorellipsoid 12.5.3 Poinsot’sche Konstruktion . . . . . . . . . . . 12.6 Beispiele für Hauptachsentransformationen . . . . . . . 12.6.1 2 ˆ 2 -Matrix . . . . . . . . . . . . . . . . . . . 12.6.2 3 ˆ 3 -Matrix, einfache Eigenwerte . . . . . . . 12.6.3 3 ˆ 3 -Matrix, zweifacher Eigenwert . . . . . . 12.7 Tabellen . . . . . . . . . . . . . . . . . . . . . . . . . . Literatur . . . . . . . . . . . . . . . . . . . . . . . . . . . . .
IV
. . . . . . . .
. . . . . . . .
. . . . . . . .
. . . . . . . .
Tensoranalysis
252 253 255 255 256 258 261 264
265
13 Allgemeine Funktionssysteme 13.1 Eigenschaften eines Funktionssystems . . . . . . . . . . . . 13.1.1 Definition des Funktionssatzes . . . . . . . . . . . . . 13.1.2 Totale Differentiale . . . . . . . . . . . . . . . . . . . 13.1.3 Funktionalmatrix, Jacobi-Matrix . . . . . . . . . . 13.1.4 Funktionaldeterminante, Jacobi’sche Determinante 13.1.5 Lineares Funktionssystem . . . . . . . . . . . . . . . 13.1.6 n-dimensionale Volumenelemente . . . . . . . . . . . 13.2 Inverses Funktionssystem . . . . . . . . . . . . . . . . . . . 13.2.1 Inverser Funktionssatz und Argumenttausch . . . . . 13.2.2 Kettenregel und Multiplikationssatz . . . . . . . . . 13.3 Taylor’sche Formel . . . . . . . . . . . . . . . . . . . . . . Literatur . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .
267 . 267 . 267 . 268 . 268 . 269 . 269 . 270 . 270 . 270 . 271 . 272 . 275
14 Krummlinige Koordinatensysteme 14.1 Einführung krummliniger Koordinaten . . . . . . 14.2 Definition des Koordinatensystems . . . . . . . . 14.3 Grundgrößen der Koordinatensysteme . . . . . . 14.3.1 Ortsvektor und kovariante Grundvektoren 14.3.2 Wegelement als kontravarianter Vektor . . 14.3.3 Differentielles Abstandsquadrat . . . . . . 14.3.4 Wegelement in einer Koordinatenfläche . . 14.3.5 Reziproke, kontravariante Basisvektoren . 14.3.6 Beziehungen der Funktionalmatrizen . . . 14.3.7 Darstellung der Basisvektoren . . . . . . . 14.4 Metrik des Raumes . . . . . . . . . . . . . . . . .
. . . . . . . . . . .
. . . . . . . . . . .
. . . . . . . . . . .
. . . . . . . . . . .
. . . . . . . . . . .
. . . . . . . . . . .
. . . . . . . . . . .
276 276 277 279 279 281 281 283 284 285 286 287
XX
Inhaltsverzeichnis
14.4.1 Metrikkoeffizienten und Klassifizierung . . . . . 14.4.2 Metrikmatrizen und Metriktensor . . . . . . . . 14.4.3 Winkel zwischen Wegelementen . . . . . . . . . 14.5 Weitere Berechnungen . . . . . . . . . . . . . . . . . . 14.5.1 Spatprodukt . . . . . . . . . . . . . . . . . . . 14.5.2 Darstellung der kontravarianten Basisvektoren . 14.5.3 Flächen- und Volumenelemente . . . . . . . . . 14.5.4 Darstellung des Ortsvektors . . . . . . . . . . . 14.6 Beispiele krummliniger Koordinatensysteme . . . . . . 14.6.1 Wendelkoordinaten . . . . . . . . . . . . . . . . 14.6.2 Astroidkoordinaten . . . . . . . . . . . . . . . . Literatur . . . . . . . . . . . . . . . . . . . . . . . . . . . . .
. . . . . . . . . . . .
. . . . . . . . . . . .
. . . . . . . . . . . .
15 Transformation der Komponenten 15.1 Transformationen bei gleicher Basis . . . . . . . . . . . . . . 15.2 Transformationen bei Basiswechsel . . . . . . . . . . . . . . 15.2.1 Neues Koordinatensystem . . . . . . . . . . . . . . . 15.2.2 Umrechnung von Basisvektoren und Metrikmatrizen 15.2.3 Umrechnung von Vektor- und Tensorkomponenten . 15.2.4 Kontragrediente Transformation . . . . . . . . . . . 15.2.5 Gegenüberstellung der Transformationen . . . . . . . 15.3 Tabellen . . . . . . . . . . . . . . . . . . . . . . . . . . . . .
. . . . . . . . . . . .
287 287 289 290 290 291 291 293 295 295 296 300
301 . 301 . 302 . 302 . 303 . 304 . 305 . 306 . 307
16 Ableitung der Grundvektoren 309 16.1 Darstellung der Grundvektoren und ihrer Änderungen . . . . 309 16.2 Ableitung kovarianter Grundvektoren . . . . . . . . . . . . . . 311 16.2.1 Schreibweise für Ableitungen nach Koordinaten . . . . 311 16.2.2 Durchführung der Ableitung . . . . . . . . . . . . . . . 311 16.3 Zerlegung der Ableitungen . . . . . . . . . . . . . . . . . . . . 313 16.3.1 Ableitung der kovarianten Grundvektoren . . . . . . . 313 16.3.2 Geometrische Bedeutung der Christoffel-Symbole . 314 16.3.3 Ableitung der kontravarianten Basisvektoren . . . . . 314 16.3.4 Ableitung der Metrikmatrizen . . . . . . . . . . . . . . 315 16.3.5 Totales Differential der Basisvektoren . . . . . . . . . 316 16.3.6 Charakter der Grundvektoren und ihrer Ableitungen . 317 16.4 Christoffel-Symbole und ihre Matrizen . . . . . . . . . . . 318 16.4.1 Darstellung und Symmetrie der Christoffel-Symbole318 16.4.2 Christoffel-Matrizen und H-Matrix . . . . . . . . . 319
XXI
Inhaltsverzeichnis
16.4.3 L-Symbole und L-Matrix . . . . . . . . . . . . . . . 16.4.4 Berechnung der Christoffel-Symbole . . . . . . 16.5 Spezielle Koordinatensysteme . . . . . . . . . . . . . . . . 16.5.1 Christoffel-Symbole in geradlinigen Systemen . 16.5.2 Christoffel-Symbole in ebenen Systemen . . . . 16.5.3 Christoffel-Symbole in orthogonalen Systemen . 16.6 Christoffel-Symbole bei Basiswechsel . . . . . . . . . . 16.7 Beispiele für Christoffel-Symbole . . . . . . . . . . . . 16.7.1 Christoffel-Symbole und Ableitungen . . . . . . 16.7.2 Wendelkoordinaten . . . . . . . . . . . . . . . . . . 16.7.3 Astroidkoordinaten . . . . . . . . . . . . . . . . . . Literatur . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .
. . . . . . . . . . . .
. . . . . . . . . . . .
320 321 322 322 323 323 325 327 327 327 328 330
17 Differentialoperationen 331 17.1 Gradient skalarer Ortsfunktionen . . . . . . . . . . . . . . . . 332 17.1.1 Totales Differential als Skalarprodukt . . . . . . . . . . 332 17.1.2 Gradient und Nabla als kovariante Vektoren . . . . . . 332 17.1.3 Deutung des Gradienten, Niveauflächen und Feldlinien 334 17.1.4 Deutung der kontravarianten Basisvektoren . . . . . . 336 17.1.5 Skalare Ortsfunktion bei Basiswechsel . . . . . . . . . 337 17.2 Ableitung von Vektoren und Tensoren . . . . . . . . . . . . . 339 17.2.1 Partielle Ableitung der Vektorkomponenten . . . . . . 339 17.2.2 Partielle Ableitung von Vektoren, Vektorableitung . . 339 17.2.3 Kovariante Ableitung von Vektoren . . . . . . . . . . . 340 17.2.4 Transformation der kovarianten Ableitungen . . . . . . 342 17.2.5 Kovarianzmatrizen . . . . . . . . . . . . . . . . . . . . 343 17.2.6 Totales Differential und absolute Differentiale . . . . . 344 17.2.7 Zweite Vektorableitung . . . . . . . . . . . . . . . . . . 346 17.2.8 Kovariante Ableitung von Tensoren, Tensorableitung . 347 17.2.9 Ableitung des Metriktensors, Lemma von Ricci . . . . 349 17.2.10 Kovariante Ableitung bei Basiswechsel . . . . . . . . . 350 17.2.11 Überblick über die Ableitungen . . . . . . . . . . . . . 350 17.3 Produkte mit Nabla-Vektor . . . . . . . . . . . . . . . . . . . 352 17.3.1 Zielsetzung . . . . . . . . . . . . . . . . . . . . . . . . 352 17.3.2 Vektorgradient, Tensor der kovarianten Ableitungen . 353 17.3.3 Vektorgradient der Basisvektoren . . . . . . . . . . . . 355 17.3.4 Gradient von Tensoren` 2. Stufe,˘Tensorgradient . . . . 356 17.3.5 Der skalare Operator a ¨ grad . . . . . . . . . . . . 358
XXII
Inhaltsverzeichnis
17.3.6 Gradientenbildung und Richtungsableitung . . 17.3.7 Divergenz von Vektoren . . . . . . . . . . . . . 17.3.8 Divergenz von Tensoren 2. Stufe . . . . . . . . . 17.3.9 Differentialoperationen des Metriktensors . . . 17.3.10 Rotation von Vektoren . . . . . . . . . . . . . . 17.4 Zusammengesetzte Argumente . . . . . . . . . . . . . . 17.4.1 Gradient von Produkten . . . . . . . . . . . . . 17.4.2 Divergenz von Produkten . . . . . . . . . . . . 17.4.3 Rotation von Produkten . . . . . . . . . . . . . 17.5 Mehrfachprodukte mit Nabla-Vektor . . . . . . . . . . 17.5.1 Zweistufiger Ableitungstensor . . . . . . . . . . 17.5.2 Identisch verschwindende Produkte . . . . . . . 17.5.3 Laplace-Operator . . . . . . . . . . . . . . . . 17.5.4 Vektor-Laplace-Operator . . . . . . . . . . . . 17.6 Helmholtz-Theorem . . . . . . . . . . . . . . . . . . 17.7 Beziehungen für den Abstandsvektor . . . . . . . . . . 17.7.1 Bedeutung des Abstandsvektors . . . . . . . . . 17.7.2 Ableitungen nach verschiedenen Koordinaten . 17.7.3 Reihenentwicklung des reziproken Abstands . . 17.7.4 Differentialoperationen für den Abstandsvektor 17.8 Beispiele für Basisvektoren . . . . . . . . . . . . . . . . 17.8.1 Zylinderkoordinaten im ebenen Bild . . . . . . 17.8.2 Astroidkoordinaten im ebenen Bild . . . . . . . 17.9 Tabellen . . . . . . . . . . . . . . . . . . . . . . . . . . Literatur . . . . . . . . . . . . . . . . . . . . . . . . . . . . .
. . . . . . . . . . . . . . . . . . . . . . . . .
. . . . . . . . . . . . . . . . . . . . . . . . .
. . . . . . . . . . . . . . . . . . . . . . . . .
. . . . . . . . . . . . . . . . . . . . . . . . .
359 360 362 364 364 367 367 368 368 369 369 369 370 371 372 374 374 375 376 378 381 381 382 383 386
18 Orthogonale Koordinatensysteme 388 18.1 Krummlinige orthogonale Koordinaten . . . . . . . . . . . . . 388 18.1.1 Bedeutung . . . . . . . . . . . . . . . . . . . . . . . . . 388 18.1.2 Grundlegende Eigenschaften . . . . . . . . . . . . . . . 389 18.1.3 Metrische Faktoren und Wegelement, Flächen- und Volumenelemente . . . . . . . . . . . . . 391 18.1.4 Einheitsvektoren und ihre Umrechnung . . . . . . . . . 392 18.1.5 Prüfung auf Rechtssystem . . . . . . . . . . . . . . . . 393 18.2 Ableitung der Einheitsvektoren . . . . . . . . . . . . . . . . . 393 18.2.1 Christoffel-Symbole in orthogonalen Systemen . . . 393 18.2.2 Durchführung der Ableitung und zugehörige Matrizen 396 18.3 Vektor- und Tensorkomponenten . . . . . . . . . . . . . . . . 399
XXIII
Inhaltsverzeichnis
18.3.1 Darstellung physikalischer Komponenten . . . . . . 18.3.2 Ableitung der Komponenten . . . . . . . . . . . . . 18.3.3 Vektor- und Tensorableitung . . . . . . . . . . . . 18.4 Differentialoperationen . . . . . . . . . . . . . . . . . . . . 18.4.1 Basisvektoren und Maßstäbe . . . . . . . . . . . . 18.4.2 Gradient in orthogonalen Koordinaten . . . . . . . 18.4.3 Divergenz in orthogonalen Koordinaten . . . . . . 18.4.4 Rotation in orthogonalen Koordinaten . . . . . . . 18.4.5 Laplace-Operator in orthogonalen Koordinaten . 18.5 Beispiele von Koordinatensystemen . . . . . . . . . . . . . 18.5.1 Kartesische Koordinaten . . . . . . . . . . . . . . . 18.5.2 Zylinderkoordinaten . . . . . . . . . . . . . . . . . 18.5.3 Kugelkoordinaten . . . . . . . . . . . . . . . . . . . 18.5.4 Gegenseitige Darstellung der Koordinatensysteme . 18.5.5 Koordinaten des abgeplatteten Rotationsellipsoids Literatur . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .
. . . . . . . . . . . . . . . .
19 Integralsätze und zeitabhängige Felder 19.1 Grundlegende Integralsätze . . . . . . . . . . . . . . . . . . 19.1.1 Fluss von Feldern und Gauß’scher Satz . . . . . . . 19.1.2 Zirkulation eines Feldes und Stokes’scher Satz . . . 19.1.3 Anschauliche Darstellung von Quellen und Wirbeln . 19.2 Abgeleitete Integralsätze . . . . . . . . . . . . . . . . . . . . 19.2.1 Sonderfälle des Gauß’schen Satzes . . . . . . . . . . 19.2.2 Divergenz-Theorem für Tensoren 2. Stufe . . . . . . . 19.2.3 Sonderfälle des Stokes’schen Satzes . . . . . . . . . 19.2.4 Stokes-Theorem für Tensoren 2. Stufe . . . . . . . . 19.2.5 Green’sche Sätze für Skalarfelder . . . . . . . . . . 19.2.6 Stratton’sche Sätze für Vektorfelder . . . . . . . . 19.3 Zeitableitung von Feldgrößen . . . . . . . . . . . . . . . . . 19.3.1 Totale Ableitung einer Skalarfunktion nach der Zeit . 19.3.2 Totale Ableitung einer Vektorfunktion nach der Zeit 19.3.3 Euler’sche Differentiationsregel . . . . . . . . . . . 19.4 Zeitliche Ableitung von Integralen . . . . . . . . . . . . . . 19.4.1 Aufgabenstellung . . . . . . . . . . . . . . . . . . . . 19.4.2 Volumenintegral einer skalaren Funktion . . . . . . . 19.4.3 Flächenintegral einer vektoriellen Funktion . . . . . 19.4.4 Konturintegral einer vektoriellen Funktion . . . . . .
. . . . . . . . . . . . . . . .
399 401 401 402 402 403 403 404 405 407 407 411 414 416 417 423
424 . 424 . 424 . 426 . 428 . 430 . 430 . 431 . 432 . 433 . 434 . 435 . 436 . 436 . 437 . 437 . 438 . 438 . 440 . 441 . 443
XXIV
Inhaltsverzeichnis
Literatur . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 446 Abbildungsverzeichnis
447
Tabellenverzeichnis
449
Personenverzeichnis
450
Personenbezogene Begriffe
451
Gesamtverzeichnis der Bücher
453
Sachverzeichnis
473
Teil I
Grundlagen
1
Kapitel 1
Einführung Die physikalische Beschreibung der Natur und der darin auftretenden Phänomene erfordert für konkrete, quantitative Aussagen die Mathematik und ihre Begriffsbildungen, wenn man über eine rein deskriptive oder qualitative Darstellung hinauskommen will. Diese Erkenntnis wurde bereits vor vierhundert Jahren von Galileo Galilei sinngemäß ausgesprochen, denn das „große Buch der Natur ist in der Sprache der Mathematik und Geometrie geschrieben“, (Il Saggiatore, 1623). Das Thema des zweibändigen Gesamtwerkes ist die Tensorrechnung als ein Gebiet der angewandten Mathematik, das die Vektorrechnung umfasst und verallgemeinert und in großen Teilen der Physik unverzichtbar ist für Darstellung und Beschreibung der beobachtbaren Phänomene. Wenn in diesem Buch von Tensorrechnung oder Tensorkalkül die Rede ist, wird immer auch implizit die „normale“ Vektorrechnung als spezieller Fall darunter verstanden und eingeschlossen, die den natürlichen Ausgangspunkt der Untersuchungen bildet. Tensoren sind als höherrangige Größen zur Beschreibung einer Reihe physikalischer Phänomene erforderlich, bei denen eine skalare oder vektorielle Darstellung weder angemessen noch ausreichend ist, wie bei der Abbildung von Vektoren durch Operatoren, bei Spannungszuständen in verformbaren Materialien oder anisotropen Eigenschaften der Materie. Die hier vorgelegte Behandlung der Tensorrechnung unterscheidet grundsätzlich in Darstellung und Schreibweise zwischen Vektoren und Tensoren als invarianten physikalischen Größen selbst sowie ihrer Zerlegung in Komponenten in Koordinatensystemen. Als Alternative zur bisherigen in der 3 © Springer Fachmedien Wiesbaden GmbH, ein Teil von Springer Nature 2019 W. Werner, Vektoren und Tensoren als universelle Sprache in Physik und Technik 1, https://doi.org/10.1007/978-3-658-25272-4_1
4
1 Einführung
Literatur weit verbreiteten Indexschreibweise werden zur Darstellung der Komponenten von Vektoren und Tensoren Matrizen verwendet, mit denen alle Transformationen von Koordinaten, Komponenten und Basisvektoren einfach beschrieben werden können und die bei den vielfach auftretenden Transformationen einen klaren Überblick gewährleisten. Das vorliegende Werk richtet sich an zwei Gruppen von Lesern. Die eine Zielgruppe sind Studenten höherer Semester aus Physik und Ingenieurwissenschaften, denen beide Bücher neben den Vorlesungen begleitend zur Verfügung stehen sollen. Die andere Zielgruppe stellen Ingenieure und Naturwissenschaftler dar, die in ihrer beruflichen Praxis die tensorielle Verallgemeinerung physikalischer Größen, ihre mathematische Behandlung sowie deren Anwendung und Auftreten benötigen oder kennenlernen wollen. Verschiedene mathematische Themenbereiche werden entweder als bekannt vorausgesetzt wie Analysis mit Differential- und Integralrechnung oder werden wie bei der Matrizenrechnung im Sinne einer kurz gehaltenen Einführung nur gestreift und durch bestimmte Beziehungen ergänzt, wobei strenge Beweisführungen und manche Ableitungen unterbleiben, die man entsprechenden Lehrbüchern entnehmen kann. Der Leser wird bei allen Kapiteln selbst entscheiden, was er schon kennt und überspringen kann, ob er Neues findet oder etwas wiederholen will! An vielen Stellen, im Abschnitt 2.3 und speziell im zweiten Band, werden die Einheiten der auftretenden physikalischen Größen angegeben, einerseits um Verständnis und Interpretation der Gleichungen zu unterstützen, andererseits um bei Bedarf eine Dimensionskontrolle durchzuführen. Bis auf wenige Ausnahmen werden alle physikalischen Größen im Internationalen Einheitensystem SI (Système international d’unités) angegeben, das in den 1960er Jahren verabschiedet wurde und seither in Wissenschaft, Technik und Wirtschaft als verbindlich anzusehen ist. Ab Mai 2019 tritt eine neue Definition in Kraft, um alle sieben SI-Basiseinheiten auf fundamentale physikalische Konstanten (Naturkonstanten) zurückzuführen, wodurch vorhandene Abhängigkeiten von veränderlichen Größen beendet werden, [16]. Dennoch gibt es in Teilgebieten der Physik einzelne aus historischen oder praktischen Gründen beibehaltene nichtkompatible Einheiten, auf die speziell hingewiesen wird. Auch neuere Bücher verwenden mitunter eine Darstellung im veralteten cgs-System, in dem z.B. die Maxwell’schen Gleichungen in anderer Gestalt erscheinen. Dagegen hat Arnold Sommerfeld
5
als einer der berühmten theoretischen Physiker bereits 1948 in seinem Lehrbuch Elektrodynamik, [11, 40f.], das rationelle System und seinen Vorzug klar begründet und verwendet, das später zum SI-System weiterentwickelt wurde. Eine besondere Stellung nimmt das hier aus prinzipiellen Gründen nicht verwendete natürliche Einheitensystem ein, das in der Relativitätstheorie mit der Absicht eingeführt wurde, um Beziehungen einfacher oder einheitlicher zu gestalten. Dabei wird die Lichtgeschwindigkeit c auf Eins normiert, wodurch Dimensionskontrollen von Gleichungen unmöglich werden und die physikalische Realität zu einem Zweig der Mathematik mit reiner Strukturuntersuchung wird! Bei der Behandlung der einzelnen Themengebiete steht zweifellos die mathematische Darstellung im Vordergrund, die zur exakten Beschreibung notwendig und unverzichtbar ist. Für den Leser bedeutet es, dass die Erkenntnis beim Weg durch die einzelnen Kapitel mit Ausdauer und manchmal auch mit Anstrengung erreicht werden kann. Um den Fließtext zu strukturieren und Textstellen leichter auffindbar zu machen, erscheinen wichtige Begriffe, die auch im Sachverzeichnis aufgeführt sind, sowie bedeutsame Aussagen in Fettdruck und in speziellen Fällen auch in kursiver Schrift. Viele Formeln, die einen gewissen Abschluss eines Gedankenganges bilden und Zwischenziele oder Endergebnisse darstellen, sind mit Rahmen versehen. Das dient der Strukturierung des Rechenganges und der größeren Übersicht beim Auffinden von Ergebnissen sowie der Nummerierung von Gleichungen für spätere Verweise. In aller Regel sind die zahlreichen Verweise rückwärtsgerichtet, wodurch der aufbauende Charakter der Darlegungen und Entwicklungen betont wird. Nur in sehr wenigen, aber manchmal unvermeidbaren Fällen wird dagegen auf ein erst später erscheinendes Ergebnis verwiesen, das zwar benötigt wird, aber aus bestimmten Gründen im aktuellen Zusammenhang nicht dargelegt werden kann. Als Themenbereiche werden im vorliegenden ersten Band des Gesamtwerkes Algebra und Analysis von Vektoren und Tensoren als eigenständige Fachdisziplinen behandelt. Daran schließen sich Darstellungen der Differentialoperationen und Integralsätze an, die speziell im Hinblick auf die Beschreibung physikalischer Zusammenhänge im zweiten Band entwickelt werden.
6
1 Einführung
Die Tensorrechnung, auch Tensorkalkül genannt, geht nach Vorarbeiten von Gauss, Riemann und anderen auf dem Gebiet der Differentialgeometrie auf die Untersuchungen der beiden italienischen Mathematiker Gregorio Ricci-Curbastro (1853 -1925) und Tullio Levi-Civita (1873 1941) um das Jahr 1900 zurück, die deshalb zunächst als Ricci-Kalkül bezeichnet wurde. Verallgemeinernd lassen sich alle physikalischen Größen, also auch Skalare und Vektoren, als Tensoren unterschiedlicher Stufen ansehen und der axiale Vektor des Kreuzproduktes kann als spezieller Tensor gedeutet werden. Dem Tensorkalkül eigentümlich und eine wesentliche Art der Darstellung ist die gleichzeitige Verwendung von zwei Bezugssystemen, die einen speziellen, reziproken Zusammenhang besitzen. Man nennt sie die ko- und kontravarianten Koordinaten-, Grund- oder Basissysteme, in denen Tensoren entsprechende ko- und kontravariante, sowie gemischte Komponenten besitzen. Durch die gemeinsame Verwendung beider Basissysteme und der zugehörigen Komponenten lassen sich viele Beziehungen einfach und übersichtlich formulieren. Zweck und Namensgebung der Systeme werden in ihrer Bedeutung während der Entwicklung des Tensorkalküls, das die Vektorrechnung als Sonderfall umfasst, verständlich. Charakteristisch und ein wesentlicher Bestandteil des Tensorkalküls sind die verschiedenen Komponentendarstellungen und ihre Umrechnung bei Basiswechsel mit zugehöriger Indizierung und Vielfachsummationen je nach Stufenzahl der Tensoren, die die Formelnotierung aufwendig machen. Albert Einstein, dessen Allgemeine Relativitätstheorie auf dem Ricci-Kalkül beruhte, führte deshalb eine Summationskonvention ein, durch die das Notieren der Summenzeichen unterdrückt wird, um von Schreibarbeit zu entlasten. Nach seiner eigenen Aussage sei das seine größte Erfindung in der Mathematik gewesen! Diese Art der abgekürzten Schreibweise findet man nahezu durchgängig in der gesamten Tensorliteratur, wodurch die Lesbarkeit vieler Beziehungen und speziell der Transformationsrelationen mit unterer und oberer Mehrfachindizierung der verschiedenen Komponenten bei Wechsel der Koordinatensysteme erleichtert werden soll, dem Autor dagegen als unübersichtlich und schwer verständlich erscheint. Darstellung und Kritik der Summationskonvention werden im Abschnitt 10.4 noch näher betrachtet. Ein neueres Buch zur Allgemeinen Relativitätstheorie, [7], die im zweiten Band behandelt wird und deren Feldgleichungen nur mit Tensoren darge-
7
stellt werden können, verzichtet kommentarlos auf die Summationskonvention. Dieses hervorragende und gut verständliche Buch der Open University richtet sich speziell an Studenten im Fern- oder Selbststudium und das Autorenteam erachtete es offenbar als pädagogisch und didaktisch sinnvoller, alle Summen ausführlich darzustellen, um dadurch den Überblick über die vielfach auftretenden Indizes und ihre Laufweite zu wahren. Durch die Verwendungung von Matrizen können Vektor- und Tensorkomponenten und ihre Umrechnungen bei Basiswechsel sehr klar, übersichtlich und leicht verständlich dargestellt werden, weil man sofort erkennt, wo Transformationsmatrizen in transponierter oder inverser Form auftreten oder sich in Produkten ggf. zur Einheitsmatrix kompensieren. Die Ergebnisse der zahlreichen Umrechnungen von Basisvektoren und Komponenten sind zusätzlich in einer Reihe von Tabellen mit den entsprechenden Matrixrelationen zusammengefasst, die als eine Art Formelsammlung anzusehen sind. Matrizen, Zeilen- und Spaltenvektoren werden durch eine bestimmte Indizierung formalisiert, wobei ein spezielles Symbol p#q als unterer oder oberer Laufindex zur Kennzeichnung von ko- und kontravarianten Elementen verwendet wird. Die durchgängige Matrixschreibweise stellt einen erheblichen Vorteil gegenüber der üblichen, aber oft schwer zu überblickenden Indexschreibweise dar. Das gilt speziell bei den für die Tensorrechnung wesentlichen Transformationseigenschaften bei Basiswechsel, wodurch dieser Kalkül gewöhnlich als schwierig gilt und von vielen Ingenieuren und Naturwissenschaftlern nicht beherrscht wird. In der vorliegenden Darstellung der Tensorrechnung mit Matrizen ist die Summationskonvention nicht erforderlich, da ja die Produktbildung der Matrizenrechnung die Summation als wesentliche Eigenschaft implizit enthält! Drei Bücher, die in technisch-wissenschaftlicher Anwendung mit besonderer Zielsetzung Matrizen verwenden, sollen erwähnt werden, [2], [8], [14]. Eine Darstellung des Tensorkalküls mit Matrizen scheint in der Literatur bisher nicht zu existieren. Das ist umso erstaunlicher, da ja die koordinatengebundene Komponentendarstellung bei der Lösung konkreter Aufgaben der Tensorrechnung fast immer in Matrizenform erfolgt, [4] ! Die Matrixdarstellung ist für Vektoren und Tensoren 2. Stufe völlig problemlos anwendbar und auch bei Tensoren 3. und 4. Stufe durch Erweiterung der Matrixmultiplikation relativ einfach möglich. Bei höherstufigen Tensoren kann man entweder weitere spezielle Matrixmultiplikationen defi-
8
1 Einführung
nieren oder zu der in der Literatur verbreiteten Indexschreibweise zurückkehren. Allerdings kommen in den technischen Anwendungen hauptsächlich zweistufige Tensoren und ein besonderer dreistufiger ε -Tensor vor, so dass die Vorteile der Matrixschreibweise überwiegen. Im zweiten Band tritt der vierstufige Riemann’sche Krümmungstensor in Differentialgeometrie und Relativitätstheorie auf, der eine wichtige Rolle für die nichteuklidische Geometrie spielt. Bei seiner Darstellung wird teilweise zu einer Indexschreibweise zurückgekehrt, da oft nur einzelne Elemente betrachtet werden. Alle Themenbereiche sind detailliert im Inhaltsverzeichis aufgeführt, so dass man ein gesuchtes Sachgebiet leicht und einfach auffinden kann. Am Ende des Bandes schließen sich Verzeichnisse an, in denen alle Abbildungen, Tabellen, Personen und personenbezogene Begriffe aufgeführt sind. Um einen speziellen Begriff zu finden, sind im Sachverzeichnis die Stichwörter weitgehend in Kategorien zusammengefasst, was durch die Bestimmungssubstantive unserer Sprache in einfacher Weise ermöglicht wird. Viele Begriffe erscheinen auch mehrfach oder können an Hand von Verweisen unter anderen Stichwörtern aufgefunden werden. An jedem Kapitelende ist jeweils die zitierte Literatur alphabetisch aufgeführt und am Ende beider Bände werden im Gesamtverzeichnis der Bücher alle zitierten Fach- und Sachbücher sowie einige weitere nach den verschiedenen Themengebieten von Mathematik und Physik jeweils alphabetisch geordnet angegeben, in denen der Leser weitere oder ausführlichere Aspekte der behandelten Sachgebiete finden kann. Neben neueren werden auch viele ältere Bücher zitiert, die den Autor in den Jahren seiner Berufskarriere begleitet haben. Darunter finden sich wahre Klassiker, die seit ihrem Erscheinen nichts an Aktualität eingebüßt haben und die mitunter auch bearbeitete Neuauflagen erlebten. Als Leitfaden für Vektor- und Tensorrechnung wurden besonders die Bücher von Kästner, [3], neben Klingbeil, [5], Simmonds, [10], Synge/Schild, [12], Teichmann, [13], und Wrede, [15], sowie das klassische Werk von Lagally/Franz, [6], herangezogen. Weitergehende Anwendungen, speziell für den zweiten Band, findet man in Raschewski, [9]. Die historische Entwicklung der Vektorrechnung ist ausführlich in Crowe, [1], dargestellt.
Literatur [1] Crowe, M. J.: A History of Vectoranalysis Dover Publications, New York (1994) [2] Goldberg, J. L., Schwartz, A. J.: Systems of Ordinary Differential Equations Harper & Row, Publishers, New York etc. (1972) [3] Kästner, S.: Vektoren, Tensoren, Spinoren Akademie-Verlag, Berlin (1960) [4] Kay, D. C.: Tensor Calculus Schaum’s Outline Series, McGraw-Hill Book Company (2011) [5] Klingbeil, E.: Tensorrechnung für Ingenieure Bibliographisches Institut, Mannheim (1966) [6] Lagally, M. I., Franz,W.: Vorlesungen über Vektorrechnung Akademische Verlagsgesellschaft Geest & Portig, Leipzig (1959) [7] Lambourne, R. J. A.: Relativity, Gravitation and Cosmology Cambridge University Press, Cambridge (2010) [8] Promberger, M.: Anwendung von Matrizen und Tensoren in der theoretischen Elektro9
10
Literatur
technik Akademie-Verlag, Berlin (1960) [9] Raschewski, P. K.: Riemannsche Geometrie und Tensoranalysis Verlag Harri Deutsch, Thun und Frankfurt/Main, 2. Aufl. (1995) [10] Simmonds, J. G.: A Brief on Tensor Analysis Springer Verlag, New York, Berlin, Heidelberg, 2. Aufl. (1994) [11] Sommerfeld, A.: Vorlesungen über theoretische Physik III, Elektrodynamik Akademische Verlagsgesellschaft Geest & Portig, 4. Aufl. (1964) [12] Synge, J. L., Schild, A.: Tensor Calculus University of Toronto Press, Toronto (1949) [13] Teichmann, H.: Physikalische Anwendungen der Vektor- und Tensorrechnung Bibliographisches Institut, Mannheim (1973) [14] Tropper, A. M.: Matrizenrechnung in der Elektrotechnik Bibliographisches Institut, Mannheim (1962) [15] Wrede, R. C.: Introduction to Vector- and Tensor Analysis Dover Publications, New York (1972) [16] Maßstäbe Physikalisch-Technische Bundesanstalt Heft 14, Nov. 2018
Kapitel 2
Verzeichnis der verwendeten Symbole 2.1
Allgemeine Bemerkungen zur Schreibweise
Eine strenge Gedankenführung des behandelten Themas wird gestützt durch klare und eindeutige Schreibweise und Notation aller auftretenden Größen, die damit eine Hilfe beim Verständnis der Zusammenhänge begründet. Besondere Schreibweisen sind unter diesem Stichwort auch im Sachverzeichnis aufgeführt. Quadratische Matrizen erscheinen mit Großbuchstaben, Zeilen- und Spaltenvektoren als eindimensionale Matrizen mit kleinen Buchstaben. Alle Matrizen mit skalaren Elementen erhalten einfache, mit Vektorelementen doppelte Unterstreichung. Zusätzlich zum üblichen Gebrauch einer allgemeinen Indizierung von Komponenten und anderen Größen mit Buchstaben wie i, j, k, μ, ν, . . . wird als formaler Laufindex oder als Laufsymbol das Sonderzeichen # (Doppelkreuz bzw. Raute, engl. number sign oder crosshatch) oder seltener das Zeichen 7 (Kreuz der Notenschrift, engl. sharp) verwendet, was im typographischen Bild klarer als Platzhalter bzw. Laufindex erkennbar ist. Beide Zeichen dienen durch ihre Stellung als untere oder obere Indizes der Unterscheidung von ko- und kontravarianten Vektor- und Tensorkomponenten. Das Zeichen # wird in Kapitel 6 eingeführt, taucht aber bereits in den Kapiteln 3 und 5 auf, das Zeichen 7 erst im Kapitel Flächentheorie des zweiten Bandes. 11 © Springer Fachmedien Wiesbaden GmbH, ein Teil von Springer Nature 2019 W. Werner, Vektoren und Tensoren als universelle Sprache in Physik und Technik 1, https://doi.org/10.1007/978-3-658-25272-4_2
12
2 Verzeichnis der verwendeten Symbole
Zur klaren Unterscheidung von kontravarianten, oberen Indizes und numerischen Potenzen werden im zweiten Fall die Größen in Klammern gesetzt. Für die verschiedenen Größen werden zugeordnete Schrifttypen verwendet, die im einzelnen folgendermaßen dargestellt werden. ‚ skalare Größen in kursiver Antiqua
r x, V s
‚ dreidimensionale Vektoren in fetter, kursiver Antiqua
r a, A s
‚ dreidimensionale griechische Vektoren mit Pfeil
ω s r β,
‚ Einheits- und Basisvektoren in fetter, kleiner Antiqua
r e, g s
‚ Matrizen in fetter großer Antiqua mit Unterstreichung
r A, V s
‚ Zeilen- und Spaltenvektoren in fetter, kleiner Antiqua
r a, dx, g s
‚ Operatoren und Tensoren in großer Schreibschrift
rT , G s
‚ Vierervektoren in fetter, serifenloser Steilschrift
r R, A s
‚ Spaltenmatrizen von Vierervektoren mit Unterstreichung
r f, J s
ˆs ‚ Matrizen von Vierereinheitsvektoren mit Unterstreichung r e, e Für die Verknüpfung von Produkten wird folgende Schreibweise verwendet. ‚ ohne Zeichen bei skalaren Größen, Skalarfaktoren, Matrizen und tensoriellen Produkten ‚ mit Punkt bei Skalarprodukten von Vektoren und Tensoren, ‚ mit Kreuz bei Vektor- oder Kreuzprodukten Die folgenden Listen der verschiedenen Größen werden nur hier im ersten Band aufgeführt. Sie gelten aber ebenso für den zweiten Band, in dem die meisten der physikalischen Größen vorkommen. Die Größen in den einzelnen Kategorien sind nicht alphabetisch sondern weitgehend nach ihrem Auftreten in den verschiedenen Kapiteln aufgeführt. Da die Anzahl der Symbole pro Kategorie überschaubar ist, kann man sicher ein gesuchtes Symbol leicht finden.
2.2 Mathematische Größen
13
Bei den physikalischen Größen sind zusätzlich die Einheiten angegeben, so dass eine schnelle Dimensionskontrolle in allen auftretenden Gleichungen der Anwendungen möglich ist. Gelegentlich lässt sich die Doppelverwendung von Symbolen nicht vermeiden, doch ist die Gefahr der Verwechslung kaum gegeben, da ein Zweitgebrauch entweder nur lokale Bedeutung hat oder in einem völlig anderen Sachzusammenhang auftritt oder auch durch ein bestimmtes Ornament unterschieden wird. Die Bezeichnungen Vektor und im zweiten Band auch Vierervektor beziehen sich stets auf physikalische Größen. Sie sind zu unterscheiden von eindimensionalen Matrizen, die Spalten- oder Zeilenvektoren heißen und die eine Zusammenfassung beliebiger Elemente sein können. Insbesondere kann ein Spaltenvektor als formale Matrix aus Vektoren und dabei häufig aus Basisvektoren von Koordinatensystemen zusammengesetzt sein!
2.2
Mathematische Größen
Spezielle Zeichen d
Platzhalter für ein Zeichen
#, 7 ˆ d
formale Indexkennzeichen
d#
kovariante Größen mit unterer Indizierung
d#
kontravariante Größen mit oberer Indizierung
b
Platzhalter für Matrizen mit Skalarelementen
b
Platzhalter für Matrizen mit Vektorelementen
b ## , b #¨ #
Tensormatrix (vorderer Index “ ˆ Zeile, hinterer Index “ ˆ Spalte)
|| , Ò
Zeichen für Parallelität
Ö
Zeichen für Antiparallelität
K
Zeichen für Orthogonalität
„
Indexzeichen für Wechselgröße
d
Indexzeichen für Sonne
Δ
Zuwachs von Variablen und Funktionen
Dachkennzeichnung für Größen im neuen Bezugssystem
14
2 Verzeichnis der verwendeten Symbole
x..y
zeitlicher oder örtlicher Mittelwert
∇
Nabla-Operator
Δ
Laplace-Operator (Delta)
l
D’Alembert-Operator (Quad)
l
Tessera-Operator (Tess)
x..y
Platzhalter für Ableitungsgröße
B x..y{Bu
partielle Ableitung nach der Koordinate u
“ x..y, “ B x..y “ ∇ x..y ˇ kovariante Ableitung nach der -ten Koordinate x..y ˇ
Skalare Größen
häufiger Index bei Ableitungen
x, y, z, x ¯k
kartesische Komponenten des Ortsvektors
ˆ ¯k , a ¯k ax, y, z , a
kartesische Vektorkomponenten
ak , a k
ko- und kontravariante Vektorkomponenten
Tik , T ik Ti
k,
T
i k
ko- und kontravariante Tensorkomponenten gemischte Tensorkomponenten
det A
Determinante der Matrix A
som A
Summe der Minoren (sum of minors) der Matrix A
sp A
Spur der Matrix A
gik ,
g ik
g “ det G # S# ,
S#
ko- und kontravariante Metrikkoeffizienten kovariante Determinante der Metrikmatrix G# Spatprodukte der reziproken Basisvektoren
δik , δ ik , δik
Kronecker-Symbole
εijk , εijk
Komponenten des ε-Tensors, Levi-Civita-Symbole
Γikj
Christoffel-Symbol
Lij k
L-Symbol
2.2 Mathematische Größen
15
Vektoren ek , ˆ ek
kartesische Einheitsvektoren im alten und neuen System
e HA
Hauptachsen-Einheitsvektoren
gi , g k
ko- und kontravariante, reziproke Basisvektoren
ck
Einheitsvektoren in orthogonalen Koordinatensystemen
a, b, ...
physikalische Vektoren
r
dreidimensionaler Ortsvektor
dr
Wegelement, kontravarianter Vektor
a¨b
Skalarprodukt
aˆb
Vektor- oder Kreuzprodukt
x a, b, c y
Spatprodukt
ab
tensorielles Produkt
t, n, b
Einheitsvektoren bei Raumkurven
n3 , f
kontravarianter Einheitsvektor der Flächennormale
si ,
sk
reziproke Basisvektoren einer Fläche
Matrizen mit skalaren Elementen Spaltenvektor
a aT `
a i#
Zeilenvektor ˘T
i-ter Zeilenvektor der Matrix A
a #k
k-ter Spaltenvektor der Matrix A
a
kartesische Komponenten des Vektors a
x
kartesische Komponenten des Ortsvektors r
a# , a#
ko- und kontravariante Komponenten von a
E
Einheitsmatrix
ek
k-ter Spaltenvektor der Einheitsmatrix
ε
Spaltenvektor mit lauter Einsen
D, Δ
Diagonalmatrizen
A, B, ...
Transformationsmatrizen
16
2 Verzeichnis der verwendeten Symbole AT
transponierte Matrix
A´1
Kehrmatrix, inverse Matrix
pAT q´1
zu A kontragrediente Matrix
A adj ` ˘ G a #{ v #
adjungierte Matrix
G # , G#
ko- und kontravariante Metrikmatrizen
U, V
Matrizen der Transformation zwischen kartesischen und reziproken Basisvektoren
P, Q
Matrizen der Transformation zwischen verschiedenen reziproken Basisvektoren
x#
Spaltenvektor kartesischer Koordinaten
Gram’sche Matrix zweier Vektorsätze
u# , w # #
Spaltenvektoren krummliniger Koordinaten #
dx , du , dw ` ˘ F x# { u# ¨# Γ#
#
Spaltenvektoren der Koordinatendifferentiale Funktionalmatrix, Jacobi-Matrix Matrix der Christoffel-Symbole
Γ ## p#q ˇ ˇ V# ˇ , V # ˇ #
Blockmatrix der Christoffel-Symbole #
Kovarianzmatrizen
B ##
Matrix der Flächentheorie
L, L 2, 3
Lorentz-Matrizen
Matrizen mit Vektorelementen Spaltenvektoren der Einheitsvektoren
e, ˆ e, c g , #
g#
Spaltenvektoren der ko- und kontravarianten Basisvektoren
ˆ# g ˆ , g
Basisvektoren bei Basiswechsel
s 7 , s7
ko- und kontravariante Basisvektoren einer Fläche
#
g
#,
, g#
, #
Ableitungen der Basisvektoren nach der Koordinate u
Γ , Γ #, Γ alternierende Matrizen der Basisvektoren T ## p#q ˝ g# erweiterte Matrixmultiplikation
2.2 Mathematische Größen
H ##
Matrix der kovarianten Basisvektorableitungen
C ##
Matrix der Einheitsvektorableitungen in orthogonalen Koordinatensystemen
Tensoren, Operatoren Dg
Diagonalisierungsoperator für Matrizen
T
Tensor 2. Stufe
Tppq
Tensor p-ter Stufe
E, G
Einheits-, Metrik- oder Fundamentaltensor
S
symmetrischer Tensor 2. Stufe
A Ă T
alternierender, antisymmetrischer Tensor 2. Stufe
D “ ab
Dyade, tensorielles Produkt zweier Vektoren
ε
vollständig antisymmetrischer Tensor 3. Stufe
δp6q
Kronecker-Tensor 6. Stufe
Grad v “ K
Vektorgradient, Tensor der kovarianten Ableitungen
R
Riemann-Christoffel’scher Krümmungstensor
transponierter Tensor
_
R
Ricci-Tensor
E
Einstein-Tensor
_
Tensormatrizen und Komponenten Matrix der kartesischen Tensorkomponenten
T
T ## , T ## p#q Matrizen der kovarianten Tensorkomponenten T ## , T ## p#q Matrizen der kontravarianten Tensorkomponenten ¨# , T# T# ¨#
Matrizen der gemischten Tensorkomponenten
S
symmetrische Tensormatrix
S HA
diagonale Tensormatrix im Hauptachsensystem alternierende Tensormatrix
A ε ### ,
ε ###
Komponenten des ε-Tensors 3. Stufe
17
18
2 Verzeichnis der verwendeten Symbole
Vektor und -Tensoralysis ∇
Nabla-Operator, symbolischer, kovarianter Vektor
∇ # x .. y
Komponenten des Nabla-Vektors
grad V “ ∇V
Gradient des Skalars V, kovarianter Vektor
∇ #V
kovariante Komponenten des Gradienten von V
Grad v
Gradient des Vektors v, Vektorgradient
div v “ ∇ ¨ v
Divergenz des Vektors v
rot v “ ∇ ˆ v
Rotation des Vektors v
ΔV “ ∇ ¨ ∇V
Laplace-Operator (Delta)
Δv “ v
Vektor-Laplace-Operator
lϕ
D’Alembert-Operator (Quad)
Div A
Viererdivergenz des Vierervektors A
Rot A
Viererrotation des Vierervektors A
Räume R3
dreidimensionaler euklidischer Raum
Vn
n-dimensionaler Riemann’scher Raum
2.3
Physikalische Größen
Differentialgeometrische und kinematische Größen s
Bogenlänge
rms
κ
Krümmung
r 1{m s
K
Gauß’sche Krümmung
r 1{m s
ρ
Krümmungsradius
rms
t
Tangenteneinheitsvektor
r .{. s
n
(Haupt-) Normalenvektor
r .{. s
b
Binormalenvektor
r .{. s
r
dreidimensionaler Ortsvektor
rms
v “ r9
Geschwindigkeit auf einer Bahnkurve r m{s s
19
2.3 Physikalische Größen r m{s2 s
a “ v9 “ r:
Beschleunigung auf einer Bahnkurve
u “ dr{dt
Geschwindigkeitsvektor eines Punktes r m{s s
a “ du{dt
Beschleunigungsvektor eines Punktes
r m{s2 s
ω
Rotationsvektor
r 1{s s
ω “ ϕ9
Winkelgeschwindigkeit
r 1{s s
Physikalische Skalare v
Volumen
r m3 s
m, m0
Masse, Ruhmasse
r kg “ Ns2 {m s
ρ
zylindrischer Achsenabstand
rms
ρ
Massendichte
r kg{m3 s
ρ
Raumladung
r As{m3 s
W “F ¨r
Arbeit, Energie
r Ws “ J “ Nm s
Ekin , Erot
kinetische und Rotationsenergie
r Nm “ kg m2 {s2 s
V
mechanisches Potential
r Nm s
Θ
Massenträgheitsmoment
r kg m2 s
σ, τ
Normalspannung, Schubspannung
r Pa “ N{m2 s
ε
Dehnung
r .{. s
E, G
Elastizitätsmodul, Schubmodul
r Pa “ N{m2 s
γ
Gleitwinkel
r ˝ , rad ]
ν
Querkontraktionszahl
r .{.s
Q, ρ
Ladung, Ladungsdichte
r As, As{m3 s
Ψe , Ψm
dielektrischer / magnetischer Fluss
r As ; Vs s
ε, ε0
Dielektrizitätskonstante
r As{Vm “ F{m s
μ, μ0
Permeabilitätskonstante
r Vs{Am “ H{m s
κ
Leitfähigkeit
? c “ 1{ μ0 ε0
r S{m “ A{pVmq s
Lichtgeschwindigkeit im Vakuum
r m{s s
˚ pV “ J ¨ E
Verlustleistungsdichte
r W{m3 s
w
Energiedichte
r Ws{m3 “ N{m2 s
V, ϕ
elektrisches Skalarpotential
rVs
20
2 Verzeichnis der verwendeten Symbole
φ
Gravitationspotential
r m2 {s2 s
W0
Ruheenergie
r Ws s
f
Frequenz
r Hz “ 1{s s
ω “ dϕ{dt
(Kreis-) Frequenz, Winkelgeschwindigkeit
r 1{s s
λ
Wellenlänge
rms
k “ 2π{λ
Wellenzahl
r 1{m s
β “ v{c
Geschwindigkeitsquotient (Relativitätstheorie)
r .{. s
γ
Lorentz-Faktor
r .{. s
τ, dτ
Eigenzeit und Eigenzeitelement
rss
μ, μ0
Massendichte (Relativitätstheorie)
r kg{m3 s
pˇ
isotroper Druck
r Pa “ N{m2 s
κ
Einstein’sche Gravitationskonstante r 1{N s
Dreidimensionale physikalische Vektoren r
Ortsvektor
rms
u, v
Geschwindigkeit
r m{s s
a
Beschleunigung
r m{s2 “ N{kg s
a, da
Fläche, Flächenelement
r m2 s
F “ dp{dt
Kraft
r N “ kg m{s2 s
f “ dF {dv
Kraftdichte
r N{m3 s
s “ dF {da
mechanische Spannung
r Pa “ N{m2 s
p
Impuls
r Ns s
q
Impulsdichte
r Ns{m3 s
M “rˆF
Drehmoment
r Nm s
L“rˆp
Drehimpuls, Drall
r Ns m “ Ws2 s
E
elektrische Feldstärke
r V{m s
H
magnetische Feldstärke
r A{m s
D
dielektrische Verschiebung
r As{m2 s
21
2.3 Physikalische Größen
B
magnetische Induktion
r T “ Vs{m2 s
J
Stromdichte
r A{m2 s
S “EˆH
Poynting-Vektor
r W{m2 s
k
Wellenvektor
r 1{m s
A
magnetisches Vektorpotential
r Vs{m s
R
Vierer-Ortsvektor
rms
U “ dR{dτ
Vierergeschwindigkeit
r m{s s
A “ dU{dτ
Viererbeschleunigung
r m{s2 s
J
Viererstromdichte
r A{m2 s
Φ
Viererpotential
r Vs{m s
f
Viererkraftdichte
r N{m3 s
k
Vierer-Wellenvektor
r 1{m s
p “ mU
Viererimpuls
r Ns s
F “ dp{dτ
Minkowski-Kraft
rNs
Vierervektoren
Physikalische Tensoren Θ
Trägheitstensor
r kg m2 s
SSp
mechanischer Spannungstensor
r Pa “ N{m2 s
V
Verzerrungstensor
r .{. s
SDf
Deformationstensor
r .{. s
Grad u
Verschiebungstensor
r .{. s
TM , Te , Tm
Maxwell’sche Spannungstensoren
r Ws{m3 “ N{m2 s
F
elektromagnetischer Feldtensor
r Vs{m2 s
G
zu F dualer Tensor
r Vs{m2 s
Energie-Impuls-Tensor
r Ws{m3 s
T Staub
Spannungs-Energie-Tensor für Staub
r Ws{m3 s
T idFl
Spannungs-Energie-Tensor der idealen Flüssigkeit
r Ws{m3 s
T,T
EM
22
2 Verzeichnis der verwendeten Symbole R
Riemann-Christoffel’-scher Krümmungstensor
r 1{m2 s
R
Ricci-Tensor
r 1{m2 s
E
Einstein-Tensor
r 1{m2 s
Ricci-Skalar
r 1{m2 s
Einstein-Skalar
r 1{m2 s
_ _
˝
R ˝
E
Kapitel 3
Grundlegende Beziehungen der Matrizenrechnung Zusammenfassung
Die Zielsetzung dieses Kapitels ist eine knappe Zusammenstellung von wichtigen Beziehungen der Matrizenrechnung, die zur Einführung in Schreibweise und Eigenschaften dienen. Viele Beziehungen sind häufig ohne Erläuterungen oder Beweise angegeben. Eine eingehende Darlegung der Matrizenrechnung mit Beweisführung findet man in den Büchern von Rudolf Zurmühl, [4], und in seiner Neuauflage, [5], sowie in [1], [2]. In der Formelsammlung, [3], sind die wichtigsten Beziehungen der Matrizenrechnung zusammengestellt. Zunächst werden Matrizen mit Zahlen als Elemente betrachtet, wobei einige Operationen wie Vertauschen der Faktoren im Skalarprodukt und Transponierung von Matrizenprodukten häufig angewendet werden. Später werden Skalar- und Kreuzprodukte formaler Matrizen mit Vektorelementen behandelt, bei denen der formale Laufindex p#q bereits eingesetzt wird. 23 © Springer Fachmedien Wiesbaden GmbH, ein Teil von Springer Nature 2019 W. Werner, Vektoren und Tensoren als universelle Sprache in Physik und Technik 1, https://doi.org/10.1007/978-3-658-25272-4_3
24
3 Beziehungen der Matrizenrechnung
3.1
Definitionen
3.1.1
Spaltenvektor und Zeilenvektor
Bei Spalten- und Zeilenvektoren handelt es sich um eindimensionale Matrizen, deren Elemente aus Skalaren, Basisvektoren von Koordinatensystemen oder physikalischen Vektoren bestehen können. Bei skalaren Elementen wird einfach, bei vektoriellen Elementen und damit formalen Spalten- und Zeilenvektoren (Abschnitt 3.4) zweifach unterstrichen. Die Grundgröße ist der Spaltenvektor, Zeilenvektoren werden stets mit Transponierung p T q geschrieben.
˛ x1 ˚ x2 ‹ ` ˘T ˚ ‹ x “ ˚ . ‹ “ x 1 , x 2 , . . . , xn , ˝ .. ‚ ¨
xn ¨ ˛ e1 ˚ e2 ‹ ` ˘T ˚ ‹ e “ ˚ . ‹ “ e1 , e 2 , . . . , en , ˝ .. ‚
˘ ` x T “ x 1 , x 2 , . . . , xn
(3.1)
` ˘ eT “ e 1 , e 2 , . . . , e n
(3.2)
en
3.1.2
Matrix
Das rechteckige Koeffizientenschema der Elemente einer Matrix kann mit
‚ Zeilenvektoren ‚ Spaltenvektoren
`
a i#
˘T
a #k
˘ ` “ ai1 , ai2 , . . . , ain ` ˘T “ a1k , a2k , . . . , amk
(3.3)
25
3.2 Produkte von Matrizen ` ˘ oder durch das allgemeine Element aik dargestellt werden. ¨
a11 ˚ a ` ˘ ˚ 21 A “ aik “ ˚ . ˝ ..
a12 a22 .. .
... ... .. .
˛ a1n a2n ‹ ‹ .. ‹ . ‚
am1 am2 . . . amn ¨` ˘T ˛ a 1# ˚` ˘T ‹ ˚ a ‹ ` ˘ 2# ‹ “ a #1 , a #2 , . . . , a #n “˚ ˚ ‹ .. ˝ ‚ ` . ˘T a m#
(3.4)
Die Determinante det A kann nur für quadratische Matrizen gebildet werden. Eine Matrix A hat den Rang r “ rg pAq, wenn wenigstens eine ihrer r-reihigen Unterdeterminanten von Null verschieden ist. Reguläre n ˆ n-Matrizen haben den vollen Rang r “ n. Die Zahl d “ n ´ r heißt Rangabfall oder Defekt. Die Matrix AT bedeutet die zu A transponierte Matrix, bei der Zeilen und Spalten miteinander vertauscht sind. Spezielle Matrizen sind ‚ singuläre Matrix
mit
‚ symmetrische Matrix
mit
A “ AT
‚ schiefsymmetrische Matrix
mit
A “ ´ AT
3.2 3.2.1
det A “ 0 pakk “ 0q
Produkte von Matrizen Skalarprodukt (Zeile mal Spalte)
Bei der Produktbildung von Zeilen- und Spaltenvektoren aus Zahlen gleicher Elementanzahl entsteht das Skalarprodukt S, das eine Zahl als Summe von Einzelprodukten ist, so dass unter Beachtung der Transponierung ein Faktortausch möglich ist.
26
3 Beziehungen der Matrizenrechnung
‚ Das Skalarprodukt impliziert die Summenbildung! ¨ ˛ ¨ ˛ y1 x1 ˘˚ . ‹ ` ˘˚ . ‹ ` T T S “ x y “ y x “ x1 , . . . , xn ˝ .. ‚ “ y1 , . . . , yn ˝ .. ‚ yn xn n ÿ “ x 1 y 1 ` . . . ` x n yn “ x k yk
(3.5)
k“1
Die Spaltenvektoren x und y heißen zueinander orthogonal, wenn ihr Skalarprodukt Null ist. xT y “ y T x “ 0
Ø
xKy
(3.6)
Der Betrag oder die euklidische Norm von Spaltenvektoren lautet bÿ a T |x| “ }x} “ x x “ x2k ě 0 Ñ | x |2 “ xT x (3.7) k
3.2.2
Dyadisches Produkt (Spalte mal Zeile)
Das Produkt aus Spalten- und Zeilenvektor gleicher Elementanzahl führt auf eine quadratische Matrix. ¨ ¨ ˛ ˛ x 1 y 1 . . . x 1 yn x1 ˘ ˚ ˚ ‹` .. ‹ “ `y xT ˘T (3.8) .. Z “ x yT “ ˝ ... ‚ y1 , . . . , yn “ ˝ ... . . ‚ xn
x n y 1 . . . x n yn
Da Zeilen bzw. Spalten eines dyadischen Produktes jeweils zueinander proportional sind, ist seine Determinante Null und die Matrix singulär. Für dyadische Produkte gilt daher ` ˘ rg Z “ 1 Ñ det Z “ 0
3.2.3
Matrizenprodukt
Jedes Element der Produktmatrix A B stellt ein Skalarprodukt aus einer Zeile der ersten und einer Spalte der zweiten Matrix dar. Die Produktbildung A B ist nur ausführbar bei Übereinstimmung der Spaltenzahl von A mit der Zeilenzahl von B , was als Verkettbarkeit bezeichnet wird.
27
3.2 Produkte von Matrizen
Matrizenprodukte sind assoziativ, so dass die Reihenfolge der Produktbildungen beliebig ist. ` ˘ ` ˘ A BC “ AB C “ ABC Das Produkt zweier Matrizen ist nichtkommutativ, so dass man zwischen Rechts- und Linksmultiplikation unterscheiden muss. (3.9)
AB ‰ BA
Auch wenn beide Matrizen A und B symmetrisch sind, ist ihr Produkt A B normalerweise nicht mehr symmetrisch. (3.10)
‚ Die Multiplikation zerstört die Symmetrie!
Ausnahmen findet man bei (3.18) und in den Abschnitten 11.1.1 und 11.4.1. Bei einem Produkt aus zwei Matrizen gilt für ein Element n ÿ ` ˘T cik “ a i# b #k “ aiμ bμk
mit
C “ AB r “ A BT C
˘T ` c˜ik “ a i# b k# “
mit
μ“1 n ÿ
aiμ bkμ
(3.11)
μ“1
Bei einem Produkt aus drei Matrizen C “ P B “ P T R “ P T PT “ R T T R
(3.12)
gilt für ein Element in den verschiedenen Schritten cik “
n ÿ
piμ bμk “
μ“1
“
n ÿ μ“1 n ÿ
piμ
„ÿ n
j tμν rνk
ν“1 n ÿ
μ“1 ν“1
tμν piμ pkν “
“
n n ÿ ÿ
piμ tμν rνk
μ“1 ν“1 n n ÿ ÿ
tμν rμi rνk
(3.13)
μ“1 ν“1
Dabei bedeutet die Transponierung einer Matrix die Umkehrung der Indexreihenfolge bei dem entsprechenden Element.
28
3 Beziehungen der Matrizenrechnung
Ein Dreifachprodukt, bei dem die äußeren Faktoren Zeilen- bzw. Spaltenvektoren sind, stellt ein Skalarprodukt und damit eine Zahl oder einen einzelnen Wert dar, bei dem die Transponierung zum gleichen Ergebnis führt. S “ zT b “ z T A s “
n ÿ i“1
zi b i “
n ÿ
zi
i“1
` ˘T S “ S T “ zT A s “ s T AT z “
n ÿ
aik sk “
aik zi sk
i“1 k“1
k“1 n ÿ n ÿ
n ÿ n ÿ
(3.14)
aki si zk
i“1 k“1
3.2.4
Lineares Gleichungssystem
Bei einem linearen Gleichungssystem treten die Variablen xk nur in erster Potenz auf. Die Koeffizienten aik können konstant sein oder von einem Parameter abhängen. Das Gleichungssystem a11 x1
` a12 x2
` . . . ` a1n xn
“ b1
a21 x1 .. .
` a22 x2 .. .
` . . . ` a2n xn .. .
“ b2 .. .
Ñ
an1 x1 ` an2 x2 ` . . . ` ann xn “ bn
pa 1# qT x “ b1 pa 2# qT x “ b2 .. .. . . pa n# qT x “ bn
lautet als Matrixgleichung mit der Koeffizientenmatrix A Ax “ b
(3.15)
Gleichungssystem bzw. Matrixgleichung beschreiben eine lineare oder affine Transformation, die den Spaltenvektor x durch die Matrix A linear in den Spaltenvektor b abbildet.
3.2.5
Matrizenprodukte mit Falk-Schema
Das Falk-Schema in Abbildung 3.1 bietet eine anschauliche graphische Darstellung für die Multiplikation von Matrizen und die Verkettbarkeit. Im Schnittpunkt der beiden Pfeile wird das dort stehende Element als ˘T ` Skalarprodukt a i# b #k aus Zeile und Spalte gebildet.
29
3.2 Produkte von Matrizen
Abb. 3.1: Falk-Schema für zwei Matrizen
Abb. 3.2: Piktogramme der Matrixmultiplikation
30
3.2.6
3 Beziehungen der Matrizenrechnung
Piktogramme der Matrixmultiplikation
Die Abbildung 3.2 gibt den Überblick über die möglichen Multiplikationen und Ergebnisse von Spalten- und Zeilenvektoren sowie Matrizen, wobei die Verkettbarkeit der einzelnen Faktoren vorausgesetzt wird. Aus Sicht der Matrizenrechnung sind Vektoren v und Tensoren T formale Einzelgrößen oder Werte, die aus Summanden zusammengesetzt sind und die im ersten und letzten Piktogrammbeispiel als Punkte auftreten.
3.2.7
Rechts- und Linksmultiplikation
Sind L und R reguläre, quadratische Matrizen, die mit der rechteckigen Matrix A verkettbar sein müssen, dann gilt folgendes Schema. Linksmultiplikation mit L bzw. Rechtsmultiplikation mit R führen zu Produktmatrizen L A und A R von gleichem Format wie die Matrix A selbst, in der Abbildung 3.3 dargestellt am Beispiel zweier verschiedener Matrizen A.
3.2.8
Matrixtransformationen
Eine Links- und Rechtsmultiplikation der Matrix A mit L und R heißt
‚ Äquivalenztransformation A
Ñ
`
A und B äquivalent
˘
B “ LAR
(3.16)
die wegen der Assoziativität auf zwei Arten ausgeführt werden kann. Die Matrizen A , L A , A R , und L A R haben nach Abbildung 3.4 alle das gleiche Format.
31
3.2 Produkte von Matrizen
Abb. 3.3: Rechts- und Linksmultiplikation mit quadratischen Matrizen
Abb. 3.4: Äquivalenztransformation einer Matrix
32
3 Beziehungen der Matrizenrechnung
Wählt man die Rechts- und Linksmatrizen in besonderer Weise, dann ergeben sich zwei Sonderfälle der Äquivalenztransformation. ˘ ` ‚ Ähnlichkeitstransformation A und B bzw. C ähnlich L “ R´1
B “ R´1 A R oder C “ L A L´1
Ñ
‚ Kongruenztransformation L “ RT
B “ RT A R
Ñ
(3.17)
A und B bzw. C kongruent
˘
oder C “ L A LT
(3.18)
`
Bei der Kongruenztransformation sind bei symmetrischer Matrix A “ AT bzw. schiefsymmetrischer Matrix A “ ´ AT auch B und C symmetrisch bzw. schiefsymmetrisch.
3.3
Inverse Matrix und adjungierte Matrix
Für reguläre, quadratische Matrizen A, deren Determinanten existieren, löst die inverse oder Kehrmatrix A´1 mit der Eigenschaft A A´1 “ A´1 A “ E Gleichungssysteme durch Linksmultiplikation auf formale Weise. Ax “ b
Ñ
x “ A´1 b
Neben numerischen Lösungsverfahren ist für theoretische Überlegungen die ` ik ˘ durch Darstellung der inversen Matrix mit dem allgemeinen Element a die adjungierte Matrix von Interesse. ` ˘ A adj A´1 “ aik “ det A
Ñ
A A adj “ A adj A “ E det A
(3.19)
Dafür wird zunächst zu jedem Element aik der Matrix das algebraische Komplement Aik (Kofaktor, Adjunkt) gebildet, aik
Ñ
Aik “ p´1qi`k Δik
(3.20)
33
3.4 Formale Matrizen und Produkte
wobei Δik der Minor oder diejenige Unterdeterminante zum Element aik ist, wenn man in A die i-te Zeile und die k-te Spalte streicht. Die zu A adjungierte Matrix ist die aus diesen algebraischen Komplementen gebildete Matrix, wobei die Adjunkte jedoch in transponierter Anordnung auftreten. ˛ A11 . . . An1 ` ˘ ˚ .. ‹ “ `aik ˘ det A “ Aki “ ˝ ... . ‚ A1n . . . Ann ¨
A adj
(3.21)
Für die Kehrmatrix der 2 ˆ 2 -Matrix erhält man auf diese Weise folgendes Ergebnis. A
3.4
´1
˙´1 ˆ ˙ ˆ 1 a22 ´ a12 a11 a12 “ “ a21 a22 a11 a22 ´ a12 a21 ´ a21 a11
(3.22)
Formale Matrizen und Produkte
Matrizen können nicht nur Skalare sondern auch Vektoren oder Tensoren als Elemente enthalten, was durch einfache, doppelte oder dreifache Unterstreichung gekennzeichnet wird. Quadratische Vektormatrizen heißen formal oder symbolisch, da man nur in besonderen Fällen eine Determinante bilden kann! Das Produkt solcher Vektormatrizen wird formal, d.h. auf gleiche Weise, gebildet wie bei skalaren Elementen, allerdings unter Berücksichtigung der Skalar- oder Kreuzproduktbildung der einzelnen Elemente. Bei der Transponierung formaler Matrizenprodukte darf man die Faktoren wie in (3.42) dann nicht vertauschen, wenn die Reihenfolge der Vektoren in tensoriellen oder Kreuzprodukten entscheidend ist! Häufig treten Produkte von skalaren und vektoriellen Matrizen auf in Gleichungssystemen oder bei der Darstellung von Vektoren und Tensoren aus Komponenten und Basisvektoren. Formale Gleichungssysteme mit Spaltenvektoren, die vektorielle Elemente enthalten, lauten entsprechend (3.15) z.B. Ax “ b
oder
g
#
“ Ue
34
3 Beziehungen der Matrizenrechnung
Für Vektoren in kartesischen Koordinatensystemen gilt beispielsweise
a “ a x ex ` a y ey ` a z ez ¨ ˛ ¨ ˛ ex a ` ˘˚ ‹ ` ˘ ˚ x‹ “ a x , a y , a z ˝ ey ‚ “ ex , ey , ez ˝ a y ‚ ez az “ aT e “ e T a
(3.23)
Dyadische Skalarprodukte von Basisvektoren treten häufig auf und stellen Gram’sche Matrizen dar, die im Abschnitt 5.5 näher erläutert werden. Als Beispiel soll eine Gram’sche Matrix aus Abschnitt 6.4.2 dienen, bei der bereits der formale Laufindex p#q eingesetzt wird.
g
#
¨ ˛ ˛ ¨ g1 g1 ¨ e1 g1 ¨ e2 g1 ¨ e3 ˘ ˘ ˚ ` ˚ ‹ ` ‹ ¨ eT “ ˝g2 ‚¨ e1 , e2 , e3 “ ˝ g2 ¨ e1 g2 ¨ e2 g2 ¨ e3 ‚ “ G g , e #
g2
g3 ¨ e1 g3 ¨ e2 g3 ¨ e3
Die folgende Beziehung ist ein weiteres Beispiel für ein formales Matrizenprodukt, wobei das Verknüpfungszeichen (˝) Skalar- oder Kreuzprodukt sowie ein tensorielles Produkt bedeuten kann. Der gesamte Ausdruck aus neun Summanden stellt dann einen Skalar, einen Vektor oder einen Tensor dar.
˛¨ ˛ ¨ v11 . . . v13 g1 ‹ ˚ ˚ “ ‰ ` ˘ .. .. ‹ ˚g ‹ ‹ pg qT ˝ V g “ g1 , g2 , g2 ˝ ˚ . . ‚˝ 2 ‚ ˝ # # v31 . . . v33 “
g3
v11 g1 ˝ g1 ` v12 g1 ˝ g2 ` v13 g1 ˝ g3 ` v21 g2 ˝ g1 ` v22 g2 ˝ g2 ` v23 g2 ˝ g3 ` v31 g3 ˝ g1 ` v32 g3 ˝ g2 ` v33 g3 ˝ g3
(3.24)
35
3.5 Spezielle Matrizen
3.5 3.5.1
Spezielle Matrizen Einheitsmatrix ¨ ˛ 1 0 ... 0 ˚0 1 . . . 0‹ ˚ ‹ T ´1 E “ En “ ˚. . . .. ‹ “ E “ E . . . ˝. . . .‚ 0 0 ... 1
(3.25)
Die quadratische Einheitsmatrix ist das Einselement der Matrizenrechnung und kann in Matrizenprodukten hinzugefügt oder weggelassen werden. (3.26)
AE “ EA “ A
3.5.2
Diagonalmatrizen
Sämtliche Elemente quadratischer Diagonalmatrizen außerhalb der Hauptdiagonale sind Null, so dass diese Matrizen stets symmetrisch sind. ˛ ¨ d1 0 . . . 0 ‹ ` ˘ ` ˘ ˚ ˚ 0 d2 . . . 0 ‹ D “ Diag dk “ Diag d1 , . . . , dn “ ˚ . “ DT (3.27) . . .. . . . .. ‹ ‚ ˝ .. 0
0
. . . dn
Für inverse Matrix und Matrixpotenzen gilt ` ˘ D´1 “ Diag 1{dk ` ˘ `a ˘ D p “ Diag dkp dk Ñ D1{2 “ Diag
(3.28)
Diagonalmatrizen sind vertauschbar und bei Produktbildung bleibt die diagonale Form erhalten. ` ˘ ` ˘ ` ˘ (3.29) D1 D2 “ D2 D1 “ Diag d1k Diag d2k “ Diag d1k d2k “ D Die Linksmultiplikation mit einer Diagonalmatrix bewirkt die Multiplikation der k-ten Zeile mit dk . ¨ ¨ ˛ ˛ d1 x1 d1 a11 . . . d1 a1n ˚ ˚ ‹ .. ‹ D x “ ˝ ... ‚ , D A “ ˝ ... (3.30) . ‚ dn xn dn an1 . . . dn ann
36
3 Beziehungen der Matrizenrechnung
Die Rechtsmultiplikation mit einer Diagonalmatrix bewirkt die Multiplikation der k-ten Spalte mit dk . ¨ ˛ a11 d1 . . . a1n dn ` ˘ ˚ .. ‹ (3.31) x T D “ d1 x1 , . . . , dn xn , A D “ ˝ ... . ‚ an1 d1 . . . ann dn Der Diagonalisierungsoperator Dg bewirkt, dass von einer Matrix nur die Elemente der Hauptdiagonale übrig bleiben. ¨ ˛ ¨ ˛ a11 . . . a1n a11 . . . 0 ` ˘ ˚ .. ‹ “ Diag `a ˘ .. ‹ “ ˚ .. .. .. Dg A “ Dg ˝ ... . . kk . ‚ . ‚ ˝ . an1 . . . ann 0 . . . ann ` ˘ Mit D “ Diag dk folgt weiterhin ` ˘ ` ˘ ` ˘ ` ˘ Dg A D “ Dg D A “ Dg A D “ D D g A
3.5.3
Orthogonale Matrizen
Orthogonale Matrizen sind quadratisch mit folgender Eigenschaft, A AT “ AT A “ E
Ñ
A´1 “ AT
(3.32)
so dass ihre Zeilen- wie auch ihre Spaltenvektoren ein System orthogonaler Einheitsvektoren bilden und inverse und transponierte Matrix übereinstimmen. ÿ ÿ ˘T ˘T ` ` a i# a k# “ a #i a #k “ aiμ akμ “ aμi aμk “ δik (3.33) μ
μ
Eine orthogonale Matrix ist stets nichtsingulär, da ihre Determinante nach dem Determinantensatz (3.46) existiert. Damit die identische Koordinatentransformation enthalten ist, muss die Determinante positiv sein. ˘2 ` Ñ det A “ `1 (3.34) det A “ 1 Damit folgt die besonders einfache Darstellung der inversen Matrix, A´1 “ AT “ A adj det A “ A adj Ø
`
AT
˘´1
˘T ` “ A´1 “ A
(3.35)
37
3.6 Spezielle Beziehungen ` ˘´1 wonach A ihrer kontragredienten Matrix AT gleich ist. Damit entsprechen alle Adjunkten den Elementen gemäß (3.21).
(3.36)
Aik “ aik
Orthogonale Transformationen stellen Abbildungen von skalaren Spaltenvektoren oder vektoriellen Basisvektoren durch orthogonale Matrizen dar. ˆ “ Ax , x
ˆ “ Ae e
(3.37)
Die Abbildung durch A bewirkt die Drehung orthogonaler Koordinatensysteme, bei der die Matrixelemente die Richtungscosinus zwischen den alten und den neuen Koordinatenachsen sind, in die die Komponenten ˆ zeigen. von e und e Bei einer solchen Orthogonaltransformation bleibt der Betrag der Spaltenvektoren erhalten, er ist eine Invariante, wodurch ein System orthogonaler Einheitsvektoren wieder in ein solches überführt wird. ¯´ ÿ ¯ ÿ ÿ ´ÿ ˆ“ ˆTx ˆ |2 “ x |x x ˆk2 “ akμ xμ akν xν k
k
“
ÿ ÿ
“
ÿ
μ
ν
xμ xν
ÿ
akμ akν k loooooomoooooon
μ
ν
x2 μ μ
“ x x “ | x |2
(3.38)
“ δμν nach (3.33) T
Das Produkt orthogonaler Matrizen A und B ist ebenfalls orthogonal, ` ˘` ˘T (3.39) A B A B “ A B BT A T “ E so dass orthogonale Transformationen zusammen mit den inversen Elementen und dem Einselement E eine Gruppe bilden.
3.6 3.6.1
Spezielle Beziehungen Distributivität und Assoziativität ` ˘ xT B ` C y “ xT B y ` xT C y ` ˘ A αB ` β C D “ αABD ` β ACD ` ˘ ` ˘ AB C “ A BC “ ABC
38
3.6.2
3 Beziehungen der Matrizenrechnung
Ausklammern ˘T ˛ ¨ ` ˘T ˛ c 1# x c 1# ˚ ‹ ˚ ‹ .. .. ˝ ‚“ ˝ ‚x “ Cx “ y . . ˘T ˘T ` ` c n# x c n# ¨`
`
˘ ` ˘ c T x 1 , . . . , c T x n “ c T x 1 , . . . , x n “ c T X “ zT
˛ a1 ˘˚ ‹ ` x “ a1 c1 ` . . . ` an cn “ c1 , . . . , cn ˝ ... ‚ “ C a an ¨
3.6.3
Blockmatrizen
Matrizen können beliebig in verkettbare Blöcke unterteilt werden, die dann Untermatrizen dieser Blockmatrix darstellen. Die Multiplikation erfolgt mit den Blöcken in der gleichen Weise wie mit Einzelelementen. Als Beispiel soll die Unterteilung eines Gleichungssystems dienen, ˛¨ ˛ ¨ ˛ ¨ ˛ .. x z Ax ` β b . b A ‹˝ ‚ ˝ ˚ ‚ ˝ ˝ ¨ ¨ ¨ ¨ ¨ ¨ ¨‚ ¨ ¨ ¨ “ ¨ ¨ ¨ ¨ ¨ ¨ ¨ ¨ ¨ ¨ ¨ “ ¨ ¨ ¨‚ . β cT x ` α β γ cT .. α ¨
(3.40)
dem die beiden folgenden Matrixgleichungen äquivalent sind. Ax ` β b “ z cT x ` α β “ γ Mit dieser Methode wird die Kehrmatrix der folgenden speziellen Blockmatrix berechnet. ¨ ˚A ˝¨¨¨ 0T
˛´1 ¨ .. ´1 . b‹ 1 ˚ αA ¨ ¨ ¨ ¨‚ “ α ˝ ¨ ¨ ¨ ¨ ¨ ¨ .. 0T . α
˛ .. . ´ A´1 b‹ ¨ ¨ ¨ ¨ ¨ ¨ ¨ ¨ ¨‚ .. . 1
(3.41)
39
3.6 Spezielle Beziehungen
3.6.4
Transponierung und Inversion ˘T A B “ BT A T ` T ˘´1 ` ´1 ˘T “ A A `
A A´1 “ A´1 A “ E ` ˘´1 “ B´1 A´1 AB
3.6.5
Determinante und Spur für n ˆ n -Matrizen det E “ 1 det AT “ det A ` ˘ det α A “ αn det A det A´1 “ 1{ det A ` ˘n´1 det A adj “ det A
3.6.6
(3.42)
sp E “ n sp AT “ sp A ` ˘ sp α A “ α sp A ` ˘ ` ˘ sp A B “ sp B A ` ˘ sp A B A´1 “ sp B
(3.43)
Laplace’scher Entwicklungssatz
Die Determinante quadratischer Matrizen wird dargestellt durch die Entwicklung nach der i-ten Zeile oder der k-ten Spalte. a11 . . . a1n .. “ ÿ a A “ ÿ a A .. det A “ ... (3.44) ip ip . pk pk . p p an1 . . . ann Dabei sind die Größen Aip bzw. Apk die algebraischen Komplemente (3.20) der Elemente aip bzw. apk der Matrix A.
3.6.7
Additions- und Determinantensatz
Eine Determinante, deren Elemente aus Summanden bestehen, kann in Einzeldeterminanten zerlegt oder bei gleichem Hauptminor verändert werden.
40
3 Beziehungen der Matrizenrechnung
In den einfachsten Fällen gilt nach Additions- und Entwicklungssatz a11 a12 ` λ b12 “ a11 a12 ` λ a11 b12 a21 a22 ` λ b22 a21 a22 a21 b22 a11 a12 a13 a21 a22 a23 a31 a32 A
a11 ´ a21 b31 a11 “ a21 a31
a12 b13 a22 b23 b32 B
a12 a13 a22 a23 a32 A ´ B
(3.45) a11 a12 b13 ´ a21 a22 b23 b31 b32 0
Für quadratische Matrizen lautet der Determinantensatz ` ˘ det A B “ det A det B
(3.46)
Das Produkt verkettbarer Rechteckmatrizen der Formate pm ˆ nq und pn ˆ mq liefert quadratische pm ˆ mq- bzw. pn ˆ nq-Matrizen, für die man die Determinanten bilden kann. Im Fall m ă n folgt unter Anwendung des Additionssatzes im einfachsten Fall nach Zwischenrechnung ¨ ˛fi » ˙ b11 b12 ˆ ` ˘ a11 a12 a13 ˝ b21 b22 ‚fl det A B “ det – a21 a22 a23 b31 b32 a11 a12 b11 b12 a11 a13 b11 b12 ` (3.47) “ a21 a22 b21 b22 a21 a23 b31 b32 a12 a13 b21 b22 ` a22 a23 b31 b32 Beim Tausch der Rechteckmatrizen und damit für den Fall m ą n erhält man eine andere Produktmatrix, deren Determinante Null ist, denn die Matrix B A ändert sich nicht, wenn man die Einzelmatrizen durch Nullen rändert. Nach dem Determinantensatz folgt dann mit verschwindenden Einzeldeterminanten ˛¨ ˛fi »¨ a11 a12 a13 b11 b12 0 ` ˘ ` ˘ ˜A ˜ “ det –˝ b21 b22 0 ‚ ˝ a21 a22 a23 ‚fl det B A “ det B 0 0 0 b31 b32 0 ˜ “ 0 ˜ det A “ det B
41
3.6 Spezielle Beziehungen
3.6.8
Differentiation von Matrizen
Hängen eine Matrix und damit ihre Elemente von einer Variablen t ab, so gelten folgende Ableitungsregeln. ˛ ¨ da11 {dt . . . da1n {dt ‰ ˚ d “ ‹ .. .. Aptq “ ˝ ‚ . . dt dan1 {dt . . . dann {dt ‰ d “ Aptq ` Bptq “ dt ‰ d “ Aptq Bptq “ dt ‰ d “ Aptq ¨ Bptq “ dt ‰ d “ Aptq ˆ Bptq “ dt
3.6.9
dA dB ` dt dt dB dA B ` A dt dt dA dB ¨B ` A¨ dt dt dB dA ˆB ` Aˆ dt dt
(3.48)
Ableitung von Determinanten
Die Ableitung einer Determinante det A nach einem ihrer Elemente entspricht nach dem Laplace’schen Entwicklungssatz (3.44) dem algebraischen Komplement Aik dieses Elementes, das nach (3.21) durch das Element aki der zu A inversen Matrix A´1 ausgedrückt werden kann. B det A “ Aik “ aki det A Baik ` ˘ B B 1 ln det A “ det A “ aki Baik det A Baik
(3.49)
Wenn die Elemente der 2 ˆ 2-Matrix A von den Koordinaten u abhängen, dann gilt für die Ableitung der Determinante nach u B B a11 a12 a11 a12 “ det A “ Bu Bu a21 a22 a21 a22 , “ a11 , a22 ` a11 a22 , ´ a12 , a21 ´ a12 a21 , a11 , a12 , a11 a12 “ ` a21 a22 a21 , a22 ,
42
3 Beziehungen der Matrizenrechnung
Für eine 3ˆ3-Matrix erhält man nach dem Laplace’schen Entwicklungssatz mit den algebraischen Komplementen Aik nach (3.20) entsprechend ` ` ` ˘ ˘ ˘ B det A “ a A ´ a A ` a A 11 11 12 12 13 13 , , , Bu a11 , a12 , a13 , a11 a12 a13 a22 a23 ` a21 , a22 , a23 , “ a21 a31 a32 a33 a31 a32 a33 a11 a12 a13 a22 a23 ` a21 a31 , a32 , a33 , “
ÿ3 ÿ3 i“1
k“1
Aik aik ,
Mit Aik nach (3.49) erhält man für die Ableitung der Determinante nach den Koordinaten ÿ3 ÿ3 ˘ ` B det A “ det A “ det A aki aik , , i“1 k“1 Bu ` ˘ ˘ ÿ3 ÿ3 B B ` 1 ln det A aki aik , “ det A “ i“1 k“1 det A Bu Bu
3.7 3.7.1
Summen als Matrizenprodukte Einfache Summe
Skalarprodukt ¨ ˛ b1 ` ˘˚ . ‹ ak bk “ a1 , . . . , an ˝ .. ‚ “ aT b S“ k“1 bn n ÿ
Polynom ¨
˛ 1 n ‹ ÿ ` ˘˚ ˚x‹ P pxq “ a k x k “ a 0 , . . . , a n ˚ . ‹ “ aT x n ˝ .. ‚ k“0
xn
(3.50)
43
3.7 Summen als Matrizenprodukte
Vektor a“
3 ÿ
` ˘T ak gk “ a1 g1 ` a2 g2 ` a3 g3 “ a# g
k“1
#
` ˘T # a “ g #
(3.51)
Diese beiden formalen Skalarproduktdarstellungen für Vektoren mit dem allgemeinem Laufindex p#q und entgegengesetzter Stellung der Indizes werden im Kapitel 6 erörtert und kommen von da an ständig vor.
3.7.2
Doppelsummen
Algebraische Doppelsumme
S“
n ÿ i“1
ai
n ÿ
bk “
n ÿ
n ÿ
i“1 k“1
k“1
¨ ˛ 1 ... 1 ˚ ‹ ai bk “ aT I b “ aT ˝ ... . . . ... ‚ b 1 ... 1
Tritt eine Matrix T mit beliebigen Elementen an die Stelle der Eins-Matrix I, dann lautet die Doppelsumme ¨ ˛ T11 . . . T1n n n ÿ ÿ ˚ .. ‹ b S“ Tik ai bk “ aT T b “ aT ˝ ... (3.52) . ‚ i“1 k“1 Tn1 . . . Tnn Symmetrisch-alternierender Sonderfall S“
n ÿ n ÿ
(3.53)
aik gik “ 0
i“1 k“1
für G “ GT , und A “ ´ AT ,
mit gik “ gki
psymmetrischq
mit aik “ ´ aki
palternierendq
Bilineare und quadratische Form Die bilineare Form entspricht der Doppelsumme (3.52). S“
n ÿ n ÿ i“1 k“1
aik xi yk “ xT A y “ yT AT x
(3.54)
44
3 Beziehungen der Matrizenrechnung
Die quadratische Form (Abschnitt 12.4) geht aus der bilinearen Form bei identischen Spaltenvektoren x “ y hervor.
Q“
n ÿ n ÿ
aik xi xk “ xT A x “ xT AT x
(3.55)
i“1 k“1
Ist A ” D eine Diagonalmatrix, so besteht die quadratische Form Q aus einer Summe von Quadraten. Tensor 2. Stufe Der Tensor T wird in Kapitel 9 ausführlich erörtert, hier geht es lediglich um die Darstellung von Doppelsumme und formalem Matrizenprodukt, wobei die Reihenfolge der Basisvektoren gi und gk nicht vertauscht werden darf!
T “
3 ÿ 3 ÿ
Tik gi gk “
i“1 k“1
3 ” ÿ 3 ÿ i“1
¨
ı Tik gi gk
k“1
T11 T12 T13
˘˚ ` “ g1 , g2 , g3 ˝ T21 T22 T23 T31 T32 T33
˛¨ ˛ g1 ‹ ˝ 2 ‚ ` # ˘T T ## g# “ g ‚ g 3 g
(3.56)
Die Matrixdarstellung des Tensors hat die formale Gestalt einer quadratischen Form, allerdings mit vektoriellen Elementen in Zeilen- und Spaltenvektor und deshalb mit doppelter Unterstreichung der Basisvektoren, die nichtkommutative tensorielle Produkte bilden, bei denen die Reihenfolge entscheidend ist.
3.7.3
vec-Operator
Der vec-Operator verwandelt eine Matrix spaltenweise in einen Spaltenvektor wie bei den kyrillischen Buchstaben „ I“ bzw. „ I ... I“. Im einfachsten Fall gilt dann folgende Darstellung, wobei die Elemente der
45
3.7 Summen als Matrizenprodukte
Matrix Skalare, Vektoren oder Tensoren sein können. ˆ
a11 a12 a21 a22
` ˘ vec A “ vec
“
˜
˙ “
. .. .. Õ ... .. Õ ..
¸
¨ ˛ a11 ˚a21 ‹ ‹ “˚ ˝a12 ‚ a22
(3.57)
` ˘ ‰T ` ˘ vec A “ a11 a21 a12 a22
Mit dem vec-Operator können bilineare und quadratische Formen umgewandelt werden. Der Operator ist also anwendbar, wenn als Ergebnis eine einzelne Größe aber keine Matrix resultiert wie man an den folgenden Beispielen sehen kann. ` ˘ ‰T “ ‰ “ xT A y “ vec A vec x yT ` `
du
g#
˘T
˘ # T
¨# T# g
H ##
#
“ ` ¨ # ˘ ‰T “ ` ˘T ‰ “ vec T # vec g# g #
“ ` ˘T ‰ ` ˘ ‰T vec du# du# du# “ vec H “
(3.58)
˘ ` ˘ ” ` ˘ıT ` ˘ ” ` ˘ıT ` ˘ ` vec B “ vec B vec AT sp A B “ sp B A “ vec AT ” ` ˘ıT ` ˘ ” ` ˘ıT ` ˘ “ vec BT vec A “ vec A vec BT Im anschließenden Beispiel entsteht beim Skalarprodukt anstelle des tensoriellen Produktes wegen der Reziprozität (6.12) der Basisvektoren ein Skalar und zwar die Spur der Tensormatrix. `
g#
˘T
¨# ¨ T# g
#
` ˘T ‰ “ ` ¨ # ˘ ‰T “ “ vec T # vec g# ¨ g #
“
`
¨ # ˘ ‰T
“ vec T # ¨# “ sp T #
` ˘ vec E
46
3.8 3.8.1
3 Beziehungen der Matrizenrechnung
Erweiterung der Matrixmultiplikation Höhere Matrizen
Bei Matrizen der Ordnung p und der Dimension n handelt es sich um Koeffizientenschemata mit np Einzelelementen in spezieller blockweiser Anordnung. Für die Parameter kann sowohl p ď n als auch p ě n gelten. p gibt die Anzahl der Indizes bzw. der Doppelkreuze # als formale Laufindizes an. Die auftretenden Untermatrizen oder Blöcke sind jeweils vom Format n ˆ n. Bei p “ 2 hat man normale n ˆ n-Matrizen. Bei p “ 3 kann man die drei n ˆ n-Matrizen entweder nebeneinander oder in Kubusform mit 3 Schichten wie in Abbildung 3.5 anordnen. Für p “ 3 und p “ 4 werden Blockmatrizen mit Doppelbalken dargestellt, deren einzelne Blöcke aus zweidimensionalen Untermatrizen bestehen. Die formalen Laufsymbole für individuelle, feste Indizes werden geklammert.
k=1 k=2 k=3
(a ij3 )
A ##1
A ##2
A ##3
Abb. 3.5: Graphische Darstellung einer Matrix 3. Ordnung Bei zwei Doppelkreuzen als formale Laufindizes (##) bezeichnet das erste die Zeile, das zweite die Spalte der entsprechenden Untermatrix. Je nachdem, welche der Indizes laufen (#) und welche fest sind p1, 2, ..q, muss ggf. eine unterschiedliche Vorgehensweise bei der unten erläuterten Matrixmultiplikation erfolgen. Für kleine Werte von Ordnung p und Dimension n werden die Blockmatrizen angegeben, wobei die geklammerten Laufindizes # die einzelnen
47
3.8 Erweiterung der Matrixmultiplikation
Untermatrizen bezeichnen. p“2{n“3
Matrix mit insgesamt 9 Elementen
p“2{n“4
Matrix mit insgesamt 16 Elementen
p“3{n“3
Blockmatrix mit insgesamt 27 Elementen
p“3{n“4
Blockmatrix mit insgesamt 48 Elementen “ A ##1 , A ##2 , A ##3
A ## p#q p“4{n“2 A p#q ## p#q
B ## p##q
p“4{n“3
A p#q ## p#q
Blockmatrix mit insgesamt 16 Elementen A 1##1 , A 1##2 “ A 2##1 , A 2##2 B , B , ##11 ##12 “ B ##21 , B ##22 , Blockmatrix mit insgesamt 81 Elementen A 1##1 , A 1##2 , A 1##3 “ A 2##1 , A 2##2 , A 2##3 A , A , A 3##1
B ## p##q
(3.59)
3##2
3##3
B ##11 , B ##12 , B ##13 “ B ##21 , B ##22 , B ##23 B ##31 , B ##32 , B ##33
(3.60)
48
3 Beziehungen der Matrizenrechnung
p“4{n“4
A p#q ## p#q
B ## p##q
Blockmatrix mit insgesamt 256 A 1##1 , A 1##2 , A 1##3 , A 2##1 , A 2##2 , A 2##3 , “ A 3##1 , A 3##2 , A 3##3 , A 4##1 , A 4##2 , A 4##3 , B ##11 , B ##21 , “ B ##31 , B ##41 ,
Elementen A 1##4 A 2##4 A 3##4 A 4##4
B ##12 , B ##13 , B ##14 B ##22 , B ##23 , B ##24 B ##32 , B ##33 , B ##34 B , B , B ##42
##43
(3.61)
##44
Bei Blockmatrizen können die Blöcke der Untermatrizen auch in transponierter Form auftreten wie z.B. im Fall p “ 3.
´ A ## p#q
¯T
A ##1 › ›T › › “ › A ##1 , A ##2 , A ##3 › “ A ##2 A ##3
3.8.2
(3.62)
Tensoren 3. und 4. Stufe
Auf diese Tensoren wird in Kapitel 10 und im Abschnitt 11.5 näher eingegangen. Die Tensorstufe entspricht der Ordnung p der Blockmatrix. Als Beispiele gelten folgende Summendarstellungen mit nicht vertauschbarer Reihenfolge der Basisvektoren g , die tensorielle Produkte bilden und deshalb ohne Verknüpfungszeichen nebeneinander stehen. Tp3q “
n ÿ n ÿ n ÿ
Tijk gi gj gk
i“1 j“1 k“1
Tp4q “
n n ÿ n ÿ n ÿ ÿ i“1 j“1 p“1 q“1
Tijpq gi gj gp gq
49
3.8 Erweiterung der Matrixmultiplikation
Für die erweiterte Matrixmultiplikation wird eine spezielle Schreibweise bei höherstufigen Tensoren mit den Komponentenmatrizen
T ## p#q
sowie
T p#q ## p#q , T p##q ##
und T ## p##q
mit spitzen Klammern und Verknüpfungssymbol (˝) definiert, bei der die Reihenfolge der Spaltenvektoren g# mit derjenigen der Indexsymbole p#q der Tensormatrizen und damit der Einzelvektoren g in den Summendarstellungen der Tensoren übereinstimmen muss. ` ˘T Tp3q “ g# T ## p#q ˝ g# g# ` ˘T “ g# Y p3q g# Tp4q “ g `
˘ # T
`
` ˘T “ g# Y
g
˘ # T
p4q
˝ T p#q ## p#q ˝ g
#
(3.63)
g
#
g#
Im ersten Multiplikationsschritt wird zunächst das Matrizenprodukt in spitzen Klammern ausgeführt, wobei das Verknüpfungssymbol (˝) bedeutet, dass die Untermatrizen von T ## p#q und T p#q ## p#q hierbei einzeln mit den zugehörigen inneren Spaltenvektoren g# multipliziert werden sollen. Beim Tensor 3. Stufe erhält die n ˆ n -Matrix Y p3q doppelte Unterstreichung, denn für n “ 3 stellt jedes der 9 Elemente einen Vektor dar. Y p3q “
T ## p#q ˝ g#
› › › › “ › T ## 1 , T ## 2 , T ## 3 › ˝ g# ´ ¯ “ T ## 1 g# , T ## 2 g# , T ## 3 g#
50
3 Beziehungen der Matrizenrechnung
Y p3q
›¨ ˛ ¨ 1˛ › T111 T121 T131 g › ›˚ ‹ ˚ 2‹ “ › ˝T211 T221 T231 ‚˝g ‚ , › › T g3 311 T321 T331 ˛ ¨ 1˛ ¨ g T112 T122 T132 ‹ ˚ 2‹ ˚ ˝T212 T222 T232 ‚˝g ‚ , T312 T322 T332
g3
˛ ¨ 1˛ ¨ g T113 T123 T133 ‹ ˚ 2‹ ˚ ˝T213 T223 T233 ‚˝g ‚ T313 T323 T333
g3
› › › › › › ›
Als Beispiel wird der Vektor in Zeile 2 und Spalte 1 angegeben. yp3q21 “ T211 g1 ` T221 g2 ` T231 g3 Beim Tensor 4. Stufe muss man unterscheiden, ob sich die laufenden Matrixindizes p#q innen pT i ## k q oder an der Seite pT ## ik q befinden. Im ersten Fall gilt für die n ˆ n -Matrix Y Y
p4q
“
`
g#
˘T
˝ T p#q ## p#q ˝ g#
T 1##1 , ` # ˘T T 2##1 , “ g ˝ T 3##1 , T 4##1 ,
p4q
wie in (3.63) angegeben
T 1##2 , T 1##3 , T 1##4 T 2##2 , T 2##3 , T 2##4 ˝ g# T 3##2 , T 3##3 , T 3##4 T , T , T 4##2
4##3
4##4
3.8 Erweiterung der Matrixmultiplikation
51
Die Matrix erhält dreifache Unterstreichung, da bei n “ 4 jedes ihrer 16 Elemente ein Tensor 2. Stufe mit 16 Summanden ist, z.B. ` ˘T yp4q21 “ g# T 2 ## 1 g# T2111 g1 g1 ` T2121 g1 g2 ` T2131 g1 g3 ` T2141 g1 g4
“
` T2211 g2 g1 ` T2221 g2 g2 ` T2231 g2 g3 ` T2241 g2 g4 ` T2311 g3 g1 ` T2321 g3 g2 ` T2331 g3 g3 ` T2341 g3 g4 ` T2411 g4 g1 ` T2421 g4 g2 ` T2431 g4 g3 ` T2441 g4 g4 Im zweiten Multiplikationsschritt entstehen durch die anschließende formale Matrixmultiplikation daraus Tensoren 3. bzw. 4. Stufe mit 27 bzw. 256 Gliedern, ` ˘T T p3q “ g# Y p3q g# ` ˘T T p4q “ g# Y
p4q
g#
wobei bei jedem Summanden zwei Basisvektoren unter Wahrung der Reihenfolge tensoriell hinzutreten. Beim Tensor 4. Stufe wird in den Fällen T ik ## und T ## ik der vecOperator gemäß Beispiel (3.58) verwendet, mit dem der Tensor im zweiten Fall folgendermaßen dargestellt werden kann. $ , T C G/T ’ . . . T ## 14 ## 11 & . ” ` ˘T ‰ ` # ˘T # .. .. ˝ g ˝ vec g# g# Tp4q “ vec g . . ’ / % T ## 41 . . . T ## 44 ˆ “
`
g#
˘T
` ˘T T ## 11 g# , g# T ## 21 g# , . . .
˛ ¨ g1 g1 ‹ ˚ ˙ ˚g2 g1 ‹ ˚ ˘ ` ` # ˘T T . ‹ ‹ T ## 34 g# , g# T ## 44 g# ˚ ... , g ˚ .. ‹ (3.64) ˚ 3 4‹ ˝g g ‚ g4 g4
52
3 Beziehungen der Matrizenrechnung
Nach Ausführung der Multiplikation von Zeile mal Spalte ist in allen Summanden die richtige Reihenfolge von Basisvektoren und Indizes gewährleistet.
3.9
Grenzen der Berechnung mit Matrizen
Es muss erwähnt werden, dass es Situationen gibt, in denen man bei der Darstellung und Berechnung mit Matrizen nicht zum Ziel kommt. Der Grund liegt darin, dass zwei Arten von Nichtkommutativität existieren, die bei bestimmten Konstellationen gemeinsam auftreten. Matrizenprodukte sind nach (3.9) nichtkommutativ mit Ausnahme des Skalarproduktes (3.5) aus Zeilen- und Spaltenvektor. Da in den bereits erwähnten tensoriellen Produkten, die aber erst in den Kapiteln 9 und 10 näher betrachtet werden, die Reihenfolge der beteiligten Vektoren oder Tensoren nicht geändert werden darf, liegt eine zweite Nichtvertauschbarkeit vor. Vereinzelt treffen beide Operationen gemeinsam auf wie bei der Ableitung von Produkten mit dem Differentialoperator Nabla im folgenden Beispiel aus dem Kapitel 17. ∇#
“ ` ˘T ## T g g #
‰ #
Der Ableitungsoperator muss nach der Produktregel auf jeden einzelnen Faktor angewendet werden. Da aber weder die Reihenfolge der Matrizen noch die der Basisvektoren g verändert werden darf, entsteht eine in dieser Form #
unlösbare Situation und man ist gezwungen, die Operation elementweise durchzuführen.
Literatur [1] Schmeidler, W.: Vorträge über Determinanten und Matrizen Akademie-Verlag, Berlin (1949) [2] Schwarz, H. R., Rutishauser, H., Stiefel, E.: Numerik symmetrischer Matrizen B. G. Teubner, Stuttgart (1972) [3] Voigt, C., Adamy, J.: Formelsammlung der Matrizenrechnung Oldenbourg Verlag, München, Wien (2007) [4] Zurmühl, R.: Matrizen Springer Verlag, Berlin, Göttingen, Heidelberg, 4. Aufl. (1964) [5] Zurmühl, R., Falk, S.: Matrizen und ihre Anwendungen, Grundlagen Springer Verlag, Berlin, Heidelberg, New York, Tokyo, 5. Aufl. (1984)
53
Kapitel 4
Physikalische Größen und Felder Zusammenfassung Das Kapitel ist der Bedeutung der physikalischen Größen und Felder in koordinatenfreier und -gebundener Form gewidmet und geht auf die Transformation der Komponenten ein.
4.1
Zielsetzung der Physik
Die Physik ist vom Prinzip her eine beschreibende Wissenschaft, die Aussagen darüber trifft wie Dinge geschehen, aber nicht warum. Dennoch ist durch die Fülle der Erfahrungen und physikalischen Erkenntnisse ein Schatz an Erklärungen von Ursachen entstanden, der in der Antike mit den Griechen begann. Seit Galilei versetzt uns das in mathematisierter Form in die Lage, in logischer und kausaler Weise Phänomene zu verstehen und zu beschreiben, zu erzeugen oder zu beeinflussen, die das Leben des Einzelnen und der Gemeinschaften in vielfältiger Weise gestalten und heute in immer rasanterer Form verändern und erweitern. Eigenschaften der physikalischen Realität werden durch Größen verschiedenen Charakters dargestellt, die im dreidimensionalen euklidischen Raum in einem Koordinatensystem durch ihre Komponenten beschrieben werden. 54 © Springer Fachmedien Wiesbaden GmbH, ein Teil von Springer Nature 2019 W. Werner, Vektoren und Tensoren als universelle Sprache in Physik und Technik 1, https://doi.org/10.1007/978-3-658-25272-4_4
4.1 Zielsetzung der Physik
55
• Skalare sind physikalische Größen, die durch eine dimensionsbehaftete Zahl gekennzeichnet werden, wie Temperatur, Potential, Energie. Als Zahl oder Wert ist eine skalare Größe von sich aus eine Invariante. • Vektoren sind physikalische Größen, die durch Betrag und Richtung im Raum festgelegt sind, wie Kraft, Geschwindigkeit oder Feldstärke. Bei Bezug auf ein Koordinatensystem sind hierfür drei skalare Werte erforderlich. • Tensoren 2. Stufe sind physikalische Größen, die als Operatoren Vektoren in andere verwandeln oder abbilden und die im dreidimensionalen Raum durch neun skalare Werte gekennzeichnet werden. Alle Größenarten sind Ausdruck verschiedener physikalischer Phänomene, die unabhängig von einem beliebig wählbaren Koordinatensystem Bedeutung haben. Man spricht deshalb bei ihnen von unveränderlichen Größen oder physikalischen Invarianten und nennt diese Eigenschaft Forminvarianz oder auch Kovarianz gegenüber Koordinatentransformationen. Physikalische Gesetze, die zur Beschreibung der realen Welt formuliert werden, stellen korrekte Verknüpfungen von Größen dar, wenn sie durch Experimente gesichert sind. Das Ziel der Physik besteht darin, diese Gesetze anhand von geeigneten Experimenten und Versuchsanordnungen unter gegebenen Bedingungen aufzufinden und mathematisch so zu formulieren, dass sie unabhängig von einem speziell gewählten Koordinatensystem sind. Die Kovarianz physikalischer Gesetze ist eine Eigenschaft von Funktionen oder Komponenten als abhängige Größen, wenn man die Koordinaten transformiert, die die unabhängigen Variablen darstellen. Erfüllen die neuen Funktionen der neuen Variablen nach einer Koordinatentransformation Gleichungen derselben Form wie die alten Funktionen der alten Variablen, dann liegt eine Kovarianz der Gleichungen vor. Eine allgemeingültige, koordinatenunabhängige Darstellung wird kovariante Formulierung der Naturgesetze genannt. • In der klassischen Mechanik heißt kovariante Formulierung die Invarianz der Naturgesetze gegenüber Galilei-Transformation • In Relativitätstheorie und Elektrodynamik heißt kovariante Formulierung die Invarianz der Naturgesetze gegenüber Lorentz-Transformation
56
4 Physikalische Größen und Felder
Beide Transformationen werden in den Anwendungen im zweiten Band ausführlich behandelt.
4.2
Transformation physikalischer Größen
Um die verschiedenen Größen näher zu beschreiben und um die physikalischen Gesetze zur Lösung konkreter Aufgabenstellungen anzuwenden, benötigt man Koordinatensysteme als Basis, in denen man die Größen zerlegen und ihre Komponenten in den verschiedenen Koordinatenrichtungen angeben kann. Vektoren und Tensoren sind als physikalische Invarianten unabhängig von beliebig wählbaren Koordinatensystemen. So ist die Geschwindigkeit eines Fahrzeugs nach Betrag und Richtung eine physikalische Größe an sich, die nicht davon abhängt, von welchem Standort der Bewegungsvorgang betrachtet und in welchem Koordinatensystem er beschrieben wird. Zerlegt man dagegen physikalische Größen in einem Koordinatensystem in ihre Komponenten in Richtung der Koordinatenachsen, so fällt das Ergebnis entsprechend der Wahl des Bezugssystems jeweils anders aus. Jeder Vektor oder Tensor hat auf Grund der unbegrenzten Vielfalt von Koordinatensystemen entsprechend viele Darstellungen durch Komponenten. Da bei jeder Wahl eines Systems die Komponenten andere Werte aufweisen, besteht eine wichtige Aufgabe deshalb darin, Beziehungen abzuleiten, die die Komponentenänderungen bei Basiswechsel beschreiben. Die Transformationstheorie, die ausgeht von der Invarianz der physikalischen Größen, ist damit eine Theorie über die Gesetze der Transformation der Komponenten. Besonders diese Transformationseigenschaften beim Wechsel der Koordinatensysteme sind Gegenstand der Tensorrechnung, die die Vektorrechnung als speziellen Fall umfasst. Sie begründen geradezu die Definition von Tensoren, wobei die Darstellung mit entsprechenden Transformationsmatrizen den Vorteil großer Übersichtlichkeit bietet. Auf Grund der aufgefundenen und daher dann bekannten Transformationsgesetze der Komponenten kann man in konkreten Fällen immer prüfen, ob eine Größe bei Basiswechsel diese Gesetze erfüllt und damit einen Vektor oder Tensor darstellt oder nicht.
4.3 Physikalische Felder
4.3 4.3.1
57
Physikalische Felder Der Begriff des Feldes
Ein physikalisches Feld beschreibt den Zustand des Raumes, der entweder als Vakuum leer oder mit Materie erfüllt sein kann. Der Raumzustand wird durch Feldgrößen charakterisiert, die die Feldeigenschaften in jedem Raum- und Zeitpunkt angeben und damit Orts- und Zeitfunktionen darstellen. Bei Kraft- oder Geschwindigkeitsfeldern kann man z.B. in jedem Raumpunkt den Zeitverlauf der entsprechenden Vektoren nach Betrag und Richtung angeben. In der phänomenologischen physikalischen Erfahrungswelt außerhalb von Quantentheorie und Mikrophysik sind Werte und Änderungen von Feldgrößen stetige Raumfunktionen. Unstetigkeiten können nur in besonderen Punkten oder auf bestimmten Linien oder Flächen auftreten, die durch besondere Randbedingungen physikalisch erfasst werden müssen. Felder werden durch bestimmte Quellen erzeugt und können durch ihre Wirkungen wie Kräfte, Momente oder Energieänderungen auf geeignete Test- oder Probekörper wie Masseteilchen, Probeladungen, Stromschleifen etc. nachgewiesen werden. Dabei unterstellt man, dass diese Probekörper so klein sind, dass sie als Sonden zwar zu Nachweis und Untersuchung der Felder dienen, diese aber nicht als zusätzliche Quellen verändern. Die Feldvorstellung geht zurück auf Michael Faraday (1791-1867), der als einer der größten Experimentatoren angesehen wird. Die zu seiner Zeit neuartige physikalische Betrachtungsweise des ganz von Kraftlinien durchdrungenen Raumes leitete eine völlig neue Epoche naturwissenschaftlichen Denkens ein, bei der der Spannungszustand des Raumes, den Faraday Feld nannte, seine Wirkung als Nah- oder Feldwirkung in endlicher Zeit von Ort zu Ort übermittelt und damit eine raumzeitliche Ausbreitung der elektromagnetischen Erscheinungen bewirkt. Damit wurden die bis dahin allein gültigen Vorstellungen der Fernwirkung in Frage gestellt, bei der physikalische Phänomene unmittelbar ohne Zeitverzug über beliebige Entfernungen hinweg ihre Wirkung entfalten wie bei den Gesetzen von Newton oder Coulomb, und durch neue Erkenntnisse und Einsichten ergänzt bzw. ersetzt. Vielleicht war es für die Fülle von Faradays Experimenten, sein intuitives Erkennen der Zusammenhänge und die Entwicklung seines neuen Feldbegriffs von Vorteil, dass er keine reguläre akademische Ausbildung be-
58
4 Physikalische Größen und Felder
saß, sondern als Autodidakt seinen eigenen anschaulichen Vorstellungen von Raum, Zeit und Kraft folgen konnte. James Clerk Maxwell (1831-1879), der als 40 Jahre jüngerer Bewunderer von Faraday diese Vermutung äußerte, gab dessen experimentellen Ergebnissen die angemessene, präzise mathematische Gestalt in Form seiner Maxwell’schen Gleichungen, die ausführlich im zweiten Band dargelegt und untersucht werden.
4.3.2
Beispiele für Felder und ihre Darstellungen
Je nach dem physikalischen Charakter der Feldgrößen unterscheidet man folgende Feldtypen mit Angabe einiger Beispiele, bei denen im statischen oder stationären Fall die Abhängigkeit von der Zeit t entfällt. Die erwähnten Vektoren und Tensoren werden in den Anwendungskapiteln erläutert. • Skalarfelder Temperaturfeld ϑ px, y, z, tq Potentialfeld V px, y, z, tq Gravitationspotential φ px, y, zq Darstellung durch Niveau- oder Höhenlinien der Flächen zweier Variabler in Form von Isothermen bzw. Äquipotentiallinien der Gradient eines Potentialfeldes stellt ein Vektorfeld dar • Vektorfelder Strömungs- oder Geschwindigkeitsfeld v px, y, z, tq elektrostatisches Feld E px, y, zq “ ´ grad V px, y, zq Darstellung durch Strom- oder Feldlinien, deren Tangenten die Richtung des Feldvektors angeben und deren Dichte seinem Betrag proportional ist • Tensorfelder
_
px, y, zq Drehimpuls L px, y, zq “ Θ ¨ ω wird bei Drehbewegungen der Rotationsvektor ω _ durch den Trägheitstensor Θ in den Vektor L abgebildet dielektrische Verschiebung D px, y, zq “ ε ¨ E px, y, zq in anisotropen Raumgebieten wie Kristallen bewirkt
4.3 Physikalische Felder
der Dielektrizitätstensor ε die Doppelbrechung Induktion B px, y, zq “ μ ¨ H px, y, zq in vormagnetisierten Ferriten bewirkt der Permeabilitätstensor μ die Faraday-Drehung
59
Teil II
Vektorrechnung
61
Kapitel 5
Vektorbeziehungen Zusammenfassung Nach den grundlegenden Vektoreigenschaften werden Mehrfachprodukte, Vektorzerlegung und Gram’sche Matrizen behandelt. Polare und axiale Vektoren werden dargestellt, wobei der axiale Vektor beim Kreuzprodukt unter zusätzlicher Festlegung der Rechtsschraubenregel entsteht. Beide Vektorarten werden in ihren Verknüpfungen und an Beispielen aus der Physik angegeben. Bei der Behandlung der Ableitung von Vektoren wird auf die Bewegung auf Bahnkurven, Relativbewegungen und auf die Grundgrößen von Raumkurven als Anwendungsbeispiele eingegangen. Abschließend wird die Integration von Vektorfunktionen behandelt, die in jeder Koordinatenrichtung unter Einbeziehung krummliniger Einheitsvektoren durchgeführt werden muss.
5.1
Grundlegende Eigenschaften von Vektoren
Der moderne Vektorbegriff und die heutige Vektoranalysis wurden durch zwei Naturforscher begründet, [2]. Der eine ist Josiah Willard Gibbs (1839 -1903), der sein Buch Elements of Vector Analysis in den Jahren 1881/84 publizierte. Der andere Wegbereiter der Vektorrechnung ist Oliver Heaviside (1850 -1925), [9], der ab 1882 sein vektorielles System in seinen Abhandlungen der elektromagnetischen Erscheinungen 1 verwende1
Heaviside, Electrical Papers, 1892
63 © Springer Fachmedien Wiesbaden GmbH, ein Teil von Springer Nature 2019 W. Werner, Vektoren und Tensoren als universelle Sprache in Physik und Technik 1, https://doi.org/10.1007/978-3-658-25272-4_5
64
5 Vektorbeziehungen
te und durch Anwendung auf die Maxwell’sche Theorie 2 dieser die heutige Form gab, sie vereinfachte und verständlicher machte und dadurch wesentlich zu ihrer Verbreitung und Akzeptanz beitrug.
5.1.1
Affiner Vektorbegriff
Vektoren im affinen Raum, [5, S. 13], [11, S. 80], werden ohne Bezug auf ein Koordinatensystem betrachtet und damit nur als geometrische oder physikalische Größen behandelt. Ein affiner Vektor a, den man auch als linear oder geradlinig interpretieren kann, wird durch seinen Anfangs- und Endpunkt und damit durch seine Richtung bestimmt, was die geometrische Deutung als gerichtete Strecke ermöglicht. Dabei kann der Anfangspunkt beim freien Vektor beliebig variiert werden, der Vektor im Raum unter Wahrung seiner Richtung also beliebig verschoben werden. Bei festgehaltenem Anfangspunkt liegt ein gebundener Vektor vor wie bei einer Kraft, die in einem festen Punkt angreift, oder beim Ortsvektor, der vom Ursprung eines Koordinatensystems zu einem variablen Punkt zeigt. Jeder Vektor a kann durch Multiplikation mit einer reellen Zahl, einem Skalar λ, in den in der Länge veränderten Vektor λa verwandelt werden.
5.1.2
Vektoraddition
Summe und Differenz zweier Vektoren werden als geometrische Addition bzw. Subtraktion in einem Parallelogramm veranschaulicht, die man auch als vektorielle Addition bezeichnet. Der Summenvektor a ` b “ b ` a ist kommutativ und der Differenzvektor a ´ b “ a ` p´ bq hat die Richtung vom Endpunkt oder der Spitze von b zum Endpunkt von a. Dabei können die Vektoren in der Zeichenebene unter Wahrung ihrer Richtungen beliebig verschoben werden. Für jeden Vektor a im dreidimensionalen Raum läßt sich eine eindeutige Zerlegung in Richtung von drei beliebig vorgegebenen, linear unabhängigen und damit nichtkomplanaren Basisvektoren u1 , u2 , u3 mit passenden, reellen Koeffizienten α, β und γ finden, wovon später in Koordinatensystemen ausgiebig Gebrauch gemacht wird. Als Beispiel wird die Zerlegung des Vektors a im kartesischen Koordinatensystem mit den Basisvektoren ex , ey , ez und den Koeffizienten ax , ay , az 2
Heaviside, Electromagnetic Theory, 3 Bde., 1893, 1899, 1912
5.1 Grundlegende Eigenschaften von Vektoren
65
a+b b
a-b ea
a
Abb. 5.1: Geometrische Addition und Subtraktion von Vektoren im Parallelogramm angegeben, was in den Abschnitten 6.3.1 und 7.1.1 ausführlich behandelt wird. a “ α u1 ` β u2 ` γ u3
a “ a x ex ` a y ey ` a z ez
(5.1)
Die drei Einzelvektoren αu1 , βu2 und γu3 , die im Sinne der vektoriellen Addition zusammengesetzt werden, heißen Teilvektoren oder vektorielle Komponenten und die Größen α, β, γ (skalare) Komponenten des Vektors a bezüglich der Richtungen der Basisvektoren uk . Da für die Komponenten neben negativen Werten auch Null erlaubt ist, können einzelne oder auch alle Teilvektoren Null sein, wodurch der Nullvektor mit eingeschlossen ist. Gelten die Definitionen der Addition und der Multiplikation mit reellen Zahlen gemäß (5.1), dann heißt der Raum linearer oder affiner Vektorraum.
5.1.3
Skalarprodukt und metrische Eigenschaften
Der affine Raum wird durch die Definition eines Skalarproduktes zweier Vektoren zum euklidischen Raum erweitert, in dem metrische Eigenschaften existieren, [11, S. 142]. Das Skalarprodukt S zweier Vektoren a und b, das stets mit einem Punkt geschrieben wird, ist eine skalare Größe ggf. mit physikalischer Einheit
66
5 Vektorbeziehungen
oder Dimension mit der folgenden Definition. S “ a ¨ b “ b ¨ a “ | a | | b | cos pa, bq
(5.2)
Das Skalarprodukt ist kommutativ und entspricht dem Produkt aus der Länge der beiden Vektoren und dem Kosinus des von ihnen eingeschlossenen Winkels oder dem Produkt aus der Länge des einen Vektors und der orthogonalen Projektion des anderen Vektors in Richtung des ersten. Zu beachten ist aber die Verallgemeinerung bei Tensoren in Abschnitt 10.3.2! Länge oder Betrag eines Vektors und damit der Abstand zwischen Anfangs- und Endpunkt sind stets positiv und ergeben sich aus dem Skalarprodukt zu a ¨ a “ a 2 “ | a | 2 “ a2
? |a| “ a “ ` a ¨ a ą 0
(5.3)
Das Skalarprodukt ist Null, wenn beide Vektoren zueinander orthogonal sind. Im dreidimensionalen Raum stehen sie dann aufeinander senkrecht. Durch das Skalarprodukt wird der Winkel ψ zwischen zwei Vektoren definiert. a¨b cos ψ “ cos pa, bq “ (5.4) |a||b| Das Skalarprodukt ist eine rein algebraische Definition, bei der die gesamte Aussage in der Definition (5.2) enthalten ist. Die Einführung des Skalarproduktes, die den affinen Raum zum euklidischen Vektorraum erweitert, definiert die Metrik des Raumes durch Betrag, Abstand und Winkel.
5.1.4
Einheitsvektoren
Einheitsvektoren sind spezielle Vektoren, die den Betrag Eins haben und meist mit e bezeichnet werden. Zu jedem Vektor a kann man den Einheitsvektor angeben, der dessen Richtung bestimmt. Durch diese Operation erreicht man eine Normierung des Vektors auf die Länge Eins. ea “
a |a|
mit
| ea | “ 1
5.1 Grundlegende Eigenschaften von Vektoren
67
In Koordinatensystemen erhalten Einheitsvektoren zur Unterscheidung als Index die Achsen- oder Koordinatenbezeichnung wie bei ex , eρ oder eϕ . In krummlinigen Koordinatensystemen, die in Kapitel 14 behandelt werden, sind die Einheitsvektoren zwar vom Betrage her konstant, aber sie können von Punkt zu Punkt ihre Richtung ändern. Deshalb ist bei Ableitungen und Integrationen die Ortsabhängigkeit von Einheitsvektoren zu berücksichtigen (s. Abschnitt 5.7)! Spezielle Einheitsvektoren werden gesondert bezeichnet, wie für Tangenten oder Normalen mit t oder n oder in krummlinigen, orthogonalen Koordinatensystemen mit c.
5.1.5
Kreuzprodukt
Das Vektor- oder Kreuzprodukt zweier Vektoren a und b ist ein dritter Vektor c, der auf dem von a und b gebildeten Parallelogramm senkrecht steht und dessen Betrag dem Flächeninhalt dieses Parallelogramms entspricht. c “ a ˆ b “ ´ b ˆ a “ | a | | b | sin pa, bq ec “ | c | ec
(5.5)
ec “ c { | c | ist der Einheitsvektor des Kreuzproduktes. Das Vektorprodukt ist nicht kommutativ sondern alternativ. Wenn die Ausgangsvektoren parallel oder identisch sind, dann ist das Kreuzprodukt Null. `
˘ ` ˘ ka ˆ a “ k a ˆ a “ 0
(5.6)
Zur vollständigen Definition des Kreuzproduktes muss die Richtung des Vektors c im Raum festgelegt werden. Dazu wird der Rand des Parallelogramms mit einem Umlaufsinn versehen und das Parallelogramm selbst als gerichtete Fläche oder Plangröße bezeichnet. Die Richtung im Raum wird dem Vektor c gemäß Umlaufsinn nach der Rechtsschraubenregel zugeordnet, wie sie in Abbildung 5.5 dargestellt ist. Bei a ˆ b wird der Vektor a dabei auf dem kürzeren Weg in den Vektor b gedreht. Diese zusätzliche Bedingung der Rechtsschraubenregel erscheint etwas künstlich im Vergleich mit der rein algebraischen Definition des Skalarproduktes, aber bei der Behandlung spezieller Tensoren im Kapitel 11
68
5 Vektorbeziehungen
kann man dem Kreuzprodukt eine neue, allgemeingültige und ebenfalls rein algebraische Interpretation geben. In der Praxis ist die Rechtsschraubenregel Naturwissenschaftlern und Ingenieuren vertraut und durch spezielle Handbewegungen, z.B. Drei-FingerRegel, ein bewährtes Hilfsmittel, um sich die Richtung physikalischer Vektoren schnell und einfach vor Augen zu führen.
5.2
Mehrfachprodukte der Vektorrechnung
5.2.1
Spatprodukt
Das Spatprodukt, das auch als gemischtes Produkt bezeichnet wird, stellt einen Skalar dar und gibt das Volumen des Parallelepipeds an, das von den drei Vektoren a, b und c aufgespannt wird.
x a, b, c y “ a ¨ p b ˆ c q “ b ¨ p c ˆ a q “ c ¨ p a ˆ b q “ ´ x a, c, b y (5.7) Durch das Kreuzprodukt ist das Spatprodukt alternativ und wegen der angegebenen Eigenschaft kann man bei einem Spatprodukt die Zeichen und Klammern vertauschen. a ¨ pb ˆ cq “ pa ˆ bq ¨ c Beim Tausch zweier Vektoren tritt ein Vorzeichenwechsel auf, weshalb man das Spatprodukt auch als Pseudoskalar bezeichnet. Das Spatprodukt ist Null, wenn zwei Vektoren kollinear oder alle drei Vektoren komplanar sind, weil dann das Volumen verschwindet. Ein nichtverschwindendes Spatprodukt x a, b, c y ‰ 0 stellt daher das Kriterium für die lineare Unabhängigkeit der drei Vektoren dar! Als gleichwertige Aussage gilt, dass drei nichtkomplanare Vektoren keinen Nullvektor erzeugen können. Für alle Basisvektoren von Koordinatensystemen, die grundsätzlich als nichtkomplanar vorausgesetzt werden, gilt daher stets x ea , e b , e c y ‰ 0
5.2 Mehrfachprodukte der Vektorrechnung
5.2.2
69
Doppeltes Kreuzprodukt, Entwicklungssatz
Bildet man das doppelte Kreuzprodukt aus drei Vektoren, so liegt der Ergebnisvektor in der Ebene der beiden geklammerten Vektoren.
a ˆ pb ˆ cq “ bpa ¨ cq ´ cpa ¨ bq
(5.8)
Mit Hilfe des Entwicklungssatzes wird ein spezielles Produkt für anschließende Verwendung gebildet. ra ˆ pv ˆ wqs ¨ ru ˆ pb ˆ cqs “ rvpa ¨ wq ´ wpa ¨ vqs ¨ rbpu ¨ cq ´ cpu ¨ bqs “ `pa ¨ wqpb ¨ vqpc ¨ uq ´ pa ¨ wqpb ¨ uqpc ¨ vq ´ pa ¨ vqpb ¨ wqpc ¨ uq ` pa ¨ vqpb ¨ uqpc ¨ wq b¨u b¨w b¨u b¨v “ pa ¨ vq ´ pa ¨ wq c¨u c¨w c¨u c¨v
5.2.3
Vierfachprodukt, Identität von Lagrange
Das Skalarprodukt zweier Kreuzprodukte findet man durch Anwendung von Spatprodukt und Entwicklungssatz. “ ‰ pa ˆ bq ¨ pc ˆ dq “ a ¨ b ˆ pc ˆ dq “ pa ¨ cqpb ¨ dq ´ pa ¨ dqpb ¨ cq a¨c a¨d pa ˆ bq ¨ pc ˆ dq “ b¨c b¨d
(5.9)
Der Sonderfall mit nur zwei verschiedenen Vektoren heißt Identität von Lagrange und stellt das Betragsquadrat des Kreuzproduktes dar. p a ˆ b q ¨ p a ˆ b q “ | a ˆ b | 2 “ pa ¨ aq pb ¨ bq ´ pa ¨ bq2
(5.10)
70
5 Vektorbeziehungen
Mit Hilfe des Vierfachproduktes wird das spezielle Produkt von oben anders aufgelöst, ra ˆ pv ˆ wqs ¨ ru ˆ pb ˆ cqs “ pa ¨ uqrpb ˆ cq ¨ pv ˆ wqs ´ ra ¨ pb ˆ cqsru ¨ pv ˆ wqs “ p a ¨ u q r p b ˆ c q ¨ p v ˆ w q s ´ x a, b, c y x u, v, w y wobei im ersten Summanden gilt b¨v b¨w p b ˆ c q ¨ p v ˆ w q “ p b ¨ v qp c ¨ w q ´ p b ¨ w qp c ¨ v q “ c¨v c¨w
5.2.4
Gram’sche Determinante
Aus den beiden Darstellungen des speziellen Produktes kann nach geeigneter Zusammenfassung das doppelte Spatprodukt dargestellt werden, das als Gram’sche Determinante die Skalarprodukte aller sechs Vektoren enthält. a¨u a¨v a¨w x a, b, c y x u, v, w y “ b ¨ u b ¨ v b ¨ w c¨u c¨v c¨w
(5.11)
Bei identischen Vektorsätzen hat die Gram’sche Determinante als Quadrat des Spatproduktes stets einen positiven Wert und ist damit bei beliebiger Wahl dreier Vektoren positiv definit. a¨a a¨b a¨c 2 x a, b, c y “ b ¨ a b ¨ b b ¨ c c¨a c¨b c¨c
ě 0
(5.12)
Wie das Spatprodukt bietet auch das Nichtverschwinden der Gram’sche Determinante ein Kriterium für die lineare Unabhängigkeit von drei Vektoren. Dabei liegt der Vorteil bei der Gram’sche Determinante darin, dass man das Kriterium auf beliebig viele Vektoren in n-dimensionalen Räumen verallgemeinern kann, [4, S. 228].
71
5.3 Physikalische Einteilung der Vektoren
5.3 5.3.1
Physikalische Einteilung der Vektoren Inversion des Koordinatensystems
Inversion oder Spiegelung bedeutet in einem kartesischen Koordinatensystem den Richtungswechsel von ein, zwei oder drei Koordinatenachsen und damit den Übergang von einem Rechts- zu einem Linkssystem.
r
ez
eξ = − e x
P z
ex
r'
eη = − e y
ey
z'
x y
eζ = − e z
P x'
y'
Abb. 5.2: Inversion des kartesischen Koordinatensystems Damit ein Vektor invariant gegenüber einer Spiegelung ist und im invertierten System zum gleichen räumlichen Punkt P weist, müssen seine neuen Komponenten den negativen alten entsprechen. Für den Ortsvektor r in kartesischer Darstellung gilt dann r “ x ex ` y ey ` z ez
(5.13)
r “ x1 eξ ` y 1 eη ` z 1 eζ “ p´ xq eξ ` p´ yq eη ` p´ zq eζ “ r 1
5.3.2
Polare Vektoren
Vektoren, die sich bei Inversion in der Weise verhalten, dass sie im invertierten System bzw. im Spiegelbild umschlagen und ihre Aktionsrichtung umkehren, werden polare Vektoren (echte Vektoren) oder Schubvektoren genannt. Sie werden dargestellt durch einen Pfeil, der ihren Betrag und ihre Richtung im Raum kennzeichnet.
72
5 Vektorbeziehungen
Vektor
Spiegelbild
Abb. 5.3: Richtungsumkehr des polaren Vektors im Spiegelbild
5.3.3
Axiale Vektoren
In der Physik treten Größen auf, die durch einen Umlaufsinn gekennzeichnet sind (Drehvektoren). Diese Aktion von Umlauf oder Drehung ist der eigentliche physikalische Vorgang wie z.B. bei Drehmoment oder Winkelgeschwindigkeit, wobei die Drehachse durch den Vektor bezeichnet wird, den man dann zur Unterscheidung als Pfeil mit zwei Spitzen zeichnen kann. Dabei ist die Zuordnung von Richtung und Umlaufsinn ‚ in Rechtssystemen eine Rechtsschraube (Normalfall) ‚ in Linkssystemen eine Linksschraube (in Sonderfällen) Im Spiegelbild dreht sich zwar die Richtung des Vektorpfeils wie beim polaren Vektor um, Umlaufsinn und physikalischer Vorgang bleiben dagegen erhalten! Vektoren, die bei Inversion die Aktionsrichtung bzw. die Drehung im Spiegelbild beibehalten und nicht umkehren, werden axiale Vektoren genannt. Beim Kreuzprodukt (5.5) c“aˆb
mit
c K a und c K b
steht c senkrecht auf den (polaren) Vektoren a und b und seine Richtung im Raum wird durch die Rechtsschraubenregel zusätzlich festgelegt. ‚ Das Kreuzprodukt ist der Prototyp des axialen Vektors!
5.3 Physikalische Einteilung der Vektoren
73
Rechtsschraube
Linksschraube
Abb. 5.4: Konstanz der Drehbewegung des axialen Vektors im Spiegelbild
5.3.4
Flächenelement
Der Vektor des Flächenelementes da steht senkrecht auf der Fläche und weist im Sinne einer Rechtsschraube in Richtung des Einheitsvektors n der Flächennormalen, die sich aus dem Kreuzprodukt zweier Tangentenvektoren ergibt.
da eu
n ev da = du dv
Abb. 5.5: Zuordnung von Flächenelement, Normale und Umlaufsinn gemäß Rechtsschraubenregel
74
5 Vektorbeziehungen
Das gerichtete Flächenelement da “ n da “ eu ˆ ev du dv stellt als Fläche mit Umlaufsinn eine Plangröße dar und ist wegen des Kreuzproduktes ebenfalls ein axialer Vektor.
5.3.5
Multiplikative Verknüpfung von Skalaren und Vektoren
Bezeichnung der verschiedenen Größen ‚ echte Skalare
S, S1 , S2
‚ Pseudoskalare
Ψ, Ψ1 , Ψ2
‚ polare Vektoren
p, p1 , p2
‚ axiale Vektoren
A, A1 , A2
Die Produkte der verschiedenen Größen führen auf folgende Ergebnisse, bei denen der Betrag von polaren und axialen Vektoren ein echter Skalar ist. S1 S 2 “ S
S Ψ1 “ Ψ
Ψ1 Ψ 2 “ S
S p1 “ p
Ψp “ A
p ¨ p “ |p|2 “ S
S A1 “ A
ΨA “ p
A ¨ A “ |A|2 “ S
p1 ¨ p2 “ S
p¨A“Ψ
A1 ¨ A2 “ S
p1 ˆ p2 “ A
p1 ˆ A “ p
A1 ˆ A 2 “ A
(5.14)
Die Differentialoperatoren Nabla ∇, den man als einen polaren Vektor deuten kann, sowie Gradient (grad), Divergenz (div), Rotation (rot) und Delta (Δ) werden erst im Kapitel 17 ausführlich erörtert.
75
5.3 Physikalische Einteilung der Vektoren
Der Charakter der mit diesen Operatoren gebildeten Größen soll hier aber bereits angegeben werden. grad S “ ∇S div p “ ∇ ¨ p
“p “S
rot p “ ∇ ˆ p “ A div grad S “ ΔS
“S
grad Ψ “ ∇Ψ div A “ ∇ ¨ A
“A “Ψ
rot A “ ∇ ˆ A “ p div grad Ψ “ ΔΨ
(5.15)
“Ψ
Physikalische Gleichungen sind nur dann korrekt, wenn sie auf beiden Seiten des Gleichheitszeichens den gleichen Charakter der Größen sowie die gleiche Einheit oder Dimension aufweisen. Auf beiden Seiten müssen also entweder Skalare, polare bzw. axiale Vektoren oder Tensoren einer bestimmten Stufe mit der gleichen Einheit auftreten, was man durch eine Dimensionskontrolle überprüfen kann.
5.3.6
Beispiele physikalischer Skalare und Vektoren
Aufgeführt sind diejenigen Größen nach Charakter und mit prinzipiellen Beziehungen, die in den Anwendungen im zweiten Band auftreten. 5.3.6.1
Skalare
Masse Trägheitsmoment Materialkonstanten Ladungsgrößen Arbeit, Energie Potential magnetischer Fluß 5.3.6.2
m Θ ε, μ, κ Q, ρ “ div D dW “ F ¨ dr, E kin , Erot V, ϕ, φ dΨm “ B ¨ da
Pseudoskalare
Volumen, Volumenelement Spatprodukt dielektrischer Fluß Strom
v, dv a ¨ pb ˆ cq dΨe “ D ¨ da dI “ J ¨ da
76
5 Vektorbeziehungen
5.3.6.3
Polare Vektoren
Einheitsvektoren konstanter Vektor Ortsvektor, Abstandsvektor Wegelement Geschwindigkeit Beschleunigung Kraft Impuls elektrische Feldstärke dielektrische Verschiebung Stromdichte Vektorpotential Poynting-Vektor 5.3.6.4
e x , e y , ez , . . . ˘ u rP , r “ rP ´ rQ dr v “ dr{dt a “ dv{dt F p “ mv E “ ´ grad V D “ εE J “ rot H ´ dD{dt A S “EˆH
Axiale Vektoren
Fläche, Flächenelement Drehmoment Drehimpuls, Drall Winkelgeschwindigkeit magnetische Feldstärke Induktion
5.4 5.4.1
a, da “ n da M “rˆF L“rˆp ω H B “ μH “ rot A
Vektoren im Raum Zerlegung eines Vektors bezüglich einer Richtung
Der Einheitsvektor n mit | n | “ 1 weise in eine beliebige, vorgegebene Raumrichtung. Häufig ist n der Normalenvektor einer Fläche im Raum, der damit senkrecht auf der Tangentialebene dieser Fläche steht. Ein beliebiger Vektor a wird zerlegt in Richtung von n und senkrecht dazu, wobei der Teilvektor a || “ n ¨ a durch orthogonale Projektion von a auf n entsteht (Abbildung 5.6). a “ a || ` a K
77
5.4 Vektoren im Raum
a
a
a| a ||
n a n
n
n (n a)
Abb. 5.6: Vektorzerlegung Nach dem Entwicklungssatz (5.8) gilt n ˆ p n ˆ a q “ n looomooon p n ¨ a q ´ a looomooon p n ¨ n q “ a || ´ a “ ´ a K “ | a || |
“1
Der Zerlegungssatz für Vektoren sagt aus, dass ein beliebiger Vektor a stets in zwei Teilvektoren zerlegt werden kann, die in Richtung eines Einheitsvektors n und senkrecht zu diesem zeigen. a “ a || ` a K “ n p n ¨ a q ´ n ˆ p n ˆ a q
aK “ a ´ npn ¨ aq
(5.16) Ist n der Normalenvektor einer Fläche, so stellt dieser Satz die Zerlegung des Vektors a in seine Normal- und Tangentialkomponente bezüglich dieser Fläche dar. Diese Zerlegung ist ein nützliches Hilfsmittel zur Formulierung von Randbedingungen bei Problemen der Feldtheorie.
5.4.2
Vektordarstellung von Ebenen
Gegeben sei der Ortsvektor rM zum Punkt M , der wegen späterer Anwendung mit dem Wellenvektor k vom Betrag k indentifiziert wird und der den Einheitsvektor n hat, (Abbildung 5.7). rM besitzt dann folgende Darstellung. rM “ xM ex ` yM ey ` zM ez “ k “ k n
78
5 Vektorbeziehungen
In der Darstellung des Einheitsvektors n sind die Koeffizienten p, q, r die Richtungscosinus gegen die Achsen eines kartesischen Koordinatensystems, deren Quadrate sich zu Eins summieren. n “ p ex ` q ey ` r ez “ cos α ex ` cos β ey ` cos γ ez Die Skalarprodukte der Vektoren ergeben n ¨ n “ p2 ` q 2 ` r2 “ cos2 α ` cos2 β ` cos2 γ “ 1 n ¨ rM “ p xM ` q yM ` r zM “ k Gesucht wird die Ebene, die durch M geht und zu rM “ k senkrecht ist, also n als Flächennormale besitzt. In dieser Ebene liege der Vektor rM P , der von M zum beliebigen Punkt P mit dem Ortsvektor r zeigt. Der Einheitsvektor t von rM P , dessen Richtungscosinus λ, μ, ν sind, muss zu n orthogonal sein. t “ λ ex ` μ ey ` ν ez t ¨ n “ λp ` μq ` νr “ 0 r M P “ τ t “ r ´ k “ r ´ rM Das Skalarprodukt von rM P und n liefert folgende Beziehung. ˘ ` ˘ ` λp ` μq ` νr “ 0 “ px ` qy ` rz ´ loooooooooooomoooooooooooon pxM ` qyM ` rzM rM P ¨ n “ τ loooooooomoooooooon “ t¨n “ 0
“ n¨rM “ k
Daraus geht die Hesse’sche Normalform der Ebenengleichung hervor, px ` qy ` rz “ k
n ¨ r “ r cos ψ “ k
(5.17)
bei der die Koeffizienten p, q, r die Richtungscosinus der Normalen n und k den Abstand der Ebene vom Ursprung bedeuten. Die Division der Hesse-Form durch k liefert mit den Strecken a, b, c, die die Ebene auf den kartesischen Koordinatenachsen abschneidet, a“
k k “ , cos α p
b“
k k “ , cos β q
c“
k k “ cos γ r
79
5.4 Vektoren im Raum
n
rMP
P
M
rM = k
r
O Abb. 5.7: Vektoren bei der Ebene im Raum
die Achsenabschnittsform der Ebene. x y z ` ` “1 a b c
(5.18)
Durch Quadrieren und Addieren der drei vorletzten Beziehungen erhält man die Darstellung des Ebenenabstandes durch die Achsenabschnitte. ´ k ¯2 a
`
´ k ¯2
k“c
b
`
´ k ¯2 c
“ p2 ` q 2 ` r2 “ cos2 α ` cos2 β ` cos2 γ “ 1
1 abc “a 2 2 1 1 1 a b ` a 2 c 2 ` b2 c 2 ` ` a 2 b2 c 2
(5.19)
Die allgemeine Gleichung der Ebene
Ax ` By ` Cz “ D
(5.20)
80
5 Vektorbeziehungen
kann durch Division mit einem Faktor w , A “ wp . ` 2 ˘ B “ wq p ` q 2 ` r2 “ w2 Ñ A2 ` B 2 ` C 2 “ w2 loooooooomoooooooon C “ wr “1 auf Hesse-Form (5.17) gebracht werden. A B C D x ` y ` z “ px ` qy ` rz “ “k w w w w
Gram’sche Matrizen
5.5 5.5.1
Gram’sche Matrix für zwei Sätze von Vektoren
Die Gram’sche Matrix ist das dyadische Skalarprodukt (3.8) zweier beliebiger Sätze von Vektoren. Die Determinante dieser Matrix ist als Gram’sche Determinante bereits in (5.11) aufgetreten. Für zwei Vektorsätze a # und v # , bei denen der formale Laufindex p#q die Werte 1, 2, 3 annehmen kann mit einer Verallgemeinerung auf beliebige Werte n, enthält die Gram’sche Matrix die Skalarprodukte aller sechs Vektoren und lautet ¨ ˛ a ` ˘ ˘ ` ˘T ˚ 1 ‹ ` G a # , v # “ a # ¨ v # “ ˝a2 ‚¨ v1 , v2 , v3 a3 ˛ ¨ a1 ¨ v1 a1 ¨ v2 a1 ¨ v3 ‹ ˚ “ ˝ a2 ¨ v1 a2 ¨ v2 a2 ¨ v3 ‚ a3 ¨ v1 a3 ¨ v2 a3 ¨ v3
(5.21)
Bei identischen Vektorsätzen sind die Gram’schen Matrizen symmetrisch und werden Eigenmatrizen genannt. ` ˘ “ ` ˘ ‰T ` ˘T G a #, a # “ G a #, a # “ a# ¨ a#
(5.22)
81
5.5 Gram’sche Matrizen
Gram’sche Matrizen G p..q müssen von den im Abschnitt 6.6.3 betrachteten Metrikmatrizen G # und G# unterschieden werden, was durch die Indizierung problemlos möglich ist. Im besonderen Fall reziproker Vektoren gehen sie allerdings ineinander über.
5.5.2
Reziproke Vektoren und Reziprozitätsbedingung
Vektorsätze werden zueinander reziprok genannt, wenn die Vektoren des einen Satzes jeweils senkrecht stehen auf denjenigen Vektoren des anderen Satzes, die abweichende Indizes haben. Bei gleich indizierten Vektoren wird Eins gefordert. Im Hinblick auf die Anwendung ab Kapitel 6 werden reziproke Vektoren mit g bezeichnet und durch entgegengesetzte Stellung der Indizes gekennzeichnet. ¨ ˛ ¨ 1˛ g1 g ˚ ‹ ˚ 2‹ # g “ ˝g ‚ g “ ˝g2 ‚ , # g3 g3 Die Reziprozitätsbedingung für zwei solche Vektorsätze wird gebildet mit dem Kronecker-Symbol, das auf den Mathematiker Leopold Kronecker (1823 -1891) zurückgeht. # 1 i“k gi ¨ gk “ δik “ 0 i‰k g
#
` ˘T ` ˘ ¨ g# “ G g , g# “ E #
(5.23)
• Die Gram’sche Matrix für reziproke Vektoren ist eine Einheitsmatrix! Für zwei reziproke Vektorsätze ist in Abbildung 6.1 die relative Lage der Vektoren anschaulich dargestellt.
5.5.3
Vektorzerlegung nach reziproken Vektoren
Zerlegt man die Vektoren des einen Satzes in Richtung der Vektoren des reziproken Satzes, gi “ αi1 g1 ` αi2 g2 ` αi3 g3
82
5 Vektorbeziehungen
so findet man die Koeffizienten α durch Bildung der Skalarprodukte. g1 ¨ gk ` αi2 loomoon g2 ¨ gk ` αi3 loomoon g3 ¨ gk “ αik gi ¨ gk “ αi1 loomoon “0
“0
“ 1 pk “ 2q
Zusammenfassend erhält man aus der Zerlegung damit die folgenden Transformationsbeziehungen für die Umrechnung reziproker Vektorsätze mit den symmetrischen Gram’schen Eigenmatrizen. g
#
˘ ` g# “ G g# , g# g
˘ # ` “G g ,g g #
#
#
(5.24)
˛ g1 ¨ g1 g1 ¨ g2 g1 ¨ g3 ˘ ˚ ` ‹ G g ,g “ ˝ g1 ¨ g2 g2 ¨ g2 g2 ¨ g3 ‚ # # g1 ¨ g3 g2 ¨ g3 g3 ¨ g3 ¨
˛ g1 ¨ g1 g1 ¨ g2 g1 ¨ g3 ` ˘ ˚ ‹ G g# , g# “ ˝ g1 ¨ g2 g2 ¨ g2 g2 ¨ g3 ‚ g1 ¨ g3 g2 ¨ g3 g3 ¨ g3 ¨
(5.25)
Setzt man die beiden Beziehungen(5.24) ineinander ein, dann ergibt sich, dass Gram’sche Eigenmatrizen reziproker Vektoren zueinander invers und wegen der Symmetrie auch kontragredient sind. ˘ ı´1 ˘ ” T` ˘ ` ` G g# , g# “ G´1 g , g “ G g ,g #
#
#
#
(5.26)
Daraus folgt, dass die Reziprozitätsbedingung (5.23) die gegenseitige Darstellung reziproker Vektoren durch Gram’sche Eigenmatrizen gemäß (5.24) nach sich zieht! $ ˘ # ` ’ & g # “ G g #, g # g ` # ˘T “E Ñ g ¨ g ` ˘ # ’ % g# “ G g# , g# g #
Im weiteren Verlauf werden Vektorsätze häufig durch andere dargestellt, meist als Sätze von Basisvektoren bestimmter Koordinatensysteme, wobei
83
5.6 Ableitung von Vektoren
die Umrechnungen durch Gram’sche Matrizen nach (5.21) vermittelt werden. Die Untersuchung reziproker Koordinatensysteme im folgenden Kapitel wird zeigen, dass die beiden Gram’schen Matrizen (5.25) besondere Bedeutung besitzen, die dort als Metrikmatrizen eingeführt werden.
5.6 5.6.1
Ableitung von Vektoren Produkte und Einheitsvektor
Sind zwei Vektoren von einer Variablen u abhängig, dann gilt für die Ableitung von Skalarprodukt und Kreuzprodukt ˘ da d` da a¨b “ ¨b ` b ¨ du du du
˘ da d` da aˆb “ ˆb ` b ˆ du du du
(5.27) Für Vektoren konstanten Betrages wie den Tangenteneinheitsvektor t, dessen Richtung ortsabhängig sein kann, gilt ˘ dt d d ` | t |2 “ 0 t ¨ t “ 2t ¨ “ du du du
t¨
dt “0 du
Ñ
tK
dt du
für
|t| “ 1
(5.28)
• Ein Einheitsvektor t und seine Ableitung stehen senkrecht aufeinander!
5.6.2
Bewegung von Punkten auf Bahnkurven
Bei kinematischen Vorgängen mit der Zeit t als Parameter beschreibt der Ortsvektor rptq die Bahnkurve eines Punktes P im Raum, an dem sich z.B. ein Masseteilchen befinden kann. Das Element der Bogenlänge s der Bahnkurve hat den Wert | dr | “ ds. Seit Newton werden Zeitableitungen von Ortsfunktionen, die er Fluxionen nannte, durch übergesetzte Punkte gekennzeichnet.
84
5 Vektorbeziehungen
Die erste zeitliche Ableitung des Ortsvektors ist die Bahngeschwindigkeit v des Punktes P in Richtung des Tangenteneinheitsvektors t. vptq “
dr ds 9 “ | r9 | t “ v t “ “ rptq t dt dt
(5.29)
Die zweite zeitliche Ableitung ist die Bahnbeschleunigung a, aptq “
dt dv dv d2 r 9 “ vptq “ 2 “ r:ptq “ t `v dt dt dt dt
(5.30)
die sowohl eine Tangentialkomponente als auch wegen (5.28) eine dazu senkrechte Normalkomponente besitzt. Geschwindigkeit vptq und Beschleunigung aptq stellen die Bewegungsgrößen des Raumpunktes dar. Da im Newton’schen Bewegungsgesetz (3.2, Bd. II) wie in der Lorentz-Kraft (5.16, Bd. II) die Beschleunigung a “ r: nur durch r und r9 bestimmt wird, benötigt man keine höheren Zeitableitungen des Ortsvektors. Bei Darstellung ebener Kurven in Polarkoordinaten pρ, ϕq (s. Abschnitt 18.5.2) gilt für den Ortsvektor rptq “ ρptq eρ ptq
mit zeitabhängigem Azimut ϕptq
Mit den Ableitungen der polaren Einheitsvektoren eρ ptq “ ` cos ϕ ex ` sin ϕ ey
Ñ
e9 ρ “ ` ϕ9 eϕ
eϕ ptq “ ´ sin ϕ ex ` cos ϕ ey
Ñ
e9 ϕ “ ´ ϕ9 eρ
erhält man die Vektoren von Geschwindigkeit und Beschleunigung. 9 “ vR ` vF vptq “ rptq aptq “ r:ptq “ aR ` aF ` aC
“ ρ9 eρ ` ρϕ9 eϕ “ ‰ “ ρ: eρ ` ρ ´ ϕ9 2 eρ ` ϕ: eϕ ` 2 ρ9 ϕ9 eϕ (5.31)
Die verschiedenen Anteile heißen für ` ˘ ρ “ const. ρ9 “ ρ: “ 0 ` ˘ ϕ “ const. ϕ9 “ ϕ: “ 0
Ñ
Führungsgrößen
Ñ
Relativgrößen
Der dritte Anteil von aptq stellt die nach ihrem Entdecker Gaspard Coriolis (1792 -1843) benannte Coriolis-Beschleunigung dar.
85
5.6 Ableitung von Vektoren
5.6.3
Geradlinige Bahnkurve
Der einfachste Fall der Bewegung einer Masse m auf einer geraden Bahn wurde von Galileo Galilei (1564 -1642) in seinen Versuchen zum freien Fall mit rollenden Kugeln auf schiefen Ebenen untersucht und 1638 in seinem Hauptwerk Discorsi veröffentlicht. Dieses Buch steht am Beginn der modernen abendländischen Physik, da hier zum ersten Mal die Naturerkenntnis durch Experiment und mathematische Beschreibung gewonnen wird. Als Ergebnis der beschleunigten Bewegung hängen der durchlaufene Weg s und die dafür benötigte Zeit t im Fallgesetz quadratisch zusammen, wobei die Erdbeschleunigung g als gemessene Proportionalitätskonstante auftritt. s“
5.6.4
1 2 gt 2
Ñ
g “ 9.81
m s2
(5.32)
Kreisförmige Bahnkurve
Als spezieller ebener Fall wird die Bewegung auf einer Kreisbahn vom Radius R betrachtet, die in mathematisch positiver Richtung erfolgt. Aus der Proportionalität von Bogenlänge s und Winkel ϕ beim Kreis mit dem Umfang U folgt deren linearer Zusammenhang. U 2πR s “ “ ϕ 2π 2π
Ñ
s “ Rϕ
Ñ
ds “ R dϕ
(5.33)
Der dimensionslose ebene Winkel ϕ wird in Bogenmaß mit der Benennung Radian rrads oder in Grad r˝ s gemessen. Die Winkeländerung bei Zuwachs der Bogenlänge wird bei beliebigen Kurven als Krümmung κ bezeichnet, die dem reziproken Krümmungsradius entspricht und für den Kreis konstant ist.
κ“
1 dϕ “ ds R
(5.34)
Bewegt sich der Punkt mit der Winkelgeschwindigkeit ωptq auf dem Kreis, wobei von den Kräften abgesehen wird, die die Führung auf dem
86
5 Vektorbeziehungen
Kreis erzwingen, dann gilt für die kinematische Beschreibung dϕ “ ϕptq 9 “ ωptq dt
(5.35)
Auf der Kreisbahn bestehen Bahngeschwindigkeit und Bahnbeschleunigung nur aus den Führungsgrößen. vptq “ vF ptq “ vptq eϕ “
ds eϕ “ R ωptq eϕ dt
aptq “ aF ptq “ aptq eρ “ ´ R ω 2 ptq eρ ` R ωptq 9 eϕ Der radiale, nach innen gerichtete Anteil von a heißt Zentripetalbeschleunigung, der z.B. durch eine Seilkraft aufgebracht werden kann. Wird die Kreisbahn bei konstanter Winkelgeschwindigkeit ω0 mit gleichförmiger Bewegung durchlaufen, dann haben die Bewegungsgrößen die folgenden konstanten Beträge. v “ R ω0
a “ R ω02 “ v ω0 “
v2 R
(5.36)
Bei der Rotation des Ortsvektors r von konstantem Betrag, bei der der Vektor auf einem Kegelmantel und seine Spitze auf einem Kreis umlaufen (Abbildung 5.8), steht dessen Umfangsgeschwindigkeit v “ r9 nach (5.28) sowohl senkrecht auf r als auch auf dem Radiusvektor c mit | c | “ R. Ordnet man der Winkelgeschwindigkeit ω0 “ ϕ9 einen Rotationsvektor zu, “ ω0 e ω ω der im Sinne einer Rechtsschraube auf der Bewegungsebene senkrecht steht, dann gilt für den Ortsvektor r bei konstantem Vektor rM r “ rM ` c
Ñ
r9 “ r9 M ` c9 “ c9
Die Umfangsgeschwindigkeit kann man wegen (5.31) v “ R ω0 | c | “ R “ r sin ϑ “ const.
87
5.6 Ableitung von Vektoren
R
M
c
v=
dr dt
P
rM r
O Abb. 5.8: Rotation eines Vektors auf einer Kreisbahn als Kreuzprodukt darstellen. ˆ r “ c9 “ ω ˆc v “ r9 “ ω
Ñ
v“
dr ˆr “ω dt
(5.37)
In einem zylindrischen System, bei dem der Rotationsvektor in z-Richtung weist und die Winkelgeschwindigkeit ω0 konstant ist, gilt dann v “ ω0 ez ˆ r “ ω0 ez ˆ c “ ω0 r sin ϑ eϕ “ ω0 R eϕ “ v eϕ mit dem korrekten Geschwindigkeitsbetrag nach (5.36) auf der Kreisbahn. Die Lösung der vektoriellen Differentialgleichung (5.37) für rptq “ xptq ex ` yptq ey ` rM ez
88
5 Vektorbeziehungen
dr ˆ r “ ω 0 ez ˆ r “ω dt
Ñ
$ 9 “ ´ ω0 yptq ’ & xptq yptq 9 “ ` ω0 xptq ’ % 9 “0 zptq
wird explizit angegeben. Ableitung und gegenseitiges Einsetzen führen auf Differentialgleichungen mit harmonischen Lösungen. , $ x :ptq ` ω02 xptq “ 0 / ’ . & xptq “ a sin ω0 t ` b cos ω0 t 2 y:ptq ` ω0 yptq “ 0 yptq “ α sin ω0 t ` β cos ω0 t Ñ / ’ % zptq 9 “0 zptq “ rM Die Konstanten des Ansatzes werden aus der folgenden Anfangsbedingung rp0q “ x0 ex ` rM ez bestimmt. xp0q “ x0 “ b ,
9 xp0q “ a ω0 “ ´ ω0 yp0q “ 0
yp0q “ 0 “ β ,
yp0q 9 “ α ω0 “ ` ω0 xp0q “ ω0 x0
Mit dem Azimutwinkel ϕptq “ ω0 t lautet die Lösung für den Ortsvektor, ` ˘ rptq “ x0 cos ω0 t ex ` sin ω0 t ey ` rM ez der damit tatsächlich auf einem Kegelmantel umläuft, was man als Präzession oder Kreiselbewegung um die z-Achse bezeichnet.
5.6.5
Relativbewegungen
Unter dem Begriff Relativbewegung versteht man die Bewegung eines Punktes P , der sich innerhalb eines „Fahrzeugs“ relativ zu diesem bewegt, [7, S. 123], [13, S. 232]. Das können Bewegungen in einem Zug, auf einer rotierenden Scheibe oder auf der sich drehenden Erde sein. Im Koordinatensystem mit dem Ursprung O in der Abbildung 5.9 sei F ein fester Punkt des starren Fahrzeugs, gegen den sich P relativ bewegt. Der gesamte Bewegungsvorgang wird zerlegt in die Führungsbewegung des Fahrzeugs, nämlich eine translatorische von F und eine Drehbewegung um F , was später als Euler’sches Theorem (3.20, Bd. II) bezeichnet wird. Hierbei gilt für den Ortsvektor rP des im Fahrzeug festgehaltenen Punktes P und die nur vom Fahrzeug selbst herrührende Führungsgeschwindigkeit mit (5.37) rP ptq “ Rptq ` xptq “ ‰ ˆ x P fest vF ptq “ R9 ` ω
89
5.6 Ableitung von Vektoren
P x
Bahnkurve von P
F rP R
O Abb. 5.9: Relativbewegung eines Punktes auf einer Bahnkurve Hinzu tritt die Relativbewegung zwischen P und F , bei der die Relativgeschwindigkeit durch Ableitung nach den Koordinaten eines körperfesten, mit dem Fahrzeug verbundenen Bezugssystems gegeben ist. ˇ δx ˇˇ vR ptq “ δt ˇ F fest Aus der absoluten Geschwindigkeit mit beiden Anteilen δx ˆx` v “ r9 P “ vF ` vR “ R9 ` ω δt
(5.38)
folgen wegen x “ rP ´ R die Differentiationsregel für x dx δx ˆx ˆ x “ vR ` ω “ x9 “ r9 P ´ R9 “ `ω dt δt sowie die Operatorgleichung für beliebige Vektoren anstelle von x, nach denen man die totale zeitliche Änderung eines Vektors berechnet, der im
90
5 Vektorbeziehungen
bewegten Bezugssystem dargestellt ist, insbesondere die Relativgeschwindigkeit vR . δ2x dvR δvR ˆ vR ˆ vR “ 2 ` ω “ `ω dt δt δt Mit den angegebenen Beziehungen erhält man die absolute Beschleunigung a “ v9 “
dvR dvF ` dt dt
dvR : `ω 9 ˆ x ` ω ˆ x9 ` “R dt ` ˘ δ2x : `ω 9 ˆ x ` ω ˆ vR ` ω ˆx ` 2 `ω ˆ vR “R δt die aus den drei Anteilen für Führungs-, Relativ- und Coriolis-Beschleunigung besteht. ” ˘ı ` δ2x : `ω ˆ x ` 2 ` 2ω ˆ vR 9 ˆ x ` ω ˆ ω a“ R δt
(5.39)
Der Führungsanteil in der eckigen Klammer setzt sich zusammen aus der Translations- und Winkelbeschleunigung des Fahrzeugs und der Zentripetalbeschleunigung in Richtung auf die Drehachse. Die Coriolis-Beschleunigung des dritten Summanden verschwindet neben den beiden trivialen Fällen ω “ 0 oder vR “ 0 nur dann, wenn Relativgeschwindigkeit und Drehachse parallel sind.
5.6.6
Grundgrößen von Raumkurven
Im Raum sei P ein variabler Punkt auf einer Raumkurve. Die bereits auf Leonhard Euler (1707-1783) zurückgehende Art, den Punkt und damit die gesamte Raumkurve durch einen laufenden Parameter zu beschreiben, hat sich als besonders günstig erwiesen, da dann keine Koordinate vor anderen ausgezeichnet wird und auch bei Schleifen mit sich überkreuzenden Kurven eine eindeutige Zuordnung zwischen Parameterwerten und Kurvenpunkten gewährleistet ist.
5.6 Ableitung von Vektoren
91
Der Parameter kann eine beliebige Variable u oder die Bogenlänge s sein. Bei Bewegungen wie im Abschnitt 5.6.2 ist der Parameter die Zeit t und der Punkt P läuft auf seiner Bahnkurve. Der variable Punkt P der Raumkurve wird je nach dem verwendeten Parameter durch seinen Ortsvektor r “ rpuq oder r “ rpsq gekennzeichnet, der den Abstandsvektor zwischen Koordinatenursprung und Punkt P darstellt. Seine kartesischen Koordinten x, y, z sind dann von u bzw. von s oder im Fall der Bewegung von t abhängig. rpuq “ xpuq ex ` ypuq ey ` zpuq ez (5.40) rpsq “ xpsq ex ` ypsq ey ` zpsq ez Bei Fortschreiten auf der Raumkurve um den Parameterzuwachs du wandert der Punkt P zum Punkt Q und der Ortsvektor rpuq ändert sich dabei um das vektorielle Wegelement dr, wobei sich der Tangentenvektor der Raumkurve nach Betrag und Richtung ändert. Die Änderung des Ortsvektors mit dem Parameter u definiert im Grenzübergang den Tangentenvektor gpuq der Raumkurve, dessen Tangenteneinheitsvektor t sei. By Bz rpu ` Δuq ´ rpuq dr Bx “ lim “ ex ` ey ` ez du Δu Ñ 0 Δu Bu Bu Bu
g prq “ g puq “
dr “ ru “ | ru | t “ | g | t du
(5.41)
Die Ableitungen des Ortsvektors r stellen einerseits Ableitungen mit formaler Indizierung pru q dar, andererseits aber auch Vektoren mit eigener Bezeichnung pgq, so dass mehrfach Doppelbenennungen und -darstellungen auftreten. Die Bezeichnung von Tangentenvektoren mit g wird später bei reziproken und krummlinigen Koordinatensystemen generell verwendet! Aus (5.40) berechnet man das Quadrat des Wegelementes dr bzw. das Element der Bogenlänge ds als seinen Betrag. ” ´ Bx ¯2 ´ By ¯2 ´ Bz ¯2 ı du2 dr ¨ dr “ pdsq2 “ ru ¨ ru du2 “ ` ` Bu Bu Bu
92
5 Vektorbeziehungen
⊥ tP g (P) = ru (P) ~ t P
dg du
Q
Q
= r uu (Q)
tP P
u
dr
g (Q) = ru (Q) ~ t Q
u
r + dr r
O
Abb. 5.10: Vektoren in verschiedenen Punkten einer ebenen Raumkurve
ds “ | dr | “ | ru | du “ | g | du a ? “ ru ¨ ru du “ x2u ` yu2 ` zu2 du
(5.42)
Man kann nach dem Parameter u oder nach der Bogenlänge s differenzieren, wobei nach der Kettenregel die Umrechnung gilt du d 1 d d “ “ | g | du ds ds du Zum prinzipiellen Verständnis und aus theoretischer Sicht ist die Ableitung nach der Bogenlänge zweckmäßiger, aber für die konkrete Untersuchung von Raumkurven, die gewöhnlich nach (5.40) als Funktion eines Parameters u vorliegen, der auch die Zeit t sein kann, werden die Ableitungen nach diesem Parameter ebenfalls benötigt.
93
5.6 Ableitung von Vektoren
Bei Ableitung des Ortsvektors nach der Bogenlänge s erhält man den Tangenteneinheitsvektor t direkt. 1 dr dr “ rs “ ru “ t “ | dr | |g| ds
mit
| t | “ | rs | “ 1
Um die Änderung des Tangentenvektors g mit dem Parameter u zu berechnen, muss man in (5.41) die Produktregel anwenden, da sowohl Betrag als auch Einheitsvektor ortsabhängig sind. d |g| dt dg d2 r “ 2 “ ruu “ t ` |g| du du du du looomooon looomooon || zu t
K zu t
Der Vektor der Tangentenänderung besteht aus zwei Anteilen, von denen der erste parallel zu t ist. Der zweite Vektoranteil liegt nach (5.28) in einer zu t senkrechten Ebene, die Normalebene der Raumkurve heißt, und ist in ihr Inneres, d.h. zu ihrer konkaven Seite hin gerichtet. Die Änderung des Tangenteneinheitsvektors nach der Bogenlänge s definiert einen Einheitsvektor, der Hauptnormalenvektor n heißt und der auf t senkrecht steht. d2 r dt Ñ t ¨ n “ rs ¨ rss “ 0 “ 2 “ rss “ | rss | n K t ds ds Der Vektor n der Raumkurve liegt sowohl in der Normalebene als auch in der Schmiegungsebene, die von zwei infinitesimal benachbarten Tangentenvektoren aufgespannt wird, die den differentiellen Kontingenzwinkel dϕ “ | dt | einschließen. Da nur ebene Kurven vollständig in der Schmiegungsebene liegen, fällt diese Ebene in den Abbildungen 5.10 und 5.11 dann nicht mehr mit der Zeichenebene zusammen, wenn sich die Kurve im Raum windet. Der Betrag | rss | des Änderungsvektors, der die Stärke der Kurvenänderung wie in (5.34) beschreibt, heißt Krümmung κ und sein Reziprokwert Krümmungsradius ρ des Krümmungskreises der Raumkurve im betrachteten Raumpunkt, die folgendermaßen definiert werden. ˇ ˇ ˇ ˇ ˇ Δt ˇ 1 dt ˇˇ dt ˇˇ ˇ ˇ “ lim | t | Δϕ “ dϕ “ˇ “ | rss | “ κ “ “ lim ˇ n¨ ˇ ds ds ρ Δs Ñ 0 Δs ˇ Δs Ñ 0 Δs ds dt dϕ “ n “ κn ds ds
94
5 Vektorbeziehungen
d
t (P)
P
ds = d Q
t =1
t (P) dt = d
t (Q)
M
d
d
d d
t (Q)
Krümmungskreis
Abb. 5.11: Winkel am Krümmungskreis in der Schmiegungsebene Die Krümmung ergibt sich wegen | t ˆ n | “ 1 auch aus dem Betrag des Kreuzproduktes und mit der Lagrange-Identität (5.10) folgt a | rs ˆ rss | “ κ | t ˆ n | “ κ “ | rss | “ prs ¨ rs qprss ¨ rss q ´ prs ¨ rss q2 Zur Berechnung der Krümmung aus der Parameterdarstellung (5.40) wird unter Verwendung des Bogenelementes (5.42) der folgende Ausdruck gebildet, „ j d |g| dt ds dt t ` |g| “ |g |2 t ˆ ru ˆ ruu “ | g | t ˆ du du ds du ` ˘ ? 3 ru ¨ ru rs ˆ rss “ | g | 3 rs ˆ rss “ womit die Krümmung der Raumkurve dann lautet | ru ˆ ruu | κ “ | rss | “ | rs ˆ rss | “ `? ˘3 ru ¨ ru ˇ ˇ a 1 ˇˇ dt ˇˇ κ“ “ˇ “ | rss | “ prs ¨ rs qprss ¨ rss q ´ prs ¨ rss q2 ˇ ρ ds a pru ¨ ru qpruu ¨ ruu q ´ pru ¨ ruu q2 “ `? ˘3 ru ¨ ru
(5.43)
95
5.6 Ableitung von Vektoren
Durch das Kreuzprodukt b“tˆn wird ein dritter Einheitsvektor, der Binormalenvektor b, eingeführt, der auf den beiden ersten senkrecht steht. Die drei Einheitsvektoren t, n, b bilden in dieser Reihenfolge ein orthonormiertes Rechtssystem und stellen das begleitende Dreibein der Raumkurve dar.
Normalebene rektifizierende Ebene b t n Schmiegungsebene
Abb. 5.12: Begleitendes Dreibein einer Raumkurve Je zwei von ihnen spannen eine der drei orthogonalen Ebenen auf. ‚ n und b
die Normalebene
K t
‚ t und n
die Schmiegungsebene
K b
‚ b und t
die rektifizierende Ebene
K n
Der Name der rektifizierenden Ebene wird am Ende des Abschnitts noch näher erläutert.
96
5 Vektorbeziehungen
In Abhängigkeit vom Ortsvektor lauten die drei Einheitsvektoren der Raumkurve t“
dr “ rs ds
n“
d2 r 1 “ rss ds2 κ (5.44)
b“tˆn“
d2 r
dr 1 ˆ 2 “ rs ˆ rss ds ds κ
Die Ableitungen der verschiedenen Beziehungen nach der Bogenlänge s db “0 ds
b¨b“1
Ñ
b¨
b¨t“0
Ñ
dt db ¨t`b¨ “0 ds ds
db dt ¨ t “ ´b ¨ “ ´κb ¨ n “ 0 ds ds zeigen, dass db{ds sowohl zu b als auch zu t orthogonal ist, und daher die Richtung der Hauptnormale n haben muss. Analog zur Krümmung definiert man durch db 1 “ ´τ n “ ´ n ds χ die Torsion oder Windung τ und den Torsionsradius χ der Raumkurve im betrachteten Raumpunkt. Das Vorzeichen ist so festgelegt, dass rechtsgewundene Raumkurven wie rechtssinnige Schraubenlinien eine positive Torsion besitzen, [6, S. 46]. Liegt die Raumkurve nicht in einer Ebene, dann windet sie sich im Raum, wobei zwei infinitesimal benachbarte Binormalenvektoren die Normalebene aufspannen und den differentiellen Torsionswinkel | db | einschließen. Mit ˘ dρ dn d ´ rss ¯ d ` “ “ ρ rss “ rss ` ρ rsss ds ds κ ds ds folgt für die Torsion als Funktion des Ortsvektors ” ´ dρ ¯ı ´ db dn ¯ τ “ ´n ¨ “ ´n ¨ t ˆ “ ´ ρ rss ¨ rs ˆ rss ` ρ rsss ds ds ds “ ρ2 xrs , rss , rsss y “
xrs , rss , rsss y xrs , rss , rsss y “ 2 κ rss ¨ rss
97
5.6 Ableitung von Vektoren
Nach Zwischenrechnung ergibt sich die Torsion in den beiden Parameterdarstellungen zu ˇ ˇ ˇ db ˇ xrs , rss , rsss y xru , ruu , ruuu y 1 ˇ“ “ τ “ “ ˇˇ ˇ χ ds rss ¨ rss pru ¨ ru q pruu ¨ ruu q ´ pru ¨ ruu q2 (5.45) Die Ableitungen dt{ds und db{ds weisen beide in n-Richtung und sind durch Krümmung κ und Windung τ bestimmt. Die Ableitung dn{ds ist orthogonal zu n und muss daher in der Ebene von t und b liegen. dn “ αt `βb ds Durch Ableitung der Skalarprodukte erhält man die Koeffizienten. dn dt ¨t`n¨ “α`κ“0 ds ds db dn ¨b`n¨ “β´τ “0 n¨b“0 Ñ ds ds Fasst man die Ableitungen der Dreibeinvektoren nach der Bogenlänge s zusammen, dann ergeben sich als Kernstück der Theorie der Raumkurven die Frenet’schen Formeln als Matrix-Gleichung mit schiefsymmetrischer Matrix, die 1847 angegeben wurden. n¨t“0
dt{ds
Ñ
¨ ˛ ¨ ˛¨ ˛ t 0 `κ 0 t d ˚ ‹ ˚ ˚ ‹ ‹˚ ‹ ˝ dn{ds ‚ “ ˝n‚ “ ˝´ κ 0 ` τ ‚˝n‚ ds db{ds b 0 ´τ 0 b ¨
˛
(5.46)
Diesen Formeln entnimmt man, dass die drei Ableitungsvektoren in einer Ebene E liegen, die zur rektifizierenden Ebene senkrecht ist und mit der Schmiegungsebene den Winkel δ mit tan δ “ τ {κ bildet. Die Geometrie einer Raumkurve wird durch Krümmung und Torsion bestimmt. Die Krümmung κ ist ein Maß für die Abweichung vom geradlinigen und die Torsion τ ein Maß für die Abweichung vom ebenen Verlauf. Sind Krümmung κpsq und Torsion τ psq als Funktionen der Bogenlänge und damit unabhängig von einem Koordinatensystem gegeben, dann nennt man sie die natürlichen Gleichungen der betreffenden Raumkurve.
98
5 Vektorbeziehungen
Der Fundamentalsatz der Kurventheorie sagt aus, dass bei beliebiger Vorgabe zweier stetiger Funktionen κpsq und τ psq die Frenet’schen Formeln als System partieller Differentialgleichungen stets integriert werden können, wobei deren Lösung eine Raumkurve in eindeutiger Weise definiert, die diese Funktionen für Krümmung und Torsion in Abhängigkeit von der Bogenlänge s als Parameter besitzt. Damit bilden die drei Größen Krümmung κ, Torsion τ und Bogenlänge s ein vollständiges System von Invarianten, aus dem alle anderen Größen berechnet werden können. Allerdings ist die Bestimmung von Raumkurven aus diesen drei Größen aufwendig und in geschlossener Form nur in einfachen Fällen z.B. bei ebenen Kurven möglich, [3, S. 51], [6, S. 68], [8, S. 18]. Das begleitende Dreibein kann als starrer Körper angesehen werden, der sich entlang der Raumkurve mit dem Parameter fortbewegt. Diese Bewegung läßt sich durch eine infinitesimale Drehung nach (5.37) beschreiben, v “dˆr bei der der Rotationsvektor d des Dreibeins als Darboux’scher Vektor bezeichnet wird. Da sich bei der Drehung die Spitzen der Dreibeinvektoren in Richtung ihrer Ableitungen (5.46) bewegen, muss der Rotationsvektor d auf der erwähnten Ebene E senkrecht stehen und damit folgende Form mit einer Konstanten c haben. ´ “ ` ˘‰ ` ˘ dn ¯ “ c n ˆ ´ κt ` τ b “ c τ t ` κb d“c nˆ ds Die Kreuzprodukte des Darboux’schen Vektors mit den Dreibeinvektoren ergeben eine Übereinstimmung mit den Frenet’schen Formeln genau dann, wenn die Konstante den Wert c “ 1 hat! d ˆ t “ κn “
dt ds
d ˆ n “ ´κ t ` τ b “ d ˆ b “ ´τ n “
db ds
dn ds
99
5.6 Ableitung von Vektoren
Damit haben der Darboux’sche Vektor und sein Betrag die folgende Darstellung. ˇ ˇ ˇ dn ˇ a ˇ “ κ2 ` τ 2 ˇ λ “ |d| “ ˇ ds ˇ
d “ τ t ` κb
(5.47)
Der Betrag λ des Darboux’schen Vektors heißt Totalkrümmung und seine Darstellung in der zweiten Formel wird Lancret’scher Satz genannt.
db/ds dn/ds
Schmiegungsebene
d
dt/ds
t
b
n Ebene E
Normalebene
Abb. 5.13: Änderungen der Dreibeinvektoren und Darboux’scher Vektor d, alle Ebenen stehen senkrecht auf der Zeichenebene, die der rektifizierenden Ebene entspricht Verfolgt man das begleitende Dreibein bei Bewegung entlang seiner Raumkurve, dann überstreichen die drei Geraden, die durch die Richtungen der Dreibeinvektoren bestimmt werden, als Erzeugende gewisse Flächen im Raum, die man Regelflächen nennt, [6, S. 218], und deren Entstehung man in der Abbildung 5.12 verfolgen kann. Im Zusammenhang mit der Flächentheorie im zweiten Band werden solche Regelflächen erneut betrachtet. Die Regelfläche der Geraden durch t heißt Tangentenfläche, die die Hüllfläche der Schmiegungsebenen, also die Einhüllende dieser Flächenfamilie, darstellt. Die Regelfläche der Geraden durch den Darboux’schen Vektor d heißt Streckfläche, die die Hüllfläche der rektifizierenden Ebene ist.
100
5 Vektorbeziehungen
Dehnungslose und damit verzerrungsfreie und längentreue Abbildungen einer Fläche in eine Ebene nennt man eine Abwicklung wie man das bei Zylinder- oder Kegelmantel durchführen kann. Regelflächen, die in eine Ebene abwickelbar sind, heißen Torsen. Die genaue Definition, das Torsenkriterium, findet man in [6, S. 220]. Tangentenflächen und Streckflächen von Raumkurven sind abwickelbar und stellen Torsen dar. Führt man die Abwicklung der Streckfläche durch, dann geht die gekrümmte Raumkurve in dieser Ebene in eine Gerade über und wird dadurch gestreckt. Damit ist die Aufgabe der Längenbestimmung oder Rektifikation der Raumkurve als Länge dieser Geraden gelöst, wonach die rektifizierende Ebene ihren Namen erhalten hat. Die Regelflächen der Haupt- und Binormalenvektoren n und b stellen nur im Falle ebener Raumkurven Torsen dar! Raumkurven sind ein Teilgebiet der Differentialgeometrie, die detailliert in [1], [3], [6], [8], [10] und [12] behandelt werden.
5.6.7
Ableitungen in Koordinatensystemen
In einem dreidimensionalen Koordinatensystem pu, v, wq existieren in jedem Raumpunkt drei Tangentenvektoren als partielle Differentiale des Ortsvektors nach diesen Koordinaten, Br Br , rv “ , Bu Bv die generell mit g bezeichnet werden, ¨ ˛ ¨ ˛ gu ru ˚ ‹ ˚ ‹ bzw. g “ ˝ gv ‚ ” ˝ r v ‚ # gw rw ru “
rw “
g
#
Br Bw ¨ ˛ g1 ˚ ‹ “ ˝g2 ‚ g3
sowie sechs Änderungen der Tangentenvektoren. ruu ,
ruv “ rvu
rvv ,
ruw “ rwu
rww ,
rvw “ rwv
Diese Vektoren werden bei krummlinigen Koordinatensystemen in den Kapiteln 14 und 16 genauer untersucht und die Zerlegung der Vektoren der zweiten Ableitungen des Ortsvektors nach den einzelnen Koordinatenrichtungen führt auf die Christoffel-Symbole.
5.7 Integration von Vektorfunktionen
5.7
101
Integration von Vektorfunktionen
In Kapitel 19 und in den Anwendungskapiteln im zweiten Band treten häufig Integrale über Vektoren auf, bei deren Lösung ein bestimmtes Vorgehen befolgt werden muss. Als typisches Beispiel wird das Integral über den Vektor v betrachtet, der für die konkrete Durchführung im speziellen Koordinatensystem des Zylinders (s. Abschnitt 18.5.2) dargestellt sei. Dabei kann das Integral über eine der drei Koordinaten ξ “ ρ, ϕ, z erstreckt werden. ż ` ˘ a “ v ρ, ϕ, z dξ Die Lösung der Integrationsaufgabe besteht darin, dass man den Vektor in seine Komponenten zerlegt, wodurch drei Integrale entstehen. ż ż ż ` ˘ ` ˘ ` ˘ a “ vρ ρ, ϕ, z eρ dξ ` vϕ ρ, ϕ, z eϕ dξ ` vz ρ, ϕ, z ez dξ Da bei eρ und eϕ eine Ortsabhängigkeit vorliegt, müssen Einheitsvektoren grundsätzlich mitintegriert werden! Das gelingt am einfachsten, indem man eρ und eϕ wie bei (5.31) nach kartesischen Koordinaten zerlegt, da ja die kartesischen Einheitsvektoren ex , ey , ez als konstante Vektoren stets die gleiche Richtung besitzen und daher vor die einzelnen Integrale gezogen werden können. Die dadurch entstehenden Integrale ż “ ` ˘ ` ˘ ‰ vρ ρ, ϕ, z cos ϕ ´ vϕ ρ, ϕ, z sin ϕ dξ a “ ex ż “ ` ˘ ` ˘ ‰ vρ ρ, ϕ, z sin ϕ ` vϕ ρ, ϕ, z cos ϕ dξ ` ey ż ` ˘ ` ez vz ρ, ϕ, z dξ kann man dann als gewöhnliche Integrale berechnen. Anschließend kann der Vektor a ggf. wieder in Zylinderkoordinaten dargestellt werden. ` ˘ ` ˘ ` ˘ a “ aρ ρ, ϕ, z eρ ` aϕ ρ, ϕ, z eϕ ` az ρ, ϕ, z ez Dieses Vorgehen ist in jedem System mit krummlinigen Koordinaten und auch bei Mehrfachintegralen in entsprechender Weise erforderlich, wobei
102
5 Vektorbeziehungen
je nach der konkreten Situation, also der Bedeutung der Integrationsvariablen ξ, mitunter einfachere Integrationen auszuführen sind. Im angegebenen Beispiel würde bei ξ “ ρ oder ξ “ z die Integration der Einheitsvektoren keinen Beitrag liefern, da sie weder von ρ noch von z abhängig sind.
Literatur [1] Baule, B.: Differentialgeometrie Verlag S.Hirzel, Leipzig (1945) [2] Crowe, M. J.: A History of Vectoranalysis Dover Publications, New York (1994) [3] Duschek, A., Mayer, W.: Lehrbuch der Differentialgeometrie, Kurven und Flächen im euklidischen Raum B.G. Teubner Verlag, Leipzig und Berlin (1930) [4] Gantmacher, F. R.: Matrizenrechnung, Teil I VEB Deutscher Verlag der Wissenschaften, Berlin (1958) [5] Klingbeil, E.: Tensorrechnung für Ingenieure Bibliographisches Institut, Mannheim (1966) [6] Kreyszig, E.: Differentialgeometrie Akademische Verlagsgesellschaft Geest & Portig, Leipzig (1957) [7] Lagally, M. I., Franz,W.: Vorlesungen über Vektorrechnung Akademische Verlagsgesellschaft Geest & Portig, Leipzig (1959) 103
104
Literatur
[8] Laugwitz, D.: Differentialgeometrie B.G. Teubner Verlagsgesellschaft, Stuttgart (1960) [9] Nahin, P. J.: Oliver Heaviside The Johns Hopkins University Press, Baltimore and London (2002) [10] Norden, A. P.: Differentialgeometrie, Teil I/II VEB Deutscher Verlag der Wissenschaften, Berlin (1956/57) [11] Raschewski, P. K.: Riemannsche Geometrie und Tensoranalysis Verlag Harri Deutsch, Thun und Frankfurt/Main, 2. Aufl. (1995) [12] Struik, D. J.: Lectures on Classical Differential Geometry Addison-Wesley Publishing Company, 2. Aufl. (1961) [13] Szabó, I.: Einführung in die Technische Mechanik Springer Verlag, Berlin, Göttingen, Heidelberg, 6. Aufl. (1963)
Kapitel 6
Geradlinige Koordinatensysteme Zusammenfassung Als geradlinige Koordinatensysteme werden neben kartesischen Koordinaten als ständiges Referenzsystem reziproke Systeme mit ko- und kontravarianten Basisvektoren eingeführt, die ein wesentliches Kennzeichen der Tensorrechnung bedeuten. Bei ihrer Darstellung und zur Umrechnung bei Basiswechsel werden bereits ausführlich Matrizen verwendet.
6.1
Notwendigkeit und Bedeutung
Koordinatensysteme sind erforderlich, um in einem mit Maßstäben versehenen Referenzrahmen genaue geometrische Angaben über Relationen der physikalischen Objekte wie Längen, Abstände, Richtungen oder Winkel zu machen und die Lösung konkreter physikalischer Probleme zu ermöglichen. Alle dreidimensionalen, orthogonalen Koordinatensystemen die hier und später behandelt werden, sind Rechtssysteme, bei denen die Reihenfolge der drei Achsen bzw. ihrer Einheitsvektoren eine Rechtsschraube bildet. Ein wesentliches Kennzeichen von Koordinatensystemen besteht darin, dass jeder Punkt des Raumes durch die Angabe von drei Zahlen, die Längen oder Winkel bedeuten und Koordinaten des Punktes heißen, eindeutig bestimmt werden kann. 105 © Springer Fachmedien Wiesbaden GmbH, ein Teil von Springer Nature 2019 W. Werner, Vektoren und Tensoren als universelle Sprache in Physik und Technik 1, https://doi.org/10.1007/978-3-658-25272-4_6
106
6 Geradlinige Koordinatensysteme
Das einfachste orthogonale Koordinatensystem ist das kartesische oder euklidische System mit geradlinigen Koordinatenachsen fester Richtung im Raum, die paarweise aufeinander senkrecht stehen. In ihm wird der Abstand zweier Punkte und damit die Metrik des Raumes durch den Satz des Pythagoras bestimmt. In vielen Fällen der Praxis sind kartesische Koordinaten zur Beschreibung und Lösung einer Aufgabenstellung nicht angepasst und damit weniger gut für die mathematische Formulierung geeignet, so dass man sowohl geradlinig-schiefwinklige als auch krummlinige sowie nichtorthogonale Koordinatensysteme verwenden will und untersuchen muss. Von großer Bedeutung ist der Übergang von einem Koordinatensystem zu einem anderen mit gleichem Ursprung, wobei der Basiswechsel durch eine lineare oder affine Transformation vermittelt wird. Die dabei auftretenden Transformationsgesetze lassen sich mit Matrizen besonders einfach und übersichtlich beschreiben. Für die Tensorrechnung grundlegend ist die Verwendung von zwei aufeinander bezogenen, schiefwinkligen Koordinatensystemen, die man kovariante und kontravariante Grund- oder Basissysteme nennt und mit denen man die Darstellung von Größen und Beziehungen knapp und elegant formulieren kann.
6.2
Begriffe der Tensorrechnung
Einige Begriffe der Tensorrechnung verlangen bereits hier eine kurze sprachliche Erläuterung, denn sie wurden zu einer Zeit benannt, als in der Wissenschaft und bei den Gelehrten die Sprachen Latein und Griechisch noch selbstverständlich waren. Selbst moderne Begriffsbildungen der Naturwissenschaft, obwohl mehr und mehr aus dem englischsprachigen Raum stammend, enthalten häufig Wortbestandteile aus den klassischen Sprachen. • kovariant Der Sinn des Wortes bedeutet in gleicher Weise veränderlich, nämlich wie etwas anderes, was noch näher bestimmt wird, wodurch ein entsprechender Zusammenhang oder Vergleich hergestellt wird. • kontravariant Gegensatzwort mit der Bedeutung in anderer Weise veränderlich
6.3 Kartesische Koordinatensysteme
107
Beide Begriffe wurden von James Joseph Sylvester (1814 -1897) eingeführt, [2, 75], und bezeichnen zwei verschiedene Arten von Basisvektoren oder von Vektor- und Tensorkomponenten. • kogredient und kontragredient Diese Begriffe bedeuten in gleicher bzw. anderer Weise schreitend, vorangehend und beziehen sich speziell auf Transformationseigenschaften. Beide Begriffspaare werden bei Koordinatentransformationen verwendet, um die gleich- oder andersartige Verhaltensweise bei einem Basiswechsel zu bezeichnen. Das Wort kovariant tritt noch in zwei weiteren Ausdrucksweisen auf. Unter der kovarianten Formulierung der Naturgesetze versteht man die von einem speziell gewählten Koordinatensystem unabhängige und damit in allen Systemen gleichartige mathematische Darstellung physikalischer Gesetze, insbesondere die Lorentz-kovariante Formulierung. Unterwirft man ein solches Naturgesetz einer Lorentz-Transformation, die im Kapitel Spezielle Relativitätstheorie des zweiten Bandes behandelt wird, dann bleibt seine Darstellungsform erhalten und ist dadurch kovariant, also in gleicher Weise veränderlich. Die kovariante Ableitung ist ein Differentiationsprozess, der in krummlinigen Koordinatensystemen bei Produkten aus ortsabhängigen Vektorkomponenten und Basisvektoren auf beide Anteile erstreckt werden muss. Auf die kovariante Ableitung wird in Kapitel 17 ausführlich eingegangen. Die zu einer Matrix kontragrediente Matrix ist die Transponierte ihrer Kehrmatrix, die bei bestimmten Transformationen auftritt, die noch behandelt werden.
6.3 6.3.1
Kartesische Koordinatensysteme Eigenschaften der kartesischen Basisvektoren
Die kartesischen Basisvektoren e haben in jedem Raumpunkt die Richtung der drei geradlinigen Koordinatenachsen x, y, z und sind Einheitsvektoren der Länge Eins, die jeweils senkrecht aufeinander stehen und in dieser Reihenfolge ein orthogonales Rechtssystem bilden. Man unterscheidet sie
108
6 Geradlinige Koordinatensysteme
entweder durch eigene Buchstaben oder durch entsprechende Indizierung. , i “ ex “ e1 / . j “ ey “ e2 / k“ ez “ e3
Ñ
¨ ˛ ¨ ˛ ¨ ˛ i e1 ex ˚ ‹ ˚ ‹ ˚ ‹ e “ ˝ j ‚ “ ˝ey ‚ “ ˝e2 ‚ ez
k
mit
| ek | “ 1
e3
Die Skalarprodukte der Basisvektoren lauten auf Grund der Orthogonalität der Einheitsvektoren mit dem Kronecker-Symbol wie bei (5.23) # ei ¨ ek “ δik “
1 0
i“k i‰k
Sie bilden insgesamt als dyadisches Skalarprodukt eine Einheitsmatrix. e ¨ eT “ E
(6.1)
Für die Vektorprodukte der Basisvektoren ergibt sich ebenfalls auf Grund der Orthogonalität ei ˆ e j “ e k
p i, j, k zyklisch q
Das dyadische Kreuzprodukt der Einheitsvektoren liefert eine schiefsymmetrische oder alternierende Matrix, die kartesische Γ-Matrix. ˛ ¨ ˛ ¨ e1 0 e3 ´ e 2 ˘ ˚ ‹ ˚ ‹ ` 0 e1 ‚ Γ “ e ˆ eT “ ˝e2 ‚ˆ e1 , e2 , e3 “ ˝´ e3 e3 e 2 ´ e1 0
(6.2)
Das Spatprodukt der Basisvektoren lautet mit den Kreuzprodukten für zyklische Werte i, j, k
ei , e j , e k “ e i ¨ p e j ˆ e k q “ 1
(6.3)
109
6.3 Kartesische Koordinatensysteme
6.3.2
Basisvektoren bei Basiswechsel
Neben dem ursprünglichen Koordinatensystem e wird ein weiteres kartesisches und damit orthogonales System ˆ e betrachtet, dass durch räumliche Drehung aus dem alten hervorgeht. Hierbei handelt es sich, da nur erste Potenzen in der Darstellung auftreten, um eine lineare Transformation, die auch als affine Abbildung bezeichnet wird. Die orthogonalen Einheitsvektoren ˆ ek erhält man als vektorielles Gleichungssystem für die Vektorzerlegung der neuen nach den alten Einheitsvektoren. Die Transformation wird durch eine Gram’sche Matrix nach (5.21) beschrieben, die in kartesischen Systemen mit A bezeichnet wird. ¨ ˛¨ ˛ ¨ ˛ a11 a12 a31 ˆ e1 e1 ˘ ` ` ˘ ˚ ‹˚ ‹ ˚ ‹ T e2 ‚ “ G ˆ e ¨ e e “ ˝a21 a22 a23 ‚˝e2 ‚ “ A e ˆ e “ ˝ˆ e, e e “ ˆ a31 a32 a33 e3 ˆ e3 ˆ e “ Ae
e e “ A´1 ˆ
ˆ e ¨ eT “ A
(6.4)
Die Skalarprodukte aus alten und neuen Einheitsvektoren und damit die Elemente der Matrix A sind konstant und stellen die Richtungscosinus zwischen den alten und neuen Achsen dar. Für i ‰ k gilt ei , ek q “ cos pˆ ˆ ei ¨ ek “ | ˆ ei | | ek | cos pˆ ei , ek q “ aik ‰ aki “ ˆ ek ¨ e i
6.3.3
Eigenschaften orthogonaler Transformationen
Aus der Orthogonalität der Systeme nach (6.1) erhält man für die Transformationsmatrix A E“ˆ e¨ˆ eT “ A e ¨ eT A T “ A A T
A AT “ AT A “ E
AT “ A´1
`
AT
˘´1
` ˘T “ A´1 “ A (6.5)
Matrizen mit dieser Eigenschaft heißen nach (3.32) orthogonal und beschreiben Drehungen orthogonaler Koordinatensysteme im Raum.
110
6 Geradlinige Koordinatensysteme
Orthogonale Matrizen sind stets nichtsingulär, denn ihre inverse Matrix existiert und ist der transponierten gleich! Die dritte Beziehung von (6.5) drückt die Eigenschaft aus, dass A mit ihrer kontragredienten Matrix pAT q´1 identisch ist. Die Determinante der Transformationsmatrix ergibt sich aus dem Determinantensatz (3.46). Sie muss positiv sein, damit das Koordinatensystem bei der identischen Abbildung in sich selbst überführt wird. Bei einem negativen Wert der Determinante träte eine Spiegelung mit einem Wechsel von Rechts- zu Linkssystem auf. `
det A
˘2
“1
Ñ
det A “ `1
(6.6)
Ein weiterer Basiswechsel zu einem Koordinatensystem ˆ ˆ e wird durch zwei nacheinander ausgeführte Drehungen mit folgender Transformation darstellt. ˆ e “ BAe ˆ e “ Bˆ
ˆ ˆ e ¨ eT “ B A
(6.7)
Mit den Matrizen A und B ist auch die Produktmatrix B A orthogonal, die damit eine einzige Drehung des Koordinatensystems von e direkt zu ˆ ˆ e beschreibt. Da die Matrixmultiplikation nichtkommutativ ist, führen die Transformationen B A und A B außer in Sonderfällen zu verschiedenen Koordinatensystemen. Für die Elemente aik von A gilt wegen der Orthogonalität nach (6.5), dass die Skalarprodukte gleicher Zeilen bzw. Spalten Eins a211 ` a212 ` a213 “ 1 , ... a211 ` a221 ` a231 “ 1 , ... und ungleicher Zeilen bzw. Spalten Null sind, a11 a21 ` a12 a22 ` a13 a23 “ 0 , ... a11 a12 ` a21 a22 ` a31 a32 “ 0 , ... allgemein also für alle i und k ÿ ÿ aip akp “ api apk “ δik p
p
mit den entsprechenden Beziehungen für die Richtungscosinus.
111
6.4 Kovariante Basis als Grundsystem
6.4 6.4.1
Kovariante Basis als Grundsystem Grundvektoren als kovariante Basisvektoren
Als ein allgemeines Koordinatensystem werden drei beliebige, nichtkomplanare Grundvektoren gi vorgegeben, die schiefwinklig zueinander stehen und normalerweise keine Einheitsvektoren sind. | gi | ‰ 1 Die Grundvektoren g
#
gi , gj , gk ‰ 0
(6.8)
bilden eine kovariante Basis, die mit unteren
Indizes oder dem formalem Laufindex # gekennzeichnet werden.
6.4.2
Darstellung im kartesischen System
Um die kovarianten Grundvektoren g
#
zu definieren, wird jeder einzelne
auf das kartesische Koordinatensystem e bezogen und nach (5.1) in die drei orthogonalen Richtungen ek zerlegt. Die frei vorgebbare Transformationsmatrix, die kartesische und kovariante Grundvektoren ineinander abbildet, wird mit U bezeichnet. ¨ ˛ ¨ ˛¨ ˛ g1 u11 u12 u13 e1 ˚ ‹ ˚ ‹˚ ‹ g “ ˝g2 ‚ “ ˝u21 u22 u23 ‚˝e2 ‚ “ U e # g3 u31 u32 u33 e3 g
#
“ Ue
e “ U´1 g
#
g
#
¨ eT “ U
(6.9)
Die Skalarprodukte zwischen Grundvektoren und kartesischen Einheitsvektoren stellen keine Richtungscosinus dar, da noch der Betrag | gi | hinzutritt! gi ¨ ek “ | gi | | ek | cos pgi , ek q “ | gi | cos pgi , ek q “ uik ‰ uki “ gk ¨ ei Die Gesamtheit aller Skalarprodukte stellt als Gram’sche Matrix die vorgegebene Transformationsmatrix U dar. ¨ ˛ g1 ¨ e1 g1 ¨ e2 g1 ¨ e3 ` ˘ ˚ ‹ U “ g ¨ e T “ G g , e “ ˝ g2 ¨ e 1 g2 ¨ e 2 g2 ¨ e 3 ‚ # # g3 ¨ e 1 g3 ¨ e 2 g3 ¨ e 3
112
6.5 6.5.1
6 Geradlinige Koordinatensysteme
Kontravariante Basis Kontravariante Basisvektoren
Als ein zweites, zunächst noch unabhängiges Koordinatensystem werden drei weitere nichtkomplanare Grundvektoren gi gewählt, die ebenfalls schiefwinklig zueinander stehen und keine Einheitsvektoren sind. ˇ iˇ ˇg ˇ ‰ 1
gi , gj , gk ‰ 0
(6.10)
Die Vektoren g# bilden eine kontravariante Basis, die mitunter auch als Kobasis bezeichnet wird und die man mit oberen Indizes darstellt.
6.5.2
Darstellung im kartesischen System
Um die kontravarianten Vektoren g# entsprechend zu definieren, werden sie ebenfalls auf das kartesische Koordinatensystem e bezogen und in die drei Richtungen ek zerlegt. Diese Transformationsmatrix, die kartesische und kontravariante Grundvektoren ineinander abbildet, wird mit V bezeichnet. ¨ 1˛ ¨ ˛¨ ˛ g v11 v12 v13 e1 ˚ 2‹ ˚ ‹˚ ‹ # g “ ˝g ‚ “ ˝v21 v22 v23 ‚˝e2 ‚ “ V e g3 v31 v32 v33 e3 g# “ V e
e “ V´1 g#
g # ¨ eT “ V
(6.11)
Die Skalarprodukte zwischen den kontravarianten Vektoren und den kartesischen Einheitsvektoren stellen ebenfalls keine Richtungscosinus dar. ˇ ˇ ˇ ˇ gi ¨ ek “ ˇ gi ˇ | ek | cos pgi , ek q “ ˇ gi ˇ cos pgi , ek q “ vik ‰ vki “ gk ¨ ei Die Gesamtheit aller Skalarprodukte stellt als Gram’sche Matrix die zweite Transformationsmatrix V dar. ˛ ¨ 1 g ¨ e1 g 1 ¨ e 2 g 1 ¨ e3 ` ˘ ˚ ‹ V “ g # ¨ e T “ G g # , e “ ˝ g 2 ¨ e1 g 2 ¨ e 2 g 2 ¨ e3 ‚ g 3 ¨ e1 g 3 ¨ e 2 g 3 ¨ e3 Das kontravariante Basissystem bleibt jedoch nicht unabhängig, sondern wird durch eine Bedingung an das kovariante Grundsystem gekoppelt!
113
6.6 Reziproke Basissysteme
6.6 6.6.1
Reziproke Basissysteme Reziprozitätsbedingung bei ungleicher Indexstellung
Der Zusammenhang zwischen den ungleich indizierten ko- und kontravarianten Basen, also zwischen Basis und Kobasis, als zueinander reziproke Systeme wird wie in (5.23) dadurch definiert, dass die beiden Vektorsätze folgende Reziprozitätsbedingung erfüllen müssen und daher reziproke Basisvektoren bilden. gi ¨ gk “ δik
g
#
` ˘T ` ˘T ¨ g# “ g# ¨ g “E #
(6.12)
Die dyadischen Skalarprodukte und damit die Gram’schen Matrizen der zueinander reziproken Basisvektoren bilden eine Einheitsmatrix. Durch die Reziprozitätsbedingung sind beide Basen voneinander abhängig, so dass der zweite Vektorsatz festliegt, wenn der erste Satz gewählt worden ist! Bei reziproken Systemen steht jeder Vektor der einen Basis senkrecht auf denjenigen Vektoren der anderen Basis, die abweichende Indizes haben. gi K g j , g k
und gi K gj , gk
p i, j, k zyklisch q
(6.13)
Reziproke Vektoren bilden bei gleichem Index spitze Winkel, denn wegen (6.12) muss im Skalarprodukt ˇ ˇ ` ˘ ˇ ˇ gk ¨ gk “ ` 1 “ | gk | ˇ gk ˇ cos gk , gk auch der dritte Faktor positiv sein, so dass der Winkel zwischen den Vektoren im ersten oder vierten Quadranten liegt und damit den Richtungssinn im Raum bestimmt. ˘ ` 0 ă cos gk , gk ă 1
Ñ
´
` ˘ π π ă > gk , gk ă ` 2 2
114
6.6.2
6 Geradlinige Koordinatensysteme
Graphische Darstellung reziproker Vektoren
In der Abbildung 6.1 sind für den zweidimensionalen Fall die ko- und kontravarianten Basisvektoren g und g# mit ihren relativen Lagen dargestellt. #
Die Ebene, die von den kovarianten Vektoren pgi , gj q aufgespannt wird, besitzt als Flächennormale den kontravarianten Vektor gk bei zyklischen Werten i, j, k.
g2
g1 , g3
g2
g1 , g3
g1
g2 , g3
g3 , g3 g1 , g2 g1 , g2 g1
g2 , g3
Abb. 6.1: Reziproke Koordinatensysteme in zweidimensionaler Darstellung Die besondere Situation, die bei orthogonalen Koordinaten auftritt, läßt sich in der Abbildung veranschaulichen. Dreht man die Achse von g2 in Richtung von g2 , dann wird wegen der Bedingung (6.13) des Senkrechtstehens gleichzeitig g1 nach g1 gedreht, so dass die beiden ursprünglich separaten Koordinatensysteme schließlich richtungsmäßig zusammenfallen. Die Unterscheidung zwischen Ko- und Kontravarianz ist dann aufgehoben und nur noch dadurch gegeben, dass die Basisvektoren keine Einheitsvektoren sind sondern verschiedene, zueinander reziproke Längen oder Beträge haben.
115
6.6 Reziproke Basissysteme
6.6.3
Metrikmatrizen bei gleicher Indexstellung
Die Skalarprodukte der ko- und kontravarianten Basisvektoren bilden jeweils für sich, also bei gleicher Indexstellung, Gram’sche Eigenmatrizen nach (5.25), die Metrikmatrizen heißen und symmetrisch sind. Die den Basisvektoren entsprechende Indizierung der Matrizen mit nur einem #-Symbol wird im Abschnitt 11.2.2 noch kommentiert. ˛ ¨ g1 ¨ g1 g1 ¨ g2 g1 ¨ g3 ˘ ˚ ˘T ` ‹ ` “ ˝ g1 ¨ g2 g2 ¨ g2 g2 ¨ g3 ‚ “ G # G# “ G g , g # # g1 ¨ g3 g2 ¨ g3 g3 ¨ g3 ¨ 1 1 ˛ g ¨ g g1 ¨ g2 g1 ¨ g3 ˘ ˚ ˘T ` ‹ ` G# “ G g # , g # “ ˝ g 1 ¨ g 2 g 2 ¨ g 2 g 2 ¨ g 3 ‚ “ G # g1 ¨ g3 g2 ¨ g3 g3 ¨ g3 Die Elemente der symmetrischen Metrikmatrizen ¨
G#
˛ g11 g12 g13 ˚ ‹ “ ˝ g12 g22 g23 ‚ g13 g23 g33
¨
˛ g 11 g 12 g 13 ˚ ‹ G# “ ˝ g 12 g 22 g 23 ‚ g 13 g 23 g 33
(6.14)
sind die ko- und kontravarianten Metrikkoeffizienten. gi ¨ gk “ g ik “ g ki
gi ¨ gk “ gik “ gki
(6.15)
Sie haben ihren Namen daher, dass man mit ihrer Hilfe geometrische Eigenschaften wie Länge, Abstand und Winkel messen kann. Durch eine Abstandsdefinition, wie z.B. den euklidischen Abstand, wird die Metrik des Raumes bestimmt. Die Beträge der Basisvektoren erhält man aus den Skalarprodukten ?
gk ¨ gk “ | gk |2 “ gkk ą 0
Ñ
| gk | “
ˇ ˇ2 ˇ ˇ gk ¨ gk “ ˇ gk ˇ “ g kk ą 0
Ñ
ˇ ˇ a ˇ kˇ ˇ g ˇ “ g kk
gkk
(6.16)
116
6 Geradlinige Koordinatensysteme
und aus den Kosinusfunktionen kann man die Winkel zwischen den Achsen berechnen. ˘ ` gik cos gi , gk “ ? gii gkk
6.6.4
˘ ` g ik cos gi , gk “ a g ii g kk
(6.17)
Begründung für zwei Basissysteme
Der Grund für die Einführung von zwei reziproken Basissystemen liegt in den erweiterten algebraischen Möglichkeiten sowie den kompakten oder symmetrischen und daher auch eleganteren Formulierungen vieler Beziehungen, die sich bei geeigneter Kombination von Größen aus den beiden ko- und kontravarianten Systemen ergeben. Das wird allerdings erst in den folgenden Kapiteln deutlich, wenn Produkte und Verknüpfungen von Vektoren und Tensoren in Komponentendarstellung behandelt werden.
6.6.5
Orthogonale Koordinatensysteme
Wählt man die kovarianten Basisvektoren gi , gj , gk in der Form, dass sie paarweise aufeinander senkrecht stehen, dann liegt ein orthogonales Koordinatensystem vor, das bis auf die Beträge | gk | ‰ 1 einem kartesischen System entspricht. Damit die Reziprozitätsbedingung (6.12) erfüllt wird, müssen die kontravarianten Basisvektoren gi , gj , gk dann mit dem kovarianten Vektorsatz bezüglich der gleichnamigen Richtungen zusammenfallen pg „ g q, was bereits an der Abbildung 6.1 erläutert wurde. Eine solche Festlegung bedeutet die Aufhebung der Ko- und Kontravarianz in orthogonalen Koordinatensystemen, allerdings bei reziproken Beträgen für gleichnamige Basisvektoren.
117
6.7 Eigenschaften der Metrikmatrizen
6.7 6.7.1
Eigenschaften der Metrikmatrizen Umrechnung der reziproken Basisvektoren
Auf Grund der Vektorzerlegung (5.24) mit Gram’schen Matrizen kann man die gegenseitige Darstellung der zueinander reziproken ko- und kontravarianten Basisvektoren durch die Metrikmatrizen G # und G# angeben und durch Skalarproduktbildung erhält man mit der Reziprozitätsbedingung (6.12) die beiden Metrikmatrizen als dyadische Produkte. g
#
“ G # g#
G# “ g
#
` ˘T ¨ g #
(6.18) g # “ G# g
G# “ g # ¨ g `
#
˘ # T
Zur einfachen Bezeichnung kann man die Sprechweise G-ko und G-kon für die Metrikmatrizen G # und G# und entsprechend bei anderen Größen verwenden.
6.7.2
Inversion und Kontragredienz
Aus (6.18) und gemäß (5.26) ergibt sich, dass die Metrikmatrizen zueinander invers und wegen der Symmetrie auch zueinander kontragredient sind, wodurch ihre Determinanten nach dem Determinantensatz (3.46) zueinander reziprok sind. Dabei bezeichnet man die kovariante Determinante von G # üblicherweise mit g, die, wie sich in (6.20) zeigt, stets positiv ist. G # G# “ G# G # “ E
g “ det G # “
1 ą 0 det G#
˘T ` # ˘´1 “ ` # ˘T ‰´1 ` G# “ G# “ G “ G ˘T ` ˘´1 “ ` ˘T ‰´1 ` G# “ G# “ G# “ G#
(6.19)
118
6 Geradlinige Koordinatensysteme
6.7.3
Zusammenhang zwischen kartesischen und reziproken Koordinatensystemen
Aus den bisherigen Transformationen ergeben sich mit (6.9), (6.11) und (6.18) die Darstellungen,
g
#
` ˘T ¨ g # “ U e ¨ eT V T “ U V T “ E
` ˘T “ V e ¨ eT U T “ V U T “ E g# ¨ g #
g
˘T
`
#
¨ g
#
“ U e ¨ eT U T “ U U T “ G #
` ˘T g # ¨ g # “ V e ¨ eT V T “ V V T “ G # g
#
“ U e “ U V´1 g# “ G # g# “ U UT g#
g# “ V e “ V U´1 g
#
“ G# g
#
“ V VT g
#
aus denen man folgende Beziehungen für Metrik- und Transformationsmatrizen erhält.
G # “ U UT “ U V´1
U “ G# V
G# “ V VT “ V U´1
V “ G# U
` ˘2 det G # “ det U “ g ą 0
` ˘2 det G# “ det V “ 1{g
(6.20)
6.8 Weitere Produkte der Basisvektoren
UT “ V´1
` ˘´1 V “ UT
VT “ U´1
` ˘´1 U “ VT
119
(6.21) UVT “ UT V “ VUT “ VT U “ E
det U ¨ det V “ 1
Die Matrizen U und V sind zueinander kontragredient mit reziproken Determinanten. Wie die verschiedenen Umrechnungen und Beziehungen zeigen, sind die Matrizen voneinander abhängig und bei Vorgabe von einer der Matrizen U oder V kann man alle anderen berechnen.
6.8
6.8.1
Weitere Produkte der Basisvektoren
Spatprodukte
Die jeweiligen drei Basisvektoren spannen ein Parallelepiped auf, dessen Volumen nicht verschwindet und das als Spatprodukt dargestellt werden kann. Mit der kartesischen Zerlegung der kovarianten Basisvektoren nach (6.9) erhält man mit (6.3) für das Spatprodukt folgende Darstellung in Form einer
120
6 Geradlinige Koordinatensysteme
Determinante. ˘ ` g1 ¨ pg2 ˆ g3 q “ u11 e1 ` u12 e2 ` u13 e3 ¨ “` ˘ ` ‰ ¨ u21 e1 ` u22 e2 ` u23 e3 ˆ u31 e1 ` u32 e2 ` u33 e3 q ˘ “` ˘` ˘ ` “ u11 e1 ` u12 e2 ` u13 e3 ¨ u21 u32 ´ u22 u31 e1 ˆ e2 ˘` ˘ ` ` u22 u33 ´ u23 u32 e2 ˆ e3 ˘` ˘‰ ` ` u23 u31 ´ u21 u33 e3 ˆ e1 u11 u12 u13 “ u21 u22 u23 loooooomoooooon e1 , e 2 , e 3 u31 u32 u33 “1
“ det U ‰ 0 Für die kontravarianten Basisvektoren gilt eine entsprechende Berechnung. Als Ergebnis erhält man folgende Beziehungen mit den Bezeichnungen S# und S # für die beiden Spatprodukte der Basisvektoren.
b
S# “ g1 , g2 , g3 “ det U “ S # “ g1 , g2 , g3 “ det V “
det G # “ b
?
g
1 det G# “ ? g
(6.22)
S# S # “ g1 , g2 , g3 g1 , g2 , g3 “ det U det V “ 1 Die Vorzeichen der beiden Skalare S# und S # ergeben sich aus der relativen Lage der einzelnen Basisvektoren g bzw. g# in einem kartesischen #
Koordinatensystem. Da bei drei ungleichen Indizes i, j, k auf Grund der Reziprozität gi orthogonal zu gj und gk ist, muss mit einem Skalar α gelten gi K gj , gk
Ñ
gj ˆ gk “ α gi
Nach skalarer Multiplikation mit gi erhält man nach (6.12) für den Skalar α, ˘ ` gi ¨ gj ˆ gk “ gi , gj , gk “ S # “ α gi ¨ gi “ α
121
6.8 Weitere Produkte der Basisvektoren
so dass man für zyklische Werte von i, j, k die Basisvektoren des einen Satzes durch die Kreuz- und Spatprodukte des anderen Satzes ausdrücken kann. gi “
gj ˆ gk gj ˆ gk “ S# gi , gj , gk
gi “
g ˆ gk gj ˆ g k “ j S# gi , gj , gk (6.23)
6.8.2
Vektorprodukte
Die dyadischen Kreuzprodukte der gleichen Basisvektoren führen auf die beiden vektoriellen, alternierenden Γ-Matrizen der ko- und kontravarianten Basisvektoren, die der Γ-Matrix (6.2) des kartesischen Systems entsprechen. ˛ ¨ ˛ ¨ g1 0 g3 ´ g2 ˘T ˚ ‹ ` ` ˘ ‹ ˚ 0 g1 ‚ g ˆ g “ ˝g2 ‚ˆ g1 , g2 , g3 “ S# ˝´ g3 # # g3 g2 ´ g1 0 ˛ ¨ 1˛ ¨ g 0 g3 ´ g2 ` ˘T ˚ ‹ ` ˘ ‹ ˚ 0 g1 ‚ g # ˆ g # “ ˝g2 ‚ˆ g1 , g2 , g3 “ S # ˝´ g3 g3 g2 ´ g1 0 ˛ 0 g3 ´ g2 ‹ ˚ 0 g1 ‚ Γ# “ ˝´ g3 g2 ´ g1 0
˛ 0 g3 ´ g2 ‹ ˚ 0 g1 ‚ “ ˝´ g3 g2 ´ g1 0 ¨
¨
Γ#
(6.24)
Für die Kreuzprodukte der Basisvektoren bei gleicher Indexstellung erhält man damit folgende Beziehungen, wobei die Γ-Matrizen jeweils mit entgegengesetztem Index auftreten. g
#
` ˘T ˆ g “ S# Γ # #
` ˘T g# ˆ g# “ S # Γ #
(6.25)
Man kann diese Gleichungen von links mit den Metrikmatrizen multiplizieren oder die transponierten Basisvektoren nach (6.18) ersetzen und mit der inversen Metrikmatrix multiplizieren.
122
6 Geradlinige Koordinatensysteme
Beide Vorgehensweisen liefern unterschiedliche Resultate und man erhält jeweils zwei Darstellungen für die gemischten Kreuzprodukte, in denen die Produkte aus Metrik- und Γ-Matrizen auftreten. ” ` ˘T ` ˘T ı G # g# ˆ g# “ g ˆ g# “ G # S # Γ # #
g
˘T
`
#
ˆ g
g
#
#
“g
ˆ g# `
#
˘T
G # “ S# Γ #
` ˘T ˆ g # “ S # G # Γ # “ S # Γ # G# (6.26)
g# ˆ g
˘T
`
6.9 6.9.1
#
“ S# G # Γ # “ S # Γ # G #
Basisvektoren bei Basiswechsel Lineare Transformation der kovarianten und kontravarianten Basen
Neben den Koordinatensystemen g
#
ˆ und g# werden neue Systeme g
#
und
g ˆ# eingeführt, die durch lineare Transformationen aus den alten hervorgehen. Wie die alten sollen auch die neuen Systeme zueinander reziprok sein, müssen also die Reziprozitätsbedingung (6.12) in entsprechender Weise erfüllen. Die neuen Systeme werden dadurch definiert, dass man die beiden Transformationsmatrizen P und Q als Kopplungsmatrizen für die Umrechnung durch freie Wahl vorgibt. g ˆ
#
“ Pg
#
g ˆ# “ Q g # “ Q V e
“ PUe
Die Reziprozitätsbedingung führt dann auf folgende Beziehungen, ˆ E“g
#
` # ˘T ¨ g ˆ “Pg
E“g ˆ# ¨ g ˆ
˘T
`
#
#
` ˘T ¨ g # QT “ P QT
` “ Q g# ¨ g
˘T #
PT “ Q P T
(6.27)
123
6.9 Basisvektoren bei Basiswechsel
aus denen der Zusammenhang der beiden Matrizen hervorgeht. PT “ Q´1
Ñ
` ˘´1 Q “ PT (6.28)
QT “ P´1
Ñ
`
P“ Q
˘ T ´1
Die Transformationsmatrizen P und Q sind zueinander kontragredient und die folgenden Produkte entsprechen der Einheitsmatrix. P Q T “ P T Q “ Q PT “ Q T P “ E (6.29) det P ¨ det Q “ 1 Die Umrechnung der neuen Basisvektoren ergibt mit (6.18), (6.27) und (6.28) folgende Beziehungsketten, g ˆ
#
“ Pg
#
ˆ #g “ P G # g# “ P G # Q´1 g ˆ # “ P G # PT g ˆ# “ G ˆ#
g ˆ # “ Q g # “ Q G# g
#
“ Q G# P´1 g ˆ
#
“ Q G# Q T g ˆ
#
#
ˆ g “G ˆ
#
wonach die Metrikmatrizen in den neuen Systemen durch Kongruenztransformation nach (3.18) aus denen des alten Systems hervorgehen. ˆ # “ P G # PT G
6.9.2
ˆ # “ Q G# Q T G
(6.30)
Basen bei Drehung des kartesischen Systems
Sind alte und neue reziproke Basisvektoren im gleichen kartesischen System definiert, so gelten folgende Beziehungen zwischen den Basisvektoren. g
#
“ U e,
g# “ V e,
ˆ ˆˆ “U e
ˆ e, “U
sowie
g ˆ
ˆ e, g ˆ# “ V
sowie
ˆ ˆˆ g ˆ# “ V e
g ˆ
#
#
124
6 Geradlinige Koordinatensysteme
e =
e = g# =
e =
e =
g# =
g# =
Abb. 6.2: Verschiedene kartesische und reziproke Basissysteme
Die Drehung des kartesischen Systems erfolgt mit der orthogonalen Matrix A. ˆ e “ Ae Die Transformations- oder Kopplungsmatrizen findet man aus folgenden Beziehungsketten. g ˆ
#
“ Pg
#
ˆe“U ˆ U´1 g “ PUe “ U
#
ˆ ˆˆ “ P U AT ˆ e“U e
ˆ ˆ V´1 g# “ Q V ATˆ ˆe“V ˆˆ e“V g ˆ# “ Q g # “ Q V e “ V e
ˆ U´1 “ U ˆ VT P“U
ˆ “ PU U
ˆ ˆ “ P U AT U
ˆ “ QV V
ˆ ˆ “ Q V AT V
(6.31) ˆ V´1 “ V ˆ UT Q“V
6.9.3
Starre Drehung des Gesamtsystems
Es wird der Sonderfall betrachtet, dass das kartesische und die reziproken Koordinatensysteme zueinander starr bleiben und gemeinsam durch orthogonale Transformation mit der Matrix A gedreht werden.
125
6.9 Basisvektoren bei Basiswechsel
e =
e =
e = g# =
g# =
Abb. 6.3: Starre Drehung beider Systeme Bezieht man dann alte und neue ko- und kontravariante Basen auf die entsprechenden kartesischen Systeme, so gelten die Beziehungen, g
#
ˆ “ U e und g
#
“ Uˆ e
e ˆ# “ V ˆ g# “ V e und g wobei die Transformationsmatrizen U und V für beide Fälle gelten, so dass nur ein Satz G # und G# von Metrikmatrizen existiert. Für die Umrechnung der reziproken Basisvektoren erhält man daher g ˆ
#
“ Uˆ e “ U A e “ U A U´1 g
#
“ PR g
#
“ PR Ue
g ˆ# “ V ˆ e “ V A e “ V A V´1 g# “ Q R g# “ Q R V e Der Vergleich der ko- und kontravarianten Basisvektoren liefert die Beziehungen für die zueinander kontragredienten Rotationsmatrizen, die durch Ähnlichkeitstransformation nach (3.17) aus der orthogonalen Matrix A erzeugt werden. ˘´1 ` P R “ U A U´1 “ U A VT “ QTR (6.32) Q R “ V A V´1 “ V A UT “ PTR `
˘´1
126
6 Geradlinige Koordinatensysteme
Für die Determinanten der drei Drehungsmatrizen gilt det A “ det P R “ det Q R “ ` 1
6.9.4
(6.33)
Transformationsmatrix der ebenen Drehung
Wird das kartesische Koordinatensystem px, y, z; eq um die z-Achse um den Winkel ϕ gedreht, so erhält man das System pˆ x, yˆ, zˆ ” z; ˆ eq. Die Gram’sche Matrix der kartesischen Einheitsvektoren stellt die orthogonale Transformationsmatrix dieser Rotation dar. ˛ ¨ ex ¨ e y ˆ ex ¨ e z ˆ ex ¨ ex ˆ ˘ ˚ ` ‹ e y ¨ ex ˆ ey ¨ e y ˆ ey ¨ ez ‚ e, e “ ˝ ˆ Aϕ “ G ˆ ˆ e z ¨ ex ˆ ez ¨ ey ˆ ez ¨ e z Die Transformation der Basisvektoren und die Transformationsmatrix der ebenen Drehung lauten ˛ cos ϕ sin ϕ 0 ‹ ˚ A ϕ “ ˝´ sin ϕ cos ϕ 0 ‚ 0 0 1 ¨
ˆ e “ Aϕ e
(6.34)
Wie bei allen orthogonalen Matrizen gilt für die Determinante der Matrix der ebenen Drehung det A ϕ “ 1 Bei Drehung in die entgegengesetzte Richtung ist der Winkel ϕ negativ, so dass sich die Vorzeichen bei den Sinusfunktionen umkehren und die transponierte Matrix entsteht.
6.9.5
Räumliche Drehung und Euler’sche Winkel
Das kartesische Koordinatensystem px, y, z ; eq wird aus seiner ursprünglichen Lage in drei Schritten in das neue System pˆ x, yˆ, zˆ ; ˆ eq gedreht, wobei drei Winkel auftreten, die Euler’sche Winkel heißen.
6.9 Basisvektoren bei Basiswechsel
127
Darstellung und Bezeichnung der Winkel entsprechen der vor allem in angewandter und Himmelsmechanik verwendeten Konvention, [1, 118], die in der Literatur aber nicht einheitlich ist. Im einzelnen finden die drei Drehbewegungen in mathematisch positiver ` ˘ Richtung folgendermaßen aus dem Ausgangssystem x, y, z ; e statt. 1. Drehung um die z-Achse mit dem Präzessionswinkel ϕ˘ ` in das erste Zwischensystem x1 , y1 , z1 ” z ; e p1q 2. Drehung ϑ um die x1 -Achse mit dem Nutationswinkel ˘ ` in das zweite Zwischensystem x2 ” x1 , y2 , z2 ; e p2q , die x1 -Achse heißt Knotenlinie 3. Drehung um die z2 -Achse ` mit dem Winkel ψ˘ in das System x3 , y3 , z3 ” z2 ; e p3q ` ˘ und damit in das Endsystem x ˆ, yˆ, zˆ ; ˆ e Die drei Darstellungen der Abbildung 6.4 zeigen die aufeinanderfolgenden Drehschritte mit den zugehörigen Koordinatensystemen und den Euler’schen Winkeln.
128
6 Geradlinige Koordinatensysteme
z1 z a) y1
y
x
x1 Präzessionswinkel z1 z
z2
b)
y2
y
x
x2 x1 Nutationsionswinkel Knotenlinie x 1 z1 z y^
^
c)
z ≡ z2
x
x^
y
x2 x1
Abb. 6.4: Aufeinanderfolgende Drehschritte und Euler’sche Winkel
6.9 Basisvektoren bei Basiswechsel
129
Die orthogonalen Rotationsmatrizen und die drei Drehungen lauten ˛ ¨ cos ϕ sin ϕ 0 ‹ ˚ e p1q “ A ϕ e A ϕ “ ˝´ sin ϕ cos ϕ 0‚ , 0 0 1 ˛ ¨ 1 0 0 ‹ ˚ cos ϑ sin ϑ ‚ , e p2q “ A ϑ e p1q Aϑ “ ˝ 0 0 ´ sin ϑ cos ϑ ˛ ¨ cos ψ sin ψ 0 ‹ ˚ e p3q “ A ψ e p2q A ψ “ ˝´ sin ψ cos ψ 0‚ , 0 0 1 Die Gesamttransformation erfolgt mit der orthogonalen Matrix A als Produkt der orthogonalen Einzelmatrizen. ˆ e “ e p3q “ A e “ A ψ A ϑ A ϕ e Die Transformationsmatrix heißt auch Euler-Matrix A E , deren Elemente die Richtungscosinus zwischen den jeweiligen Koordinatenrichtungen sind. ¨
cos ϕ cos ψ ´ sin ϕ sin ψ cos ϑ | ˚ A “ A E “ ˝ ´ cos ϕ sin ψ ´ sin ϕ cos ψ cos ϑ | ¨ ¨ ¨ sin ϕ sin ϑ | ˛ | sin ϕ cos ψ ` cos ϕ sin ψ cos ϑ | sin ψ sin ϑ ‹ ¨ ¨ ¨ | ´ sin ϕ sin ψ ` cos ϕ cos ψ cos ϑ | cos ψ sin ϑ ‚ | ´ cos ϕ sin ϑ | cos ϑ (6.35) Da die Matrixmultiplikation nichtkommutativ ist, erhält man andere Koordinatensysteme, wenn die Reihenfolge der Einzelmatrizen geändert wird.
6.9.6
Graphische Darstellung der Systemkopplungen
Die alten und neuen zueinander reziproken ko- und kontravarianten Basissysteme sind miteinander über verschiedene Transformationsmatrizen ge-
130
6 Geradlinige Koordinatensysteme
koppelt und jedes Basissystem ist zusätzlich im kartesischen System darstellbar. Die Transformations- oder Koppungsmatrizen weisen eine Reihe von Beziehungen untereinander auf, die in diesem Kapitel abgeleitet wurden. Die Abbildung 6.5 dient der Veranschaulichung der verschiedenen Kopplungen und der zugehörigen Matrizen.
Abb. 6.5: Koppungsmatrizen zwischen den verschiedenen Basisvektoren Als Multiplikationsregel für die Abbildung gilt, dass ein Basisvektor am Pfeilende dadurch berechnet wird, dass man das Matrizenprodukt aus der neben dem Pfeil stehenden Matrix und dem Basisvektor an der Pfeilspitze bildet, z.B. für die kovarianten Basisvektoren g “ U e. #
Bei Umkehrung der Pfeilrichtung und beibehaltener Multiplikationsregel muss mit der inversen Matrix multipliziert werden. Für den wichtigen Fall
131
6.9 Basisvektoren bei Basiswechsel
der Umrechnung zwischen ko- und kontravarianten Basisvektoren sind beide Transformationsrichtungen angegeben. Die vollständige Zusammenstellung aller Umrechnungsformeln zwischen den Basisvektoren findet man in Tabelle 6.1.
6.9.7
Spatprodukte in neuen Systemen
Eine entsprechende Berechnung wie im Abschnitt 6.8.1 führt nach Zerlegung der neuen kovarianten Basisvektoren nach den alten auf das Spatprodukt im neuen System. ` ˘ ` ˘ ˆ2 ˆ g ˆ3 “ p11 g1 ` p12 g2 ` p13 g3 ¨ g ˆ1 ¨ g “` ˘ ` ˘‰ ¨ p21 g1 ` p22 g2 ` p23 g3 ˆ p31 g1 ` p32 g2 ` p33 g3 ˘ “` ˘` ` ˘ “ p11 g1 ` p12 g2 ` p13 g3 ¨ p21 p32 ´ p22 p31 g1 ˆ g ˘` ˘ ` ` p22 p33 ´ p23 p32 g2 ˆ g3 ` ˘` ˘‰ ` p23 p31 ´ p21 p33 g3 ˆ g1 Das Produkt wird zur Determinante zusammengefasst, wobei das Spatprodukt der alten Basisvektoren nach (6.22) selbst eine Determinante ist. p11 p12 p13 ˘ ` g1 , g2 , g3 ˆ2 ˆ g ˆ3 “ p21 p22 p23 loooooomoooooon g ˆ1 ¨ g p31 p32 p33 “S# “ det U
“ det P det U ‰ 0 Das Spatprodukt der kontravarianten Basisvektoren wird entsprechend gebildet. Als Ergebnis erhält man die Spatprodukte in den neuen Systemen für zyklische Werte von i, j, k.
? ˆj , g ˆk “ det P det U “ g det P g ˆi , g
ˆj , g ˆ g ˆi , g
k
(6.36) 1 “ det Q det V “ ? det Q g
132
6.10 6.10.1
6 Geradlinige Koordinatensysteme
Beispiele für Basissysteme Ko- und kontravariantes System A
Gegeben sei ein kovariantes Grundsystem, das folgendermaßen in kartesischer Basis vorgegeben wird. , ¨ ˛ g1 “ ex / 1 0 0 . g2 “ e x ` e y Ñ U“˝1 1 0‚ / 1 1 1 g 3 “ e x ` ey ` e z Mit U können alle anderen Größen für die ko- und kontravarianten Systeme berechnet werden. $ 1 ¨ ˛ g “ e x ´ ey ’ 1 ´1 0 & ` T ˘´1 g2 “ e y ´ ez “ ˝ 0 1 ´1‚ Ñ V“ U ’ % 0 0 1 3 g “ ez e “ VT g ex “
“ UT g # “ g1 ` g2 ` g3
g1
“
` g2 ` g3
´ g2 ` g3 “
` g3
ey “ ´ g1 ` g2 ez “
#
Für die Metrikmatrizen erhält man nach (6.20) ¨ ˛ 1 1 1 G # “ U UT “ ˝ 1 2 2 ‚ 1 2 3 ¨
G# “ G # `
˘´1
˛ 2 ´1 0 “ V VT “ ˝ ´1 2 ´1 ‚ 0 ´1 1
det U “ x gi , gj , gk y “ S# “ 1 det V “ x gi , gj , gk y “ S # “ 1 ˘2 ` g “ det G # “ det U “ 1{ det G# “ 1
133
6.10 Beispiele für Basissysteme
6.10.2
Ko- und kontravariantes System B
Gegeben sei ein zweites kovariantes Grundsystem mit folgender Definition. g1 “ 2 e x ` e y
, / .
e x ` 3 ey
g2 “
g3 “ ´ e x
V“ U
˛ 2 1 0 U“˝ 1 3 0‚ ´1 0 1
Ñ ` ez
`
¨
˘ T ´1
/ -
¨ ˛ 3 ´1 3 1˝ ´1 2 ´1 ‚ “ 5 0 0 5 ¨
G#
˛ 5 5 ´2 “ U UT “ ˝ 5 10 ´1 ‚ ´2 ´1 2
¨ ˛ 19 ´8 15 1 ˝ ´8 6 ´5 ‚ G# “ V V T “ 25 15 ´5 25
det U “ x gi , gj , gk y “ S# “ 5 det V “ x gi , gj , gk y “ S # “ 1{5 ` ˘2 g “ det G # “ det U “ 1{ det G# “ 25
6.10.3
Kopplung zwischen System A und System B
Die Kopplungsmatrizen werden nach (6.31) berechnet. g ˆ
#
“ Pg
#
mit g
#
und g ˆ
#
“g
#A
“g
#B
“ UA e “ UB e
134
6 Geradlinige Koordinatensysteme ¨
P “ U B U´1 A “ UB VA
˘T
Q “ V B V´1 A “ VB UA
˘T
`
`
6.10.4
2 “˝ 1 ´1 ¨ 1 ˝ “ ´2 ´1
˛¨ ˛ 1 0 1 0 0 3 0 ‚˝ ´1 1 0 ‚ 0 1 0 ´1 1 ˛ 1 0 3 0‚ ´1 1
¨ 3 1˝ ´1 “ 5 0 ¨ 3 1˝ ´1 “ 5 0
˛¨ ˛ ´1 3 1 1 1 2 ´1 ‚˝ 0 1 1 ‚ 0 5 0 0 1 ˛ 2 5 1 0‚ 0 5
Ko- und kontravariantes System C mit Drehung
Gegeben ist das kovariante Grundsystem , g1 “ 2 e x ` e y / . g2 “ 2 e x ` 2 e y Ñ / g3 “ ` ez
¨
˛ 2 1 0 U“˝2 2 0‚ 0 0 1
¨
`
V“ U
˘ T ´1
˛ 2 ´2 0 1 “ ˝ ´1 2 0 ‚ 2 0 0 2
Ñ
g# “ V e
¨
G#
˛ 5 6 0 “ U UT “ ˝ 6 8 0 ‚ 0 0 1 ¨
˛ 8 ´6 0 1 G# “ V VT “ ˝ ´6 5 0 ‚ 4 0 0 4 ˘2 ` g “ det G # “ det U “ 1{ det G# “ 4
6.10 Beispiele für Basissysteme
135
Wird das System um die z-Achse um den Winkel ϕ gedreht, dann erhält man die kontragredienten Rotationsmatrizen (6.32) mit der Transformationsmatrix A ϕ nach (6.34). ¨
P R “ U Aϕ U´1
˛ cos ϕ ´ 3 sin ϕ p5{2q sin ϕ 0 cos ϕ ` 3 sin ϕ 0 ‚ “ U Aϕ VT “ ˝ ´ 4 sin ϕ 0 0 1 ¨
Q R “ V Aϕ V´1
˛ cos ϕ ` 3 sin ϕ 4 sin ϕ 0 “ V Aϕ UT “ ˝ ´ p5{2q sin ϕ cos ϕ ´ 3 sin ϕ 0 ‚ 0 0 1 det P R “ det Q R “ 1
Mit den Gleichungen (6.18), (6.30), (6.32) und (6.20)ff. gilt, ˆ#“g G ˆ
#
` ˘T ` ˘T “ P RG # P R ¨ g ˆ #
` ˘ ` ˘T “ U Aϕ V T U U T V Aϕ U T “ G # ` # ˘T ` ˘T ˆ# “ g G “ Q R G# Q R ˆ ˆ# ¨ g ` ˘ ` ˘T “ V A ϕ U T V V T U A ϕ V T “ G# woraufhin alte und neue Metrikmatrizen identisch sind.
136
6 Geradlinige Koordinatensysteme
6.11
Tabellen
Hinweise zu den Tabellen 6.1 bis 6.3 Nach Vorgabe der Matrizen A, U und V können alle skalaren Matrizen berechnet werden. Die Γ-Matrizen enthalten vektorielle Elemente. Eigenschaften der Matrizen A
orthogonale Transformationsmatrix
U, V
zueinander kontragrediente Transformationsmatrizen zueinander kontragrediente Kopplungsmatrizen
P, Q G #, G
#
Γ, Γ # , Γ
zueinander inverse Metrikmatrizen #
alternierende Matrizen der Basisvektoren
Determinanten Die Matrizen besitzen folgende Determinanten und Verknüpfungen, die in den Gleichungen (6.19) bis (6.22) sowie (6.29) angegeben sind. det G # “ g ą 0 det G# “
1 g ?
g “ S# “ g1 , g2 , g3 1 det V “ ? “ S # “ g1 , g2 , g3 g det U “
det G # det G# “ det U det V “ det P det Q “ 1 Berechnungsbeispiele ˆ e “ Ae g
#
“ G # g#
g # “ PT g ˆ# g ˆ
#
ˆ #g “G ˆ # “ P G # PT g ˆ#
g g ˆ g g ˆ
#
` ˘T ¨ g “ G# #
˘T
`
#
# #
¨ g
#
“ PG#
` ˘T ˆ g # “ S # Γ # G# ` ˘T ˆ g “ S # P Γ# #
U AT V AT P U AT Q V AT
U “ pVT q´1
V “ pUT q´1
ˆ PU “ U
ˆ QV “ V
g#
g ˆ
E
ˆ # “ Q G# Q T G
Q “ pPT q´1
Q G#
ˆ # “ P G # PT G E
PG#
P “ pQT q´1
PT “ Q´1
G # PT
QT “ P´1 G# Q T
A pP UqT
A pQ VqT
ˆ ´1 pP UqT “ V
g ˆ#
E
G # “ U UT
#
ˆ ´1 pQ VqT “ U
g ˆ
G# “ V V T
E
Tabelle 6.1: Umrechnung der Basisvektoren
g ˆ#
#
#
g
A UT
A VT
E
A
ˆ e
UT “ V´1
VT “ U´1
g#
AT “ A´1
E
#
g
ˆ e
e
e
6.11 Tabellen 137
138
6 Geradlinige Koordinatensysteme
eT
`
g#
˘T
`
g
˘T
`
#
g ˆ#
˘T
`
˘ T
`
g ˆ
˘T #
E
VT
UT
¨
U
E
G#
QT
G # PT
g# ¨
V
G#
E
G# Q T
PT
ˆ e¨
A
AVT
AUT
AUT G# QT
AVT G # PT
¨
PU
P
PG#
E
PG # PT
g ˆ# ¨
QV
Q G#
Q
QG# QT
E
e¨ g
g ˆ
#
#
`
QV
Tabelle 6.2: Dyadische Skalarprodukte der Basisvektoren
PUT
˘
139
6.11 Tabellen
eT
`
g#
˘T
`
g
˘T #
Γ
S # UT Γ # “ Γ V T
S # V T Γ# “ Γ UT
ˆ
UΓ
S # G # Γ # “ S # Γ # G#
S # Γ# “ U Γ UT
g# ˆ
VΓ
S # Γ # “ V Γ VT
S # G# Γ # “ S # Γ # G #
ˆ eˆ
AΓ
A Γ VT
A Γ UT
ˆ
PUΓ
S # P G # Γ # “ S # P Γ # G#
S # P Γ# “ P U Γ UT
g ˆ# ˆ
QVΓ
S # Q Γ # “ Q V Γ VT
S # Q G# Γ # “ S # Q Γ # G #
eˆ g
g ˆ
#
#
Tabelle 6.3: Dyadische Kreuzprodukte der Basisvektoren
Literatur [1] Goldstein, H.: Klassische Mechanik Akademische Verlagsgesellschaft, Wiesbaden, 5. Aufl. (1978) [2] Wrede, R. C.: Introduction to Vector- and Tensor Analysis Dover Publications, New York (1972)
140
Kapitel 7
Vektoren und ihre Komponenten Zusammenfassung Vektoren werden als physikalische Größen in koordinatenfreier Form beschrieben. Die koordinatengebundene Darstellung ihrer Komponenten in kartesischen und reziproken Koordinatensystemen und deren Umrechnung im gleichen Basissystem erfolgt durch die Beschreibung mit Matrizen. Die verschiedenen Produkte von Vektoren werden in Komponentenform angegeben.
7.1 7.1.1
Vektoren in kartesischen Koordinatensystemen Allgemeiner Vektor
Ein Vektor stellt als Größe eine physikalische Invariante dar, die unabhängig ist vom Standort eines Beobachters und damit auch von jedem Koordinatensystem, in dem man den Vektor beschreiben kann. Jeder Vektor a kann in einem beliebig wählbaren Koordinatensystem eindeutig zerlegt werden in Richtung der drei stets als nichtkomplanar vorausgesetzten Basisvektoren dieses Systems. Wählt man zunächst als einfachsten Fall ein kartesisches Koordinatensystem px, y, zq mit den Einheitsvektoren e , dann stellen die orthogonalen Projektionen pa ¨ ex,y,z q des Vektors a auf die Koordinatenachsen seine kartesischen Komponenten ax , ay , az dar. 141 © Springer Fachmedien Wiesbaden GmbH, ein Teil von Springer Nature 2019 W. Werner, Vektoren und Tensoren als universelle Sprache in Physik und Technik 1, https://doi.org/10.1007/978-3-658-25272-4_7
142
7 Vektoren und ihre Komponenten
Bei Wahl numerischer Indizes zur Kennzeichnung der drei Achsen erhalten die einzelnen kartesischen Komponenten im Hinblick auf die Unterscheidung von den kovarianten (s. Gl. 7.9) als Ornament einen Quer¯2 , a ¯3 , was in der Matrixdarstellung a der Komponenten aber strich, a ¯1 , a nicht erforderlich ist. Die Größen α, β, γ sind die Winkel, die der Vektor a mit den drei kartesischen Achsen bildet und die die Richtungscosinus bestimmen, die schon mehrfach aufgetreten sind. Der Vektor a hat dann folgende Darstellungen im kartesischen System. ¯ 1 e1 ` a ¯ 2 e2 ` a ¯ 3 e3 a “ a x ex ` a y ey ` a z ez “ a “ pa ¨ e1 q e1 ` pa ¨ e2 q e2 ` pa ¨ e3 q e3 ˘ ` “ | a | cos α e1 ` cos β e2 ` cos γ e3
(7.1)
Der Vektor selbst ist frei oder beweglich, so dass er als Verschiebungsvektor keinen festen Anfangspunkt hat. Sein Betrag wird als euklidischer Abstand seiner Endpunkte a ¯k “ xkEnde ´ xkAnf ang nach dem Satz des Pythagoras berechnet, wobei die Richtungscosinus eine wichtige Beziehung erfüllen, die bereits im Abschnitt 5.4.2 auftrat. b a2x ` a2y ` a2z
|a| “ a “
(7.2) ´ a ¯2 x
a
`
´ a ¯2 y
a
`
´ a ¯2 z
a
“ cos2 α ` cos2 β ` cos2 γ “ 1
• Die Summe der Quadrate der Richtungscosinus ist Eins! Für kartesische Vektoren werden folgende Schreibweisen verwendet,
`
a“ a ¯1 , a ¯2 , a ¯3
˘
¨ ˛ ¨ ˛ e1 a ¯1 ˘ ` ˝e2 ‚ “ e1 , e2 , e3 ˝a ¯ 2 ‚ “ aT e “ e T a e3 a ¯3
(7.3)
bei denen es sich um formale Skalarprodukte der Matrizenrechnung aus Zeilen- und Spaltenvektor handelt. Dabei stellt der eine Anteil die Basis-
143
7.2 Vektoren in reziproken Systemen
vektoren des Koordinatensystems (mit doppelter Unterstreichung), der andere die skalaren Komponenten des Vektors (mit einfacher Unterstreichung) in diesem System dar.
7.1.2
Ortsvektor
Der Ortsvektor r ist ein fester oder gebundenen Vektor, dessen Anfangspunkt stets im Nullpunkt des Koordinatensystems liegt und der zu einem bestimmten Raumpunkt weist. Mit dem Ortsvektor r “ rpP q kann jeder einzelne Punkt P “ P prq im Raum eindeutig identifiziert werden. Die kartesischen Komponenten des Ortsvektors sind die orthogonalen Projektionen auf die Koordinatenachsen und daher mit den Koordinaten ¯2 , x ¯3 des Systems identisch! x, y, z bzw. x ¯1 , x r “ x ex ` y ey ` z ez “ x ¯ 1 e1 ` x ¯2 e2 ` x ¯ 3 e3 “ x T e (7.4) |r| “ r “
7.2 7.2.1
a
x2 ` y 2 ` z 2
Vektoren in reziproken Systemen Kovariante Basis
Für jeden Vektor a kann eine Zerlegung in Richtung einer frei wählbaren kovarianten Basis g angegeben werden, #
` ˘T a “ a1 g1 ` a2 g2 ` a3 g3 “ a# g
#
` ˘T # “ g a #
(7.5)
wobei die beiden rechts stehenden Darstellungen die formalen Matrizenprodukte aus Basisvektoren und noch zu bestimmenden Koeffizienten sind, die mit dem formalen Laufindex # als oberem Index gekennzeichnet werden. Die drei Teilvektoren ai gi sind die vektoriellen Komponenten von a in der kovarianten Basis. Damit sie gemäß der Vektoraddition (5.1) tatsächlich den Vektor a ergeben, müssen sie die Parallelprojektion auf die
144
7 Vektoren und ihre Komponenten
schiefwinkligen, kovarianten Koordinatenachsen der Basis darstellen, woraus die skalaren Koeffizienten ai bestimmt werden. Die Koeffizienten der Vektorzerlegung heißen • kontravariante Komponenten ai bzw. a# von a bezüglich des kovarianten Grundsystems g #
Die Vektorzerlegung erfolgt stets mit entgegengesetzter Indexstellung für Komponenten und Basis.
7.2.2
Kontravariante Komponenten
Zur Bestimmung der kontravarianten Komponente ai multipliziert man den Vektor mit dem kontravarianten Basisvektor gi oder mit dem kovarianten Kreuzprodukt gj ˆ gk , wobei in beiden Fällen wegen der Reziprozitätsbedingung (6.12) nur ein Glied der zerlegten Form von Null verschieden ist. a ¨ gi “ gi ¨
3 ÿ
ap gp “ ai
p“1 3 ` ˘ ` ˘ ÿ a ¨ gj ˆ gk “ gj ˆ gk ¨ ap gp “ ai gi , gj , gk “ ai S# p“1
Die beiden Darstellungen der kontravarianten Komponenten lauten damit ˘ 1 ` ai “ a ¨ gi “ a ¨ gj ˆ gk S#
pi, j, k zyklischq
(7.6)
Mit der ersten Komponentendarstellung kann man auch folgende Matrixgleichung für die Komponenten angeben, bei denen der Vektor a als gemeinsamer vektorieller Faktor vor den Spaltenvektor tritt, ¨ 1˛ ¨ ˛ ¨ 1˛ a a ¨ g1 g ˚ 2‹ ˚ ‹ ˚ 2‹ # 2 a “ ˝a ‚ “ ˝a ¨ g ‚ “ a ¨ ˝g ‚ “ a ¨ g# a3 a ¨ g3 g3 so dass man für die Zerlegung des Vektors folgende Darstellung erhält. ´ ¯T ` ` ` ˘ ˘ ˘ a “ a ¨ g1 g 1 ` a ¨ g2 g 2 ` a ¨ g3 g 3 “ a ¨ g# g
#
(7.7)
145
7.2 Vektoren in reziproken Systemen
7.2.3
Kontravariante Basis
Der Vektor a kann ebenso zerlegt werden in Richtung der reziproken, kontravarianten Basis g# mit Koeffizienten mit unterem Index.
` ˘T ` ˘T a “ a1 g 1 ` a2 g 2 ` a 3 g 3 “ a # g # “ g # a #
(7.8)
Die Teilvektoren ai gi sind die vektoriellen Komponenten von a in der kontravarianten Basis, die die Parallelprojektion auf die reziproken Koordinatenachsen darstellen, woraus die skalaren Koeffizienten ai bestimmt werden. Die Koeffizienten der Vektorzerlegung heißen • kovariante Komponenten ai bzw. a # von a bezüglich des kontravarianten Grundsystems g# Auch hier erfolgt die Vektorzerlegung stets mit entgegengesetzter Indexstellung für Komponenten und Basis.
7.2.4
Kovariante Komponenten
Zur Bestimmung der kovarianten Komponenten ai multipliziert man den Vektor mit dem kovarianten Basisvektor gi oder mit dem kontravarianten Kreuzprodukt gj ˆ gk , wobei wieder nur ein Glied der zerlegten Form von Null verschieden ist. a ¨ gi “ gi ¨
3 ÿ
ap g p “ ai
p“1 3 ˘ ` ˘ ÿ ` a ¨ gj ˆ gk “ gj ˆ gk ¨ ap g p “ ai g i , g j , g k “ ai S # p“1
Die beiden Darstellungen der kovarianten Komponenten lauten damit ` ˘ 1 ai “ a ¨ gi “ a ¨ gj ˆ gk S#
pi, j, k zyklischq
(7.9)
146
7 Vektoren und ihre Komponenten
Auch hier kann man die entsprechende Matrixgleichung für die Komponenten angeben. ¨ ˛ ¨ ˛ ¨ ˛ a1 a ¨ g1 g1 ˚ ‹ ˚ ‹ ˚ ‹ a# “ ˝a2 ‚ “ ˝a ¨ g2 ‚ “ a ¨ ˝g2 ‚ “ a ¨ g # a3 a ¨ g3 g3 Die Zerlegung des Vektors lautet in diesem Fall ´ ¯T ` ` ` ˘ ˘ ˘ a “ a ¨ g1 g 1 ` a ¨ g2 g 2 ` a ¨ g3 g 3 “ a ¨ g g# #
7.2.5
(7.10)
Forminvariante Darstellung
Der Vektor ist als physikalische Größe eine Invariante, nur seine Zerlegung nach Koordinaten und damit seine Komponenten in verschiedenen Basissystemen fallen entsprechend anders aus. Zusammenfassend kann man nach (7.3), (7.5) und (7.8) folgende Vektorzerlegungen angeben, die die Forminvarianz von Vektoren in kartesischen und reziproken Koordinatensystemen ausdrückt. ` ˘T a “ a T e “ a# g
#
` ˘T “ a # g# (7.11)
˘T ˘T ` ` a “ a ¨ e e “ a ¨ g# g
¯T
´ #
“ a¨g
#
g#
Man erhält sechs weitere Darstellungen für den Vektor, wenn man die Faktoren in den formalen Skalarprodukten unter Beachtung der Transponierung gemäß (3.5) vertauscht. Die reziproke Kombination von ko- und kontravarianten Bestandteilen in den Vektordarstellungen ist stets an der entgegengesetzten Stellung der Indizes erkennbar. Dabei gilt folgende Sprachregelung. Ein Vektor wird ko- oder kontravariant genannt, wenn er durch ko- oder kontravariante Komponenten dargestellt wird!
(7.12)
147
7.3 Graphische Vektordarstellung
7.2.6
Betrag eines Vektors
Setzt man im Skalarprodukt eines Vektors mit sich selbst reziproke Kombinationen der Komponenten ein, so ergibt sich wegen der Reziprozitätsbedingung (6.12) eine entsprechend kompakte Darstellung für den Betrag wie im kartesischen System. Bei Verwendung gleichindizierter Komponenten treten dagegen die Metrikmatrizen hinzu, so dass Darstellungen und Berechnungen aufwendiger werden. ` ˘T ` ˘T a ¨ a “ | a |2 “ aT a “ a # a# “ a # G# a # ` ˘T ` ˘T “ a# a # “ a# G # a#
7.3 7.3.1
(7.13)
Graphische Vektordarstellung in reziproken Systemen Parallelprojektion in schiefwinkligen Systemen
Die Überlagerung der durch Parallelprojektion in Richtung reziproker Achsen entstehenden Teilvektoren erzeugen den Vektor a gemäß geometrischer Vektoraddition (Abbildung 7.1). a “ a1 g1 ` a2 g2 ` a3 g3 a “ a1 g 1 ` a2 g 2 ` a3 g 3
7.3.2
Orthogonalprojektion im schiefwinkligen System
Bei Orthogonalprojektion von a auf die kovarianten Achsen g
#
ergibt die
Vektoraddition der entstehenden Teilvektoren nach Abbildung 7.2 nicht den gegebenen Vektor a sondern einen anderen Vektor b und ist deshalb nicht anwendbar! a1K g1 ` a2K g2 “ b ‰ a
148
7 Vektoren und ihre Komponenten
g2 g2
g2
a2 g 2
a
a
a2 g 2
g3
g1
a1 g 1
g1 g3 = g
3
a1 g 1 g1
Abb. 7.1: Zerlegung eines Vektors nach reziproken Koordinaten im zweidimensionalen Fall
b g2
a
a2 g 2
g3
a1 g 1
g1
Abb. 7.2: Orthogonalprojektion eines Vektors
7.4 Beträge und Längen der Vektorkomponenten
7.4
7.4.1
149
Beträge und Längen der Vektorkomponenten Geometrische Beziehungen
Ko- und kontravariante Komponenten von Vektoren haben meist keine geometrisch anschauliche Bedeutung, da die Basisvektoren normalerweise keine Einheitsvektoren sind. In Abbildung 7.3 werden die verschiedenen Projektionen eines Vektors a dargestellt und ihre Längen werden angegeben.
D g2
F
g2
H
a
B
A
g3
E
O
g1 G g1
C
Abb. 7.3: Komponenten der beiden Vektorprojektionen
150
7 Vektoren und ihre Komponenten
7.4.1.1
Beträge und Skalarprodukte der Basisvektoren ? | gk | “ gkk ˇ ˇ a ˇ kˇ ˇ g ˇ “ g kk ˇ ˇ ˇ ˇ gk ¨ gk “ | gk | ˇ gk ˇ cosp gk , gk q “ 1
7.4.1.2
(*)
Beträge der vektoriellen Komponenten bei Parallelprojektion
Die Punkte A, B, C, D in Abbildung 7.3 sind die Endpunkte der Teilvektoren, die durch Parallelprojektion auf die ko- und kontravarianten Achsen entstehen und die gemäß vektorieller Addition den Vektor a ergeben. Für die Längen dieser Teilvektoren gilt nach Abbildung 7.1 OA “ a1 | g1 | , ˇ ˇ OC “ a1 ˇ g1 ˇ , 7.4.1.3
OB “ a2 | g2 | ˇ ˇ OD “ a2 ˇ g2 ˇ
Längen der Orthogonalprojektionen
Die Punkte E, F, G, H sind die Lotpunkte der Orthogonalprojektionen von a auf die Achsen der Basisvektoren und mit (*) gilt für ihre Längen OE “ OC cos p g1 , g1 q “
a1 , | g1 |
OF “ OD cos p g2 , g2 q “
a2 | g2 |
OG “ OA cos p g1 , g1 q “
a1 , | g1 |
OH “ OB cos p g2 , g2 q “
a2 | g2 |
Ko- und kontravariante Komponenten kann man in Diagrammen ˇ k ˇ nur im Falle von Einheitsvektoren direkt ablesen, d.h. wenn | gk | “ ˇ g ˇ “ 1 gilt.
7.4.2
Physikalische Vektorkomponenten
Alle Berechnungen von Vektoren innerhalb des Tensorkalküls werden mit ko- und kontravarianten Komponenten durchgeführt, die allerdings keine unmittelbare anschauliche Bedeutung haben und auch unterschiedliche Dimensionen besitzen können.
151
7.5 Umrechnung der Komponenten
Die physikalischen und dimensionsrichtigen Vektorkomponenten mit realer Bedeutung gewinnt man dadurch, dass man von den Teilvektoren in Richtung der reziproken Basen entsprechende Einheitsvektoren abspaltet. ˇ ˇ gk gk ˇ ˇ ak g k “ ak ˇ g k ˇ , a k g k “ a k | gk | k k o|n looomooon lo|og looomooon lo|ogmoo|n mo “ pak qph
“ pak qph
Einheitsvektor
Einheitsvektor
Für die ko- und kontravarianten physikalischen Komponenten erhält man daraus die Darstellungen ˇ ˇ a ` ˘ ˇ ˇ ak ph “ ak ˇ gk ˇ “ ak g kk
7.5
` k˘ ? a ph “ ak | gk | “ ak gkk
(7.14)
Umrechnung der Komponenten im gleichen Basissystem
Gemäß der Forminvarianz (7.11) erfolgt die Darstellung von Vektoren mit zusammengehörigen Paaren aus Komponenten und Basisvektoren, und zwar entweder mit a # und g# oder mit a# und g . Durch skalare Multi#
plikation ergibt sich der Ausdruck ` ˘T ` ˘T ` ˘T ` ˘T ` # ˘T ` ˘T “ a # g# ¨ g “ a g ¨ g “ aT e ¨ g a¨ g # # # # # looooomooooon loooooomoooooon loooomoooon “ G # “ pG # qT
“ UT
“E
und mit (6.19) und (6.20) folgt daraus der Zusammenhang zwischen ko- und kontravarianten sowie kartesischen Komponenten. a # “ G # a# “ U a
a# “ G# a # “ V a
(7.15)
Der Vergleich dieser Gleichung mit den Umrechnungsbeziehungen (6.18) der Basisvektoren, die noch einmal angegeben werden, g # “ G# g
#
sowie
g
#
“ G # g#
führt zur Erkenntnis, dass die zusammengehörigen Paare unterschiedlich, und zwar in kontragredienter Weise umgerechnet werden mit den nach (6.19) zueinander kontragredienten Metrikmatrizen.
152
7.6 7.6.1
7 Vektoren und ihre Komponenten
Produkte von Vektoren Skalarprodukt zweier Vektoren
Mit den forminvarianten Zerlegungen der beiden Vektoren ` ˘T ` ˘T a “ aT e “ a# g “ a # g# #
b “ eT b “ g `
˘ # T
` ˘T # b b# “ g #
wird das skalare Produkt gebildet. ` ˘T ` ˘T ` ˘T a ¨ b “ aT e ¨ eT b “ a# g ¨ g# b # “ a# g #
`
“ a#
˘T
g# ¨ g
˘T
`
#
b# “ a # `
˘T
#
` ˘T # b ¨ g #
g# ¨ g# `
˘T
b#
Man erhält unter Berücksichtigung der Reziprozitätsbedingung (6.12) und der Metrikmatrizen als dyadische Produkte (6.18) als Resultat fünf verschiedene Darstellungsformen, die man mit dem Betrag (7.13) eines Vektors vergleichen kann. ` ˘T ` ˘T a ¨ b “ aT b “ a# b # “ a# G # b# ` ˘T ` ˘T “ a # b # “ a # G# b #
(7.16)
Das Skalarprodukt nimmt eine dem kartesischen Fall entsprechende besonders einfache Form bei reziproker Vektorzerlegung an, denn in diesem Fall besteht das Produkt nur aus den kovarianten Komponenten des einen Vektors und den kontravarianten des anderen. Zerlegt man dagegen die Vektoren nach Basissystemen mit gleicher Indexstellung, dann treten zusätzlich die Metrikmatrizen auf. Im Skalarprodukt wie schon in der forminvarianten Vektordarstellung (7.11) zeigt sich besonders deutlich, dass die Einführung von zwei zueinander reziproken, ko- und kontravarianten Bezugssystemen sinnvoll ist, da dadurch eine kompakte und der kartesischen äquivalente Formulierung möglich wird. In Schreibweise und graphischem Erscheinungsbild wird diese elegante Formulierung durch die dabei auftretende entgegengesetzte Stellung der Indizes visuell unterstützt.
153
7.6 Produkte von Vektoren
7.6.2
Kreuzprodukt zweier Vektoren
Im kartesischen Fall erhält man mit der alternierenden Γ-Matrix (6.2) als Ergebnis die folgende formale Determinante. ˛ ¨ ¯b2 e3 ´ ¯b3 e2 ` ˘˚ ‹ a ˆ b “ aT e ˆ eT b “ aT Γ b “ a ¯1 , a ¯2 , a ¯3 ˝ ¯b3 e1 ´ ¯b1 e3 ‚ ¯b1 e2 ´ ¯b2 e1 e1 e 2 e 3 ¯1 a ¯2 a ¯3 aˆb“a ¯b1 ¯b2 ¯b3 In den reziproken Systemen gibt es für das Kreuzprodukt je nach Vektorzerlegung weitere mögliche Darstellungen mit den Γ-Matrizen (6.24), von denen hier nur die beiden einfacheren Formen nach (6.25) ohne Metrikmatrizen notiert werden. ` ˘T ` ˘T ` ˘T ` ˘T c “ a ˆ b “ a # g # ˆ g # b # “ S # a # Γ # b # “ c# g #
˘T “ a# g
˘T
`
`
#
ˆ g
#
b# “ S # a `
˘ # T
Γ# b # “ c # `
˘T
g#
Insgesamt lauten die drei formalen Determinanten e1 e2 e3 ¯1 a ¯2 a ¯3 “ S # aˆb“a ¯b1 ¯b2 ¯b3
g1 g2 g3 a1 a2 a3 “ S # b1 b2 b3
g1 g2 g3 1 a a2 a3 1 b b2 b3
(7.17) Für die Komponenten des Ergebnisvektors des Kreuzproduktes erhält man folgende Darstellungen. c“aˆb ` ˘T ` ˘T “ c# g “ c # g # # “ ` ˘ ` ˘ ` ˘‰ # “ S g1 a2 b3 ´ a3 b2 ` g2 a3 b1 ´ a1 b3 ` g3 a1 b2 ´ a2 b1 “ ` ˘ ` ˘ ` ˘‰ “ S # g 1 a 2 b3 ´ a 3 b2 ` g 2 a 3 b1 ´ a 1 b3 ` g 3 a 1 b2 ´ a 2 b1 (7.18)
154
7.6.3
7 Vektoren und ihre Komponenten
Spatprodukt
Setzt man für das Kreuzprodukt die entwickelten Determinanten ein, wobei die griechischen Buchstaben deren Minoren bedeuten, ` ˘ ` ˘ a ¨ pb ˆ cq “ a1 g1 ` a2 g2 ` a3 g3 ¨ α g1 ` β g2 ` γ g3 ˘ ` ˘ ` “ a 1 g1 ` a 2 g 2 ` a 3 g 3 ¨ ξ g 1 ` η g 2 ` ζ g 3 so erhält man folgende Ergebnisse in Determinantenform. ` ˘ a ¨ b ˆ c “ a, b, c “ S #
a1 a2 a3 b1 b 2 b 3 “ S # c1 c2 c3
a1 a2 a3 1 2 3 b b b 1 2 3 c c c
(7.19)
Kapitel 8
Vektorkomponenten bei Basiswechsel Zusammenfassung Eine wichtige Aufgabe ist die Transformation der Vektorkomponenten beim Wechsel der Koordinatensysteme. Für kartesische und reziproke Komponenten werden die Transformationsgesetze dargestellt. Verschiedene Vektorabbildungen und Transformationen werden untersucht und in Beispielen dargestellt.
8.1
Kartesische Komponenten
Ein physikalischer Vektor ist forminvariant und kann in alter peq und neuer Basis pˆ eq äquivalent dargestellt werden, wobei die Umrechnung der Basisvektoren durch orthogonale Transformationsmatrizen A bereits aus (6.4), (6.34) und (6.35) bekannt sind. aT A e aT ˆ e“ˆ a “ aT e “ ˆ Für die neuen Komponenten des Vektors folgt damit, da orthogonale Matrizen nach (6.5) ihren kontragredienten gleich sind ˆ aT A “ aT
Ñ
ˆ a “ pAT q´1 a “ A a 155
© Springer Fachmedien Wiesbaden GmbH, ein Teil von Springer Nature 2019 W. Werner, Vektoren und Tensoren als universelle Sprache in Physik und Technik 1, https://doi.org/10.1007/978-3-658-25272-4_8
156
8 Vektorkomponenten bei Basiswechsel
Wählt man für den beliebigen Vektor a speziell den Ortsvektor r, dessen Komponenten die Koordinaten x sind, so lauten die Zerlegungen, ˆT ˆ e r “ xT e “ x womit dann insgesamt folgende Umrechnungsformeln gelten. ˆ e “ Ae
ˆ a “ Aa
x ˆ “ Ax
(8.1)
In kartesischen Systemen werden Basisvektoren, Vektorkomponenten und Koordinaten in der gleichen Weise, also kogredient, transformiert! Kartesische Systeme bilden in dieser Hinsicht eine Ausnahme, da wegen der Orthogonalität der Basisvektoren nach Abschnitt 6.6.5 der Unterschied zwischen Ko- und Kontravarianz aufgehoben ist und die Kogredienz ein Wesensmerkmal orthogonaler Systeme darstellt.
8.2
Ko- und kontravariante Komponenten
Für einen Vektor a gelten nach (7.11) folgende forminvarianten Darstellungen in zueinander reziproken Basen. ` ˘T a “ a# g
#
` # ˘T ` ˘T a g ˆ “ a # g# “ ˆ
#
` ˘T # “ ˆ a# g ˆ
(8.2)
Setzt man die Umrechnungen der Basisvektoren nach (6.27) ein, dann gelten, da die Matrizen P und Q zueinander kontragredient sind, nach einfacher Umstellung die folgenden Transformationsformeln für Basisvektoren und Vektorkomponenten. g ˆ
#
“ Pg
#
ˆ a# “ Q a # “ Q G # a # (8.3)
g ˆ# “ Q g #
ˆ a # “ P a # “ P G # a#
157
8.3 Kogredienz und Kontragredienz
8.3
Kogredienz und Kontragredienz
Vektoren in reziproken Systemen werden gemäß (8.2) dargestellt durch zusammengehörige Paare mit entgegengesetzter Indexstellung, a# und g
#
a# und g #
oder
ˆ a# und g ˆ
oder
ˆ a# und g ˆ#
#
Man nennt Größen • kogredient wenn sie mit gleichen Matrizen transformiert werden • kontragredient wenn sie mit kontragredienten Matrizen transformiert werden In reziproken Systemen erfolgt die Umrechnung solcher Paare auf kontragrediente Weise, da die Faktoren mit zueinander kontragredienten Matrizen multipliziert werden. Mit den kontragredienten Matrizen P und Q gilt nach (8.3) und (6.29) z.B. ` ˘T ` ˘T ` # ˘T g ˆ “ a # QT P g# “ a# g ˆ a #
#
wie in (8.2) gefordert.
8.4 8.4.1
Allgemeine lineare Transformation Definition
Unter einer linearen Transformation, die man auch als affine Abbildung bezeichnet, versteht man die lineare Abhängigkeit zweier Vektoren, bei der jede Komponente des einen Vektors linear, also nur in erster Potenz, von allen Komponenten des anderen Vektors abhängt. Ausgangspunkt ist die Transformation der kartesischen Komponenten der Vektoren a und v mit einer beliebigen, nichtsingulären Transformationsmatrix T. , vx “ T11 ax ` T12 ay ` T13 az / / . vy “ T21 ax ` T22 ay ` T23 az Ñ v “ Ta (8.4) / / v “T a `T a `T a z
31
x
32
y
33
z
158
8 Vektorkomponenten bei Basiswechsel
Bei dieser affinen Abbildung von a nach v liegt bereits ein Vorgriff auf die im nächsten Kapitel zu behandelnde Tensorrechnung vor, bei der Transformationen eines Vektors in einen anderen untersucht werden.
8.4.2
Wechsel des Koordinatensystems
Gesucht wird der Zusammenhang der Vektorkomponenten, wenn zusätzlich ein Wechsel des Koordinatensystems durchgeführt wird. Das neue System ε sei geradlinig aber nicht kartesisch und seine Basisvektoren werden mit der regulären Matrix C dargestellt. ε “ Ce
(8.5)
Für Ausgangs- und Zielvektor gilt, aTε ε “ ˆ aTε C e a “ aT e “ ˆ ˆTε C e ˆTε ε “ v v “ vT e “ v mit denen die Komponenten beider Vektoren im neuen System lauten ` ˘´1 a ˆ a ε “ CT ` T ˘´1 ` ˘´1 ` ˘´1 v ˆε “ C v “ CT T a “ CT T CT ˆ aε Im neuen Koordinatensystem werden die Komponenten des transformierten Vektors durch Ähnlichkeitstransformation (3.17) mit der Matrix CT bestimmt. ` ˘´1 v “ Ta v ˆ ε “ CT T CT ˆ aε (8.6)
8.4.3
Orthogonale Systeme
Findet der Basiswechsel zwischen zwei kartesischen Koordinatensystemen e statt, die durch die orthogonale Matrix A mit den Basisvektoren e und ˆ umgerechnet werden, so gelten die Beziehungen (8.1), und die Komponenten im neuen Bezugssystem lauten a v ˆ “ A v “ A T a “ A T AT ˆ
8.4 Allgemeine lineare Transformation
159
Die Produktmatrix der Transformation nennt man die zu A kongruente Matrix. A
Ø
A T AT
(8.7)
Als Ergebnis erhält man die Transformation der kartesischen Vektorkomponenten im alten und im neuen System, wobei die Umrechnung zwischen den a als Kongruenztransformation nach (3.18) neuen Komponenten v ˆ und ˆ bezeichnet wird. v “ Ta
v ˆ “ A T AT ˆ a
(8.8)
In orthogonalen und damit auch kartesischen Systemen ist der Unterschied von Ko- und Kontragredienz, wie schon im Abschnitt 6.6.5 bemerkt, aufgehoben, da sowohl Basisvektoren als auch Komponenten nach (8.1) mit der orthogonalen Matrix A transformiert werden, die mit ihrer kontragredienten Matrix identisch ist.
8.4.4
Reziproke Systeme
Liegt ein Basiswechsel zwischen reziproken Systemen zugrunde, dann gelten mit (7.15) und (8.3) folgende Ketten von Beziehungen für die affine Abbildung der Vektorkomponenten. v ˆ # “ P U v “ P v # “ P G # v# “ P U T a “ P U T V T a # “ P U T U T a# “ P U T AT ˆ a “ P U T V T QT ˆ a # “ P U T U T PT ˆ a# v ˆ # “ Q V v “ Q v # “ Q G# v # “ Q V T a “ Q V T V T a # “ Q V T U T a# “ Q V T AT ˆ a “ Q V T V T QT ˆ a # “ Q V T U T PT ˆ a# An solchen Berechnungsbeispielen zeigen sich Stärke und Klarheit der Matrizendarstellung, denn die Indexschreibweise hätte durch die Vielzahl der Summen, die ggf. noch unterdrückt werden, und den verschiedenen Indizes, was man schon am einfachen Beispiel (3.13) sehen kann, eine große Unübersichtlichkeit zur Folge, die leicht zu Fehlern führen kann!
160
8 Vektorkomponenten bei Basiswechsel
Die Gesamtheit aller Transformationsbeziehungen sind in den Tabellen 8.1 und 8.2 zur Umrechnung der Vektorkomponenten bei Basiswechsel und bei affiner Transformation aufgeführt.
8.5 8.5.1
Beispiele für Vektortransformationen Vektorvorgabe im kartesischen System
Gegeben sei der folgende Vektor a “ ex ` 2 ey ` 3 ez
8.5.2
Ñ
¨ ˛ 1 a “ ˝2‚ 3
Vektordarstellung im System A
Die Zerlegung des Vektors nach den Basisvektoren von System A aus Beispiel 6.10.1 führt mit (7.15) auf die ko- und kontravarianten Komponenten. ¨ ˛¨ ˛ ¨ ˛ 1 0 0 1 1 a # “ U A a “ ˝ 1 1 0 ‚˝2‚ “ ˝3‚ 1 1 1 3 6 ¨ ˛¨ ˛ ¨ ˛ 1 ´1 0 1 ´1 a# “ V A a “ ˝ 0 1 ´1‚˝2‚ “ ˝´1‚ 0 0 1 3 3
8.5.3
Vektordarstellung im System B
Um den Vektor im System B darzustellen, benötigt man (8.3) und die Kopplungsmatrizen aus Beispiel 6.10.3 ¨
1 1 ` ˘T ˆ a # “ P a # “ U B V A a # “ ˝´2 3 ´1 ´1 ¨ 3 2 ` ˘T # 1 # # ˝ ´1 1 ˆ a “ Qa “ VB UA a “ 5 0 0
˛¨ ˛ ¨ ˛ 0 1 4 0 ‚˝3‚ “ ˝7‚ 1 6 2 ˛¨ ˛ ¨ ˛ 5 ´1 2 ‚ ˝ ‚ ˝ 0 ´1 “ 0‚ 5 3 3
161
8.5 Beispiele für Vektortransformationen
8.5.4
Starre Drehung von System A
Zusammen mit dem kartesischen wird das System A räumlich gedreht um die Euler’schen Winkel ϕ “ 30˝ ,
ϑ “ 60˝ ,
ψ “ 30˝
Mit der orthogonalen Euler-Matrix A E (6.35) für diese Drehungen ? ? ˛ 5 3 3 2 3 1˚ ? ‹ A E “ Aψ Aϑ Aϕ “ ˝´ 3 3 1 6 ‚ ? 8 ´6 4 2 3 ¨
und den Rotationsmatrizen (6.32) ? 5´3 3 ? 1˚ “ ˝4´6 3 ? 8 10 ´ 4 3 ¨ ? 5`3 3 ? 1˚ “ ˝ ´5 3 ? 8 2 3 ¨
P R “ U A A E VTA
Q R “ V A A E UTA
?
3 ? ´5 ` 3 ? ´ 15 ` 3 ? 4`6 3 ? 7´5 3 ? ´6 ` 2 3
˛ ? 2 3 ? ‹ 6`2 3 ‚ ? 10 ` 2 3 ? ˛ ´2 ` 8 3 ? ‹ 9´5 3 ‚ ? ´2 ` 2 3
werden die neuen Vektorkomponenten berechnet. ? ˛ 5 ` 12 3 ? ‹ ` ˘ 1˚ a # E “ P R a # “ ˝ 25 ` 9 3 ‚ ? 8 25 ` 11 3 ¨ ? ˛ ´ 15 ` 15 3 ? ` #˘ 1˚ ‹ a E “ Q R a# “ ˝ 20 ´ 5 3 ‚ ? 8 2 3 ¨
8.5.5
Physikalische Vektorkomponenten
Die ko- und kontravarianten, physikalischen Komponenten des Vektors a in den Systemen A und B werden mit (7.14) berechnet, wobei die Faktoren die
162
8 Vektorkomponenten bei Basiswechsel
Wurzeln aus den Hauptdiagonalelementen der Metrikmatrizen sind. ¨? ˛ ¨ ˛ ´1 2 ` #˘ ` ˘ ˚ ? ‹ ˚ ? ‹ a ph “ ˝´ 2 ‚ System A: a # ph “ ˝3 2 ‚ , ? 6 3 3 ¨ ? ˛ ¨ ? ˛ 2 5 4 19 ` #˘ ` ˘ 1˚ ? ‹ ˚ ‹ a ph “ ˝ 0 ‚ System B: a # ph “ ˝ 7 6 ‚ , ? 5 10 3 2
8.6
Tabellen
Hinweise zur Tabelle 8.1 Die weißen Feldblöcke links oben und rechts unten sind identisch! Direkte Transformation: von alt nach neu (blaue Felder)
Ñ
ˆ a# “ Pa#
Ñ
a # “ QT ˆ a#
Inverse Transformation: von neu nach alt (lila Felder) Hinweise zur Tabelle 8.2 Die Transformationsmatrix T kann man auch als Matrix der kartesischen Tensorkomponenten deuten! Berechnungsbeispiele v “ Ta v ˆ “ A T AT ˆ a ` ˘T # v ˆ# “ PUT PU ˆ a
E A UT
G# “ V V T A VT P Q G#
V
A
ˆ PU “ U
ˆ QV “ V
a#
ˆ a
ˆ a#
ˆ a#
V
U
E
G#
E
VT
E
G#
UT
PT “ Q´1
G # PT
QT “ P´1 G# Q T
pP UqT
ˆ a#
pQ VqT
ˆ a#
Tabelle 8.1: Umrechnung der Vektorkomponenten im eigenen Koordinatensystem und bei Basiswechsel
Q
PG#
U AT
G # “ U UT
E
U
a# V AT
AT
UT
VT
E
a
ˆ a
a#
a#
a
8.6 Tabellen 163
UT
VT
AT
PUT
QVT
v#
v#
v ˆ
v ˆ#
v ˆ#
U T UT V T UT A T UT P U T UT
U T VT V T VT A T VT P U T VT Q V T UT
T UT
T VT
Q V T VT
a#
a#
Q V T AT
P U T AT
A T AT
V T AT
U T AT
T AT
ˆ a
Q V T pQ VqT
P U T pQ VqT
A T pQ VqT
V T pQ VqT
U T pQ VqT
T pQ VqT
ˆ a#
Q V T pP UqT
P U T pP UqT
A T pP UqT
V T pP UqT
U T pP UqT
T pP UqT
ˆ a#
Tabelle 8.2: Umrechnung der Vektorkomponenten bei affiner Transformation
T
v
a
164 8 Vektorkomponenten bei Basiswechsel
Teil III
Tensoralgebra
165
Kapitel 9
Tensorbegriff und Tensor 2. Stufe Zusammenfassung Der Begriff des Tensors als linearer Abbildungsoperator wird definiert. Der Tensor 2. Stufe beschreibt bei physikalischen Anwendungen die Abbildung eines Vektors in einen anderen. Die Komponenten des Tensors werden in kartesischen und reziproken Systemen dargestellt und ihre Umrechnung in der gleichen Basis und bei Basiswechsel angegeben.
9.1 9.1.1
Lineare Vektorfunktion Abbildung von Vektoren und Tensordefinition
Ein Vektor s kann als ein Operator aufgefasst werden, der durch Skalarproduktbildung einem Vektor a den Skalar S zuordnet. psq
a Ñ S
ñ
s paq “ s ¨ a “ S
In dieser Interpretation führt der Operator s eine Abbildung von a nach S durch. Als Verallgemeinerung kommt man zum Begriff des Tensors, indem man im dreidimensionalen Raum einen linearen Operator T definiert, 167 © Springer Fachmedien Wiesbaden GmbH, ein Teil von Springer Nature 2019 W. Werner, Vektoren und Tensoren als universelle Sprache in Physik und Technik 1, https://doi.org/10.1007/978-3-658-25272-4_9
168
9 Tensorbegriff und Tensor 2. Stufe
der durch Skalarproduktbildung einem Vektor a einen Vektor v zuordnet und damit die Abbildung eines Vektors in einen anderen, also eine Vektorabbildung, durchführt. pT q
a Ñ v
ñ
v “ T paq “ T ¨ a
(9.1)
Die erste Darstellung in (9.1) betont die Operatorfunktion T paq des Tensors, die zweite Darstellung T ¨ a gibt die konkrete Ausführung der Abbildung durch Bildung des Skalarproduktes an. Da der Ausgangsvektor jede beliebige Richtung haben kann, wird durch diese Operation ein räumliches Vektorbüschel a in ein anderes Vektorbüschel v linear abgebildet, was symbolisch in Abbildung 9.1 dargestellt ist. In kartesischen Koordinaten lautet die Operatorgleichung für die drei Vektorkomponenten in Matrixform, ¨ ˛ ¨ ˛¨ ˛ vx Txx Txy Txz ax ˚ ‹ ˚ ‹˚ ‹ v “ ˝vy ‚ “ ˝ Tyx Tyy Tyz ‚˝ay ‚ “ T a vz
Tzx
Tzy
Tzz
(9.2)
az
bei der jede Komponente von v linear von allen drei Komponenten von a abhängt. Die vom Tensor T bzw. von der Matrix T seiner kartesischen Komponenten bewirkte Transformation stellt damit eine lineare oder affine Vektorfunktion dar. Diese lineare Operation ist identisch mit der bereits in (8.4) als affine Abbildung zwischen den kartesischen Komponenten zweier Vektoren behandelten Transformation v “ T a , wobei die dortige Transformationsmatrix der hier aufgestellten Operatormatrix T entspricht. • Lineare Operatoren T , die eine Vektorabbildung ausführen, werden Tensoren 2. Stufe genannt.
9.1.2
Linearitätseigenschaft
Die Linearität der Transformation oder Vektorabbildung wird durch folgende Eigenschaft definiert, bei der α und β beliebige reelle Zahlen be-
169
9.1 Lineare Vektorfunktion
Vektorbüschel a T
Vektorbüschel v
Abb. 9.1: Lineare Vektorabbildung durch einen Tensor deuten. T pα a ` β bq “ α T paq ` β T pbq “ αT ¨a `βT ¨b
(9.3)
Die Abbildung einer Summe gleicht der Summe der Abbildungen und skalare Faktoren können vor die Abbildung gezogen werden.
9.1.3
Tensorielles Produkt von Vektoren
Zwei Vektoren u und v bilden neben Skalar- und Kreuzprodukt ein drittes tensorielles oder dyadisches Produkt ohne Verknüpfungssymbol, das wegen uv ‰ vu nichtkommutativ ist und einen Tensor 2. Stufe darstellt. Tensoren, die durch tensorielle Produkte zweier Vektoren gebildet werden, heißen Dyaden und werden mit D bezeichnet. Dyaden treten in diesem Kapitel noch mehrfach auf und werden im Abschnitt 11.4.2 ausführlicher behandelt.
9.1.4
Projektion als lineare Abbildung
Ein einfaches Beispiel für eine lineare Vektorabbildung ist die orthogonale Projektion av des Vektors a in Richtung des Vektors v, der den Einheitsvektor ev “ v { | v | besitzt (Abbildung 9.2). Mit dem linearen Operator
170
9 Tensorbegriff und Tensor 2. Stufe
Pv der Projektion lautet die Abbildung av “ Pv paq “ Pv ¨ a
(9.4)
Abb. 9.2: Orthogonalprojektion eines Vektors auf eine Richtung Für die Projektion des Vektors a in v-Richtung gilt mit dem kommutativen Skalarprodukt eovmo eovn ¨ a “ Pv ¨ a “ Pv paq av “ av ev “ pa ¨ ev q ev “ ev pev ¨ aq “ lo Pv
Daraus folgt die Definition des linearen Projektionsoperators Pv , bei dem die beiden Einheitsvektoren ev direkt nebeneinander stehen. Pv “ ev ev
Pv paq “ Pv ¨ a “ ev ev ¨ a “ ev pev ¨ aq
(9.5)
Der Operator Pv wird durch ein tensorielles Produkt definiert und stellt eine Einheitsvektordyade dar. Der Projektionsoperator Pv bildet alle Vektoren, die vom Punkt O zur Ebene E zeigen, in den gleichen Vektor av ab, der die Richtung ev der Flächennormale und den kürzesten Abstandes d hat. av “ d ev “ Pv paq “ Pv pbq
171
9.2 Tensor 2. Stufe in kartesischer Basis
Das kreisförmige Vektorbüschel a um den Punkt O der Zeichenebene wird in kollineare Vektoren Pv “ av “ λev
mit
´ R ď λ ď `R
in ˘ ev -Richtung abgebildet. Damit stellt Pv keine eindeutige sondern eine entartete Abbildung dar, bei der eine zweidimensionale in eine eindimensionale Mannigfaltigkeit transformiert wird!
9.2 9.2.1
Tensor 2. Stufe in kartesischer Basis Darstellung der Abbildung durch einen Tensor
Die Abbildung von a in den Vektor v kann mit der Vektorzerlegung von a und der Linearitätseigenschaft (9.3) folgendermaßen dargestellt werden. v “ T ¨ a “ T ¨ pax ex ` ay ey ` az ez q “ ax T pex q ` ay T pey q ` az T pez q “ ax T ¨ ex ` ay T ¨ ey ` az T ¨ ez Dabei bedeutet jeder Ausdruck T ¨ ex,y,z “ T pex,y,z q gemäß Definition (9.1) einen Vektor, der kartesisch zerlegt werden kann. Bei dieser Zerlegung erfolgt die Indizierung der Koeffizienten so, dass eine Darstellung entsteht, die mit der am Anfang betrachteten Operatorgleichung (9.2) identifizierbar ist. v“
pTxx ex ` Tyx ey ` Tzx ez q ax ` pTxy ex ` Tyy ey ` Tzy ez q ay ` pTxz ex ` Tyz ey ` Tzz ez q az
Nach Ersetzen der kartesischen Komponenten von a ax,y,z “ a ¨ ex,y,z “ ex,y,z ¨ a und Ausklammern des Vektors a erhält man folgende Darstellung. ” v “T ¨a“ Txx ex ex ` Tyx ey ex ` Tzx ez ex ` Txy ex ey ` Tyy ey ey ` Tzy ez ey ı ` Txz ex ez ` Tyz ey ez ` Tzz ez ez
¨a
172
9 Tensorbegriff und Tensor 2. Stufe
Der Operator T besteht aus einer Summe von neun Gliedern, wobei jedes einzelne aus einem Koeffizienten, der die Tensorkomponente darstellt, und dem tensoriellen Produkt zweier Basisvektoren zusammengesetzt ist.
9.2.2
Tensordarstellung und Komponenten
Nach Umordnung der Glieder erhält man die Darstellung des Tensors 2. Stufe mit kartesischen Einheitsvektordyaden. T “
Txx ex ex ` Txy ex ey ` Txz ex ez ` Tyx ey ex ` Tyy ey ey ` Tyz ey ez
(9.6)
` Tzx ez ex ` Tzy ez ey ` Tzz ez ez Die Indizes x, y, z werden wie üblich durch 1, 2, 3 ersetzt und die kartesischen Tensorkomponenten erhalten zur Unterscheidung von den kovarianten mit unterem Index einen Querstrich. Der Tensor erscheint dann in der folgenden Summenform. T “
3 ÿ 3 ÿ
T¯ik ei ek
i“1 k“1
Mit der Matrix der kartesischen Komponenten ¨
Txx Txy Txz
˚ T “ ˝ Tyx Tyy Tzx
Tzy
Tyz Tzz
¨ ¯ ˛ T11 T¯12 T¯13 ‹ ˚ ¯ ‹ ‚ “ ˝ T21 T¯22 T¯23 ‚ T¯31 T¯32 T¯33 ˛
(9.7)
lautet die Tensordarstellung als Matrizenprodukt ¨
˛ e1 ` ˘ ˚ ‹ T “ e 1 , e 2 , e3 T ˝ e 2 ‚ “ eT T e e3
(9.8)
173
9.3 Tensor 2. Stufe in reziproken Basissystemen
9.3 9.3.1
Tensor 2. Stufe in reziproken Basissystemen Tensordarstellung in Summenform
Die Abbildung von a in den Vektor v kann wie bei der kartesischen Basis in entsprechender Weise in einem frei wählbaren, kovarianten Basissystem g und der dazu reziproken Basis g# angegeben werden. Bei kontravarian#
ter Komponentendarstellung ak “ gk ¨ a gemäß (7.6) folgt, wenn man die Vektoren T ¨ gk nach den kontravarianten Basisvektoren g# zerlegt ` ˘ v “ T ¨ a “ T ¨ g1 a1 ` g2 a2 ` g3 a3 ˘ ` ˘ ` ˘ ` ˘` ˘` ˘` “ T ¨ g1 g1 ¨ a ` T ¨ g2 g2 ¨ a ` T ¨ g3 g3 ¨ a ˘` ` ˘ “ T11 g1 ` T21 g2 ` T31 g3 g1 ¨ a ˘` ˘ ` (*) ` T12 g1 ` T22 g2 ` T32 g3 g2 ¨ a ` ˘` 3 ˘ 1 2 3 ` T13 g ` T23 g ` T33 g g ¨a Der Vektor a wird ausgeklammert und die Basisvektoren werden zu Dyaden zusammengefasst. Abhängig davon, ob man anfänglich a nach (7.6) oder (7.9) zerlegt, kann der Tensor T auf vier verschiedene Arten in Summenform mit Basisvektordyaden dargestellt werden. T “
“
3 ÿ 3 ÿ
Tik gi gk “
3 ÿ 3 ÿ
i“1 k“1
i“1 k“1
3 ÿ 3 ÿ
3 ÿ 3 ÿ
i“1 k“1
T i k g i gk “
T ik gi gk (9.9) T ik gi gk
i“1 k“1
Den Darstellungen (9.6) und (9.9) entnimmt man die Tatsache, dass jeder Tensor 2. Stufe aus der gewichteten Summe der Basisvektordyaden besteht.
9.3.2
Tensorraum
Der Tensor T besitzt als invariante Größe neben seinen neun kartesischen Komponenten pTq jeweils weitere neun kovariante pT ## q, kontravariante pT ## q und gemischte pT#¨ # , T#¨ # q Komponenten. Sie weisen im Raum der
174
9 Tensorbegriff und Tensor 2. Stufe
tensoriellen Produkte gemäß der dyadischen Verknüpfung von je zwei Basisvektoren in jeweils neun formale Richtungen ei ek , gi gk , gi gk , gi gk , bzw. gi gk eines zugehörigen neundimensionalen Tensorraumes. Im weiteren Verlauf des Tensorkalküls wird untersucht, welche Beziehungen diese Komponentenarten untereinander aufweisen und wie sie bei einem Basiswechsel transformiert werden.
9.3.3
Tensorzerlegung
Wählt man in der Beziehung (*) anstelle des Vektors a den kovarianten Basisvektor gk mit der entsprechenden Zerlegung, dann erhält man die Vektoren ˘` k ˘ ` g ¨ gk uk “ T ¨ gk “ T1k g1 ` T2k g2 ` T3k g3 loooomoooon “1
Die folgende Summe von Dyaden liefert nach (9.9) eine der Summendarstellungen des Tensors T . u 1 g 1 ` u2 g 2 ` u3 g 3 “
3 ÿ 3 ÿ
Tik gi gk “ T
i“1 k“1
Man kann in der Darstellung (*) anstelle von a auch den kontravarianten Basisvektor gk wählen, so dass man zwei Tensorzerlegungen erhält, die den Vektorzerlegungen (7.7) und (7.10) entsprechen. ˘ ˘ ˘ ˘T # ` ` ` ` T “ T ¨ g1 g1 ` T ¨ g2 g2 ` T ¨ g3 g3 “ T ¨ g g #
“ T ¨g `
˘ 1
g1 ` T ¨ g `
˘ 2
g2 ` T ¨ g `
˘ 3
g3 “ T ¨ g # `
˘T
g
#
(9.10)
9.3.4
Tensordarstellung in Matrizenform
Die Doppelsummen der verschiedenen Tensordarstellungen (9.9) werden wie im kartesischen Fall (9.8) als Matrizenprodukte geschrieben. In entsprechender Ausdrucksweise für Tensoren wie bei (7.12) kann man den kovarianten Tensor angeben, also die Darstellung mit kovarianten
175
9.3 Tensor 2. Stufe in reziproken Basissystemen
Komponenten. Für dyadische Produkte ist es dabei unwesentlich, ob neben oder zwischen den Vektoren ein skalarer Faktor steht. α gi gk “ gi α gk “ gi gk α T “
g1 T11 g1 ` g1 T12 g2 ` g1 T13 g3 ` g2 T21 g1 ` g2 T22 g2 ` g2 T23 g3
` g3 T31 g1 ` g3 T32 g2 ` g3 T33 g3 ˛ ¨ 1˛ ¨ g T11 T12 T13 ` 1 2 3˘ ˚ ‹ ˚ 2‹ “ g , g , g ˝ T21 T22 T23 ‚˝ g ‚ g3
T31 T32 T33 ` ˘T “ g# T ## g#
Insgesamt gibt es neben der kartesischen vier weitere Matrixdarstellungen des Tensors 2. Stufe. ` ˘T ` ˘T ## T “ eT T e “ g# T ## g# “ g T g #
`
“ g
9.3.5
˘ # T
¨# T#
g
˘T
`
#
“ g
#
T# ¨#
g
#
(9.11)
#
Komponentenmatrizen
Die ko- und kontravarianten sowie gemischten Komponenten sind die Elemente der folgenden vier Tensormatrizen. ¨
T11 T12 T13
˛
˚ ‹ T ## “ ˝ T21 T22 T23 ‚ ,
¨
˚ ¨# T# “˝
T11 T21 T31
T12 T22 T32
˛ T13 ‹ T23 ‚ , T33
˛
˚ ‹ T ## “ ˝ T 21 T 22 T 23 ‚ T 31 T 32 T 33
T31 T32 T33 ¨
T 11 T 12 T 13
(9.12) ¨ ˚ T# ¨# “ ˝
T 11 T 21 T 31
T 12 T 22 T 32
˛ T 13 ‹ T 23 ‚ T 33
176
9 Tensorbegriff und Tensor 2. Stufe
Wie bei Matrizen üblich bezeichnet bei einem Element der vordere Index die Zeile, der hintere Index die Spalte. Bei der Schreibweise der gemischten Komponenten wird der Deutlichkeit halber bei den Matrizen der hintere Index durch einen vorgestellten Punkt besonders gekennzeichnet, der bei den Matrixelementen entfällt.
9.3.6
Systemvektoren der Koordinaten, Basisvektoren als Vektorabbildung
Die kartesischen sowie die alten und neuen reziproken Basisvektoren kann man mit dem speziellen Zeilenvektor εT “ p1, 1, 1q
(9.13)
jeweils zu einem einzigen Systemvektor zusammenfassen, der für das entsprechende Koordinatensystem charakteristisch ist. e “ e1 ` e2 ` e3 “ εT e g kov “ g1 ` g2 ` g3 “ εT g
eˆ “ ˆ e1 ` ˆ e2 ` ˆ e3 “ εT ˆ e g ˆ kov “ g ˆ1 ` g ˆ2 ` g ˆ3 “ εT g ˆ
#
g kon “ g1 ` g2 ` g3 “ εT g#
#
g ˆ kon “ g ˆ1 ` g ˆ2 ` g ˆ 3 “ εT g ˆ#
(9.14) Die Transformationsbeziehungen (6.9) und (6.11) bzw. (8.1) und (8.3) der Basisvektoren g
#
“ Ue ,
ˆ e “ Ae ,
g ˆ
#
“ Pg
#
g ˆ# “ Q g #
g# “ V e ,
kann man auch als Operatorgleichungen oder Vektorabbildungen gemäß (9.1) auffassen, wenn man den Matrizen entsprechende Systemtensoren zuordnet. U “ eT U e , V “ eT V e ,
A “ eT A e ,
` ˘T P“ g Pg #
Q“ g `
˘ # T
#
Q g#
(9.15)
177
9.4 Tensorkomponenten bei gleicher Basis
Dabei wird die Produktbildung bei Tensoren bereits verwendet, die erst im nächsten Kapitel im Abschnitt 10.3.2 eingehend untersucht wird. Der Systemvektor gkov erhält dann die Darstellung gkov “ e ¨ U “ εT e ¨ eT U e “ εT U e “ εT g
#
Entsprechende Überlegungen führen zu folgenden Ergebnissen, die bei Basiswechsel zu kreuzweise zugeordneten Systemvektoren führen. eˆ “ e ¨ A “ εT A e gkov “ e ¨ U “ εT g
#
g ˆkov “ gkon ¨ P “ εT P g
9.3.7
gkon “ e ¨ V “ εT g#
, #
(9.16)
g ˆkon “ gkov ¨ Q “ εT Q g#
,
Tensorkomponenten bei doppeltem Skalarprodukt
Unter Verwendung der Beziehungen aus Abschnitt 10.3.3 kann man mit Hilfe der Systemvektoren die verschiedenen Tensorkomponenten darstellen, was am Beispiel der kovarianten gezeigt wird. g kov ¨ T ¨ g kov “ εT g
#
` ˘T ` ˘T ε ¨ g# T ## g# ¨ g
“ εT T ## ε “
#
3 ÿ 3 ÿ
Tik
i“1 k“1
Die Doppelsumme entspricht der Beziehung (3.52) für den Sonderfall, dass man die dortigen Vektoren durch den speziellen Vektor ε ersetzt.
9.4
Tensorkomponenten bei gleicher Basis
Die Komponenten des Tensors 2. Stufe werden ineinander umgerechnet, indem man die Basisvektoren in den Tensordarstellungen (9.11) nach (6.9), (6.11) und (6.18) oder nach Tabelle 6.1 ersetzt. Für den Tensor in kartesischer und kontravarianter Darstellung gelten als Beispiel dann folgende
178
9 Tensorbegriff und Tensor 2. Stufe
Umrechnungen. ` ˘T ` ˘T T “ eT T e “ g# U T UT g# “ g# T ## g# ` ˘T ## T g T “ g #
#
` ˘T ` ˘T “ g# G # T## G # g # “ g# T ## g#
T ## “ U T UT “ G # T ## G #
(9.17)
Andere Darstellungen und Ersetzungen führen zu den übrigen Beziehungen, bei denen die Elemente der einzelnen Ergebnismatrizen nach den Summendarstellungen der Beziehungen (3.11) und (3.13) berechnet werden. Die Multiplikation der Tensormatrizen mit den Metrikmatrizen G # und # G führt zum Heben oder Senken des benachbarten Indexkennzeichens, was bereits in (7.15) auftrat und worauf bei der Behandlung der Überschiebung im Abschnitt 11.2.5 noch näher eingegangen wird. ¨# T ## G # “ G # T ## “ T #
T ## G # “ G # T ## “ T # ¨#
(9.18) Die gesamten Umrechnungen der Tensormatrizen sind in Tabelle 9.1 aufgeführt.
9.5 9.5.1
Tensorkomponenten bei Basiswechsel Transformation der Tensorkomponenten
Ein Tensor ist als physikalische Größe forminvariant und kann wie früher bei Vektoren in alten pe, g # , g# q und neuen Basen pˆ e, g ˆ #, g ˆ# q auf verschiedene Weise äquivalent dargestellt werden. Für die Umrechnungen der Basisvektoren zwischen den alten und neuen Systemen gelten dabei die bereits verwendeten Beziehungen (8.1) und (8.3). Die Umrechnung der Komponenten des Tensors 2. Stufe erfolgt auf entsprechende Weise wie in Abschnitt 9.4 mit passenden Basisvektoren, was am
179
9.5 Tensorkomponenten bei Basiswechsel
Beispiel einiger Komponenten demonstriert wird. ˆˆ T “ eT T e “ ˆ e eT T e“ˆ eT A T A T ˆ ` # ˘T ` # ˘T ` ˘T ˆ ## g T ˆ# ˆ P T ## PT g ˆ# “ g ˆ T “ g# T ## g# “ g ` ˘T ## T “ g T g #
#
` ˘T Q T ## QT g ˆ “ g ˆ #
#
` ˘T ## ˆ T g ˆ “ g ˆ #
#
Damit erhält man die folgenden Ergebnisse. ˆ “ A T AT T
ˆ ## “ P T ## PT T
ˆ ## “ Q T ## QT T
(9.19)
Die Umrechnungen aller Tensormatrizen zwischen altem und neuem System sind in Tabelle 9.2 zusammengefasst. In der Summendarstellung lauten die ko- und kontravarianten Tensorkomponenten gemäß (3.13) Tˆik “
3 3 ÿ ÿ
Tμν piμ pkν ,
μ“1 ν“1
Tˆik “
3 3 ÿ ÿ
T μν qiμ qkν
μ“1 ν“1
Die Transformation der Komponenten des Tensors 3. Stufe wird im Abschnitt 11.5.3 behandelt.
9.5.2
Tensorkomponenten bei starrer Drehung
Wie im Abschnitt 6.9.3 wird der Sonderfall angegeben, bei dem kartesische und reziproke Koordinatensysteme zueinander starr bleiben und nur eine gemeinsame Rotation im Raum erfahren. Die Umrechnung der Tensormatrizen erfolgt weiterhin nach Tabelle 9.2, aber anstelle der allgemeinen Matrizen P und Q sind in diesem Fall die Rotationsmatrizen PR und QR nach (6.32) anzuwenden und die Beziehungen für ko- und kontravariante Tensormatrizen lauten dann ˆ ## “ PR T ## PT T R ,
ˆ ## “ Q T ## QT T R R
180
9.5.3
9 Tensorbegriff und Tensor 2. Stufe
Allgemeine Transformationsregel
Die kovarianten Komponenten von Vektoren und Tensoren werden bei Basiswechsel mit der Matrix P transformiert. Je nach Stufenzahl tritt diese Operation unter Berücksichtigung der Transponierung mehrfach auf. ÿ Ñ a ˆi “ piμ aμ ˆ a# “ Pa μ ÿ ÿ ˆ ## “ P T ## PT T Ñ Tˆik “ piμ pkν Tμν μ ν ÿ ÿ ÿ ˆ ijk “ ˆ ### W Ñ W piλ pjμ pkν Wλμν λ
μ
ν
Die Transformation kontravarianter Komponenten erfolgt mit der Matrix Q ÿ ˆ a# “ Q a Ñ a ˆi “ qiμ aμ μ ÿ ÿ ˆ ## “ Q T ## QT Ñ Tˆik “ qiμ qkν T μν T μ ν ÿ ÿ ÿ ˆ ijk “ ˆ ### W Ñ W qiλ qjμ qkν W λμν λ
μ
ν
und bei gemischten Komponenten treten Kombinationen auf. Die Multiplikation mit einer transponierten Matrix äußert sich in der Summendarstellung durch vertauschte Indizes gemäß den Beziehungen aus Abschnitt 3.2.3. Man kann damit die allgemeine Transformationsregel für den Wechsel zwischen Koordinatensystemen formulieren, die man auch als Definition eines Tensors ansehen kann. Dabei wird von der Regel (7.12) Gebrauch gemacht. Werden in einer n-fach indizierten Größe ‚ ein unterer Index wie ein kovarianter Vektor ‚ ein oberer Index wie ein kontravarianter Vektor transformiert, dann liegen die Komponenten eines Tensors n-ter Stufe vor.
(9.20)
Die neuen Komponenten hängen linear von den alten ab, ohne dass ein absolutes Glied hinzutritt! Anhand dieser Transformationseigenschaft kann bei jeder auftretenden Größe geprüft werden, ob es sich bei ihr um einen Tensor handelt oder nicht!
181
9.6 Tabellen
Diese allgemeine Vorschrift ist ein Beispiel dafür, dass man Größen nicht nur geometrisch anschaulich erklären kann, sondern auch dadurch, dass sie bestimmte algebraische Regeln erfüllen müssen oder dass ein bestimmtes Verhalten bei gewissen Operationen gefordert wird.
9.6
Tabellen
Hinweise und Berechnungsbeispiele zu den Tabellen 9.1 und 9.2 In kartesischen Koordinatensystemen fallen alle Tensorkomponenten zusammen, da nach Abschnitt 6.6.5 die Unterscheidung zwischen Ko- und Kontravarianz aufgehoben ist. Bezogen auf eine Basis e gilt ` ` ¨ #˘ ˘ T ” T ## kart. ” T # kart. ` ## ˘ ` # ˘ ” T ” T ¨ # kart. kart. Für die Umrechnung der Tensorkomponenten im gleichen System und bei Basiswechsel gelten folgende Beispiele. T “ VT T ## V T ## “ U T UT ¨# T ## “ G# T ## G# “ G# T #
ˆ “ A T AT T ˆ ## “ P T ## PT T ¨# # T ˆ# T “ PG# T# ¨# G Q
T ## G #
Tabelle 9.1: Umrechnung der Tensormatrizen im gleichen Basissystem
G# T ##
G # T ##
E
V A UT
T# ¨#
T ## G#
¨# G# T# G#
U A VT
¨# T#
# G # T# ¨# G
# T# ¨# G
¨# G # T#
V A VT
T ## E
G # T# ¨#
¨# T# G#
G # T ## G #
E
U A UT
T ## E
U T T# ¨# V
¨# V T T# U
UT T ## U
VT T ## V
E
T
G# T ## G#
T# ¨#
¨# T#
T ##
T ##
T
182 9 Tensorbegriff und Tensor 2. Stufe
183
9.6 Tabellen
T
T ##
T ##
ˆ T
A T AT
` ˘T A VT T ## A VT
` ˘T A UT T ## A UT
ˆ ## T
` ˘T PUT PU
P T ## PT
P G # T ## G # PT
ˆ ## T
` ˘T QVT QV
Q G# T ## G# QT
Q T ## QT
¨# ˆ# T
` ˘T PUT QV
P T ## G# QT
P G # T ## QT
ˆ# T ¨#
` ˘T QVT PU
Q G# T ## PT
Q T ## G # PT
¨# T#
T# ¨#
˘T ¨ #` A UT A VT T#
` ˘ T T A UT T# ¨# AV
ˆ ## T
¨# P T# G # PT
T P G # T# ¨# P
ˆ ## T
¨# T Q G # T# Q
# T Q T# ¨# G Q
¨# ˆ# T
¨# T P T# Q
# T P G # T# ¨# G Q
ˆ# T ¨#
¨# Q G# T# G # PT
T Q T# ¨# P
ˆ T
Tabelle 9.2: Umrechnung der Tensormatrizen bei Basiswechsel
Kapitel 10
Tensoren und ihre Produkte Zusammenfassung Nach Verallgemeinerung und Klassifizierung von Tensoren beliebiger Stufe werden in der Tensoralgebra die Verjüngung und verschiedene Produktbildungen bei Tensoren behandelt. Indexschreibweise, Summationskonvention und Matrixdarstellung werden gegenübergestellt und einer vergleichenden Bewertung unterzogen.
10.1 10.1.1
Klassifizierung von Tensoren Tensoren beliebiger Stufe
Alle physikalischen Größen lassen sich deuten als Tensoren unterschiedlicher Stufe. Die Stufenzahl ergibt sich dabei aus der Anzahl der Basisvektoren in den tensoriellen Produkten der einzelnen Glieder, die in ihrer Summe den Tensor in einem Bezugssystem beschreiben. Die folgende Aufstellung gibt Beispiele für Tensoren der niedrigsten Stufen, jeweils nur für kontravariante Komponenten in Summenform. Verallgemeinernd kann man die Stufenzahl beliebig erhöhen, aber in den meisten physikalischen Anwendungen treten nur Tensoren 2. Stufe auf. Im euklidischen Raum der Dimension n besitzt ein Tensor der Stufe p genau D “ np formale Richtungen oder Dimensionen und damit Komponenten im Tensorraum. 184 © Springer Fachmedien Wiesbaden GmbH, ein Teil von Springer Nature 2019 W. Werner, Vektoren und Tensoren als universelle Sprache in Physik und Technik 1, https://doi.org/10.1007/978-3-658-25272-4_10
185
10.1 Klassifizierung von Tensoren
Im dreidimensionalen Raum sind das bei Skalar und Vektor als Tensoren der Stufen p “ 0 und p “ 1 die vertrauten Werte D “ 1 für einen skalaren Wert und D “ 3 für die Komponenten der drei räumlichen Richtungen. Bei höherstufigen Tensoren erhält man entsprechend D “ 3p “ 9, 27, 81, . . . Komponenten. Die Darstellung höherstufiger Tensoren kann jeweils mit ko- und kontravarianten bzw. gemischten Komponenten erfolgen gemäß der Wahl der Basisvektoren und der Stellung ihrer Indizes. In Erweiterung der Regel (7.12) gelten als kontravariante Tensoren folgende Beispiele.
Tensor 0. Stufe “ ˆ Skalar
Tp0q “ S
Tensor 1. Stufe “ ˆ Vektor
Tp1q “ a “
3 ÿ
a i gi
i“1
Tensor 2. Stufe “ ˆ Tensor
Tp2q “ T “
3 ÿ 3 ÿ
T ij gi gj
i“1 j“1
Tensor 3. Stufe “ ˆ Tensor
Tp3q “ W “
3 ÿ 3 ÿ 3 ÿ
W ijk gi gj gk
i“1 j“1 k“1
(10.1) Bei physikalischen Anwendungen kann die Summation auch bis zur Dimension n “ 4 erfolgen, wenn neben den Ortskoordinaten x, y, z noch die Zeit t als vierte Koordinate hinzutritt, was in der Relativitätstheorie als Raumzeit bezeichnet wird. Bei allgemeinen Mannigfaltigkeiten laufen die Summationen bis zu beliebigen Werten n. In diesem Kapitel werden die Komponenten der verschiedenstufigen Tensoren als konstante Größen betrachtet, die für jeden Punkt des dreidimensionalen Raumes den gleichen Wert aufweisen. Erst in späteren Kapiteln werden Tensoren und Tensorfelder untersucht, bei denen die Komponenten ortsabhängig sind, wobei die von Punkt zu Punkt auftretenden Änderungen in der Tensoranalysis durch Differentiationsprozesse untersucht werden.
186
10.1.2
10 Tensoren und ihre Produkte
Matrixdarstellung
Für Vektor und zweistufigen Tensor sind die Darstellungen in Matrixform durch (7.5), (7.8) und (9.11) bereits bekannt. ` ˘T ` ˘T a “ a# g “ a # g # #
` ˘T ## ` ˘T T g T “ g# T## g# “ g #
`
“ g
˘ # T
T ¨## g
˘T
`
#
“ g
#
#
# T# ¨# g
Für drei- und vierstufige Tensoren wurde im Abschnitt 3.8 eine erweiterte Matrixmultiplikation definiert, die mit einer relativ einfachen Darstellung formuliert werden kann. Gezeigt wird das am Beispiel der kovarianten Komponenten des dreistufigen Tensors, bei dem zunächst das Produkt in den spitzen Klammern ausgeführt wird. Dabei entsteht die formale Matrix Y mit neun Vektoren als Elemente. ` ˘T Tp3q “ g# T ## p#q ˝ g# g# ¨ 1˛ g ¯ ´ ` 1 2 3˘ # ˚ 2‹ # # “ g ,g ,g T##1 g , T##2 g , T##3 g ˝g ‚ g3 ` # ˘T “ g Y g# Die sieben anderen Darstellungen werden entsprechend formuliert. Bei Tensoren, deren Stufe größer als vier ist, kann man die Summenform verwenden oder weitere spezielle Matrixmultiplikationen definieren.
10.2 10.2.1
Verjüngung von Tensoren Zielsetzung
Die Verjüngung von Tensoren bietet die Möglichkeit aus vorliegenden Tensoren weitere Tensoren oder Tensorinvarianten zu erzeugen. Bei Tensoren ab Stufe 2 bedeutet die Verjüngung die Bildung des Skalarproduktes zwischen einem Paar von Basisvektoren, wobei es entsprechend viele Möglichkeiten gibt je nach Auswahl der beteiligten Basisvektoren und der Stellung ihrer Indizes. Die Stufe des Ergebnistensors, die
187
10.2 Verjüngung von Tensoren
der Anzahl der verbleibenden Basisvektoren entspricht, wird bei dieser Produktbildung gegenüber der Ausgangsstufe um 2 verringert. Durch diese Stufenerniedrigung wird der Tensor „verjüngt“.
10.2.2
Verjüngung beim Tensor 2. Stufe
Das Ergebnis der Verjüngung eines Tensors 2. Stufe resultiert in einem Tensor 0. Stufe und damit in einem Skalar J. Das Skalarprodukt zwischen den Basisvektoren kann links oder rechts mit gleichem Ergebnis geschrieben oder mit dem vec-Operator nach (3.58) formuliert werden. ı ı ”` ˘ ` ˘T ” T J “ g# ¨ T ## g# “ g# T ## ¨ g# ` ˘T ‰ “ “ ` ˘ ‰T “ ` ˘ ‰T ` ˘ “ vec T ## vec g# ¨ g# vec G# “ vec T ## “
3 ÿ 3 ÿ
Tik g ik
i“1 k“1
Auf Grund der verschiedenen Komponenten gibt es beim Tensor 2. Stufe fünf Darstellungsmöglichkeiten der Verjüngung, wobei die Verwendung der kartesischen und gemischten Komponenten wegen der Reziprozitätsbedingung (6.12) der Basisvektoren einfacher ausfällt. Der Skalar J ist in allen Fällen gleich und stellt als Spur der Tensormatrizen eine Tensorinvariante dar. Erinnert sei daran, dass die Metrikmatrizen (6.14) symmetrisch sind!
J“
3 ÿ 3 ÿ i“1 k“1
J“
3 ÿ 3 ÿ
3 ÿ
T¯ik ei ¨ ek “
3 ÿ 3 ÿ i“1 k“1
“ sp T
i“1
Tik gi ¨ gk “
i“1 k“1
J“
T¯ii
3 3 ÿ ÿ
g ik Tik
` ˘ “ sp G# T ##
k“1 i“1
T ik gi ¨ gk “
3 ÿ 3 ÿ i“1 k“1
T ik δik “
3 ÿ i“1
T ii
“ sp T#¨ #
188
10 Tensoren und ihre Produkte
J“
3 ÿ 3 ÿ
T
ik
gi ¨ gk “
i“1 k“1
J“
3 ÿ 3 ÿ
3 3 ÿ ÿ
gik T ik
˘ ` “ sp G # T ##
k“1 i“1
T i k g i ¨ gk “
i“1 k“1
3 ÿ 3 ÿ
Ti k δki “
i“1 k“1
3 ÿ
“ sp T #¨ #
Ti i
i“1
˘ ` ˘ ` J “ sp T “ sp T #¨ # “ sp T#¨ # “ sp G# T ## “ sp G # T ## (10.2) Im Abschnitt 11.4.3 werden die Verjüngungen von speziellen Tensoren angegeben.
10.2.3
Verjüngung höherstufiger Tensoren
Bei den ko- oder kontravarianten Komponenten bewirkt die Verjüngung das Auftreten der Elemente der Metrikmatrizen. Bei den gemischten Komponenten werden wegen des Kronecker-Symbols ein unterer und ein oberer Index gleich, so dass Summen entfallen wie im Beispiel eines vierstufigen Tensors, der zum Tensor 2. Stufe wird. 3 ÿ 3 3 ÿ 3 ÿ ÿ i“1 j“1 k“1 p“1
3 3 ÿ 3 ÿ ` ˘ ÿ W ijkp gi gj gk ¨ gp “ g i gj W ijkk k“1 loooomoooon looomooon i“1 j“1 “ δkp
“ T ij
“
3 ÿ 3 ÿ
T ij gi gj
i“1 j“1
Ist die Anzahl der Indizes gerade, dann entsteht nach mehrfacher Verjüngung und Auftreten der Koeffizienten gik , g ik oder δik schließlich ein Tensor 0. Stufe, der eine skalare Invariante darstellt. Ein wichtiges Anwendungsbeispiel im Abschnitt 2.2.13 (Bd. II) sind die Verjüngungen des vierstufigen Krümmungstensors zum zweistufigen RicciTensor und zum Krümmungsskalar.
189
10.3 Produktbildung bei Tensoren
10.3 10.3.1
Produktbildung bei Tensoren Tensorielles Produkt
Das tensorielle Produkt zweier Vektoren wurde im Abschnitt 9.1.3 definiert und führte auf Dyaden. Allgemein können zwei Tensoren beliebiger Stufe ein nichtkommutatives Produkt bilden, indem sie nebeneinander gestellt und in tensorieller Weise miteinander verknüpft werden. Das Ergebnis dieser Produktbildung ist ein Tensor, dessen Stufe der Summe der Einzelstufen entspricht und der entsprechend viele Basisvektoren besitzt, z.B. in folgenden Fällen. ` ˘T # ` # ˘T a b g T “ ab “ g #
“
ÿÿ i
Tp5q “ T W “ “
”`
j
g
i
˘T #
T ## g
ÿÿÿÿÿ i
10.3.2
a i b k g i gj “
j
#
ÿÿ
k
p
ı”` #
T ij gi gj
j
g
˘T #
W ## p#q ˝ g
#
ı g
#
T ijkpq gi gj gk gp gq
q
Skalarprodukte aus Tensor 2. Stufe und Vektor
Im verjüngenden Produkt von Tensor 2. Stufe und Vektor wird zwischen zwei Basisvektoren der beteiligten Faktoren ein Skalarprodukt gebildet, wobei es wie bei der Verjüngung eines einzelnen Tensors mehrere Möglichkeiten gibt, hier also zwei. Dabei ist die Stufe des Produkttensors um 2 niedriger als die Summe der Einzelstufen, so dass ein Vektor entsteht. Da die Reihenfolge der Basisvektoren entscheidend ist, sind bei Tensorprodukten die Skalarprodukte nicht kommutativ und man muss zwei Multiplikationsarten unterscheiden. • Aus der Sicht der Tensorrechnung ist die Kommutativität des Skalarproduktes von Vektoren (5.2) ein Sonderfall! Bei Rechtsmultiplikation wird der Tensor T von rechts mit dem Vektor a skalar multipliziert.
190
10 Tensoren und ihre Produkte
Damit die Rechnung einfach ausfällt, wird für die am Skalarprodukt beteiligten Basisvektoren entgegengesetzte Indexstellung gewählt. In Summenform lautet ein Ergebnis beispielsweise
v “T ¨a“
ÿÿÿ i
j
k
ÿ ` ˘ ÿ ÿ ij T ij ak gi gj ¨ gk “ T a j gi “ v i gi i loooomoooon j i looomooon “ δjk
“ vi
In Matrixform ergeben die Skalarprodukte der Basisvektoren die Einheitsmatrix. Es werden alle Matrixdarstellungen angegeben und man erhält den Ergebnisvektor v neben der kartesischen auch in ko- und kontravarianter Darstellung.
v “ T ¨ a “ eT T e ¨ eT a “ eT T a “ eT v ` ˘T ` ˘T # ` # ˘T v “ T ¨ a “ g# T ## g# ¨ g a “ g T ## a# #
`
“ g
˘ # T
`
˘ # T
“ g
¨# T# g
#
#
“ g
˘T #
˘T
` ˘T ¨ # a # “ g# T# a#
v#
` ˘T ## T g v “T ¨a“ g `
¨ g# `
#
` ˘T ## ` ˘T ¨ g# a # “ g T a# #
# T# ¨# g ¨ g
˘T
`
#
a# “ g
˘T
`
#
# T# ¨# a
` ˘T # “ g v #
Bei Linksmultiplikation wird der Tensor T von links mit dem Vektor a skalar multipliziert und für den Ergebnisvektor w ergibt sich in den ver-
191
10.3 Produktbildung bei Tensoren
schiedenen Fällen ` ` ˘ ˘T w “ a ¨ T “ aT e ¨ eT T e “ TT a e “ eT TT a “ eT w ` ˘T w “ a ¨ T “ a# g
#
` ˘T ` ˘T ¨ g# T## g# “ a# T## g#
` ˘T # # ` ˘T # # ` ˘T T¨# g “ a# T¨# g “ a # g# ¨ g #
`
“ w#
˘T
g#
` ˘T ## ` ˘T T g w “ a ¨ T “ a # g# ¨ g #
˘T “ a# g
`
` `
“ w
˘ # T
#
g
¨ g
˘ # T
¨# T# g
#
` ˘T “ a # T## g ˘T ¨ # “ a# T# g
#
`
#
#
#
Die Ergebnisse beider Multiplikationsarten lauten für die kartesischen Vektorkomponenten v “ Ta
w “ TT a
(10.3)
und für die ko- und kontravarianten Vektorkomponenten ¨# a# v # “ T## a# “ T#
` ` ˘T ˘T w # “ T## a# “ T# a# ¨#
# v# “ T## a # “ T# ¨# a
` ` ¨ # ˘T # ˘T w# “ T## a # “ T# a (10.4)
Der Unterschied bei Rechts- und Linksmultiplikation besteht darin, dass die Tensormatrizen in zueinander transponierter Form in die Berechnung eingehen und zwar im kartesischen sowie ko- und kontravarianten Fall direkt, im gemischten Fall dagegen gekreuzt! Wählt man für die am Skalarprodukt beteiligten Basisvektoren dagegen gleiche Indexstellung, so treten in den Ergebnissen zusätzlich die Metrikmatrizen auf. Die Umrechnung aller Komponenten findet man in Tabelle 10.1.
192
10 Tensoren und ihre Produkte
Diese Ergebnisse hätte man in Indexschreibweise nicht so einfach und übersichtlich ableiten können!
10.3.3
Doppeltes Skalarprodukt beim Tensor 2. Stufe
Wird ein Tensor 2. Stufe gleichzeitig von links und von rechts mit einem Vektor skalar multipliziert, so erhält man einen Skalar. Die Vektoren werden dabei wieder in geeigneter Komponentenform dargestellt, damit sich die Basisvektoren kompensieren. Die Summenform ergibt wie in 3.52 S “a¨T ¨b“
ÿÿÿÿ i
“
p
ÿÿ i
q
j
` ˘` q ˘ ai T pq bj looomooon gi ¨ gp looomooon g ¨ gj “ δip
“ δjq
ai T ij bj
j
In Matrixdarstellung ergeben die Skalarprodukte der Basisvektoren die Einheitsmatrix. Der Skalar ist mit seinem transponierten Wert identisch, was auch für die Transponierung der Matrizenprodukte gelten muss. S “ a ¨ T ¨ b “ ST ` ˘T ` ˘T S “ a# T## b# “ a # T## b # ` ˘T ¨ # ` ˘T “ a# T# b # “ a # T#¨ # b# ˘T ` ˘T ` ` ˘T ` ## ˘T T## a# “ b # T S T “ b# a# ` ˘T ` # ˘T ` ˘ T ` ¨ # ˘T # “ b# a “ T ¨# a# “ b# T#
è a b¨T
Der transponierte Wert S T entspricht dem doppelten Skalarprodukt eines anderen Tensors mit vertauschten Vektoren. è a S “ a ¨ T ¨ b ” ST “ b ¨ T Der Vergleich zeigt, dass beim Tausch der Rechts- und Linksfaktoren der Ă die transponierten Matrizen des ursprünglichen Tensors neue Tensor T besitzt, den man deshalb transponierten Tensor nennt.
193
10.3 Produktbildung bei Tensoren
10.3.4
Transponierter Tensor
Ă ist dadurch gekennzeichnet, dass er bei Der zu T transponierte Tensor T der Produktbildung folgende Eigenschaften besitzt. Ă T ¨a“a¨T
è a a¨T ¨b“b¨T
(10.5)
Aus (10.4) und dem Ergebnis des doppelten Skalarproduktes folgt, dass die transponierten Tensormatrizen des ursprünglichen Tensors die Komponenten des transponierten Tensors bilden. r “ TT T
` ˘T r T ## “ T##
` ˘ r ¨ # “ T# T T # ¨#
r ## T
r# “ T T ¨# #
(10.6) ˘T “ T## `
`
¨ # ˘T
Bei den gemischten Komponenten ist die gekreuzte Zuordnung zu beachten! Die kartesischen sowie die ko- und kontravarianten Komponentenmatrizen der Summe der Differenz
Ă T `T Ă T ´T
sind symmetrisch sind alternierend
Für die gemischten Komponentenmatrizen gilt für Summe und Differenz mit ` ˘T , ¨# . ˘ T#¨ # B “ T# T ` ¨ # ˘T - B “ ˘ C # C “ T ¨ # ˘ T# eine kreuzweise Zuordnung bei Transponierung.
10.3.5
Skalarprodukt zweier Tensoren 2. Stufe
Das Skalarprodukt ergibt als verjüngendes Produkt von zwei Tensoren 2. Stufe wieder einen Tensor der Stufe 2. T “M ¨N
194
10 Tensoren und ihre Produkte
Je nach der Darstellung der beiden Tensoren erhält man für die Tensormatrizen des Produktes mit (6.12) und (6.18) vier Ergebnisse mit und vier ohne Metrikmatrizen. T## “ M## G# N##
¨# “ M# G # N#¨ #
¨# # T## “ M## G # N## “ M# ¨ # G N#
10.4
¨# T# “ M## N##
¨# ¨# “ M# N#
## T# N## ¨# “ M
“ M#¨ # N#¨ #
Summationskonvention
10.4.1
Begründung
In Vektor- und Tensorrechnung treten bei Verwendung der Indexschreibweise eine Fülle von Ein- und Mehrfachsummen auf, um die verschiedenen Größen und deren Produkte durch ihre Komponenten in Koordinatensystemen darzustellen. Da der Schreibaufwand dabei hoch ist und die Darstellung der Summen als schwerfällig betrachtet wurde, führte Einstein bei Anwendung der Tensorrechnung in seiner Relativitätstheorie eine Summationskonvention ein, bei der zur kürzeren Schreibweise und geringerer Handarbeit keine Summenzeichen geschrieben werden. Das formale Kennzeichen besteht darin, dass homogene Polynome nur durch ihr typisches Monom dargestellt werden und die tatsächlich auszuführenden Summationen durch die im Monom zweifach auftretenden Indizes angezeigt werden. a1 x1 ` ... ` an xn “
n ÿ
ak xk
ñ
ak xk
k“1
Diese Summationsregel, die in der Tensorliteratur seitdem durchgängig Anwendung findet, lautet folgendermaßen. Tritt in einem Produkt der gleiche Index zweimal auf, einmal unten (kovariant) und einmal oben (kontravariant), so wird ohne Schreibung des Summenzeichens über diesen Index von 1 bis 3 (ggf. bis n) summiert.
195
10.4 Summationskonvention
In der vorliegenden Darstellung der Tensorrechnung wird von dieser Summationskonvention kein Gebrauch gemacht, da die Produktbildung bei Matrizen die Summation implizit enthält! Summenform und Indexschreibweise werden in der vorliegenden Abhandlung nur verwendet, um manche Darstellungen oder Ableitungen zunächst in ausführlicher Form zu verdeutlichen oder alternativ darzustellen, und in diesen Fällen erscheint dem Autor die Schreibweise mit Summenzeichen übersichtlicher und von klarerer Gestalt und dadurch pädagogisch sinnvoller. Die übersichtliche Behandlung einer mathematischen Fragestellung hängt wesentlich ab von einem zweckmäßigen formalen Kalkül. So führt die Anwendung der Vektorrechnung in Differentialgeometrie und in vielen physikalischen Bereichen zu einer erheblichen Vereinfachung und Lösung von speziellen Koordinatensystemen, [1, S. 101]. Ebenso bringt die Darstellung der Tensorrechnung mit Matrizen erhebliche Vorteile in Schreibweise und Übersichtlichkeit und damit im Verständnis dieses Kalküls.
10.4.2
Vergleich und Bewertung
Physikalische Größen stellen Summen von Produkten aus Komponenten und Basisvektoren dar, wie bereits im Abschnitt 3.7 und in Kapitel 7 gezeigt wurde. Einige dieser Beziehungen lauten beispielsweise ` ˘T a “ a# g
#
` ˘T “ a # g# ` ˘T T “ g# T## g# ` ˘T ## “ g T g #
#
“
ÿ
“
ÿ
“
ÿ ÿ
“
ÿ ÿ
i i
a i gi ai g i
i i
j j
Tij gi gj T ij gi gj
Mit der Summationskonvention (SK) schreibt man kürzer a SK “ ai gi “ ai gi T SK “ Tij gi gj “ T ij gi gj Die Gegenüberstellung zeigt, dass Matrixdarstellung und Summationskonvention schreibtechnisch etwa von gleicher Effizienz sind!
196
10 Tensoren und ihre Produkte
Die Matrixdarstellung besitzt jedoch den Vorteil der größeren Übersichtlichkeit und Transparenz und weist insbesondere bei komplexeren Operationen nicht die Fehleranfälligkeit auf, die bei einer größeren Anzahl von ko- und kontravarianten Indizes besteht. Man muss lediglich die Regeln der Nichtkommutativität und Transponierung sowie die Stellung der formalen Laufsymbole (#) für Ko- und Kontravarianz beachten. Bei Indexschreibweise sind dagegen Benennung und Anzahl von Indizes zu berücksichtigen und es ist schwerer zu erkennen, wo Transponierung und Inversion auftreten oder sich Elemente Kronecker-mäßig kompensieren. Einige Beispiele mögen das illustrieren. Beim Wechsel des Basissystems nach (6.27) gilt in Matrix- und Summenform g ˆ
#
“ Pg
g ˆi “
#
ÿ μ
“ PUe
piμ gμ “
ÿ ÿ μ
ν
piμ uμν eν
Für eine Darstellung gemäß Summationskonvention wäre zunächst zu entscheiden, ob die Indizes der Matrix U des kartesischen sowie P des reziproken Systems bei Basiswechsel ko- oder kontravarianten Charakter haben, um der entgegengesetzten Stellung der Indizes nach obiger Summationsregel zu entsprechen. Diese Fragestellung ist für die Matrixform gegenstandslos! Deshalb erweitern manche Autoren die Summationskonvention dahingehend, dass generell über doppelt auftretende Indizes summiert wird, ohne ihre reziproke Stellung zu fordern, im Beispiel also g ˆi SK “ piμ gμ “ piμ uμν eν Der Unterschied der beiden Darstellungsarten liegt weiterhin darin, dass die Matrixschreibweise bei Basisvektoren oder Komponenten wie g , a # , T ## #
definitionsgemäß stets mehrere Elemente zu Spaltenvektoren oder Matrizen zusammenfasst. Die Indexschreibweise der Summationskonvention kann dagegen immer nur die Beziehung für ein einzelnes Element angeben. Als Beispiel für die Umrechnung von Tensorkomponenten nach Tabelle 9.2 erhält man nach mehrfacher Anwendung von (3.11) und (3.13) in
197
10.4 Summationskonvention
Matrix- und Summenschreibweise ¨# ˆ# T “ P U T V T QT # T “ P G # T# ¨# G Q
Tˆi k “
ÿ ÿ ÿ ÿ
“
ÿ ÿ ÿ ÿ
μ
ν
μ
σ
ν
τ
σ
τ
piμ uμν T¯νσ vτ σ qkτ piμ gμν T νσ g στ qkτ
und mit Summationskonvention entfallen die vier Summenzeichen. ` k˘ Tˆi SK “ piμ uμν T¯νσ vτ σ qkτ “ piμ gμν T νσ g στ qkτ Bei Umkehrung der Beziehung folgt für das erste Beispiel ¨ # ` T ˘´1 ` T ˘´1 ˆ# Q V T “ U´1 P´1 T ¨#
ˆ# P U “ V T QT T T¯i k “ `
T¯i k
˘ SK
ÿ ÿ ÿ ÿ μ
ν
σ
τ
vμi qνμ Tˆνσ pστ uτ k
“ vμi qνμ Tˆνσ pστ uτ k
In Indexschreibweise führt das zu einer Flut verschiedener Indizes bei zusätzlicher Kennzeichnung von kartesischen sowie ko- und kontravarianten Komponenten, was sowohl mit als auch ohne Summenzeichen nicht einfach zu durchschauen ist und leicht zum Irrtum führen kann, da ja auch noch (Einzel-)Indizes auftreten können, über die nicht summiert wird! Neben der Unterscheidung von ko- und kontravarianten Indizes ist auch eine Kennzeichnung der Elemente einer Matrix und ihrer Inversen notwendig, was weitere Indizes, Markierungen oder Suffixe erforderlich macht. Dagegen erkennt man bei der Matrixschreibweise sofort, wo Transponierung oder Inversion von Matrizen auftritt, oder ob sich zwei Matrizen zur Einheitsmatrix reduzieren. Hinzu kommt, dass Summationsindizes formal keine eigene Bedeutung haben, sondern nur Platzhalter darstellen, die durch andere Buchstaben ersetzt werden können, wovon in der Literatur auch ausführlich Gebrauch
198
10 Tensoren und ihre Produkte
gemacht wird. Bei Verwendung wechselnder Indexbuchstaben kann die Unübersichtlichkeit am Ende erheblich werden! Durch die Unterdrückung der Summenzeichen muss die Laufweite eines Index bekannt sein, was in vielen aber nicht allen Fällen durch den sachlichen Zusammenhang gegeben ist. Treten gleichzeitig verschiedene Laufweiten auf wie in den Kapiteln 2 und 11 im zweiten Band, dann werden in der Literatur üblicherweise lateinische Indizes für die Laufweite 1,2,3 und griechische für 0,1,2,3 verwendet, um die sonst notwendigen Kommentare bei den Gleichungen zu vermeiden. Dagegen zeichnet sich die Darstellung mit Matrizen auch bei vielen Faktoren durch übersichtliche und klare Formulierung aus und kann auch in entsprechenden Software-Programmsystemen in dieser Form leicht formuliert und ausgeführt werden. In der reinen Mathematik bei multilinearer Algebra oder Differentialgeometrie in höherdimensionalen Riemann’schen Räumen, wo Tensoren beliebiger Stufenzahl auftreten, sind Indexschreibweise und Summationskonvention sicher die geeigneten Darstellungsmittel. Dieses Buch richtet sich dagegen vornehmlich an Ingenieure und Naturwissenschaftler der Praxis, denen die Matrizenrechnung vertraut ist und in deren Problemstellungen insbesondere Tensoren 2. Stufe auftreten. Für diese Anwendungsfälle können Vektoren und Tensoren sowie Ableitungen und Differentialoperatoren der weiteren Kapitel in klarer und übersichtlicher Matrixdarstellung formuliert werden.
199
10.5 Tabelle
10.5 10.5.1
Tabelle Hinweise zur Tabelle 10.1
Die Tabelle stellt die Komponenten der Produkte v “T ¨a
w “a¨T
und
dar, wobei v, w und a die Komponenten im gleichen kartesischen System bedeuten. Der obere Feldblock entspricht dem linken oberen Block der Tabelle 8.2 in Verbindung mit den Tabellen 8.1 und 9.1.
10.5.2
Berechnungsbeispiele ¨# ¨# v # “ U T a “ T# a # “ T# G # a# “ T ## a#
v# “ T ## a # “ T#¨ # a# “ G# T ## a# w “ TT a “ pV TqT a # “ pT ## VqT a#
10.5.3
Systemvektoren
Setzt man anstelle des Vektors a einen der Systemvektoren nach (9.14) ein, ` ˘T ε gkov “ g #
` ˘T gkon “ g# ε
oder
dann gilt die Tabelle gleichermaßen, wenn man die Komponenten von a durch den dort definierten Spaltenvektor ε “ p1, 1, 1qT ersetzt, also entweder a# “ ε oder a # “ ε . In den konkreten Beziehungen sind die Vektorkomponenten dann die Summen aus drei Tensorkomponenten, z.B. ` ˘T ## ` ˘T # ` ˘T v “ T ¨ gkon “ g T g ¨ g# ε “ g v #
¨
#
T 11 ` T 12 ` T 13
#
˛
˚ ‹ v# “ T ## ε “ ˝ T 21 ` T 22 ` T 23 ‚ T 31 ` T 32 ` T 33
T#¨ # “ T ## G # “ G# T ## pU TqT “ pT ## VqT pT ## qT
T ## pV TqT “ pT ## UqT pT#¨ # qT “ pT ## qT G# pT ## qT
V T “ T ## U TT
U TT “ pT ## qT V
V TT “ pT ## qT U
v#
w
w#
w#
Tabelle 10.1: Vektorkomponenten beim verjüngenden Produkt
¨# T pT# q “ pT ## qT G #
T ##
¨# T# “ T ## G# “ G # T ##
U T “ T ## V
v#
T UT “ VT T ##
T VT “ UT T ##
T
a#
a#
v
a
200 10 Tensoren und ihre Produkte
Literatur [1] Kreyszig, E.: Differentialgeometrie Akademische Verlagsgesellschaft Geest & Portig, Leipzig (1957)
201
Kapitel 11
Spezielle Tensoren Zusammenfassung Als spezielle Tensoren werden symmetrischer und alternierender Tensor sowie Einheits- oder Metriktensor und Dyaden definiert und in ihren Eigenschaften untersucht. Beim Tensor 3. Stufe hat der antisymmetrische ε -Tensor eine spezielle Bedeutung, mit dem das Kreuzprodukt algebraisch dargestellt werden kann. Abschließend wird der Kronecker-Tensor 6. Stufe behandelt.
11.1 11.1.1
Symmetrischer Tensor 2. Stufe Symmetrieeigenschaften der Komponenten
Ein Tensor S wird als symmetrisch bezeichnet, wenn zunächst für seine kovariante Komponentenmatrix Symmetrie gefordert wird. ` ˘T S ## “ S ## Auf Grund dieser Eigenschaft folgt gemäß Tabelle 9.1 die Symmetrie der kartesischen und kontravarianten Komponenten. ` ˘T S “ VT S ## V “ VT S ## V “ ST ˘T ` ## ˘T ` S ## “ G# S ## G# “ G# S ## G# “ S 202 © Springer Fachmedien Wiesbaden GmbH, ein Teil von Springer Nature 2019 W. Werner, Vektoren und Tensoren als universelle Sprache in Physik und Technik 1, https://doi.org/10.1007/978-3-658-25272-4_11
203
11.1 Symmetrischer Tensor 2. Stufe
Damit gelten folgende Beziehungen für kartesische und ko- und kontravariante Komponentenmatrizen, die jeweils symmetrisch sind und damit nur sechs unabhängige Elemente besitzen. S “ ST
˘T ` S ## “ S ##
˘T ` S ## “ S ##
(11.1)
Für die gemischten Komponenten gilt wegen der Symmetrie gegenseitige Transponierung. ` ˘T ` ˘T S ¨## “ S ## G# “ G# S ## “ S# ¨# Die Stellung der Indizes, ob vorn oder hinten, ist dadurch nicht mehr entscheidend, so dass man bei symmetrischen Tensoren die Indizes übereinander setzen kann! ˛ ˛ ¨ 1 ¨ 1 S1 S1 2 S1 3 S 1 S 21 S 31 ‹ ‹ ˚ 1 ` # ˘T ˚ 1 2 3 ‹ 2 3 ‹ ˚ S ¨## “ ˚ ˝ S2 S2 S2 ‚ “ S ¨ # “ ˝ S 2 S 2 S 2 ‚ S3 1 S3 2 S3 3
S 13 S 23 S 33
` # ˘T ¨# S# # “ S# “ S ¨#
(11.2)
Die Matrix S # # ist nach (3.10) nicht symmetrisch und hat neun unabhängige Komponenten. Der Koeffizient Sik “ Si k “ S ki gilt im Tensorraum sowohl für die Richtung gi gk als auch für die Richtung gk gi . Ein symmetrischer Tensor 2. Stufe besitzt damit drei symmetrische Tensormatrizen für die kartesischen, ko- und kontravarianten und eine unsymmetrische Matrix für die gemischten Komponenten.
11.1.2
Symmetrie der Tensorprodukte
Auf Grund der Eigenschaften der Komponentenmatrizen ist der symmetrische Tensor seinem transponierten gleich, so dass folgende Vertauschungsregeln für symmetrische Tensoren gelten. Ă“ S S
S ¨a“a¨S
a¨S ¨b“b¨S ¨a
(11.3)
204
11.2 11.2.1
11 Spezielle Tensoren
Einheitstensor oder Metriktensor Definierende Eigenschaft
Der Einheitstensor E ist ein spezieller symmetrischer Tensor, der bei Links- wie Rechtsmultiplikation mit einem Vektor oder Tensor wieder diese Größe liefert. E stellt damit das Einselement der Tensormultiplikation dar. E ¨a“a¨E “a
11.2.2
T ¨E “E ¨T “T
(11.4)
Komponenten des Einheitstensors
Der Vergleich zwischen der Umrechnung der Vektorkomponenten nach Tabelle 8.1 und der Rechtsmultiplikation a “ E ¨ a nach (10.4) bzw.Tabelle 10.1 ergibt für die ko- und kontravarianten sowie die gemischten Komponenten des Einheitstensors folgende Beziehungen. Dabei bedeutet E ohne Indizes wie üblich die Einheitsmatrix. a # “ G # a# “ E ## a# ,
a# “ G# a # “ E ## a #
¨# a # “ E a # “ E# a# ,
# a# “ E a# “ E# ¨# a
Insgesamt erhält man für die Matrizen des Einheitstensors das Ergebnis E ## “ G #
E ## “ G#
E ¨## “ E#¨ # “ E
(11.5)
Die ko- und kontravarianten Komponentenmatrizen des Einheitstensors sind identisch mit den Metrikmatrizen (6.14) und seine gemischten entsprechen der Einheitsmatrix! Der Einheitstensor E wird wegen seiner Komponenten und deren Eigenschaften auch Metriktensor oder Fundamentaltensor genannt und in der Literatur meist mit G bezeichnet. Diese Schreibweise wird im weiteren Verlauf sowie im zweiten Band in den Kapiteln Flächentheorie und Relativitätstheorie verwendet. Abweichend von der doppelten Indizierung von Tensormatrizen haben die beiden Metrikmatrizen G # und G# nur einen Index erhalten, da der Einheitstensor nach (11.5) keine echten gemischten Komponenten besitzt!
205
11.2 Einheitstensor oder Metriktensor
11.2.3
Matrix- und Summenform
Aus der allgemeinen Tensordarstellung (9.11) geht hervor, dass der Einheitsoder Metriktensor in kartesischen und reziproken Koordinaten von besonders einfacher Gestalt ist. ` ˘T G “ eT e “ g # g
E ”G
#
` ˘T # g “ g #
(11.6)
Dabei zeigt sich erneut die Eleganz der Darstellung, weil nur die Basisvektordyaden auftreten! ÿ3 G “ e1 e1 ` e2 e2 ` e3 e3 “ ek ek k“1 ÿ3 “ g1 g1 ` g2 g2 ` g3 g3 “ gk g k k“1 ÿ3 “ g1 g1 ` g2 g2 ` g3 g3 “ g k gk k“1
Dagegen bestehen die ko- und kontravarianten Darstellungen aus dem vollen Satz von neun Komponenten bei jeweils sechs unabhängigen Koeffizienten. ` ˘T # G “ g G g #
#
` ˘T “ g# G # g#
(11.7)
G “
g 11 g1 g1 ` g 22 g2 g2 ` g 33 g3 g3 ` ˘ ` ˘ ` ˘ ` g 12 g1 g2 ` g2 g1 ` g 13 g1 g3 ` g3 g1 ` g 23 g2 g3 ` g3 g2
G “
g11 g1 g1 ` g22 g2 g2 ` g33 g3 g3 ` ˘ ` ˘ ` ˘ ` g12 g1 g2 ` g2 g1 ` g13 g1 g3 ` g3 g1 ` g23 g2 g3 ` g3 g2
11.2.4
Metriktensor bei Basiswechsel
Wie jeder Tensor ist der Metrik- oder Fundamentaltensor gegenüber Koordinatentransformationen als universelle Größe eine Invariante. Deshalb gilt mit (6.29) z.B. ` ˘T # ` ˘ T # ` ˘T g “ g ˆ Q PT g ˆ# “ g ˆ g ˆ G “ g #
`
“ g
˘ # T
#
G # g# “ g ˆ `
#
˘ # T
` # ˘T ˆ #g G P G # PT g ˆ# “ g ˆ ˆ#
206
11 Spezielle Tensoren
Beim Wechsel des Koordinatensystems gelten daher folgende Darstellungen. ` ˘T # ` ˘T Q G # QT g ˆ ˆ g ˆ “ g G “ g ˆ #
#
` # ˘T g ˆ “ g ˆ
#
#
` # ˘T P G # PT g ˆ# “ g ˆ
(11.8)
Die Komponenten des Metriktensors werden bei Basiswechsel entsprechend Tabelle 9.2 transformiert.
11.2.5
Überschiebung
Die Überschiebung bedeutet eine tensorielle Multiplikation mit anschließender Verjüngung, also die Bildung eines Skalarprodukts. Die einzelnen Operationen wurden bereits angewendet, sollen aber an Beispielen noch explizit erläutert werden, da die Überschiebung in der Literatur häufig anzutreffen ist. Allgemein gilt der Überschiebungssatz für Tensoren beliebiger Stufe. Die Überschiebung eines Tensors der Stufe m mit einem Tensor der Stufe n führt auf einen
(11.9)
Tensor der Stufe pm ` n ´ 2q. Tpmq Tpnq U ¨T “W “ “
Tpmq ¨ Tpnq “ Tpm`n´2q
Ñ
ÿ ÿ ÿ ÿ ÿ i
j
k
p
q
U ijk gi gj gk ¨ gp gq T pq
ÿ ÿ ÿ ´ÿ i
j
q
¯ U ijk T kq gi gj g q k looooooooomooooooooon “W
i q j
Der zweistufige Tensor Φ wird mit den Vektoren x und y überschoben. ` ˘T ` ˘T # ` ˘T y x ¨ Φ ¨ y “ x# g ¨ g# Φ## g# ¨ g #
˘ # T
“ x Φ ## y# ÿ ÿ “ ϕik xi y k `
i
k
#
207
11.2 Einheitstensor oder Metriktensor
Hierbei handelt es sich um das doppelte Skalarprodukt aus Abschnitt 10.3.3, bei dem als Ergebnis ein Skalar als bilineare Form (3.54) entsteht. Eine häufige Operation ist die Überschiebung mit dem Metriktensor G ” E , bei der nach (11.4) der Ausgangstensor T unverändert bleibt! T G
Ñ
T ¨G
GT
Ñ
G ¨T
+
` ˘T ` ˘T T “ T ¨ G “ g# T ## g# ¨ g# g `
“ g
˘ # T
T ## G# g
T
“
#
“ g# `
#
˘T
T ¨## g
#
Die Überschiebung bewirkt, dass bei der Matrix T## ein Index heraufgezogen wird. Führt man die Operation mit anderen Tensordarstellungen durch, dann kann auch ein Index herabgezogen werden. Dieses Heben und Senken von Indizes durch Überschiebung mit dem Metriktensor ist in der Tensorliteratur eine häufig angewandte Methode, um einen Tensor mit anderen Komponenten darzustellen. ## ¨# # G “ G # T## “ G T ## G# “ T ¨### # T# “ T#
¨ # # # T ¨## G # “ T G G # “ G# T¨# “ # T ## “ T ## ##
Bei der elementweisen Durchführung bedeutet das die Multiplikation einer Gleichung mit den entsprechenden Metrikkoeffizienten und einer anschließenden Summation. Tik
Ñ
ÿ
Ti k
Ñ
ÿ
k
Tik g k “ T i
k
T i k gk “ T i
Die Transformationsbeziehungen von Tensorkomponenten im gleichen Koordinatensystem nach (9.17) und bei Basiswechsel nach (9.19) können ebenfalls durch Überschiebung mit dem Metriktensor G berechnet werden. Verschie-
208
11 Spezielle Tensoren
dene Beispiele der Produktbildung führen z.B. auf folgende Ergebnisse. ` ˘T ## T g T “T ¨G “ g #
` ˘T # G g T “G ¨T “ g #
` # ˘T T “G ¨T ¨G “ g ˆ g ˆ `
“ g ˆ
˘ # T
#
#
#
` ˘T # # ` ˘T T ¨# g ¨ g# G # g# “ g #
` ˘T # # ` ˘T T ¨# g ¨ g# T ## g# “ g #
` ˘T ` ˘T # ¨ g# T ## g# ¨ g ˆ g ˆ #
P T ## PT g ˆ# “ g ˆ `
˘ # T
ˆ ## g T ˆ#
Alle Transformationsbeziehungen der Tabellen 9.1 und 9.2 können daher auch als Überschiebungen mit dem Metriktensor nach der obigen Definition interpretiert und berechnet werden. Die Eigenschaften der Metrikmatrizen erhält man in gleicher Weise, indem man an Stelle des beliebigen Tensors T den Metriktensor G selbst einsetzt.
11.3 11.3.1
Alternierender Tensor 2. Stufe Eigenschaften der Komponenten
Ein Tensor A wird als alternierend (schief- oder antisymmetrisch bzw. antimetrisch) bezeichnet, wenn seine kartesischen sowie ko- und kontravarianten Komponentenmatrizen schiefsymmetrisch sind. A “ ´ AT
˘T ` A ## “ ´ A ##
˘T ` A ## “ ´ A##
(11.10)
Die ko- und kontravarianten Matrizen haben folgende Komponenten, die jeweils nur drei unabhängige Elemente besitzen. ¨
A ##
˛ 0 `A12 `A13 0 `A23 ‚ “ ˝´A12 ´A13 ´A23 0
˛ 0 `A12 `A13 0 `A23 ‚ “ ˝´A12 13 23 ´A ´A 0 ¨
A##
(11.11)
209
11.3 Alternierender Tensor 2. Stufe
Für die gemischten Komponenten gilt gegenseitige alternierende Transponierung, ˘T ˘T ` ` A ¨## “ A ## G # “ ´ G # A ## “ ´ A#¨ #
(11.12)
deren Matrizen nach (3.10) keine Symmetrieeigenschaften aufweisen und deren Hauptdiagonalen auch nicht Null sind. Im Tensorraum hat die Richtung gi gk den Koeffizienten Ai k und die Richtung gk gi den entgegengesetzten Koeffizienten ´Aki . Ein alternierender Tensor 2. Stufe besitzt damit schiefsymmetrische Tensormatrizen für die kartesischen, ko- und kontravarianten und unsymmetrische für die gemischten Komponenten.
11.3.2
Antisymmetrie der Tensorprodukte
Auf Grund der Eigenschaften der Komponentenmatrizen ist der alternierende Tensor seinem negativen transponierten gleich, so dass sich die folgenden Vertauschungsregeln für alternierende Tensoren ergeben. AĂ“ ´ A
A ¨ a “ ´a ¨ A
a ¨ A ¨ b “ ´b ¨ A ¨ a
(11.13)
Das doppelte Skalarprodukt kann auf Grund der schiefsymmetrischen Matrizen mit A31 “ ´A13 auch als Determinante geschrieben werden. ` ˘T a ¨ A ¨ b “ a# A ## b# A23 A31 A12 a2 a3 “ a1 1 b b2 b3
` ˘T “ a # A## b # A23 A31 A12 a2 a3 “ a1 b1 b2 b3
Bei gleichen Vektoren verschwinden Determinante und doppeltes Skalarprodukt. a¨A ¨a“0
(11.14)
210
11 Spezielle Tensoren
11.3.3
Tensorform des Kreuzproduktes
Das Kreuzprodukt der Vektoren a und b lautet nach Abschnitt 7.6.2 für kontravariante Vektorkomponenten ` ˘T c “ a ˆ b “ S # a# Γ # b # ˛ ¨ 1˛ ¨ b 0 ` g3 ´ g2 ` 1 2 3˘˚ ‹ ˚ 2‹ 3 1 0 ` g ‚˝b ‚ “ S# a , a , a ˝´ g 2 ` g ´ g1 0 b3 “ ` ˘ ` ˘ ` ˘‰ “ S# g 1 a 2 b 3 ´ a 3 b 2 ` g 2 a 3 b 1 ´ a 1 b 3 ` g 3 a 1 b 2 ´ a 2 b 1 ` ˘T “ c # g# Die Rechtsmultiplikation des alternierenden Tensors A , der die kovarianten Komponenten (11.11) hat, mit dem Vektor b führt auf
` ˘T # ` ˘T b c “ A ¨ b “ g# A ## g# ¨ g #
˛ ¨ 1˛ b 0 ` A12 ` A13 ` 1 2 3˘˚ ‹ ˚ 2‹ 0 ` A23 ‚˝b ‚ “ g , g , g ˝´ A12 ´ A13 ´ A23 0 b3 ` ˘ ` ˘ ` ˘ “ g1 A13 b3 ` A12 b2 ` g2 ´ A12 b1 ` A23 b3 ` g3 ´ A23 b2 ´ A13 b1 ¨
Wenn man die Komponenten des Vektors a auf folgende Weise identifiziert, S# a1 “ ´A23 ,
S# a2 “ A13 “ ´A31 ,
S# a3 “ ´A12
dann kann man einen alternierender Tensor Apaq definieren, dessen kovariante Komponenten aus den kontravarianten von a bestehen und der aus
11.4 Tensor-Merkmale und Eigenschaften
211
den alternierenden Dyaden der Basisvektoren aufgebaut ist. ` ˘T Apaq “ g# A ##paq g# ˛ 0 ´ a3 ` a2 ` ˘T ˚ ‹ 0 ´ a1 ‚ g # “ S# g# ˝` a3 ´ a2 ` a1 0 ” ´ ¯ ´ ¯ ´ ¯ı “ ´ S# a 1 g 2 g 3 ´ g 3 g 2 ` a 2 g 3 g 1 ´ g 1 g 3 ` a 3 g 1 g 2 ´ g 2 g 1 ¨
(11.15) Dadurch kann man das Kreuzprodukt zweier Vektoren durch das algebraische Skalarprodukt ausdrücken, das aus diesem alternierenden Tensor und dem anderen Vektor gebildet wird. c “ a ˆ b “ Apaq ¨ b
(11.16)
Diese Art der Darstellung ist allerdings nur im dreidimensionalen Raum möglich, da allein dort die Anzahl der drei Vektorkomponenten mit den drei unabhängigen Komponenten des alternierenden Tensors übereinstimmt!
11.4 11.4.1
Tensor-Merkmale und Eigenschaften Additive Tensorzerlegung
Nach den Untersuchungen in den Abschnitten 11.1.1 und 11.3.1 werden die Symmetrieeigenschaften von Tensoren gemäß ihrer ko- und kontravarianten Komponenten beurteilt und nicht nach ihren gemischten, denn diese sind von allgemeiner Natur und weisen keine bestimmte Struktur auf. Infolge der Eigenschaften transponierter Tensoren nach Abschnitt 10.3.4 kann ein beliebiger Tensor T stets in eine Summe aus symmetrischem und alternierendem Anteil zerlegt werden T “
1 Ăq ` 1 pT ´ T Ăq “ S ` A pT `T loooomoooon 2 2 loooomoooon symmetrisch
alternierend
212
11 Spezielle Tensoren
mit folgendem Ergebnis für die beiden Anteile. T “S `A
Ă 2S “ T ` T
Ă 2A “ T ´ T
(11.17)
Diese Zerlegung ist deshalb von besonderem Interesse, da bei Basiswechsel die Teiltensoren ihren Symmetriecharakter behalten! Symmetrische und alternierende Anteile im alten Koordinatensystem liefern auch im neuen System entsprechende Anteile. Am Beispiel der kovarianten Komponenten läßt sich das einfach zeigen, denn bei Basiswechsel gilt für beide Anteile nach Tabelle 9.2 folgende Umrechnung. ‰ ‰ # ` # ˘T “ ` # ˘T “ ˆ ## ` A ˆ ## g S S ## ` A ## g# ˆ “ g T “ g ˆ ˆ ## “ S ˆ ## ` A ˆ ## “ P T ## PT “ P S ## PT ` P A ## PT T ˘ ` ˆ ## “ P S ## PT “ S ˆ ## T S
˘ ` ˆ ## “ P A ## PT “ ´ A ˆ ## T A
(11.18) Für die kontravarianten Tensorkomponenten gelten entsprechende Beziehungen, dagegen existieren für die gemischten keine besonderen Symmetrieeigenschaften.
11.4.2
Dyaden
Dyaden sind nach den Abschnitten 9.1.3 und 10.3.1 spezielle Tensoren aus zwei Vektoren, die im tensoriellen oder dyadischen Produkt direkt nebeneinander stehen. Das Produkt ist nichtkommutativ, die Faktoren sind nicht vertauschbar. Die Dyade D “ Dab “ ab erzeugt als linearer Operator, der auf einen Vektor v angewendet wird, durch Skalarproduktbildung der beiden rechts stehenden Faktoren eine affine Abbildung des Vektors v in einen neuen Vektor in a-Richtung. Dab pvq “ Dab ¨ v “ a pb ¨ vq ‰ Dba pvq “ Dba ¨ v “ b pa ¨ vq
(11.19)
213
11.4 Tensor-Merkmale und Eigenschaften
Die ko- und kontravarianten Darstellungen der Dyade ab haben folgende Formen. ` ˘T # ` # ˘T ` ˘T ## D “ ab “ g D g a b g “ g “ g
˘ # T
`
a# b#
˘T
#
#
#
#
`
g# “ g `
˘ # T
D ## g#
Die Komponentenmatrizen von Dyaden enthalten nach (3.8) normale Produkte der skalaren Vektorkoeffizienten. Die Matrizen ` ˘ sind`singulär, ˘ denn als ## dyadische Produkte haben sie den Rang rg D ## “ rg D “ 1. Besondere Tensoren sind symmetrische und alternierende Dyaden. Die symmetrische Dyade hat folgende Gestalt und Eigenschaft. D sym “ ab ` ba ` ˘ ` ˘ ` ˘ ` ˘ D sym ¨ v “ a b ¨ v ` b a ¨ v “ v ¨ D sym “ v ¨ a b ` v ¨ b a Für die antisymmetrische oder alternierende Dyade gilt folgende Darstellung D alt “ ab ´ ba ` ˘ D alt ¨ v “ ab ´ ba ¨ v ` ˘ ` ˘ ` ˘ ` ˘ “ a b ¨ v ´ b a ¨ v “ ´ v ¨ D alt “ v ¨ a b ´ v ¨ b a und mit kovarianten Vektorkomponenten folgt ` ˘T ` ˘T ı # ` ˘T ” Dalt “ g# a# b# ´ b# a# g Nach Ausführung der Rechnung erhält man folgende spezielle Form, bei der die drei alternierenden Dyaden der Basisvektoren auftreten. Dalt “ ab ´ ba “
˘“ ‰ a 1 b2 ´ a 2 b1 g 1 g 2 ´ g 2 g 1 ` ˘“ ‰ ` a 3 b1 ´ a 1 b3 g 3 g 1 ´ g 1 g 3 ˘“ ‰ ` ` a 2 b3 ´ a 3 b2 g 2 g 3 ´ g 3 g 2 `
(11.20)
Wie der Vergleich mit (7.18) zeigt, stimmen die Koeffizienten der alternierenden Dyade bis auf die Metrikdeterminante (6.22) mit den Komponenten
214
11 Spezielle Tensoren
des Kreuzproduktes c “ a ˆ b überein. ” ` ˘ ` ˘ ` ˘ı Dalt “ S # c3 g1 g2 ´ g2 g1 ` c2 g3 g1 ´ g1 g3 ` c1 g2 g3 ´ g3 g2 Im Abschnitt 11.8.3 kommt die Dyade Dalt noch in besonderer Weise zur Anwendung.
11.4.3
Verjüngung spezieller Tensoren
Der bei der Verjüngung im Abschnitt 10.2.2 eingeführte Skalar J hat folgende Werte für besondere Tensoren. Einheits- oder Metriktensor 3 ÿ 3 ÿ ` ˘ gik g ik “ 3 JE “ JG “ sp G # G# “ sp E “ i“1 k“1
Symmetrischer Tensor ` ˘ JS “ S11 g 11 ` S22 g 22 ` S33 g 33 ` 2 S12 g 12 ` S13 g 13 ` S23 g 23 “ S11 ` S22 ` S33 “ sp S# #
Alternierender Tensor Die Verjüngung ergibt Null gemäß (3.53). #
JA “ sp pA ## G q “
3 ÿ 3 ÿ i“1 k“1
Aik g
ik
“
3 ÿ 3 ÿ
Aik gik “ 0
i“1 k“1
Bei der Verjüngung eines beliebigen Tensors, den man nach (11.17) zerlegen kann, liefert nur der symmetrische Anteil einen Beitrag, da der alternierende Anteil Null ergibt.
215
11.5 Tensor 3. Stufe
11.5 11.5.1
Tensor 3. Stufe Summenform der Komponenten
Die Darstellung des Tensors mit kovarianten Komponenten lautet im alten und im neuen Koordinatensystem Tp3q “
3 ÿ 3 ÿ 3 ÿ
T ijk gi gj gk “
i“1 j“1 k“1
3 ÿ 3 ÿ 3 ÿ
Tˆijk g ˆi g ˆj g ˆk
i“1 j“1 k“1
Die kontravarianten sowie die sechs gemischten Formen des Tensors werden in entsprechender Weise gebildet.
11.5.2
Matrixdarstellung
Die Matrixdarstellung des Tensors 3. Stufe ist bereits im Abschnitt 3.8.2 behandelt worden, wo auch die erweiterte Matrixmultiplikation definiert wurde. Die Matrix eines Tensors 3. Stufe hat im dreidimensionalen Raum jeweils 27 Elemente, die man anschaulich in Quaderform oder als Blockmatrix anordnen kann. Zur Darstellung der Komponenten werden die drei Schichten der Tensorblockmatrix als Einzelmatrizen nebeneinander zwischen Doppelbalken geschrieben, wobei der Schichtindex rechts in Klammern steht. Die kovariante Tensorblockmatrix hat dann die Gestalt T ## p#q “ T ## 1 , T ## 2 , T ## 3 und ihre Blockelemente sind die Untermatrizen für k “ 1, 2, 3. ¨ ˛ T11k T12k T13k ˚ ‹ T ## k “ ˝ T21k T22k T23k ‚ T31k
T32k T33k
Für das Matrizenprodukt wurde ein besonderes Symbol mit spitzen Klammern und Verknüpfungszeichen eingeführt, ` ˘T ` ˘T T ## p#q ˝ g# g# “ g# Y g# Tp3q “ g#
(11.21)
216
11 Spezielle Tensoren
wobei die Reihenfolge der Basisvektoren g# im Tensor Tp3q der Folge der Indizes der Tensorblockmatrix entspricht. Das Symbol in spitzen Klammern stellt eine Matrix Y mit Vektorelementen dar, bei der der innere Spaltenvektor g# mit den drei Untermatrizen T ## k der Tensorblockmatrix T ## p#q einzeln normale Matrizenprodukte bildet, Y “ T ## p#q ˝ g# “ T ## 1 , T ## 2 , T ## 3 ˝ g# ´ ¯ “ T ## 1 g# , T ## 2 g# , T ## 3 g# (*) so dass folgende Spaltenvektoren von Y entstehen. ¨
T11k T12k T13k
˚ T ## k g# “ ˝ T21k T22k T23k T31k T32k T33k ¨
˛ ¨ 1˛ g ‹ ˚ 2‹ ‚˝g ‚ g3
T11k g1 ` T12k g2 ` T13k g3
˛
‹ ˚ “ ˝ T21k g1 ` T22k g2 ` T23k g3 ‚ T31k g1 ` T32k g2 ` T33k g3 Die 3 ˆ 3 -Matrix Y hat neun Vektoren als Elemente und ihre Darstellung mit kovarianten Tensorkomponenten lautet ¨ T111 g1 ` T121 g2 ` T131 g3 | ˚ T g1 ` T221 g2 ` T231 g3 | ¨ ¨ ¨ Y“˚ ˝ 211 T311 g1 ` T321 g2 ` T331 g3 | | T112 g1 ` T122 g2 ` T132 g3 | ¨ ¨ ¨ | T212 g1 ` T222 g2 ` T232 g3 | ¨ ¨ ¨ | T312 g1 ` T322 g2 ` T332 g3 | | T113 g1 ` T123 g2 ` T133 g3
˛
‹ ¨ ¨ ¨ | T213 g1 ` T223 g2 ` T233 g3 ‹ ‚ | T313 g1 ` T323 g2 ` T333 g3
217
11.5 Tensor 3. Stufe
Im abschließenden Multiplikationsschritt wird der Tensor 3. Stufe als normales Matrizenprodukt aus Zeilenvektor, Matrix und Spaltenvektor gemäß (11.21) gebildet, wobei alle drei Faktoren Vektoren als Elemente enthalten. Jeder der 27 Summanden besteht aus einem Koeffizienten Tijk und dem tensoriellen Produkt aus drei Basisvektoren gi gj gk . Die vollständige Darstellung des Tensors 3. Stufe lautet dann in Ergänzung zu (11.21) in normaler Matrixformulierung für die kovarianten Tensorkomponenten ı ` ˘T ” T ##1 g# , T ##2 g# , T ##3 g# g# Tp3q “ g#
11.5.3
(11.22)
Komponenten bei Basiswechsel
Zur Umrechnung der 27 Komponenten des Tensors 3. Stufe zwischen verschiedenen Koordinatensystemen geht man aus von der Beziehung (11.21), ` # ˘T ` ˘T ˆ g Y Tp3q “ g ˆ# “ g # Y g # ˆ bei der die vektorielle Matrix Y eine Transformation wie in Abschnitt 9.5.1 bzw. nach Tabelle 9.2 erfährt. ˆ “ P Y PT Y ` ˘T , dann erhält man mit Multipliziert man Tp3q von rechts skalar mit g ˆ #
Tabelle 6.2
` ˘T ` # ˘T ` ˘ ` ˘T ` # ˘T ˆ “ g# T Y g# ¨ g Y ˆ “ g ˆ ˆ “ g Y PT Tp3q ¨ g #
#
Für die linke Seite bei diesem Skalarprodukt gilt ı ` # ˘T ” ` # ˘T ˆ ##1 g ˆ “ g ˆ ##2 g ˆ ##3 g T Y ˆ ˆ# , T ˆ# , T ˆ# g ˆ ”`
ı ` # ˘T ` # ˘T ˆ ##1 g ˆ ##2 g ˆ ##3 g T T T ˆ# , g ˆ ˆ# , g ˆ ˆ# ” ı “ Tˆ{1{ , Tˆ{2{ , Tˆ{3{ “
g ˆ#
˘T
218
11 Spezielle Tensoren
und für die rechte Seite folgt mit (*) `
g#
˘T
”`
ı ` ˘T ` ˘T T ##1 g# , g# T ##2 g# , g# T ##3 g# PT ” ı “ T{1{ , T{2{ , T{3{ PT
Y PT “
g#
˘T
Die Zeilenvektoren beider Seiten enthalten in den eckigen Klammern Tensoren 2. Stufe als Elemente und ihre Gleichsetzung liefert bei Beachtung der Transponierung von P für das k-te Element Tˆ{k{ “ T{1{ pk1 ` T{2{ pk2 ` T{3{ pk3 Nach skalarer Multiplikation dieser Tensorgleichung von links mit g ˆ und # ` ˘T von rechts mit g ˆ erhält man mit Tabelle 6.2 für die Umrechnung der #
Komponenten des Tensors 3. Stufe das folgende Ergebnis, das der Transformationsregel (9.20) entspricht. ˆ ##k “ pk1 P T ##1 PT ` pk2 P T ##2 PT ` pk3 P T ##3 PT T
ˆ ##k “ T
3 ÿ
pkλ P T ##λ PT
(11.23)
λ“1
Für das einzelne Element erhält man mit (3.13) die Summendarstellung Tˆijk “
3 ÿ 3 3 ÿ ÿ
piμ pjν pkλ Tμνλ
μ“1 ν“1 λ“1
Die Transformationsbeziehung kann als Blockmatrixgleichung wie in (3.62) formuliert werden, bei der die formale Multiplikation mit P zeilenweise gemäß (11.23) erfolgen muss. T ˆ ##1 ¯T ´ ˆ ## p#q ˆ “ T T ##2 ˆ ##3 T
T PT ##1 P “ P ˝ P T ##2 PT P T ##3 PT
(11.24)
11.6 Vollständige Tensoren gemäß Symmetrie
11.6
219
Vollständige Tensoren gemäß Symmetrie
11.6.1
Definition
Vollständig symmetrische bzw. antisymmetrische Tensoren sind hinsichtlich sämtlicher Paare beliebiger Indizes symmetrisch bzw. alternierend.
11.6.2
Vollständig symmetrischer Tensor 3. Stufe
Von den 27 ko- und kontravarianten Komponenten des Tensors Sp3q sind nur 10 voneinander unabhängig. Als Beispiel werden die kovarianten Komponenten angegeben und mit Buchstaben bezeichnet. a “ S111
b “ S112 “ S121 “ S211 c “ S113 “ S131 “ S311
d “ S222
e “ S221 “ S212 “ S122 f “ S223 “ S232 “ S322
p “ S333
q “ S331 “ S313 “ S133 r “ S332 “ S323 “ S233 w “ S123 “ S132 “ S213 “ S231 “ S312 “ S321
Die Matrix zu diesem Tensor wird als Blockmatrix mit drei Untermatrizen zwischen Doppelbalken dargestellt.
S ## p#q
11.6.3
¨ ˛ ¨ ˛ ¨ ˛ a b c b e w c w q ˝ ‚ ˝ ‚ ˝ ‚ “ b e w , e d f , w f r c w q w f r q r p
Vollständig antisymmetrischer Tensor 3. Stufe
Von den 27 ko- und kontravarianten Komponenten des Tensors Ap3q ist jeweils nur eine einzige unabhängig, bei der alle Indizes voneinander verschiedene Werte aufweisen. Sie erscheinen mit wechselnden Vorzeichen an 3! “ 6 Positionen der Blockmatrix A ## p#q und werden mit α# und α# bezeichnet.
220
11 Spezielle Tensoren
Als Beispiel wird die kovariante Komponente angegeben, wobei die geraden oder zyklischen Permutationen positiv und die ungeraden oder antizyklischen negativ sind. α# “ A123 “ A231 “ A312 “ ´ A132 “ ´ A213 “ ´ A321 11.6.3.1
(11.25)
Transformation bei Basiswechsel
Nach (11.23) oder der allgemeinen Transformationsregel (9.20) gilt für die einzige unabhängige kovariante Tensorkomponente im neuen System α ˆ # “ Aˆ123 “
3 ÿ 3 ÿ 3 ÿ
Aijk p1i p2j p3k
i“1 j“1 k“1
“ A123
“ A123
“
` p11 p22 p33 ` p12 p23 p31 ` p13 p21 p32 ‰ ´ p11 p23 p32 ´ p12 p21 p33 ´ p13 p22 p31 p11 p12 p13 p21 p22 p23 “ A123 det P “ α# det P p31 p32 p33
und entsprechend für die kontravariante Tensorkomponente. α ˆ # “ Aˆ123 “
3 ÿ 3 ÿ 3 ÿ
Aijk q1i q2j q3k “ A123 det Q “ α# det Q
i“1 j“1 k“1
α ˆ # “ α# det P
11.7 11.7.1
α ˆ # “ α# det Q “ α# { det P
(11.26)
ε -Tensor Definition gemäß Transformationsverhalten
Die Transformation der kovarianten Komponenten des Einheits- oder Metriktensors E “ G zwischen altem und neuem Basissystem lautet mit (11.5) und Tabelle 9.2, ˆ # “ P G # PT “ P E ## PT ˆ ## “ G E
221
11.7 ε -Tensor
wonach für die Determinante folgt ˘ ` ˆ # “ gˆ “ det P det G # det P “ g det P 2 det G a ? gˆ “ g det P Die einzige Komponente α# des vollständig antisymmetrischen Tensors Ap3q ? und die Wurzel aus der kovarianten Determinante g zeigen das gleiche ? Transformationsverhalten. Wählt man deshalb für α# den Wert g , so entsteht ein spezieller vollständig antisymmetrischer Tensor 3. Stufe, der ε -Tensor heißt. Seine einzigen beiden unabhängigen Komponenten haben bei zyklischer Permutation in Ergänzung zu den Beziehungen (6.22) die zueinander reziproken Werte
ε# “
?
b g “
det G # “ det U “ x g1 , g2 , g3 y “ S # (11.27)
1 ε# “ ? “ g
b det G# “ det V “ x g1 , g2 , g3 y “ S #
und ihre Transformationsbeziehungen bei Basiswechsel lauten
εˆ# “ ε# det P “
?
g det P “ det U det P (11.28)
1 εˆ# “ ε# det Q “ ? det Q “ det V det Q g Der vollständig antisymmetrische ε -Tensor 3. Stufe hat damit gemäß (11.25) die folgende Blockmatrix der kovarianten Komponenten.
ε ## p#q “ ε#
¨ ˛ ¨ ˛ ¨ ˛ 0 0 0 0 0 ´1 0 1 0 ˝0 0 1‚ , ˝0 0 0 ‚ , ˝´1 0 0‚ 0 ´1 0 1 0 0 0 0 0
(11.29)
222
11 Spezielle Tensoren
11.7.2
Determinantenform der Tensorkomponenten
Die Komponente ε ijk des ε -Tensors kann man als Determinante aus Kronecker-Symbolen schreiben und sie wird dann auch als Levi-Civita-Permutations-Symbol bezeichnet.
ε ijk “ ε#
δ1i δ1j δ2i δ2j δ3i δ3j
δ1k δ2k δ3k
? “ g
$ ’ & `1 i, j, k zyklisch ´1 i, j, k antizykl. ’ % 0 sonst
(11.30)
Die Determinante ist nur für i ‰ j ‰ k von Null verschieden, da anderenfalls zwei Spalten identisch sind. Die verbleibenden sechs Möglichkeiten liefern entweder `1 oder ´1 bei gerader bzw. ungerader Permutation der Zahlen i, j, k und entsprechen den Werten in (11.25) und (11.29).
11.7.3
Räumliche Darstellung
Wird die Blockmatrix des ε -Tensors als räumliches Gebilde in Würfelform dargestellt, dann erhält man die Abbildung 11.1 . Alle 27 Positionen der möglichen Tensorkomponenten sind beim Würfel zu sehen, die kräftigen tatsächlich, die blassen im Hintergrund. Die roten und gelben Positionen entsprechen den echten Komponenten des ε -Tensors, alle anderen sind Null. Die Fläche dieser sechs Werte bildet im Würfel einen schrägen Schnitt in Form eines regelmäßigen Sechsecks, dessen Ecken abwechselnd die Werte `ε# in rot und ´ε# in gelb aufweisen.
11.7.4
Matrix- und Summenform des ε -Tensors
Der ε -Tensor hat nach (11.21/11.22) eine spezielle Form, bei der mit (11.29) in der spitzen Klammer die negative, vektorielle, alternierende Γ-Matrix
223
11.7 ε -Tensor
k=1 k=2 k=3
Abb. 11.1: Räumliche Darstellung der 27 Komponenten des ε -Tensors
nach (6.24) entsteht. ` ˘T ε ## p#q ˝ g# g# ε “ g# ı ` ˘T ” “ g# ε ## 1 g# , ε ## 2 g# , ε ## 3 g# g# looooooooooooooooooooooomooooooooooooooooooooooon “´Γ#
˛ 0 g3 ´ g2 ` ˘T ˚ ‹ 0 g1 ‚ g# “ ´ ε# g# ˝´ g3 g2 ´ g1 0 ¨
In ko- und kontravarianter Form lautet die Matrixdarstellung des ε -Tensors ` ˘T ` ˘T ε “ ´ ε# g # Γ # g # “ ´ ε# g Γ# g #
#
(11.31)
224
11 Spezielle Tensoren
Das tensorielle Produkt aus Vektormatrix Γ # und Spaltenvektor g# führt auf den Spaltenvektor der alternierenden Dyaden der Basisvektoren. ˛ ¨ 1˛ ¨ 2 3 ˛ g 0 g3 ´ g2 g g ´ g3 g2 ‹˚ ‹ ˚ ˚ ‹ 0 g1 ‚˝g2 ‚ “ ˝ g3 g1 ´ g1 g3 ‚ ´ Γ # g# “ ´ ˝´ g3 g2 ´ g1 0 g3 g1 g2 ´ g2 g1 ¨
(11.32) Führt man die Matrixmultiplikation (11.31) aus, dann erhält man die Darstellung des ε -Tensors mit positiven Summanden für die geraden und negativen für die ungeraden Permutationen sowie die Dreifachsummendarstellungen mit den Koeffizienten nach (11.29) bzw. (11.30). ” ı ε “ ε# g 1 g 2 g 3 ` g 2 g 3 g 1 ` g 3 g 1 g 2 ´ g 1 g 3 g 2 ´ g 2 g 1 g 3 ´ g 3 g 2 g 1
ε“
3 ÿ 3 ÿ 3 ÿ
εijk gi gj gk “
i“1 j“1 k“1
11.7.5
3 ÿ 3 ÿ 3 ÿ
εijk gi gj gk
(11.33)
i“1 j“1 k“1
Skalarprodukte mit dem ε -Tensor
Die Transponierung des Spaltenvektors (11.32) stellt den zugehörigen Zeilenvektor dar. Auf der linken Seite darf man dabei nicht die Transponierregel der Matrizenrechnung für Produkte (3.42) anwenden, da dann die Reihenfolge der Basisvektoren vertauscht würde! Anstelle der nicht gültigen Beziehung `
Γ# g #
˘T
` ˘T ` # ˘T ` ˘T ‰ g# “ ´ g# Γ # Γ
zeigt die Ausführung der tensoriellen Matrixmultiplikationen dagegen, dass folgende Beziehung richtig ist. `
Γ# g #
˘T
` ˘T “ ` g# Γ # ´ ¯ “ ´ g2 g3 ´ g3 g2 , g3 g1 ´ g1 g3 , g1 g2 ´ g2 g1
(11.34)
225
11.8 Tensorinterpretation von Vektorprodukten
Bei Multiplikationen des ε -Tensors mit einem Vektor erhält man die folgenden identischen Tensoren 2. Stufe. ` ˘T # ` ˘T ` ˘T ε ¨ a “ ´ ε# g # Γ # g # ¨ g a “ ´ ε# g# Γ # a# #
`
a ¨ ε “ ´ ε# a
˘ # T
g
`
#
¨ g
˘ # T
` ˘T Γ # g # “ ´ ε # a# Γ # g #
Die Rechts- und Linksmultiplikation des ε -Tensors mit einem Vektor entspricht dem negativen alternierenden Tensor Apaq nach (11.15) unter Berücksichtigung von (11.27). a ¨ ε “ ε ¨ a “ ´ Apaq
(11.35)
Mit der Vertauschungsregel (11.13) für alternierende Tensoren 2. Stufe folgt, a ¨ ε ¨ b “ ´ Apaq ¨ b “ ` b ¨ Apaq “ ´ b ¨ ε ¨ a woraus man die Vertauschungsregel für das doppelte Skalarprodukt mit dem ε -Tensor erhält. a ¨ε ¨ b “ ´b ¨ε ¨ a
11.8
(11.36)
Tensorinterpretation von Vektorprodukten
Neben Skalar- und Kreuzprodukt ist das tensorielle Produkt die dritte Verknüpfung zweier Vektoren, die durch unbestimmte oder dyadische Kombination der Basisvektoren in der Form gi gj , gi gj gk , etc. die unterschiedlichen Richtungen in höherdimensionalen Tensorräumen kennzeichnet.
11.8.1
Kreuzprodukt
Der Vergleich der Kreuzproduktdarstellung aus den Abschnitten 7.6.2 und 11.3.3 a ˆ b “ ε# pa# qT Γ# b#
226
11 Spezielle Tensoren
mit dem doppelten Skalarprodukt des ε -Tensors, ` ˘T a ¨ ε ¨ b “ ´ ε # a# Γ # b # “ ´ b ¨ ε ¨ a zeigt den Zusammenhang der verschiedenen Darstellungen. a ˆ b “ ´ a ¨ ε ¨ b “ b ¨ ε ¨ a “ Apaq ¨ b
(11.37)
Innerhalb des Tensorkalküls kommt man im dreidimensionalen Raum daher zu einer Neuinterpretation des Kreuzproduktes • entweder als doppeltes Skalarprodukt der Vektoren mit dem ε -Tensor • oder als Skalarprodukt des zweiten Vektors mit dem zum ersten Vektor gehörigen alternierenden Tensor 2. Stufe In der Summenform und unter Verwendung des Levi-Civita-Permutations-Symbols hat das Kreuzprodukt und seine Komponenten die folgenden Darstellungen.
v “aˆb“
3 ÿ 3 ÿ 3 ÿ
εijk ai bj gk
i“1 j“1 k“1
(11.38) vk “
3 ÿ
3 ÿ
εijk ai bj “ ε# p ai bj ´ aj bi q
i“1 j“1
Die ursprünglich erforderliche Zusatzbedingung der Rechtsschraubenregel, die zur eindeutigen Definition des Kreuzproduktes in der Vektorrechnung notwendig ist und im Abschnitt 5.1.5 erläutert wurde, ist im Rahmen des Tensorkalküls mit diesen Darstellungen entfallen. Die aus mathematischer Sicht unbefriedigende Situation einer zusätzlichen Bedingung wird dadurch gelöst, dass der Tensorkalkül rein algebraisch mit einer einzigen Produktdefinition, dem Skalarprodukt (5.2), aufgebaut werden kann, das keine weitere Bedingung benötigt!
227
11.8 Tensorinterpretation von Vektorprodukten
11.8.2
Spatprodukt
Mit der Darstellung des Kreuzproduktes nach (11.37) kann man auch das Spatprodukt als reines Skalarprodukt ausdrücken, wobei für kontravariante Komponenten der Vektoren gilt ` ˘ ` ˘T a ¨ pb ˆ cq “ ´ a ¨ b ¨ ε ¨ c “ ε# a# g
#
` ˘T ¨ b # Γ # c#
Die Matrix in der Mitte der rechten Seite ist auf Grund der Reziprozitätsbedingung schiefsymmetrisch, ˛ ¨ 0 ´ b3 ` b2 ` ˘T ‹ ˚ 0 ´ b1 ‚ g ¨ b# Γ# “ ˝` b3 # ´ b2 ` b1 0 woraus sich Determinanten- und Summenform des Spatproduktes ergeben.
11.8.3
` ˘ ` ˘ a, b, c “ a ¨ b ˆ c “ ´ a ¨ b ¨ ε ¨ c 1 2 3 a a a 3 ÿ 3 ÿ 3 ÿ “ ε# b1 b2 b3 “ εijk ai bj ck c1 c2 c3 i“1 j“1 k“1
(11.39)
Doppeltes Kreuzprodukt
Der Entwicklungssatz (5.8) der Vektorrechnung kann innerhalb des Tensorkalküls als Skalarprodukt aus einem Vektor und einer alternierenden Dyade nach (11.20) gedeutet werden. ` ˘ ` ˘ ` ˘ ` ˘ u ˆ a ˆ b “ a b ¨ u ´ b a ¨ u “ ab ´ ba ¨ u “ Dalt ¨ u (11.40) Das Kreuzprodukt aus polarem Vektor u und axialem Vektor a ˆ b bildet als Skalarprodukt aus alternierender Dyade und Vektor das gesamte räumliche Vektorbüschel u in die Ebene ab, die von den Vektoren a und b aufgespannt wird und erzeugt dadurch ein ebenes Vektorbüschel. Die alternierende Dyade D alt , die den Operator dieser entarteten Abbildung darstellt, wird deshalb auch als planare Dyade bezeichnet.
228
11 Spezielle Tensoren
11.8.4
Zusammenfassende Bewertung
Die drei Arten von Multiplikationen zweier Vektoren, • Skalarprodukt • Vektor- oder Kreuzprodukt • dyadisches oder tensorielles Produkt sind nicht unabhängig voneinander. Auftretende Kreuzprodukte können vielmehr durch die beiden anderen Produkte ausgedrückt werden und man kommt im dreidimensionalen Raum zu einer neuen Deutung von Plangröße, axialem Vektor und Rechtsschraubenregel durch Skalarprodukte mit planarer Dyade und ε -Tensor. Diese Darstellung im Rahmen des Tensorkalküls ist vom Grundsatz her der Kreuzproduktbildung der Vektorrechnung überlegen, da sie rein algebraisch ohne zusätzliche Bedingung aufgebaut wird und nicht auf das künstliche Hilfsmittel der Rechtsschraube zurückgreifen muss! Dennoch werden Generationen von Naturwissenschaftlern und Ingenieuren nicht auf die vertraute Form des Kreuzproduktes verzichten wollen oder können, denn im dreidimensionalen Raum ist diese Darstellung äußerst anschaulich und in der Wirkungsweise vieler physikalischer Größen wie Drehmoment, Tangentialgeschwindigkeit bei Drehbewegungen, Poynting’scher Vektor oder Lorentz-Kraft sehr einprägsam und verständlich und daher für die Vektorrechnung die gängige Methode in allen Ingenieurwissenschaften. Dagegen stellt die Tensorrechnung ein Gebiet der Mathematik dar, das zwar umfassender und allgemeiner ist, aber als schwierig gilt und nicht im Kernbereich der Universitätslehrpläne von Physik und Ingenieurwissenschaften steht und deshalb nur einem eingeschränkten Akademikerkreis als Handwerkszeug zur Verfügung steht.
11.9 11.9.1
Kronecker-Tensor 6. Stufe Definition und Komponenten
Der Kronecker-Tensor 6. Stufe stellt das tensorielle Produkt zweier ε -Tensoren dar. Von allen Komponentendarstellungen dieses Produkttensors ist nur diejenige mit symmetrischen, gemischten Komponenten von
229
11.9 Kronecker-Tensor 6. Stufe
praktischem Interesse.
δp6q “ ε ε “
3 ÿ 3 3 ÿ 3 ÿ 3 ÿ 3 ÿ ÿ
pqr i j k δ ijk g g g gp gq gr
(11.41)
i“1 j“1 k“1 p“1 q“1 r“1
Die skalaren Werte der Komponenten werden mit einem mehrfach indizierten Kronecker-Symbol bezeichnet und aus den Spatprodukten der Basisvektoren nach (11.27) und (11.30) gebildet. pqr “ εijk εpqr “ ε# ε# “ x gi , gj , gk y x gp , gq , gr y δ ijk
Die Komponenten stellen Gram’sche Determinanten nach (5.11) dar, die aus den Skalarprodukten der Basisvektoren bestehen und daher eine Determinante aus einfachen Kronecker-Symbolen bilden. gi ¨ gp gi ¨ gq gi ¨ gr δ p δ q δ r i i i pqr “ gj ¨ gp gj ¨ gq gj ¨ gr “ δjp δjq δjr δ ijk gk ¨ gp gk ¨ gq gk ¨ gr δ p δ q δ r k
k
k
Mit den Komponenten (11.30) des ε -Tensors, dem Tausch von Zeilen und Spalten in der ersten Determinante und dem Determinantensatz (3.46) erhält man das gleiche Ergebnis. δ1i δ1j δ1k δ 1p δ 1q δ 1r ? 1 ε ijk ε pqr “ g δ2i δ2j δ2k ? δ 2p δ 2q δ 2r g 3p 3q 3r δ3i δ3j δ3k δ δ δ »¨ ˛ ¨ 1p 1q 1r ˛fi δ1i δ2i δ3i δ δ δ —˚ ‹ ˚ 2p 2q 2r ‹ffi δ δ ‚fl “ det –˝ δ1j δ2j δ3j ‚˝ δ 3p 3q δ1k δ2k δ3k δ δ δ 3r p q δ δ δr i i i “ δjp δjq δjr p q r δ δ δ k k k pqr bzw. die darstellende Determinante ist nur für i ‰ j ‰ k Das Element δ ijk und p ‰ q ‰ r von Null verschieden, da anderenfalls zwei Zeilen oder Spalten
230
11 Spezielle Tensoren
identisch sind. Die verschiedenen Permutationen von i, j, k und p, q, r führen auf 3! ˆ 3! “ 36 nichtverschwindende von insgesamt 36 “ 729 Komponenten des Kronecker-Tensors, die folgende Werte haben. pqr δ ijk
11.9.2
pqr (zykl.)
pqr (antizykl.)
ijk (zykl.)
`1
´1
ijk (antizykl.)
´1
`1
Verjüngungen des Kronecker-Tensors
Die Verjüngung des Kronecker-Tensors wird als Skalarprodukt zwischen einem Paar reziproker Basisvektoren gebildet, wobei ein Kronecker-Symbol entsteht und sich die Tensorstufe um zwei erniedrigt. 1. Verjüngung ( r “ k ) δp4q “
3 3 ÿ 3 ÿ 3 ÿ ÿ
g i g j g p gq
i“1 j“1 p“1 q“1
3 ÿ
pqk δ ijk
k“1
Von den drei Determinanten in der Summe 3 ÿ
pqk pq1 pq2 pq3 δ ijk “ δ ij1 ` δ ij2 ` δ ij3
k“1
ist bei Erfüllung der Bedingung i ‰ j ‰ k und p ‰ q ‰ k für ein festes k nur jeweils eine einzige von Null verschieden, die sich auf ihren Hauptminor reduziert. p q δ δ δk δp δq 0 p q i i i i i δ δ i i pqk pq “ δjp δjq δjk “ δjp δjq 0 “ p q “ δip δjq ´ δiq δjp “ δ ij δ ijk δ δ p q k j j δ δ δ 0 0 1 k k k Damit lautet der Kronecker-Tensor 4. Stufe δp4q “
3 ÿ 3 ÿ 3 3 ÿ ÿ i“1 j“1 p“1 q“1
pq i j δ ij g g gp gq
231
11.9 Kronecker-Tensor 6. Stufe
2. Verjüngung ( q “ j ) δp2q “
3 ÿ 3 ÿ
g i gp
i“1 p“1
In der Summe 3 ÿ
pj δ ij
“
p1 δi1
`
p2 δi2
j“1
`
p3 δi3
3 ÿ
pj δ ij
j“1
δp δ1 δp δ2 δp δ3 i i i i i i “ p ` ` δ1 1 δ2p 1 δ3p 1
verschwinden für i ‰ p alle drei Determinanten. Für i “ p ist eine der Determinanten Null, die beiden anderen entsprechen dem Hauptminor, der Eins ist. Damit gilt für den Kronecker-Tensor 2. Stufe δp2q “ 2
3 ÿ 3 ÿ
δ ip gi gp
i“1 p“1
3. Verjüngung ( p “ i ) Der Kronecker-Tensor 0. Stufe ist ein Skalar mit dem Wert δp0q “ 2
3 ÿ i“1
δii “ 6
Kapitel 12
Hauptachsentransformation symmetrischer Tensoren Zusammenfassung Die Hauptachsentransformation symmetrischer Tensoren stellt ein wichtiges Teilgebiet dar, das auch in linearer Algebra und Matrizenkalkül große Bedeutung hat. Behandelt werden das Eigenwertproblem zur Bestimmung von Eigenwerten und Eigenvektoren, die Spektralverschiebung sowie Invarianten und Potenzen der Tensormatrizen. Untersucht werden quadratische Formen und die damit beschriebenen Tensorflächen. Bei Tensorellipsoiden läßt sich die Zuordnung der Vektoren durch die Poinsot’sche Konstruktion veranschaulichen.
12.1
Zielsetzung und Bedingungen der Transformation
Die forminvariante Abbildung des Vektors u durch den Tensor 2. Stufe T in den Vektor v, die in (9.1) definiert wurde,
v “T ¨u 232 © Springer Fachmedien Wiesbaden GmbH, ein Teil von Springer Nature 2019 W. Werner, Vektoren und Tensoren als universelle Sprache in Physik und Technik 1, https://doi.org/10.1007/978-3-658-25272-4_12
(12.1)
233
12.1 Zielsetzung und Bedingungen der Transformation
kann in beliebigen Bezugssystemen untersucht werden und die Darstellung der zugehörigen Komponenten sowie ihre Umrechnung wurden bereits ausführlich erörtert. Von großem Interesse ist die Frage, ob ein ausgezeichnetes Koordinatensystem existiert, in dem die Komponentendarstellung von T besonders einfach ausfällt. Gerade für die in der Physik am häufigsten auftretenden symmetrischen Tensoren T ” S der 2. Stufe ist es stets möglich, ein Bezugssystem zu finden, in dem nur die Diagonalglieder der ko- und kontravarianten Tensormatrizen von Null verschieden sind. Die Diagonalisierung der Tensormatrizen und das Auffinden des zugehörigen Koordinatensystems wird Hauptachsentransformation genannt. Das spezielle Bezugssystem, das sich als orthogonal herausstellt, heißt Hauptachsensystem, dessen Koordinaten mit ξ, η, ζ bezeichnet werden. Die Matrizen werden mit HA indiziert oder sie erhalten ein Dach im neuen System. Die obige Vektorabbildung nimmt für einen symmetrischen Tensor S als Matrixgleichung v “ S u folgende einfache Gestalt im Hauptachsensystem an.
v HA
¨ ˛ ¨ ˛¨ ˛ vξ Sξ 0 0 uξ ˚ ‹ ˚ ‹˚ ‹ ˆ “v ˆ “ ˝vη ‚ “ ˝ 0 Sη 0 ‚˝uη ‚ “ S u ˆ “ S HA u HA 0 0 Sζ vζ uζ
(12.2)
Für Tensor und Vektorabbildung gelten folgende Darstellungen. ` ˘T ## S “ eT S e “ g S g “ eTHA S HA e HA #
#
v “ S ¨ u “ v ξ eξ ` v η eη ` v ζ eζ “ S ξ u ξ eξ ` S η u η eη ` S ζ u ζ eζ Fällt der Vektor u in eine der drei Hauptachsenrichtungen, dann hat der abgebildete Vektor v die gleiche Richtung, so dass in diesem Fall beide Vektoren parallel sind. Beispielsweise gilt v “ v ξ eξ “ S ξ u ξ eξ
für u “ uξ eξ
bei uη “ uζ “ 0
In dem besonderen Hauptachsensystem müssen die Tensorkomponenten die Diagonalform ihrer ko- und kontravarianten Matrizen erfüllen, in den rezi-
234
12 Hauptachsentransformation
proken Basissystemen also ˆ ## “ S ## ˆ ## S “ ˆ D HA ˆ ## “ S## S HA
ˆ ## “ ˆ D
Damit bei der Umrechnung der Tensormatrizen nach Tabelle 9.1 die Maˆ trixmultiplikationen tatsächlich auf Diagonalform der S-Matrizen führen, ˆ ## G ˆ#“G ˆ ## G ˆ# ˆ #S ˆ #D ˆ ## “ G S
Ñ
ˆ ## D
ˆ ## “ G ˆ ## G ˆ#“G ˆ ## G ˆ# ˆ #S ˆ #D S
Ñ
ˆ ## D
müssen nach (3.29) bis (3.31) die beiden Metrikmatrizen selbst Diagonalform besitzen! Daher muss gelten, ˆ # “ Diag pˆ ˆ#“Δ G gkk q ˆ # “ Diag pˆ ˆ# “ Δ G g kk q was nach (6.18) oder Tabelle 6.1 für die reziproken Basisvektoren ˆ #g ˆ #g g ˆ “G ˆ# “ Δ ˆ# #
ˆ#g ˆ g ˆ# “ G
#
ˆ#g “Δ ˆ
#
die Forderung nach sich zieht, dass die ko- und kontravarianten Vektoren g ˆk und g ˆk bei gleichem Index k einander proportional sind und damit in die gleiche Richtung weisen! Da ko- und kontravariante Basissysteme stets die Reziprozitätsbedingung erfüllen müssen, hat diese Richtungsgleichheit die Orthogonalität beider Systeme zur Folge, was nach Abschnitt 6.6.5 die Aufhebung der Kound Kontravarianz bedeutet und anhand der Abbildung 6.1 überprüft werden kann. Man erhält damit folgende zwingende Aussage. Die Hauptachsenrichtungen eines symmetrischen Tensors stehen paarweise aufeinander senkrecht und bilden ein orthogonales Koordinatensystem! (12.3) Um die Koordinatensysteme zu unterscheiden, wird das kartesische System wie bisher mit den Basisvektoren e und den Indizes x, y, z bzw. 1, 2, 3, das orthogonale Hauptachsensystem dagegen mit e HA oder den Indizes ξ, η, ζ gekennzeichnet.
235
12.2 Durchführung der Transformation
12.2 12.2.1
Durchführung der Transformation Aufstellung der Gleichungssysteme
Aus den gegebenen Komponenten S ## oder S## eines symmetrischen Tensors S werden zunächst die symmetrischen, kartesischen Komponenten S nach Tabelle 9.1 berechnet. Falls S im konkreten Fall bereits vorliegt, ist dieser Schritt natürlich nicht erforderlich! e “ VT g
#
“ UT g #
S “ VT S ## V “ UT S## U “ ST Eine orthogonale Transformation mit noch unbekannter und zu bestimmender orthogonaler Matrix A, die ja einer Drehung des Koordinatensystems entspricht, soll dann die kartesische Basis e in das orthogonale Hauptachsensystem e HA überführen, und eine Kongruenztransformation nach (3.18) soll die kartesischen Komponenten S auf Diagonalform S HA der Hauptachsenkomponenten bringen. e HA “ A e
S HA “ A S AT “ D “ Diag pdk q
(12.4)
` ˘´1 “ A gewinnt man zur Bestimmung Nach Rechtsmultiplikation mit AT der Diagonalglieder der symmetrischen Matrix S HA das homogene Gleichungssystem der Hauptachsentransformation. AS ´ DA “ 0 Multipliziert man die ausführliche ¨ ˛¨ a11 a12 a13 S11 S12 ˚ ‹˚ ˝a21 a22 a23 ‚˝S12 S22 a31 a32 a33 S13 S23 ¨ d1 0 ˚ ´ ˝ 0 d2 0 0
(12.5)
Matrixform aus, ˛ S13 ‹ S23 ‚ S33 ˛ ˛¨ ˛ ¨ a11 a12 a13 0 0 0 0 ‹ ‹˚ ‹ ˚ 0 ‚˝a21 a22 a23 ‚ “ ˝0 0 0‚ 0 0 0 d3 a31 a32 a33
236
12 Hauptachsentransformation
dann ergeben sich neun Gleichungen, von denen die drei Zeilen der Matrix A jeweils ein homogenes Gleichungssystem liefern, insgesamt also drei, deren Koeffizientenmatrizen bis auf die Unbekannten dk für k “ 1, 2, 3 identisch sind. ˛¨ ˛ ¨ ˛ ¨ ak1 0 S12 S13 S11 ´ dk ‹˚ ‹ ˚ ‹ ˚ S22 ´ dk S23 ‚˝ak2 ‚ “ ˝0‚ ˝ S12 0 S13 S23 S33 ´ dk ak3
12.2.2
(12.6)
Charakteristische Gleichung und Bestimmung der Eigenwerte
Die drei homogenen Gleichungssysteme haben die gleiche Koeffizientenmatrix und damit die gleiche Determinante, in der man die Elemente d1 , d2 , d3 in der Diagonale, die ja noch unbekannt sind, durch eine einzige unbekannte Variable S ersetzen kann. Der Spaltenvektor a k enthält die Elemente der k-ten Zeile der noch unbekannten Matrix A. `
ak
˘T
˘T ` ˘ ` “ ˆ a k# “ ak1 , ak2 , ak3
pk “ ξ, η, ζq
(12.7)
Damit kann man (12.6) zusammenfassen. `
˘ S ´ S E ak “ 0
Die Bestimmung der Werte S und der zugehörigen Spaltenvektoren a k bilden das Eigenwertproblem. Da ein homogenes Gleichungssystem nur dann nichttriviale Lösungen besitzt, wenn die Determinante seiner Koeffizientenmatrix verschwindet, lautet die Forderung für die Lösbarkeit des ˘Systems, dass die Determinante der ` charakteristischen Matrix S ´ S E Null sein muss. Die Matrix muss also singulär sein und daher den Rangabfall d ě 1 aufweisen! ˘ ` P pSq ” det S ´ S E “ 0
(12.8)
237
12.2 Durchführung der Transformation
Nach Entwicklung der Determinante erhält man eine Gleichung 3. Grades in der Unbekannten S, die charakteristische oder Säkulargleichung oder auch charakteristisches Polynom P pSq heißt. Symmetrische Matrizen S “ ST besitzen drei reelle Wurzeln Sξ , Sη , Sζ , die Eigenwerte der Matrix S heißen. Speziell bei positiv definiter symmetrischer Matrix S sind alle Eigenwerte positiv. Diese Wurzeln oder Eigenwerte des charakteristischen Polynoms bilden nach algebraischer oder numerischer Berechnung die Diagonalglieder der Matrix S HA des symmetrischen Tensors S im orthogonalen Hauptachsensystem. ` ˘ ` ˘ S HA “ Diag Sk “ Diag Sξ , Sη , Sζ
(12.9)
Mit der Bestimmung der Eigenwerte ist der erste Teil des Eigenwertproblems (12.4) bzw. (12.5) abgeschlossen.
12.2.3
Bestimmung der Eigenvektoren
Als Lösungen der drei homogenen Gleichungssysteme (12.6) mit den nunmehr bekannten Eigenwerten Sk müssen im zweiten Teil des Eigenwertproblems die Eigenvektoren a k ermittelt werden, `
˘ S ´ Sk E a k “ 0
S a k “ Sk a k
pk “ ξ, η, ζq
(12.10)
deren Elemente die orthogonale Transformationsmatrix A bestimmen. Eine zweite Interpretation des Eigenwertproblems besteht darin, bei der linearen Abbildung S x “ Sk x diejenigen Vektoren x “ a k aufzufinden, die durch die Matrix S bis auf einen skalaren Faktor in sich selbst überführt werden. Es liegt also eine Proportionalitätsabbildung mit Streckung oder Stauchung vor. In der Funktionalanalysis heißt ein solcher Lösungsvektor Fixpunkt x der Abbildung S x “ x. Bei symmetrischer Matrix S sind die Eigenvektoren a k linear unabhängig, und zwar entweder zueinander orthogonal oder orthogonalisierbar. Wie man sie berechnet, wird weiter unten beschrieben.
238
12 Hauptachsentransformation
Die auf den Betrag Eins normierten Eigenvektoren a˚k der Matrix S bilden die Spaltenvektoren der orthogonalen Modalmatrix X . ˘ ` X “ a˚ξ , a˚η , a˚ζ
XT “ X´1
} a˚k } “ 1
(12.11)
Mit der Modalmatrix kann die Lösung des Eigenwertproblems nach Zusammenfassung der drei Eigenvektorgleichungen S a˚k “ Sk a˚k in erweiterter Gestalt formuliert werden, bei der die Diagonalmatrix S HA der Eigenwerte nach (3.31) in Rechtsmultiplikation auftritt. ` ˘ S X “ X Diag Sk “ X S HA
XT S X “ S HA
(12.12)
Die symmetrische Tensormatrix S wird durch Kongruenztransformation mit der orthogonalen Modalmatrix X ihrer Eigenvektoren in die reelle Diagonalmatrix S HA ihrer Eigenwerte transformiert.
12.2.4
Orthogonale Transformationsmatrix
Aus dem Vergleich von (12.4) und (12.12) ergibt sich die orthogonale Transformationsmatrix A durch Transponierung aus der Modalmatrix, ` ˘´1 A “ XT “ X´1 “ AT
(12.13)
womit die normierten Eigenvektoren a˚k den Spalten von X bzw. den Zeilen von A entsprechen. ¨ ` ˚ ˘T ˛ aξ ˚ ` ˚ ˘ ` ˘ ‹ ˚ T ‹ X “ a ξ , a˚η , a˚ζ Ø A“˚ a η ‚ ˝ ` ˚ ˘T aζ Die Hauptachsenvektoren e HA werden durch Umrechnung mit den orthogonalen Matrizen aus den kartesischen Basisvektoren ermittelt. e HA “ A e “ XT e
(12.14)
12.2 Durchführung der Transformation
12.2.5
239
Berechnung der Eigenvektoren
Für das homogene Gleichungssystem (12.10) mit symmetrischer Matrix S sei der Eigenwert Sk “ μ bekannt, es gilt also ` ` ˘ ˘ mit det S ´ μ E “ 0 S ´ μE aμ “ 0 Die Eigenvektoren sind in ihrem Betrag unbestimmt. Denn mit a μ ist auch der proportionale Vektor α a μ bei beliebigem reellen α Lösung des homogenen Systems, so dass man die Eigenvektoren normieren kann. Hat die charakteristische Matrix S ´ μ E den Rang rg “ 2 bzw. den Rangabfall d “ 1, dann gibt es zu einem einfachen Eigenwert μ genau einen linear unabhängigen Eigenvektor a μ von unbestimmtem Betrag, d.h. eine Eigenrichtung. Da die Eigenvektoren in ihrem Betrag beliebig sind, wird z.B. die dritte Komponente zu aμ3 “ 1 festgelegt, ˛¨ ˛ ¨ ¨ ˛ .. S12 S11 ´ μ . S13 ‹ ˚aμ1 ‹ ˚ ˚0‹ ‹˚ ‹ ˚ ˚ ‹ .. ˚ ‹ ˚ S12 ˚ ‹ S22 ´ μ . S23 ‹ ‹ ˚aμ2 ‹ “ ˚ 0 ‹ ˚ ˚ ‹ ˚ ¨¨¨¨¨¨ ˚¨ ¨ ¨‹ ¨¨¨¨¨¨ ¨ ¨¨¨¨¨¨ ‹ ‚˝ ¨ ¨ ¨ ‚ ˝ ˝ ‚ .. 1 0 S23 S13 . S33 ´ μ so dass man aus den beiden ersten Zeilen des homogenen Gleichungssystems ˜ ˜ ¸ ¸˜ ¸ S11 ´ μ S13 S12 aμ1 “ ´ S12 S22 ´ μ aμ2 S23 die unbekannten Komponenten aμ1 und aμ2 mit der Kehrmatrix nach (3.22) berechnen kann. Mit den ermittelten Werten kann dann die Genauigkeit der numerischen Lösung mit der dritten Zeile anhand des Residuums ε überprüft werden. S13 aμ1 ` S23 aμ2 ` S33 ´ μ “ ε « 0 Für einfache Eigenwerte μ “ S ξ, η, ζ erhält man auf diese Weise die drei orthogonalen Eigenvektoren a ξ , a η , a ζ , deren Komponenten die orthogonalen Richtungen im Raum und damit die Hauptachsen e HA bestimmen. Bei mehrfachen Eigenwerten kann man die Eigenvektoren orthogonal auswählen, sie also orthogonalisieren, was in den Abschnitten 12.6.3 und 5.3.2 (Bd. II) demonstriert wird.
240
12.2.6
12 Hauptachsentransformation
Normierung der Eigenvektoren
Um die Eigenvektoren ak nach (12.7) endgültig festzulegen, werden sie so normiert, dass ihr Betrag und damit die Zeilennormen von A Eins sind. ¨ ˛ ak1 b 1 ˚ ‹ ak a “ Nk “ } a k } “ a2k1 ` a2k2 ` 1 Ñ a˚k “ ˝ k2 ‚ }ak } Nk 1 Die Hauptachsenvektoren (12.4) werden mit den normierten Werten zu Einheitsvektoren. ˘ 1 ` e k HA “ ak1 ex ` ak2 ey ` ez Nk Damit folgen für Zeilennormen und Hauptachsenvektoren | a˚k | “ } a˚k } “
12.2.7
b`
a˚k
˘T
a˚k “ 1
| e k HA | “ 1
(12.15)
Ebener Fall und Mohr’scher Kreis
Aus physikalischen Gründen tritt manchmal der Fall auf, dass die beiden Vektoren u und v der Abbildung (12.1) nur in einer Ebene liegen können. Legt man das kartesische Koordinatensystem so, dass die Vektoren keine z-Komponenten haben, dann lautet die Operatorgleichung ˛¨ ˛ ¨ ˛ ¨ ux Sxx Sxy 0 vx ‹˚ ‹ ˚ ‹ ˚ v “ ˝vy ‚ “ ˝Sxy Syy 0‚˝uy ‚ “ S u 0 0 1 0 0 Das Hauptachsensystem kann in diesem Fall nur ein System sein, das gegenüber dem kartesischen mit dem Winkel ϕ um die gemeinsame z-Achse gedreht ist. Die Kongruenztransformation nach (12.4), die die symmetrische Tensormatrix S in die Diagonalform der Eigenwerte (12.9) verwandelt, wird dann mit der Matrix der ebenen Drehung (6.34) durchgeführt. ˛ ¨ Sξ ˚ 0 ‹ ˚ S η 0‚ S HA “ Aϕ S AT ϕ “˝˚ 0 0 1
241
12.2 Durchführung der Transformation
Nach Ausführung der Multiplikationen erhält man an den Positionen mit Stern (*) den folgenden Ausdruck, der natürlich Null sein muss. p˚q “ Sxy pcos2 ϕ ´ sin2 ϕq ´ pSxx ´ Syy q sin ϕ cos ϕ “ 0 Löst man die Gleichung auf, dann erhält man als Ergebnis den Drehwinkel ϕ und damit die Orientierung zwischen dem kartesischen und dem Hauptachsensystem. 2 Sxy cos 2ϕ “ pSxx ´ Syy q sin 2ϕ tan 2ϕ “
2 Sxy Sxx ´ Syy
Für die beiden Diagonalelemente, also die Eigenwerte von S, ergibt sich Sξ “ Sxx cos2 ϕ ` Syy sin2 ϕ ` Sxy sin 2ϕ Sη “ Sxx sin2 ϕ ` Syy cos2 ϕ ´ Sxy sin 2ϕ Der Zusammenhang zwischen kartesischen und Hauptachsenkomponenten kann geometrisch interpretiert werden, wenn man die obige Transformationsgleichung umkehrt. ˛ ¨ Sxx Sxy 0 ‹ ˚ S “ AT ϕ S HA Aϕ “ ˝Sxy Syy 0‚ 0 0 1 ¨ ˛ Sξ cos2 ϕ ` Sη sin2 ϕ pSξ ´ Sη q sin ϕ cos ϕ 0 ‹ ˚ “ ˝ pSξ ´ Sη q sin ϕ cos ϕ Sξ sin2 ϕ ` Sη cos2 ϕ 0‚ 0 0 1 Dann gelten folgende Beziehungen. Sxx “ Sξ cos2 ϕ ` Sη sin2 ϕ “
1 1 pSξ ` Sη q ` pSξ ´ Sη q cos 2ϕ 2 2
Sxy “ pSξ ´ Sη q sin ϕ cos ϕ “
1 pSξ ´ Sη q sin 2ϕ 2
(12.16)
242
12 Hauptachsentransformation
In einem Koordinatensystem mit den Achsen Sxx und Sxy beschreiben diese Gleichungen einen Kreis, der Mohr’scher Kreis heißt (Abbildung 12.1) und beim ebenen Spannungszustand der Mechanik im Abschnitt 4.2.6 (Bd. II) auftritt. Man kann die geometrische Deutung auch leicht in der komplexen z-Ebene für den Zeiger z “ Sxx ` jSxy veranschaulichen. Im Fall Sξ ą Sη ą 0 durchläuft ein Punkt P den Kreis für ϕ “ 0 .. π von A über B, C, D zurück nach A.
Abb. 12.1: Mohr’scher Kreis Dabei gelten die folgenden vier Werte SxxA “ Sξ ,
SxxC “ Sη ,
SxxM “
1 pSξ ` Sη q, 2
R“
1 pSξ ´ Sη q 2
Die zweite Darstellungsmöglichkeit mit den Beziehungen 1 1 pSξ ` Sη q ´ pSξ ´ Sη q cos 2ϕ 2 2 1 “ pSξ ´ Sη q sin 2ϕ 2
Syy “ Sxy
bietet nichts grundsätzlich Neues, weil der Mohr’sche Kreis lediglich in anderer Weise durchlaufen wird. Je nach den Werten und Vorzeichen der Eigenwerte Sξ und Sη kann derMohr’sche Kreis rechts oder links von der Ordinate liegen, sie schneiden oder berühren. Für den Fall Sξ “ Sη entartet der Kreis zu einem Punkt.
243
12.3 Invarianten bei Matrixtransformationen
Für die Tensormatrix und ihre Hauptachsenmatrix gelten die invarianten Beziehungen 2 det S “ Sxx Syy ´ Sxy “ det S HA “ Sξ Sη
sp S “ Sxx ` Syy ` 1 “ sp S HA “ Sξ ` Sη ` 1 Aus den Umrechnungen der Tensorkomponenten folgen damit Beziehungen, die als Tensorinvarianten bei der Drehung des Koordinatensystems unverändert bleiben und die jetzt näher untersucht werden.
12.3 12.3.1
Invarianten bei Matrixtransformationen Charakteristische Größen der Matrix
Das charakteristische Polynom einer Matrix R, die nicht symmetrisch sein muss, lautet gemäß (12.8), wenn man beide Summanden vertauscht ` ˘ P pλq “ det λ E ´ R “ 0 Entwickelt man die Determinante nach λ, so entsteht ein Polynom 3. Grades, das man nach dem Fundamentalsatz der Algebra in die Linearfaktoren seiner Nullstellen und damit der Eigenwerte der Matrix zerlegen kann. P pλq “ λ3 ` α2 λ2 ` α1 λ ` α0 “ pλ ´ λ1 q pλ ´ λ2 q pλ ´ λ3 q “ 0 Führt man die Determinantenentwicklung durch und multipliziert die Linearfaktoren aus, so erhält man aus dem Vergleich gemäß dem Wurzelsatz von Vieta drei charakteristische skalare Größen der Matrix, ihre Spur sp R , ihre Summe der Minoren som R (sum of minors) und ihre Determinante det R . ´ α2 “ sp R
“ R11 ` R22 ` R33 “ λ1 ` λ2 ` λ3
R 11 R12 ` α1 “ som R “ R21 R22
R 11 R13 ` R31 R33
“ λ1 λ2 ` λ 1 λ3 ` λ2 λ3 ´ α0 “ det R
“ λ1 λ2 λ3
R 22 R23 ` R32 R33
(12.17)
244
12 Hauptachsentransformation
Alle drei Größen werden durch die Eigenwerte λk der Matrix bestimmt!
12.3.2
Invarianten bei Ähnlichkeitstransformation
Für beliebige Matrizen A und B werden durch Ähnlichkeitstransformation ˆ erzeugt. zwei Matrizen R bzw. R R “ B A B´1
ˆ “ B´1 A B R
(12.18)
Bei diesen Transformationen bleiben verschiedene Größen der zueinander ˆ erhalten und bilden daher Invarianten ähnlichen Matrizen A und R bzw. R der Transformation. Für die charakteristische Gleichung von R gilt nach Erweiterung und dem Determinantensatz (3.46) ` ˘ det p R ´ λ E q “ det B A B´1 ´ λ B E B´1 “ ` ˘ ‰ “ det B A ´ λ E B´1 ` ˘ “ loooooooomoooooooon det B det B´1 det A ´ λ E “1
ˆ durchgeführt werden. Daraus und eine entsprechende Rechnung kann für R folgt die Gleichheit der charakteristischen Polynome der drei Matrizen A, ˆ, R und R ` ˘ ` ˘ ` ˘ ˆ ´ λE det A ´ λ E “ det R ´ λ E “ det R
(12.19)
die daher auch die gleichen Eigenwerte besitzen. Nach (12.17) haben sie gleiche Werte für Determinante, Spur und Summe der Minoren, die die Invarianten der zueinander ähnlichen Matrizen bilden! ˆ det A “ det R “ det R sp A “ sp R
ˆ “ sp R
(12.20)
ˆ som A “ som R “ som R Die Aussagen dieses Abschnitts gelten bei beliebiger Matrix A aber orthogonaler Matrix BT “ B´1 ebenso für die Kongruenztransformation!
245
12.3 Invarianten bei Matrixtransformationen
12.3.3
Spektralverschiebung
Betrachtet wird die Ausgangsmatrix B und die zugeordnete Matrix C, (12.21)
C “ αB ` pE
die sich durch die Zahlen α und p im Niveau der Elemente und in der Hauptdiagonale unterscheidet. Die Matrix B möge als Gesamtheit der Eigenwerte das Spektrum λB besitzen, so dass gilt ` ˘ det B ´ λ E “ 0 Ñ λB “ tλk u Dann ist das Spektrum λC der Matrix C gegenüber dem Spektrum λB in systematischer Weise verändert, denn die Eigenwerte erfahren eine allgemeine Spektralverschiebung. ” ” ` ` ˘ λ ´ p ˘ı λ´p ı det C ´ λ E “ det α B ´ E E “0 “ αn det B ´ α α ˘ ` det C ´ λ E “ 0
Ñ
λC “ αλB ` p
(12.22)
Bei Spektralverschiebung der Eigenwerte besitzen die Matrizen B und C dagegen die gleichen Eigenvektoren! Wenn μ Eigenwert von B ist, dann folgt für C mit dem Eigenwert αμ ` p ` ˘ ‰ “ ` ˘ ‰ “ C ´ αμ ` p E x “ αB ` pE ´ αμ ` p E x “
˘ ` ˘ ‰ ` C ´ αμ ` p E x “ 0 “ ˆ B ´ μE x “ 0
bei gleichem x
(12.23) Da ihre Eigenvektoren identisch sind, besitzen beide Matrizen B und C auch die gleiche Modalmatrix X und damit das gleiche Hauptachsensystem. Beide Matrizen werden daher mit der gleichen orthogonalen Matrix A in die Diagonalform ihrer jeweiligen Eigenwerte transformiert. A B AT “ B HA “ Diag pλB q ` ˘ A C AT “ A αB ` pE AT “ αB HA ` pE “ C HA “ Diag pαλB ` pq “ Diag pλC q
246
12 Hauptachsentransformation
12.3.4
Matrixpotenzen
Nach dem Theorem von Cayley-Hamilton erfüllt eine Matrix ihr eigenes charakteristisches Polynom, [1, S. 178]. Gilt also für eine reguläre Matrix R, P pλq “ det p λE ´ R q “ λ3 ` α2 λ2 ` α1 λ ` α0 “ 0 dann gilt auch die Beziehung, P pRq “ R3 ` α2 R2 ` α1 R ` α0 E “ 0 woraus dann mit (12.17) folgt R3 “ R2 sp R ´ R som R ` E det R
(12.24)
Multipliziert man diese Gleichung mit R bzw. R´1 und fasst zusammen, dann folgen die beiden Resultate ` ˘ ` ˘ R4 “ R2 sp 2 R ´ som R ` R det R ´ sp R som R ` E sp R det R R´1 “
‰ 1 “ 2 R ´ R sp R ` E som R det R
Das kann man beliebig fortsetzen, so dass sich jede ganzzahlige Potenz einer regulären 3 ˆ 3 -Matrix durch die Grundmatrix, ihr Quadrat und ihre drei skalaren Invarianten ausdrücken läßt.
12.3.5
Eigenwerte und Eigenvektoren von Potenzen symmetrischer Matrizen
Jede symmetrische Matrix S kann nach Gleichung (12.4) mit der orthogonalen Matrix A ihrer Eigenvektoren (12.13) diagonalisiert werden, A S AT “ S HA “ Diag pSk q wobei S und S HA nach (12.19) die gleichen Eigenwerte Sk “ S ξ, η, ζ besitzen. Das Quadrat der Matrix S ist mit der gleichen Matrix A diagonalisierbar AT A S AT “ S HA S HA “ S2HA “ Diag pSk2 q A S2 AT “ A S loomoon “E
247
12.3 Invarianten bei Matrixtransformationen
und ebenso alle höheren Potenzen. Auch die inverse Matrix S´1 läßt sich mit A diagonalisieren, denn es gilt `
S HA
˘´1
` ˘´1 ` T ˘´1 ´1 ´1 “ A S AT “ A S A “ A S´1 AT “ Diag p1 {Sk q
Für die Potenzen symmetrischer Matrizen S folgt damit Sn besitzt die Eigenwerte Sξn , Sηn , Sζn für n “ ˘1, 2, . . .
(12.25)
Für die Matrixinvarianten gelten damit folgende Beziehungen. sp Sn “ Sξn ` Sηn ` Sζn ˘n ` ˘n ` ˘n ` som Sn “ Sξ Sη ` Sξ Sζ ` Sη Sζ ˘n ` det Sn “ Sξ Sη Sζ Die symmetrische Matrix S besitzt für den Eigenwert μ den Eigenvektor x, der das Eigenwertproblem löst. `
˘ S ´ μE x “ 0
bzw.
Sx “ μx
Bei Multiplikation mit S und S´1 folgt, S 2 x “ μ S x “ μ2 x S´1 S x “ x “ μ S´1 x
Ñ
S´1 x “
1 x μ
was sich beliebig beim gleichen Eigenvektor x fortsetzen läßt. `
˘ S n ´ μn E x “ 0
für
n “ ˘1, 2, . . .
Ganzzahlige Potenzen symmetrischer Matrizen S besitzen die gleichen Eigenvektoren und damit das gleiche orthogonale Hauptachsensystem!
(12.26)
248
12.3.6
12 Hauptachsentransformation
Deviator
Der Deviator ist ein spezieller symmetrischer Tensor 2. Stufe, dessen Matrix die Spur Null hat. Damit besitzt ein Deviator nur fünf unabhängige Elemente, wobei die Werte der Diagonalelemente in der Darstellung der kovarianten Tensormatrix auch anders verteilt sein können. D11 D12
D13
˛
˚ Dv “ ˝ D12 D22
D23
‹ ‚
¨
(12.27)
D13 D23 ´D11 ´ D22 Nach (12.17) ist dann die Summe der Eigenwerte Null, so dass sie nicht alle das gleiche Vorzeichen haben können. Benutzt man diese Eigenschaft der verschwindenden Spur, dann lassen sich die Deviatorinvarianten durch die Spuren der Potenzen der Deviatormatrix darstellen. sp Dv “ D11 ` D22 ` D33 “ λξ ` λη ` λζ “ 0 ˘ 1 ` som Dv “ ´ sp Dv2 2 ˘ 1 ` det Dv “ ` sp Dv3 3
12.3.7
Tensorinvarianten
Die Umrechnung der Tensormatrizen im gleichen Basissystem nach Tabelle 9.1 führt für Determinanten und Spur bei Anwendung der Regeln (3.43) sowie der Gleichungen (6.20) und (6.21) auf folgende Ergebnisse von einfacher Form. ¨# “ det T# det T “ det T# ¨#
1 det T ## “ det T g ¨# sp T “ sp T#
“ g det T##
(12.28)
“ sp T# ¨#
Da die Umrechnungen im gleichen Basissystem wie auch bei Basiswechsel nach Tabelle 9.2 nicht in allen Fällen Kongruenztransformationen darstellen, bleiben Determinante und Spur der Matrizen nicht immer unverändert.
249
12.3 Invarianten bei Matrixtransformationen
In den Tabellen 12.1 und 12.2 sind die Ergebnisse zusammengefasst, wobei die invarianten Beziehungen farblich hervorgehoben sind. Bei Basiswechsel erhält man aus den Tabellen ergänzend zu den letzten Beziehungen das Ergebnis, dass Determinanten und Spuren der kartesischen und gemischten Tensormatrizen in direkter Form invariant sind. ¨#
ˆ # “ det T ˆ ¨ # “ det T “ det T ¨ # “ det T# ˆ “ det T det T # ¨# #
¨# ¨# # ˆ “ sp T ˆ# ˆ# sp T “ sp T ¨ # “ sp T “ sp T# “ sp T ¨ #
12.3.8
(12.29)
Tensorprodukt bei Orthogonaltransformation
Das Skalarprodukt zweier Tensoren, die kartesisch dargestellt werden, lautet , ˆ ˆ e . eT M M “ eT M e “ ˆ Ñ K “M ¨N ˆˆ e eT N N “ eT N e “ ˆ Der Basiswechsel zwischen zwei orthogonalen Koordinatensystemen wird wie bisher durch eine orthogonale Matrix A beschrieben. Die Umrechnung der Komponenten erfolgt durch Kongruenztransformation und die kartesischen Elemente ergeben sich nach (3.13). ˆ “M ˆ “ A K AT “ A M N AT “ A M AT A N AT ˆ N K ˆ “ A M AT M
Ñ
ˆ ik “ M
3 3 ÿ ÿ
Mpq aip akq
p“1 q“1
ˆ “ A N AT N
Ñ
ˆik “ N
3 3 ÿ ÿ
Nrs air aks
r“1 s“1
Nach (12.29) bleiben die Spuren bei Basiswechsel gleich. 3 3 ÿ 3 ÿ ˘ ÿ ` ˆ “ sp K “ sp M ˆ ii “ ˆ ip N ˆpi ˆ “ ˆ N sp K K M
˘ “ sp M N “ `
i“1
i“1 p“1
3 ÿ
3 ÿ 3 ÿ
i“1
Kii “
i“1 p“1
Mip Npi
250
12 Hauptachsentransformation
Für den Produkttensor, bei dem ein Faktor transponiert ist, gilt dann wegen der Transponierung K
˚
“ M ¨ NĂ
3 3 ÿ 3 ÿ ÿ ` ˚ T˘ ˚ ˚ ˆ ˆ ˆ ip N ˆip ˆ ˆ Kii “ M sp K “ sp K “ sp M N “ i“1 p“1
i“1 3 ÿ
˘ ` “ sp M NT “
Kii˚ “
i“1
12.4
Quadratische Formen
12.4.1
Definition und Auftreten
3 ÿ 3 ÿ
Mip Nip
i“1 p“1
Unter einer reellen quadratischen Form in n Veränderlichen xk versteht man folgenden homogenen Ausdruck zweiten Grades. Q “ a11 x1 x1 ` 2 a12 x1 x2 ` . . . ` 2 a1n x1 xn ` a22 x2 x2 ` . . . ` 2 a2n x2 xn .. .. . . ` ann xn xn Sind insbesondere die Koeffizienten symmetrisch, aik “ aki , dann ergibt sich für die quadratische Form Q“
x1 pa11 x1 ` a12 x2 ` . . . ` a1n xn q ` x2 pa21 x1 ` a22 x2 ` . . . ` a2n xn q .. .. .. . . . ` xn pan1 x1 ` an2 x2 ` . . . ` ann xn q “
n ÿ n ÿ
aik xi xk
i“1 k“1
Q “ xT A x
xT “ px1 , x2 , . . . , xn q
A “ AT
(12.30)
Die quadratische Form Q ist gemäß der Matrixmultiplikation eine einzelne skalare Größe.
251
12.5 Tensorflächen
Hat A Diagonalform, so reduziert sich Q auf eine Summe von Quadraten. Bei schiefsymmetrischer Matrix A “ ´ AT , ist Q gleich Null. Quadratische Formen treten auf als Energieausdrücke für ‚ kinetische und potentielle Energie mechanischer Systeme ‚ elektrische und magnetische Energie in der Elektrodynamik In der Mathematik treten Ausdrücke Q “ const. auf als Mittelpunktsgleichungen von Quadriken. Eine Quadrik ist ein quadratisches Polynom mit n Unbekannten. ‚ Kurven zweiter Ordnung
(Kegelschnitte für n “ 2)
‚ Flächen zweiter Ordnung
(Raumflächen für n “ 3)
Für quadratische Formen mit symmetrischen Koeffizienten gilt der Euler’sche Homogenitätssatz.
Q“
n ÿ n ÿ
aij xi xj
i“1 k“1
12.4.2
Ñ
n ÿ BQ xi “ 2Q Bxi i“1
(12.31)
Klassifizierung
Quadratische Formen und ihre Matrizen heißen ‚ positiv definit für
Q “ xT A x ą 0
@x‰0
‚ positiv semidefinit für
Q “ xT A x ě 0
@x‰0
Für positiv definites Q ą 0 ist die Matrix A regulär mit det A ‰ 0 und die Spaltenvektoren x und A x können nicht orthogonal sein.
12.5 12.5.1
Tensorflächen Erzeugung quadratischer Formen
Jeder symmetrische Tensor S erzeugt eine quadratische Form, wenn man das doppelte Skalarprodukt a ¨ S ¨ a mit einem Vektor bildet.
252
12 Hauptachsentransformation
Zur geometrischen Interpretation dieser Form als Raumfläche reicht es aus, an Stelle des tatsächlich auftretenden physikalischen Vektors a den Ortsvektor r im kartesischen System für die Multiplikation zu verwenden. Q “ r ¨ S ¨ r “ xT S x “ const. Bei konstanten Werten definiert die quadratische Form Mittelpunktsflächen 2. Ordnung im Raum, die sog. Tensorflächen. Als Repräsentant der gesamten Flächenschar wird die spezielle Fläche mit dem Scharparameter Eins angesehen.
Q “ r ¨ S ¨ r “ x Sx “ T
3 ÿ 3 ÿ
Sik xi xk “ 1
(12.32)
i“1 k“1
Als Tensorflächen können sowohl Ellipsoide als auch ein- oder zweischalige Hyperboloide auftreten. Für symmetrische planare Dyaden treten als Ausartung Zylinderflächen auf.
12.5.2
Hauptachsentransformation und Tensorellipsoid
Die Komponentenmatrizen physikalisch auftretender Tensoren sind regulär und meistens symmetrisch mit positiv definiten quadratischen Formen. Physikalische Vektoren sind stets endlich, so dass dann bei der geometrischen Beurteilung wegen | r | ă 8 alle Raumflächen ausgeschlossen werden, die sich ins Unendliche erstrecken. Bei positiv definiten Tensormatrizen erhält man durch Hauptachsentransformation die Diagonalmatrix S HA mit drei reellen, positiven Eigenwerten Sk . Die quadratische Form reduziert sich auf eine Summe von Quadraten und im Hauptachsensystem ξ, η, ζ gilt Q “ r ¨ S ¨ r “ Sξ ξ 2 ` Sη η 2 ` Sζ ζ 2 “ 1 Als Mittelpunktsfläche 2. Ordnung ergibt sich ein Tensorellipsoid mit der Gleichung ´ ξ ¯2 a
`
´ η ¯2 b
`
´ ζ ¯2 c
“
ξ2 η2 ζ2 ` ` “1 1 { Sξ 1 { Sη 1 { Sζ
253
12.5 Tensorflächen
Die Achsen des Ellipsoids entsprechen den orthogonalen Hauptachsen des Tensors und die reziproken Eigenwerte bilden die Längen seiner Halbachsen a, b, c. Treten bei der Hauptachsentransformation symmetrischer Tensoren negative Eigenwerte auf, dann stellt die Tensorfläche bei einem negativen Eigenwert ein einschaliges, bei zwei negativen Eigenwerten ein zweischaliges Hyperboloid dar.
12.5.3
Poinsot’sche Konstruktion
Bei der Vektorabbildung gilt für den Vektor v “ S ¨ r “ eT S x die folgende kartesische Komponentendarstellung mit symmetrischem S . ¨ ˛ ¨ ˛ vx x ˚ ‹ ˚ ‹ v “ ˝ vy ‚ “ S ˝ y ‚ “ S x z vz Leitet man die quadratische Form Qpx, y, zq “ r ¨ v “ r ¨ S ¨ r “ xT S x “ const. nach der Koordinate x ab, so folgt mit dem Zeilenvektor eT 1 “ p1, 0, 0q der Skalar ` T ‰ ˘T BQ B “ T T T “ 2 eT “ x S x “ eT 1 S x ` x S e 1 “ e1 S x ` e 1 S x 1 Sx Bx Bx und nach Zusammenfassung mit den anderen Ableitungen und Zeilenvektoren erhält man ¨ ˛ BQ { Bx ˚ ‹ ˝BQ { By ‚ “ 2 E S x “ 2 S x “ 2 v BQ { Bz Die Komponenten des Spaltenvektors auf der linken Seite stimmen mit dem totalen Differential der Funktion Q und damit dem Gradienten überein,
254
12 Hauptachsentransformation
der im Abschnitt 17.1 ausführlich behandelt wird. BQ BQ BQ dx ` dy ` dz Bx By Bz ¨ ˛ BQ { Bx ˚ ‹ “ pdx, dy, dzq e ¨ eT ˝BQ { By ‚ “ dr ¨ grad Q
dQ “
BQ { Bz Der Gradient ist ein Vektor, der nach (17.7) auf den Niveauflächen Q “ const. senkrecht steht, im vorliegenden Fall also auf der Tensorfläche. Aus dem Vergleich der Komponenten folgert man grad Q “ 2 eT v “ 2 eT S x “ 2 v “ 2 S ¨ r Damit steht der Vektor v “ S ¨ r, der dem Ortsvektor r durch den symmetrischen Tensor S zugeordnet wird, ebenfalls senkrecht auf der Fläche des Tensorellipsoids, also senkrecht auf der Tangentialebene. Die Richtung von v entspricht somit der Normalen n der Tensorfläche im Endpunkt P prq von r. Für jedes r kann diese Richtung von v durch die Poinsot’sche Konstruktion auf einfache Weise gefunden werden, indem man vom Koordinatenursprung das Lot auf die Tangentialebene des Tensorellipsoids im Punkt P prq fällt. Die Abbildung 12.2 gibt ein Beispiel für diese Konstruktion, bei der man einen anschaulichen Überblick erhält, wie der Tensor S das Vektorbüschel r als Stellvertreter für einen zugrunde liegenden physikalischen Vektor a in das zugeordnete Vektorbüschel v abbildet. Man erhält damit eine geometrische Veranschaulichung für die Wirkung der Tensoroperation als Abbildung eines Vektors in einen anderen, wie das bei Einführung der Tensoren im Abschnitt 9.1.1 beschrieben wurde. Der Konstruktion entnimmt man ferner, dass bei einem Tensorellipsoid beide Vektoren v und r nur dann parallel sind, wenn r in die Richtung der Hauptachsen fällt, und dass beide Vektoren niemals aufeinander senkrecht stehen können.
12.6 Beispiele für Hauptachsentransformationen
Abb. 12.2: Poinsot’sche Konstruktion
12.6 12.6.1
Beispiele für Hauptachsentransformationen 2 ˆ 2 -Matrix
Für die symmetrische Matrix ˆ ˙ ´64 20 S“ 20 32 liefert das charakteristische Polynom die Eigenwerte, det pS ´ λ Eq “ λ2 ` 32λ ´ 2448 “ pλ ´ 36qpλ ` 68q “ 0
255
256
12 Hauptachsentransformation
mit denen die Diagonalmatrix im Hauptachsensystem lautet ˆ ˙ 36 0 S HA “ 0 ´68 Mit den Eigenwerten werden die Eigenvektoren berechnet. ˆ ˙ˆ ˙ ˆ ˙ ´64 ´ 36 20 x11 0.2 pS ´ λ1 Eq x1 “ “ 0 Ñ x1 “ 1 20 32 ´ 36 1 ˆ ˙ˆ ˙ ˆ ˙ ´64 ` 68 20 x21 ´5 “ 0 Ñ x2 “ pS ´ λ2 Eq x2 “ 1 20 32 ` 68 1 Nach Normierung lautet die Modalmatrix, ˜ ¸ ˜ ? ¸ ? ` ˚ ˚˘ 1 ´5 2{ 104 ´5{ 26 1 ? ? “? “ AT X “ x1 , x2 “ 5 1 1{ 26 10{ 104 26 mit der die Diagonalmatrix im Hauptachsensystem durch Kongruenztransformation berechnet wird. ˆ ˙ 36 0 T T X S X “ A S A “ S HA “ 0 ´68 Die Matrizen X und A sind orthogonal, denn es gilt ˜ ¸˜ ¸ ˜ ¸ 1 ´5 1 5 1 0 1 “ “E X XT “ AT A “ 26 5 1 ´5 1 0 1
12.6.2 12.6.2.1
3 ˆ 3 -Matrix, einfache Eigenwerte Erstes Beispiel
Gegeben ist die symmetrische Matrix ¨ ˛ 0 1 2 S“˝ 1 5 3 ‚ 2 3 2 Das charakteristische Polynom ˘ ` det S ´ λ E “ ´λ3 ` 7λ2 ` 4λ ´ 10 “ pλ ´ 1qp´λ2 ` 6λ ` 10q “ 0
12.6 Beispiele für Hauptachsentransformationen
257
hat die Eigenwerte ? ? ˘ ` ` ˘ λ “ 1, 3 ` 19, 3 ´ 19 “ 1, 7.358899, ´1.358899 Mit der Berechnungsmethode nach Abschnitt 12.2.5 erhält man die Eigenvektoren ? ˛ ? ˛ ¨ ˛ ¨ ¨ `1 ´ 2 ` ?19 ´ 2 ´ ?19 1 1 x1 “ ˝´1‚ , x2 “ ˝` 3 ` 19 ‚ , x3 “ ˝` 3 ´ 19 ‚ 5 5 `1 5 5 Mit den normierten Eigenvektoren ¨ ˛ ? `1 3˝ ‚ ˚ ´1 x1 “ 3 `1 ¨ c ´ ¨ c ´ ˛ ˛ 1 1 7 ? ¯ 7 ? ¯ 19 ‹ 1´ ˚ ˚ ´ 3 1 ` 38 19 ‹ 3 38 ˚ ˚ ‹ ‹ ˚ c ´ ˚ c ´ ‹ ‹ ¯ ¯ ˚ ˚ ‹ ‹ ? ? 1 1 8 8 ˚ ˚ ˚ ˚ ‹ x2 “ ˚ 19 ‹ , x3 “ ˚ ´ 19 ‹ 1` 1´ ‹ 3 38 3 38 ˚ ˚ ‹ ‹ ˚ c ´ ˚ ‹ ‹ c ´ ¯ ¯ ˝ ˝ ‚ ‚ ? ? 1 1 1 1 19 19 ` 1´ 1` 3 38 3 38 lautet die Modalmatrix mit gerundeten Werten, ¨ ˛ `0.57735 `0.25628 ´0.77523 ` ˚ ˚ ˚˘ X “ x1 , x2 , x3 “ ˝ ´0.57735 `0.79951 ´0.16567 ‚ “ AT `0.57735 `0.54323 `0.60956 die die Ausgangsmatrix durch Kongruenztransformation wegen der Rundungsfehler nur näherungsweise auf Diagonalform bringt. ¨ ˛ 1 «0 «0 ‚ «0 XT S X “ A S AT “ S HA “ ˝ « 0 7.35886 «0 «0 ´1.35889 12.6.2.2
Zweites Beispiel
Gegeben ist die symmetrische Matrix ¨ ˛ 60 ´10 20 40 5 ‚ S “ ˝ ´10 20 5 20
258
12 Hauptachsentransformation
Das charakteristische Polynom ˘ ` det S ´ λ E “ ´λ3 ` 120λ2 ´ 3875λ ` 26500 “ 0 liefert nach numerischer Berechnung die Eigenwerte ` ˘ λ “ 9.319437, 40.540711, 70.139852 Mit der Berechnungsmethode nach Abschnitt 12.2.5 erhält man die Eigenvektoren ¨ ¨ ¨ ˛ ˛ ˛ ´0.45612 0.35455 2.68854 x1 “ ˝´0.31164‚ , x2 “ ˝2.68993‚ , x3 “ ˝´0.72613‚ 1 1 1 Nach Normierung der orthogonalen Eigenvektoren lautet die Modalmatrix, ¨ ˛ ´0.39925 0.12261 0.90861 ` ˘ X “ x˚1 , x˚2 , x˚3 “ ˝ ´0.27278 0.93025 ´0.24540 ‚ “ AT 0.87533 0.34583 0.33796 mit der die Diagonalmatrix im Hauptachsensystem durch Kongruenztransformation berechnet wird. ¨ ˛ 9.3195 «0 «0 40.5407 «0 ‚ XT S X “ A S AT “ S HA “ ˝ « 0 «0 «0 70.1397 Durch Rundungsfehler sind die Matrizen thogonal. ¨ 1`ε X X T “ AT A “ ˝ « 0 «0
12.6.3
X und A nur näherungsweise or˛ «0 «0 1 ` ε « 0 ‚« E «0 1`ε
3 ˆ 3 -Matrix, zweifacher Eigenwert
Für die symmetrische Matrix ¨
˛ 13 18 6 3 ‚ S “ ˝ 18 ´14 6 3 ´22
12.6 Beispiele für Hauptachsentransformationen
259
lautet das charakteristische Polynom, det pS ´ λ Eq “ ´λ3 ´ 23λ2 ` 529λ ` 12167 “ ´pλ ´ 23qpλ ` 23q2 “ 0 das einen zweifachen Eigenwert hat. λ “ p 23, ´23, ´23 q Der Eigenvektor zum einfachen Eigenwert λ “ 23 wird nach Abschnitt 12.2.5 berechnet mit dem Ergebnis ¨ ˛ 6 x1 “ ˝ 3 ‚ 1 Für den zweifachen Eigenwert λ “ ´23 erhält man aus pS ´ λ Eq x “ 0 drei proportionale Gleichungen. , 36xa ` 18xb “ ´ 6xc / . 18xa ` 9xb “ ´ 3xc / 6xa ` 3xb “ ´ 1xc
Ñ
xc “ ´ 6xa ´ 3xb
Mit der Wahl von ˆ
xa xb
˙
ˆ ˙ 1 “ 0
und
ˆ ˙ ˆ ˙ xa 0 “ xb 1
werden xc und damit die beiden linear unabhängigen Eigenvektoren bestimmt. ¨ ¨ ˛ ˛ 1 0 ` ˘ x2 “ ˝ 0 ‚ und x3 “ ˝ 1 ‚ mit x1 K x2 , x3 ´6 ´3 Die Modalmatrix fasst die Eigenvektoren zusammen, die die folgende Kehrmatrix besitzt. ¨ ¨ ˛ ˛ 6 1 0 6 3 1 1 ˝ 0 1 ‚ Ñ 10 ´18 ´6 ‚ X“˝ 3 X´1 “ 46 ´18 37 ´3 1 ´6 ´3
260
12 Hauptachsentransformation
X ist nicht orthogonal, da es die Eigenvektoren x2 , x3 wegen der beliebigen Wahl auch nicht sind. Die Auflösung der Gleichung (12.12) S X “ X Diag pSk q “ X S HA muss deshalb durch Ähnlichkeitstransformation erfolgen, bei der man die Kehrmatrix benötigt. X´1 S X “ S HA ¨ 1 ˝ “ 46
˛¨ ˛¨ ˛ 6 3 1 13 18 6 6 1 0 10 ´18 ´6 ‚˝ 18 ´14 3 ‚˝ 3 0 1 ‚ ´18 37 ´3 6 3 ´22 1 ´6 ´3 ¨ ˛ 23 0 0 0 ‚ “ ˝ 0 ´23 0 0 ´23
x2 und x3 bilden eine Eigenebene, in der jeder Vektor c “ αx2 ` βx3 für beliebige α und β Eigenvektor ist. Die drei Eigenvektoren kann man dadurch orthogonalisieren, dass man einen zu x2 orthogonalen Vektor sucht, den man mit c “ x2 ` β x3 ansetzt. `
x2
˘T
` ˘T ` ˘T ` ˘T c “ x2 x2 ` β x2 x3 “ } x2 }2 ` β x2 x3 “ 37 ` 18β “ 0
¨
¨ ¨ ˛ ˛ ˛ 1 0 18 37 ˝ 1 ˝ 1 ‚“ ´37 ‚ c “ ˝ 0 ‚´ 18 18 ´6 ´3 3 1 ? 1 ? 1 a 2 18 ` 372 ` 32 “ 1702 “ 37 ¨ 46 |c| “ 18 18 18 Fasst man die normierten Eigenvektoren ¨
˛ 6 1 x˚1 “ ? ˝ 3 ‚ , 46 1
¨
˛ 1 1 x˚2 “ ? ˝ 0 ‚ , 37 ´6
¨
˛ 18 1 ˝ ´37 ‚ c˚ “ ? 37 ¨ 46 3
261
12.7 Tabellen
zur normierten Modalmatrix X˚ zusammen, dann läßt sich die Diagonalisierung von S unter Vermeidung der Matrixinversion durch einfache Kongruenztransformation durchführen. ? ¨ ? ˛ 6 37 46 18 1 ˚ ? ‹ X˚ “ ? 0 ´37 ‚ ˝ 3 37 37 ¨ 46 ? ? 37 ´6 46 3 ¨
pX˚ qT S X˚ “ S HA
12.7
˛ 23 0 0 0 ‚ “ ˝ 0 ´23 0 0 ´23
Tabellen
Hinweise zu den Tabellen 12.1 und 12.2 In einer Zeile sind Determinanten und Spuren untereinander jeweils gleich, aber nicht alle Beziehungen sind von einfacher Form. Die Determinanten und Spuren in den blauen Feldern sind nach (12.28) in einfacher Weise invariant. Die Determinanten in den grünen Feldern sind bei starrer Drehung des Basissystems wegen det P “ det PR “ 1 invariant! Bei den Spuren ergeben sich in den grauen Feldern keine einfachen Ausdrücke.
¨#
##
det T
det T g det T ##
g det T ##
det T ## det2 P
det T ##
det T g det2 P g 2 det2 P 1 det T ## g 1 det T ## g
g 2 det2 P det T
det2 P det T ##
g det T ##
1 det T ## g
g det2 P det T
det T
T ##
T ##
T# ¨#
¨# det T#
det T# ¨# det T# ¨#
¨# det T# ¨# det T#
g det2 P
g det2 P det T# ¨#
¨# g det2 P det T#
g det2 P
det T# ¨#
T# ¨#
¨# det T#
¨# T#
Tabelle 12.1: Determinanten der Tensormatrizen bei Basiswechsel
ˆ ¨# det T
#
ˆ# det T
ˆ det T
ˆ ## det T
ˆ det T
T
262 12 Hauptachsentransformation
¨#
##
sp T
sp T
sp T
sp pG# T ## q
sp pG# T ## q
sp pP T ## PT q
sp pG# T ## q
T ##
sp pG # T ## q
sp pG # T ## q
sp pQ T ## QT q
sp pG # T ## q
T ##
Tabelle 12.2: Spur der Tensormatrizen bei Basiswechsel
ˆ ¨# sp T
#
ˆ# sp T
ˆ sp T
ˆ ## sp T
ˆ sp T
T
sp T# ¨# sp T# ¨#
¨# sp T#
sp T# ¨#
¨# sp T#
¨# sp T#
T# ¨#
¨# T#
12.7 Tabellen 263
Literatur [1] Zurmühl, R.: Matrizen Springer Verlag, Berlin, Göttingen, Heidelberg, 4. Aufl. (1964)
264
Teil IV
Tensoranalysis
265
Kapitel 13
Allgemeine Funktionssysteme Zusammenfassung Im Hinblick auf die Einführung krummliniger Koordinatensysteme werden Funktionssätze definiert und untersucht. Die dabei auftretenden Funktional- oder Jacobi-Matrizen enthalten als Elemente partielle Differentiale. Die Verwendung der Funktionalmatrizen bietet eine große Übersichtlichkeit, da man durch verschiedene Relationen die auftretenden Beziehungen auf nur eine einzige Basismatrix pro Koordinatensystem zurückführen kann.
13.1 13.1.1
Eigenschaften eines Funktionssystems Definition des Funktionssatzes
Gegeben sei ein Funktionssystem aus n unabhängigen, stetigen und stetig differenzierbaren, ggf. nur stückweise eindeutigen Funktionen mit m voneinander unabhängigen Variablen, die für die spätere Anwendung ` # ˘ in kontravarianter Form auftreten und die den Funktionssatz # x u bilden. $ 1 x “ x1 pu1 , ’ ’ & ` ˘ .. x# u# “ . ’ ’ % n x “ xn pu1 ,
. . . , um q .. . . . . , um q
267 © Springer Fachmedien Wiesbaden GmbH, ein Teil von Springer Nature 2019 W. Werner, Vektoren und Tensoren als universelle Sprache in Physik und Technik 1, https://doi.org/10.1007/978-3-658-25272-4_13
(13.1)
268
13 Allgemeine Funktionssysteme
Die Bezeichnung von Funktionen und Variablen wurde im Hinblick auf die folgenden Kapitel gewählt, in denen beide mit Koordinaten verschiedener Systeme identifiziert werden und x# normalerweise ein kartesisches System darstellt. Zunächst bedeuten die x# und u# jedoch allgemeine mathematische Größen. Wegen der späteren Anwendungen wird nur der Fall n “ m betrachtet. Da Funktionen xi und Variable uk untereinander unabhängige Größen sind, gilt für die partiellen Ableitungen Bxi Bui “ “ δik Bxk Buk
13.1.2
(13.2)
Totale Differentiale
Die Bildung der totalen oder vollständigen Differentiale dxk “
Bxk 1 Bxk 2 Bxk n du ` du ` . . . ` du Bu1 Bu2 Bun
pk “ 1, . . . , nq
führt mit den Spaltenvektoren ˛ x1 ˚ ‹ x# “ ˝ ... ‚, xn ¨
˛ u1 ˚ ‹ u# “ ˝ ... ‚, un ¨
˛ dx1 ˚ ‹ dx# “ ˝ ... ‚, dxn ¨
˛ du1 ˚ ‹ du# “ ˝ ... ‚ dun ¨
auf deren Matrixdarstellung mit besonderer Schreibweise für die Matrix. ` ˘ dx# “ F x# { u# du#
13.1.3
(13.3)
Funktionalmatrix, Jacobi-Matrix
` ˘ Die Funktional- oder Jacobi-Matrix F x# { u# der totalen Differentiale fasst alle partiellen Differentiale der abhängigen nach den unabhängigen Variablen zusammen und stellt eine Verallgemeinerung des Differential-
269
13.1 Eigenschaften eines Funktionssystems
quotienten für Funktionssysteme dar! ¨
Bx1 Bu1 .. .
˚ ` # #˘ ˚ ˚ F x {u “ ˚ ˚ ˝ Bxn Bu1
Bx1 Bu2 .. . Bxn Bu2
... ..
.
...
Bx1 Bun .. .
˛
‹ ‹ ‹ ‹ ‹ Bxn ‚ Bun
(13.4)
Bei gleichen Argumenten wird die Matrix nach (13.2) zur Einheitsmatrix. ` ˘ F x# { x# “ E
13.1.4
(13.5)
Funktionaldeterminante, Jacobi’sche Determinante
Für die Determinante der Funktionalmatrix, die in der Literatur, [1, I, S. 414], [2, S. 200], [3, III1 , S. 53], meist Jacobi’sche Determinante genannt wird, findet man verschiedene Bezeichnungen. ` ˘ D px1 , . . . , xn q B px1 , . . . , xn q det F x# { u# “ “ ‰ 0 D pu1 , . . . , un q B pu1 , . . . , un q
(13.6)
Für unabhängige Funktionen x# hat die Funktionalmatrix vollen Rang n, so dass die Funktionaldeterminante ungleich Null ist, [2, S. 221], [3, III1 , S. 56].
13.1.5
Lineares Funktionssystem
Wenn der funktionale Zusammenhang zwischen x# und u# linear ist, dann liegt eine affine Abbildung zwischen den Variablen vor mit konstanten Matrixelementen von A, so dass gilt x# “ A u#
Ñ
` ˘ dx# “ F x# { u# du# ” A du#
(13.7)
270
13.1.6
13 Allgemeine Funktionssysteme
n-dimensionale Volumenelemente
Die Volumenelemente der beiden Variablensysteme bestehen aus den folgenden Produkten der einzelnen Differentiale. 1
2
n
dΩ “ dx dx ¨ . . . ¨ dx “ ˆ “ du1 du2 ¨ . . . ¨ dun “ dΩ
n ź k“1 n ź
dxk duk
k“1
Der Zusammenhang zwischen beiden Elementen, den man u.a. bei der Substitution der Variablen in Mehrfachintegralen benötigt, wird durch den Betrag der Funktionaldeterminante vermittelt, [1, III, S. 199, 352], [3, II, S. 270]. ˇ ` ˘ ˇˇ ˇ ˆ dΩ “ ˇ det F x# { u# ˇ dΩ
13.2 13.2.1
(13.8)
Inverses Funktionssystem Inverser Funktionssatz und Argumenttausch
` ˘ Die formale Umkehrung des Funktionssatzes x# u# , die man in theoretischer Hinsicht bei eindeutigen und hinreichend glatten d.h. differenzierbaren Funktionen wenigstens stückweise immer ausführen kann, erzeugt das inverse Funktionssystem, $ 1 u “ u1 px1 , ’ ’ & ` ˘ .. u# x# “ . ’ ’ % n u “ un px1 ,
. . . , xn q .. .
(13.9)
. . . , xn q
für dessen totale Differentiale die Matrixgleichung lautet ` ˘ du# “ F u# { x# dx#
(13.10)
Setzt man die Differentiale ineinander ein, so folgt ` ˘ ` ˘ ` ˘ dx# “ F x# { u# du# “ F x# { u# F u# { x# dx# “ E dx#
271
13.2 Inverses Funktionssystem
mit dem allgemeinen Element der Produktmatrix Bxi Bu2 Bxi Bun Bxi Bu1 ` ` . . . ` “ δik Bu1 Bxk Bu2 Bxk Bun Bxk sowie auch in umgekehrter Reihenfolge, ` ˘ ` ˘ ` ˘ du# “ F u# { x# dx# “ F u# { x# F x# { u# du# “ E du# bei denen das Produkt der Funktionalmatrizen auf die Einheitsmatrix führt. Die Funktionalmatrizen des direkten und des inversen Systems sind damit zueinander invers, so dass ein Tausch der Matrixargumente in folgender Form ausgedrückt werden kann, ` ˘ ` ˘ F u# { x# “ F´1 x# { u#
(13.11)
wodurch ihre Determinanten zueinander reziprok sind. ` ˘ ` ˘ det F x# { u# det F u# { x# “ 1
13.2.2
(13.12)
Kettenregel und Multiplikationssatz
Sind die Variablen uk ihrerseits abhängig von Variablen tk , so gilt für “ #den ` # ˘‰ # die Ableitungen mittelbarer Funktionen x u t dxk “
Bxk 1 Bxk n dt ` . . . ` dt Bt1 Btn
pk “ 1, . . . , nq
mit dem Differentialquotienten des allgemeinen Gliedes gemäß Kettenregel Bxk Bu1 Bxk Bun Bxk “ ` ... ` n i 1 i Bt Bu Bt Bu Bti
@ i, k
Nach Zusammenfassung der Differentiale zum Spaltenvektor folgt ` ˘ ` ˘ ` ˘ dx# “ F x# { t# dt# “ F x# { u# F u# { t# dt#
272
13 Allgemeine Funktionssysteme
Man erhält daraufhin den Multiplikationssatz der Funktionalmatrizen und ihrer Determinanten als Verallgemeinerung der Kettenregel. ` ˘ ` ˘ ` ˘ F x # { t# “ F x # { u # F u # { t # (13.13) det F x# { t `
13.3
˘ #
“ det F x# { u `
˘ #
det F u# { t `
˘ #
Taylor’sche Formel
Zwei differentiell benachbarte Punkte seien im n-dimensionalen Raum durch folgende Darstellungen gegeben. P prq “ P pu1 , . . . , un q Qprq “ P pr ` drq “ P pu1 ` du1 , . . . , un ` dun q Den Wert einer Ortsfunktion ϕ im benachbarten Punkt Q erhält man nach der Taylor’sche Formel. ϕpr ` drq “ ϕprq ` dϕprq `
1 1 2 d ϕprq ` d3 ϕprq ` . . . 2! 3!
(13.14)
Dabei haben die Differentialausdrücke in symbolischer Schreibweise, die man formal nach dem binomischen Lehrsatz entwickelt, folgende Bedeutung, [1, I, S. 386], [3, I, S. 343]. ´ B ¯k B B 1 2 n du ` du ` . . . ` du ϕprq dk ϕprq “ Bu1 Bu2 Bun Man erhält mit dem ersten Differential (k “ 1) eine neue Darstellung des totalen Differentials, wenn man mit dem Skalarprodukt der Basisvektoren erweitert, die auch im krummlinigen Fall gemäß Gleichung (14.16) die Reziprozitätsbedingung gi ¨ gk “ δik erfüllen müssen. dϕprq “
n ÿ Bϕ i g ¨ gi dui i loomoon Bu i“1 “1
˘ ´ Bϕ Bϕ ¯ “ g1 du ` . . . ` gn dun ¨ g1 1 ` . . . ` gn n Bu Bu “ dr ¨ grad ϕprq `
1
273
13.3 Taylor’sche Formel
Dabei entsteht das Skalarprodukt aus Wegelement dr und dem Gradienten als Differentiationsoperator grad der Ortsfunktion ϕprq, der erst im Abschnitt 17.1 ausführlich behandelt wird. Für das zweite Differential (k “ 2) ergibt sich nach entsprechender Erweiterung eine Darstellung, die dem doppelten Skalarprodukt im Abschnitt 10.3.3 aus den Wegelementen und dem zweistufigen Ableitungstensor T pBq entspricht, der wegen der Vertauschbarkeit der gemischten Ableitungen nach dem Satz von Schwarz symmetrisch ist, [1, I, S. 382]. d2 ϕprq “
n ÿ n ÿ i“1 k“1 n ÿ n ÿ
B2 ϕ dui duk Bui Buk
B2 ϕ gk ¨ gk duk i Buk Bu i“1 k“1 ` ˘ “ g1 du1 ` . . . ` gn dun ¨ ” B2 ϕ B2 ϕ B2 ϕ ¨ g1 1 1 g1 ` g1 1 2 g2 ` . . . ` g1 1 n gn Bu Bu Bu Bu Bu Bu .. .. .. . . . ı 2 2 2 B ϕ B ϕ B ϕ ` gn 1 n g1 ` gn 2 n g2 ` . . . ` gn n n gn ¨ Bu Bu Bu Bu Bu Bu ˘ ` ¨ g1 du1 ` . . . ` gn dun “
dui gi ¨ gi
“ ‰ “ dr ¨ T pBq ϕprq ¨ dr Die Elemente der symmetrischen Matrix des kovarianten Ableitungstensors werden gebildet durch die gemischten zweiten partiellen Ableitungen. B2 ˚ Bpu1 q2 ˚ ˚ B2 ˚ ˚ pBq 1 2 T ## x..y “ ˚ ˚ Bu .Bu ˚ .. ˚ ˚ ˝ B2
B2 Bu1 Bu2
Bu1 Bun
Bu2 Bun
¨
B2 Bpu2 q2 .. . B2
... ... ..
.
...
˛ B2 Bu1 Bun ‹ ‹ ‹ B2 ‹ ‹ Bu2 Bun ‹ ‹ x..y .. ‹ . ‹ ‹ ‚ 2 B Bpun q2
(13.15)
274
13 Allgemeine Funktionssysteme
Die weiteren Glieder der Taylor’schen Formel mit höheren Ableitungen kann man in entsprechender Weise durch höherstufige Tensoren darstellen, auf deren Angabe hier verzichtet wird. Der Ausdruck für den Zuwachs der Ortsfunktion ϕ beim Übergang von P nach Q lautet damit Δϕprq “ ϕpr ` drq ´ ϕprq “ dr ¨ grad ϕprq `
“ ‰ 1 dr ¨ T pBq ϕprq ¨ dr ` . . . 2
(13.16)
Literatur [1] Fichtenholz, G. M.: Differential- und Integralrechnung I/II/III VEB Deutscher Verlag der Wissenschaften, Berlin, 5. Aufl. (1972) [2] Kowalewski, G.: Einführung in die Determinantentheorie Walter de Gruyter, Berlin, 3. Aufl. (1942) [3] Smirnow, W. I.: Lehrgang der höheren Mathematik, I-IV VEB Deutscher Verlag der Wissenschaften, Berlin, 6. Aufl. (1964/68)
275
Kapitel 14
Krummlinige Koordinatensysteme Zusammenfassung Bei vielen Problemen der Praxis sind kartesische oder geradlinige Koordinaten nicht an die Geometrie des Problems angepasst, so dass zunächst krummlinige Koordinaten untersucht werden, um technische Aufgabenstellungen in geeigneten Koordinatensystemen mit Hilfe der Tensoranalysis zu formulieren. Mit den definierenden Funktionssätzen und ihren Funktionalmatrizen werden Ortsvektor, Wegelement und reziproke Basisvektoren sowie die Metrik des Raumes bestimmt und an Beispielen demonstriert.
14.1
Einführung krummliniger Koordinaten
Zur Lösung konkreter physikalischer Probleme benötigt man geeignete Koordinatensysteme, die dem geometrischen Charakter von vorgegebenen Anordnungen, der Verteilung von Quellen oder vorhandenen Grenzflächen angepasst sind, so dass sich die Berechnungen einfacher formulieren lassen. Bei der Darstellung des Tensorkalküls werden diese Koordinatensysteme als nichtorthogonal angenommen, so dass man zwischen ko- und kontravarianten Größen unterscheiden muss. 276 © Springer Fachmedien Wiesbaden GmbH, ein Teil von Springer Nature 2019 W. Werner, Vektoren und Tensoren als universelle Sprache in Physik und Technik 1, https://doi.org/10.1007/978-3-658-25272-4_14
277
14.2 Definition des Koordinatensystems
Aus den allgemeinen Ergebnissen läßt sich der für die technischen Anwendungen besonders wichtige Sonderfall der orthogonalen Koordinatensysteme einfach ableiten, der im Kapitel 18 ausführlich erörtert wird.
14.2
Definition des Koordinatensystems
Ein System von kontravarianten Koordinaten pu, v, wq “ ˆ pu1 , u2 , u3 q, die weder geradlinig noch orthogonal sind, wird dadurch eingeführt, dass die kartesischen Koordinaten px, y, zq “ ˆ px1 , x2 , x3 q, ebenfalls in kontravarianter Schreibweise, durch drei stetige und stetig differenzierbare Funktionen dieser Koordinaten dargestellt werden. f x “ x pu, v, wq, x1 “ x1 pu1 , u2 , u3 q,
y “ y pu, v, wq, x2 “ x2 pu1 , u2 , u3 q,
z “ z pu, v, wq x3 “ x3 pu1 , u2 , u3 q
Für diesen Funktionssatz, der das Koordinatensystem definiert, wird wie in (13.1) folgende Schreibweise verwendet. ` ˘ x# “ x# u#
(14.1)
In Zukunft wird nur dieses System der kontravarianten Koordinaten benötigt und allein dafür werden Formeln abgeleitet. Kovariante Koordinaten werden nur einmal kurz betrachtet, aber dann nicht weiter benutzt, da man sie auf bestimmte Weise in die kontravarianten umrechnen kann. Jeder Punkt des Raumes wird durch Angabe eines der Koordinatentripel px1 , x2 , x3 q oder pu1 , u2 , u3 q eindeutig identifiziert. Ein Bild des Koordinatensystems x# gewinnt man durch die Betrachtung der Koordinatenflächen oder Flächenscharen u1 , u2 , u3 “ const. Je zwei dieser drei Flächenscharen schneiden sich in einer Koordinatenlinie, längs derer sich nur die dritte Koordinate ändert. In Abbildung 14.1 eines ebenen Systems schneiden sich die Koordinatenflächen für konstante Werte u2 “ const. und u3 “ z0 in Koordinatenlinien, auf denen nur u1 variiert. Flächen für konstante Werte u1 “ a, b und u2 “ c, d schneiden sich in Koordinatenlinien senkrecht zur Zeichenebene, auf der die dritte Koordinate u3 “ z variabel ist. Auf der Koordinatenfläche u3 “ const., die in der Abbildung der Zeichenebene entspricht aber im allgemeinen Fall gekrümmt ist, wird jeder Punkt
278
14 Krummlinige Koordinatensysteme
Abb. 14.1: Scharen krummliniger Koordinatenlinien in einer Ebene z “ z0 “ const. Tangentenvektoren gk in P durch die beiden anderen Koordinaten u1 und u2 eindeutig bestimmt und der Ortsvektor eines Flächenpunktes hängt nur von diesen beiden Parametern ab. ˘ ` für u3 “ const. r “ r u 1 , u2 Eine solche funktionale Beschreibung heißt Parameterdarstellung der Fläche und die beiden Parameter u1 und u2 heißen Gauß’sche Koordinaten dieser Fläche, da Gauß derjenige war, der die Geometrie auf gekrümmten Flächen begründete, die im zweiten Band erörtert wird. Die totalen Differentiale des kartesischen Systems, die nach (14.1) von den Koordinaten des krummlinigen Systems abhängen, werden in Matrizenform zusammengefasst und lauten wie in (13.3) ` ˘ dx# “ F x# { u# du#
(14.2)
Die Transformation zwischen krummlinigen und kartesischen Differentialen wird durch die Funktionalmatrix bestimmt und mit ihrer Transponierten
279
14.3 Grundgrößen der Koordinatensysteme
in gekürzter und normaler Darstellung der partiellen Ableitungen wegen späterer Produktbildung in umgekehrter Reihenfolge angegeben. ¨ xu
yu
` ˘ ˚ F T x # { u# “ ˝ xv
yv
¨
x w yw
zu
˚ ˚ ˚ ‹ ˚ zv ‚ “ ˚ ˚ ˚ zw ˝ ˛
Bx1 Bu1 Bx1 Bu2 Bx1 Bu3
Bx2 Bu1 Bx2 Bu2 Bx2 Bu3
Bx3 Bu1 Bx3 Bu2 Bx3 Bu3
˛ ‹ ‹ ‹ ‹ ‹ ‹ ‹ ‚ (14.3)
¨
¨
Bx1
Bx1
Bx1
˛
˚ ˚ ˚ ‹ ˚ yw ‚ “ ˚ ˚ ˚ zw ˝
Bu1 Bx2 Bu1 Bx3 Bu1
Bu2 Bx2 Bu2 Bx3 Bu2
Bu3 Bx2 Bu3 Bx3 Bu3
‹ ‹ ‹ ‹ ‹ ‹ ‹ ‚
xu x v xw
` ˘ ˚ F x # { u # “ ˝ yu
yv
zu
zv
˛
In dem so definierten dreidimensionalen Koordinatensystem werden zunächst geometrische Größen wie Ortsvektor, Wegelement und Abstandsquadrat betrachtet, um anschließend die Metrik des Raumes zu untersuchen.
14.3 14.3.1
Grundgrößen krummliniger Koordinatensysteme Ortsvektor und kovariante Grundvektoren
Der Ortsvektor zu einem beliebigen Raumpunkt P prq lautet wie in (7.4), nur dass die kartesischen Koordinaten xi puk q nach (14.1) jetzt von drei Parametern abhängen. Eine weitere Darstellung des Ortsvektors findet man in Abschnitt 14.5.4. ` ˘T ˘ ` r “ rpP q “ r x1 , x2 , x3 “ x1 e1 ` x2 e2 ` x3 e3 “ x# e
(14.4)
Die partiellen Ableitungen des Ortsvektors r stellen wie in (5.41) die Tangentenvektoren der Koordinatenlinien dar. Im kartesischen System
280
14 Krummlinige Koordinatensysteme
entsprechen sie den Einheitsvektoren ek , im krummlinigen System u# bedeuten sie dagegen die ortsabhängigen kovarianten Grundvektoren gk prq. Fasst man sie zum Spaltenvektor zusammen, dann erhält man die Darstellung mit der transponierten Funktionalmatrix (14.3). ek “ gk prq “
Br Bxk 3 3 ÿ ÿ Br Br Bxp Bxp “ “ ep Bxp Buk Buk Buk p“1 p“1
¨
g1 prq
˛
¨
Br{Bu1
˛
‹ ˚ ˚ ‹ g prq “ ˝ g2 prq ‚ “ ˝ Br{Bu2 ‚ #
Br{Bu3
g3 prq
` ˘ g prq “ FT x# { u# e #
(14.5)
Dieses Ergebnis entspricht im kartesischen Koordinatensystem der ortsunabhängigen Beziehung (6.9). g
#
“ Ue
Die Skalarprodukte zwischen Grundvektoren und kartesischen Einheitsvektoren bedeuten in den beiden Fällen $ (örtlich konstant) & Uk ` ˘ Ñ gk ¨ e “ | gk | cos gk , e % Bx (ortsabhängig) Buk Ein typisches Kennzeichen der Tensorrechnung besteht im Indexwechsel, bei dem Ableitungen, die nach kontravarianten Koordinaten gebildet werden, kovariante Größen erzeugen. Ein oberer, kontravarianter Index im Nenner des Differentials wird dadurch zu einem unteren, kovarianten Index der entstehenden Größe bzw. des Differentialausdrucks! Die kovarianten Grundvektoren sind von Ort zu Ort verschieden und bilden in jedem Raumpunkt ein eigenes, anders ausgerichtetes, nichtorthogonales Basistripel oder Trihedron. Sie sind normalerweise keine Einheitsvektoren und haben daher nicht den Betrag Eins, aber man kann sie ähnlich
14.3 Grundgrößen der Koordinatensysteme
281
wie bei den physikalischen Vektorkomponenten (7.14) in ortsabhängige metrische Faktoren hk prq und Einheitsvektoren ck prq des krummlinigen Koordinatensystems zerlegen. gk prq “ | gk prq | ck prq “ hk prq ck prq gk prq “ | gk prq | | gk prq | looomooon looomooon metrischer Faktor
Einheitsvektor
gk prq “
14.3.2
Br “ hk prq ck prq Buk
(14.6)
Wegelement als kontravarianter Vektor
Das Wegelement ist das totale Differential des Ortsvektors. Im kartesischen und im krummlinigen System gelten die Beziehungen Br Br Br dx1 ` 2 dx2 ` 3 dx3 “ e1 dx1 ` e2 dx2 ` e3 dx3 Bx1 Bx Bx Br Br Br dr “ 1 du1 ` 2 du2 ` 3 du3 “ g1 prq du1 ` g2 prq du2 ` g3 prq du3 Bu Bu Bu
dr “
mit den zugehörigen Matrixdarstellungen. ` ` ˘T ˘T dr “ dx# e “ du# g prq #
(14.7)
Das Wegelement dr ist nach (7.12) von Natur aus ein kontravarianter Vektor, da es durch kontravariante Komponenten du# ausgedrückt wird. Die Richtung des Wegelementes in einem Raumpunkt P wird bestimmt durch das Verhältnis seiner Komponenten, also der Differentiale du1 , du2 , du3 sowie der Beträge der Grundvektoren gk zueinander.
14.3.3
Differentielles Abstandsquadrat
Das differentielle Abstandsquadrat wird berechnet als Skalarprodukt des Wegelementes mit sich selbst und sein Betrag | dr | stellt das Element der
282
14 Krummlinige Koordinatensysteme
x2 e 2 dx 2
r
P
Q
dr e 1 dx 1
u2
Q
g 2 du 2
dr u1
P
x1
r
g 1 du 1 = h 1 c1 du 1
O
O
Abb. 14.2: Wegelement in kartesischen und krummlinigen Koordinaten
Bogenlänge ds dar. dr ¨ dr “ pdrq2 “ | dr |2 “ pdsq2 ą 0 ` ˘T “ dx# e ¨ eT dx# ˘T ‰T “ ` “ du# g prq ¨ g prq du# #
#
` ˘T ` ˘ ` ˘ “ du# FT x# { u# F x# { u# du# Das Abstandsquadrat stellt nach Abschnitt 12.4.2 eine positiv definite quadratische Differentialform in den Variablen duk dar.
˘T ˘T ` ˘ ` ˘ ` ` | dr |2 “ dx# dx# “ du# FT x# { u# F x# { u# du# ą 0 (14.8) Die im Abstandsquadrat auftretende Matrix ist daher positiv definit und regulär. Sie ist die symmetrische Gram’sche Eigenmatrix der kovarianten Basisvektoren nach (5.25) und stellt die im krummlinigen System ortsabhängige symmetrische kovariante Metrikmatrix dar. Wie in (6.19) wird
283
14.3 Grundgrößen der Koordinatensysteme
ihre stets positive Determinante mit g bezeichnet. ` ˘ ` ˘ G # prq “ FT x# { u# F x# { u# (14.9) g “ det G # prq “ det2 F x# { u `
˘ #
ą 0
Das allgemeine Glied lautet,
gik “ gki “ gi ¨ gk “
Br Br Bx1 Bx1 Bx2 Bx2 Bx3 Bx3 ¨ “ ` ` Bui Buk Bui Buk Bui Buk Bui Buk (14.10)
aus dem die ortsabhängige Metrikmatrix aufgebaut ist. ¨ ˛ g1 ¨ g1 g1 ¨ g2 g1 ¨ g3 ˚ ‹ G # prq “ ˝ g1 ¨ g2 g2 ¨ g2 g2 ¨ g3 ‚ g1 ¨ g3 g2 ¨ g3 g3 ¨ g3 Mit den Metrikkoeffizienten hat die quadratische Differentialform des Abstandsquadrates die folgende Gestalt in Form einer Doppelsumme mit insgesamt 6 ¨ 3 “ 18 Summanden. ` ˘2 ` ˘2 ` ˘2 | dr |2 “ g11 du1 ` g22 du2 ` g33 du3 ` 2 g12 du1 du2 ` 2 g13 du1 du3 ` 2 g23 du2 du3
| dr |2 “ ds2 “
3 ÿ 3 ÿ
gik dui duk ą 0
(14.11)
i“1 k“1
14.3.4
Wegelement in einer Koordinatenfläche
Liegt das Wegelement als Sonderfall in der Koordinatenfläche u3 “ const., dann ergibt sich wegen du3 “ 0 eine auf zwei Koordinaten reduzierte Darstellung. ` ˘2 ` ˘2 | dr |2 “ g1 ¨ g1 du1 ` 2 g1 ¨ g2 du1 du2 ` g2 ¨ g2 du2
284
14 Krummlinige Koordinatensysteme
Mit den von Carl Friedrich Gauß (1777-1855) eingeführten und mit E, F, G bezeichneten metrischen Fundamentalgrößen E “ g1 ¨ g1 “ g11 ą 0
F “ g1 ¨ g2 “ g12
G “ g2 ¨ g2 “ g22 ą 0
(14.12) folgt die erste Grundform der Flächentheorie, die positiv definit ist. ` ` ˘2 ˘2 | dr |2 “ G I “ E prq du1 ` 2 F prq du1 du2 ` G prq du2 ą 0 (14.13) Hieraus folgt auf Grund der positiven Größen und Quadrate ˘2 ` ˘` ˘2 ` E | dr |2 “ E du1 ` F du2 ` EG ´ F 2 du2 ą 0 die positive Diskriminante der ersten Grundform, [1, S. 104]. g g D “ EG ´ F “ g11 g22 ´ pg12 q “ 11 12 g12 g22 I
2
2
ą 0
(14.14)
Mit der Identität von Lagrange (5.10) erhält man, | g1 ˆ g2 | 2 “ g11 g22 ´ pg12 q2 “ | g1 | 2 | g2 | 2 sin2 γ “ EG sin2 γ wobei γ der Winkel zwischen g1 und g2 ist. Damit gilt für die erste Grundform auch folgende Darstellung. DI “ EG ´ F 2 “ EG sin2 γ
F 2 “ EG cos2 γ
(14.15)
Bei orthogonalen Basisvektoren g1 K g2 gilt F “ 0.
14.3.5
Reziproke, kontravariante Basisvektoren
Wie bei geradlinigen werden auch bei krummlinigen Koordinatensystemen zu den kovarianten Grundvektoren g prq kontravariante Basisvektoren g# prq #
285
14.3 Grundgrößen der Koordinatensysteme
über die Reziprozitätsbedingung definiert, die bis auf die Ortsabhängigkeit wie in (6.12) lautet. gi prq ¨ gk prq “ δik
‰T “ ‰T “ g prq ¨ g# prq “ g# prq ¨ g prq “ E #
#
(14.16) Die kontravarianten Basisvektoren g# prq sind die Tangentenvektoren der zugehörigen Koordinatenlinien u # . Diese kovarianten Koordinaten u # haben keine besondere geometrische sondern nur formale Bedeutung und werden in weiteren Berechnungen durch kontravariante Koordinaten ersetzt wie später gezeigt wird. Erst im Kapitel 17 ist es möglich, den kontravarianten Basisvektoren g# prq auch eine physikalische Bedeutung zuzuschreiben. Für den zugeordneten zweiten, kovarianten Funktionssatz u # gilt ` ˘ x# “ x# u #
Ñ
` ˘ dx# “ F x# { u # du #
(14.17)
Die Tangentenvektoren der kovarianten Koordinatenlinien u # werden ebenfalls als Ableitungen des Ortsvektors berechnet, Br “ gk prq Buk wodurch das Wegelement eine (14.7) entsprechende Form erhält. ` ˘T ˘T ` dr “ dx# e “ du# g# prq Ersetzt man darin das Differential dx# , dann liefert der Vergleich die Darstellung der kontravarianten Grundvektoren als Ergänzung zu (14.5). ` ˘ g# prq “ FT x# { u# e
14.3.6
(14.18)
Beziehungen der Funktionalmatrizen
Ersetzt man in (14.16) die Basisvektoren durch die Darstellungen ihrer Funktionalmatrizen, so erhält man eine Matrixrelation, die zusammen mit der
286
14 Krummlinige Koordinatensysteme
für inverse Funktionssysteme abgeleiteten Gleichung (13.11) bei Argumenttausch den Wechsel zwischen ko- und kontravarianten Koordinaten ermöglicht. ‰T “ ` ˘ ` ˘ g# prq ¨ g prq “ FT x# { u# e ¨ eT F x# { u# “ E #
` ˘ ` ˘ ` ˘ FT x# { u# “ F´1 x# { u# “ F u# { x#
(14.19)
Die Anwendung dieser Beziehung gestattet es, alle auftretenden ` ˘ Darstellungen von Funktionalmatrizen auf die Basismatrix F x# { u# zurückzuführen, ` # ˘die direkt aus der Definition des krummlinigen Koordinatensystems # x u nach (14.1) durch Bildung der partiellen Ableitungen der kartesischen Koordinaten x# nach den kontravarianten u# berechnet werden kann. Auf diese Weise vermeidet man, dass die unanschaulichen Koordinaten u# in den Berechnungen auftreten. ` ˘ ` ˘ Sofern man den Funktionssatz x# u# in u# x# invertieren kann, was `häufig nur ˘ stückweise` gelingt, ˘ ließe sich zwar auch die inverse Matrix ´1 # # # # x { u direkt als F u { x berechnen. Das kommt aber, wenn überF haupt, nur in theoretischen Überlegungen vor und wird in praktischen Fällen vermieden, da die Berechnung der Kehrmatrix bei 3 ˆ 3 -Matrizen im allgemeinen kein allzu großes Problem darstellt.
14.3.7
Darstellung der Basisvektoren
Im Ergebnis kann man die ko- und kontravarianten`Basisvektoren gemäß ˘ # # (14.5), (14.18) und (14.19) aus dem Funktionssatz x u , der das` krumm-˘ linige Koordinatensystem definiert, allein mit der Basismatrix F x# { u# berechnen. Beide Beziehungen werden deshalb gegenübergestellt.
` ˘ g prq “ FT x# { u# e #
` ˘ g# prq “ F´1 x# { u# e
(14.20)
287
14.4 Metrik des Raumes
14.4 14.4.1
Metrik des Raumes Metrikkoeffizienten und Klassifizierung
Die Koeffizienten der positiv definiten quadratischen Form | dr |2 “ pdrq2 lassen sich gemäß (14.6) und (14.10) auf folgende Weise ausdrücken.
gik prq “ gi prq ¨ gk prq “
Br Br ¨ “ hi prqhk prq ci prq ¨ ck prq Bui Buk
(14.21)
Sie heißen Metrikkoeffizienten, weil sie die Maßverhältnisse, d.h. die Struktur von Weg- oder Linienelement und damit auch von Flächen- und Volumenelementen in der Differentialgeometrie bestimmen, die im Abschnitt 14.5.3 angegeben werden. Wird eine Metrik oder Abstandsdefinition durch eine quadratische Differentialform (14.8) beschrieben, so heißt sie Riemann’sche Metrik und der Raum, in dem eine solche Metrik vorliegt, heißt Riemann’scher Raum. Im gewöhnlichen dreidimensionalen Raum R3 , in dem ein kartesisches Koordinatensystem mit pythagoräischem Abstand definiert werden kann, liegt als Sonderfall eine euklidische Metrik in einem euklidischen Raum vor.
14.4.2
Metrikmatrizen und Metriktensor
Die Metrikmatrix (14.9) ist identisch mit der symmetrischen Gram’schen Eigenmatrix (5.25) der kovarianten Basisvektoren. ‰T “ ˘ ` G # prq “ G g , g “ g prq ¨ g prq #
“F
` T
x# { u
˘ #
#
#
#
F x# { u `
˘ #
Als zweite Matrix erhält man die Gram’sche Eigenmatrix der kontravarianten Basisvektoren mit den Relationen der Funktionalmatrizen nach (14.19). ` ˘ “ ‰T G# prq “ G g# , g# “ g# prq ¨ g# prq ` ˘“ ` ˘‰´1 “ F´1 x# { u# FT x# { u#
288
14 Krummlinige Koordinatensysteme
Beide Matrizen stellen zusammen die ko- und kontravarianten symmetrischen Metrikmatrizen als Produkte der Funktionalmatrizen mit der Determinante g nach (14.9) dar, ` ˘ ` ˘ G # prq “ FT x# { u# F x# { u# (14.22) G# prq “ F “
` T
x# { u
˘ #
F x# { u `
˘‰ # ´1
die zueinander invers und wegen der Symmetrie auch kontragredient sind. “ ‰´1 “ ` ‰´1 ˘T G# prq “ G # prq “ G # prq
G # prq G# prq “ E
(14.23) Die tensoriellen Produkte der Grundvektoren bilden analog zu (11.6) und (11.7) die gemischten und die ko- und kontravarianten Komponenten des Metrik- oder Fundamentaltensors G prq im krummlinigen Koordinatensystem. ‰T ‰T “ “ G prq “ eT e “ g prq g# prq “ g prq G # prq g prq #
#
#
‰T “ ‰T “ g# prq g prq “ g# prq G # prq g# prq
(14.24)
“
#
Setzt man die Darstellungen (14.20) ineinander ein, so erhält man die Transformationsbeziehungen bzw. Umrechnungen zwischen ko- und kontravarianten Basisvektoren, die durch die Metrikmatrizen vermittelt werden. g prq “ G # prq g# prq #
G # prq “ g
#
` ˘T ¨ g #
(14.25) #
#
g prq “ G prq g prq #
#
#
`
G prq “ g ¨ g
˘ # T
Die im Zusammenhang mit der Metrik auftretenden Beziehungen entsprechen formal genau denen, die in den Abschnitten 6.7.1 und 11.2 für geradlinige Koordinatensysteme abgeleitet wurden und die in Tabelle 15.2 gegenübergestellt werden.
289
14.4 Metrik des Raumes
Der Unterschied zu den früheren Ergebnissen besteht in der Tatsache, dass alle Größen wegen der krummlinigen Koordinaten ortsabhängig sind und die Elemente der Matrizen durch partielle Ableitungen gebildet werden!
14.4.3
Winkel zwischen Wegelementen
Zwei Wegelemente, die in verschiedene räumliche Richtungen weisen, unterscheiden sich nach (14.7) durch ihre Differentiale. Der Winkel γ zwischen ihnen wird durch das Skalarprodukt definiert. ˘T ` ` ˘T # dr ¨ dˇ r “ | dr | | dˇ r | cos γ “ du# g ¨ g dˇ u #
`
“ du
˘ # T
#
G # prq dˇ u#
Liegen die Wegelemente in der Fläche du3 “ 0 auf Koordinatenlinien, z.B. r in u2 -Richtung, dann gilt dr in u1 -Richtung und dˇ ? ? | dr | “ | g1 | du1 “ g11 du1 “ E du1 dr “ g1 du1 , ? ? u2 “ g22 du2 “ G dˇ dˇ r “ g2 dˇ u2 , | dˇ r | “ | g2 | dˇ u2 und aus dr ¨ dˇ r “ g1 ¨ g2 du1 dˇ u2 “ g12 du1 dˇ u2 “ F du1 dˇ u2 “
?
EG du1 dˇ u2 cos γ
folgen die Winkelfunktionen, die (14.15) entsprechen. F g12 “? g11 g22 EG d c 2 EG ´ F 2 g11 g22 ´ g12 sin γ “ “ EG g11 g22
cos γ “ ?
Bei g12 “ F “ 0 liegt ein Netz von orthogonalen Koordinatenlinien vor. Beide Wegelemente sind zueinander orthogonal, wenn ihr Skalarprodukt Null ist und damit ihre bilineare Differentialform verschwindet. dr K dˇ r
Ø
˘T ` u# “ 0 dr ¨ dˇ r “ du# G # dˇ
(14.26)
290
14.5 14.5.1
14 Krummlinige Koordinatensysteme
Weitere Berechnungen Spatprodukt
Das gemischte Produkt der kovarianten Grundvektoren wird mit den Ableitungen des Ortsvektors nach (14.5) gebildet. j „ Br Br Br x g 1 , g2 , g 3 y “ 1 ¨ ˆ Bu Bu2 Bu3 ˆ 1 ˙ Bx Bx2 Bx3 “ e ` e ` e 1 2 3 ¨ Bu1 Bu1 Bu1 ˙ „ˆ 1 Bx2 Bx3 Bx e1 ` 2 e2 ` 2 e3 ˆ ¨ Bu2 Bu Bu ˙j ˆ 1 Bx2 Bx3 Bx e1 ` 3 e2 ` 3 e3 ˆ Bu3 Bu Bu ˆ ˙ Bx1 Bx2 Bx3 Bx3 Bx2 ´ “ 1 Bu Bu2 Bu3 Bu2 Bu3 ˆ ˙ Bx2 Bx1 Bx3 Bx3 Bx1 ´ ´ Bu1 Bu2 Bu3 Bu2 Bu3 ˆ ˙ Bx3 Bx1 Bx2 Bx2 Bx1 ´ ` Bu1 Bu2 Bu3 Bu2 Bu3 Diesen Ausdruck kann man zur Determinante zusammenfassen. Bx1 Bx2 Bx3 Bu1 Bu1 Bu1 ` ˘ Bx1 Bx2 Bx3 x g1 , g2 , g3 y “ “ det FT x# { u# 2 2 2 Bu Bu Bu Bx1 Bx2 Bx3 3 3 3 Bu Bu Bu Mit der Gram’schen Determinante (5.12) kommt man zwar schneller zum Ziel, dafür bleibt aber das Vorzeichen unbestimmt. ` ˘ x g1 , g2 , g3 y2 “ det G # prq “ det F2 x# { u# “ g ą 0
291
14.5 Weitere Berechnungen
Das Ergebnis für krummlinige Koordinaten bestätigt die Beziehung (14.9) mit der Determinante g der kovarianten Metrikmatrix. S# prq “ x g1 , g2 , g3 y “ det F px# { u# q “
b a det G # prq “ gprq (14.27)
14.5.2
Darstellung der kontravarianten Basisvektoren
Nach der gleichen Methode wie bei geradlinigen Koordinaten im Abschnitt 6.8.1 werden auf Grund der Reziprozität die Kreuzprodukte ermittelt. g j ˆ gk “ α g i gi ¨ pgj ˆ gk q “ x gi , gj , gk y “ α gi ¨ gi “ α Damit lassen sich die kontravarianten durch die kovarianten Basisvektoren ausdrücken mit zyklischer Folge von i, j, k. gi prq “
14.5.3
g j ˆ gk gj ˆ gk g j ˆ gk “ a “ # # x gi , gj , gk y det F px { u q gprq
(14.28)
Flächen- und Volumenelemente
Das gerichtete Flächenelement da12 der Koordinatenfläche u3 “ const. wird gebildet aus dem Kreuzprodukt der beiden Tangentenvektoren in u1 und u2 -Richtung. Sein Betrag ist der Flächeninhalt des von den beiden infinitesimalen Vektoren gebildeten Parallelogramms und der Einheitsvektor n3 seiner Flächennormalen weist nach (14.28) in g3 -Richtung. Mit dem Betrag des Kreuzproduktes gemäß Lagrange-Identität (5.10) und der Diskriminante DI der Gauss’schen Grundform (14.14) erhält man ` ˘ ` ˘ g1 ˆ g 2 | g1 ˆ g2 | du1 du2 da12 “ g1 du1 ˆ g2 du2 “ | g1 ˆ g 2 | a “ n3 EG ´ F 2 du1 du2 “ n3 da12 “ g3 x gi , gj , gk y du1 du2 “ g3
?
g du1 du2 “ g3 da3
292
14 Krummlinige Koordinatensysteme
da 12 u2
g3
du 1
g2 du 2
g1
u1
Abb. 14.3: Flächenelement
Damit lautet das Flächenelement in krummlinigen Koordinaten mit zyklischen Werten für i, j, k folgendermaßen.
daij “ gk dak “ nk daij “ nk
b
gii gjj ´ pgij q2 dui duj
(14.29)
Eine zweite Darstellung erhält man, wenn man in die Diskriminante (14.14) die Metrikkoeffizienten einsetzt und die Koordinaten wieder durch px, y, zq und pu, v, wq ausdrückt. DI “ | g1 ˆ g2 |2 “ ‰ “ ‰ “ EG ´ F 2 “ g11 g22 ´ pg12 q2 Br Br Br ¨ Br g ¨ g g1 ¨ g2 Bu1 Bu1 Bu1 ¨ Bu2 “ “ 1 1 g1 ¨ g2 g2 ¨ g2 Br Br Br Br ¨ ¨ Bu1 Bu2 Bu2 Bu2 xu xv ` yu yv ` zu zv x2u ` yu2 ` zu2 “ x u x v ` y u y v ` zu zv x2v ` yv2 ` zv2
293
14.5 Weitere Berechnungen
Die letzte Determinante kann als Produkt zweier Rechteckmatrizen nach (3.47) durch die Summe dreier Determinantenquadrate ausgedrückt werden. » ˛fi ¨ ˆ ˙ xu xv ` 12 ˘2 ˘2 ` x u y u zu ˝ yu yv ‚fl du1 du2 “ det – da x v y v zv zu zv « ff x u yu 2 x u zu 2 y u zu 2 ` 1 2 ˘ 2 ` du du “ x v zv ` y v zv x v yv ‰` ˘2 “ “ D12 ` D22 ` D32 du1 du2 Die Determinanten D˘k sind nach (14.3) zweireihige Minoren der Funktio` nalmatrix FT x# { u# . Insgesamt erhält man für das Flächenelement der Fläche u3 “ const. da
12
b a 1 2 2 “ g11 g22 ´ pg12 q du du “ D12 ` D22 ` D32 du1 du2
(14.30)
Für die beiden anderen Flächenelemente da13 und da23 existieren entsprechende Beziehungen mit zyklischen Indizes und anderen Minoren. Das Volumenelement in krummlinigen Koordinaten wird mit dem Spatprodukt (14.27) berechnet, bei dem die Wurzel aus der Determinante des Metriktensors als Gewichtsfunktion auftritt. dv “ g1 ¨ pg2 ˆ g3 q du1 du2 du3 dv “ x gi , gj , gk y du1 du2 du3 “
?
g du1 du2 du3
(14.31)
Mit diesen Ergebnissen für Flächen- und Volumenelemente können Mehrfachintegrale in krummlinigen Koordinaten formuliert und berechnet werden.
14.5.4
Darstellung des Ortsvektors
Im kartesischen System sind die Koordinaten des Raumpunktes P px1 , x2 , x3 q nach (7.4) bzw. (14.4) gleichzeitig die Komponenten des Ortsvektors. ` ˘T (*) rpP q “ x1 e1 ` x2 e2 ` x3 e3 “ x# e
294
14 Krummlinige Koordinatensysteme
z
e3 e1
x
u2
u3
r e2
P
u1 y
x
3
x1
x2
Abb. 14.4: Ortsvektor zum Raumpunkt P
Im krummlinigen Koordinatensystem kennzeichnen die Koordinaten zwar ebenfalls einen Raumpunkt P pu1 , u2 , u3 q, aber deren Zusammensetzung mit den Basisvektoren gk zum Ausdruck pu# qT g stellt dagegen nicht den Orts#
vektor dar!
In krummlinigen Koordinatensystemen bilden die Koordinaten u# pP q des Punktes P normalerweise nicht die Komponenten des Ortsvektors! Um den Ortsvektor nach den kovarianten Basisvektoren des krummlinigen Koordinatensystems zu zerlegen, muss man die Beziehung (14.20) in die kartesische Form (*) einsetzen, mit der man im Punkte P prq “ P px1 , x2 , x3 q “ P pu1 , u2 , u3 q den Ortsvektor darstellen kann.
` ˘T ` ˘T “ T # # ‰´1 r “ x# e “ x# g F px { u q
#
(14.32)
295
14.6 Beispiele krummliniger Koordinatensysteme
14.6 14.6.1
Beispiele krummliniger Koordinatensysteme Wendelkoordinaten (ρ, ψ, ζ)
Wendelkoordinaten stellen ein nichtorthogonales, krummliniges Koordinatensystem dar, das man sich anhand seiner Flächenscharen für konstant gehaltene Koordinaten wie bei einer Wendeltreppe vorstellen kann. Funktionssätze zur Koordinatendarstellung ˛ a ¨ ˛ ¨ ¨ ˛ ¨ ˛ x ρ ρ cospψ ` aζq x2 ` y 2 ‹ ˚ ‹ ˚ ˚ ‹ ˚ ‹ ‹ x# “ ˝y ‚ “ ˝ ρ sinpψ ` aζq ‚ , u# “ ˝ψ ‚ “ ˚ arctanpy{xq ´ az ˝ ‚ z
ζ
ζ
z
Die Vorgabe eines Raumpunktes P px, y, zq führt zu folgenden geometrischen Größen. Höhe
z
Abstand
ρ“
Winkel
ϕ “ arctanpy{xq “ ψ ` aζ
a x2 ` y 2
Flächenscharen ρ “ const.
konzentrische Kreiszylinder
ψ “ const.
rechts- oder linksgängige Schraubenflächen für ˘ a
ζ “ const.
parallele Horizontalebenen
Funktionalmatrix ¨ ˛ cos pψ ` aζq ´ ρ sin pψ ` aζq ´ aρ sin pψ ` aζq ˚ ‹ F px# { u# q “ ˝ sin pψ ` aζq ` ρ cos pψ ` aζq ` aρ cos pψ ` aζq‚ 0 ¨
0
cos pψ ` aζq
1
sin pψ ` aζq
0
˛
˚ ‹ F´1 px# { u# q “ ˝´ ρ´1 sin pψ ` aζq ρ´1 cos pψ ` aζq ´ a‚ 0
0
1
296
14 Krummlinige Koordinatensysteme
Basisvektoren gρ prq “
cos pψ ` aζq ex `
sin pψ ` aζq ey
gψ prq “
´ ρ sin pψ ` aζq ex `
ρ cos pψ ` aζq ey
gζ prq “
´ aρ sin pψ ` aζq ex `
aρ cos pψ ` aζq ey
gρ prq “
cos pψ ` aζq ex `
sin pψ ` aζq ey
` ez
gψ prq “ ´ ρ´1 sin pψ ` aζq ex ` ρ´1 cos pψ ` aζq ey ´ a ez gζ prq “
ez
Matrizen des Metriktensors ¨ 1 0 0 ˚ 2 a ρ2 G # prq “ ˝0 ρ
˛ ‹ ‚,
¨ ˛ 1 0 0 ˚ ‹ G# prq “ ˝0 a2 ` 1{ρ2 ´ a‚
0 a ρ2 1 ` pa ρq2
0
´a
1
Determinanten g “ det G # prq “ 1 { det G# prq “ det2 F px# { u# q “ ρ2
Flächen- und Volumenelemente ρ “ const.
Ñ
ψ “ const.
Ñ
daψζ “ ρ dψ dζ a daρζ “ 1 ` paρq2 dρ dζ
ζ “ const.
Ñ
daρψ “ ρ dρ dψ dv “ ρ dρ dψ dζ
14.6.2
Astroidkoordinaten (u, ϕ, z)
Hierbei handelt es sich um ein ebenes Koordinatensystem, das in den Ebenen z “ const. nichtorthogonal ist, wie die Abbildung 14.5 zeigt.
297
14.6 Beispiele krummliniger Koordinatensysteme
Funktionssatz zur Koordinatendarstellung ¨ ˛ ¨ ˛ x u cos3 ϕ ˚ ‹ ˚ ‹ x# “ ˝y ‚ “ ˝ u sin3 ϕ ‚ ,
ϕ “ const. Ñ Azimutebenen z “ const.
z
z
u “ const. Ñ Astroiden Ñ Horizontalebenen
Funktionalmatrix ¨ ˛ ¨ ˛ xu xϕ xz cos3 ϕ ´ 3 u sin ϕ cos2 ϕ 0 ‹ ` ˘ ˚ ‹ 3 2 y yϕ yz ‹ “ ˚ F x # { u# “ ˚ ˝ u ‚ ˝ sin ϕ ` 3 u sin ϕ cos ϕ 0 ‚ z u zϕ zz 0 0 1 1 ˚ cos ϕ ˚ ` ˘ ˚ F´1 x# { u# “ ˚´ sin ϕ ˚ 3 u cos2 ϕ ˝ ¨
0
1 sin ϕ cos ϕ 3 u sin2 ϕ 0
˛ 0 ‹ ‹ ‹ 0‹ ‹ ‚ 1
Basisvektoren gu prq “
cos3 ϕ ex `
sin3 ϕ ey
gϕ prq “ ´ 3 u sin ϕ cos2 ϕ ex ` 3 u sin2 ϕ cos ϕ ey gz prq “ gu prq “ gϕ prq “
` ez 1 ex ` cos ϕ sin ϕ ´ ex ` 3 u cos2 ϕ
gz prq “
1 ey sin ϕ cos ϕ ey 3 u sin2 ϕ ` ez
Matrizen des Metriktensors Zur knapperen Schreibweise werden die Abkürzungen s “ sin ϕ und c “
298
14 Krummlinige Koordinatensysteme
cos ϕ verwendet. s6 ` c6
¨
3 u s c rs2 ´ c2 s 0
˚ 2 2 G # prq “ ˚ ˝3 u s c rs ´ c s
¨ ˚ 1 ˚ 1 ˚ # s2 ´ c2 G prq “ 2 2 ˚ s c ˚ ˚ 3usc ˝ 0
‹ 0‹ ‚
3us2 c2
0
0 s2 ´ c2 3usc s6 ` c6 p3 u s cq2 0
˛
1 ˛ 0 ‹ ‹ ‹ ‹ 0 ‹ ‹ ‚ 2 2 s c
Determinanten ` ˘ ` ˘2 g “ det G # prq “ 1 { det G# prq “ det2 F x# { u# “ 3 u sin2 ϕ cos2 ϕ
Flächen- und Volumenelemente u “ const.
Ñ
φ “ const.
Ñ
daφz “ 3 u sin ϕ cos ϕ dϕ dz ` ˘ dauz “ sin6 ϕ ` cos6 ϕ du dz
z “ const.
Ñ
dauφ “ 3 u sin2 ϕ cos2 ϕ du dϕ dv “ 3 u sin2 ϕ cos2 ϕ du dϕ dz
14.6 Beispiele krummliniger Koordinatensysteme
Abb. 14.5: Koordinatenlinien der Astroidkoordinaten in der Ebene z “ 0 Astroiden in blau, u “ 1{4, 2{4, . . . , 8{4 Strahlen in rot, ϕ “ 15˝ , 30˝ , . . . , 345˝
299
Literatur [1] Kreyszig, E.: Differentialgeometrie Akademische Verlagsgesellschaft Geest & Portig, Leipzig (1957)
300
Kapitel 15
Transformation der Komponenten in krummlinigen Koordinatensystemen Zusammenfassung Die Transformationen von Vektor- und Tensorkomponenten werden dargestellt, die in krummlinigen Koordinatensystemen ortsabhängig sind. Die Beziehungen entsprechen formal den Ergebnissen in geradlinigen Systemen.
15.1
Transformationen bei gleicher Basis
Vektoren und Tensoren sind als physikalische Größen unabhängig vom gewählten Koordinatensystem und in diesem Sinne invariant. Eine Zerlegung in ko- oder kontravariante Komponenten hat wegen der Ortsabhängigkeit nur Sinn, wenn der Raumpunkt bekannt ist, in dem die Zerlegung betrachtet wird. Für Vektoren erhält man nach Ersetzen der Basisvektoren gemäß (14.25) Zerlegung und Umrechnung aus dem Vergleich der Komponenten. ‰T “ ‰T “ v “ g prq v# prq “ g# prq G # prq v# prq #
‰T “ ‰T “ g# prq v # prq “ g prq G# prq v # prq “
#
301 © Springer Fachmedien Wiesbaden GmbH, ein Teil von Springer Nature 2019 W. Werner, Vektoren und Tensoren als universelle Sprache in Physik und Technik 1, https://doi.org/10.1007/978-3-658-25272-4_15
302
15 Transformation der Komponenten
v# prq “ G# prq v # prq
v # prq “ G # prq v# prq
(15.1)
Bis auf die Ortsabhängigkeit entsprichen diese Ergebnisse den Gleichungen (7.15), wenn man beachtet, dass die Metrikmatrizen nach (14.22) aus den Funktionalmatrizen zu berechnen sind. Für den Tensor 2. Stufe gilt eine entsprechende Rechnung und für seine kontravarianten Komponenten erhält man entsprechend (9.18) ‰T “ ‰T “ T prq “ g# prq T ## g# prq “ g prq G# prq T ## prq G# prq g prq #
#
T ## prq “ G# prq T ## prq G# prq
(15.2)
Sowohl für Vektoren als auch für Tensoren entsprechen die Transformationsbeziehungen formal den früheren Ergebnissen für geradlinige Koordinatensysteme, so dass die Tabellen 8.1 und 9.1 in entsprechender Weise für die Umrechnung der Komponenten in krummlinigen Koordinatensystemen herangezogen werden können.
15.2 15.2.1
Transformationen bei Basiswechsel Neues Koordinatensystem
Für zwei allgemeine, krummlinige Koordinatensysteme sind u# und w# die alten und die neuen kontravarianten Koordinaten, die die zugehörigen ˆ prq besitzen. Die kartesischen Kokovarianten Basisvektoren g prq und g #
#
ordinaten und ihre Differentiale haben folgende Darstellungen. ` ˘ x# “ x# u#
Ñ
` ˘ dx# “ F x# { u# du#
Ñ
dx# “ F x# { w
(15.3) x# “ x
` #
w
˘ #
`
˘ #
dw#
Der Zusammenhang der beiden krummlinigen Systeme ` ˘ “ ` ˘‰ ` ˘ u# “ u# x# “ u# x# w # “ u# w #
303
15.2 Transformationen bei Basiswechsel
lautet für die Differentiale nach der Kettenregel (13.13) ` ˘ ` ˘ ` ˘ du# “ F u# { w# dw# “ F u# { x# F x# { w# dw# und damit für die Funktionalmatrix nach Argumenttausch gemäß (13.11) ` ˘ ` ˘ ` ˘ F u# { w# “ F´1 x# { u# F x# { w#
(15.4)
Dies ist eine weitere allgemeine Beziehung der Funktionalmatrizen, die zu den erwähnten und (14.19) hinzu tritt. Die verschiedenen Eigenschaften der Funktionalmatrizen sind in Tabelle 15.1 zusammengestellt.
15.2.2
Umrechnung von Basisvektoren und Metrikmatrizen
Beim Übergang vom System u# zum System w# geht aus den äquivalenten Darstellungen des Wegelementes (14.7) nach Ersetzen der Differentiale die Transformation der kovarianten Basisvektoren hervor. ` ` ` ˘T ˘T ` ˘ ˘T dr “ du# g prq “ dw# FT u# { w# g prq “ dw# g ˆ prq #
g ˆ prq “ F #
` T
u# { w
˘ #
#
#
˘ ` ˘ ‰T “ ` g prq “ F u# { x# F x# { w# g prq #
#
Zur Umrechnung der kontravarianten Basisvektoren setzt man die Beziehungen (14.20) im alten und neuen System ineinander ein. g# prq “ F´1 px# { u# q e
und
g ˆ# prq “ F´1 px# { w# q e
Als Ergebnis erhält man die Transformationsbeziehungen der Basisvektoren, bei denen wie früher die jetzt allerdings ortsabhängigen Kopplungsmatrizen P und Q Anwendung finden, was der Klarheit und Verkürzung der Formeln dient. “ ‰´1 g prq “ P prq g prq g ˆ prq “ FT px# { w# q FT px# { u# q #
#
#
g ˆ# prq “ F´1 px# { w# q F px# { u# q g# qprq “ Q prq g# qprq
(15.5)
304
15 Transformation der Komponenten
Hier zeigt sich erneut die formale Äquivalenz der Beziehungen mit denen der geradlinigen Koordinatensysteme, die sich lediglich in der Ortsabhängigkeit aller Größen unterscheiden, so dass man die Tabelle 6.1 bei Basiswechsel in entsprechender Weise verwenden kann. Aus den beiden letzten Beziehungen folgen die Umrechnungen der Metrikmatrizen, die als Komponenten des Metriktensors in krummlinigen Systemen den Transformationen für Tensorkomponenten bei Basiswechsel gemäß Tabelle 9.2 entsprechen. ` ˘T ` ˘T T ˆ#“g G ˆ ¨ g ˆ “ Pg ¨ g P “ P G # PT #
#
#
#
` ˘T ` # ˘T ˆ# “ g G “ Q g # ¨ g # Q T “ Q G# Q T ˆ ˆ# ¨ g ˆ # prq “ Q prq G# prq QT prq G
ˆ # prq “ P prq G # prq PT prq G
(15.6)
15.2.3
Umrechnung der Komponenten von Vektoren und Tensoren
Aus den forminvarianten Darstellungen berechnet man mit (15.5) die kontravarianten Vektorkomponenten ` ˘T # ` ˘T ` T ˘´1 # ` ˘T # v“ g ˆ ˆ P v ˆ v “ g v “ g #
#
#
sowie die kovarianten Tensorkomponenten ` ˘T ` ˘T ` T ˘´1 T “ g# T ## g# “ g ˆ T ## Q´1 g ˆ Q #
˘T
`
“ g ˆ
#
ˆ ## g T ˆ
#
#
mit den Resultaten v ˆ# prq “ Q prq v# prq
ˆ ## prq “ P prq T ## prq PT prq T
(15.7)
Alle anderen Komponenten werden in entsprechender Weise berechnet.
305
15.2 Transformationen bei Basiswechsel
Bei den Komponenten zeigt sich ebenfalls die Äquivalenz der Resultate mit denjenigen bei geradlinigen Koordinatensystemen. Formal kann man daher zur Umrechnung von Vektor- und Tensorkomponenten bei Basiswechsel auf die Tabellen 8.1 und 9.2 zurückgreifen!
15.2.4
Kontragrediente Transformation
Die Bestandteile des Vektors v bei seiner Zerlegung in ‚ die kovarianten Basisvektoren ˆ prq g prq bzw. g #
#
‚ und seine kontravarianten Vektorkomponenten ˆ# prq v# prq bzw. v werden gemäß den Beziehungen (14.25/15.1) bzw. (15.5/15.7) auf verschiedene, nämlich kontragrediente Weise umgerechnet. Das gilt sinngemäß auch für alle Tensorkomponenten. Die Transformationen werden vermittelt durch die Kopplungsmatrizen P prq und Q prq bzw. durch die ihnen zugeordneten Funktionalmatrizen. ` ˘“ ` ˘ ‰´1 ` ˘ P prq “ FT x# { w# FT x# { u# “ FT u# { w #
(15.8)
` ˘ ` ˘ ` ˘ ` ˘ Q prq “ F´1 x# { w# F x# { u# “ F w# { u# “ F´1 u# { w# Die Transformationsmatrizen sind zueinander kontragredient, so dass für sie (6.28) entsprechend gilt. PT prq “ Q´1 prq “ F´1 px# { u# q F px# { w# q “ F pu# { w# q
(15.9)
“ ‰´1 “ T # # ‰´1 QT prq “ P´1 prq “ FT px# { u# q FT px# { w# q “ F pu { w q Diese Beziehungen bleiben auch dann gültig, wenn man eines der krummlinigen Koordinatensysteme mit dem kartesischen System identifiziert, wenn
306
15 Transformation der Komponenten
man also z.B. w# ” x# und g ˆ
#
” g ˆ# ” e setzt. In diesem Falle gilt
nämlich nach (15.5) mit (13.5) g prq “ P´1 prq e “ FT px# { u# q e #
g# prq “ Q´1 prq e “ F´1 px# { u# q e und das stimmt mit den Beziehungen (14.20) überein. Da normalerweise krummlinige Koordinatensysteme in der Form x# pu# q und x# pw# q beschrieben werden, ist für Transformationen nur die Berechnung der beiden Basismatrizen F px# { u# q und F px# { w# q bzw. ihrer Transponierten oder Inversen durch Bildung der partiellen Ableitungen der x# nach den u# oder w# erforderlich.
15.2.5
Gegenüberstellung der Transformationen
Die Transformationen der verschiedenen Größen zwischen zwei Koordinatensystemen werden vermittelt durch die folgenden Matrizen. ‚ Geradlinige Koordinatensysteme Transformationsmatrizen A, U, V, P und Q mit konstanten Elementen ‚ Krummlinige Koordinatensysteme Funktionalmatrizen F px# { u# q und F px# { w# q mit partiellen Ableitungen Die Umrechnungen von Basisvektoren, Vektor- und Tensorkomponenten nach den Tabellen 6.1, 8.1 und 9.2 sind auch bei krummlinigen Koordinatensystemen anwendbar, wenn man die Matrixzuordnungen nach Tabelle 15.2 beachtet, der man entnehmen kann, wie die Matrizen A bis Q in krummlinigen Koordinatensystemen durch die Funktionalmatrizen zu ersetzen sind. Bei den Transformationen der Vektor- und Tensorkomponenten in den erwähnten Tabellen treten zwei besondere Matrizenprodukte auf, die hier explizit angegeben werden. ` ˘“ ` ˘‰´1 T ` # # ˘ ` # # ˘ F x {u F x {u P prq G # prq “ FT x# { w# FT x# { u#
307
15.3 Tabellen
P prq G # prq “ FT px# { w# q F px# { u# q
(15.10)
` ˘ ` ˘ ` ˘“ ` ˘‰´1 Q prq G# prq “ F´1 x# { w# F x# { u# F´1 x# { u# FT x# { u# “ ` ˘ ` ˘‰´1 Q prq G# prq “ FT x# { u# F x# { w#
(15.11)
Beide Matrizenprodukte sind zueinander kontragredient, denn es gilt P prq G # prq “
15.3
““ ‰T ‰´1 Q prq G# prq
Tabellen
Argumenttausch
` ˘ ` ˘ F u# { x# “ F´1 x# { u#
Kettenregel
` ˘ ` ˘ ` ˘ F u # { t# “ F u # { x # F x # { t#
Ko- & Kontra-Wechsel
` ˘ ` ˘ ` ˘ FT x# { u# “ F´1 x# { u# “ F u# { x#
Matrix für zwei Systeme
` ˘ ` ˘ ` ˘ F u# { w# “ F´1 x# { u# F x# { w#
Tabelle 15.1: Beziehungen der Funktionalmatrizen
308
15 Transformation der Komponenten
geradlinig
krummlinig
ˆ e“
Ae
g prq “
Ue
` ˘ F T x# { u# e
g# prq “
Ve
` ˘ F´1 x# { u# e
g prq “
G # g#
` ˘ ` ˘ FT x# { u# F x# { u# g# prq
g# prq “
G# g
“
#
#
g ˆ prq “
Pg
g ˆ# prq “
Q g#
#
#
#
` ˘ ` ˘ ‰´1 F T x# { u# F x # { u# g prq #
F
` T
x# { w
˘“ #
F
` T
x# { u
˘‰ # ´1
g prq
` ˘ ` ˘ F´1 x# { w# F x# { u# g# prq
Tabelle 15.2: Matrix-Korrespondenzen
#
Kapitel 16
Ableitung krummliniger Grundvektoren Zusammenfassung In krummlinigen Koordinatensystemen sind die Grund- oder Basisvektoren ortsabhängig. Ihre Ableitungen nach den verschiedenen Koordinatenrichtungen stellen ebenfalls Vektoren dar, bei deren Zerlegung die ChristoffelSymbole als Koeffizienten der verschiedenen Richtungen definiert und für verschiedene Koordinatensysteme angegeben werden.
16.1
Darstellung der Grundvektoren und ihrer Änderungen
Die Abbildung 16.1 dient dazu, eine klare Vorstellung über die krummlinigen Grundvektoren und ihre Änderungen bei Fortschreiten in Richtung der Koordinatenlinien zu gewinnen. Dafür genügt die zweidimensionale Darstellung. Da aber alle Indizes jeweils von 1 bis 3 laufen, sind von den neun Änderungsvektoren bzw. Differentialquotienten nur vier dargestellt! 309 © Springer Fachmedien Wiesbaden GmbH, ein Teil von Springer Nature 2019 W. Werner, Vektoren und Tensoren als universelle Sprache in Physik und Technik 1, https://doi.org/10.1007/978-3-658-25272-4_16
310
16 Ableitung der Grundvektoren
Die Größen in der Abbildung haben folgende Bedeutung: uk
kontravariante Koordinaten
gk prq “
Br Buk
kovariante Grundvektoren als Tangentenvektoren der kontravarianten Koordinatenlinien
Bgi Buk
Änderung des Tangentenvektors gi bei Fortschreiten auf der Koordinatenlinie uk (16.1) ∂ g2 ∂u2
u2
= g 2,2
∂ g1 ∂u2
g2(P) g2(R2)
u1 + du 1 = g 1,2
Q
g1(P) R2
g1(R2)
dr
g2(R 1)
u 2+ du 2 ∂ g2 ∂u1
= g 2,1 g2(P)
∂r g2(P) = 2 ∂u
g1(P) ∂ g1 = g 1,1 ∂u1
R1
u1 = const. P
g1(P) =
r
∂r ∂ u1
u 2 = const.
g1(R 1) u1
O
Abb. 16.1: Krummliniges Koordinatensystem
311
16.2 Ableitung kovarianter Grundvektoren
16.2 16.2.1
Ableitung kovarianter Grundvektoren Schreibweise für Ableitungen nach Koordinaten
Um die vielfach auftretenden Ableitungen einfacher zu notieren, wird eine abkürzende Schreibweise definiert. Die partielle Ableitung einer Größe nach einer kontravarianten Koordinate wird durch einen meist mit bezeichneten unteren, kovarianten Index hinter einem Komma gekennzeichnet, wofür auch das kovariante partielle Symbol B in der Literatur häufig anzutreffen ist. B x..y “ x..y, “ B x..y Bu
16.2.2
p “ 1, 2, 3 q
(16.2)
Durchführung der Ableitung
Die Grundvektoren gk eines krummlinigen Koordinatensystems x# pu# q wurden bereits in Abschnitt 14.3.1 eingeführt. Sie stellen als Änderungen des Ortsvektors die Tangentenvektoren der Koordinatenlinien dar. Wie dort erörtert, wird der obere, kontravariante Index im Nenner des Differentials zu einem unteren, kovarianten Index, so dass eine kovariante Größe entsteht. Für die kovarianten Grundvektoren gilt mit (14.4) die Darstellung, gk prq “
Br Bx1 Bx2 Bx3 B “` ˘T ‰ “ r “ e ` e ` e3 “ k x # e 1 2 , k k k k k Bu Bu Bu Bu Bu
was nach Zusammenfassung der Ableitungen auf das Ergebnis (14.5) führt. ` ˘ g prq “ FT x# { u# e #
(16.3)
Differenziert man gk prq nach den kontravarianten Koordinaten, so erhält man nach dem Satz von Schwarz für gemischte Ableitungen, [1, I, S. 382] die Symmetriebeziehung für die Ableitung der kovarianten Grundvektoren gk, “
B2 r Bg Bgk “ k “ k “ g,k Bu Bu Bu Bu
312
16 Ableitung der Grundvektoren
sowie die Permutationsbeziehung für beliebige Permutationen tk , , mu.
gk,,m “
Bg k , B2r “ k m “ g k , m , “ ... “ gtk , , mu m Bu Bu Bu Bu
(16.4)
g k , , m prq “ gtk , , mu prq
g k , prq “ g , k prq
Bei k, “ 1, 2, 3 sind von den neun ersten Ableitungen der Grundvektoren wegen der Symmetrie nur sechs unabhängig voneinander. Wenn man die ersten Ableitungen zusammenfasst, die nach der gleichen Koordinate abgeleitet werden, dann erhält man den folgenden Spaltenvektor.
¨ Bg g
#,
“
#
Bu
g1 , prq
˛
¨
g , 1 prq
˛
‹ ˚ ‹ ˚ “ ˝ g2 , prq ‚ “ ˝ g , 2 prq ‚ “ g g3 , prq
,#
g , 3 prq
Die Ableitung der kovarianten Grundvektoren wird nach (16.3) berechnet und führt mit einer speziellen Schreibweise für die Ableitung der Funktionalmatrix auf die folgende Darstellung.
g
#,
prq “
` ˘ Be B “ T` # #˘ ‰ F x {u e ` F T x # { u# Bu looBu moon “0
g
#,
prq “
ˇ ˘ ` B T # #ˇ x g “ F { u u e Bu #
(16.5)
Die Ableitungen der Funktionalmatrix sind Matrizen mit doppelten partiellen Ableitungen, die zu einer Blockmatrix zusammengefasst werden, bei
313
16.3 Zerlegung der Ableitungen
der der formale Ableitungsindex in Klammern gesetzt wird. B 2 x1 ˚ Bu1 Bu ˇ ˘ ` ` ˘ ˚ B .. F T x # { u# ˇ u “ F T x # { u# “ ˚ . ˚ Bu ˝ B 2 x1 Bu3 Bu ¨
... .. . ...
˛ B 2 x3 Bu1 Bu ‹ ‹ .. ‹ . ‹ 2 3 B x ‚ Bu3 Bu
ˇ “ ‰ FT x# { u# ˇ up#q › ˇ ˘ ˇ ˘ ˇ ˘ ›› ` ` ` › “ › FT x # { u# ˇ u1 , F T x # { u# ˇ u2 , F T x # { u# ˇ u3 › (16.6)
16.3
Zerlegung der Ableitungen
16.3.1
Ableitung der kovarianten Grundvektoren
Die Ableitungen der kovarianten Grundvektoren (16.5) stellen ebenfalls Vektoren dar, die man mit der Umkehrung von (16.3) in Richtung der kovarianten Grundvektoren zerlegen kann. g
#,
ˇ ˘“ ` ` ˘ ‰´1 ¨# prq “ FT x# { u# ˇ u FT x# { u# g prq “ Γ # g prq #
#
(16.7) Die Koeffizienten Γkm dieser Vektorzerlegung heißen ChristoffelSymbole nach dem deutschen Mathematiker Elwin Bruno Christoffel (1829 - 1900), die die Elemente der ortsabhängigen Christoffel-Ma¨# trix Γ # bilden, die ohne das Argument prq geschrieben wird. ¨# Bei der Schreibweise der Christoffel-Matrix Γ # bezeichnet das untere #-Symbol die Zeile. Das obere #-Symbol für die Spalte wird bei der Matrix mit Punkt, bei den einzelnen Elementen dagegen ohne Punkt geschrieben. Für die Ableitung des k-ten Grundvektors erhält man mit (16.4) die entwickelte und in k und symmetrische Form, aus der die Symmetrieeigenschaft der Christoffel-Symbole in den unteren Indizes folgt.
314
16 Ableitung der Grundvektoren
g k , prq “ Γk1 g1 prq ` Γk2 g2 prq ` Γk3 g3 prq “
g k , prq “ g , k prq
16.3.2
Ñ
ÿ3 m“1
Γkm g m prq
Γkm “ Γm k
(16.8)
Geometrische Bedeutung der Christoffel-Symbole
In der Ableitung g k , prq haben die Indizes k, , m des Christoffel-Symbols Γkm folgende Bedeutung: • die Änderung des k-ten kovarianten Basisvektors gk prq • hervorgerufen durch Fortschreiten in Richtung der -ten Koordinate u • zerlegt in die m-te der drei räumlichen Richtungen gm prq
m k
Zerlegungsrichtung Koordinatenrichtung Basisvektor
Abb. 16.2: Bedeutung der Indizes im Christoffel-Symbol
16.3.3
Ableitung der kontravarianten Basisvektoren
Zur Ableitung der kontravarianten Basisvektoren geht man aus von der Einheitsmatrix und von (14.20). ˘ Be B ` B “ ` # # ˘ ´1 ` # # ˘ ‰ “ 0 “ e E “ F x { u looooooooomooooooooon F x {u e Bu Bu Bu “ g# prq
315
16.3 Zerlegung der Ableitungen
Nach Produktregel und Vergleich mit (16.7) folgt ˇ ˘ ` ` ˘ B # F x# { u# ˇ u g# prq ` F x# { u# g prq “ 0 Bu looooomooooon “ g# prq ,
ˇ ˘ “ ¨ # ‰T # ` ˘ ` g prq g# prq “ ´ F´1 x# { u# F x# { u# ˇ u g# prq “ ´ Γ # ,
(16.9) Die Zerlegung der Ableitungen in Richtung der kontravarianten Basisvektoren führt auf die transponierte Matrix der Christoffel-Symbole. Für die Ableitung des k-ten kontravarianten Basisvektors erhält man die entwickelte Form, bei der aber keine Symmetriebeziehung existiert!
gk, prq “ ´ Γ1k g1 prq ´ Γ2k g2 prq ´ Γ3k g3 prq
(16.10)
Dafür besteht eine andere Relation der kontravarianten Ableitungen. Summiert man nämlich die folgenden Kreuzprodukte, dann sind drei Glieder wegen paralleler Vektoren Null und die restlichen heben sich wegen der antisymmetrischen Eigenschaft der Vektorprodukte und der symmetrischen der Christoffel-Symbole nach (16.8) gegenseitig auf.
3 ÿ
g ˆ gk, “ 0
(16.11)
“1
16.3.4
Ableitung der Metrikmatrizen
Die Metrikmatrizen sind nach Abschnitt 14.4.2 die Gram’schen Matrizen der Skalarprodukte der Basisvektoren. Für die Ableitung der kovarianten
316
16 Ableitung der Grundvektoren
Matrix gilt nach Produktregel und (16.7) ˘ ` ‰T “ “ g prq ¨ g prq G # prq “ G g , g #
G # , prq “
#
#
#
˘T ` ` ˘T BG # `g ¨ g ¨ g “g #, # # #, Bu ` ˘ T “ ¨ # ‰T ` ˘ T ¨# “ Γ# `g ¨ g Γ# g ¨ g #
#
#
#
¨# “ Γ# G# ` G# Γ#
“
¨ # ‰T
sowie eine entsprechende Rechnung für die kontravariante Matrix. Wegen der Symmetrie der Metrikmatrizen sind die Matrizen der Ableitungen ebenfalls symmetrisch. “ ¨# ‰T ¨# G # , prq “ ` Γ # G # prq ` Γ # G # prq (16.12) ¨# # G#, prq “ ´ G# prq Γ # ´ G prq Γ #
“
16.3.5
¨ # ‰T
Totales Differential der Basisvektoren
Das totale Differential der kovarianten Basisvektoren wird in entsprechender Weise gebildet wie beim Wegelement (14.7) und mit den Symmetriebeziehungen (16.4), (16.8) und der Darstellung (16.7) der Ableitungen erhält man dgk “
Bgk 1 Bgk 2 Bgk 3 du ` 2 du ` 3 du “ g 1, k du1 ` g 2, k du2 ` g 3, k du3 Bu1 Bu Bu ` ˘T dgk “ du# g
#, k
` ˘T ¨ # “ du# Γ # k g
#
(16.13)
Bei den kontravarianten Basisvektoren kann man entsprechend vorgehen, aber wegen der fehlenden Symmetriebeziehung kann keine Darstellung mit der Christoffel-Matrix angegeben werden. Im Abschnitt 17.3.3 des folgenden Kapitels wird im Zusammenhang mit Vektorgradient und Richtungsableitung auch das totale Differential der kontravarianten Basisvektoren mit der zugehörigen Matrix entwickelt.
317
16.3 Zerlegung der Ableitungen
16.3.6
Charakter der Grundvektoren und ihrer Ableitungen
Ein krummliniges Koordinatensystem wird durch den Funktionssatz x# pu# q definiert, aus dem für jeden Raumpunkt die kovarianten Grundvektoren g #
als Tangentenvektoren der Koordinatenlinien uk “ const. sowie deren Abbestimmt werden können, die deren Richtungsänderungen leitungen g #,
entlang der Koordinatenlinien beschreiben. Beide Größen haben zwar Vektorcharakter mit Betrag und Richtung, aber sie sind keine invarianten Vektoren im Sinne der Tensorrechnung wie ein physikalischer Vektor v, da sie in einem festen Raumpunkt beim Wechsel zu einem anderen Koordinatensystem nicht erhalten bleiben. Die ˆ weisen im neuen Sysneuen Grundvektoren g ˆ und ihre Ableitungen g #,
#
tem x# pw# q normalerweise in andere Richtungen und ihre Beträge können sich ebenfalls ändern.
y
g1
g2
y g1
v
w2
v
u2 P
P
w1 u1 x
g2
x
Abb. 16.3: Basisvektoren und physikalische Vektoren beim Wechsel des Koordinatensystems Diese Vektoren stellen zwar notwendige Größen dar, mit denen die geometrischen Eigenschaften des Koordinatensystems adäquat beschrieben werden, aber sie sind zu unterscheiden von physikalischen oder echten Vektoren wie Geschwindigkeit, Kraft oder Feldstärke, die im festen Raumpunkt bei Basiswechsel keine Änderungen von Betrag und Richtung erfahren. Physikalische Vektoren sind stets Invarianten mit eigenständiger Bedeutung, die von allen Koordinatensystemen losgelöst sind.
318
16 Ableitung der Grundvektoren
16.4 16.4.1
Christoffel-Symbole und ihre Matrizen Darstellung und Symmetrie der Christoffel-Symbole
Die Christoffel-Symbole sind die Komponenten der Zerlegung der Vekund g# in Richtung der zugehörigen Basisvektoren torableitungen g #,
g
#
,
und g# . Mit ihnen werden in jedem Raumpunkt die Änderungen der
Grundvektoren beim Fortschreiten in Richtung der Koordinatenlinien ausgedrückt. Aus (16.7) und (16.9) sowie (14.20) und (16.5) erhält man Darstellungen für die Matrizen der Christoffel-Symbole. ¨# Γ# “g
#,
‰T “ ‰T “ prq ¨ g# prq “ ´ g prq ¨ g# prq #
,
(16.14) ¨# Γ#
ˇ “ ‰´1 “ FT px# { u# ˇ u q FT px# { u# q
Mit der Funktionalmatrix (14.3), ihrer Inversen (13.11) sowie ihrer Ableitung (16.6) lautet die zweite Darstellung ausführlich B 2 x1 ˚ Bu1 Bu ˚ .. “˚ . ˚ ˝ B 2 x1 Bu3 Bu ¨
¨# Γ#
B 2 x2 Bu1 Bu .. . B 2 x2 Bu3 Bu
˛¨ 1 B 2 x3 Bu ˚ ‹ 1 Bu Bu ‹ ˚ Bx1 .. ‹ ˚ .. . ‹˚ . B 2 x3 ‚˝ Bu1 Bx3 Bu3 Bu
Bu2 Bx1 .. . Bu2 Bx3
˛ Bu3 Bx1 ‹ .. ‹ ‹ . ‹ Bu3 ‚ Bx3
mit dem allgemeinen Glied Γkm “
3 ÿ p“1
B 2 xp Bum “ Γ m k Buk Bu Bxp
Insgesamt gibt es 27 Christoffel-Symbole, von denen wegen der Symmetriebeziehung aber nur 18 unabhängig und davon häufig auch einige Null sind, was später noch präzisiert wird.
319
16.4 Christoffel-Symbole und ihre Matrizen
16.4.2
Christoffel-Matrizen und H-Matrix
Die in den Ableitungen der Grundvektoren (16.7) und (16.9) für “ 1, 2, 3 auftretenden Christoffel-Matrizen haben folgende Elemente. ¨
Γ11 Γ12
˚ 1 ¨# Γ# “ ˝ Γ2
Γ22
Γ31
Γ13
Γ11 Γ21
¨
˛
‹ Γ23 ‚
“
¨# Γ#
‰T
˚ “ ˝ Γ12
Γ32 Γ33
Γ13
Γ22
Γ31
˛
‹ Γ32 ‚
Γ23 Γ33
(16.15) Die Zusammenfassung der Matrizen führt zur Christoffel-Blockmatrix, bei der der Ableitungsindex in Klammern steht. ¨# ¨# ¨# ¨# “ Γ# , Γ , Γ Γ #1 #2 #3 p#q
(16.16)
In ausführlicher Form lautet diese Matrix folgendermaßen, bei der die gleichfarbigen Anteile wegen der Symmetrie (16.8) in den unteren Indizes jeweils übereinstimmen. Insgesamt gibt es daher nur 18 verschiedene Symbole.
¨# Γ# p#q
¨ 1 ˛ ¨ 1 ˛ ¨ 1 ˛ Γ1 1 Γ121 Γ131 Γ1 2 Γ122 Γ132 Γ1 3 Γ123 Γ133 ˚ ‹ ˚ ‹ ˚ ‹ “ ˝ Γ211 Γ221 Γ231 ‚, ˝ Γ212 Γ222 Γ232 ‚, ˝ Γ213 Γ223 Γ233 ‚ Γ1 Γ2 Γ3 Γ312 Γ322 Γ332 Γ313 Γ323 Γ333 31 31 31 (16.17)
Die Spaltenvektoren g
#,
werden ebenfalls zu einer Matrix zusammenge-
fasst, wodurch wegen (16.4) die symmetrische, vektorielle H-Matrix der Ableitungen der kovarianten Grundvektoren entsteht. ¨ ´ H ## prq “
g
#,1
, g
#,2
, g
g1,1 g1,2
g1,3
˛
¯ #,3
˚ “ ˝ g1,2 g1,3
g2,2
‹ g2,3 ‚
(16.18)
g2,3 g3,3
Setzt man die Christoffel-Symbole nach (16.7) ein, dann kann man die H -Matrix gemäß der erweiterten Matrixmultiplikation nach Abschnitt 3.8.2
320
16 Ableitung der Grundvektoren
durch die Christoffel-Blockmatrix ausdrücken. ´ ¨# ¯ ¨# ¨# H prq “ Γ # 1 g , Γ # 2 g , Γ # 3 g ##
#
#
¨# ¨# ¨# “ Γ# , Γ , Γ 1 #2 #3 ˝ g ¨# “ Γ # p#q ˝ g “
¨# Γ# p#q ˝ g
#
#
#
#
Die Ausführung dieser Multiplikation führt auf Grund der Symmetrieeigenschaften in den gleichfarbigen Anteilen der Christoffel-Blockmatrix zur symmetrischen H-Matrix.
16.4.3
L-Symbole und L-Matrix
Nach der Differentiationsregel (3.48) erhält man für die Ableitungen der kovarianten Basisvektorprodukte folgenden Ausdruck gik , “
˘ ` ˘ Bgik B ` “ gi ¨ gk “ gi ¨ gk , “ gi , ¨ gk ` gi ¨ gk , Bu Bu
Da solche Skalarprodukte mehrfach auftreten, wird der einzelne Summand als ortsabhängiges L-Symbol abgekürzt, das wegen (16.4) in den beiden ersten Indizes symmetrisch ist. Lik “ gi, ¨ gk “ g,i ¨ gk “ Lik (16.19) gik , “ g i , ¨ g k ` g k , ¨ g i “ L i k ` L k i In der Literatur werden die L-Symbole häufig als Christoffel-Symbole 1. Art bezeichnet, um sie von den Größen Γi k zu unterscheiden, die dann Christoffel-Symbole 2. Art genannt werden. In der Literatur sind auch weitere Schreibweisen mit verschiedenen Klammerungen für diese Drei-Indizes-Symbole zu finden, die hier aber nicht angegeben werden. In der vorliegenden Darstellung bilden L und Γ das entsprechende typographische Größenpaar für die Symbole 1. und 2. Art!
321
16.4 Christoffel-Symbole und ihre Matrizen
Fasst man alle L-Symbole zusammen, dann erhält man mit der H-Matrix die skalare L-Blockmatrix. › › › › L ## p#q prq “ › H ## ¨ g1 , H ## ¨ g2 , H ## ¨ g3 ›
(16.20)
Der Zusammenhang zwischen Christoffel- und L-Symbolen folgt aus Gleichung (16.8) durch skalare und normale Multiplikation mit Basisvektoren g k und Metrikkoeffizienten g kp und anschließende Summation. 3 ÿ
gi, ¨ gk g
kp
k“1
“
3 ÿ
Lik g
k“1
kp
“
3 ÿ
Γi q
q“1
3 ÿ
gqk g kp “ Γi p k“1 looooomooooon “ δqp nach (14.23)
Lik “
3 ÿ p“1
Γi p gpk
Γi p “
3 ÿ
L i k g kp
(16.21)
k“1
Die Beziehung links zeigt man auf entsprechende Weise.
16.4.4
Berechnung der Christoffel-Symbole
Drei Basisvektorableitungen für verschiedene Indexkombinationen, die durch L-Symbole dargestellt werden, führen durch geeignete Kombination zu einer Darstellung der Christoffel-Symbole. A:
gip , j “ gi , j ¨ gp ` gp , j ¨ gi “ L i j p ` L p j i
B:
gjp , i “ gj , i ¨ gp ` gp , i ¨ gj “ L j i p ` L p i j
C:
gij , p “ gi , p ¨ gj ` gj , p ¨ gi “ L i p j ` L j p i
Bei der Summation S “ A ` B ´ C entfallen wegen der Symmetriebeziehung (16.19) der L-Symbole vier Glieder und es verbleibt S “ gip , j ` gjp , i ´ gij , p “ 2 L i j p Mit diesem Ergebnis und der zweiten Beziehung (16.21) erhält man die Darstellung der Christoffel-Symbole durch Metrikkoeffizienten und
322
16 Ableitung der Grundvektoren
deren Ableitungen und damit durch die Elemente des Metriktensors G prq. 2 Γi kj “ 2
3 ÿ
g kp L i j p “
p“1
3 ÿ
` ˘ g kp gip , j ` gjp , i ´ gij , p
(16.22)
p“1
Im speziellen Fall, dass der obere Index einem unteren gleich ist, ergibt sich für die Summe der Christoffel-Symbole eine kompaktere Darstellung. 3 ÿ
2
Γi kk
k“1
“
3 ÿ 3 ÿ
g
kp
p gip , k ´ gik , p q `
k“1 p“1
3 ÿ 3 ÿ
g kp gkp , i
k“1 p“1
Da sich alle Glieder der ersten Doppelsumme gegenseitig aufheben, erhält man für die zweite Doppelsumme mit (3.50) das folgende einfache Ergebnis. 2
3 ÿ
Γi kk “
3 ÿ k“1
16.5.1
g kp gkp , i “
k“1 p“1
k“1
16.5
3 ÿ 3 ÿ
Γi kk
˘ g,i ` 1 B det G “ “ ln g # ,i det G # Bui g
` ? ˘ ˘ 1 g,i 1` “ “ ln g , i “ ln g , i “ 2 g 2
`? ˘ g ,i ? g
(16.23)
Spezielle Koordinatensysteme Christoffel-Symbole in geradlinigen Koordinatensystemen
In geradlinigen und damit auch kartesischen Koordinatensystemen haben die Basisvektoren auf den Koordinatenlinien feste Richtungen. In Abbildung 16.1 würde das z.B. bedeuten, dass auf den dann geraden Koordinatenlinien uk gilt gk pP q “ gk pRk q In diesem Fall gibt es keine Richtungsänderungen der Tangenten, so dass die Ableitungen der Grundvektoren Nullvektoren darstellen. g k , prq “
Bgk “0 Bu
Ñ
g
#,
prq “ 0
323
16.5 Spezielle Koordinatensysteme
Da in (16.5) bei linear unabhängigen Basisvektoren e der Nullvektor nur durch verschwindende Koeffizienten erzeugt werden kann, müssen alle Ableitungen der Funktionalmatrizen zu Nullmatrizen werden und nach (16.14) auch alle Christoffel-Symbole Null sein. ˇ FT px# { u# ˇ u q “ 0
16.5.2
¨# Γ# “0
Ñ
p@ q
(16.24)
Christoffel-Symbole in ebenen Koordinatensystemen
In ebenen Koordinatensystemen möge die z-Richtung die geradlinige Koordinate bedeuten, die senkrecht steht auf den beiden ebenen, krummlinigen Koordinaten u1 und u2 . Die H-Matrix (16.18) hat dann folgende reduzierte Gestalt, da bei Fortschreiten auf den Koordinatenlinien nur die Basisvektoren g1 , g2 ihre Richtungen ändern. ¨
g1,1 g1,2 0
˚ H ## “ ˝ g2,1 0
˛
‹ g2,2 0 ‚ 0
0
Das bedeutet nach (16.8), dass die folgenden Christoffel-Symbole Null sind, um den Nullvektor zu erzeugen. g
16.5.3
#,3
“g
3,#
“ 0
Ñ
¨# Γ# 3 “ 0
(16.25)
Christoffel-Symbole in orthogonalen Koordinatensystemen
In orthogonalen, krummlinigen Koordinatensystemen stehen in jedem Raumpunkt die Koordinatenlinien und damit ihre Tangentenvektoren paarweise aufeinander senkrecht, so dass die ko- und kontravarianten Basisvektoren nach den Abschnitten 6.6.5 und 8.4.3 richtungsmäßig zusammenfallen. Zur Darstellung der daraus folgenden Beziehungen wird der kovariante Basisvektorsatz verwendet.
324
16 Ableitung der Grundvektoren
Die Skalarprodukte der ungleichnamigen Basisvektoren sind wegen der Orthogonalität Null und damit auch ihre Ableitungen, gik “ gi ¨ gk “ 0 ˘ ` gik , “ gi ¨ gk , “ 0
+ für i ‰ k
(16.26)
wodurch die Metrikmatrizen und ihre Ableitungen Diagonalform annehmen. ` ˘ ` ˘ “ Diag gk ¨ gk “ Diag gkk G # prq “ Δ # prq ` ˘ G # , prq “ Δ # , prq “ Diag gkk, ˘ ` ˘ ` G# prq “ Δ# prq “ Diag gk ¨ gk “ Diag gkk ` ˘ “ Diag gkk, G#, prq “ Δ#, prq In der Darstellung (16.22) der Christoffel-Symbole bleibt dann von der Summe nur ein einziges Glied übrig, und zwar dasjenige, bei dem der erste Faktor gleiche Indizes hat. ` ˘ 2 Γi kj “ g kk gik , j ` gjk , i ´ gij , k
(16.27)
Zur Bestimmung der orthogonalen Christoffel-Symbole kann man vier verschiedene Fälle unterscheiden, bei der die Symmetriebeziehung (16.8) in den unteren Indizes und unbedingt die Beziehung (16.26) berücksichtigt werden muss! 1. i ‰ j ‰ k diese 2 ˆ 3 “ 6 Symbole sind alle Null:
Γi kj “ 0
Γ213 “ Γ312 “ Γ123 “ Γ321 “ Γ132 “ Γ321 “ 0 2. i ‰ j, k “ i oder k “ j für diese 2 ˆ 6 “ 12 Symbole gilt: Γ112 “ Γ211
Γ221 “ Γ122
Γ331 “ Γ133
Γ113 “ Γ311
Γ223 “ Γ322
Γ332 “ Γ233
2 Γi ij “ 2 Γjii “ g ii gii , j
325
16.6 Christoffel-Symbole bei Basiswechsel
3. i “ j ‰ k 2 Γi ki “ ´ g kk gii , k
für diese 6 Symbole gilt: Γ212 ,
Γ313 ,
Γ121 ,
Γ323 ,
Γ131 ,
Γ232
4. i “ j “ k 2 Γi ii “ g ii gii , i
für diese letzten 3 Symbole gilt: Γ111 ,
Γ222 ,
Γ333
Tatsächlich müssen dadurch in orthogonalen Koordinatensystemen nur 15 Christoffel-Symbole berechnet werden. Im Kapitel 18 ergeben sich durch die Eigenschaften der metrischen Faktoren noch weitere Reduktionen. Die Christoffel-Blockmatrix für orthogonale Koordinatensysteme hat damit folgenden Aufbau, bei dem die vier Kategorien von Elementen mit verschiedenen Farben gekennzeichnet sind.
¨# Γ# p#q
¨ 1 ˛ ¨ 1 ˛ ¨ 1 ˛ Γ1 1 Γ121 Γ131 Γ1 2 Γ122 0 Γ1 3 0 Γ133 ˚ ‹ ˚ ‹ ˚ ‹ Γ223 Γ233 ‚ “ ˝ Γ211 Γ221 0 ‚, ˝ Γ212 Γ222 Γ232 ‚, ˝ 0 Γ1 0 Γ331 0 Γ322 Γ332 Γ313 Γ323 Γ333 31 (16.28)
16.6
Christoffel-Symbole bei Basiswechsel
` ˘ # u# Die Koordinatensysteme werden durch die beiden Funktionssätze x ` ˘ und x# w# definiert. Für die Umrechnung der Grundvektoren beim Basiswechsel geht man aus von Gleichung (15.5) oder den Beziehungen der Tabelle 15.2, wobei wie dort zur kürzeren Darstellung die ortsabhängige Kopplungsmatrix P verwendet wird. “ ‰´1 g ˆ prq “ FT px# { w# q FT px# { u# q g prq #
#
T
#
#
“ F pu { w q g prq “ P prq g prq #
#
326
16 Ableitung der Grundvektoren
Bei der Ableitung von g ˆ prq ist zu beachten, dass die Differentiation im #
neuen System w# nach den Koordinaten w erfolgen muss! Bˆ g g ˆ
#,
prq “
# Bw
Bg BP # “ g `P # Bw Bw
Für die Ableitung der kovarianten Basisvektoren nach den neuen Koordinaten und mit (16.7) folgt Bg
# Bw
Bg “
# Bu1
“g
#,1
Bg Bu3 Bg Bu2 Bu1 # # ` ` Bu3 Bw Bu2 Bw Bw Bu3 Bu1 Bu2 ` g ` g # , 3 Bw # , 2 Bw Bw
Bu1 ¨ # Bu2 ¨ # Bu3 ¨ # Γ g ` Γ g ` Γ g Bw # 1 # Bw # 2 # Bw # 3 # ” Bu1 Bu2 ¨ # Bu3 ¨ # ı ¨# “ Γ ` Γ ` Γ g # Bw # 1 Bw # 2 Bw # 3 ` ˘ “ C r , g prq “
#
In die Beziehung (16.14) für die Christoffel-Symbole im neuen System werden die verschiedenen Größen eingesetzt und mit Tabelle 6.2 folgt ı ` # ˘T ” BP ` # ˘T ¨# ˆ# Γ ˆ ¨ g ˆ “ ` P C ¨ g ˆ g “g #, # Bw loooooomoooooon “ QT “ P´1
ˇ ˘ ` ` ˘ ` ˘ ` ˘ “ F T u# { w # ˇ w F T w # { u# ` FT u# { w # C F T w # { u# ¨# ˆ# Die Christoffel-Symbole Γ im neuen System sind im zweiten Summan¨# den durch die Matrix C linear in den Christoffel-Symbolen Γ # des alten Systems. Da aber durch den ersten Summanden absolute Glieder additiv hinzutreten, wird die allgemeine Transformationsregel (9.20) verletzt, so dass daher folgende Aussage gilt.
‚ Die Christoffel-Symbole sind keine Komponenten eines Tensors 3. Stufe!
327
16.7 Beispiele für Christoffel-Symbole
16.7
Beispiele für Christoffel-Symbole
16.7.1
Christoffel-Symbole und Ableitungen
Zur Berechnung der Christoffel-Symbole kann man (16.14) oder (16.22) verwenden, wobei die erste Beziehung die günstigere ist, weil die Matrizen leichter zu berechnen sind. In der Christoffel-Blockmatrix (16.16) werden alle ChristoffelSymbole und in der H-Matrix (16.18) alle Ableitungen der Basisvektoren zusammengefasst.
16.7.2
Wendelkoordinaten
Funktionalmatrix Die Matrix liegt nach Abschnitt 14.6.1 bereits vor und ihre Transponierte sowie deren Kehrmatrix lauten mit den Abkürzungen s “ sinpψ ` aζq und c “ cospψ ` aζq c
¨
s
` ˘ ˚ FT x# { u# “ ˝ ´ ρ s
0
ρc
˛
‹ 0‚
´ aρ s aρ c 1 ¨ “
c ´ s{ρ 0
˛
` ˘ ‰´1 ˚ “˝s FT x# { u#
c{ρ
‹ 0‚
0
´a
1
Ableitungen der Funktionalmatrix ˇ “ ‰ FT x# { u# ˇ up#q ›¨ ˛› ˛¨ ˛¨ › 0 0 0 ´s c 0 ´as ac 0 › › › ›˚ ‹˚ ‹› ‹˚ c 0 ‚,˝ ´ ρ c ´ ρ s 0 ‚,˝ ´ a ρ c ´ a ρ s 0 ‚ › “ ›˝ ´ s › › › ´as ac 0 ´aρc ´aρs 0 ´ a2 ρ c ´ a2 ρ s 0 ›
328
16 Ableitung der Grundvektoren
Christoffel-Blockmatrix ›¨ ˛ › ˛ ¨ ˛ ¨ › 0 0 0 0 1{ρ 0 0 a{ρ 0 › › › ‹ › ›˚ ‹ ˚ ‹ ˚ ¨# 0 1{ρ 0 ´ ρ 0 0 ´ a ρ 0 0 “ Γ# , , › › ‚ ˝ ‚ ˝ ‚ ˝ p#q › › › 0 a{ρ 0 2 ´aρ 0 0 ´a ρ 0 0 › Matrix der Einheitsvektorableitungen Die Basisvektoren g bereits in Abschnitt 14.6.1 angegeben.
H ##
› › ¨# “ ›Γ# p#q
¨ ˛ ¨ gρ,ρ gρ,ψ gρ › › ˚ ‹ ˚ › ˝ ˝gψ ‚ “ ˝ gψ,ρ gψ,ψ gζ
gζ,ρ
gζ,ψ
˚ “ ˝ gψ {ρ
wurden
˛
‹ gψ,ζ ‚ gζ,ζ
gψ {ρ
a gψ {ρ
´ ρ gρ
‹ ´ a ρ gρ ‚
0
¨
gρ,ζ
#
˛
a gψ {ρ ´ a ρ gρ ´ a2 ρ gρ
16.7.3
Astroidkoordinaten
Funktionalmatrix Die Matrix liegt nach Abschnitt 14.6.2 bereits vor und ihre Transponierte sowie deren Kehrmatrix lauten mit s “ sin ϕ und c “ cos ϕ ¨
c3
s3
0
˛
` ˘ ˚ ‹ FT x# { u# “ ˝´ 3usc2 3us2 c 0 ‚ 0
0
1 ˚c ˚ ˚ “ ˚1 ˚s ˝ ¨
“
F
T
`
#
x {u
#
˘ ‰´1
0
s 3uc2 c 3us2
´
0
1
˛ 0 ‹ ‹ ‹ 0‹ ‹ ‚ 1
329
16.7 Beispiele für Christoffel-Symbole
Ableitungen der Funktionalmatrix ˇ “ ‰ FT x# { u# ˇ up#q ›¨ ˛¨ ˛¨ ˛› › 0 0 0 3s2 c 0 ´ 3sc2 0 0 0 › › › ›˚ ‹˚ ‹˚ ‹› “ ›˝´ 3sc2 3s2 c 0 ‚,˝3ucp3s2 ´ 1q 3usp3c2 ´ 1q 0 ‚,˝ 0 0 0 ‚ › › › › 0 0 0 0 0 0 0 0 0 › Christoffel-Blockmatrix ›¨ ˛ ¨ ˛ ¨ ˛ › › 0 0 0 0 1{u 0 0 0 0 › › › ›˚ ‹ ˚ ‹ ˚ ‹ › ¨# 0 1{u 0 3u 4 cot 2ϕ 0 0 0 0 “ , Γ# , › › ˝ ‚ ˝ ‚ ˝ ‚ p#q › › › 0 0 0 0 0 0 0 0 0 › Matrix der Einheitsvektorableitungen Die Basisvektoren g ¨
#
wurden bereits in Abschnitt 14.6.2 angegeben.
gu,u gu,ϕ
gu,z
˛
¨
0
gϕ {u
˚ H ## “ ˝ gϕ,u
gϕ,ϕ
‹ ˚ gϕ,z ‚ “ ˝gϕ {u 3ugu ` 4 cot 2ϕgϕ
gz,u
gz,ϕ
gz,z
0
0
0
˛
‹ 0‚ 0
Literatur [1] Fichtenholz, G. M.: Differential- und Integralrechnung I/II/III VEB Deutscher Verlag der Wissenschaften, Berlin, 5. Aufl. (1972)
330
Kapitel 17
Differentialoperationen Zusammenfassung In der physikalischen Realität sind besonders solche Größen von Interesse, die nicht konstant sind, sondern sich von Ort zu Ort oder auch mit der Zeit als stetige Funktionen verändern. Jedem Punkt des Raumes können für variable physikalische Größen Tensoren zugeordnet werden und je nach der Stufe liegen dann orts- und ggf. zeitabhängige Skalar-, Vektor- oder allgemein Tensorfelder vor. Gegenstand der Tensoranalysis ist die Untersuchung, wie sich die Tensoren bzw. ihre Komponenten in Abhängigkeit von Koordinaten und Variablen ändern. Die verschiedenen Differentialoperationen der einzelnen Größen werden untersucht und am Ende des Kapitels tabellarisch zusammengefasst. Das Helmholtz-Theorem sagt aus, dass jedes reguläre Vektorfeld als Summe eines Quellenfeldes und eines Wirbelfeldes dargestellt werden kann. In allen physikalischen Feldern ist die Unterscheidung zwischen dem Quellpunkt Q als Ursache und Ausgangspunkt der Feldwirkungen und dem Aufpunkt P , in dem diese Wirkungen auftreten, notwendig. Der Abstandsvektor zwischen beiden Punkten sowie sein direkter und reziproker Betrag werden untersucht und eine Reihe von Differentialoperationen werden dargestellt. 331 © Springer Fachmedien Wiesbaden GmbH, ein Teil von Springer Nature 2019 W. Werner, Vektoren und Tensoren als universelle Sprache in Physik und Technik 1, https://doi.org/10.1007/978-3-658-25272-4_17
332
17 Differentialoperationen
17.1
Gradient skalarer Ortsfunktionen
17.1.1
Totales Differential als Skalarprodukt
Im krummlinigen Koordinatensystem u# wird der Zuwachs dV einer skalaren Ortsfunktion V pu1 , u2 , u3 q in einem Raumpunkt P prq durch den folgenden Differentialausdruck bestimmt, der als totales oder vollständiges Differential bezeichnet wird und aus Sicht der Tensorrechnung als skalare Größe eine Invariante gegenüber Koordinatentransformationen darstellt.
dV “
3 ÿ BV BV BV BV 1 2 3 du ` du ` du “ du 1 2 3 Bu Bu Bu Bu “1
(17.1)
Diese Darstellung des totalen Differentials kann man mit dem Spaltenvektor V , # der Ableitungen von V durch Erweiterung mit der Einheitsmatrix aus den Basisvektoren auch als Skalarprodukt zweier Vektoren ausdrücken. ˘T ˘T ˘T ` ˘T ` ` ` dV “ du# V , # “ du# E V , # “ du# g ¨ g# V , # #
˘ ´ ` BV BV BV ¯ “ du1 g1 ` du2 g2 ` du3 g3 ¨ g1 1 ` g2 2 ` g3 3 Bu Bu Bu Hierbei stellt der erste Faktor den kontravarianten Vektor des Wegelementes nach (14.7) dar und der zweite Faktor wird bezeichnet als Gradient grad V der skalaren Ortsfunktion V pu1 , u2 , u3 q, der gemäß der Regel (7.12) als kovarianter Vektor erscheint. Damit stellt das totale Differential der Ortsfunktion ein Skalarprodukt dar, das man nach (11.9) auch als Überschiebung der beiden Tensoren 1. Stufe dr und grad V deuten kann. dV “ dr ¨ grad V “ dr ¨ ∇V
17.1.2
(17.2)
Gradient und Nabla als kovariante Vektoren
Für die Bildung des Gradienten wurde von William Rowan Hamilton (1805 -1865) der symbolische Nabla-Vektor ∇ als Differentialoperator eingeführt.
333
17.1 Gradient skalarer Ortsfunktionen
Auf Grund dieser Definition des Gradienten kann man die Schreibweise (16.2) der partiellen Ableitung durch eine Darstellung mit Nabla erweitern, die bei Matrizen auf alle Elemente wirkt. ∇ x..y “
B x..y “ x..y, “ B x..y Bu
(17.3)
Nabla ist ein kovarianter Vektor, da sein Spaltenvektor ∇ # die partiellen Ableitungen als kovariante Komponenten zusammenfasst. ∇ x..y “ grad x..y “ g1
∇#
` # ˘T B x..y 2 B x..y 3 B x..y ∇ # x..y ` g ` g “ g Bu1 Bu2 Bu3
¨ ˛ ¨ ˛ ¨ ˛ ∇1 B{Bu1 B1 ˚ ‹ ˚ ‹ ˚ ‹ 2 “ ˝∇2 ‚ “ ˝B{Bu ‚ “ ˝B2 ‚ ∇3 B{Bu3 B3
(17.4)
In Nabla-Schreibweise können die kovarianten Grundvektoren gk nach (14.5) als Ortsvektorableitungen formuliert werden. g prq “ ∇ # r #
(17.5)
Der Gradient eines Skalars ist wie Nabla von Natur aus ein kovarianter Vektor, da er nur mit kovarianten Komponenten in Richtung der kontravarianten Basisvektoren in Erscheinung tritt. ˛ ¨ ¨ ˛ ∇1 V BV {Bu1 ` ˘T ˚ ` ˘T ‹ ` ˘T ˚ ‹ grad V “ ∇V “ g# ∇ # V “ g# ˝∇2 V ‚ “ g# ˝BV {Bu2 ‚ ∇3 V BV {Bu3 (17.6) Das totale Differential (17.2) einer skalaren Ortsfunktion stellt ein Skalarprodukt dar, das gebildet wird aus einem reziproken Vektorpaar mit den beiden Faktoren ‚ Wegelement dr
als kontravarianter Vektor (14.7)
‚ Gradient grad V
als kovarianter Vektor
334
17 Differentialoperationen
Dies ist ein weiteres Beispiel dafür, dass es in der Tensorrechnung sinnvoll ist, zwei reziproke Basissysteme zu verwenden, bei deren gemeinsamer Anwendung wichtige Beziehungen auf elegante Weise formuliert werden können.
17.1.3
Physikalische Deutung des Gradienten, Niveauflächen und Feldlinien
Eine skalare Ortsfunktion V pu1 , u2 , u3 q bildet im Raum ein skalares Feld. Auf bestimmten Flächen, sog. Niveauflächen, weist diese Funktion konstante Werte auf. Liegt das Wegelement dr in einer Niveaufläche V pu1 , u2 , u3 q “ const., auf der dV “ 0 gilt, so sind die Vektoren dr und grad V nach (17.2) in diesem Raumpunkt orthogonal, da ihr Skalarprodukt verschwindet. ‚ Der Gradient einer Ortsfunktion steht senkrecht auf ihren Niveauflächen!
(17.7)
Stellt der Einheitsvektor n die Normale der Niveaufläche dar, die in Richtung zunehmender Werte von V zeigt, so gilt grad V “ n | grad V |
n ~ grad V = v dr
V > V0 V < V0
P V = V0 = const.
Abb. 17.1: Ebene Darstellung der Niveaufläche einer skalaren Ortsfunktion Bei beliebigen Lagen von dr wird der Zuwachs der Funktion V dV “ dr ¨ grad V “ | dr | | grad V | cos α
335
17.1 Gradient skalarer Ortsfunktionen
in einem Raumpunkt am größten für α “ 0, so dass der Gradient in die Richtung der stärksten Zunahme von V weist. Er ist damit dem Normalenvektor proportional und steht senkrecht auf den Niveauflächen. In physikalischen Feldern existieren im Raum zwei Feldfunktionen • das Skalarfeld V pu1 , u2 , u3 q, dessen Niveauflächen bei Potentialfunktionen die Äquipotentialflächen bilden • das Vektorfeld vpu1 , u2 , u3 q “ grad V pu1 , u2 , u3 q, dessen Tangentenrichtungen die Strom- oder Feldlinien bilden Damit das Wegelement dr in die Tangentenrichtung des Vektorfeldes v weist, muss folgende Differentialgleichung für die Feldlinien gelten. dr Ò v
dr ˆ v “ dr ˆ grad V “ 0
ñ
(17.8)
Das führt mit der Γ-Matrix (6.25) auf die Beziehung ` ˘T # dr ˆ v “ pdu# qT g ˆ g v “ S # pdu# qT Γ# v# “ 0 #
#
pv 3 du2 ´ v 2 du3 q g1 ` pv 1 du3 ´ v 3 du1 q g2 ` pv 2 du1 ´ v 1 du2 q g3 “ 0 Da jede Komponente dieser Vektorgleichung für sich Null sein muss, erhält man das äquivalente Differentialgleichungssystem. du1 : du2 : du3 “ v 1 : v 2 : v 3
(17.9)
Mit den kovarianten Komponenten des Gradienten und (15.1) führt das auf folgende Differentialgleichungen, die nach Integration die Feldlinien liefert. ` ˘T ` ˘T v “ grad V “ g# ∇ # V “ g# v # v # “ G# v # “ G# ∇ # V vi g i1 ∇1 V ` g i2 ∇2 V ` g i3 ∇3 V dui “ k “ k1 k du v g ∇1 V ` g k2 ∇2 V ` g k3 ∇3 V
(17.10)
336
17 Differentialoperationen
Die graphische Darstellung von Niveau- und Feldlinien bildet ein Feldbild, das als Hilfsmittel dient, um einen anschaulichen Überblick über die Feldstruktur zu gewinnen. Leicht zu überblicken sind ebene oder rotationssymmetrische Felder, bei denen die Feldbilder in einer Ebene darstellbar sind. Dabei haben Feldlinien keine physikalische Realität, sondern geben als gedachte oder gezeichnete Verbindungslinien zwischen benachbarten Raumpunkten die Tangentenrichtung des Feldvektors oder der Feldstärke an. Die Feldlinien schneiden die Niveau- oder Äquipotentialflächen senkrecht, die mit gleichmäßigem Abstand dV dargestellt werden. Ein Maß für den Betrag der Feldstärke gewinnt man durch die Dichte der Feldlinien, wobei ein geringer Abstand eine hohe Feldstärke bedeutet. Für ein Feldbild zeichnet man einige der theoretisch unendlich vielen Feldlinien, die einen systematischen Abstand haben, so dass sich zwischen ihnen immer der gleiche Vektorfluss befindet, der in Abschnitt 19 definiert wird. Die Dichte der Feldlinien und damit der pro Volumeneinheit transportierte Fluss ist ein Maß für die Stärke des Feldes. Im dreidimensionalen Raum umschließt ein Bündel von Feldlinien schlauchartig eine Flussröhre, über deren Begrenzung kein Fluss ein- oder austreten kann. In Abbildung 17.2 ist beispielhaft ein ebenes Feldbild dargestellt, bei dem die Feldlinien des Vektorfeldes v “ grad V und die Niveauflächen des Skalarfeldes V “ const. ein Netz von orthogonalen Kurvenscharen bilden, die man auch als orthogonale Trajektorien bezeichnet, [8, II, S. 34].
17.1.4
Geometrische Deutung der kontravarianten Basisvektoren
Die kontravarianten Basisvektoren gi , die bisher nicht betrachtet wurden, lassen sich als Gradient der Koordinaten u# darstellen, denn wegen der Beziehung Bui {Buk “ δki bleibt in (17.4) jeweils nur ein Glied übrig. gi “ grad ui “ ∇ui
dui “ dr ¨ grad ui “ gi ¨ dr
(17.11)
Auf Grund der Reziprozitätsbedingung steht der kontravariante Basisvektor gi in einem Raumpunkt P pu1 , u2 , u3 q senkrecht auf den kovarianten
337
17.1 Gradient skalarer Ortsfunktionen
grad V V2 > V 1
Äquipotentialflächen
Feldlinien
V = V1 V = const. , dV = 0 Abb. 17.2: Orthogonale Scharen von Niveauflächen und Feldlinien Vektoren gj und gk , # gi “ grad ui
K
gj gk
pi, j, k zyklischq
die nach Abbildung 14.1 die Tangenten der Koordinatenlinien uj und uk bilden. gi steht damit gleichzeitig senkrecht auf einer Fläche ui “ const. und weist als Gradient in die Richtung der größten Zunahme der Koordinate ui . Die Darstellungen in Abbildung 17.3 zeigen die ko- und kontravarianten Basisvektoren und zum Vergleich noch einmal das krummlinige Koordinatensystem der Abbildung 14.1.
17.1.5
Skalare Ortsfunktion bei Basiswechsel
Betrachtet wird eine skalare Ortsfunktion V prq im alten und neuen Koordinatensystem u# “ u# pw# q, die identische Werte im gleichen Raumpunkt P pu1 , u2 , u3 q “ P pw1 , w2 , w3 q aufweist. Vˆ pw1 , w2 , w3 q ” V pu1 , u2 , u3 q
338
17 Differentialoperationen
g
r g
g
r
g g
g
Abb. 17.3: Kurvenscharen und Basisvektoren in krummlinigen Systemen Ihre Ableitungen in Richtung der neuen Koordinaten lauten 1 2 3 B Vˆ ˆ , ” V , “ BV “ BV Bu ` BV Bu ` BV Bu “ V Bu1 Bw Bu2 Bw Bu3 Bw Bw Bw
Bu1 Bu2 Bu3 V ` V ` V,3 , 1 , 2 Bw Bw Bw Fasst man die Ableitungen zu Spaltenvektoren zusammen, so folgt mit der Funktionalmatrix gemäß (14.3) und (17.4) ¨ ˛ ¨ ˛ ¨ ˛ Vˆ , 1 ∇1 Vˆ V ` # #˘ ˚ , 1‹ ˚ˆ ‹ ˚ ˆ‹ T ˆ V , # “ ˝V , 2 ‚ “ ˝∇2 V ‚ “ F u { w ˝V , 2 ‚ V,3 ∇3 Vˆ Vˆ , 3 “
der Zusammenhang der Funktionsableitungen in den Systemen als Matrixgleichung. ` ˘ ` ˘ ˆ , # prq “ ∇ # Vˆ “ FT u# { w# ∇ # V “ FT u# { w# V , # prq V (17.12)
339
17.2 Ableitung von Vektoren und Tensoren
Die Komponenten des Gradienten erfüllen bei Basiswechsel die Transformationsregel (9.20) für einen kovarianten Vektor gemäß Tabelle 8.1. Bei einer skalaren Ortsfunktion entsprechen die partiellen Ableitungen den weiter unten definierten kovarianten Ableitungen.
17.2
Ableitung von Vektoren und Tensoren
17.2.1
Partielle Ableitung der Vektorkomponenten
Leitet man die Komponenten eines beliebigen Vektors vprq in der Darstellung (15.1) ab, dann erhält man mit (16.12) Beziehungen, die die Ableitungen nach (17.3) durch die reziproken Komponenten ausdrücken. “ # ‰ Bv# # # G “ G#, v # ` G# v # , “ v prq “ ∇ v “ ∇ v # , Bu “ ‰ Bv # “ v # , prq “ ∇ v # “ ∇ G # v# “ G # , v# ` G # v#, Bu “ # ¨ # ` # ¨ # ˘T ‰ # v# v# , prq “ G v # , ´ G Γ # ` G Γ # (17.13) ¨# ¨# # v # , prq “ G # v#, ` Γ # G ` Γ# G
“
`
˘ ‰ # T
v#
Solche Darstellungen, die aus zwei oder mehr Anteilen bestehen, sind bei Ableitungen in krummlinigen Koordinatensystemen grundsätzlich zu erwarten, da sowohl Komponenten als auch Grundvektoren ortsabhängig sind und gemäß der Produktregel differenziert werden müssen. Beispiele dafür sind im Abschnitt 5.6 bei der Untersuchung von Raumkurven und der Bewegung von Punkten auf Bahnkurven bereits aufgetreten.
17.2.2
Partielle Ableitung von Vektoren, Vektorableitung
Die nach den kontravarianten Koordinaten gebildete partielle Ableitung des Vektors selbst, die Vektorableitung genannt wird, hat mit (17.3) die folgende
340
17 Differentialoperationen
kontravariante Komponentendarstellung. ‰ “ ` ˘T Bv “ v , “ ∇ v “ ∇ v # g # Bu “ ` # ˘T ‰ ` ˘T g ` v # ∇ g “ ∇ v #
“ v#, `
˘T
g
`
#
` v
˘ # T
g
#
#,
Ein ähnlicher Ausdruck ergibt sich für die kovarianten Komponenten und mit (16.7) und (16.9) erhält man die beiden Darstellungen der Vektorableitung, v , prq “ ∇ vprq “
“ ` # ˘ T ` # ˘T ¨ # ‰ v , ` v Γ# g
#
“` ˘ T ` ˘T ` ¨ # ˘ T ‰ # “ v#, ´ v# Γ# g
(17.14)
die selbst ein Vektor ist und nach diesen Beziehungen in Richtung der Basisvektoren zerlegt wird.
17.2.3
Kovariante Ableitung von Vektoren
Für die Komponenten der Vektorableitung wird eine abkürzende Schreibweise eingeführt, bei der die Operation der Ableitung durch eine Variable hinter einem senkrechten Strich gekennzeichnet wird.
v, “
“ ˇ ‰T “ ˇ ‰T Bv “ ∇ v “ v # ˇ g “ v # ˇ g # # Bu
(17.15)
Aus dem Vergleich der beiden letzten Beziehungen folgen unter Beachtung ˇ ˇ # ˇ ˇ der Transponierung die Komponenten v und v# der Vektorableitung. Man nennt sie die kovarianten Ableitungen eines Vektors in ko- und kontravarianter Komponentendarstellung, die sich aus den partiellen Ableitungen und Zusatzgliedern mit Christoffel-Symbolen zusammensetzen. Dabei bezieht sich die kovariante Ableitung nur auf die Komponenten und
17.2 Ableitung von Vektoren und Tensoren
341
nicht auf den Vektor selbst!
ˇ ` ¨ # ˘T # v# ˇ prq “ v#, ` Γ # v (17.16) ˇ ¨# v# ˇ prq “ v # , ´ Γ # v#
Die Vektorableitung lautet für beide Fälle mit den Elementen der Christoffel-Matrizen (16.15) ausführlich
”
` ˘ı v 1, ` v 1 Γ1 1 ` v 2 Γ2 1 ` v 3 Γ3 1 g1 ” ˘ı ` ` v 2, ` v 1 Γ1 2 ` v 2 Γ2 2 ` v 3 Γ3 2 g2 ” ` ˘ı ` v 3, ` v 1 Γ1 3 ` v 2 Γ2 3 ` v 3 Γ3 3 g3 ” ˘ı ` “ v1 , ´ v1 Γ1 1 ` v2 Γ1 2 ` v3 Γ1 3 g1 ” ˘ı ` ` v2 , ´ v1 Γ2 1 ` v2 Γ2 2 ` v3 Γ2 3 g2 ” ` ˘ı ` v3 , ´ v1 Γ3 1 ` v2 Γ3 2 ` v3 Γ3 3 g3
v , “ ∇ v “
Im Gegensatz zur partiellen Ableitung kann die kovariante Ableitung einer einzelnen Vektorkomponente nur berechnet werden, wenn auch alle anderen Komponenten bekannt sind! Durch Erweiterung mit der Einheitsmatrix kann die Vektorableitung auch als Skalarprodukt aus einem Tensor C und dem Vektor v dargestellt werden, woraus man den Tensorcharakter der kovarianten Ableitung erkennt. Auf Grund der Herleitung darf dabei der Operator ∇ des Tensors nur auf die Vektorkomponenten aber nicht auf dessen Basisvektoren
342
17 Differentialoperationen
einwirken! ` ˘T # ˇ ` ˘T ” # ` ¨ # ˘T # ı v, “ g v ˇ “ g v , ` Γ# v # # ` ¨ # ˘ T ı # ` ˘T # ` ˘T ” v “C ¨v g ¨ g E ∇ ` Γ # “ g # # looooooooooomooooooooooon “C# ¨#
ı ˇ ` ˘T ` ˘T ” ¨# v , “ g# v# ˇ “ g# v v#, ´ Γ# # ” ı ` ˘T ` ˘T ¨# g ¨ g# v # E ∇ ´ Γ # “ g# looooooooomooooooooon #
“ Cˆ ¨ v
¨#
ˆ “C #
17.2.4
Transformation der kovarianten Ableitungen
Um in den Beziehungen (17.16) die kovarianten Ableitungen auch in den reziproken Vektorkomponenten auszudrücken, wird die Umrechnung der Komponenten nach (15.1) eingesetzt und die Metrikmatrix als Skalarprodukt der Basisvektoren nach (14.25) dargestellt. ` ˘T v # “ G# v # “ g # ¨ g # v # ` ˘T # v v # “ G # v# “ g ¨ g #
#
Die kovariante Ableitung lautet mit den Christoffel-Symbolen nach (16.9) ˇ “ ‰ ` ¨ # ˘T # ` ˘T v# ˇ prq “ ∇ g# ¨ g# v # ` Γ # G v# ` ˘T ` ˘T v# “ g# ¨ g# v # ` g# ¨ g# ,
,
` ¨ # ˘T # ` G v#, ` Γ# G v# #
` ˘T ¨ # ` ¨ # ˘T # ` # ˘ T v # ´ g# ¨ g# Γ # “ ´ Γ# g ¨ g v# ` ¨ # ˘T # ` G# v # , ` Γ # G v# Eine entsprechende Rechnung kann man auch für die zweite Beziehung in (17.16) durchführen. In beiden Ausdrücken kompensieren sich das erste und letzte Glied, so dass nur die mittleren Glieder übrig bleiben.
343
17.2 Ableitung von Vektoren und Tensoren
Die Transformationsgesetze der kovarianten Ableitungen eines Vektors lauten damit genauso wie die Umrechnungen der Vektorkomponenten selbst. ˇ ˇ ‰ “ ¨# “ G# prq v# ˇ prq v# ˇ prq “ G# v # , prq ´ Γ # v # prq (17.17) ˇ ‰ “ ¨# # v# ˇ prq “ G # v#, prq ` Γ # v prq
ˇ “ G # prq v# ˇ prq
Das ist nicht überraschend sondern war zu erwarten, da ja die Vektorableitung von v einen Vektor w darstellt, “ ˇ ‰T w “ v , “ v# ˇ g
#
` ˘T “ w# g
#
ˇ ‰T ` ˘T “ v # ˇ g# “ w # g# “
dessen Komponenten w # und w# die Transformation nach (15.1) erfüllen!
17.2.5
Kovarianzmatrizen
Die einzelnen Vektorableitungen (17.15) werden zum Spaltenvektor zusammengefasst, wodurch gemäß Definition (17.4) der Nabla-Operator des Vektors entsteht. ˛ ¨` ˇ ˘ ˛ ¨` ˇ ˘T T #ˇ ¨ ˛ ¨ ˛ g v v# ˇ ∇1 v v,1 ˚` ˇ1 ˘T # ‹ ˚` ˇ1 ˘ ‹ ˚ ‹ ˚ ‹ ˚ ‹ T ∇ # v “ ˝∇2 v ‚ “ ˝v , 2 ‚ “ ˚ v# ˇ2 g ‹ “ ˚ v# ˇ ‹ g ˝` ˇ ˘ # ‚ ˝` ˇ2 ˘ ‚ # T T v,3 ∇3 v v# ˇ3 g v# ˇ3 # ¨` ˇ ˘T ˛ ¨` ˇ ˘ ˛ T v# ˇ1 g# v# ˇ1 ‹ ˚` ˇ ˘ ‹ ˚` ˇ ˘ T ‹ ˚ T # “ ˚ v# ˇ2 g# ‹ “ ˚ v# ˇ2 ‹ ˝ ‚g ‚ ˝` ˇ ˘ ` ˇ ˘T T v# ˇ3 g# v# ˇ3 ∇ #v “
´
ˇ ¯T V# ˇ # g
´ #
“
ˇ ¯T # V# ˇ# g
(17.18)
344
17 Differentialoperationen
ˇ Die beiden dabei entstehenden Matrizen heißen Kovarianzmatrizen V# ˇ # ˇ und V # ˇ # des Vektors v, die als Elemente die kovarianten Ableitungen (17.16) der Vektorkomponenten enthalten, wobei die Transponierung zu beachten ist.
ˇ V# ˇ #
ˇ ˇ ˛ ¨ 1 ˇˇ v 1 v 1 ˇ2 v 1 ˇ3 ˇ ˇ ‹ ˚ ˇ “ ˝v 2 ˇ1 v 2 ˇ2 v 2 ˇ3 ‚ ˇ ˇ ˇ v 3 ˇ1 v 3 ˇ2 v 3 ˇ3
ˇ V# ˇ#
ˇ ˇ ˛ ¨ ˇˇ v1 1 v1 ˇ2 v1 ˇ3 ˇ ˇ ‹ ˚ ˇ “ ˝v2 ˇ1 v2 ˇ2 v2 ˇ3 ‚ ˇ ˇ ˇ v3 ˇ1 v3 ˇ2 v3 ˇ3
(17.19) Wie bei Matrizen üblich bezeichnet der vordere Index, der für die Komponente steht, die Zeile und der hintere für die Ableitung nach dem senkrechten Strich die Spalte. Die Zusammenfassung der Spaltenvektoren (17.17) zu Kovarianzmatrizen ´ ˇ ˇ ˇ ˇ ¯ ´ ˇ ˇ ˇ ¯ V # ˇ # “ v # ˇ 1 , v # ˇ 2 , v # ˇ 3 “ G# v # ˇ 1 , G # v # ˇ 2 , G # v # ˇ 3 führt auf folgende Umrechnung, die formal derjenigen von Tensormatrizen mit Heben und Senken der Indizes entspricht. ˇ ˇ V # ˇ # “ G# V # ˇ #
17.2.6
ˇ ˇ V # ˇ # “ G # V# ˇ #
(17.20)
Totales Differential und absolute Differentiale
Das totale Differential eines Vektors wird in entsprechender Weise gebildet wie das Wegelement im Abschnitt 14.3.2, wobei für die Vektorableitungen die kovarianten Ableitungen (17.15) bzw. (17.18) eingesetzt werden. dv “
` # ˘T Bv Bv Bv 1 2 3 du ` du ` du “ du ∇ #v Bu1 Bu2 Bu3
Mit den Kovarianzmatrizen erhält man die beiden Darstellungen, ` ˘ T ´ # ˇ ¯T dv “ du# g V ˇ#
#
ˇ ¯T # ` ˘T ´ “ du# g V# ˇ#
345
17.2 Ableitung von Vektoren und Tensoren
aus denen sich das totale oder vollständige Differential des Vektors ergibt. ˘T ` ˘T ` ` ˘T # ˇ dv “ du# ∇ # v “ g Dv# V ˇ # du# “ g #
#
`
“ g
˘ # T
ˇ V# ˇ
du# “ g# `
#
˘T
(17.21)
Dv #
Die dabei auftretenden Spaltenvektoren Dv# und Dv # der Komponenten des totalen Differentials bilden die absoluten Differentiale der Vektorkomponenten, die mit den Kovarianzmatrizen gebildet werden.
ˇ Dv # “ V # ˇ # du#
ˇ Dv# “ V# ˇ # du#
(17.22)
Der Vergleich mit dem totalen Differential einer skalaren Ortsfunktion V prq nach (17.1) zeigt, dass beim absoluten Differential Dv k der Vektorkomponente v k an die Stelle der partiellen die kovariante Ableitung tritt.
DV ” dV “
ÿ
V , du
Dv k “
ÿ
ˇ v k ˇ du
(17.23)
Für totale und absolute Differentiale der kontravarianten Vektorkomponenten gelten nach (17.1), (17.2) und (17.16) die Beziehungen
dv k “
ÿ
v k, du “ dr ¨ grad v k (17.24)
Dv k “ dv k `
ÿ ÿ
p
Γpk v p du
Das absolute Differential Dv k einer einzelnen Vektorkomponente besteht aus dem totalen Differential dv k dieser Komponente und einer Doppelsumme aus Christoffel-Symbolen und allen Vektorkomponenten.
346
17 Differentialoperationen
17.2.7
Zweite Vektorableitung
Zur Berechnung der zweiten Vektorableitung des Vektors v wird die erste Ableitung (17.15) ` ˘T # ˇ v, “ g v ˇ # ` ˘ T ” # ` ¨ # ˘T # ı “ g v , ` Γ# v #
noch einmal nach der Koordinate um partiell abgeleitet. Mit den Basisvektoren nach (16.7) und (16.9) erhält man für die Darstellung mit kontravarianten Komponenten den folgenden umfangreichen Ausdruck mit einer entsprechenden Abkürzung. ` ˘ ` ˘T ” # ` ¨ # ˘T # ı v, ,m “ g v , ` Γ# v #,m ” ` ˘T # ` ¨ # ˘T # ı v , ` Γ# v ` g #
`
“
g
`
v,
˘ ,m
“
`
g
˘T `
¨# Γ# m
˘T ”
` ¨ # ˘ T # ` ¨ # ˘T # ı v,m v#, , m ` Γ # ,m v ` Γ#
#
`
` g
,m
#
˘T #
˘T ”
` ¨ # ˘T # ı v v#, ` Γ #
ˇ ˇ v# ˇ ˇ m
Die Komponenten der zweiten Vektorableitung stellen die zweifachen kovarianten Ableitungen des Vektors v dar, die in ko- und kontravarianter Form lauten ˇ ˇ v# ˇ ˇ m “
` ¨ # ˘T # ` ¨ # ˘T # v#, , m ` Γ # v ` Γ#m v, , m ”` ` ¨ # ¨ # ˘T ı # ¨ # ˘T ` Γ# ` Γ# Γ#m v ,m (17.25)
ˇ ˇ v# ˇ ˇ
m
“
¨# ¨# v# , , m ´ Γ # v# , m ´ Γ # m v# , ”` ı ¨# ˘ ¨# ¨# ´ Γ# ´ Γ Γ ,m #m # v#
347
17.2 Ableitung von Vektoren und Tensoren
17.2.8
Kovariante Ableitung von Tensoren, Tensorableitung
Für die Ableitung eines Tensors 2. Stufe erhält man aus (9.11) für die ko- und kontravarianten Komponenten nach der Produktregel jeweils drei Glieder.
”` ˘ ı ”` ˘ ı BT T ## # T # “ T “ ∇ T g T g g “ ∇ g , ## # # Bu ` ` ˘ ˘T ` # ˘T T T ## g# ` g# T ## , g# ` g# T ## g# “ g
,
,
˘T
`
“ g
#,
T ## g
˘T
`
#
` g
#
T ##, g
˘T
`
#
` g
#
T ## g
#,
Ersetzt man in der Tensorableitung T , die Ableitungen der Basisvektoren durch Christoffel-Symbole, dann erhält man einen Ausdruck, der selbst ein Tensor ist.
` # ˘T ” ` ¨ # ˘T ı # BT ¨# T ` T ´ T “ T “ g ´ Γ g Γ# , ## ## , ## # Bu ˇ ` ˘T “ g# T ## ˇ g# ı ` ˘T ” ` ¨ # ˘T ## ¨# Γ# T “ g ` T ##, ` T ## Γ # g #
˘T
`
“ g
#
ˇ T ## ˇ g
#
#
Aus dem Vergleich ergeben sich die kovarianten Ableitungen des Tensors 2. Stufe und entsprechende Formeln kann man auch für die gemischten
348
17 Differentialoperationen
Komponenten berechnen. ˇ ` ¨ # ˘T ¨# T ## ˇ “ ´ Γ # T ## ` T ## , ´ T ## Γ # ˇ ` ¨ # ˘T ## ¨# T ## ˇ “ ` Γ # T ` T ##, ` T ## Γ # (17.26) ˇ ¨# ¨# ¨# ¨# ¨# T #¨ # ˇ “ ´ Γ # T# ` T# , ` T# Γ# ˇ ` ¨ # ˘T ` ¨ # ˘T # T#¨ # ˇ “ ` Γ # T ¨ # ` T#¨ # , ´ T#¨ # Γ # Insgesamt lautet damit die Tensorableitung nach der Koordinate u in den verschiedenen Komponentendarstellungen T, “
ˇ # ` ˘T ## ˇ ` # ˘T BT ˇ g ˇ g “ g T T “ ∇ T “ g ## # # Bu ˇ ` ˘T # ˇ # ` ˘T T ¨# ˇ g “ g# T #¨ # ˇ g “ g #
(17.27)
#
Wie beim Vektor kann man auch beim Tensor die kovarianten Ableitungen durch die reziproken Komponenten ausdrücken. Dazu setzt man am Beispiel der kovarianten Tensorkomponenten die Umrechnungsbeziehung T ## “ G # T ## G # in die erste Beziehung (17.26) ein. Nach Ausführung der Ableitung der Metrikmatrix nach (16.12) im mittleren Glied erhält man einen Ausdruck mit sieben Summanden, von denen sich vier wegheben, so dass die folgende Darstellung übrig bleibt. ”` ı ˇ ¨ # ˘T ## ## ¨# ## T ## ˇ “ G # Γ # T ` T ` T Γ , # G# Sie gibt das Transformationsgesetz der kovarianten Ableitung eines Tensors für die kovarianten Komponenten an, was sich mit entsprechender
17.2 Ableitung von Vektoren und Tensoren
349
Rechnung auch für die anderen Komponenten nachweisen läßt. ˇ ˇ T ## ˇ “ G # T ## ˇ G #
(17.28)
Die Ergebnisse (17.17) und (17.28) zeigen, dass die kovarianten Ableitungen Tensoren 1. und 2. Stufe darstellen, da sie das tensorielle Transformationsgesetz der Komponenten von Vektoren und Tensoren erfüllen. Man kann deshalb die Tabellen 8.1 und 9.1 in sinngemäßer Weise auch für die Umrechnung der kovarianten Ableitungen von Vektoren und Tensoren 2. Stufe heranziehen! In entsprechender Weise wie beim Vektor wird auch die zweite Tensorableitung berechnet, die auf die zweifachen kovarianten Ableitungen der Tensorkomponenten führt. Da der Umfang erheblich ist, insbesondere, wenn man noch die ersten kovarianten Ableitungen ersetzt, wird nur die Beziehung für die kontravarianten Komponenten angegeben. `
T,
˘ ,m
` ˘T ## ˇ ˇ ˇ ˇ g# “ g T m #
ˇ ˇ T## ˇ ˇ m “
` `
`
¨# Γ# m
˘T
¨ # ˘T Γ# ,m
ˇ ˇ ¨# ## T ## ˇ ` T ## ˇ Γ # m ` T ,,m
(17.29)
` ¨ #˘ T## ` T## Γ # ,m
` ¨ # ˘T ## ¨# ` Γ# T , m ` T##, m Γ #
17.2.9
Kovariante Ableitung des Metriktensors, Lemma von Ricci
Der Metriktensor G prq besitzt nach Abschnitt 14.4.2 die kovariante Metrikmatrix G # prq, deren kovariante Ableitung nach (17.26) berechnet wird. Dabei gilt wegen gik “ gki für ein einzelnes Element ” ı ˇ gik ˇ “ ´ Γi1 g1k ` Γi2 g2k ` Γi3 g3k ` gik , ” ı ´ gi1 Γk1 ` gi2 Γk2 ` gi3 Γk3
350
17 Differentialoperationen
Die Summen führen mit (16.21) und (16.19) auf die Beziehung (A) im Abschnitt 16.4.4, so dass die kovarianten Ableitungen der Metrikkoeffizienten Null ergeben. ”ÿ ı ÿ ˇ gik ˇ “ gik , ´ Γiq gqk ` Γkq giq “ gik , ´ r gik , s “ 0 q
q
Für die gemischte Metrikmatrix erhält man ebenso ˇ ¨# ¨# ¨# ¨# ¨# ¨# ¨# E #¨# ˇ “ ´ Γ # E# ` E# , ` E# Γ# “ ´Γ# E ` 0 ` EΓ# “ 0 Mit dem Verschwinden der kovarianten Ableitung der Metrikmatrizen ist die Tensorableitung des Metriktensors Null, was als Lemma von Ricci bezeichnet wird. ˇ ˇ ˇ G# ˇ “ G# ˇ “ E ˇ “ 0
17.2.10
BG “ G , “ ∇ G “ 0 Bu
(17.30)
Kovariante Ableitung bei Basiswechsel
Für die forminvariante Vektor- und Tensorableitung nach (17.15) und (17.27) kann man mit der gleichen Methode wie in den Abschnitten 8.2 und 9.5.1 zeigen, dass folgende Umrechnungen gültig sind. ˇ ˇ v ˆ# ˇ “ Pv# ˇ
ˇ ˇ ˆ ## ˇ “ P T ## ˇ PT T
(17.31)
Die kovarianten Ableitungen weisen bei Basiswechsel also das gleiche Verhalten auf wie die Komponenten selbst und erfüllen die Transformationsgesetze für Tensoren der verschiedenen Stufen nach der allgemeinen Transformationsregel (9.20). Dadurch sind für Vektoren und Tensoren 2. Stufe die Tabellen 8.1 und 9.2 zur Umrechnung der kovarianten Ableitungen bei Basiswechsel in sinngemäßer Weise anwendbar.
17.2.11
Überblick über die Ableitungen
Für Skalarfunktionen sind partielle und kovariante Ableitung identisch, da kein Basisvektor als zweiter abzuleitender Faktor existiert! V, ” V |
17.2 Ableitung von Vektoren und Tensoren
351
Für Vektoren und Tensoren gilt diese Identität nicht mehr! Nach den Ergebnissen (17.15) und (17.27) stellt man fest, dass der Begriff der kovarianten Ableitung die Komponenten der Vektor- oder Tensorableitung bezeichnet, also der partiell abgeleiteten Vektoren oder Tensoren insgesamt, die jedoch nicht mit den Ableitungen der einzelnen Komponenten dieser Größen übereinstimmen. Die partielle Ableitung einer einzelnen Vektor- oder Tensorkomponente kann man bilden, wenn sie als Funktion der Koordinaten gegeben ist. Dagegen kann man nach (17.16) die kovariante Ableitung dieser Komponente nur dann berechnen, wenn auch alle anderen Komponenten bekannt sind! Die kovariante Ableitung umfasst zwar die partielle Ableitung, aber hinzu treten weitere Glieder mit Komponenten und Christoffel-Symbolen, so dass erst mehrere Summanden das Ergebnis bestimmen. Nach den durchgeführten Berechnungen besteht die kovariante Ableitung einer Vektorkomponente aus vier, die einer Tensorkomponente 2. Stufe aus sieben Summanden. Erinnert sei daran, dass nach Abschnitt 16.5.1 in geradlinigen Koordinatensystemen alle Christoffel-Symbole Null sind, wodurch in kartesischen Systemen die kovarianten Ableitungen der Komponenten mit den partiellen übereinstimmen! Als Zusammenfassung der Ableitungen ergeben sich exemplarisch die Darstellungen im folgenden Rahmen für die verschiedenen Ableitungen von Vektoren und Tensoren 2. Stufe. Die kovarianten Ableitungen der Komponenten von Tensoren bestimmter Stufe liefern wieder solche Tensorkomponenten. Das gilt hier zunächst für den euklidischen Raum, wird aber im Kapitel Flächentheorie des zweiten Bandes für nichteuklidische, Riemann’sche Räume verallgemeinert. Die kovariante Ableitung erfüllt die allgemeinen Regeln der Ableitung von skalarem Faktor, Summe und Produkt und geht in die gewöhnliche, partielle Differentiation im kartesischen Fall über. Da der Tensorcharakter der abgeleiteten Größen erhalten bleibt, stellt die kovariante Ableitung einen verallgemeinerten, vom jeweiligen Koordinatensystem losgelösten und daher absoluten Differentiationsprozess dar, der von Ricci in seinem absoluten Differentialkalkül (1884) entwickelt wurde.
352
17 Differentialoperationen
‚ partielle Ableitung der Komponenten v#, “ ∇ v# “
Bv# Bu
T ##, “ ∇ T ## “
BT ## Bu
‚ kovariante Ableitung der Komponenten ˇ ` ¨ # ˘T # v v# ˇ “ v#, ` Γ # ˇ ` ¨ # ˘T ## ¨# T ## ˇ “ Γ # T ` T ##, ` T ## Γ #
(17.32)
‚ partielle Ableitung von Vektor und Tensor, Vektor- bzw. Tensorableitung ` ˘T # ˇ Bv v ˇ v , “ ∇ v “ “ g # Bu ` ˘T ## ˇ BT ˇ g T , “ ∇ T “ “ g T # # Bu ‚ totale Ableitung von Vektoren ˘T ` ˘T ` ˘T # ˇ ` Dv# V ˇ # du# “ g dv “ du# ∇ # v “ g #
#
In einer Reihe von Büchern zur Tensorrechnung wird der umgekehrte Weg wie in der vorliegenden Darstellung eingeschlagen, indem die Suche nach einer Differentiationsvorschrift verfolgt wird, die die Ableitung von Tensorkomponenten als Größen darstellt, die das tensorielle Transformationsgesetz bei Basiswechsel erfüllen. Diese gesuchte Vorschrift ist die von Ricci entwickelte kovariante Ableitung, [1, S. 265].
17.3 17.3.1
Produkte mit Nabla-Vektor Zielsetzung
Nabla mit den Zeichen ∇ und ∇ ist der von William Rowan Hamilton eingeführte, von Peter Guthrie Tait weiterentwickelte und von Oliver
353
17.3 Produkte mit Nabla-Vektor
Heaviside in elektrodynamischer Theorie und mathematischer Physik eingesetzte Differentialoperator (17.4), der auf Tensoren verschiedener Stufen angewendet werden kann. Der Gradient war nach Definition (17.6) das erste Beispiel für die Anwendung von Nabla auf eine skalare Ortsfunktion. Als Differentiationsvorschrift muss der Nabla-Operator gemäß der Produktregel auf jeden ableitbaren Anteil einzeln angewendet werden, auf den Nabla insgesamt einwirkt. Das trat bei den partiellen Ableitungen von Vektoren und Tensoren bereits auf und wurde entsprechend ausgeführt. Im folgenden wird nicht nur eine Nabla-Komponente ∇ “ B{Bu als partielle Ableitung untersucht, sondern als weitergehende Operation wird Nabla als kompletter, symbolischer Vektor ∇ mit allen Komponenten auf Vektoren und Tensoren angewendet. Dabei werden auch Operationen untersucht, die in der Vektoranalysis nicht definiert sind wie die Gradientenbildung eines Vektors, die aber in der Tensorrechnung eine Verallgemeinerung erfahren. Bei den Gesamtableitungen mit dem Operator Nabla sind manche Komponentendarstellungen von Vektoren und Tensoren geeigneter als andere, weil man bestimmte Eigenschaften ausnutzen kann, worauf speziell hingewiesen wird.
17.3.2
Vektorgradient, Tensor der kovarianten Ableitungen
Das tensorielle Produkt aus Nabla-Operator und Vektor ist der Gradient des Vektors, der nach (17.4) und (17.15) lautet, Bv Bv Bv ` g2 2 ` g3 3 “ g1 v , 1 ` g2 v , 2 ` g3 v , 3 Bu1 Bu Bu ˛ ¨ ˛ ¨ v,1 ∇1 v ` ˘T ˚ ‹ ` ˘T ˚ ‹ ` ˘T “ g# ˝v , 2 ‚ “ g# ˝∇2 v ‚ “ g# ∇ # v ∇3 v v,3
∇v “ g1
und der durch ko- oder kontravariante Vektorkomponenten ausgedrückt werden kann. Mit (17.18) erhält man daraus die Darstellungen für ∇v mit den Kovarianzmatrizen (17.19). ` ˘T ` ˘ T ´ # ˇ ¯T ∇v “ g# ∇ # v “ g# V ˇ# g
#
ˇ ¯T ` ˘T ´ “ g# V # ˇ # g#
354
17 Differentialoperationen
Da die Elemente dieser Matrizen aus den kovarianten Ableitungen der Vektorkomponenten gebildet werden, die nach (17.31) das Transformationsgesetz für Tensoren erfüllen, stellt der Gradient des Vektors v einen Tensor 2. Stufe dar. Man nennt ihn Vektorgradient Grad v, den man mit großem Anfangsbuchstaben schreibt und der auch als Tensor K der kovarianten Ableitungen bezeichnet wird. ` ˘ T ´ # ˇ ¯T K “ Grad v “ ∇v “ g# V ˇ# g
#
` ˘T “ g# K ¨## g
#
ˇ ¯T ` ˘T ´ ` ˘T “ g# V # ˇ # g# “ g# K ## g# (17.33) Bei Berücksichtigung der Transponierung gilt für die Elemente der Tensorˇ matrizen Kik “ v k ˇi , wobei die Indizes i die Zeile und k die Spalte bezeichnen. Bei der Zerlegung des Vektorgradienten in die Symmetrieanteile K “ Ksym ` Kalt “ Ksym ` U kann der alternierende oder unsymmetrische Anteil U mit Hilfe des transponierten Tensors nach (10.6) und (11.17) ermittelt werden. Da sich die beiden Transponierungen p„q und pT q kompensieren, gilt für die kovarianten Komponenten ` ˘ “ ‰ # Ą “ g# T 2 U 2 U “ K ´ KĂ“ ∇v ´ ∇v ## g ´ 2 U ## “
ˇ ¯T ´ Č ˇ ¯T ´ ˇ ¯T ˇ ˇ ˇ V# # ´ V# # “ V# ˇ# ´ V# ˇ#
Für ein einzelnes Element folgt mit (17.16), da sich die Summen aufheben ÿ ÿ Γkpi vp ´ vi , k ` Γipk vp “ ´ 2 Uki 2 Uik “ vk |i ´ vi |k “ vk , i ´ p
2 Uik “ vk |i ´ vi |k “ vk , i ´ vi , k
p
Uik ´ Uki “ vk , i ´ vi , k
(17.34)
Die Differenz der kovarianten Komponentenableitungen eines Vektors reduziert sich wegen der Symmetriebeziehung (16.8) der ChristoffelSymbole auf die Differenz der partiellen Ableitungen.
355
17.3 Produkte mit Nabla-Vektor
Für die kontravarianten Komponenten existiert dagegen keine entsprechende Beziehung! Der unsymmetrische Anteil U des Vektorgradienten ist ein alternierender Tensor 2. Stufe, dessen kovariante Komponenten aus den Differenzen der partiellen Ableitungen der kovarianten Vektorkomponenten bestehen, die im Hinblick auf die Rotationsbildung (17.51) noch in abgekürzter Schreibweise mit pp, q, rq notiert werden. ˛ ¨ ˛ ¨ ˛ ¨ v2, 1 ´ v1, 2 r U12 ‹ ˚ ‹ ˚ ‹ ˚ 2 ˝ U23 ‚ “ ˝ v3, 2 ´ v2, 3 ‚ “ ˝ p ‚ q U31 v1, 3 ´ v3, 1 ¨
0
v2 , 1 ´ v1 , 2 v3 , 1 ´ v1 , 3
˚ 2 U ## “ ˝v1 , 2 ´ v2 , 1
0
˛
0
¨
‹ ˚ v3 , 2 ´ v2 , 3 ‚ “ ˝´ r
v1 , 3 ´ v3 , 1 v2 , 3 ´ v3 , 2
0
q
r
´q
0
˛
‹ p ‚
´p
0 (17.35)
17.3.3
Vektorgradient der Basisvektoren
Wendet man den Nabla-Vektor auf die kovarianten Basisvektoren an, so folgt für den Vektorgradienten wegen der Symmetriebeziehung (16.4) g k , “ ∇ gk “ g , k “ ∇k g ¨
∇ 1 gk
˛
¨
∇ k g1
˛
` ˘T ` ˘T ˚ ‹ ‹ ` ˘T ˚ ∇g k “ g# ∇ # gk “ g# ˝ ∇2 gk ‚ “ g# ˝ ∇k g2 ‚ ∇ k g3
∇ 3 gk ` ˘T “ g # ∇k g
#
` ˘T “ g# g
#,k
Mit (16.7) erhält man den Vektorgradienten der kovarianten Basisvektoren in gemischter Darstellung, wobei die Christoffel-Symbole als Komponentenmatrix des Tensors auftreten. ` ˘T Grad gk “ ∇gk “ g# g
#,k
` ˘T ¨ # “ g# Γ # k g
#
(17.36)
356
17 Differentialoperationen
Für die reziproken Basisvektoren ergibt sich folgende Darstellung, ¨ k ˛ g ,1 ` # ˘T ˚ k ‹ ` # ˘T k k ∇# g “ g ∇g “ g ˝ g ,2 ‚ gk, 3 Γ1k1
Γ1k2
Γ1k3
` ˘T ˚ k Γ “ ´ g# ˚ ˝ 12 Γ1k3
Γ2k2
‹ Γ2k3 ‹ g# ‚ Γ3k3
¨ ` ˘T “ g# gk
,#
Γ2k3
˛
aus der man gemäß (16.10) den Vektorgradienten der kontravarianten Basisvektoren in kovarianter Darstellung mit symmetrischer Komponentenmatrix aus Christoffel-Symbolen (s. 16.17) erhält. ` ˘T Grad gk “ ∇gk “ g# gk
,#
17.3.4
` ˘T k g# “ ´ g# Γ ##
(17.37)
Gradient von Tensoren 2. Stufe Tensorgradient
Der Gradient eines Tensors ist das tensorielle Produkt aus Nabla-Operator und Tensor, der Tensorgradient genannt wird. Mit (17.27) erhält man die folgende von vier möglichen Komponentendarstellungen. ` ˘T BT BT BT ` g2 2 ` g3 3 “ g# ∇ # T 1 Bu Bu Bu ˇ ˛ ¨ ˘T ` ¨ ˛ g# T ## ˇ 1 g# T,1 ˇ #‹ ‹ ` # ˘T ˚ ` ˘T ˚ ‹ ˚ ` # ˘T ˇ ‹“ g g T T “ g# ˚ ˚ , 2 ## 2 g ‹ ˝ ‚ ‚ ˝ ˇ # ` # ˘T ˇ T,3 T ## 3 g g
Grad T “ ∇T “ g1
` ˘T “ g#
ˇ T ## ˇ ` # ˘T .. 1 g ˝ . ˇ T ˇ ## 3
˝ g#
Der Gradient eines Tensors 2. Stufe ist ein Tensor 3. Stufe, hier dargestellt mit den kovarianten Ableitungen der kovarianten Tensorkomponenten.
357
17.3 Produkte mit Nabla-Vektor
Gemäß der erweiterten Matrixmultiplikation nach Abschnitt 3.8 für die transponierte Form der Blockmatrix und entsprechende Formeln mit anderen Tensorkomponenten gilt ` ˘T Grad T “ ∇T “ g# ∇ # T ¯T ˇ ` ˘T ` # ˘T ´ “ g# ˝ T ## ˇ p#q ˝ g# g
(17.38)
Wird der Gradient speziell auf den Tensor K der kovarianten Ableitungen des Vektors v angewendet, dann gilt nach (17.33) ˇ ¯T ` ˘T ´ K “ Grad v “ ∇v “ g# V # ˇ # g# ` ˘T “ g# K ## g# ` ˘ ` ˘ Grad K “ Grad Grad v “ ∇K “ ∇ ∇v ¯T ˇ ` ˘T ` # ˘ T ´ ˝ K ## ˇ p#q ˝ g# g “ g# ¯T ˇ K ## ˇ p#q sind die kovarianten Abˇ ˇ ˇ leitungen der Kovarianzmatrix (17.19), wodurch die Elemente Kik ˇ “ vk ˇi ˇ die doppelten kovarianten Ableitungen des Vektors v nach (17.25) darstellen. ˇ ˇ ˇ ˇ ˛ ¨ ˇˇ ˇˇ v1 1 v2 ˇ1 ˇ v3 ˇ1 ˇ ´ ˇ ˇ ˇ ˇ ‹ ˇ ˇ ˇ ¯T ˚ ˇ ˇ ˇ ˇ ˇ ˇ ˇ ˇ ‹ K ## ˇ “ V # ˇ # ˇ “˚ ˝ v1 2 v2 2 v3 2 ‚ ˇ ˇ ˇ ˇ ˇ ˇ v1 ˇ3 ˇ v2 ˇ3 ˇ v3 ˇ3 ˇ ´
Die Untermatrizen der Blockmatrix
Das totale oder vollständige Differential eines Tensors wird in entsprechender Weise wie beim Vektor gebildet mit den Tensorableitungen nach (17.27). Im Vergleich mit (17.38) erhält man die Summe aus drei Tensoren. ˘T ` BT BT BT du1 ` 2 du2 ` 3 du3 “ du# ∇# T 1 Bu Bu Bu ¯T ˇ ` # ˘T ` # ˘ T ´ g ˝ T ## ˇ p#q ˝ g# “ du
dT “
358
17 Differentialoperationen
ˇ Die skalaren Differentiale du# werden mit den Matrizen T ## ˇ p#q zusammengefasst, wodurch man die absoluten Differentiale der kovarianten Tensorkomponenten erhält. ` ˘T dT “ g# DT ## g#
DT ik “
ÿ
3 “1
ˇ T ik ˇ du
(17.39)
` ˘ Der skalare Operator a ¨ grad
17.3.5
` ˘ Der Operator a ¨ grad ist das Skalarprodukt aus Vektor und NablaOperator, der auf Tensoren beliebiger Stufe angewendet werden kann. `
˘ ` ˘T a ¨ grad “ a ¨ ∇ “ a# g
#
` ˘T ` ˘T ¨ g# ∇ # “ a# ∇ #
Ist der Vektor a speziell der kovariante Basisvektor gk , dann reduziert sich der letzte Ausdruck auf ein einziges Differential nach der entsprechenden Koordinate und man erhält folgende Beziehung, die (17.3) entspricht.
`
˘ B gk ¨ grad “ gk ¨ ∇ “ ∇k “ k Bu
(17.40)
Wendet man den skalaren Operator auf einen Vektor an, dann entsteht ein neuer Vektor, der mit den Ergebnissen des Vektorgradienten nach (17.33) folgende Darstellung hat. ` ˘ w “ a ¨ grad v “ a ¨ Grad v ` ˘ T ´ # ˇ ¯T V ˇ# g “ a#
#
` ˘T “ a# K ¨## g
#
(17.41)
ˇ ¯T ` ˘T ´ ` ˘T “ a# V # ˇ # g# “ a# K ## g# Die Komponenten dieses Vektors werden berechnet mit den Kovarianzmatrizen (17.19) der kovarianten Ableitungen. Da es keine besonderen Vereinfachungen gibt, sind nach (17.16) alle 36 Summanden tatsächlich vorhanden, und jede Komponente von w wird aus zwölf Gliedern gebildet.
17.3 Produkte mit Nabla-Vektor
359
Die Anwendung des skalaren Operators auf einen Tensor führt zu einem neuen Tensor und mit (17.38) erhält man folgendes Ergebnis. ` ˘ W “ a ¨ grad T “ a ¨ Grad T ˇ ˘T ` ˘T ` # ˘T ` ˝ T ## ˇ # ˝ g# g “ a#
17.3.6
(17.42)
Gradientenbildung und Richtungsableitung
Der in der Differentialrechnung für skalare Ortsfunktion V prq definierte Begriff des totalen Differentials führte durch geeignete Erweiterung und Interpretation auf den Begriff des Gradienten und die Darstellung (17.2). dV “ dr ¨ grad V “ dr ¨ ∇V Die Bildung des totalen Differentials von Vektoren und Tensoren, das man zur Abgrenzung besser vollständiges Differential nennen sollte, wird im Tensorkalkül verallgemeinert und für alle Größen in gleicher Weise definiert. Nach Abschnitt 17.2.5 wird das Differential dv eines Vektors vprq durch Erweiterung mit den reziproken Basisvektoren als Skalarprodukt dargestellt und führt auf die Definition des Vektorgradienten (17.33). ` ˘ ´ Bv Bv Bv ¯ dv “ g1 du1 ` g2 du2 ` g3 du3 ¨ g1 1 ` g2 2 ` g3 3 Bu Bu Bu “ dr ¨ Grad v “ dr ¨ ∇v Entsprechend wurde auch das vollständige Differential eines Tensor 2. Stufe definiert. Insgesamt ergeben sich damit die Darstellungen der vollständigen Differentiale in gleicher formaler Weise. dV “ dr ¨ ∇V “ dr ¨ grad V dv “ dr ¨ ∇v “ dr ¨ Grad v
(17.43)
dT “ dr ¨ ∇T “ dr ¨ Grad T Das Ergebnis der Anwendung des Nabla-Operators auf eine Größe zeigt, dass die Bildung des Gradienten die Stufe des Ergebnistensors um
360
17 Differentialoperationen
Eins erhöht, wodurch in den Komponenten ein zusätzlicher kovarianter Index auftritt. Skalar V
Ñ
Vektor
v “ ∇V “ grad V
Vektor v
Ñ
Tensor
T “ ∇v “ Grad v
Tensor T
Ñ
Tensor
Tp3q “ ∇T “ Grad T
(17.44)
Zerlegt man in (17.43) das Wegelement dr “ t dr in einem Raumpunkt in seinen Betrag dr und den zugehörigen Einheitsvektor t, dann kann die Änderung in Richtung des Wegelementes auch als Richtungsableitung der Ortsfunktionen geschrieben werden, bei der der skalare Operator des letzten Abschnitts auftritt. ` ˘ dV “ t ¨ grad V “ t ¨ ∇ V dr ` ˘ dv “ t ¨ Grad v “ t ¨ ∇ v dr ` ˘ dT “ t ¨ Grad T “ t ¨ ∇ T dr
(17.45)
Bei der Behandlung von Richtungsableitungen erscheint in der Literatur mitunter im Nenner des Differentials ein Vektor. Diese Art der Darstellung ist deshalb keine gute Wahl und höchstens symbolisch zu verstehen, da die Division durch einen Vektor nicht definiert ist!
17.3.7
Divergenz von Vektoren
Bildet man das Skalarprodukt aus Nabla-Vektor und Vektor, so entsteht eine Skalarfunktion, die Divergenz des Vektors heißt. Wie die Herleitung in Abschnitt 17.3.2 zeigt, entspricht die Divergenzbildung der Verjüngung des Vektorgradienten, bei der nach Abschnitt 11.4.3 nur dessen symmetrischer Anteil Ksym einen Beitrag liefert. ˇ ¯T ` ˘T ` ˘T ´ div v “ ∇ ¨ v “ g# ¨ ∇ # v “ g# ¨ V# ˇ # g
#
361
17.3 Produkte mit Nabla-Vektor
Die Divergenz wird wegen der Reziprozität der Basisvektoren nach (10.2) durch die Spur der Kovarianzmatrix (17.19) gebildet. ÿ ˇ div v “ ∇ ¨ v “ sp V# ˇ # “
3 k“1
ˇ v k ˇk
(17.46)
Die ausführliche Darstellung der Divergenz eines Vektors lautet nach (17.16) div v “
˘‰ ` v 1, 1 ` v 1 Γ111 ` v 2 Γ211 ` v 3 Γ311 ` “ ˘‰ ` v 2, 2 ` v 1 Γ122 ` v 2 Γ222 ` v 3 Γ322 ` “ ˘‰ ` v 3, 3 ` v 1 Γ133 ` v 2 Γ233 ` v 3 Γ333 “
Mit (16.23) kann man dafür einen kompakten Ausdruck angeben. `? ˘ 3 3 3 3 3 3 ÿ ÿ ÿ ÿ ÿ ÿ g ,p ˇ v k ˇk “ v k, k ` vp Γpkk “ v k, k ` vp ? g p“1 p“1 k“1 k“1 k“1 k“1 1 ÿ 3 `? k ˘ div v “ ? g v ,k k“1 g
(17.47)
Zum besseren Verständnis und zum Vergleich wird auch die direkte Berechnung der Divergenz durchgeführt. Wegen der Bildung des Skalarproduktes ist die Vektordarstellung mit kontravarianten Komponenten geeignet, da man dann die Reziprozitätsbedingung der Basisvektoren ausnutzen kann. Um dabei den Differentialoperator ∇ # auf beide Anteile im Produkt anzuwenden, werden im zweiten Summanden wegen der Nichtkommutativität der Matrizen die Faktoren des Skalarproduktes unter Beachtung der Transponierungsregel vertauscht, damit die Reihenfolge der Basisvektoren erhalten bleibt. ∇¨v “
“ ` # ˘T ‰ “ ` ˘T g ∇ # ¨ v# g
‰ #
“ ` ˘T ‰ “ ` ˘T # ‰ v “ g# ∇ # ¨ g # ` ˘T ” ` ˘T ” ` ˘T ı ` ˘T ı # “ g# ¨ ∇ # v# g ` g# ¨ ∇ # g v #
#
362
17 Differentialoperationen
Die dyadischen Produkte in den eckigen Klammern stellen folgende Matrizen mit skalaren bzw. vektoriellen Elementen dar. Die Matrix im ersten Summanden enthält die partiellen Ableitungen der Vektorkomponenten. ¨
∇1
˛
¨
v 1, 1 v 2, 1 v 3, 1
˛
´ ¯T ` ˘T ˚ ˘ ˚ ‹` ‹ ∇ # v# “ ˝ ∇2 ‚ v 1 , v 2 , v 3 “ ˝ v 1, 2 v 2, 2 v 3, 2 ‚ “ V #, # ∇3
v 1, 3 v 2, 3 v 3, 3
Die zweite Matrix entspricht der symmetrischen H-Matrix (16.18), bei der jedes Element aus drei Summanden mit Christoffel-Symbolen besteht. ¨
∇1
˛
¨
g1, 1 g1, 2 g1, 3
˛
` ˘T ˚ ˘ ˚ ‹` ‹ “ ˝ ∇2 ‚ g1 , g2 , g3 “ ˝ g1, 2 g2, 2 g2, 3 ‚ “ H ## ∇# g #
∇3
g1, 3 g2, 3 g3, 3
In den Skalarprodukten der Divergenz ∇ ¨ v bilden die rechten Faktoren Spaltenvektoren mit vektoriellen Elementen. ` ˘T Bei der anschließenden Skalarproduktbildung mit dem linken Faktor g #
reduziert die Reziprozitätsbedingung die Anzahl der Summanden. Aus der ersten Matrix bleiben nur die Diagonalglieder übrig. In der zweiten Matrix sind nach Einsetzen von g
#,
¨# “ Γ# g
#
nach (16.7) von den 27 Summanden nur neun von Null verschieden, so dass man für die Divergenz das gleiche Ergebnis wie bei der ersten Berechnung erhält.
17.3.8
Divergenz von Tensoren 2. Stufe
Die Divergenz eines Tensors wird gebildet durch das Skalarprodukt aus Nabla-Operator und Tensor und stellt die Verjüngung des Tensorgradienten dar. Dabei vermindert sich die Tensorstufe von drei auf eins, so dass durch die Divergenzbildung ein Vektor entsteht. Die Berechnung wird für die kontravarianten Tensorkomponenten T## durchgeführt, so dass die Reziprozitätsbedingung ausgenutzt werden kann und der entstehende Vektor mit kontravarianten Komponenten auftritt.
363
17.3 Produkte mit Nabla-Vektor
Die normale Verjüngung von ∇T führt mit (17.27) zur gewöhnlichen Divergenz. ` ˘T BT BT BT ` g2 ¨ 2 ` g3 ¨ 3 “ g# ¨ ∇ # T 1 Bu Bu Bu ˇ ‰ ˘ “ ` T “ g1 ¨ g T## ˇ1 g # # “ ` ˘T ## ˇ ‰ 2 ˇ T g `g ¨ g 2 # # “ ` ˘T ## ˇ ‰ 3 ˇ T g `g ¨ g 3
div T “ ∇ ¨ T “ g1 ¨
#
#
Die gewöhnliche Divergenz besteht aus den kovarianten Ableitungen der Tensorkomponenten, wobei deren transponierte Indizierung zu beachten ist! Diese Darstellung gilt nach (17.27) in entsprechender Weise für andere Tensorkomponenten, wobei auch Metrikkoeffizienten auftreten können.
div T “ ∇ ¨ T “
3 ÿ 3 ÿ
ˇ T pk ˇp gk “
k“1 p“1
ˇ ˇ ˇ ‰ T 11 ˇ1 ` T 21 ˇ2 ` T 31 ˇ3 g1 ˇ ˇ ˇ ‰ “ ` T 12 ˇ1 ` T 22 ˇ2 ` T 32 ˇ3 g2 ˇ ˇ ˇ ‰ “ ` T 13 ˇ1 ` T 23 ˇ2 ` T 33 ˇ3 g3 “
(17.48) Da das Skalarprodukt mit einem Tensor nach Abschnitt 10.3.2 nicht kommutativ ist, existiert noch eine zweite alternative Divergenz, bei der die Faktoren der Verjüngung vertauscht sind. Diese Divergenz erhält die Be˚
zeichnung div . Der Nabla-Operator steht dann rechts, da er aber die Differentiation des Tensors bewirken soll, erhält er als Ornament einen Pfeil nach links. Als zweite Möglichkeit kann man die Skalarfaktoren vertauschen und gemäß (10.5) den normalen Nabla-Operator auf den transponierten Tensor anwenden. ˚
Ð
Ă “ g1 ¨ div T “ T ¨ ∇ “ ∇ ¨ T
Ă Ă Ă BT BT BT ` g2 ¨ 2 ` g3 ¨ 3 1 Bu Bu Bu
Die alternative Divergenz besteht aus den kovarianten Ableitungen der Tensorkomponenten, deren Indizierung wegen der Transponierung die normale
364
17 Differentialoperationen
Anordnung aufweist. ˚
Ă“ div T “ ∇ ¨ T
3 ÿ 3 ÿ
ˇ T kp ˇp gk “
k“1 p“1
ˇ ˇ ˇ ‰ T 11 ˇ1 ` T 12 ˇ2 ` T 13 ˇ3 g1 ˇ ˇ ˇ ‰ “ ` T 21 ˇ1 ` T 22 ˇ2 ` T 23 ˇ3 g2 ˇ ˇ ˇ ‰ “ ` T 31 ˇ1 ` T 32 ˇ2 ` T 33 ˇ3 g3 “
(17.49)
17.3.9
Differentialoperationen des Metriktensors
ˇ Nach dem Lemma von Ricci (17.30) sind die kovarianten Ableitungen G # ˇ ˇ und G # ˇ der Metrikmatrizen und damit die Tensorableitungen G , Null, so dass als Folge davon sowohl der Gradient als auch beide Divergenzen des Metriktensors verschwinden. Grad G prq “ ∇ G “ 0 (17.50) ˚
Ð
div G prq “ ∇ ¨ G “ div G prq “ G ¨ ∇ “ 0
17.3.10
Rotation von Vektoren
Bei Bildung des Kreuzproduktes aus Nabla-Vektor und Vektor entsteht ein Vektor, der Rotation des Ausgangsvektors heißt. Die Vorgehensweise entspricht derjenigen bei der Berechnung der Divergenz. ` ˘T rot v “ ∇ ˆ v “ g# ˆ ∇ # v Allerdings erweist es sich in diesem Fall als günstiger, den Vektor mit kovarianten Komponenten darzustellen. Um den Differentialoperator ∇ # auf beide Anteile im Produkt anzuwenden, müssen wie bei der Divergenz die Faktoren des Skalarproduktes unter
365
17.3 Produkte mit Nabla-Vektor
Beachtung der Transponierungsregel vertauscht werden. ` ˘T ‰ “ ` ˘T rot v “ g# ˆ ∇ # v # g# ‰ “ ` ˘T ` ˘T “ g# ˆ ∇ # g# v # ` ˘T ” ` ˘T ı # ` # ˘T ” ` ˘T ı “ g# ˆ ∇ # v # ˆ ∇ # g# g ` g v# In den eckigen Klammern treten entsprechende dyadische Produkte auf wie bei der Divergenz. Für den Vektor s des ersten Summanden gilt mit (6.25) ¨
v1, 1 v2, 1 v3, 1
˛
¯T ` ˘T ´ ` ˘T ˚ ‹ s “ g# ˆ ˝ v1, 2 v2, 2 v3, 2 ‚ g# “ g# ˆ V # , # g# v1, 3 v2, 3 v3, 3 “S
“ #
pv3, 2 ´ v2, 3 q g1 ` pv1, 3 ´ v3, 1 q g2 ` pv2, 1 ´ v1, 2 q g3
‰
Im zweiten Summanden sind alle Elemente des Zeilenvektors zT mit vektoriellen Elementen auf Grund der Beziehung (16.11) Null, ¨
g1, 1 g2, 1 g3, 1
˛
` ˘T ˚ ` ˘T ` ˘T ‹ “ g# ˆ ˝ g1, 2 g2, 2 g3, 2 ‚ zT “ g # ˆ ∇ # g # g1, 3 g2, 3 g3, 3 ´ “
g1 ˆ g1, 1 ` g2 ˆ g1, 2 ` g3 ˆ g1, 3 , . . . . . . , g1 ˆ g3, 1 ` g2 ˆ g3, 2 ` g3 ˆ g3, 3
¯ “ 0
so dass für die Rotation nur der erste Anteil s übrig bleibt. Mit den Größen des ε -Tensors nach (11.27) bzw. (11.30) 1 ε# “ S # “ ? g
sowie
εijk “ ˘ ε#
kann man die Rotation in Komponenten und den Abkürzungen aus (17.35) oder unter Berücksichtigung der Ableitungsoperation ∇i vj “ vj , i auch als
366
17 Differentialoperationen
formale Determinante darstellen. “ ‰ rot v “ S # pv3, 2 ´ v2, 3 q g1 ` pv1, 3 ´ v3, 1 q g2 ` pv2, 1 ´ v1, 2 q g3 “ ‰ “ S # p g1 ` q g2 ` r g3 g1 g2 g3 1 rot v “ ∇ ˆ v “ ? ∇1 ∇2 ∇3 g v v v 1 2 3
(17.51)
In der Summenform lautet der Rotationsvektor unter Verwendung des ε -Tensors oder des unsymmetrischen Anteils U des Vektorgradienten K in (17.33) ÿ ÿ ÿ ÿ ÿ ÿ εijk vj , i gk “ εijk Uij gk rot v “ i
j
k
i
j
k
und seine kontravarianten Komponenten haben folgende Gestalt. `
rot v
˘k
“
ÿ ÿ i
j
εijk vj , i “
ÿ ÿ j
k
1 εijk Uij “ ? pvj, i ´ vi, j q g
(17.52) Mit Hilfe der Tensoren U bzw. ε kann man die Bildung des Kreuzproduktes vermeiden und den Differentialoperator Rotation in Tensorform algebraisch ausdrücken. Da die Rotation mit den kovarianten Vektorkomponenten gebildet wird, muss man diese, falls sie noch nicht zur Verfügung stehen, zunächst gemäß den Gleichungen (15.1) und (17.13) aus den kontravarianten Komponenten berechnen. Für das totale Differential eines Vektors v ergibt sich neben den Darstellungen (17.21) und (17.43) noch ein weiterer Ausdruck, bei dem die Rotation auftritt. Zerlegt man den Vektorgradienten (17.33) in seinen symmetrischen und alternierenden Anteil, dv “ dr ¨ Grad v “ dr ¨ K “ dr ¨ Ksym ` dr ¨ U dann kann der unsymmetrische Anteil U durch die Rotation des Vektors ausgedrückt werden. 2 dr ¨ U “ rot v ˆ dr
dv “ dr ¨ Ksym `
1 rot v ˆ dr 2
(17.53)
367
17.4 Zusammengesetzte Argumente
17.4
Operationen bei zusammengesetzten Argumenten
Die Anwendung der Differentialoperatoren auf Produkte von skalaren und vektoriellen Größen kann in formaler Weise durchgeführt werden, ohne die Komponentendarstellungen zu verwenden. Bei Nichtvertauschbarkeit wird der Faktor, auf den der Nabla-Vektor anzuwenden ist, zur eindeutigen Markierung durch einen senkrechten Pfeil als Ornament gekennzeichnet.
17.4.1
Gradient von Produkten
Beim Produkt aus zwei skalaren Ortsfunktionen kann die Rechnung einfach ausgeführt werden, da keine Reihenfolge einzuhalten ist. ` ˘ ` ˘ grad U V “ ∇ U V “ V ∇U ` U ∇V
` ˘ grad U V “ U grad V ` V grad U
(17.54)
Um den Gradienten vom Skalarprodukt zweier Vektoren zu bilden, werden folgende Ausdrücke betrachtet und der Entwicklungssatz (5.8) angewendet. ` ˘ ` Ó˘ ` ˘ Ó a ˆ rot v “ a ˆ ∇ ˆ v “ ∇ a ¨ v ´ a ¨ ∇ v ˘ Ó ` ˘ ` Ó ˘ ` v ˆ rot a “ v ˆ ∇ ˆ a “ ∇ v ¨ a ´ v ¨ ∇ a Die Summe beider Ausdrücke liefert das gesuchte Ergebnis, wenn man die beiden Gradienten zusammenfasst. ` ˘ ` ˘ ` Ó ˘ ` Ó˘ ∇ a ¨ v ` ∇ a ¨ v “ ∇ a ¨ v “ grad a ¨ v
` ˘ ` ˘ ` ˘ grad a ¨ v “ a ¨ grad v ` v ¨ grad a ` a ˆ rot v ` v ˆ rot a (17.55)
368
17.4.2
17 Differentialoperationen
Divergenz von Produkten
Die Divergenz von Skalar mal Vektor läßt sich ebenfalls leicht ausführen. ` ˘ ` ˘ ` ˘ div V a “ ∇ ¨ V a “ ∇V ¨ a ` V ∇ ¨ a ` ˘ div V a “ V div a ` a ¨ grad V
(17.56)
Die Divergenz eines Kreuzproduktes wird unter Anwendung des Spatproduktes (5.7) berechnet. ` ˘ ` Ó ˘ ` ` ˘ ` ˘ Ó ˘ div a ˆ v “ ∇ ¨ a ˆv ` ∇ ¨ aˆ v “ ∇ ˆ a ¨ v ´ ∇ ˆ v ¨ a ` ˘ div a ˆ v “ v ¨ rot a ´ a ¨ rot v
(17.57)
Die Divergenz von Skalar mal Tensor kann gemäß Abschnitt 17.3.8 ausgeführt werden. ` ˘ j „ ÿ 3 3 3 ÿ ` ˘ ÿ BV k k B VT k BT ¨T g ¨ “ V g ¨ ` g div V T “ k k k Bu Bu Bu k“1 k“1 k“1 ` ˘ div V T “ V div T ` grad V ¨ T
17.4.3
(17.58)
Rotation von Produkten
Die Rotation von Skalar mal Vektor wird ähnlich wie bei der Divergenz durchgeführt. ` ˘ ` ˘ ` ˘ rot V a “ ∇ ˆ V a “ ∇V ˆ a ` V ∇ ˆ a ` ˘ rot V a “ V rot a ´ a ˆ grad V
(17.59)
Die Rotation eines Kreuzproduktes wird unter Anwendung des Entwicklungssatzes berechnet. ` ` ˘ ` Ó ˘ Ó ˘ rot a ˆ v “ ∇ ˆ aˆ v ´ ∇ ˆ vˆ a ` ˘ Ó ` ˘ Ó ` ` Ó ˘ Ó ˘ “ a ∇¨ v ´ a ¨ ∇ v ´ v ∇¨ a ` v ¨ ∇ a
17.5 Mehrfachprodukte mit Nabla-Vektor
` ˘ ` ˘ ` ˘ rot a ˆ v “ a div v ´ v div a ` v ¨ grad a ´ a ¨ grad v
17.5 17.5.1
369
(17.60)
Mehrfachprodukte mit Nabla-Vektor Zweistufiger Ableitungstensor
Das tensorielle Produkt des Nabla-Vektors (17.4) mit sich selbst führt auf den zweistufigen symmetrischen Ableitungstensor T pBq , der in der Taylor’schen Formel im Abschnitt 13.3 auftrat. ` ˘T ” ` ˘T ı # ` # ˘T ” pBq ı # (17.61) ∇# ∇# g “ g T ## g ∇ ∇ “ T pBq “ g# pBq
pBq
Das einzelne kovariante Element lautet T ik “ ∇i ∇k und die Matrix T ## ist in (13.15) für den allgemeinen Fall angegeben.
17.5.2
Identisch verschwindende Produkte
Die Anwendung von zwei Differentialoperatoren auf Skalare oder Vektoren bietet nur in fünf Fällen sinnvolle Kombinationen. Dabei wird der NablaOperator formal als Vektor gedeutet. Zwei der fünf Kombinationen sind grundsätzlich Null. Die erste identisch verschwindende Verknüpfung lautet ` ˘ rot grad V “ ∇ ˆ ∇V ” 0
(17.62)
Das Ergebnis ist dadurch plausibel, weil das Kreuzprodukt von zwei gleichgerichteten Vektoren stets Null ist. Das folgt aber ebenso aus der verschwindenden Determinante nach (17.51), da die gemischten Ableitungen gleich sind, z.B. ` ` ˘ ˘ B ´ BV ¯ B ´ BV ¯ ´ 3 “0 ∇2 ∇3 V ´ ∇3 ∇ 2 V “ 2 Bu Bu3 Bu Bu2 g1 g2 g3 rot grad V “ S # ∇1 ∇2 ∇3 “ 0 ∇1 V ∇2 V ∇3 V
370
17 Differentialoperationen
Die zweite Kombination verschwindet identisch, da ein Spatprodukt mit zwei gleichen Vektoren stets Null ist. ` ˘ div rot v “ ∇ ¨ ∇ ˆ v ” 0
17.5.3
(17.63)
Laplace-Operator
Eine besonders wichtige Kombination stellt das Skalarprodukt des NablaVektors mit sich selbst dar, was der Verjüngung des Ableitungstensors (17.61) entspricht. Dadurch entsteht der Laplace-Operator, der mit dem Zeichen Delta geschrieben wird. Δ “ div grad “ ∇ ¨ ∇ “ ∇2
(17.64)
Die Anwendung des Laplace-Operators auf skalare Ortsfunktionen führt auf drei wichtige und häufig auftretende Differentialgleichungen der mathematischen Physik, die man nach den drei Gelehrten Pierre Simon Laplace (1749 -1827), Siméon Denis Poisson (1781-1840) und Hermann (von) Helmholtz (1821-1894) als Laplace-Gleichung, Poisson-Gleichung und Helmholtz-Gleichung bezeichnet und die im zweiten Band noch ausführlich untersucht werden. Zur Berechnung des Laplace-Operators bildet man nach (17.4) den Vektor, ` ˘T ` ˘T v “ grad V “ g# ∇ # V “ g# v # dessen Divergenz nach (17.46) als Verjüngung des Vektorgradienten von v durch die Spur der Kovarianzmatrix gebildet wird. Damit lautet der Laplace-Operator formal ΔV “ div grad V “ div v “ ∇ ¨ v “ sp V# | # “
3 ÿ
v k |k
k“1
Da der Gradient ein kovarianter Vektor ist, der mit kovarianten Komponenten auftritt, müssen die Elemente der Kovarianzmatrix (17.19) umgerechnet werden. Nach (17.17) gilt für deren Elemente, “ ‰ ¨# v # | “ G# v # | “ G# v # , ´ Γ # v#
17.5 Mehrfachprodukte mit Nabla-Vektor
371
so dass die Summanden des Laplace-Operators folgendermaßen aufgebaut sind, vk | k “
3 ÿ
3 ” ı ÿ g kp vp , k ´ Γpqk vq
p“1
q“1
die ihrerseits aus den ersten und zweiten partiellen Ableitungen der skalaren Ortsfunktion V gebildet werden. ˘ ` BV B2 V , v “ ∇ V “ “ vk , p ∇ p p , k k Bup Buk Bup Der Laplace-Operator lautet damit insgesamt v p “ ∇p V “
ΔV “
3 3 ÿ ÿ k“1 p“1
„ g
kp
j 3 ÿ B2 V q BV ´ Γp k Buq Buk Bup q“1
(17.65)
Ein spezieller Fall ist die Anwendung des Laplace-Operators auf das Produkt zweier skalarer Ortsfunktionen. Mit den Beziehungen (17.54) und (17.56) erhält man folgendes Ergebnis. ` ˘ Δ U V “ U ΔV ` V ΔU ` 2 grad U grad V
17.5.4
(17.66)
Vektor-Laplace-Operator
Für die Anwendung des Laplace-Operators auf Vektoren geht man aus von der doppelten Rotation eines Vektors und erhält mit dem Entwicklungssatz die folgende Beziehung. ` ˘ ` ˘ ` ˘ rot rot v “ ∇ ˆ ∇ ˆ v “ ∇ ∇ ¨ v ´ ∇ ¨ ∇ v “ grad div v ´ Δ v Der dabei auftretende Vektor-Laplace-Operator Δ v wird gebildet aus zwei Kombinationen von Differentialoperatoren, die dessen Definition darstellen. Mitunter wird der Vektor-Laplace-Operator auch mit einem eigenen Zeichen geschrieben, um ihn deutlicher vom skalaren Laplace-Operator zu unterscheiden, [4, S. 3], [5, S. 13]. Δ v “ v “ grad div v ´ rot rot v
(17.67)
372
17 Differentialoperationen
Die Anwendung des Vektor-Laplace-Operators auf das Produkt von skalarer und vektorieller Ortsfunktion führt mit den Beziehungen (17.54) bis (17.60) auf zwölf Glieder, die sich erheblich kompensieren und zu folgendem Ergebnis zusammenfassen lassen. ` ˘ ` ˘ Δ V a “ V Δ a ` a ΔV ` 2 grad V ¨ grad a
17.6
(17.68)
Helmholtz-Theorem
Das nach Hermann (von) Helmholtz benannte Helmholtz-Theorem ist von fundamentaler Bedeutung bei der Untersuchung von Vektorfeldern. Es sagt aus, dass jedes stetig differenzierbare und im Unendlichen reguläre Vektorfeld V prq eindeutig als Summe eines wirbelfreien Vektorfeldes, also eines Quellenfeldes VQ prq, und eines quellenfreien Vektorfeldes, also eines Wirbelfeldes VW prq, dargestellt werden kann, [2, S. 620], [6, I, S. 53] [7, S. 100], [13, S. 22]. V prq “ VQ prq ` VW prq
(17.69)
Die beiden Teilfelder erfüllen folgende Differentialbeziehungen. ‚ Quellenfeld:
div VQ ‰ 0
aber
rot VQ “ 0
‚ Wirbelfeld:
rot VW ‰ 0
aber
div VW “ 0
Bei gegebenen Ortsfunktionen ρprq und J prq für Quellen und Wirbel, die im Kapitel Elektrodynamik im zweiten Band physikalische Bedeutung erlangen, gilt für das Gesamtfeld, das man mit Hilfe zweier Potentialfunktionen bestimmt. ˘ ` div V “ div VQ ` VW “ div VQ “ ρprq ‰ 0 ` ˘ rot V “ rot VQ ` VW “ rot VW “ J prq ‰ 0 Das wirbelfreie Quellenfeld VQ prq läßt sich dann nach (17.62) und (17.64) darstellen als (aus Konventionsgründen negativer) Gradient einer skalaren Ortsfunktion, die man (Skalar-) Potential ψprq nennt. VQ “ ´ grad ψ
Ñ
div VQ “ ´ div grad ψ “ ´ Δψ “ ρprq
373
17.6 Helmholtz-Theorem
Das quellenfreie Wirbelfeld VW prq wird nach (17.63) und (17.67) als Rotation einer vektoriellen Ortsfunktion dargestellt, die man Vektorpotential Aprq nennt. VW “ rot A
Ñ
rot VW “ rot rot A “ grad div A ´ Δ A “ J prq
Das Vektorpotential A ist allerdings nicht eindeutig, da die Vektorfunktion r “ A ` grad χ A mit beliebiger Ortsfunktion χprq wegen (17.62) auf das gleiche Wirbelfeld VW führt. r “ rot pA ` grad χq “ rot A ` rot grad χ “ rot A rot A Zur eindeutige Festlegung des Vektorpotentials A erweist sich die folgende Bedingung als einfachste Wahl. div A “ 0 Dadurch müssen beide Potentialfunktionen inhomogene Differentialgleichungen äquivalenter mathematischer Form erfüllen, die Poisson-Gleichungen heißen. Δψprq “ ´ ρprq
Δ Aprq “ Aprq “ ´ J prq
(17.70)
Die Poisson-Gleichung des Vektorpotentials umfasst als Vektorgleichung dabei drei skalare Differentialgleichungen, die in krummlinigen Koordinaten gekoppelt sind und nur im kartesischen Fall in drei Einzeldifferentialgleichungen zerfallen. Der Beweis des Helmholtz-Theorems wird konstruktiv geführt, indem man die Lösungen der Poisson-Gleichungen für die Hilfsfunktionen ψ und A entwickelt und konkret angibt, aus denen die vektoriellen Teilfelder des Gesamtfeldes durch Differentiation bestimmt werden. VQ prq “ ´ grad ψprq
VW prq “ rot Aprq
(17.71)
Im Kapitel Elektrodynamik des zweiten Bandes treten die beiden Potentialfunktionen als elektrodynamische Potentiale in Erscheinung, wo auch die Lösung der skalaren Poisson-Gleichung ausführlich behandelt wird.
374
17 Differentialoperationen
17.7
Beziehungen für den Abstandsvektor
17.7.1
Bedeutung des Abstandsvektors
Für die Untersuchung von Feldern ist es notwendig, zwischen einem Quellpunkt Q als Ursache und Ausgangspunkt für die Feldwirkungen und dem Aufpunkt P zu unterscheiden, in dem diese Wirkungen auftreten. Beide Punkte werden im Raum eindeutig durch ihre Ortsvektoren rP und rQ gekennzeichnet. Die Feldeigenschaften, die durch die Feldvektoren repräsentiert und beschrieben werden, sind dann Funktionen des Abstandsvektors r, dessen Richtung von Q nach P weist, sowie seines Betrages r für den Abstand zwischen diesen beiden Punkten.
r = rP − rQ
Wirkung in P
Ursache in Q rP rQ
O Abb. 17.4: Abstandsvektor zwischen Quellpunkt Q und Aufpunkt P Für den Abstandsvektor gelten folgende Beziehungen mit der Richtung nach P von Q. r “ rP ´ rQ
r “ | r | “ | rP ´ rQ |
(17.72)
Im Dreieck OP Q der Abbildung 17.4 kann man den Abstand r durch den Kosinussatz ausdrücken. b 2 ´ 2 r r cos ϑ (17.73) r “ rP2 ` rQ P Q
375
17.7 Beziehungen für den Abstandsvektor
Handelt es sich nicht um eine einzelne sondern um mehrere Punktquellen, so muss deren Feldwirkung durch Summation über alle Quellpunkte überlagert werden. Liegen die Quellen linien- bzw. flächenförmig oder räumlich verteilt vor, so müssen ihre Felder durch Integration über die entsprechenden Quellengebiete ermittelt werden. Summation oder Integration sind dabei über die Koordinaten der Quellpunkte Q auszuführen und die daraus berechneten Potentiale und Feldvektoren sind anschließend Funktionen der Koordinaten des Aufpunktes P als Variable im Feld sowie der charakteristischen Eigenschaften der Quellengrößen und ihrer Geometrie als Parameter. Wenn für die Lösung eines Feldproblems die Integration von Vektorfunktionen erfolgen muss, dann sind die Überlegungen des Abschnitts 5.7 bei der Durchführung anzuwenden.
17.7.2
Ableitungen nach verschiedenen Koordinaten
Ableitungen nach den Koordinaten des Aufpunktes P , die in den Feldbeziehungen auftreten, werden im allgemeinen ohne nähere Kennzeichnung durchgeführt, da man normalerweise wissen will, wie sich die Feldeigenschaften von Punkt zu Punkt im Raum bei festgehaltenen Quellen ändern. Falls bei der Untersuchung von Feldern dagegen nach den Koordinaten des Quellpunktes Q abgeleitet werden soll, erhalten die Differentialoperatoren zur Unterscheidung den Index Q. In kartesischer Form gilt für den Abstandsvektor und seinen Betrag r “ pxP ´ xQ q ex ` pyP ´ yQ q ey ` pzP ´ zQ q ez (17.74)
b r “ |r| “
pxP ´ xQ
q2
` pyP ´ yQ
q2
` pzP ´ zQ
q2
Mit px, y, zq “ px1 , x2 , x3 q folgt für die Ableitungen nach den Koordinaten von P bzw. Q wegen der besonderen Form des euklidischen Abstandes nur ein Wechsel des Vorzeichens. xkP ´ xkQ B Br B B Br B B “ “ “´ k “´ k k k r Br BxP BxP Br BxQ Br BxQ
376
17 Differentialoperationen
xkP ´ xkQ Br Br “ ´ “ r BxkP BxkQ
(17.75)
Da sich alle Differentialoperationen kartesisch formulieren und ausführen lassen, tritt bei einmaliger Differentiation nach den Koordinaten von Q ein Vorzeichenwechsel auf, bei zweimaliger Differentiation bleibt das Vorzeichen dagegen erhalten. Damit gelten folgende Relationen für die Differentialoperatoren. grad ϕprq ” grad P ϕprq “ ´ grad Q ϕprq div ϕprq ” div P ϕprq
“ ´ div Q ϕprq
rot ϕprq ” rot P ϕprq
“ ´ rot Q ϕprq
Δϕprq ” ΔP ϕprq “ ` ΔQ ϕprq
(17.76)
Alle Ableitungen, die sich auf den Abstandsvektor r beziehen, sind auch für den Ortsvektor rP gültig, da man den Quellpunkt Q stets in den Ursprung eines Koordinatensystems legen kann. Insbesondere gilt wegen xkP ´ xkQ B xkP B BrP B Br B B “ k “ “ “ rP BrP r Br BxkP BxP BrP BxkP Br folgende Ableitungsregel xkP ´ xkQ B xkP B “ rP BrP r Br
17.7.3
xkP ´ xkQ B r B “ rP BrP Br xkP
(17.77)
Reihenentwicklung des reziproken Abstands
Eine häufig auftretende Funktion ist der reziproke Abstand 1{r, dessen Quadrat im Newton’schen Gravitationsgesetz und im Coulomb’schen Gesetz die grundlegende Ortsabhängigkeit beschreibt. Dieser Abstand hat daher große Bedeutung bei Punktquellen in statischen Feldern und er tritt auch sonst bei der Formulierung und Lösung vieler Feldprobleme auf.
377
17.7 Beziehungen für den Abstandsvektor
Die Berechnung von Potentialen erfolgt im elektrostatischen Feld durch Integration von Ladungselementen ρprQ q über einen räumlichen Bereich. In solchen Coulomb-Integralen wird der Abstand r im Nenner durch den Kosinussatz (17.73) ausgedrückt. ¡ ¡ ρprQ q ρprQ q dvQ “ dvQ | rP ´ rQ | r vQ
vQ
Diese Integrale können schon bei einfachen Ladungsverteilungen aufwendig oder nicht geschlossen lösbar sein. Als Beispiel führt das Feld einer homogenen, kreisringförmigen Linienladung bereits auf ein elliptisches Integral, [12, II, S. 20] ! Zur Berechnung solcher Integrale kann man den reziproken Abstand 1{r in eine Reihe entwickeln, um die Integration gliedweise auszuführen. In größerer Entfernung von den Quellen für | rP | " | rQ | erhält man dann oft schon mit wenigen Reihengliedern gute Näherungen für die gesuchten Felder. Mit dem Kosinussatz erhält man folgenden Ausdruck für den reziproken Abstand, der im Wesentlichen die erzeugende Funktion der LegendrePolynome, [3, S. 133], [11, S. 173], darstellt. 1 1 “b r 2 rP2 ´ 2 rP rQ cos ϑ ` rQ “
1 c rP
1 1´2
´ r ¯2 rQ Q cos ϑ ` rP rP
8 ` ˘ 1 1 ÿ ´ rQ ¯n Pn cos ϑ “ r rP n“0 rP
prQ ă rP q
(17.78)
Die einfachsten Legendre-Polynome lauten P0 “ 1
2 P3 “ 5 cos3 ϑ ´ 3 cos ϑ
P1 “ cos ϑ
8 P4 “ 35 cos4 ϑ ´ 30 cos2 ϑ ` 3
2 P2 “ 3 cos2 ϑ ´ 1
8 P5 “ 63 cos5 ϑ ´ 70 cos3 ϑ ` 15 cos ϑ
378
17 Differentialoperationen
Die Deutung der Koeffizienten als Legendre-Polynome oder Kugelfunktionen führt bei Ladungs- oder Massenanordnungen zu einer Interpretation als Multipolentwicklung von Fernfeldern, [2, S. 200], [9, S. 57], [10, S. 140]. [12, II, S. 30]. Auf die einfachsten Fälle von Dipol, Quadrupol und Multipole wird im Abschnitt 5.2.2 (Bd. II) noch näher eingegangen.
17.7.4
Differentialoperationen für den Abstandsvektor
Die Differentiation des Betrages des Abstandsvektors führt mit (5.27) auf eine Darstellung, aus der man im Vergleich mit (17.2) und (17.6) einen Ausdruck für den Gradienten des Abstandsvektors erhält, der in die Richtung des Einheitsvektors r{r weist. r2 “ r ¨ r dr “ dr ¨
Ñ
2 r dr “ 2 r ¨ dr
r “ dr ¨ grad r r grad r “ ∇r “
dr “ dr ¨ grad r
r r
(17.79)
Eine Funktion ϕprq, die nur vom Betrag r des Abstandsvektors abhängt, hat den Zuwachs dϕ, aus dem ihr Gradient folgt. dϕprq “ dr ¨ grad ϕprq dϕprq “
dϕ dϕ dϕ r dr “ dr ¨ grad r “ dr ¨ dr dr dr r
grad ϕprq “
dϕ dϕ r grad r “ dr dr r
(17.80)
Der reziproke Abstand ϕprq “ 1{r tritt als wichtige Ortsfunktion bei vielen Feldproblemen auf. Der Gradient des reziproken Abstands lautet grad
´1¯ 1 r r 1 “∇ “´ 2 “´ 3 r r r r r
(17.81)
379
17.7 Beziehungen für den Abstandsvektor
Der Abstandsvektor läßt sich mit der Funktion ϕprq “ r2 {2 als Gradient darstellen, grad ϕprq “ grad
´ r2 ¯ 2
“ r grad r “ r
so dass wegen (17.62) die Rotation des Abstandsvektors der Nullvektor ist. Mit (17.59) und (17.80) ergibt sich auch für die Rotation von Produkten beliebiger Funktionen ϕprq und dem Abstandsvektor Null. “ ‰ rot ϕprq r “ ϕprq rot r ´ r ˆ grad ϕprq “ 0 rot r “ 0
“ ‰ rot ϕprq r “ 0
(17.82)
Der Vektorgradient des Abstandsvektors wird mit der ersten Beziehung von Abschnitt 17.3.2 und (17.5) berechnet ` ˘T ` ˘T ∇r “ g# ∇ # r “ g# g
#
(*)
und mit (11.6) erhält man das Ergebnis, dass er dem Einheits- oder Metriktensor entspricht. Grad r “ ∇r “ E prq “ G prq
(17.83)
Wendet man den skalaren Operator (17.41) auf den Abstandsvektor an, dann erhält man wegen (11.4) für beliebige Vektoren a das folgende Ergebnis, das bei der Berechnung des Vektor-Laplace-Operators noch benötigt wird. pa ¨ grad q r “ a ¨ Grad r “ a ¨ E “ a
(17.84)
Die Divergenz des Abstandsvektors folgt durch Verjüngung des Vektorgradienten, die nach (*) durch die Spur der Einheitsmatrix gegeben ist. div r “ ∇ ¨ r “ sp E “ 3
(17.85)
380
17 Differentialoperationen
Für die Divergenz eines Produktes gilt nach (17.56) und (17.80) “ ‰ div ϕprq r “ ϕprq div r ` r ¨ grad ϕprq
“ ‰ dϕ div ϕprq r “ 3 ϕprq ` r dr
(17.86)
Der Laplace-Operator einer Funktion ϕprq ergibt sich als Divergenz der Beziehung (17.80), wobei ϕ1 “ dϕ{dr gilt. Δϕprq “ div grad ϕprq “ div
Δϕprq “
´ ϕ1 ¯ ϕ1 r ϕ 2 ´ ϕ1 r “3 `r r r r2
ı d2 ϕ 2 dϕ 1 d ´ 2 dϕ ¯ 1 d2 ” ` r ϕprq “ r “ dr2 r dr r2 dr dr r dr2
(17.87)
Mit den Gleichungen (17.67), (17.68), (17.82) und (17.84) ergeben sich folgende Vektor-Laplace-Beziehungen. “ ‰ Δ ϕprq r “ r Δϕprq ` 2 grad ϕprq
Δr “ 0
(17.88)
Die Grundlösungen von Laplace- und Helmholtz-Gleichung, die in mathematischer Physik und Feldtheorie eine wichtige Rolle spielen, erhält man mit (17.87) durch Anwendung des Laplace-Operators auf den reziproken Abstand und die Ausstrahlungsfunktion der Kugelwelle.
Δ
´1¯ r
“ 0
Δ
´ e´jkr ¯ r
` k2
´ e´jkr ¯ r
“ 0
(17.89)
Beide Differentialgleichungen sind im gesamten Raum gültig außer an der Singularitätsstelle r “ 0 der beiden Funktionen. Wendet man den Ableitungstensor (13.15) in kartesischen Koordinaten (18.51) auf den reziproken Abstand an, dann erhält man folgende sym-
381
17.8 Beispiele für Basisvektoren
metrische Tensormatrix. ˛ ¨ ´ ¯2 xy x xz ´ 1 3 3 3 ‹ ˚ r rr rr ‹ ˚ ´1¯ ´ ¯ ‹ 1 ˚ yz xy y 2 pBq ‹ ˚ T “ 3˚ ´1 3 3 3 ‹ r r ˚ rr r rr ‹ ´ ¯ ‚ ˝ xz yz z 2 ´1 3 3 3 rr rr r
(17.90)
Die Spur der Matrix ist Null, der Tensor ist also ein Deviator und besitzt daher nur fünf voneinander unabhängige Elemente. Beim Übergang auf Kugelkoordinaten gemäß Abschnitt 18.5.3 weisen die Elemente nur Winkelfunktionen auf und die Matrix lautet dann ˛ ¨ 3 sin2 ϑ cos2 ϕ ´ 1 3 sin2 ϑ sin ϕ cos ϕ 3 sin ϑ cos ϑ cos ϕ ´1¯ 1˚ ‹ “ 3 ˝ 3 sin2 ϑ sin ϕ cos ϕ 3 sin2 ϑ sin2 ϕ ´ 1 3 sin ϑ cos ϑ sin ϕ ‚ TpBq r r 3 sin ϑ cos ϑ cos ϕ 3 sin ϑ cos ϑ sin ϕ 3 cos2 ϑ ´ 1
17.8 17.8.1
Beispiele für Basisvektoren Zylinderkoordinaten im ebenen Bild
Da es sich um ein orthogonales Koordinatensystem handelt, bilden die kound kontravarianten Basisvektoren richtungsgleiche orthogonale Dreibeine, deren Beträge sich aber in ϕ-Richtung unterscheiden. Im nächsten Kapitel werden die Eigenschaften orthogonaler Koordinaten und deren metrische Faktoren eingehend erörtert. Die Tangentenvektoren der Koordinatenlinien, die gleichzeitig die Normalen der Koordinatenflächen sind, weisen als Gradienten in Richtung der stärksten Zunahme der Variablen. Die Relationen der Basisvektoren berechnet man mit (14.20), (18.54) und (3.41). eρ “ gρ “ gρ “ grad ρ eϕ “
1 gϕ “ ρ gϕ “ ρ grad ϕ ρ
weisen in ρ -Richtung weisen in ϕ -Richtung
382
17 Differentialoperationen
y
e = 1 g = g
= const.
e = g = g
= const. x ez = g z = g z Abb. 17.5: Koordinatenlinien der Zylinderkoordinaten in der Ebene z “ 0
17.8.2
Astroidkoordinaten im ebenen Bild
Diese Koordinaten wurden eingeführt im Abschnitt 14.6.2. Die kovarianten Basisvektoren g sind die Tangentenvektoren der Koordinatenlinien u# , wobei
#
gu
in u-Richtung und
gϕ
in ϕ-Richtung weisen
Die kontravarianten Basisvektoren g# sind die Normalen der Koordinatenflächen u# “ const. und geben als Gradienten die Richtung der stärksten Zunahme der Koordinaten an. gu “ grad u gϕ “ grad ϕ
K zu u “ const. K zu ϕ “ const.
383
17.9 Tabellen
y
u=const.
g
gz =
gz
g
gu gu
= const. u
x
Abb. 17.6: Koordinatenlinien der Astroidkoordinaten in der Ebene z “ 0
17.9
Tabellen
Die Tabelle 17.1 gibt eine Zusammenstellung der verschiedenen Differentialoperatoren in vektoranalytischer und symbolischer Schreibweise, deren Ergebnisse Tensoren 0. bis 3. Stufe sind. In der Tabelle 17.2 findet man eine Zusammenstellung verschiedener Differentialoperationen, die auf Funktionen des Abstandsvektors angewendet werden.
384
17 Differentialoperationen
Operator
Symbol
Ergebnis
grad V
∇V
v
Grad v
∇v
T
Grad T
∇T
W “ Tp3q
`
`
˘ a ¨ grad v
˘ a¨∇ v
w
div v
∇¨v
S
div T
∇¨T
v
rot v
∇ˆv
w
div grad V
ΔV “ ∇2 V
S
div rot v
` ˘ ∇¨ ∇ˆv
” 0
rot grad V
` ˘ ∇ ˆ ∇V
” 0
grad div v
` ˘ ∇ ∇¨v
w
rot rot v
` ˘ ∇ˆ ∇ˆv
w
Δv
v
w
` ˘ T pBq V
` ˘ ∇∇ V
T
Tabelle 17.1: Differentialoperatoren
385
17.9 Tabellen
grad r “ grad ϕprq “ ´1¯
grad
r
r r dϕ r dr r
“ ´
r r3
div r “ 3 “ ‰ dϕ div ϕprq r “ 3 ϕprq ` r dr rot r “ 0 “ ‰ rot ϕprq r “ 0 Grad r “ G prq `
˘ a ¨ grad r “ a Δr “ Δϕprq “ Δ
´1¯ r
2 r ı 1 d2 ” r ϕprq r dr2
“0
pr ‰ 0q
Δr “ 0 “ ‰ Δ ϕprq r “ r Δϕprq ` 2 grad ϕprq
Tabelle 17.2: Differentialoperationen beim Abstandsvektor
Literatur [1] Kreyszig, E.: Differentialgeometrie Akademische Verlagsgesellschaft Geest & Portig, Leipzig (1957) [2] Lehner, G.: Elektromagnetische Feldtheorie Springer Verlag, Berlin, Heidelberg, 7. Aufl. (2010) [3] Lense, J.: Reihenentwicklungen der mathematischen Physik Walter de Gruyter & Co., Berlin, 2. Aufl. (1947) [4] Moon, P., Spencer, D. E.: Field Theory Handbook Springer Verlag, Berlin, Heidelberg, New York (1971) [5] Moon, P., Spencer, D. E.: Foundations of Electrodynamics Dover Publications Inc., Mineola, New York (2013) [6] Morse, P. M. / Feshbach, H.: Methods of Theoretical Physics, I/II McGraw-Hill Book Company, (1953) [7] Simonyi, K.: Theoretische Elektrotechnik VEB Deutscher Verlag der Wissenschaften, Berlin, 9. Aufl. (1989) [8] Smirnow, W. I.: Lehrgang der höheren Mathematik, I-IV VEB Deutscher Verlag der Wissenschaften, Berlin, 6. Aufl. (1964/68) 386
Literatur
387
[9] Sommerfeld, A.: Vorlesungen über theoretische Physik III, Elektrodynamik Akademische Verlagsgesellschaft Geest & Portig, 4. Aufl. (1964) [10] Sommerfeld, A.: Vorlesungen über theoretische Physik VI, Partielle Differentialgleichungen der Physik Akademische Verlagsgesellschaft Geest & Portig, 6. Aufl. (1965) [11] Stratton, J. A.: Electromagnetic Theory McGraw-Hill Book Company (1941) [12] Wunsch, G.: Feldtheorie I/II VEB Verlag Technik, Berlin (1973/75) [13] Zangwill, A.: Modern Electrodynamics Cambridge University Press, Cambridge UK (2013)
Kapitel 18
Orthogonale Koordinatensysteme Zusammenfassung Orthogonale Koordinatensysteme stellen Sonderfälle von krummlinigen Systemen dar, die in der physikalischen und technischen Praxis eine überragende Bedeutung besitzen. Ihre besonderen Eigenschaften wie die Aufhebung von Ko- und Kontravarianz und die Darstellung der verschiedenen Differentialoperatoren werden ausführlich behandelt und für einige wichtige Koordinatensysteme tabellarisch angegeben.
18.1 18.1.1
Krummlinige orthogonale Koordinaten Bedeutung
Orthogonale Koordinatensysteme, bei denen sich die krummlinigen Koordinatenlinien jeweils senkrecht schneiden, haben für die angewandten Wissenschaften eine überragende Bedeutung, da sehr viele konkrete Probleme in solchen Systemen formuliert und gelöst werden können. In der mathematischen Physik und in den Ingenieurwissenschaften treten eine Reihe fundamentaler partieller Differentialgleichungen auf, deren Lösung durch Separation der Variablen (s. Abschnitt 5.7.5, (Bd. II)) nur in orthogonalen Koordinatensystemen möglich ist [3, S. 1], [4, S. 21]. Aus die388 © Springer Fachmedien Wiesbaden GmbH, ein Teil von Springer Nature 2019 W. Werner, Vektoren und Tensoren als universelle Sprache in Physik und Technik 1, https://doi.org/10.1007/978-3-658-25272-4_18
18.1 Krummlinige orthogonale Koordinaten
389
sem Grunde werden in manchen Büchern zur Vektor- und Tensorrechnung lediglich orthogonale Systeme behandelt.
18.1.2
Grundlegende Eigenschaften
Ein orthogonales Koordinatensystem wird beschrieben durch den Funktionssatz x# “ x# pu# q, der die kartesischen Koordinaten durch die krummlinigen darstellt. In diesem System stehen die Koordinatenlinien u1 , u2 , u3 und damit die kovarianten Basisvektoren g1 , g2 , g3 als deren Tangenten in jedem Raumpunkt aufeinander senkrecht. Wie im Abschnitt 16.5.3 bereits ausgeführt, verschwinden ihre ungleichnamigen Skalarprodukte sowie deren Ableitungen, so dass die Metrikmatrizen Diagonalform aufweisen. + gik “ gi ¨ gk “ 0 für i ‰ k g ik “ gi ¨ gk “ 0 Gleichnamige ko- und kontravariante Basisvektoren fallen richtungsmäßig zusammen, wodurch Ko- und Kontravarianz aufgehoben sind, was bereits im Abschnitt 6.6.5 betrachtet wurde. Die Einheitsvektoren der krummlinigen orthogonalen Koordinatensysteme werden mit c bezeichnet im Unterschied zu den kartesischen Einheitsvektoren mit e . ` ˘ cT “ c 1 , c 2 , c 3
c “ c prq
| ck prq | “ 1
(18.1)
Die Vektorsätze c , g und g# bilden in jedem Raumpunkt richtungsglei#
che orthogonale Dreibeine, die jedoch verschiedene Maßstäbe aufweisen können. c k Ò gk Ò g k
Ñ
Parallelität für k “ 1, 2, 3 aber keine Identität!
Die kovarianten Grundvektoren in Richtung der Koordinatenlinien wurden bereits in (14.6) in metrische Faktoren hk prq und Einheitsvektoren ck prq zerlegt, für die dann gilt gk prq “ hk prq ck prq gk prq “ | gk prq | | g k prq | looomooon looomooon metrischer Faktor
Einheitsvektor
390
18 Orthogonale Koordinatensysteme
gk prq “ hk prq ck prq “ | gk prq | ck prq
(18.2)
Auf Grund ihrer Definition als Betrag der Basisvektoren sind die metrischen Faktoren stets positiv und mit der Reziprozitätsbedingung folgt
hk “ | gk | “
?
gkk
ˇ ˇ a ˇ kˇ ˇ g ˇ “ g kk “
1 1 “ | gk | hk
(18.3)
Da die zueinander inversen Metrikmatrizen der paarweise aufeinander senkrecht stehenden Basisvektoren Diagonalform haben, werden zur Abkürzung vier Diagonalmatrizen eingeführt, deren Verknüpfungen sich aus den Potenzgesetzen der Diagonalmatrizen (3.28) ergeben.
˛ 0 h1 0 ` ˘ ˚ ‹ Δ h “ Diag hk “ ˝ 0 h2 0 ‚ 0 0 h3 ¨
Δ 1{h
¨ ˛ 1{h1 0 0 ´1¯ ` ˘ ´1 ˚ ‹ 1{h2 0 ‚ “ Diag “˝ 0 “ Δh hk 0 0 1{h3
(18.4)
˛ 0 h21 0 ` ˘2 ` ˘ ˚ ‹ “ Δ h “ Diag h2k “ ˝ 0 h22 0 ‚ 0 0 h23 ¨
G # prq ” Δ #
˛ ¨ 0 0 1{h21 ´ ¯ ` ˘2 1 ‹ ˚ 1{h22 0 ‚ G# prq ” Δ# “ Δ 1{h “ Diag 2 “ ˝ 0 hk 0 0 1{h23
391
18.1 Krummlinige orthogonale Koordinaten
18.1.3
Metrische Faktoren und Wegelement, Flächen- und Volumenelemente
Die metrischen Faktoren haben für orthogonale Koordinatensysteme deshalb so große Bedeutung, da sie in fast allen Beziehungen auftreten! ` ˘ Man berechnet sie nach (14.5) aus dem Funktionssatz x# u# der orthogonalen Koordinaten durch das Skalarprodukt der kovarianten Basisvektoren. gk ¨ gk “ gkk “ h2k “ c hk prq “
´ Br ¯2 ´ Bx1 Bx2 Bx3 ¯2 “ e ` e ` e3 1 2 Buk Buk Buk Buk ´ Bx1 ¯2 Buk
`
´ Bx2 ¯2 Buk
`
´ Bx3 ¯2 Buk
(18.5)
Die Ableitung der metrischen Faktoren, die später benötigt wird, lautet hk , “
Bhk 1 ´ Bx1 B 2 x1 Bx2 B 2 x2 Bx3 B 2 x3 ¯ “ ` ` hk Buk Buk Bu Buk Buk Bu Buk Buk Bu Bu
hk
3 ÿ Bhk Bxp B 2 xp “ h ∇ h “ k k Bu Buk Buk Bu p“1
(18.6)
Die Diagonalmatrix Δh der metrischen Faktoren besitzt die Determinante, h “ h1 h2 h3 “ det Δ h “ det
b Δ#
(18.7)
die man mit der Determinante g “ det G # nach (14.9) bzw. (14.27) für den allgemeinen krummlinigen Fall vergleichen kann. Das Wegelement (14.7) lautet im orthogonalen Koordinatensystem dr “ h1 c1 du1 ` h2 c2 du2 ` h3 c3 du3 mit der Matrixform ˘T ` dr “ cT Δh du# “ du# Δh c
(18.8)
392
18 Orthogonale Koordinatensysteme
Aus den allgemeinen Beziehungen (14.29) und (14.31) folgen Flächen- und Volumenelement in orthogonalen Koordinatensystemen. daij “ hi hj dui duj ck
18.1.4
dv “ h du1 du2 du3
(18.9)
Einheitsvektoren und ihre Umrechnung
Ersetzt man in der Beziehung (18.2) die Grundvektoren g
#
nach (14.5),
dann erhält man die Darstellung der Einheitsvektoren mit kovarianten oder kartesischen Basisvektoren. ` ˘ c prq “ Δ 1{h g prq “ Δ 1{h FT x# { u# e “ Aprq e #
(18.10) Δh c prq “ g prq “ F #
` T
x# { u
˘ #
e “ Δh Aprq e
Die Umrechnung entspricht dem Basiswechsel zwischen zwei orthogonalen Koordinatensystemen, die durch x# “ x# pu# q verknüpft sind, so dass Aprq eine orthogonale Transformationsmatrix darstellt, die ggf. einen Index zur Kennzeichnung des krummlinigen Systems erhält. ` ˘ Aprq “ A u prq “ Δ 1{h FT x# { u#
(18.11)
Die Orthogonalität von Aprq zeigt sich unter Verwendung von (14.22) und (18.4). ` ˘ Aprq AT prq “ Δ 1{h FT x# { u# Fpx# { u# q Δ 1{h “ Δ 1{h G # Δ 1{h “ Δ 1{h Δ # Δ 1{h “ E Aprq AT prq “ E
A´1 prq “ AT prq “ A adj prq
det A “ ` 1 (18.12)
393
18.2 Ableitung der Einheitsvektoren
Die Elemente von Aprq sind die ortsabhängigen Richtungscosinus zwischen den Einheitsvektoren c prq und e und jedes Element aik ist nach (3.21) seinem algebraischen Komplement Aik gleich! Aus der letzten Gleichung folgt eine wichtige Eigenschaft in orthogonalen Koordinatensystemen, wodurch die Vermeidung der Inversion bei Funktionalmatrizen möglich wird. “ ` ˘ ‰´1 ` ˘´1 ` ˘ “ AT prq “ F x# { u# Δ 1{h Δ 1{h A´1 prq “ FT x# { u# ` ˘ ` ˘2 ` ˘ ` ˘ F´1 x# { u# “ Δ 1{h FT x# { u# “ Δ# FT x# { u#
(18.13)
Beim Basiswechsel zwischen zwei orthogonalen Systemen u# und c. w# gilt folgende Umrechnung für die Einheitsvektoren c und ˆ ` ˘ ` ˘ ˆ 1{h FT x# { w# F x# { u# Δ 1{h c ˆ c “ A w e “ A w ATu c “ Δ
18.1.5
(18.14)
Prüfung auf Rechtssystem
Wenn der Funktionssatz x# pu# q zur Beschreibung eines bestimmtem Koordinatensystems gegeben ist und nicht aus geometrischen oder anderen Gründen klar ist, in welcher Reihenfolge die Variablen uk und damit die Einheitsvektoren c ein Rechtssystem bilden, dann kann man das auf folgende Weise feststellen. Aus dem gegebenen Funktionssatz werden sowohl die Funktionalmatrix FT px# { u# q als auch die metrischen Faktoren hk berechnet und gemäß (18.10) wird für eine beliebige Wahl zweier Einheitsvektoren ca und cb aus c das Kreuzprodukt berechnet. Sein Ergebnis muss den dritten Einheitsvektor cc liefern, dessen Vorzeichen darüber entscheidet, ob die Reihenfolge ca , cb , cc ein Rechtssystem bildet oder nicht.
18.2 18.2.1
Ableitung der Einheitsvektoren Christoffel-Symbole in orthogonalen Systemen
Geht man von der allgemeinen Beziehung (16.14) aus, dann kann man die Christoffel-Symbole in orthogonalen Koordinatensystemen leichter be-
394
18 Orthogonale Koordinatensysteme
rechnen, da die Bildung der inversen Matrix gemäß (18.13) entfällt! ˇ ¨# ˇ Γ# ˇ
ortho
ˇ ˘ ` ` ˘ “ F T x # { u# ˇ u F x # { u# Δ#
(18.15)
Für ein einzelnes Christoffel-Symbol gilt dann mit (16.6) und (14.3) die Darstellung
Γkm
ˇ ˇ ˇ ˇ
ortho
3 1 ÿ B 2 xp Bxp “ 2 hm p“1 Buk Bu Bum
Der Vergleich mit (18.6) sowie der bereits im Abschnitt 16.5.3 betrachtete Sonderfall der orthogonalen Koordinatensysteme gestatten es, die Christoffel-Symbole durch metrische Faktoren auszudrücken. Von den dortigen vier Fällen verschiedener Indexsituationen erhält man mit den Beziehungen (18.3) und (18.6) gii “ h2i ,
g ii “
1 h2i
gii , k “ ∇k ph2i q “ 2 hi ∇k hi “ 2 hi hi ,k “ 2 hi
Bhi Buk
die Darstellungen für Fall 2 :
2 Γiik “ ` g ii gii, k “ `
2 Bhi hi Buk
Fall 3 :
2 Γiki “ ´ g kk gii, k “ ´
2hi Bhi h2k Buk
pi ‰ kq
Wegen (16.26) umfasst der Fall 2 auch den Fall 4 und insgesamt erhält man
Γiik “
1 Bhi hi Buk
Γiki “ ´
hi Bhi h2k Buk
Γiii “
1 Bhi hi Bui
(18.16)
395
18.2 Ableitung der Einheitsvektoren
Nach (16.28) lautet die vollständige Christoffel-Blockmatrix damit
¨# Γ# p#q
›¨ › 1 Bh1 › › ˚ h1 Bu1 ›˚ ›˚ › ˚ 1 Bh1 “ ›› ˚ ˚ 2 › ˚ h1 Bu ›˚ › ˝ 1 Bh1 › › h Bu3 1 ¨
h1 Bh1 ´ 2 h2 Bu2 1 Bh2 h2 Bu1 0 1 Bh1 h1 Bu2
˚ ˚ ˚ ˚ h2 Bh2 ˚´ ˚ h2 Bu1 ˚ 1 ˚ ˝ 0 ¨ ˚ ˚ ˚ ˚ ˚ ˚ ˚ ˚ ˝
´
˛ h1 Bh1 ´ 2 h3 Bu3 ‹ ‹ ‹ ‹ 0 ‹ ‹, ‹ ‹ 1 Bh3 ‚ h3 Bu1 ˛
1 Bh2 h2 Bu1
0
1 Bh2 h2 Bu2 1 Bh2 h2 Bu3
‹ ‹ ‹ h2 Bh2 ‹ ‹, ´ 2 h3 Bu3 ‹ ‹ ‹ 1 Bh3 ‚ h3 Bu2
1 Bh1 h1 Bu3
0
0
1 Bh2 h2 Bu3
h3 Bh3 h21 Bu1
´
h3 Bh3 h22 Bu2
˛ › › 1 Bh3 › 1 › h3 Bu ‹ ‹ › ‹ › › 1 Bh3 ‹ ‹ › 2 ‹ h3 Bu ‹ ›› ‹ › 1 Bh3 ‚ ›› › h3 Bu3 (18.17)
396
18 Orthogonale Koordinatensysteme
18.2.2
Durchführung der Ableitung und zugehörige Matrizen
Für die Ableitung der Einheitsvektoren c prq nach der Koordinate berechnet man zunächst unter Verwendung von (18.16) und (3.29) die Ausdrücke, ∇ hk “
Bhk “ hk Γkk Bu
∇
´1¯ 1 k 1 Γ “ ´ 2 ∇ hk “ ´ hk hk k hk
(18.18) ´ 1 ¯ı ” 1 ı ` ˘ Γkk “ ´ Δ 1{h Diag Γkk “ ´ Diag Δ 1{h , “ Diag ∇ hk hk woraus mit (18.10) und (16.7) folgt ‰ “ “ Δ 1{h g c , “ ∇ c “ ∇ Δ 1{h g ` Δ 1{h , g ”
#
#,
#
“ Δ 1{h
“
¨# Γ#
´ Diag Γkk `
˘‰
g
#
Der Ausdruck in der Klammer stellt eine modifizierte Christoffel-Mar ¨ # mit verschwindender Hauptdiagonale dar, die man auch mit dem trix Γ # Diagonalisierungsoperator Dg aus Abschnitt 3.5.2 darstellen kann. ` ˘ “ ‰ r ¨ # “ Γ ¨ # ´ Diag Γ k “ Γ ¨ # ´ Dg Γ ¨ # Γ # k # # #
(18.19)
Die drei Einzelmatrizen werden zur modifizierten Christoffel-Blockmatrix zusammengefasst, wobei der Ableitungsindex in Klammern steht. › ¨# › r r ¨# , Γ r ¨ # ›› r ¨ # “ ›› Γ , Γ Γ # p#q #1 #2 #3
(18.20)
Im Vergleich mit dem Ergebnis (16.28) bleiben für die modifizierte Blockmatrix orthogonaler Koordinatensysteme nur noch zwölf nichtverschwindende Christoffel-Elemente übrig, die durch die metrischen Faktoren nach (18.16) darstellbar sind. ¨ ˛ ¨ ˛ ¨ ˛ 0 Γ122 0 0 0 Γ133 0 Γ121 Γ131 ‹ ˚ 1 ˚ 1 3 ‹,˚ 0 3 ‹ r ¨# “ Γ Γ 0 0 0 Γ 0 Γ , Γ ‚ ˝ ‚ ˝ ‚ ˝ # p#q 21 22 22 23 2 1 2 Γ311 0 0 0 Γ3 2 0 Γ3 3 Γ3 3 0 (18.21)
397
18.2 Ableitung der Einheitsvektoren
Setzt man die Ergebnisse zusammen, dann erhält man mit (18.10) die Ableitungen der Einheitsvektoren in der Darstellung mit kovarianten bzw. kartesischen Basisvektoren oder in der besonders geeigneten Form der Zerlegung in Richtung der Einheitsvektoren c des Koordinatensystems selbst. r ¨ # g prq c , prq “ Δ 1{h Γ # #
“
r ¨# Δ 1{h Γ #
` ˘ F T x# { u# e
r ¨ # Δ c prq “ Δ 1{h Γ h # Die Multiplikation mit den beiden Diagonalmatrizen bedeutet, dass die einzelnen Christoffel-Symbole lediglich mit einem Quotienten aus metrischen Faktoren multipliziert werden und folglich alle Nullelemente der modifizierten Christoffel-Blockmatrix erhalten bleiben. ´
¨#
r Δ 1{h Γ # Δh
¯ ik
“
hk r k Γ hi i
Zur kompakten Darstellung der Einheitsvektorableitungen wird die Λ -Blockr matrix definiert, bei der die Γ-Untermatrizen gemäß der erweiterten Matrixmultiplikation (3.63) jeweils einzeln mit den Diagonalmatrizen multipliziert werden, und der dritte Index in Klammern dabei wie üblich die einzelne Untermatrix bezeichnet. Λ ## p#q
› › › › “ › Λ ## 1 , Λ ## 2 , Λ ## 3 › › › › › r ¨# Δ , Δ Γ r ¨# r ¨# “ › Δ 1{h Γ h 1{h # 2 Δ h , Δ 1{h Γ # 3 Δ h › #1 Λ ## p#q prq “
r ¨# ˝ Δ Δ 1{h ˝ Γ h # p#q
(18.22)
Damit man die Berechnung der Einheitsvektorableitungen im einzelnen überblicken kann, wird die Λ-Blockmatrix vollständig angegeben. Dabei werden die Christoffel-Symbole in (18.21) durch die metrischen Faktoren und deren Ableitungen nach (18.16) ausgedrückt und mit dem entsprechenden
398
18 Orthogonale Koordinatensysteme
Quotienten multipliziert.
Λ ## p#q
›¨ ˛ › 1 Bh1 1 Bh1 › ´ 0 ´ ›˚ h2 Bu2 h3 Bu3 ‹ ‹ ›˚ ‹ ›˚ ‹ › ˚ 1 Bh1 ‹, › ˚ “ › ˚` 0 0 ‹ 2 h Bu 2 ‹ ›˚ ‹ ›˚ › ˝ 1 Bh1 ‚ › ` 0 0 › 3 h3 Bu ˛ ¨ 1 Bh2 0 0 ` ‹ ˚ h1 Bu1 ‹ ˚ ‹ ˚ ‹ ˚ 1 Bh2 1 Bh 2 ‹, ˚´ 0 ´ ˚ h Bu1 3 h3 Bu ‹ 1 ‹ ˚ ‹ ˚ ‚ ˝ 1 Bh2 0 ` 0 h3 Bu3 ¨ 1 Bh3 0 0 ` ˚ h1 Bu1 ˚ ˚ ˚ 1 Bh3 ˚ 0 0 ` ˚ 2 h 2 Bu ˚ ˚ ˝ 1 Bh3 1 Bh3 ´ ´ 0 1 h1 Bu h2 Bu2
˛ › › › ‹ › ‹ › ‹ › ‹ › ‹ › ‹ › ‹ › ‹ › ‚› › ›
(18.23) Im Ergebnis zeigt sich die interessante Eigenschaft, dass die Λ-Blockmatrix aus drei schiefsymmetrischen Einzelmatrizen besteht, was in den anderen Darstellungen nicht zu erkennen ist. Bei der Berechnung der Ableitungen der Einheitsvektoren existieren in orthogonalen Koordinatensystemen daher nur noch sechs unabhängige Matrixelemente! Die Zusammenfassung der Spaltenvektoren c , “ Λ ## c zu einer Matrix führt auf die C-Matrix der Ableitungen der orthogonalen Einheitsvektoren, die der H-Matrix der kovarianten Basisvektor-
399
18.3 Vektor- und Tensorkomponenten
ableitungen nach (16.18) für den allgemeinen Fall entspricht.
´ C ## “
¯
c ,1 , c ,2 , c ,3 “
Λ ## p#q ˝ c
¨
c1,1 c1,2
˚ “ ˝ c2,1 c3,1
c2,2
c1,3
˛
‹ c2,3 ‚
c3,2 c3,3
(18.24) Im Gegensatz zur H-Matrix ist die C-Matrix nicht symmetrisch! Wie man an der Struktur der Λ-Blockmatrix unschwer erkennen kann, bestehen die drei Diagonalvektoren c k,k aus jeweils zwei Teilvektoren, die in die beiden anderen Richtungen p ‰ k q weisen. Die restlichen sechs Vektoren haben nur jeweils eine Komponente in der Richtung, die durch den Ableitungsindex hinter dem Komma angegeben wird.
18.3 18.3.1
Vektor- und Tensorkomponenten Darstellung physikalischer Komponenten
In orthogonalen Koordinatensystemen sind in spezieller Weise die physikalischen Komponenten von Vektoren und Tensoren die relevanten Größen, da dort normalerweise orthogonale Einheitsvektoren c dieses Systems anstelle der zusammenfallenden ko- oder kontravarianten Basisvektoren für die Darstellung verwendet werden. Alle Transformationen von Komponenten erfolgen in orthogonalen Koordinatensystemen durch Diagonalmatrizen nach (18.4) oder orthogonale Matrizen nach (18.12), wodurch die Berechnungen wegen ihrer besonderen Eigenschaften einfacher ausfallen. Ein Vektor kann mit seinen kontravarianten, seinen physikalischen oder auch mit seinen kartesischen Komponenten dargestellt werden, je nachdem welche Basisvektoren eines Koordinatensystems man wählt. Mit (18.10) folgt ` ˘T v “ v# g
#
` ˘T ` ` ˘T ˘T “ v# Δ h c “ v ph c “ v ph A e “ vT e “ vT AT c
Für die kovarianten Komponenten, die bei Gradient und Rotation benötigt werden, gilt ` ˘T ` ˘T ` ˘T ` ˘T v “ v # g# “ v # Δ# g “ v # Δ# Δ h c “ v # Δ 1{h c #
400
18 Orthogonale Koordinatensysteme
Insgesamt hat man also folgende Darstellungen. ˘T ` ` ˘T v “ v ph c “ vT e “ v# g
#
` ˘T “ v # g#
(18.25)
Die vier verschiedenen Komponentensätze v ph , v, v# und v # eines Vektors in den Basen c, e, g und g# werden damit auf folgende Weise transformiert.
#
v ph “ A v “ Δ 1{h v # “ Δ h v#
(18.26)
Um Verwechslungen zu vermeiden, werden die physikalischen Komponenten speziell indiziert, und die vier Spaltenvektoren für physikalische, kartesische, ko- und kontravariante Komponenten lauten dann ¨ ¨ ˛ ¨ ˛ ¨ 1˛ ˛ vph1 vx v1 v ˚ ˚ ‹ ˚ ‹ ˚ 2‹ ‹ # v ph “ ˝vph2 ‚ , v “ ˝vy ‚ , v # “ ˝v2 ‚ , v “ ˝v ‚ vph3 vz v3 v3 Der Vergleich von (18.10) und (18.26) zeigt, dass Einheitsvektoren c und physikalische Vektorkomponenten v ph in orthogonalen Koordinatensystemen in gleichartiger Weise mit der Matrix Aprq nach (18.11) und damit kogredient transformiert werden. Bei Tensoren erfolgen die Umrechnungen in entsprechender Weise, hier am Beispiel der kontravarianten Komponenten. ` ˘T ## AT Tph A e Δ h T## Δ h c “ eT looooomooooon T g “ cT looooooomooooooon T “ g # # “ T ph
“T
T ph “ A T AT “ Δ 1{h T## Δ 1{h “ Δ h T## Δ h
(18.27)
Für den Basiswechsel zwischen zwei orthogonalen Systemen, die durch x# “ x# pu# q und x# “ x# pw# q beschrieben werden, lauten die Umrechnungen der physikalischen Vektor- und Tensorkomponenten folgendermaßen, wobei die Matrizenprodukte wieder orthogonale Matrizen ergeben. v phw prq “ A w ATu v phu
T phw prq “ A w ATu T phu A u ATw
(18.28)
401
18.3 Vektor- und Tensorkomponenten
18.3.2
Ableitung der Komponenten
Mit den Beziehungen (18.18) erhält man die Ableitung der Diagonalmatrizen (18.4) “ ` ‰ “ ‰ ˘ Δh , “ Diag ∇ hk “ Diag hk Γkk “ Δh Diag Γkk und damit insgesamt ˘ ` Δ 1{h , “ ´ Δ 1{h Diag Γkk
˘ ` Δ h , “ Δ h Diag Γkk
(18.29)
Die Ableitung der ko- und kontravarianten Vektorkomponenten folgt aus der Darstellung (18.26) v # , “ ∇ v # “ ∇ pΔ h v ph q
“ Δ h , v ph ` Δ h v ph ,
v#, “ ∇ v# “ ∇ pΔ 1{h v ph q “ Δ 1{h , v ph ` Δ 1{h v ph , ” ı ` ˘ v # , “ Δ h v ph , ` Diag Γkk v ph (18.30) v#,
” “ Δ 1{h v ph , ´ Diag
`
Γkk
˘
ı v ph
Die Ableitung der kontravarianten Tensorkomponenten gemäß (18.27) ergibt sich in entsprechender Weise. “ ‰ T##, “ ∇ Δ 1{h T ph Δ 1{h T##, “ Δ 1{h
”
` ` ˘ ˘ı ´ Diag Γkk T ph ` T ph , ´ T ph Diag Γkk Δ 1{h (18.31)
18.3.3
Vektor- und Tensorableitung
Normalerweise werden nur kartesische oder krummlinige orthogonale Darstellungen verwendet, so dass man die kovarianten Ableitungen von Vektoren und Tensoren nach (17.16) und (17.26) nicht benötigt.
402
18 Orthogonale Koordinatensysteme
Aus (18.25) folgt für die Vektorableitung nach einer beliebigen Koordinate und der -ten Spalte c , der C-Matrix (18.24) ”` ı ˘T ` ˘T ˘T ` v , “ ∇ v “ v , e “ v ph , ` v ph Λ ## c
(18.32)
In entsprechender Weise folgt aus T “ eT T e “ cT T ph c ` ˘T T , “ c , T ph c ` cT T ph , c ` cT T ph c , die Tensorableitung. T , “ ∇ T “ eT T , e “ c T
”`
Λ ##
˘T
ı T ph ` T ph , ` T ph Λ ## c (18.33)
18.4 18.4.1
Differentialoperationen Basisvektoren und Maßstäbe
Die Darstellung der ko- und kontravarianten Basisvektoren erhält man aus (18.10) mit (18.4). g# prq “ Δ 1{h c prq
g prq “ Δ h c prq #
(18.34)
Nach diesen Beziehungen sind auch die Maßstäbe der richtungsgleichen orthogonalen Dreibeine g , g# und c des Koordinatensystems gemäß #
(18.3) bestimmt. Die kontravarianten Basisvektoren stellen gemäß (17.11) die Gradienten der Koordinaten dar, so dass sich folgende Relationen der Vektoren zueinander ergeben. 1 gk “ ck “ hk gk hk
gk “ grad uk “
1 ck hk
(18.35)
403
18.4 Differentialoperationen
18.4.2
Gradient in orthogonalen Koordinaten
Setzt man die Basisvektoren (18.34) in (17.6) ein, dann ergibt sich die Darstellung des Gradienten einer skalaren Ortsfunktion in orthogonalen Koordinaten. ` ˘T ` ˘T grad V “ ∇ # V g# “ ∇ # V Δ 1{h c grad V “
18.4.3
1 BV 1 BV 1 BV c1 ` c2 ` c3 1 2 h1 Bu h2 Bu h3 Bu3
(18.36)
Divergenz in orthogonalen Koordinaten
Die Divergenz eines Vektors wird nach (17.46) mit der kovarianten Ableitung (17.16) berechnet. div v “
3 ÿ k“1
ˇ v k ˇk “
` ˘ v 1, 1 ` v 1 Γ111 ` v 2 Γ211 ` v 3 Γ311 ` ˘ ` v 2, 2 ` v 1 Γ122 ` v 2 Γ222 ` v 3 Γ322 ˘ ` ` v 3, 3 ` v 1 Γ133 ` v 2 Γ233 ` v 3 Γ333
Indem man die kontravarianten Vektorkomponenten nach (18.26) durch die physikalischen ersetzt, erhält man mit (18.18) und (18.16) die Divergenz als Funktion der metrischen Faktoren. ´1 ¯ 1 1 Bv phk v phk “ ´ Γ k v phk v k, k “ ∇k k hk hk Bu hk k k 3 3 ÿ ÿ ˇ v php 1 Bv phk k v phk v k ˇk “ v k, k ` Γpkk v p “ ´ Γ ` Γpkk kk k hk Bu hk hp p“1 p“1
div v “
1 Bv ph1 ´ 1 ` h1 Bu1 h2 1 Bv ph2 ´ 1 ` ` h2 Bu2 h1 ´ 1 Bv ph3 1 ` ` 3 h3 Bu h1
Bh2 1 Bh3 ¯ v ph1 ` Bu1 h3 Bu1 h1 1 Bh3 ¯ v ph2 Bh1 ` Bu2 h3 Bu2 h2 ¯ 1 Bh2 v ph3 Bh1 ` 3 Bu h2 Bu3 h3
404
18 Orthogonale Koordinatensysteme
Die kanonische Form der Divergenz findet man dadurch, dass man mit der Determinante h “ h1 h2 h3 nach (18.7) erweitert und die Glieder jeder Zeile zusammenfasst.
` ` ˘ ˘ ˘j „ ` B h1 v ph2 h3 B h1 h2 v ph3 B v ph1 h2 h3 ` ` Bu1 Bu2 Bu3 ˆ ˙ 3 1 ÿ B h “ v ph p h p“1 Bup hp
1 div v “ h
18.4.4
(18.37)
Rotation in orthogonalen Koordinaten
Die Rotation eines Vektors erhält man nach (17.51), indem man die Ableitungen der kovarianten Komponenten nach (18.30) durch die physikalischen ersetzt.
“ ‰ Bv phk Bhk ` v phk v k , “ hk v phk , ` Γkk v phk “ hk Bu Bu ı ` ` ˘ ˘ ˘ 1 ”` rot v “ v3, 2 ´ v2, 3 h1 c1 ` v1, 3 ´ v3, 1 h2 c2 ` v2, 1 ´ v1, 2 h3 c3 h ¯ ´ Bv ¯ı Bh3 Bh2 h1 ”´ Bv ph3 ph2 ` v ` v “ ´ h c1 h3 2 ph ph 3 2 h Bu2 Bu2 Bu3 Bu3 ¯ ´ Bv ¯ı h2 ”´ Bv ph1 Bh1 Bh3 ph3 ` ` v ` v ´ h c2 h1 3 ph ph 1 3 h Bu3 Bu3 Bu1 Bu1 ¯ ´ Bv ¯ı h3 ”´ Bv ph2 Bh2 Bh1 ph1 ` ` v ` v ´ h c3 h2 1 ph ph 2 1 h Bu1 Bu1 Bu2 Bu2 Durch Zusammenfassen der Differentiale erreicht man zwei kanonische Darstellungen der Rotation, die erste als direkten Ausdruck, die zweite in
405
18.4 Differentialoperationen
Form einer Determinante.
˘ ˘j ` „ ` B h3 v ph3 B h2 v ph2 rot v “ c1 ´ Bu2 Bu3 ` ˘ ˘j „ ` B h1 v ph1 B h3 v ph3 1 c2 ` ´ h1 h3 Bu3 Bu1 ` ˘ ˘j „ ` B h2 v ph2 B h1 v ph1 1 c3 ` ´ h1 h2 Bu1 Bu2 1 h 2 h3
ˇ ˇ h 1 c1 ˇ ˇ 1 ˇˇ B rot v “ ˇ h ˇ Bu1 ˇ ˇ h1 v ph 1
18.4.5
h2 c2 B Bu2 h2 v ph2
(18.38)
ˇ h2 c2 ˇˇ ˇ ˇ B ˇ ˇ 3 Bu ˇ ˇ h3 v ph ˇ 3
Laplace-Operator in orthogonalen Koordinaten
Ausgangspunkt für die Berechnung des Laplace-Operators ist die Divergenzbeziehung (17.46), bei der der Vektor v den Gradienten einer Ortsfunktion V bedeutet.
ΔV “ div grad V “ div v “
3 ÿ
ˇ v k ˇk
k“1
Die in der Summe auftretenden kovarianten Ableitungen müssen gemäß (17.17) durch die kovarianten Komponenten ausgedrückt werden, da der Gradient nach (17.4) nur mit diesen Komponenten auftritt, die dann ihrerseits wie bei (17.65) durch die Ableitungen der Ortsfunktion V ausgedrückt
406
18 Orthogonale Koordinatensysteme
werden. ˇ “ ‰ ¨# v# ˇk “ Δ# v # , k ´ Γ # k v# ˇ ˘‰ ` 1 “ v k ˇk “ 2 vk , k ´ Γk1k v1 ` Γk2k v2 ` Γk3k v3 hk BV Buk B2 V “ ∇k v k “ pBuk q2
v k “ ∇k V “ vk , k
Mit den Christoffel-Symbolen nach (18.16) erhält man die Darstellung des Laplace-Operators in orthogonalen Koordinatensystemen. „ 2 j B V 1 Bh1 BV h1 Bh1 BV h1 Bh1 BV 1 ´ ` ` ΔV “ h21 pBu1 q2 h1 Bu1 Bu1 h22 Bu2 Bu2 h23 Bu3 Bu3 „ 2 j 1 B V h2 Bh2 BV 1 Bh2 BV h2 Bh2 BV ` 2 ` ´ ` h2 pBu2 q2 h21 Bu1 Bu1 h2 Bu2 Bu2 h23 Bu3 Bu3 „ 2 j 1 B V h3 Bh3 BV h3 Bh3 BV 1 Bh3 BV ` 2 ` ` ´ h3 pBu3 q2 h21 Bu1 Bu1 h22 Bu2 Bu2 h3 Bu3 Bu3 Ähnlich wie bei der Divergenz findet man auch hier die kanonische Form des Laplace-Operators, indem man mit der Determinante h erweitert und die Glieder spaltenweise zusammenfasst. ΔV “
1 h
„
˙ h2 h3 BV h1 Bu1 ˆ ˙ h1 h3 BV B ` 2 Bu h2 Bu2 ˆ ˙j h1 h2 BV B ` 3 Bu h3 Bu3
B Bu1
ˆ
ˆ ˙ 3 1 ÿ B h BV “ h p“1 Bup hp Bup
(18.39)
18.5 Beispiele von Koordinatensystemen
18.5
407
Beispiele orthogonaler Koordinatensysteme
Die in diesem Kapitel entwickelten Beziehungen und Differentialoperatoren werden in tabellarischer Weise für verschiedene Koordinatensysteme aufgeführt, wobei die kartesischen Koordinaten als Referenzsystem angegeben werden. Die konkreten Beispiele krummliniger Systeme stellen die in den Anwendungen besonders wichtigen Koordinaten des Kreiszylinders und der Kugel sowie das weniger geläufige Koordinatensystem des abgeplatteten Rotationsellipsoids dar [1], [2], [3], [5]. Die Reihenfolge der Koordinaten bildet in allen Fällen ein Rechtssystem und die krummlinigen Einheitsvektoren mit individuellem Index werden mit e ... und nicht mit c ... bezeichnet.
18.5.1
Kartesische Koordinaten (x, y, z)
Einheitsvektoren und metrische Faktoren Die Einheitsvektoren sind nicht ortsabhängig und weisen in allen Raumpunkten jeweils in die gleiche Richtung. ¨ ˛ # ex div ex “ div ey “ div ez “ 0 e “ ˝ey ‚ ‰ f prq Ñ rot ex “ rot ey “ rot ez “ 0 ez Alle metrischen Faktoren sind Eins und ihre Ableitungen daher alle Null. $ ’ Δ h “ Δ 1{h “ Δ # “ Δ# “ E ’ ’ ’ & › › › › ¨# h x “ hy “ h z “ 1 Ñ 0 Γ# “ , 0 , 0 › › p#q ’ ’ ’ ’ % C ## “ 0 Da alle Christoffel-Symbole Null sind, reduzieren sich nach Abschnitt 17.2.11 die kovarianten Ableitungen auf die partiellen! Gradient grad V “
BV BV BV ex ` ey ` ez Bx By Bz
(18.40)
408
18 Orthogonale Koordinatensysteme
Divergenz
div v “
Bvx Bvy Bvz ` ` Bx By Bz
(18.41)
Rotation rot v “ „ “
ex B Bx vx
ey B By vy
Bvy Bvz ´ By Bz
" rot rot v “ " ` " ` “
“
B By
„
B Bz
„
B Bx
„
ez B Bz vz j
(18.42)
„ ex `
Bvx Bvz ´ Bz Bx
Bvy Bvx ´ Bx By
j
Bvy Bvz ´ By Bz
j
Bvx Bvz ´ Bz Bx
j
B ´ Bz
„
B ´ Bx
„
B By
„
´
„
j ey `
Bvy Bvx ´ Bx By
Bvx Bvz ´ Bz Bx
j*
Bvy Bvx ´ Bx By
j*
Bvy Bvz ´ By Bz
j*
j ez
ex ey ez
(18.43)
˘ ˘ ˘ B ` B ` B ` div v ex ` div v ey ` div v ez Bx By Bz ` ˘ ´ Δvx ex ` Δvy ey ` Δvz ez grad div v ´ Δv
Laplace-Operator
ΔV “
B2 V B2 V B2 V ` ` Bx2 By 2 Bz 2
(18.44)
409
18.5 Beispiele von Koordinatensystemen
Vektor-Laplace-Operator Δ v “ Δvx ex ` Δvy ey ` Δvz ez j „ 2 B vx B 2 vx B 2 vx ex “ ` ` Bx2 By 2 Bz 2 „ 2 j B vy B 2 vy B 2 vy ` ` ` ey Bx2 By 2 Bz 2 j „ 2 B 2 vz B 2 vz B vz ez ` ` ` Bx2 By 2 Bz 2
(18.45)
Divergenzen eines Tensors 2. Stufe div T “ ∇ ¨ T “
˚
Ă“ div T “ ∇ ¨ T
`
˘ Txx, x ` Tyx, y ` Tzx, z ex ` ˘ ` Txy, x ` Tyy, y ` Tzy, z ey ` ˘ ` Txz, x ` Tyz, y ` Tzz, z ez
(18.46a)
`
˘ Txx, x ` Txy, y ` Txz, z ex ` ˘ ` Tyx, x ` Tyy, y ` Tyz, z ey ` ˘ ` Tzx, x ` Tzy, y ` Tzz, z ez
(18.46b)
Divergenzen eines vierdimensionalen Tensors der Raumzeit div T “ l ¨ T “
˚
Ă“ div T “ l ¨ T
“
‰ T00 , 0 ` T10 , 1 ` T20 , 2 ` T30 , 3 e0 “ ‰ ` T01 , 0 ` T11 , 1 ` T21 , 2 ` T31 , 3 e1 ‰ “ ` T02 , 0 ` T12 , 1 ` T22 , 2 ` T32 , 3 e2 ‰ “ ` T03 , 0 ` T13 , 1 ` T23 , 2 ` T33 , 3 e3
(18.47a)
“
‰ T00 , 0 ` T01 , 1 ` T02 , 2 ` T03 , 3 e0 “ ‰ ` T10 , 0 ` T11 , 1 ` T12 , 2 ` T13 , 3 e1 ‰ “ ` T20 , 0 ` T21 , 1 ` T22 , 2 ` T23 , 3 e2 ‰ “ ` T30 , 0 ` T31 , 1 ` T32 , 2 ` T33 , 3 e3
(18.47b)
410
18 Orthogonale Koordinatensysteme
Rotation eines Tensors 2. Stufe BT BT BT ` ey ˆ ` ez ˆ Bx By Bz ‰ ‰ “ “ “ Tzx , y ´ Tyx , z ex ex ` Tzy , y ´ Tyy , z ex ey “ ‰ ` Tzz , y ´ Tyz , z ex ez “ “ ‰ ‰ ` Txx , z ´ Tzx , x ey ex ` Txy , z ´ Tzy , x ey ey “ ‰ ` Txz , z ´ Tzz , x ey ez “ “ ‰ ‰ ` Tyx , x ´ Txx , y ez ex ` Tyy , x ´ Txy , y ez ey “ ‰ ` Tyz , x ´ Txz , y ez ez
rot T “ ∇ ˆ T “ ex ˆ
(18.48)
Vektorgradient ¨
Bvx ˚ Bx ˛ ¨ ˚ ∇1 v ˚ ‹ ˚ ˚ Bv ∇v “ Grad v “ eT ˝ ∇2 v ‚ “ eT ˚ x ˚ By ˚ ∇3 v ˝ Bv x Bz
Bvy Bx Bvy By Bvy Bz
Bvz Bx Bvz By Bvz Bz
˛ ‹ ‹ ‹ ‹ ‹e ‹ ‹ ‚
(18.49)
Skalarer Operator eines Vektors `
˘ Bv Bv Bv ` ay ` az a ¨ grad v “ a ¨ Grad v “ ax Bx By Bz ` ` ` ˘ ˘ ˘ “ a ¨ grad vx ex ` a ¨ grad vy ey ` a ¨ grad vz ez „ j Bvx Bvx Bvx “ ax ` ay ` az ex Bx By Bz „ j Bvy Bvy Bvy ` ax (18.50) ` ay ` az ey Bx By Bz „ j Bvz Bvz Bvz ` ax ` ay ` az ez Bx By Bz
411
18.5 Beispiele von Koordinatensystemen
Symmetrischer Ableitungstensor ¨
B2 V ˚ Bx2 ˚ ˚ 2 ˚ ` ˘ T˚ B V T pBq pBq T V “ e T ## pV q e “ e ˚ ˚ Bx By ˚ 2 ˝ B V Bx Bz
B2 V Bx By B2V By 2 B2V By Bz
˛ B2 V Bx Bz ‹ ‹ ‹ 2 B V ‹ ‹ e By Bz ‹ ‹ ‹ 2 B V ‚
(18.51)
Bz 2
Spezielles Kreuzprodukt Für die Divergenz des Kreuzproduktes aus einem symmetrischen Tensor 2. Stufe S nach (18.46) und dem Ortsvektor ¨ ˛ ¨ ˛ e1 ex ˘ ` ˘ ` r “ xT e “ x, y, z ˝ey ‚ “ x1 , x2 , x3 ˝e2 ‚ ez e3 erhält man nach Zwischenrechnung folgende Beziehung zwischen Vektoren, die in dieser allgemeinen Form in beliebigen Koordinatensystemen gültig ist. ` ˘ ` ˘ div S ˆ r “ div S ˆ r “ ´ r ˆ div S (18.52)
18.5.2
Zylinderkoordinaten (ρ, ϕ, z)
Funktionssätze zur Koordinatendarstellung ˛ ¨ ˛ ¨ ρ cos ϕ x ` ˘ ‹ ˚ ‹ ˚ x# “ ˝y ‚ “ ˝ ρ sin ϕ ‚ “ x# u# (18.53) z z ˛ ¨ a ρ “ const. Ñ Kreiszylinder ρ “ x2 ` y 2 ‹ ˚ # ϕ “ const. Ñ Azimutebenen u “ ˝ϕ “ arctan y{x‚, z “ const. Ñ Horizontalebenen z Funktionalmatrix ˛ ¨ cos ϕ ´ ρ sin ϕ 0 ` ˘ ˚ ‹ ρ cos ϕ 0 ‚, F x# { u# “ ˝ sin ϕ 0 0 1
` ˘ det F x# { u# “ ρ
(18.54)
412
18 Orthogonale Koordinatensysteme
Matrizen des Metriktensors ˛ ¨ 1 0 0 ‹ ˚ G # “ Δ # “ ˝ 0 ρ2 0 ‚, 0 0 1
˛ 1 0 0 ‹ ˚ G# “ Δ# “ ˝ 0 1{ρ2 0 ‚ 0 0 1 ¨
(18.55)
Metrische Faktoren, Transformationsmatrix und Einheitsvektoren ˛ ¨ ˛ ¨ ˛ hρ cos ϕ sin ϕ 0 1 ‹ ˚ ˚ ‹ ˚ ‹ Aprq “ A ϕ prq “ ˝ ´ sin ϕ cos ϕ 0 ‚ h # “ ˝ hϕ ‚ “ ˝ ρ ‚, 0 0 1 1 hz ¨ ¨ ˛ ˛ eρ ` cos ϕ ex ` sin ϕ ey ˚ ˚ ‹ ‹ c “ ˝ eϕ ‚ “ A ϕ e “ ˝´ sin ϕ ex ` cos ϕ ey ‚ (18.56) ez ez ¨
Die Matrix Aprq ist identisch mit der Matrix A ϕ der ebenen Drehung nach (6.34). Elemente der Geometrie r “ ρ cos ϕ ex ` ρ sin ϕ ey ` z ez dr “ dρ eρ ` ρ dϕ eϕ ` dz ez ds2 “ dρ2 ` ρ2 dϕ2 ` dz 2 dv “ ρ dρ dϕ dz
daρϕ “ ρ dρ dϕ daρz “ dρ dz
(18.57)
daϕz “ ρ dϕ dz
Christoffel-Blockmatrizen
¨# Γ# p#q
r ¨# Γ # p#q
¨ ˛ ¨ ˛ ¨ ˛ 0 0 0 0 0 0 0 1{ρ 0 ‹ ˚ ‹ ˚ ‹ ˚ “ ˝0 1{ρ 0 ‚, ˝´ ρ 0 0 ‚, ˝ 0 0 0 ‚ 0 0 0 0 0 0 0 0 0 ¨ ˛ ¨ ˛ ¨ ˛ 0 0 0 0 0 0 0 1{ρ 0 ‹ ˚ ‹ ˚ ‹ ˚ “ ˝0 0 0 ‚, ˝´ ρ 0 0 ‚, ˝ 0 0 0 ‚ 0 0 0 0 0 0 0 0 0
(18.58)
413
18.5 Beispiele von Koordinatensystemen
Ableitung der Einheitsvektoren
C ##
¨ ˛ ¨ ˛ ¨ ˛ ¨ ˛ 0 0 0 0 0 0 eρ 0 1 0 ‹ ˚ ‹ ˚ ‹ ˚ ‹ ˚ “ ˝0 0 0 ‚, ˝´ 1 0 0 ‚, ˝ 0 0 0 ‚ ˝ ˝eϕ ‚ 0 0 0 0 0 0 ez 0 0 0 0
eρ, ρ
eρ, ϕ
eρ, z
˚ C ## “ ˝ eϕ, ρ
eϕ, ϕ
‹ ˚ eϕ, z ‚ “ ˝ 0
ez, ρ
ez, ϕ
ez, z
¨
˛
¨
˛ 0 ‹ 0‚
eϕ ´ eρ
0
0
0
Gradient grad V “
1 BV BV BV eρ ` eϕ ` ez Bρ ρ Bϕ Bz
Divergenz div v “ div eρ “
Bvρ vρ 1 Bvϕ Bvz ` ` ` Bρ ρ ρ Bϕ Bz 1 , ρ
div eϕ “ div ez “ 0
Rotation „ rot v “
Bvϕ 1 Bvz ´ ρ Bϕ Bz
rot eρ “ 0 ,
j
rot eϕ “
„ eρ ` 1 ez , ρ
Bvρ Bvz ´ Bz Bρ
j
„ eϕ `
Bvϕ vϕ 1 Bvρ ` ´ Bρ ρ ρ Bϕ
rot ez “ 0
Laplace-Operator
ΔV “
B2 V 1 BV B2 V 1 B2 V ` ` ` Bρ2 ρ Bρ ρ2 Bϕ2 Bz 2
j ez
414
18 Orthogonale Koordinatensysteme
18.5.3
Kugelkoordinaten (r, ϑ, ϕ)
Funktionssätze zur Koordinatendarstellung ˛ ¨ ˛ ¨ r sin ϑ cos ϕ x ` ˘ ‹ ˚ ‹ ˚ x# “ ˝y ‚ “ ˝ r sin ϑ sin ϕ ‚ “ x# u# r cos ϑ z a ˛ x2 ` y 2 ` z 2 `a ˘‹ ˚ u# “ ˝ϑ “ arctan x2 ` y 2 {z ‚, ϕ “ arctan py{xq ¨
r“
(18.59)
r “ const. Ñ Kugelflächen ϑ “ const. Ñ Kegelflächen ϕ “ const. Ñ Azimutebenen
Funktionalmatrix ˛ sin ϑ cos ϕ r cos ϑ cos ϕ ´ r sin ϑ sin ϕ ` ˘ ˚ ‹ r sin ϑ cos ϕ ‚ F x# { u# “ ˝ sin ϑ sin ϕ r cos ϑ sin ϕ cos ϑ ´ r sin ϑ 0 ` # #˘ det F x { u “ r2 sin ϑ ¨
Matrizen des Metriktensors ¨
˛ 1 0 0 ‹ ˚ 0 G # “ Δ # “ ˝ 0 r2 ‚ 2 2 0 0 r sin ϑ ˛ ¨ 1 0 0 ‹ ˚ 0 G# “ Δ# “ ˝ 0 1{r2 ‚ 2 2 0 0 1{pr sin ϑq
Metrische Faktoren, Einheitsvektoren und Transformationsmatrix ˛ ¨ ¨ ˛ ¨ ˛ hr er 1 ‹ ˚ ˚ ‹ ˚ ‹ c “ ˝ eϑ ‚ “ A e h # “ ˝ hϑ ‚ “ ˝ r ‚, r sin ϑ hϕ eϕ ˛ ¨ sin ϑ cos ϕ sin ϑ sin ϕ cos ϑ ‹ ˚ (18.60) A “ ˝ cos ϑ cos ϕ cos ϑ sin ϕ ´ sin ϑ ‚ ´ sin ϕ cos ϕ 0
415
18.5 Beispiele von Koordinatensystemen
Elemente der Geometrie (18.61)
r “ r sin ϑ cos ϕ ex ` r sin ϑ sin ϕ ey ` r cos ϑ ez dr “ dr er ` r dϑ eϑ ` r sin ϑ dϕ eϕ
darϑ “ r dr dϑ
ds2 “ dr2 ` r2 dϑ2 ` r2 sin2 ϑ dϕ2
darϕ “ r sin ϑ dr dϕ
dv “ r2 sin ϑ dr dϑ dϕ
daϑϕ “ r2 sin ϑ dϑ dϕ
Christoffel-Blockmatrizen ›¨ ˛ ˛ ¨ › 0 0 0 1{r 0 0 › ›˚ ‹ ‹ ˚ ¨# 0 ‚, Γ# ˝ 0 1{r 0 ‚, ˝´ r 0 p#q “ › › › 0 0 1{r 0 0 cot ϑ ¨ 0 0 ˚ 0 0 ˝
1{r
˛ › › › ‹ › cot ϑ ‚ › › › 0 ´ r sin2 ϑ ´ sin ϑ cos ϑ
r ¨# Γ # p#q
›¨ ˛ ˛ ¨ › 0 0 0 0 1{r 0 › ‹ ‹ ˚ ›˚ “ › ˝ 0 0 0 ‚, ˝´ r 0 0 ‚, › › 0 0 0 0 0 0 ¨ 0 0 ˚ 0 0 ˝
1{r
˛ › › › ‹ › cot ϑ ‚ › › › 2 ´ r sin ϑ ´ sin ϑ cos ϑ 0
Ableitung der Einheitsvektoren ›¨ ˛ ˛ ¨ › 0 0 0 0 1 0 › ‹ ›˚ ‹ ˚ C ## “ › ˝ 0 0 0 ‚, ˝´1 0 0 ‚, › › 0 0 0 0 0 0 ¨ 0 0 ˚ 0 ˝ 0
sin ϑ
˛ › ¨ ˛ › er › ‹ › ˚ ‹ cos ϑ ‚ › ˝ ˝eϑ ‚ › › eϕ ´ sin ϑ ´ cos ϑ 0
416
18 Orthogonale Koordinatensysteme 0
er,r
er,ϑ
er,ϕ
˚ C ## “ ˝ eϑ,r
eϑ,ϑ
‹ ˚ eϑ,ϕ ‚ “ ˝ 0 ´er
¨
eϕ,r
˛
¨
0
eϕ,ϑ eϕ,ϕ
eϑ 0
sin ϑ eϕ
˛
cos ϑ eϕ
‹ ‚
´ sin ϑ er ´ cos ϑ eϑ
Gradient grad V “
BV 1 BV 1 BV er ` eϑ ` eϕ Br r Bϑ r sin ϑ Bϕ
(18.62)
Divergenz div v “ div er “
1 Bvϑ cot ϑ 1 Bvϕ Bvr 2 ` vr ` ` vϑ ` Br r r Bϑ r r sin ϑ Bϕ 2 , r
div eϑ “
cot ϑ , r
div eϕ “ 0
Rotation „ rot v “
j 1 Bvϕ cot ϑ 1 Bvϑ ` vϕ ´ er r Bϑ r r sin ϑ Bϕ j „ Bvϕ 1 Bvr 1 ` ´ ´ vϕ eϑ r sin ϑ Bϕ Br r „ j Bvϑ 1 1 Bvr ` ` vϑ ´ eϕ Br r r Bϑ
rot er “ 0 ,
rot eϑ “
1 eϕ , r
rot eϕ “
cot ϑ 1 er ´ e ϑ r r
Laplace-Operator ΔV “
18.5.4
B2 V 2 BV cot ϑ BV B2V 1 B2 V 1 ` ` ` ` Br2 r Br r2 Bϑ2 r2 Bϑ r2 sin2 ϑ Bϕ2
(18.63)
Gegenseitige Darstellung der Koordinatensysteme
Einheitsvektoren von Zylinder- und Kugelkoordinaten Nach (18.14) gilt für die Umrechnungen mit den oben angegebenen Matrizen c Zyl “ A Zyl ATKug c Kug ` ˘T cKug “ A Kug ATZyl c Zyl “ A Zyl ATKug c Zyl
417
18.5 Beispiele von Koordinatensystemen
c Zyl
˛¨ ˛ ¨ ˛ ¨ ˛ er eρ sin ϑ cos ϑ 0 sin ϑ er ` cos ϑ eϑ ‹˚ ‹ ˚ ˚ ‹ ˚ ‹ 0 1 ‚˝eϑ ‚ “ ˝ eϕ “ ˝eϕ ‚ “ ˝ 0 ‚ cos ϑ ´ sin ϑ 0 ez eϕ cos ϑ er ´ sin ϑ eϑ
c Kug
˛¨ ˛ ¨ ˛ ¨ ˛ eρ er sin ϑ 0 cos ϑ sin ϑ eρ ` cos ϑ ez ‹˚ ‹ ˚ ˚ ‹ ˚ ‹ “ ˝eϑ ‚ “ ˝ cos ϑ 0 ´ sin ϑ ‚˝eϕ ‚ “ ˝ cos ϑ eρ ´ sin ϑ ez ‚ 0 1 0 eϕ ez eϕ
¨
¨
Physikalische Vektorkomponenten Ein Vektor hat im kartesischen, Zylinder- und Kugelkoordinatensystem nach (18.26) folgende Darstellungen mit physikalischen Komponenten und Einheitsvektoren. v “ vT e “ vTZyl c Zyl “ vTKug c Kug v Zyl “ A Zyl ATKug v Kug ˘T ` v Kug “ A Zyl ATKug v Zyl “ A Kug ATZyl v Zyl ¨
v Zyl
v Kug
18.5.5
˛ ¨ vρ vr ˚ ‹ ˚ “ ˝vϕ ‚ “ ˝ vz vr ¨ ˛ ¨ vr vρ ˚ ‹ ˚ “ ˝ vϑ ‚ “ ˝ vρ vϕ
˛ sin ϑ ` vϑ cos ϑ ‹ vϕ ‚ cos ϑ ´ vϑ sin ϑ ˛ sin ϑ ` vz cos ϑ ‹ cos ϑ ´ vz sin ϑ ‚ vϕ
Koordinaten des abgeplatteten Rotationsellipsoids (η, ξ, ϕ)
Abkürzungen wη “
a 1 ´ η2 ,
wξ “
a ξ2 ` 1 ,
v“
a η2 ` ξ2
c ist der Radius des Fokalkreises aller Rotationsellipsoide
418
18 Orthogonale Koordinatensysteme
Funktionssatz zur Koordinatendarstellung
˛ ¨ ¨ ˛ ¨ a ˛ x c wη wξ cos ϕ c p1 ´ η 2 qpξ 2 ` 1q cos ϕ ‹ ˚ ˚ ‹ ˚ a ‹ ‹ 2 2 x# “ ˝ y ‚ “ ˚ ˝ c p1 ´ η qpξ ` 1q sin ϕ ‚ “ ˝ c wη wξ sin ϕ ‚ cηξ z cηξ
η “ const. Ñ einschalige Rotationshyperboloide ξ “ const. Ñ Rotationsellipsoide ϕ “ const. Ñ Azimutebenen
p´1 ď η ď `1q p0 ď ξ ď 8q p0 ď ϕ ď 2πq
Funktionalmatrix
¨ `
#
F x {u
#
˘
˚ ˚ “˚ ˚ ˝
˛ wξ wη cos ϕ ` c ξ cos ϕ ´ c wη wξ sin ϕ wη wξ ‹ ‹ wξ wη ‹ sin ϕ ` c ξ sin ϕ ` c wη wξ cos ϕ ‹ ´cη wη wξ ‚
´cη
cξ
cη
0
` ˘ det F x# { u# “ c3 v 2 “ c3 pη 2 ` ξ 2 q
Matrix des Metriktensors ˛ v ¯2 0 0 ˚ wη ‹ ˚ ‹ ´ v ¯2 2 ˚ ‹ G# “ Δ# “ c ˚ 0 ‹ 0 ˝ ‚ wξ ` ˘2 0 0 wη wξ ` ˘ det G # “ det Δ # “ det2 F x# { u# “ c6 v 4 “ c6 pξ 2 ` η 2 q2 ¨´
419
18.5 Beispiele von Koordinatensystemen
Metrische Faktoren und Transformationsmatrix ¨ h#
hη
˛
¨
v wη v wξ
˚ ‹ ˚ ˚ ‹ ˚ ˚ ‹ “ ˚ hξ ‹ “ c ˚ ˚ ˝ ‚ ˝ hϕ wη wξ
‹ ‹ ‹ ‹ ‚
wξ wξ wη ˛ cos ϕ ´ η sin ϕ ξ v v v ‹ ˚ ˚ ‹ w w w ˚ “ ˚ ` ξ η cos ϕ ` ξ η sin ϕ η ξ ‹ ‹ ˝ v v v ‚ ´ sin ϕ cos ϕ 0 ¨
Aprq “ A Ell
˛
´η
Prüfung des Rechtssystems wξ wξ wη ı cos ϕ ex ´ η sin ϕ ey ` ξ ez ˆ v v v ” wξ ı wη wη ˆ `ξ cos ϕ ex ` ξ sin ϕ ey ` η ez v v v ´ w ¯2 ı ” ´ w ¯2 ξ η sin ϕ ` ξ cos ϕ ex “´ η v v ” ´ w ¯2 ´ w ¯2 ı ξ η ` η cos ϕ ` ξ sin ϕ ey v v ” ´ η ξ w w ¯2 ´ η ξ w w ¯2 ı η ξ η ξ ´ sin ϕ cos ϕ ´ sin ϕ cos ϕ ez v2 v2 ” ´ w ¯2 ´ w ¯2 ı ” ı ξ η “ η ` ξ ´ sin ϕ ex ` cos ϕ ey v v loooooooooooomoooooooooooon loooooooooooomoooooooooooon ”
eη ˆ eξ “
´η
“1
“ eϕ
e η ˆ e ξ “ eϕ Die Variablen η, ξ, ϕ bzw. die Einheitsvektoren eη , eξ , eϕ bilden in dieser Reihenfolge ein Rechtssystem.
420
18 Orthogonale Koordinatensysteme
Christoffel-Blockmatrix ›¨ ´ ´ w ¯2 › w ξ ¯2 ξ › η ´ ξ 0 ›˚ v wη v wη ›˚ ›˚ η ξ ›˚ ¨# “ Γ# 0 ›˚ p#q ›˚ v2 v2 ›˚ ›˝ η › 0 0 ´ 2 › wη ξ η ˚ v2 v2 ˚ ´ ´ ¯ ¯ ˚ ˚´ η wη 2 ξ wη 2 ˚ v wξ v wξ ˚ ˚ ˝ 0 0
˛ ‹ ‹ ‹ ‹ ‹, ‹ ‹ ‚
¨
¨ ˚ ˚ ˚ ˚ ˚ ˚ ˝ η
˛ 0 ‹ ‹ ‹ 0 ‹ ‹, ‹ ‹ ξ ‚ wξ2
0
0
0
0
η wη2 ξ wξ2
´
´ w w ¯2 ´ w w ¯2 η ξ η ξ ´ξ v v
0
˛ › › › ‹ › ‹ › ‹ › ‹ › ‹ › ‹ › ‚› › ›
Ableitung der Einheitsvektoren
C ##
›¨ › › 0 ›˚ ›˚ ›˚ “ › ˚` ξ wξ ›˚ › ˝ v 2 wη › › 0
´
ξ wξ v 2 wη 0 0 ¨
˛ ¨ 0 ‹ ˚ ‹ ˚ ‹ ˚ η wη , ´ 0‹ 2 ‹ ˚ ‚ ˝ v wξ 0 0
0
0
˚ ˚ ˚ ˚ 0 ˚ ˝ wξ `η v
0 0 ´ξ
wη v
`
η wη v 2 wξ
0
˛
0
‹ ‹ 0‹ ‹, ‚
0
0
wξ v wη `ξ v ´η
0
˛ › › ¨ ˛ › eη ‹ › ‹ › ˚ ‹ ‹ › ˚ ‹ ‹ › ˝ ˝ eξ ‚ ‹ › ‚› › eϕ ›
421
18.5 Beispiele von Koordinatensystemen eη,η
eη,ξ
eη,ϕ
˚ C ## “ ˝ eξ,η
eξ,ξ
‹ eξ,ϕ ‚
¨
eϕ,η
˛
eϕ,ξ eϕ,ϕ
wξ ξ wξ η wη eξ ` 2 eξ ´η eϕ 2 ˚ v wη v wξ v ˚ ˚ ξ w wη η wη ξ “˚ eη ´ 2 eη `ξ eϕ ˚` 2 v wξ v ˚ v wη ˝ wξ wη 0 0 η eη ´ ξ eξ v v Darstellung durch Zylinder- und Kugelkoordinaten ¨
˛
´
‹ ‹ ‹ ‹ ‹ ‹ ‚
c Ell “ A Ell ATZyl c Zyl “ A Ell ATKug c Kug ¨ ˛ wξ wη ´ η ` ξ e e ρ z eη v v ˚ ‹ ‹ ˚ ‹ ˚ wξ wη ‹ ˚ eξ ‹ “ ˚ eρ ` η ez ‹ ˝ ‚ ˚` ξ ˝ ‚ v v eϕ eϕ ¨
˛
´ w ¯ ¯ ¨´ wη wξ wη ξ ξ cos ϑ ´ η sin ϑ er ´ η cos ϑ ` ξ sin ϑ eϑ v v v v ˚ ˚´ ´ w ¯ ¯ w w w ˚ “ ˚ η ξ cos ϑ ` ξ η sin ϑ e ` ξ η cos ϑ ´ η ξ sin ϑ e r ϑ ˝ v v v v eϕ Gradient grad V “
wξ BV wη BV 1 BV eη ` eξ ` eϕ c v Bη c v Bξ c wη wξ Bϕ
Divergenz wη cv
„
wξ ` cv
„
div v “
`
1 1 ´ v 2 wη2
˙
1 1 ` 2 2 v wξ
˙
Bvη `η Bη
ˆ
Bvξ `ξ Bξ
ˆ
Bvϕ 1 c wη wξ Bϕ
j vη j vξ
˛ ‹ ‹ ‹ ‹ ‚
422
18 Orthogonale Koordinatensysteme wη div eη “ η cv
ˆ
1 1 ´ 2 2 v wη
˙
wξ div eξ “ ξ cv
ˆ
1 1 ` 2 2 v wη
˙
div eϕ “ 0 Rotation j ¯ Bvξ wξ ´ Bvϕ 1 ξ ` 2 vϕ ´ eη rot v “ c v Bξ c wη wξ Bϕ wξ „ j ¯ wη ´ Bvϕ Bvη 1 η ´ ´ 2 vϕ ` eξ c v Bη wη c wη wξ Bϕ „ ¯j wη ´ Bvξ η ¯ wξ ´ Bvη ξ ` ` 2 vξ ´ ` 2 v η eϕ c v Bη v c v Bξ v „
1 ξ wη eϕ c v v2 1 η wξ rot eξ “ eϕ c v v2 ı 1 ” ξ η rot eϕ “ eη ` eξ c v wξ wη rot eη “ ´
Laplace-Operator 1 ΔV “ pc vq2
„ wη2
2 B2 V BV BV 2 B V ´ 2 η ` 2ξ ` w ` ξ 2 2 Bη Bη Bξ Bξ
ˆ
v wη wξ
˙2
B2 V Bϕ2
j
Literatur [1] Flammer, C.: Spheroidal Wave Functions Stanford University Press (1957) [2] Meixner, J., Schäfke, F. W.: Mathieusche Funktionen und Sphäroidfunktionen Springer Verlag, Berlin, Göttingen, Heidelberg (1954) [3] Moon, P., Spencer, D. E.: Field Theory Handbook Springer Verlag, Berlin, Heidelberg, New York (1971) [4] Morse, P. M., Feshbach, H.: Methods of Theoretical Physics, I/II McGraw-Hill Book Company, (1953) [5] Werner, W.: Rotationsellipsoid als elektromagnetischer Hohlraumresonator Diss. TU Berlin (1977)
423
Kapitel 19
Integralsätze und zeitabhängige Felder Zusammenfassung Zur Untersuchung, Berechnung und Beschreibung physikalischer Felder existiert eine Reihe von Integralsätzen (Gauß, Stokes, Green, Stratton), mit denen Aussagen über die Quellen und Wirbel von Feldern formuliert werden. Diese Sätze sowie die zeitliche Ableitung von Feldgrößen und Integralen werden im Hinblick auf ihr Auftreten in den physikalischen Anwendungen dargestellt.
19.1 19.1.1
Grundlegende Integralsätze Fluss von Feldern und Gauß’scher Satz
Ein Vektorfeld vprq wird durch die Quellen des Feldes charakterisiert, deren Quellstärke oder Quellergiebigkeit eine wichtige Größe für den Feldbegriff darstellt. Als anschauliches Bild für diese Vorstellung kann man den Vektor v der Geschwindigkeit einer inkompressiblen Flüssigkeit ansehen. Das Skalarprodukt v ¨ da stellt dann ein Maß für die Flüssigkeitsmenge dar, die durch das Flächenelement da strömt. Verallgemeinernd bezeichnet man für beliebige Vektoren diese skalare Größe als Fluss des Vektorfeldes oder Vektorfluss Ψ . Für ein Element 424 © Springer Fachmedien Wiesbaden GmbH, ein Teil von Springer Nature 2019 W. Werner, Vektoren und Tensoren als universelle Sprache in Physik und Technik 1, https://doi.org/10.1007/978-3-658-25272-4_19
425
19.1 Grundlegende Integralsätze
des Flusses gilt mit der nach außen zeigenden Flächennormalen n dΨ “ v ¨ da “ v ¨ n da “ vn da Der Vektorfluss ist ein Maß für die Normalkomponente des Vektorfeldes v bezüglich einer Fläche. ij v ¨ da
Ψ “
(19.1)
a
Über eine zum Vektorfeld vprq parallel liegende Fläche, für deren Elemente v ¨ da “ 0 gilt, kann kein Fluss Ψ treten. Solche Flächen von schlauchartiger Form, die einen konstanten Fluss führen, heißen Flussröhren. In entsprechender Weise wird der Fluss des Tensorfeldes oder der Tensorfluss Υ definiert, der einen Vektor darstellt. dΥ “ T ¨ da “ T ¨ n da ij
ij T ¨ da “
Υ “ a
T ¨ n da
(19.2)
a
Zur Untersuchung des Vektorflusses Ψ sind am kartesischen, würfelförmigen Volumenelement der Abbildung 19.1 nur diejenigen Größen des Vektorfeldes v “ v x ex ` v y ev ` v z ez angegeben, die den Flussanteil in y-Richtung bestimmen. Das Skalarprodukt mit den nach außen zeigenden Normalen liefert für den Flussanteil, der in y-Richtung durch das Volumen hindurchtritt, folgenden Ausdruck. ” ı Bvy Bvy dΨy “ ´ vy px, y, zq ` vy px, y, zq ` dy dx dz “ dx dy dz By By Durch das Volumenelement tritt der Gesamtfluss, ” Bv Bvy Bvz ı x dΨ “ dΨx ` dΨy ` dΨz “ ` ` dx dy dz “ div v dv Bx By Bz der nach (18.41) der Divergenz des Feldvektors als Quellstärke im betreffenden Raumpunkt entspricht.
426
19 Integralsätze und zeitabhängige Felder
z dz vy (x, y, z) +
∂vy dy ∂y
y
vy (x, y, z) dx
x
dy
Abb. 19.1: Zunahme einer Funktion in y-Richtung Integriert man den Vektor v, der selbst sowie seine ersten Ableitungen als stetig vorausgesetzt werden, über die geschlossene, stückweise glatte Oberfläche a eines beliebigen Volumens v, dessen Normale nach außen zeigt, dann erhält man den Gauß’schen Satz oder auch Gauß-Ostrogradski’schen Satz, der ein geschlossenes Oberflächenintegral mit einem Volumenintegral verknüpft. ¡ £ v ¨ da “ div v dv (19.3) Ψ “ a
v
In quellenfreien Raumgebieten hat ein Feld die Divergenz Null. £ Ψ “
v ¨ da “ 0
Ø
div v “ 0
(19.4)
a
Physikalisch besagt der Gauß’sche Satz, dass der gesamte Fluss Ψ eines Raumgebietes entweder über dessen Oberfläche ein- und wieder austreten muss oder in seinem Inneren in Quellen erzeugt wird bzw. in Senken verschwindet.
19.1.2
Zirkulation eines Feldes und Stokes’scher Satz
Die zweite wichtige Größe für den Feldbegriff ist die Zirkulation Z oder Wirbelstärke eines Vektorfeldes vprq, wodurch die Wirbel des Feldes beschrieben werden.
427
19.1 Grundlegende Integralsätze
Das Skalarprodukt v ¨ dr, das auf dem Rand eines im Sinne einer Rechtsschraube umlaufenen Flächenelementes da gebildet wird, ist ein Element der Zirkulation, die damit ein Maß für die Tangentialkomponente des Vektorfeldes bezüglich des Randes einer Fläche darstellt. dZ “ v ¨ dr “ v ¨ t dr “ vt dr Für ein kartesisches Flächenelement da “ dx dy mit dem Tangentenvektor dr “ t dr seines Randes gilt die Abbildung 19.2, bei dem nur die für das Skalarprodukt relevante Vektorkomponente pro Randteilstück angegeben ist. Die Vorzeichen der einzelnen Glieder ergeben sich aus den Richtungen von Vektorfeld und Tangentenvektor auf den einzelnen Seiten des Flächenelementes. Der Beitrag zur Zirkulation bei einem Umlauf lautet, ´ ´ Bvy ¯ Bvx ¯ dZ “ vx dx ` vy ` dx dy ´ vx ` dy dx ´ vy dy Bx By ” Bv Bvx ı y “ ´ dx dy “ ez ¨ rot v dx dy “ rot v ¨ ez da Bx By “ rot v ¨ da der nach (18.42) der Rotation des Feldvektors als Wirbelstärke im betreffenden Raumpunkt entspricht.
y
vx +
∂vx dy ∂y vy +
vy
vx
∂vy dx ∂x
x
Abb. 19.2: Funktionswerte am Element dx dy Integriert man den Vektor v, der zusammen mit seinen ersten Ableitungen stetig sei, auf einer geschlossenen, stückweise glatten Kontur C, über
428
19 Integralsätze und zeitabhängige Felder
der eine beliebige Fläche a hutförmig aufgespannt ist, dann erhält man den Stokes’schen Satz, der ein Konturintegral mit einem Flächenintegral verknüpft. ij
¿ v ¨ dr “
Z “
rot v ¨ da
C
(19.5)
a
In wirbelfreien Raumgebieten hat ein Feld die Rotation Null.
¿ v ¨ dr “ 0
Z “
rot v “ 0
Ø
(19.6)
C
In physikalischen Systemen, bei denen der Vektor eine Kraft F oder eine Feldstärke E bedeutet, stellt das Wegintegral des Vektors (ggf. bis auf eine Konstante) die Arbeit W dar, die auf dem durchlaufenen Weg von A nach B verrichtet wird, z.B. im elektrostatischen Feld einer Punktladung Q. ż
B A
19.1.3
ż
B
F ¨ dr “ Q
W “
E ¨ dr A
Anschauliche Darstellung von Quellen und Wirbeln
Ein Feld, das durch den Feldvektor v “ vprq im gesamten Raum beschrieben wird, besitzt ‚ Quellen, wenn seine Divergenz nicht identisch verschwindet, div v ı 0 ‚ Wirbel, wenn seine Rotation nicht identisch verschwindet, rot v ı 0 die punktförmig, linienförmig oder räumlich verteilt sein können.
429
19.1 Grundlegende Integralsätze
a)
b)
Abb. 19.3: Feldlinien eines Feldes a) Quellpunkt als Ausgangspunkt von Feldlinien b) Wirbelfaden, der von Feldlinien umlaufen wird
In Ergänzung zu den Sätzen von Gauß und Stokes gilt allgemeiner £
¡
Ψ“
v ¨ da “
div v dv
a
v
“
ÿ
der von v umschlossenen Quellen
(
ij
¿ v ¨ da “
Z“ C
rot v ¨ da a
“
ÿ
der durch a hindurchtretenden Wirbelfäden
(
Bei räumlich verteilten Quellen oder Wirbeln ist die Summation sinngemäß durch eine Integration zu ersetzen, die sich über das entsprechende Raumgebiet erstreckt. Die Aufteilung von Feldern nach ihren Quellen und Wirbeln ist Gegenstand des Helmholtz-Theorems in Abschnitt 17.6. Die im gesamten Raum definierten Einheitsvektoren krummliniger Koordinatensysteme können ebenfalls Divergenz und Rotation aufweisen. Bei Zylinder- und Kugelkoordinaten sind für die in Abbildung 19.4 dargestellten Einheitsvektoren Quellen und Wirbel im gesamten Raum verteilt, so dass deren Integrale nirgends verschwinden. Ihre konkreten Divergenz- und Rotationswerte wurden in Abschnitt 18.5 bereits angegeben.
430
19 Integralsätze und zeitabhängige Felder
19.1.3.1
Beispiele für Einheitsvektoren
‚ mit räumlich verteilter Divergenz:
eρ , e r , eϑ
‚ mit räumlich verteilter Rotation:
eϕ , e ϑ
Abb. 19.4: Divergenz und Rotation einiger Einheitsvektoren
19.2 19.2.1
Abgeleitete Integralsätze Sonderfälle des Gauß’schen Satzes
Kann der Feldvektor v als Rotation eines anderen Feldvektors dargestellt werden, v “ rot w, so folgt mit (17.63) nach (19.4) ein divergenzfreies oder quellenfreies Feld, das auch solenoidales oder Wirbelfeld genannt wird. £ div rot w ” 0 Ñ rot w ¨ da “ 0 (19.7) a
Mit einem beliebigen, konstanten Vektor u ˘ gelten nach (17.56) und (17.57) die beiden folgenden Divergenzbeziehungen. ` ˘ ˘ ¨ grad V div V u ˘ “ V lo div ˘ omou on ` u “0
`
˘
div u ˘ ˆ v “ v ¨ lo rot ˘ ˘ ¨ rot v omou on ´ u “0
Setzt man diese Ausdrücke in den Gauß’schen Satz ein, dann erhält man unter Abwandlung des Spatproduktes und nach Herausziehen des konstanten
431
19.2 Abgeleitete Integralsätze
Vektors u ˘ aus den Integralen folgende Integralsätze. £
¡ grad V dv “ v
£
¡ rot v dv “ ´
V da v
a
v ˆ da a
(19.8)
19.2.2
Divergenz-Theorem für Tensoren 2. Stufe
Ein zum Gauß’schen Satz (19.3) äquivalentes Theorem für Tensoren 2. Stufe geht aus von der kartesischen Darstellung (9.8). ¨
Txx Txy Txz
˚ T “ eT T e “ eT ˝ Tyx Tyy Tzx
Tzy
˛
‹ Tyz ‚ e Tzz
Diesem Tensor werden drei Vektoren zugeordnet, die aus den Spalten seiner Komponentenmatrix gebildet werden, und deren Divergenzen nach (18.41) und (18.46) den drei Komponenten des Vektors div T entsprechen. tpxq “ Txx ex ` Tyx ey ` Tzx ez Ñ
div tpxq “
BTxx BTyx BTzx ` ` “ ex ¨ div T Bx By Bz
tpyq “ Txy ex ` Tyy ey ` Tzy ez Ñ
div tpyq “
BTxy BTyy BTzy ` ` “ ey ¨ div T Bx By Bz
tpzq “ Txz ex ` Tyz ey ` Tzz ez Ñ
div tpzq “
BTyz BTxz BTzz ` ` “ ez ¨ div T Bx By Bz
Nach dem Gauß’schen Satz gilt für den Skalar aus dem ersten Vektor ¡
¡ v
div tpxq dv “
£ “ v
ex ¨ div T
‰
dv “ a
tpxq ¨ da
432
19 Integralsätze und zeitabhängige Felder
Nach Multiplikation mit den Einheitsvektoren erhält man für die Summe gemäß der Vektorzerlegung nach (7.1) ¡ ¡ “ ‰ div T dv “ ex div tpxq ` ey div tpyq ` ez div tpzq dv v
v
£ “
“ a
‰ ex tpxq ` ey tpyq ` ez tpzq ¨ da
Im Integranden des Flächenintegrals stellen die tensoriellen Produkte drei Ă Dyaden dar, die zusammen den zum Tensor T transponierten Tensor T nach Abschnitt 10.3.4 bilden. Txx ex ex ` Tyx ex ey ` Tzx ex ez
ex tpxq ` ey tpyq ` ez tpzq “
` Txy ey ex ` Tyy ey ey ` Tzy ey ez ` Txz ez ex ` Tyz ez ey ` Tzz ez ez Ă r e“T “ eT T Das Divergenz-Theorem für Tensoren 2. Stufe ist eine Vektorgleichung, die eine Verallgemeinerung des Gauß’schen Satzes darstellt. £
¡
£
div T dv “ v
19.2.3
da ¨ T
è da “ T a
(19.9)
a
Sonderfälle des Stokes’schen Satzes
Kann der Feldvektor v als Gradient einer skalaren Ortsfunktion dargestellt werden, v “ grad V , so folgt mit (17.62) nach (19.6) ein wirbelfreies Feld, das auch laminares Feld, Quellen-, Potential- oder Gradientenfeld genannt wird. ¿
¿ rot grad V ” 0
grad V ¨ dr “
Ñ C
dV “ 0
(19.10)
C
Die Integration der Tangentialkomponente des Feldvektors v “ grad V bzw. des totalen Differentials dV über einen geschlossenen Weg C ist Null. Gradientenfelder, die man auch als konservative Felder bezeichnet, sind wirbelfrei und ihre Rotation ist Null. In konservativen Feldern sind die
433
19.2 Abgeleitete Integralsätze
Wegintegrale unabhängig vom Integrationsweg, denn auf verschiedenen Wegen zwischen festen Punkten A und B gilt ż
¿
B
ż
v ¨ dr “ 0 “ C
„ ` A (Weg
1)
A
ż „
B (Weg
Ñ
B
ż v ¨ dr “
A (Weg
2)
1)
B
v ¨ dr A (Weg
2)
Konturintegrale über geschlossene Wege verschwinden daher und in konservativen Kraftfeldern ist die Arbeit auf geschlossenen Wegen Null. Mit einem beliebigen, konstanten Vektor u ˘ gilt nach (17.59) ` ˘ ˘ ˆ grad V rot V u ˘ “ V lo rot ˘ omou on ´ u “0
Setzt man diesen Ausdruck in den Stokes’schen Satz ein, dann erhält man unter Abwandlung des Spatproduktes und nach Herausziehen des konstanten Vektors u ˘ aus den Integralen folgenden Integralsatz. ij
¿ V dr “ ´ C
19.2.4
grad V ˆ da
(19.11)
a
Stokes-Theorem für Tensoren 2. Stufe
Ähnlich wie beim Divergenz-Theorem für Tensoren läßt sich auch ein zum Stokes’schen Satz (19.5) äquivalentes Theorem ableiten. Dabei wird die Rotation eines Tensors 2. Stufe in kartesischen Koordinaten nach (18.48) dargestellt durch die Tensorzerlegung (9.10). ` ` ` ˘ ˘ ˘ rot T “ rot T ¨ ex ex ` rot T ¨ ey ey ` rot T ¨ ez ez Die drei Vektoren, die man aus den Spalten der Komponentenmatrix des Tensors T bilden kann, weisen nach (18.42) und (18.48) folgende Rotationen auf. tpxq “ Txx ex ` Tyx ey ` Tzx ez
Ñ
rot tpxq “ rot T ¨ ex
tpyq “ Txy ex ` Tyy ey ` Tzy ez
Ñ
rot tpyq “ rot T ¨ ey
tpzq “ Txz ex ` Tyz ey ` Tzz ez
Ñ
rot tpzq “ rot T ¨ ez
434
19 Integralsätze und zeitabhängige Felder
Nach dem Stokes’schen Satz gilt für den ersten Vektor ¿ ij ij “ ‰ dr ¨ tpxq “ da ¨ rot tpxq “ da ¨ rot T ¨ ex C
a
a
Nach tensorieller Multiplikation mit den Einheitsvektoren von rechts und anschließender Summation erhält man folgende Darstellung. ¿ “ ‰ dr ¨ tpxq ex ` tpyq ey ` tpzq ez C
ij da ¨
“
“` ` ` ˘ ˘ ˘ ‰ rot T ¨ ex ex ` rot T ¨ ey ey ` rot T ¨ ez ez
a
In den Integralen bilden die drei Dyaden in den eckigen Klammern die Tensoren T bzw. rot T . Das Stokes’sche Theorem für Tensoren 2. Stufe ist eine Vektorgleichung, die eine Verallgemeinerung des Stokes’schen Satzes darstellt. Der Tausch der Faktoren führt nach (10.5) auf die transponierten Tensoren. ij
¿ dr ¨ T “ C
ij
¿ da ¨ rot T
è dr “ T C
a
Č rot T ¨ da
(19.12)
a
Green’sche Sätze für Skalarfelder
19.2.5
Wendet man die Beziehung (17.56) auf den Ausdruck U grad V an und setzt sie in den Gauß’schen Satz (19.3) ein, dann folgt die erste Green’sche Formel. £
¡ “
‰
U grad V ¨ da
U ΔV ` grad U grad V dv “
v
(19.13)
a
Vertauscht man U und V und bildet die Differenz beider Ausdrücke, dann erhält man die zweite Green’sche Formel, die auch als Green’scher Satz oder Green’sches Theorem bezeichnet wird. £
¡ “ v
‰ U ΔV ´ V ΔU dv “
“ a
U grad V ´ V grad U
‰
¨ da
(19.14)
435
19.2 Abgeleitete Integralsätze
Hierbei werden als Bedingungen für die skalaren Ortsfunktionen U und V Stetigkeit der Funktionen selbst und ihrer ersten und zweiten Ableitungen im Volumen v bis hin zum stückweise glatten Rand vorausgesetzt. Für den Sonderfall U “ 1 folgt mit da “ n da die spezielle Beziehung ¡
£
£
ΔV dv “ v
grad V ¨ da “ a
a
BV da Bn
(19.15)
Stratton’sche Sätze für Vektorfelder
19.2.6
Wendet man die Beziehung (17.57) auf den Ausdruck v ˆ rot w an und setzt sie in den Gauß’schen Satz (19.3) ein, dann folgt der erste Stratton’sche Satz, [2, S. 167], [5, S. 250]. £
¡ “
‰
“
rot v rot w ´ v rot rot w dv “
v
‰ v ˆ rot w ¨ da
(19.16)
a
Vertauscht man v und w und bildet die Differenz, dann erhält man den zweiten Stratton’schen Satz. £
¡ “ v
‰
“
v rot rot w ´ w rot rot v dv “
‰ w ˆ rot v ´ v ˆ rot w ¨ da
a
(19.17) Hierbei werden als Bedingungen für die vektoriellen Ortsfunktionen v und w Stetigkeit der Vektoren selbst und der auftretenden Ableitungen im Volumen v bis hin zum Rand vorausgesetzt. Für Vektorfelder werden folgende Divergenzausdrücke gebildet. ` ˘ div v div w “ div v div w ` v grad div w ` ˘ div v ˆ rot w “ rot v rot w ´ v rot rot w Nach Vertauschen der Vektoren v und w, Differenzbildung beider Ausdrücke, Anwendung des Vektor-Laplace-Operators (17.67) und Einsetzen in den Satz von Gauß erhält man zwei Integraldarstellungen, deren Summe
436
19 Integralsätze und zeitabhängige Felder
auf den Green’schen Satz für Vektoren führt, [3, II, S. 1767]. ¡ “
‰ v Δ w ´ w Δ v dv
v
(19.18)
£ “
“
‰
v div w ´ w div v ` v ˆ rot w ´ w ˆ rot v ¨ da
a
19.3 19.3.1
Zeitableitung von Feldgrößen Totale Ableitung einer Skalarfunktion nach der Zeit
Eine skalare Orts- und Zeitfunktion V pu1 , u2 , u3 ; tq besitzt ein totales Differential, bei dem der Gradient nach (17.6) den örtlichen Anteil bestimmt. dV “ “
BV BV BV BV dt ` 1 du1 ` 2 du2 ` 3 du3 Bt Bu Bu Bu BV BV dt ` dr ¨ grad V “ dt ` δV Bt Bt
δV “ dr ¨ grad V “ dr ¨ ∇V Dabei bedeuten die unterschiedlichen Differentialzeichen die totale pdq, die zeitliche pBq und die örtliche pδq Änderung der Größe. Zur richtungsabhängigen Differentiation nach Abschnitt 17.3.6 tritt die zeitliche Änderung hinzu. Die totale Zeitableitung einer skalaren Funktion lautet damit, dV BV dr BV “ ` ¨ grad V “ ` r9 ¨ grad V dt Bt dt Bt
(19.19)
wobei nach Newton totale Zeitableitungen durch übergesetzte Punkte bezeichnet werden (s. Abschnitt 5.6.2).
437
19.3 Zeitableitung von Feldgrößen
19.3.2
Totale Ableitung einer Vektorfunktion nach der Zeit
Eine orts- und zeitbhängige Vektorfunktion v pu1 , u2 , u3 ; tq besitzt das totale Differential, dv “
Bv Bv Bv dt ` dr ¨ Grad v “ dt ` dr ¨ ∇v “ dt ` δv Bt Bt Bt
wobei der örtliche Anteil durch den Vektorgradienten nach (17.33) und (17.43) bzw. den skalaren Operator nach (17.41) bestimmt wird. ` ˘ δv “ dr ¨ Grad v “ dr ¨ ∇v “ dr ¨ grad v Die totale Zeitableitung einer vektoriellen Funktion lautet damit Bv dr Bv dv “ v9 “ ` ¨ Grad v “ ` r9 ¨ Grad v dt Bt dt Bt
19.3.3
(19.20)
Euler’sche Differentiationsregel
Die totalen Zeitableitungen können auf Tensoren beliebiger Stufe übertragen werden mit der folgenden formalen Differentiationsregel. d x..y B x..y δ x..y B x..y dr “ ` “ ` ¨ ∇ x..y dt Bt δt Bt dt
(19.21)
Die Anteile in diesem Differentiationsausdruck sind benannt nach der von Euler untersuchten Bewegung idealer Flüssigkeiten mit folgender Bedeutung [1, S. 339, 443], [4, II, S. 315], [6, S. 397]. ‚ substantielle oder totale Änderung Gesamtänderung der Feldgröße
dV {dt ,
dv{dt
‚ lokale Änderung zeitliche Änderung der Feldgröße am festen Ort
BV {Bt ,
Bv{Bt
‚ konvektive oder stationäre Änderung r9 ¨ grad V , r9 ¨ Grad v örtliche Änderung der Feldgröße zur festen Zeit
438
19 Integralsätze und zeitabhängige Felder
Die konvektive Änderung ist das Produkt aus der zeitlichen Änderung des Ortsvektors r9 und der Richtungsabhängigkeit durch den Gradienten grad V bzw. den Vektorgradienten` Grad v. ˘ Der skalare Operator a ¨ grad nach Abschnitt 17.3.5, bei dem das Wegelement an die Stelle des allgemeinen Vektors tritt, ` ˘ ` ˘ δ x..y “ dr ¨ grad x..y “ dr ¨ ∇ x..y “
ÿ
dup ∇p x..y “
p
ÿ
dup
p
B x..y Bup
führt durch zeitliche Ableitung auf die konvektive oder stationäre Änderung der entsprechenden Größe. ´ dr ´ dr ¯ ¯ δ x..y “ ¨ grad x..y “ ¨ ∇ x..y δt dt dt ˘ ˘ ` ` “ r9 ¨ ∇ x..y “ r9 ¨ grad x..y “
ÿ dup ∇p x..y dt p
“
ÿ dup B x..y dt Bup p
In stationären Feldern, in denen keine Zeitabhängigkeit existiert, ist die lokale Änderung Null und die substantielle Änderung ist mit der konvektiven identisch.
19.4 19.4.1
Zeitliche Ableitung von Integralen Aufgabenstellung
Die betrachteten, zeitlich abzuleitenden Integrale mögen sich über Bereiche B erstrecken, die mit einem in Bewegung befindlichen Medium verknüpft sind. Dabei ist die Zeitabhängigkeit eine zweifache, und zwar einerseits über den Integranden V pr, tq und andererseits über den variablen Integrationsbereich Bptq. Sieht man das als eine Abhängigkeit von zwei variablen Größen an, dann ist bei der Differentiation des Integrals ż “ ‰ J “ J V pr, tq , Bptq “ V pr, tq db Bptq
439
19.4 Zeitliche Ableitung von Integralen
der totale Zuwachs des Integrals J aus lokalem pBq und stationärem pδq Anteil zusammengesetzt. dJ “ BJ ` δJ
r
r
r
r
Abb. 19.5: Zeitliche Variation des Integrationsbereichs Die totale Zeitableitung von Integralen kann dann als Überlagerung von lokaler und stationärer Änderung gemäß (19.21) ausgeführt werden. ˇ ˇ δJ ˇˇ dJ BJ ˇˇ ` “ dt Bt ˇ B“B0 “const. δt ˇ V pr, t“t0 “const.q Bei der ersten Differentiation wird der Integrationsbereich und bei der zweiten der Integrand als zeitlich konstant angesehen. d dt
ż
ż V pr, tq db “ Bptq
BV pr, tq δ db ` Bt δt B0
ż V pr, t0 q db
(19.22)
Bptq
Das erste Integral läßt sich einfach als Differentiation unter dem Integralzeichen ausführen, aber das zweite muss wegen des variablen Integrationsbereiches (Abbildung 19.5) für verschiedene Fälle genauer untersucht werden, [4, II, S. 317].
440
19 Integralsätze und zeitabhängige Felder
19.4.2
Volumenintegral einer skalaren Funktion
Beim Volumenintegral der skalaren Funktion V ¡ J“
V pr, tq dv v
entsteht der variable Integrationsbereich vptq dadurch, dass das Flächenelement da in der Zeit dt das Volumenelement dv “ da ¨ v dt mit der Geschwindigkeit v überstreicht (Abbildung 19.6).
da
... ...
v dt Bereich B da
dv = d a . v dt
Abb. 19.6: Durch ein Flächenelement überstrichenes Volumenelement Multipliziert man dieses Volumenelement mit der Skalarfunktion V und integriert über die gesamte Oberfläche a des zylindrischen Volumens, dann ergibt sich der stationäre Zuwachs des Integrals, der nach dem Gauß’schen Satz umgeformt wird. ¡
£
“ ‰ div V pr, tq v dv
V pr, tq v ¨ da “ dt
δJ “ dt a
v
Nach Division durch dt und Entwicklung der Divergenz nach (17.56) erhält man nach (19.22) die totale Zeitableitung des Volumenintegrals einer
441
19.4 Zeitliche Ableitung von Integralen
Skalarfunktion V . d dt
¡ V pr, tq dv v
¡ „ “ v
19.4.3
(19.23)
j BV pr, tq ` V pr, tq div v ` v ¨ grad V pr, tq dv Bt
Flächenintegral einer vektoriellen Funktion
Das Flächenintegral ij Bpr, tq ¨ da
Ψ“ a
entspricht nach (19.1) dem Fluss des Vektorfeldes Bpr, tq durch eine nicht geschlossene Fläche. Der variable Integrationsbereich entsteht dadurch, dass das Flächenelement da, das die Randlinie C besitzt, das Volumenelement dv “ da ¨ v dt in der Zeit dt mit der Geschwindigkeit v überstreicht, das von Mantel- und Deckelflächen umschlossen wird (Abbildung 19.7).
d a = n da C da (t + d t)
v dt
dv = d a . v dt
d a M = d r × v dt
dr
da (t)
...
Oberfläche a
...
Abb. 19.7: Durch ein Flächenelement überstrichenes Volumenelement
442
19 Integralsätze und zeitabhängige Felder
Der Fluss, der durch die Oberfläche dieses Volumenelementes dv tritt, wird einerseits bestimmt durch die Integrale über die drei Flächen, bei der die Umkehr der Normalenrichtung bei der unteren Deckelfläche im zweiten Flächenintegral zum negativen Vorzeichen führt. Andererseits läßt sich der Fluss nach dem Gauß’schen Satz auch als Volumenintegral ausdrücken. £ ij ij ij ¡ Bpr, tq ¨ da “ „ ´ „ ` „ “ div B dv ages
apt`dtq
aptq
apMq
v
Untersucht wird der stationäre Flussanteil beim Grenzübergang dt Ñ 0, wenn die Höhe des infinitesimalen Zylinders auf Null schrumpft und der gesamte Fluss allein durch die Deckelflächen tritt (Abbildung 19.8).
Abb. 19.8: Fluss eines Feldes durch eine Fläche Die Integrale über die Deckelflächen stellen die Änderung des stationären Flussanteils dar. ij ¡ ij ij „ ´ „ “ div B dv ´ B ¨ daM ΔpδΨ q “ apt`dtq
aptq
v
apMq
Dividiert man auf der linken Seite durch dt und führt den Grenzübergang durch, dann entsteht die Definition des Differentialquotienten. j „ij ij ΔpδΨ q 1 δΨ „ ´ „ lim “ “ lim dt Ñ 0 dt Ñ 0 dt dt δt apt`dtq aptq Ersetzt man auf der rechten Seite die Differentiale in den Integralen, ij ¡ ` ˘ ` ˘ dt div B v ¨ da ´ dt B ¨ dr ˆ v ΔpδΨ q “ v
apMq
19.4 Zeitliche Ableitung von Integralen
443
dann vermindert sich bei Division durch dt in beiden Integralen die Dimension um Eins und nach Umwandlung des entstehenden Konturintegrals nach dem Stokes’schen Satz erhält man ij ¿ ` ˘ ` ˘ δΨ “ div B v ¨ da ´ v ˆ B ¨ dr δt aptq C Die totale zeitliche Änderung des Vektorflusses aus lokalem und stationärem Anteil lautet schließlich, wenn man den Stokes’schen Satz auf das Konturintegral anwendet ij d dΨ Bpr, tq ¨ da “ dt dt a j ij „ “ ‰ BBpr, tq “ ` v div Bpr, tq ´ rot v ˆ Bpr, tq ¨ da Bt a
(19.24)
Speziell für geschlossene Flächen gilt wegen (19.7) d dt
19.4.4
£ „
£ Bpr, tq ¨ da “ a
a
j BBpr, tq ` v div Bpr, tq ¨ da Bt
(19.25)
Konturintegral einer vektoriellen Funktion
Das Linienintegral eines Vektorfeldes auf einem geschlossenen Weg entspricht der Zirkulation nach (19.5). ¿ Z“ Hpr, tq ¨ dr C
Der variable Integrationsbereich entsteht dadurch, dass das Linienelement dr in der Zeit dt ein Flächenelement da mit der Geschwindigkeit v überstreicht, das von vier Randkurven umschlossen wird (Abbildung 19.9). Die Zirkulation, die durch die gesamte Randlinie gebildet wird, entspricht einerseits den vier Linienintegralen, die das Flächenelement da im Sinne einer Rechtsschraube umschließen, andererseits kann sie nach dem Stokes’schen Satz auch als Flächenintegral ausgedrückt werden. ż ż ż ż ij ¿ H ¨ dr “ „ ` „ ` „ ` „ “ rot H ¨ da Cges Cptq Cpt`dtq C C a ab cd loooooooomoooooooon loooomoooon “ J˚
“ J ˚˚
444
19 Integralsätze und zeitabhängige Felder
C cd
c
d
C(t+dt)
Kontur C
b d
v dt dr
C(t)
...
...
d a = d r × v dt
C ab a
Abb. 19.9: Durch ein Konturelement überstrichenes Flächenelement Untersucht wird der stationäre Anteil pδq der Zirkulation beim Grenzübergang dt Ñ 0. In den Integralen J ˚˚ gilt für die Differentiale dr “ ˘ v dt. Zur Berechnung der Änderung des stationären Zirkulationsanteils wird im Integral J ˚ die Integrationsrichtung umgekehrt und mit da “ dr ˆ v dt im Flächenintegral ergibt sich insgesamt der Zuwachs ż
ż
ΔpδZq “
„ ´ Cptq
„ Cpt`dtq
ij
ż
ż
` ˘ dt rot H ¨ dr ˆ v ´
“
dt H ¨ v `
a
Cab
dt H ¨ v Ccd
Dividiert man durch dt und führt den Grenzübergang durch, dann entsteht auf der linken Seite die Definition des Differentialquotienten. ΔpδZq 1 lim “ ´ lim dt Ñ 0 dt Ñ 0 dt dt
„ż
j
ż „ Cpt`dtq
´
„ Cptq
“´
δZ δt
Auf der rechten Seite vermindert sich die Dimension der Integrale um Eins, so dass der stationäre Anteil aus einem Linienintegral und Produkten gemäß dem Mittelwertsatz besteht. ż ` ˘ ` ˘ ˇˇ ` ˘ ˇˇ δZ v ˆ rot H ¨ dr ´ H ¨ v ˇ ` H ¨ v ˇ ´ “ dt a d Cptq
19.4 Zeitliche Ableitung von Integralen
445
Die totale zeitliche Änderung der Zirkulation aus lokalem und stationärem Anteil lautet schließlich ż dZ d Hpr, tq ¨ dr “ dt dt C ` ˘ ˇˇ ` ˘ ˇˇ “ H ¨v ˇ ´ H ¨v ˇ a
ż „ ` C
d
(19.26)
j BHpr, tq ´ v ˆ rot Hpr, tq ¨ dr Bt
Speziell für geschlossene Konturen gilt wegen a “ d d dt
¿ „
¿ Hpr, tq ¨ dr “ C
C
j BHpr, tq ´ v ˆ rot Hpr, tq ¨ dr Bt
(19.27)
Literatur [1] Budó, A.: Theoretische Mechanik VEB Deutscher Verlag der Wissenschaften, Berlin, 6. Aufl. (1971) [2] Lagally, M. I., Franz,W.: Vorlesungen über Vektorrechnung Akademische Verlagsgesellschaft Geest & Portig, Leipzig (1959) [3] Morse, P. M. / Feshbach, H.: Methods of Theoretical Physics, I/II McGraw-Hill Book Company, (1953) [4] Smirnow, W. I.: Lehrgang der höheren Mathematik, I-IV VEB Deutscher Verlag der Wissenschaften, Berlin, 6. Aufl. (1964/68) [5] Stratton, J. A.: Electromagnetic Theory McGraw-Hill Book Company (1941) [6] Szabó, I.: Einführung in die Technische Mechanik Springer Verlag, Berlin, Göttingen, Heidelberg, 6. Aufl. (1963)
446
Abbildungsverzeichnis 3.1 3.2 3.3 3.4 3.5
Falk-Schema für zwei Matrizen . . . . . . . . . . . . . . . . Piktogramme der Matrixmultiplikation . . . . . . . . . . . . Rechts- und Linksmultiplikation mit quadratischen Matrizen Äquivalenztransformation einer Matrix . . . . . . . . . . . . Graphische Darstellung einer Matrix 3. Ordnung . . . . . . .
5.1 5.2 5.3 5.4 5.5 5.6 5.7 5.8 5.9 5.10 5.11 5.12 5.13
Geometrische Addition und Subtraktion von Vektoren . . . . Inversion des kartesischen Koordinatensystems . . . . . . . . . Richtungsumkehr des polaren Vektors im Spiegelbild . . . . . Konstanz der Drehbewegung des axialen Vektors im Spiegelbild Zuordnung von Flächenelement, Normale und Umlaufsinn gemäß Rechtsschraubenregel . . . . . . . . . . . . . . . . . . . . Vektorzerlegung . . . . . . . . . . . . . . . . . . . . . . . . . . Vektoren bei der Ebene im Raum . . . . . . . . . . . . . . . . Rotation eines Vektors auf einer Kreisbahn . . . . . . . . . . Relativbewegung eines Punktes auf einer Bahnkurve . . . . . Vektoren in verschiedenen Punkten einer ebenen Raumkurve . Winkel am Krümmungskreis in der Schmiegungsebene . . . . Begleitendes Dreibein einer Raumkurve . . . . . . . . . . . . Dreibeinvektoren und Darboux’scher Vektor . . . . . . . . .
73 77 79 87 89 92 94 95 99
6.1 6.2 6.3 6.4 6.5
Reziproke Koordinatensysteme . . . . . . . . . . . . . . . . . Verschiedene kartesische und reziproke Basissysteme . . . . . Starre Drehung beider Systeme . . . . . . . . . . . . . . . . . Aufeinanderfolgende Drehschritte und Euler’sche Winkel . . Koppungsmatrizen zwischen den verschiedenen Basisvektoren
114 124 125 128 130
7.1
Zerlegung eines Vektors nach reziproken Koordinaten . . . . . 148 447
© Springer Fachmedien Wiesbaden GmbH, ein Teil von Springer Nature 2019 W. Werner, Vektoren und Tensoren als universelle Sprache in Physik und Technik 1, https://doi.org/10.1007/978-3-658-25272-4
. . . . .
29 29 31 31 46 65 71 72 73
448
Abbildungsverzeichnis
7.2 7.3
Orthogonalprojektion eines Vektors . . . . . . . . . . . . . . . 148 Komponenten der beiden Vektorprojektionen . . . . . . . . . 149
9.1 9.2
Lineare Vektorabbildung durch einen Tensor . . . . . . . . . . 169 Orthogonalprojektion eines Vektors auf eine Richtung . . . . 170
11.1 Räumliche Darstellung der 27 Komponenten des ε -Tensors . . 223 12.1 Mohr’scher Kreis . . . . . . . . . . . . . . . . . . . . . . . . 242 12.2 Poinsot’sche Konstruktion [8ex] . . . . . . . . . . . . . . . . 255 14.1 14.2 14.3 14.4 14.5
Scharen krummliniger Koordinatenlinien . . . . . . . . . . . . Wegelement in kartesischen und krummlinigen Koordinaten . Flächenelement . . . . . . . . . . . . . . . . . . . . . . . . . . Ortsvektor zum Raumpunkt P . . . . . . . . . . . . . . . . . Koordinatenlinien der Astroidkoordinaten in der Ebene z “ 0
16.1 Krummliniges Koordinatensystem . . . . . . . . . . . . . 16.2 Bedeutung der Indizes im Christoffel-Symbol . . . . 16.3 Basisvektoren und physikalische Vektoren beim Wechsel Koordinatensystems . . . . . . . . . . . . . . . . . . . .
278 282 292 294 299
. . . 310 . . . 314 des . . . 317
17.1 17.2 17.3 17.4 17.5 17.6
Ebene Darstellung der Niveaufläche einer skalaren Ortsfunktion334 Orthogonale Scharen von Niveauflächen und Feldlinien . . . . 337 Kurvenscharen und Basisvektoren in krummlinigen Systemen 338 Abstandsvektor zwischen Quellpunkt Q und Aufpunkt P . . . 374 Koordinatenlinien der Zylinderkoordinaten in der Ebene z “ 0 382 Koordinatenlinien der Astroidkoordinaten in der Ebene z “ 0 383
19.1 19.2 19.3 19.4 19.5 19.6 19.7 19.8 19.9
Zunahme einer Funktion in y-Richtung . . . . . . . . . . . Funktionswerte am Element dx dy . . . . . . . . . . . . . Feldlinien eines Feldes . . . . . . . . . . . . . . . . . . . . Divergenz und Rotation einiger Einheitsvektoren . . . . . Zeitliche Variation des Integrationsbereichs . . . . . . . . Durch ein Flächenelement überstrichenes Volumenelement Durch ein Flächenelement überstrichenes Volumenelement Fluss eines Feldes durch eine Fläche . . . . . . . . . . . . Durch ein Konturelement überstrichenes Flächenelement .
. . . . . . . . .
. . . . . . . . .
426 427 429 430 439 440 441 442 444
Tabellenverzeichnis 6.1 6.2 6.3
Umrechnung der Basisvektoren . . . . . . . . . . . . . . . . . 137 Dyadische Skalarprodukte der Basisvektoren . . . . . . . . . . 138 Dyadische Kreuzprodukte der Basisvektoren . . . . . . . . . . 139
8.1 8.2
Umrechnung der Vektorkomponenten im eigenen Koordinatensystem und bei Basiswechsel . . . . . . . . . . . . . . . . . 163 Umrechnung der Vektorkomponenten bei affiner Transformation164
9.1 9.2
Umrechnung der Tensormatrizen im gleichen Basissystem . . 182 Umrechnung der Tensormatrizen bei Basiswechsel . . . . . . . 183
10.1 Vektorkomponenten beim verjüngenden Produkt . . . . . . . 200 12.1 Determinanten der Tensormatrizen bei Basiswechsel . . . . . 262 12.2 Spur der Tensormatrizen bei Basiswechsel . . . . . . . . . . . 263 15.1 Beziehungen der Funktionalmatrizen . . . . . . . . . . . . . . 307 15.2 Matrix-Korrespondenzen . . . . . . . . . . . . . . . . . . . . . 308 17.1 Differentialoperatoren . . . . . . . . . . . . . . . . . . . . . . 384 17.2 Differentialoperationen des Abstandsvektors . . . . . . . . . . 385
449 © Springer Fachmedien Wiesbaden GmbH, ein Teil von Springer Nature 2019 W. Werner, Vektoren und Tensoren als universelle Sprache in Physik und Technik 1, https://doi.org/10.1007/978-3-658-25272-4
Personenverzeichnis Christoffel, Elwin Bruno, 313 Coriolis, Gaspard, 84 Einstein, Albert, 6 Euler, Leonhard, 90 Faraday, Michael, 57 Galilei, Galileo, 85 Gauß, Carl Friedrich, 6, 284 Gibbs, Josiah Willard, 63 Hamilton, William Rowan, 332, 352 Heaviside, Oliver, 63, 353 Helmholtz, Hermann (von), 370, 372 Kronecker, Leopold, 81 Laplace, Pierre Simon, 370 Levi-Civita, Tullio, 6 Maxwell, James Clerk, 58 Poisson, Siméon Denis, 370 Ricci-Curbastro, Gregorio, 6 Riemann, Bernhard, 6 Sommerfeld, Arnold, 5 Sylvester, James Joseph, 107 Tait, Peter Guthrie, 352 450 © Springer Fachmedien Wiesbaden GmbH, ein Teil von Springer Nature 2019 W. Werner, Vektoren und Tensoren als universelle Sprache in Physik und Technik 1, https://doi.org/10.1007/978-3-658-25272-4
Personenbezogene Begriffe Cayley-Hamilton-Theorem, 246 Christoffel-Matrix, 313 Christoffel-Symbole, 313 Coriolis-Beschleunigung, 84 Coulomb’sches Gesetz, 376 Coulomb-Integral, 377
Jacobi-Matrix, 268 Kronecker-Symbol, 81 Kronecker-Tensor, 228
Darboux’scher Vektor, 98 Euler’sche Differentiationsregel, 437 Euler’sche Winkel, 126 Euler’sches Theorem, 88 Euler-Matrix, 129 Falk-Schema, 28 Frenet’sche Formeln, 97
Lagrange-Identität, 69 Lancret’scher Satz, 99 Laplace’scher Entwicklungssatz, 39 Laplace-Gleichung, 370 Laplace-Operator, 370 Vektor-Laplace-Operator, 371 Legendre-Polynome, 377 Levi-Civita-Symbol, 222 Lorentz-Transformation, 55 Maxwell’sche Gleichungen, 58 Maxwell’sche Theorie, 64 Mohr’scher Kreis, 242
Galilei-Transformation, 55 Gauß’sche Koordinaten, 278 Gauß’scher Satz, 426 Gram’sche Determinante, 70 Gram’sche Matrix, 80 Green’sche Formel, 434 Green’scher Satz, 434
Newton’sches Gravitationsgesetz, 376 Poinsot’sche Konstruktion, 253 Poisson-Gleichung, 370 Satz des Pythagoras, 106
Helmholtz-Gleichung, 370 Helmholtz-Theorem, 372 Hesse’sche-Normalform, 78
Ricci, Lemma von Ricci, 349 Riemann’sche Metrik, 287 Riemann’scher Raum, 287
Jacobi’sche Determinante, 269 451
© Springer Fachmedien Wiesbaden GmbH, ein Teil von Springer Nature 2019 W. Werner, Vektoren und Tensoren als universelle Sprache in Physik und Technik 1, https://doi.org/10.1007/978-3-658-25272-4
452
Satz von Schwarz, 273 Stokes’scher Satz, 428 Stokes-Theorem, 433 Stratton’sche Sätze, 435 Taylor’sche Formel, 272 Vieta’scher Wurzelsatz, 243
Personenbezogene Begriffe
Gesamtverzeichnis der Bücher Mathematik Abramowitz, Milton / Stegun, Irene A.: Handbook of Mathematical Functions Dover Publications, Inc., New York (1965) Apelblat, Alexander: Tables of Integrals and Series Verlag Harri Deutsch, Thun und Frankfurt am Main (1996) Bellman, Richard: Methoden der Störungsrechnung in Mathematik, Physik und Technik Oldenbourg Verlag München Wien (1967) Betz, Albert: Konforme Abbildung Springer Verlag, Berlin, Göttigen, Heidelberg, 2. Aufl. (1964) Bossert, Martin: Kanalcodierung B. G. Teubner, Stuttgart, 2. Aufl. (1998) Bossert, Martin / Bossert, Sebastian: Mathematik der digitalen Medien VDE Verlag GmbH, Berlin, Offenbach (2010) Byrd, Paul F. / Friedman, Morris D.: Handbook of Elliptic Integrals for Engineers and Physicists Springer-Verlag, Berlin Göttingen Heidelberg (1954) Fichtenholz, Grigori M.: Differential- und Integralrechnung I/II/III 453 © Springer Fachmedien Wiesbaden GmbH, ein Teil von Springer Nature 2019 W. Werner, Vektoren und Tensoren als universelle Sprache in Physik und Technik 1, https://doi.org/10.1007/978-3-658-25272-4
454
Gesamtverzeichnis der Bücher
VEB Deutscher Verlag der Wissenschaften, Berlin, 5. Aufl. (1972) Flammer, Carson: Spheroidal Wave Functions Stanford University Press (1957) Goldberg, Jack L. / Schwartz, Arthur J.: Systems of Ordinary Differential Equations Harper & Row, Publishers, New York etc. (1972) Gonzalez, Rafael C. / Woods, Richard E.: Digital Image Processing Addison-Wesley Publishing Company (1993) Gradshteyn, I. S. / Ryzhik, I. M.: Table of Integrals, Series, and Products Academic Press, New York (1980) Gröbner, Wolfgang / Hofreiter, Nikolaus: Integraltafel, Bestimmte Integrale Springer Verlag, Wien, 3. Aufl. (1966) Gröbner, Wolfgang / Hofreiter, Nikolaus: Integraltafel, Unbestimmte Integrale Springer Verlag, Wien New York, 5. Aufl. (1975) Guillemin, Ernst Adolph: Mathematische Methoden des Ingenieurs R. Oldenbourg Verlag, München, Wien (1966) Hamming, Richard W.: Information und Codierung VCH Verlagsgesellschaft, Weinheim (1987) Jahnke, Eugen / Emde, Fritz / Lösch, Friedrich: Tafeln höherer Funktionen B. G. Teubner Verlagsgesellschaft, Stuttgart, 7. Aufl. (1966) Jaeger, Lars: Die Naturwissenschaften: Eine Biographie Springer-Verlag, Berlin Heidelberg (2015) Kamke, Erich: Differentialgleichungen reeller Funktionen Akademische Verlagsgesellschaft Geest & Portig, Leipzig, 2. Aufl. (1950)
Mathematik
455
Kneschke, Alfred: Differentialgleichungen und Randwertprobleme Band 2, Partielle Differentialgleichungen VEB Verlag Technik, Berlin (1960) Koppenfels, Werner / Stallmann, Friedemann: Praxis der konformen Abbildung Springer Verlag, Berlin, Göttigen, Heidelberg (1959) Lawrentjew, M. A. / Schabat, B. W.: Methoden der komplexen Funktionentheorie VEB Deutscher Verlag der Wissenschaften, Berlin (1967) Lense, Josef: Reihenentwicklungen der mathematischen Physik Walter de Gruyter & Co., Berlin, 2. Aufl. (1947) Lense, Josef: Kugelfunktionen Akademische Verlagsgesellschaft Geest & Portig, Leipzig (1950) Lin, Shu / Costello, Daniel J.: Error Control Coding: Fundamentals and Applications Pearson-Prentice Hall, Upper Saddle River, NJ, 2. Aufl. (2004) Magnus, Wilhelm / Oberhettinger, Fritz / Soni, R. P.: Formulas and Theorems for the Special Functions of Mathematical Physics Springer-Verlag, New York, Berlin 3. Aufl. (1966) Meixner, Josef / Schäfke, Friedrich Wilhelm: Mathieusche Funktionen und Sphäroidfunktionen Springer Verlag, Berlin, Göttingen, Heidelberg (1954) Meyer zur Capellen, W.: Integraltafeln Springer Verlag, Berlin, Göttingen, Heidelberg (1950) Moon, Parry / Spencer, Domina E.: Field Theory Handbook Springer Verlag, Berlin, Heidelberg, New York (1971) Nahin, Paul J.: Inside Interesting Integrals Springer Science+Business Media New York (2015)
456
Gesamtverzeichnis der Bücher
Needham, Tristan: Anschauliche Funktionentheorie Oldenbourg Verlag München Wien (2001) Norton, Richard E.: Complex Variables for Scientists and Engineers Oxford University Press (2010) Olver, Frank W. J. et al.: NIST Handbook of Mathematical Functions Cambridge University Press, New York (2010) Robin, Louis: Fonctions sphériques de Legendre et fonctions sphéroidales, I/II/III Gauthier-Villars, Paris (1957) Samueli, Jean-Jacques / Boudenot, Jean-Claude: Trente livres de mathématiques qui ont changé le monde Ellipses Edition Marketing S.A., Paris (2006) Smirnow, Wladimir I.: Lehrgang der höheren Mathematik, I-IV VEB Deutscher Verlag der Wissenschaften, Berlin, 6. Aufl. (1964/68) Sneddon, Ian N.: Spezielle Funktionen der mathematischen Physik Bibliographisches Institut, Mannheim (1963) Sommerfeld, Arnold: Vorlesungen über theoretische Physik VI, Partielle Differentialgleichungen der Physik Akademische Verlagsgesellschaft Geest & Portig, 6. Aufl. (1965) Spanier, Jerome / Oldham, Keith B.: An Atlas of Functions Hemisphere Publishing Corporation (1987) Wladimirow, W. S.: Gleichungen der mathematischen Physik VEB Deutscher Verlag der Wissenschaften, Berlin (1972) Wussing, Hans: Carl Friedrich Gauss BSB B.G.Teubner Verlagsgesellschaft, Leipzig (1974)
Matrizen
457
Matrizen Gantmacher, F. R.: Matrizenrechnung, Teil I VEB Deutscher Verlag der Wissenschaften, Berlin (1958) Kowalewski, Gerhard: Einführung in die Determinantentheorie Walter de Gruyter, Berlin, 3. Aufl. (1942) Promberger, Miroslav: Anwendung von Matrizen und Tensoren in der theoretischen Elektrotechnik Akademie-Verlag, Berlin (1960) Schmeidler, Werner: Vorträge über Determinanten und Matrizen Akademie-Verlag, Berlin (1949) Schwarz, H. R. / Rutishauser, H. / Stiefel, E.: Numerik symmetrischer Matrizen B. G. Teubner, Stuttgart (1972) Tropper, A. Mary: Matrizenrechnung in der Elektrotechnik Bibliographisches Institut, Mannheim (1962) Voigt, Christian / Adamy, Jürgen: Formelsammlung der Matrizenrechnung Oldenbourg Verlag, München, Wien (2007) Zurmühl, Rudolf: Matrizen Springer Verlag, Berlin, Göttingen, Heidelberg, 4. Aufl. (1964) Zurmühl, Rudolf / Falk, Sigurd: Matrizen und ihre Anwendungen, Grundlagen Springer Verlag, Berlin, Heidelberg, New York, Tokyo, 5. Aufl. (1984)
Vektoren und Tensoren Crowe, Michael J.: A History of Vectoranalysis Dover Publications, New York (1994)
458
Gesamtverzeichnis der Bücher
Kästner, Siegfried: Vektoren, Tensoren, Spinoren Akademie-Verlag, Berlin (1960) Kay, David C.: Tensor Calculus Schaum’s Outline Series, McGraw-Hill Book Company (2011) Klingbeil, Eberhard: Tensorrechnung für Ingenieure Bibliographisches Institut, Mannheim (1966) Lagally, Max / Franz, Walter: Vorlesungen über Vektorrechnung Akademische Verlagsgesellschaft Geest & Portig, Leipzig (1959) Päsler, Max: Grundzüge der Vektor- und Tensorrechnung Walter de Gruyter, Berlin, New York (1977) Raschewski, Petr K.: Riemannsche Geometrie und Tensoranalysis Verlag Harri Deutsch, Thun und Frankfurt/Main, 2. Aufl. (1995) Schultz-Piszachich, Wolfgang: Tensoralgebra und -analysis Verlag Harri Deutsch, Thun und Frankfurt/Main (1979) Simmonds, James. G.: A Brief on Tensor Analysis Springer Verlag, New York, Berlin, Heidelberg, 2. Aufl. (1994) Synge, J. L. / Schild, A.: Tensor Calculus University of Toronto Press, Toronto (1949) Teichmann, Horst: Physikalische Anwendungen der Vektor- und Tensorrechnung Bibliographisches Institut, Mannheim (1973) Wrede, Robert. C.: Introduction to Vector- and Tensor Analysis Dover Publications, New York (1972)
Differentialgeometrie
Differentialgeometrie Barrie, David: Sextant - Die Vermessung der Meere Malik National Geographic (2017) Baule, Bernhard: Differentialgeometrie Verlag S.Hirzel, Leipzig (1945) Blaschke, Wilhelm: Vorlesungen über Differentialgeometrie Elementare Differentialgeometrie Springer Verlag, Berlin, 5. Aufl. (1973) Duschek, Adalbert / Mayer, Walther: Lehrbuch der Differentialgeometrie Kurven und Flächen im euklidischen Raum B.G. Teubner Verlag, Leipzig und Berlin (1930) Duschek, Adalbert / Mayer, Walther: Lehrbuch der Differentialgeometrie Riemannsche Geometrie B.G. Teubner Verlag, Leipzig und Berlin (1930) Kreyszig, Erwin: Differentialgeometrie Akademische Verlagsgesellschaft Geest & Portig, Leipzig (1957) Laugwitz, Detlef: Differentialgeometrie B.G. Teubner Verlagsgesellschaft, Stuttgart (1960) Norden, A. P.: Differentialgeometrie, Teil I/II VEB Deutscher Verlag der Wissenschaften, Berlin (1956/57) Seidel, Wolfgang: Sternstunden der Kartografie Malik National Geographic (2017) Struik, Dirk J.: Lectures on Classical Differential Geometry
459
460
Gesamtverzeichnis der Bücher
Addison-Wesley Publishing Company, 2. Aufl. (1961) Torge, Wolfgang: Geschichte der Geodäsie in Deutschland Walter de Gruyter, Berlin New York, 2. Aufl. (2009)
Physik Bergmann, Ludwig, Schaefer, Clemens: Lehrbuch der Experimentalphysik, Band III Optik Walter de Gruyter, Berlin New York, 8. Aufl. (1987) Born, Max: Optik Springer Verlag, Berlin Heidelberg New York, 3. Aufl. (1972) Budó, Agoston: Theoretische Mechanik VEB Deutscher Verlag der Wissenschaften, Berlin, 6. Aufl. (1971) Buxton, R. B.: Introduction to Functional Magnetic Resonance Imaging Cambridge University Press, 2. Aufl. (2009) Dössel, Olaf: Bildgebende Verfahren in der Medizin Springer Verlag, Berlin Heidelberg, 2. Aufl. (2016) Finkelnburg, Wolfgang: Einführung in die Atomphysik Springer Verlag, Berlin, Heidelberg, New York, 6. Aufl. (1967) Fischer, Ernst Peter: Die andere Bildung Was man von den Naturwissenschaften wissen sollte Econ Ullstein List Verlag, München (2001) Fischer, Ernst Peter: Einstein, Hawking, Singh & Co., Bücher die man kennen muss Piper Verlag, München (2004) Gleick, James: Isaac Newton - Die Geburt des modernen Denkens
Physik
Artemis & Winkler Verlag, Düsseldorf und Zürich (2004) Goldstein, Herbert: Klassische Mechanik Akademische Verlagsgesellschaft, Wiesbaden, 5. Aufl. (1978) Goldstein, Herbert / Poole, Charles P. / Safko, John L.: Klassische Mechanik Wiley-VCH Verlag, Weinheim, 3. Aufl. (2006) Hecht, Eugene: Optics Addison-Wesley Longman Inc., 3. Aufl. (1998) Höfling, Oskar: Physik Ferd. Dümmlers Verlag, 15. Aufl. (1990) Hummel, Rolf E.: Understanding Materials Science Springer Verlag, New York, 2. Aufl. (2004) Jaeger, Lars: Die Naturwissenschaften: Eine Biographie Springer-Verlag, Berlin Heidelberg (2015) Jammer, Max: Der Begriff der Masse in der Physik Wissenschaftliche Buchgesellschaft, Darmstadt (1964) Kessel, Siegfried, Fröhling, Dirk: Technische Mechanik - Engineering Mechanics Springer Vieweg, Wiesbaden, 2. Aufl. (2012) Kittel, Charles et al.: Berkeley Physik Kurs I, Mechanik Vieweg Verlag, Braunschweig, 5. Aufl. (1991) Kleber, Will: Einführung in die Kristallographie VEB Verlag Technik, Berlin, 14. Aufl. (1979) Koks, Don: Explorations in Mathematical Physics Springer Science+Business Media LLC (2006)
461
462
Gesamtverzeichnis der Bücher
Levi-Civita, Tullio: Fragen der klassischen und relativistischen Mechanik Springer-Verlag Technik, Berlin Heidelberg New York (1973) Lüders, Klaus / Pohl, Robert Otto: Pohls Einführung in die Physik, Mechanik, Akustik und Wärmelehre Springer-Verlag, Berlin Heidelberg, 19. Aufl. (2004) Michelson, Albert Abraham: Studies in Optics Dover Publications, New York (1995) Morse, Philip M. / Feshbach, Herman: Methods of Theoretical Physics, I/II McGraw-Hill Book Company, (1953) Ramsauer, Carl: Grundversuche der Physik in historischer Darstellung Springer-Verlag, Berlin, Göttingen, Heidelberg (1953) Schöpf, Hans-Georg: Von Kirchhoff bis Planck Vieweg Verlag, Braunschweig (1978) Simonyi, Károly: Kulturgeschichte der Physik Verlag Harri Deutsch, Frankfurt am Main, 3. Aufl. (2004) Sommerfeld, Arnold: Vorlesungen über theoretische Physik IV, Optik Akademische Verlagsgesellschaft Geest & Portig, 3. Aufl. (1964) Stephani, Hans / Kluge, Gerhard: Grundlagen der theoretischen Mechanik VEB Deutscher Verlag der Wissenschaften, Berlin (1980) Szabó, István: Einführung in die Technische Mechanik Springer Verlag, Berlin, Göttingen, Heidelberg, 6. Aufl. (1963) Szabó, István: Höhere Technische Mechanik Springer Verlag, Berlin, Heidelberg, New York, 5. Aufl. (1977)
Elektrodynamik
Szabó, István: Geschichte der mechanischen Prinzipien Birkhäuser Verlag, Basel und Stuttgart (1977) Trigg, George L.: Experimente der modernen Physik Friedr. Vieweg & Sohn, Braunschweig/Wiesbaden (1984) Vlaardingerbroek, Marinus T. / den Boer, Jacques: Magnetic Resonance Imaging Springer Verlag, Berlin, Heidelberg (1996) Vogel, Helmut: Gerthsen Physik Springer Verlag, Berlin, Heidelberg, New York, 19. Aufl. (1997) Volz, Helmut: Einführung in die Theoretische Mechanik, I/II Akademische Verlagsgesellschaft, Frankfurt am Main (1971/72)
Elektrodynamik Buchholz, Herbert: Elektrische und magnetische Potentialfelder Springer-Verlag, Berlin, Göttingen, Heidelberg (1957) Ceruzzi, Paul E.: Eine kleine Geschichte der EDV mitp-Verlag , Bonn (2003) Collin, Robert E.: Field Theory of Guided Waves McGraw-Hill , New York (1960) Collin, Robert E.: Foundations for Microwave Engineering McGraw-Hill Inc., 2. Aufl. (1992) Durand, Emile: Electrostatique et Magnétostatique Masson, France (1953) Griffiths, David J.:
463
464
Gesamtverzeichnis der Bücher
Elektrodynamik Pearson Studium, 3. Aufl. (2011) Harrington, Roger F.: Time-harmonic Electromagnetic Fields McGraw-Hill Book Company (1961) Heinrich Hertz: Festschrift anläßlich der Erforschung der elektromagnetischen Wellen vor 100 Jahren Heinrich-Hertz-Institut Berlin (1988) Jackson, John David: Klassische Elektrodynamik Walter de Gruyter, Berlin/Boston, 5. Aufl. (2014) Kellogg, Oliver Dimon: Foundations of Potential Theory Springer Verlag, Berlin, Heidelberg, New York (1967) Kraus, John D.: Electromagnetics McGraw-Hill Inc., 4. Aufl. (1992) Kraus, John D., Marhefka, Ronald J.: Antennas McGraw-Hill Inc., 3. Aufl. (2002) Lehner, Günther: Elektromagnetische Feldtheorie Springer Verlag, Berlin, Heidelberg, 7. Aufl. (2010) Lüders, Christian: Mobilfunksysteme Vogel Verlag, Würzburg, (2001) Meinhold, Peter / Miltzlaff, Gerhard: Feld- und Potentialtheorie Verlag Harri Deutsch, Thun und Frankfurt/Main (1978) Montgomery, C. G. / Dicke, R. H. / Purcell, E. M.: Principles of Microwave Circuits McGraw-Hill, New York, Toronto, London (1948) Moon, Parry / Spencer, Domina E.:
Elektrodynamik
Foundations of Electrodynamics Dover Publications Inc., Mineola, New York (2013) Nahin, Paul J.: Oliver Heaviside The Johns Hopkins University Press, Baltimore and London (2002) Ollendorff, Franz: Potentialfelder der Elektrotechnik Verlag von Julius Springer (1932) Panofsky, Wolfgang K. H., Phillips, Melba: Classical Electricity and Magnetism Addison-Wesley Publishing Company, 2. Aufl. (1988) Purcell, Edward M.: Berkeley Physik Kurs II, Elektrizität und Magnetismus Vieweg Verlag, Braunschweig, 4. Aufl. (1989) Ramaswami, Rajiv / Sivarajan, Kumar N.: Optical Networks Morgan Kaufmann Publishers, San Francisco, 2. Aufl. (2002) Saleh, Bahaa E. A. / Teich, Malvin Carl: Fundamentals of Photonics John Wiley & Sons, Inc., Hoboken NJ, 2. Aufl. (2007) Sattelberg, Kurt: Vom Elektron zur Elektronik Elitera-Verlag, Berlin (1971) Schaumburg, Hanno: Einführung in die Werkstoffe der Elektrotechnik B. G. Teubner, Stuttgart (1993) Schildt, Gerhard-Helge: Grundlagen der Impulstechnik B. G. Teubner, Stuttgart (1987) Schwab, Adolf J.: Begriffswelt der Feldtheorie Springer Vieweg, 7. Aufl. (2013) Simonyi, Károly: Theoretische Elektrotechnik
465
466
Gesamtverzeichnis der Bücher
VEB Deutscher Verlag der Wissenschaften, Berlin, 9. Aufl. (1989) Sjobbema, D. J. W.: Die Geschichte der Elektronik Elektor-Verlag, Aachen (1999) Sneddon, Ian N.: Mixed Boundary Value Problems in Potential Theory John Wiley & Sons, Inc., New York (1966) Sommerfeld, Arnold: Vorlesungen über theoretische Physik III, Elektrodynamik Akademische Verlagsgesellschaft Geest & Portig, 4. Aufl. (1964) Soohoo, Ronald F.: Theory and Application of Ferrites Prentice-Hall Inc., Englewood Cliffs, New Jersey (1960) Stratton, Julius Adams: Electromagnetic Theory McGraw-Hill Book Company (1941) Werner, Wolfgang: Rotationsellipsoid als elektromagnetischer Hohlraumresonator Diss. TU Berlin (1977) Wunsch, Gerhard: Feldtheorie I/II VEB Verlag Technik, Berlin (1973/75) Zangwill, Andrew: Modern Electrodynamics Cambridge University Press, Cambridge UK (2013) Zinke, Otto / Brunswig, Heinrich: Lehrbuch der Hochfrequenztechnik I Springer Verlag, Berlin, Heidelberg, New York, 2. Aufl. (1973) Zuhrt, Harry: Elektromagnetische Strahlungsfelder Springer Verlag, Berlin, Göttingen, Heidelberg (1953)
Relativitätstheorie
Relativitätstheorie Aczel, Amir D.: Die göttliche Formel Rowohlt Taschenbuch Verlag, Hamburg (2002) Born, Max: Die Relativitätstheorie Einsteins Springer Verlag, Berlin, Heidelberg, New York, 5. Aufl. (1969) Bührke, Thomas: Einsteins Jahrhundertwerk Deutscher Taschenbuch Verlag, München (2015) Einstein, Albert: Über die spezielle und die allgemeine Relativitätstheorie Friedr. Vieweg & Sohn GmbH Verlag, Braunschweig, 7. Aufl. (1920) Einstein, Albert / Infeld, Leopold: Die Evolution der Physik Anaconda Verlag GmbH, Köln (2014) Falk, Gottfried / Ruppel, Wolfgang: Mechanik, Relativität, Gravitation Springer Verlag, Berlin, Heidelberg, New York, 3. Aufl. (1983) Ferreira, Pedro G.: Die perfekte Theorie Verlag C.H.Beck, München (2014) French, A. P.: Die spezielle Relativitätstheorie, M.I.T. Einführungskurs Physik Friedr. Vieweg & Sohn GmbH Verlag, Braunschweig (1971) Freund, Jürgen: Spezielle Relativitätstheorie für Studienanfänger vdf Hochschulverlag AG an der ETH Zürich (2007) Hobson, M. P. / Efstathiou, G. P. / Lasenby, A. N.: General Relativity Cambridge University Press, Cambridge (2006) Kacser, Claude: Einführung in die Spezielle Relativitätstheorie
467
468
Gesamtverzeichnis der Bücher
Berliner Union, Stuttgart (1970) Lambourne, Robert J. A.: Relativity, Gravitation and Cosmology Cambridge University Press, Cambridge (2010) Lawden, D. F.: Introduction to Tensor Calculus, Relativity and Cosmology Dover Publications, New York, 3. Aufl. (2002) Melcher, Horst: Relativitätstheorie in elementarer Darstellung VEB Deutscher Verlag der Wissenschaften, Berlin, 4. Aufl. (1974) Misner, Charles W. / Thorne, Kip S. / Wheeler, John Archibald: Gravitation W. H. Freeman and Company, San Francisco (1973) Rebhan, Eckhard: Theoretische Physik: Relativitätstheorie und Kosmologie Spektrum Akademischer Verlag, Berlin, Heidelberg (2012) Resnick, Robert: Einführung in die spezielle Relativitätstheorie Ernst Klett Verlag, Stuttgart (1976) Schröder, Ulrich E.: Gravitation, Einführung in die Allgemeine Relativitätstheorie Verlag Harri Deutsch, 5. Aufl. (2011) Schröder, Ulrich E.: Spezielle Relativitätstheorie Verlag Europa Lehrmittel, 5. Aufl. (2014) Sexl, Roman / Schmidt, Herbert Kurt: Raum - Zeit - Relativität Rowohlt Taschenbuch Verlag, Reinbek bei Hamburg (1978) Sexl, Roman / Sexl, Hannelore: Weiße Zwerge - schwarze Löcher Rowohlt Taschenbuch Verlag, Reinbek bei Hamburg (1975) Sexl, Roman / Urbantke, Helmuth: Gravitation und Kosmologie Bibliographisches Institut, Zürich (1975)
Astronomie
Skinner, Ray: Relativity for Scientists and Engineers Dover Publications, Mineola, New York (2014) Taylor, Edwin F. / Wheeler, John Archibald: Physik der Raumzeit Spektrum Akademischer Verlag, Heidelberg, Berlin, Oxford (1994) Weyl, Hermann: Raum, Zeit, Materie Springer Verlag, Berlin, Heidelberg, New York, 8. Aufl. (1993)
Astronomie Aschenbach, Bernd / Hahn, Hermann-Michael / Trümper, Joachim: The Invisible Sky, ROSAT and the Age of X-Ray Astronomy Copernicus Springer-Verlag, New York (1998) Becker, Friedrich: Geschichte der Astronomie Bibliographisches Institut, Mannheim (1968) Bennett, Jeffrey / Donahue, Megan / Schneider, Nicholas / Voit, Mark: Astronomie Pearson Studium (2010) Bojowald, Martin: Zurück vor den Urknall S. Fischer Verlag, Frankfurt am Main, 3. Aufl. (2009) Bucerius, Hans: Himmelsmechanik I/II Bibliographisches Institut, Mannheim (1966) Comins, Neil F.: Astronomie Spektrum Akademischer Verlag, Heidelberg (2011) Frebel, Anna: Auf der Suche nach den ältesten Sternen S. Fischer Verlag, Frankfurt am Main (2012) Grosser, Morton:
469
470
Gesamtverzeichnis der Bücher
Entdeckung des Planeten Neptun Suhrkamp Verlag, Frankfurt am Main (1970) Grote, Hartmut: Gravitationswellen Verlag C.H.Beck, München (2018) Hanslmeier, Arnold: Faszination Astronomie Springer Verlag, Berlin, Heidelberg, 2. Aufl. (2016) Lawrence, Andy: Astronomical Measurement Springer Verlag, Berlin, Heidelberg (2014) Liddle, Andrew: Einführung in die moderne Kosmologie Wiley-VCH Verlag, Weinheim (2009) Panek, Richard: Das 4% Universum Carl Hanser Verlag, München (2011) Pauldrach, Adalbert W. A.: Das dunkle Universum Springer Verlag, Berlin, Heidelberg (2015) Riordan, Michael / Schramm, David N.: Die Schatten der Schöpfung Spektrum Akademischer Verlag, Heidelberg, Berlin, New York (1991) Schneider, Peter: Extragalactic Astronomy and Cosmology Springer-Verlag, Berlin Heidelberg, 2. Aufl. (2015) Serjeant, Stephen: Observational Cosmology Cambridge University Press, Cambridge (2010) Sharov, Alexander S. / Novikov, Igor D.: Edwin Hubble Birkhäuser Verlag, Basel, Boston, Berlin (1994) Singh, Simon: Big Bang
Astronomie
Carl Hanser Verlag, München (2005) Sobel, Dava: Längengrad Berliner Taschenbuch Verlag, Berlin (2003) Sobel, Dava: Und die Sonne stand still Berlin Verlag, Berlin (2012) Sobel, Dava: Das Glas-Universum Berlin Verlag, München (2017) Stewart, Ian: Die Berechnung des Kosmos Rowohlt Taschenbuch Verlag, Reinbek bei Hamburg (2018) Tegmark, Max: Unser mathematisches Universum Ullstein Verlag, Berlin (2015) Unsöld, Albrecht / Baschek, Bodo: Der neue Kosmos Springer-Verlag, Berlin Heidelberg, New York, 7. Aufl. (2002) Vaas, Rüdiger: Vom Gottesteilchen zur Weltformel Franckh-Kosmos Verlags-GmbH, Stuttgart (2013) Vaas, Rüdiger: Signale der Schwerkraft Franckh-Kosmos Verlags-GmbH, Stuttgart (2017) Verschuur, Gerrit: The Invisible Universe Springer International Publishing Switzerland, 3. Aufl. (2015) Wulf, Andrea: Die Jagd auf die Venus Bertelsmann, München, (2012)
471
Sachverzeichnis Richtungsableitung, 360 von Integralen, 438 Zeitableitung, siehe dort Zusammenfassung, 351 Abstand Abstandsdefinition, 115, 287 Abstandsquadrat differentielles, 281 Abstandsvektor Bedeutung, 374 Differentialoperationen, 378 Tabelle, 383 euklidischer, 142 reziproker Abstand, 378 affin Abbildung, 109, 157, 269 Raum, 64 Transformation, 28, 106 Vektor, 64 Vektorfunktion, 168 Vektorraum, 65 Arbeit, 428 konservatives Feld, 433
Abbildung affine, 157, 269 entartete, 171, 227 Proportionalitätsabbildung, 237 Vektorabbildung, 167 Ableitung Basisvektoren kontravariant, 314 Einheitsvektoren, 393 Funktionalmatrix, 312 Grundvektoren H-Matrix, 319 kovariant, 313 Indexwechsel im Tensorkalkül, 280 kovariante bei Basiswechsel, 350 Metriktensor, 349 Skalarfunktion, 339 Tensor, 347 Vektor, 340 Metrikmatrizen, 315 nach dem Aufpunkt, 375 orthogonale Komponenten, 401 partielle nach kovarianter Koordinate, 311 Vektor, 339 Vektorkomponenten, 339
Basisvektoren Basiswechsel, 122 kontravariante, 112, 291 geometrische Deutung, 336 kovariante, 111 473
© Springer Fachmedien Wiesbaden GmbH, ein Teil von Springer Nature 2019 W. Werner, Vektoren und Tensoren als universelle Sprache in Physik und Technik 1, https://doi.org/10.1007/978-3-658-25272-4
474
orthogonale Systeme, 390 nichtkomplanar, 68 reziproke, 113 Spatprodukt, 119, 131 totales Differential, 316 Umrechnung, 117, 288 Vektorprodukt, 121 Basiswechsel in orthogonalen Systemen, 400 krummlinig, 303 Vektorkomponenten kartesisch, 155 ko- und kontravariant, 156 Beschleunigung absolute Beschleunigung, 90 Bahnbeschleunigung, 84 Coriolis-Beschleunigung, 84 Zentripetalbeschleunigung, 86 Betrag Spaltenvektor, 26 Vektor, 66, 142 Bewegung geradlinige Bewegung, 85 idealer Flüssigkeiten, 437 Kreiselbewegung, 88 kreisförmige Bewegung, 85 Präzession, 88 bilineare Form, 43, 207 Blockmatrix, 38 Christoffel-Blockmatrix orthogonale Systeme, 325 Christoffel-Matrix, 319, 395 Funktionalmatrix, 312 Gleichungssystem, 38 höhere Ordnung, 46 Λ-Blockmatrix, 397 Tensorblockmatrix, 215
Sachverzeichnis
antisymmetrisch, 219 bei Basiswechsel, 218 ε -Tensor, 221 symmetrisch, 219 Bogenlänge, 83, 91, 282 Element, 91 Christoffel-Matrix, 313 Blockmatrix, 319, 395 modifizierte, 396 Transponierte, 315 Christoffel-Symbole 1. Art, 2. Art, 320 Astroidkoordinaten, 328 aus Metrikkoeffizienten, 322 aus metrischen Faktoren, 394 Bedeutung der Indizes, 314 bei Basiswechsel, 325 spezielle Koordinatensysteme eben, 323 geradlinig, 322 orthogonal, 323, 394 Symmetrieeigenschaft, 314 Wendelkoordinaten, 327 Coulomb-Integral, 377 Determinante, 25 Funktionaldeterminante, 269 g der Metrikmatrix, 117, 283 Gram’sche Determinante, 70 h in orthogonalen Systemen, 391 Jacobi’sche Determinante, 269 Unterdeterminante, 33 Deviator, 248, 381 Dichte von Feldlinien, 336 Differential
475
Sachverzeichnis
absolutes Tensorkomponenten, 358 Vektorkomponenten, 345 totales, 268, 332 Tensor, 357 Vektor, 345 vollständiges, 268, 332, 359 Differentialform bilineare, 289 quadratische, 282, 287 Divergenz Feldvektor, 425 Metriktensor, 364 Tensor alternative, 363 gewöhnliche, 363 Tensor 2. Stufe, 362 Vektor, 360 von Produkten, 368 Dreibein Basistripel, 280 begleitendes, 95 orthogonales, 389, 402 Trihedron, 280 Dyade, 169, 212 alternierende, 211, 213, 227 Basisvektordyaden, 173, 205, 224 Einheitsvektordyade, 170, 172 nichtkommutativ, 212 planare, 227 symmetrische, 213 Ebene Achsenabschnittsform, 79 allgemeine Gleichung, 79 Hesse’sche Normalform, 78 Normalebene, 93
rektifizierende, 95 Schmiegungsebene, 93 ebene Drehung, 126 Knotenlinie, 127 Einheiten Bogenmaß, 85 physikalische Größen, 18–22 Radian (rad), 85 SI-System, 4 Einheitsvektoren Ableitung, 393 Definition, 66 Divergenz und Rotation, 429 Integration, 101 orthogonaler Basiswechsel, 393 Ortsabhängigkeit, 67, 101 spezielle Koordinatensysteme kartesisch, 107 krummlinig, 281 orthogonal, 389 Umrechnung, 392 Erde, Zahlenwerte Erdbeschleunigung, 85 euklidisch Abstand, 142 Metrik, 287 Norm, 26 Raum, 54, 65, 287 Vektorraum, 66 Euler Euler-Matrix, 129 Euler’sche Differentiationsregel, 437 Euler’sche Winkel, 126 Parameterdarstellung von Kurven, 90 Feld
476
Beispiele und Darstellungen, 58 Feldvorstellung, 57 Flussröhre, 336, 425 Gradientenfeld, 432 konservatives Feld, 432 Kraftlinien, 57 laminares Feld, 432 Quellen, 57, 424 Quellenfeld, 372 Randbedingungen, 57 solenoidales Feld, 430 stationäres Feld, 438 Wirbel, 426 Wirbelfeld, 372, 430 wirbelfreies Feld, 432 Zustand des Raumes, 57 Feldbild, 336 Äquipotentialflächen, 335, 336 Feldlinien, 335, 336 Differentialgleichung, 335 Niveauflächen, 334 Feldquellen, 57 Quellstärke, 424 Wirbelstärke, 426 Zirkulation, 426 zeitliche Änderung, 445 Fläche Abwicklung, 100 Äquipotentialflächen, 335 Flächenelement gerichtetes, 74, 291 krummliniges, 292 orthogonales, 392 Flächennormale, 291 Flächenschar, 252, 277 Fundamentalgrößen metrische, 284
Sachverzeichnis
gerichtete, 67 Koordinatenflächen, 277 Niveauflächen, 334 Parameterdarstellung, 278 Raumfläche, 251 Regelfläche, 99 Streckfläche, 99 Tangentenfläche, 99 Tensorfläche, 251 Torse, 100 Flächentheorie Diskriminante, 284 Grundform, 284 Fluss Flussröhre, 336, 425 Tensorfluss, 425 Vektorfluss, 336, 424 zeitliche Änderung, 443 formal Laufindex, 11, 34 Matrix, 33 Richtungen, 174 Skalarprodukt, 142 Formeln Frenet’sche Formeln, 97 Funktion erzeugende, 377 Kugelfunktionen, siehe dort Ortsfunktion, 332 Basiswechsel, 337 Potentialfunktion, 372 Vektorfunktion Integration, 101 lineare, 168 Funktionalmatrix, 268, 278 Ableitung, 312 Argumenttausch, 271
Sachverzeichnis
Basismatrix, 286, 306 bei Basiswechsel, 303 Blockmatrix, 312 Kettenregel, 272 Multiplikationssatz, 272 Tabelle, 307 Vermeidung der Inversion, 393 Funktionssatz, 267, 277, 389 inverser, 270 Geschwindigkeit absolute, 89 Bahngeschwindigkeit, 84 Führungsgeschwindigkeit, 88 Relativgeschwindigkeit, 90 Umfangsgeschwindigkeit, 86 Winkelgeschwindigkeit, 85 konstante, 86 Gesetz Fallgesetz, 85 Formulierung der Naturgesetze, 55 physikalische Gesetze, 55 Transformationsgesetze der Komponenten, 56 kovariante Ableitung, 343, 349, 350 mit Matrizen, 106 Gleichung Helmholtz-Gleichung, 370 Grundlösung, 380 Laplace-Gleichung, 370 Grundlösung, 380 Poisson-Gleichung, 370, 373 Säkulargleichung, 237 Gleichungssystem Differentialgleichungssystem, 335 homogenes, 235
477
lineares, 28 mit Blockmatrizen, 38 vektorielles, 109 Gradient, 253 kovarianter Vektor, 333 Metriktensor, 364 physikalische Deutung, 334 skalare Ortsfunktion, 332 Tensor 2. Stufe, 356 Vektor, 354 von Produkten, 367 Größe Feldgrößen, 57 Zeitableitung, 436 Änderung, 437 Führungsgrößen, 84 Fundamentalgrößen, 284 Plangröße, 67, 74 Relativgrößen, 84 Grundvektoren Ableitung, 311 Permutationsbeziehung, 312 Symmetriebeziehung, 311 kontravariante, 285 kovariante, 280 Gruppe orthogonale Matrix, 37 Hauptachsentransformation charakteristische Matrix, 236 charakteristisches Polynom, 237 Diagonalisierung, 233 Eigenrichtung, 239 Eigenvektoren, 237, 239 Normierung, 240 Eigenwerte, 237 Eigenwertproblem, 236 Fixpunkt, 237
478
Hauptachsenrichtungen, 233 Hauptachsensystem, 233 Kongruenztransformation, 235, 238 Modalmatrix, 238 Mohr’scher Kreis, 240 Residuum, 239 Säkulargleichung, 237 Hydrodynamik ideale Flüssigkeit, 437 Index Heben und Senken, 178, 207 Indexwechsel bei Ableitungen, 280 kontravariant, 112 kovariant, 111 Laufindex, 7, 11, 34 Integralsatz Gauß’scher Satz, 426 Sonderfälle, 430 Green’sche Formel, 434 Green’scher Satz, 434 Bedingungen, 435 für Vektoren, 436 Stokes’scher Satz, 428 Sonderfälle, 432 Stratton’sche Sätze, 435 Bedingungen, 435 Integration Einheitsvektoren, 101 Vektorfunktionen, 101 Invarianz Deviatorinvarianten, 248 Forminvarianz, 55 Forminvarianz von Vektoren, 146 Matrixtransformationen, 243
Sachverzeichnis
physikalische Invarianten, 56, 141 System von Invarianten, 98 Tensorinvarianten, 186, 248 kanonische Form Divergenz, 404 Laplace-Operator, 406 Rotation, 404 Kegelschnitt, 251 Ko- und Kontravarianz Aufhebung, 114, 116, 234, 389 Kobasis, 112 kogredient, 107, 157, 400 Komponenten Ableitung, 401 Beträge, 150 kontravariante, 144 kovariante, 145 Parallelprojektion, 144 physikalische, 150 in orthogonalen Systemen, 399 skalare, 65 Umrechnung, 151 vektorielle, 65 kontragredient, 37, 82, 107, 117, 119, 123, 151, 157, 305 kontravariant, 106 Basis, 112 Koordinaten abgeplattetes Rotationsellipsoid, 417 Astroidkoordinaten, 296 Gauß’sche Koordinaten, 278 kartesische Koordinaten, 407 ko- und kontravariant, 106 kontravariante, 277 Koordinatenflächen, 277
Sachverzeichnis
Koordinatenlinien, 277 Koordinatensysteme Drehung, 109 geradlinige, 105 kartesische, 107 orthogonale, 323, 388 Rechtssystem, siehe dort Referenzsystem, 407 Kugelkoordinaten, 414 Ableitungstensor, 381 Einheitsvektoren, 429 orthogonale, 114 orthogonale Projektionen, 143 orthogonales Netz, 289 Separation der Variablen, 388 Wendelkoordinaten, 295 Zylinderkoordinaten, 411 Einheitsvektoren, 429 kovariant, 106 Basis, 111 Formulierung der Naturgesetze, 107 kovariante Ableitung, 107 Lorentz-kovariant, 107 Kovarianz physikalischer Gesetze, 55 Kreuzprodukt alternativ, 67 Betragsquadrat, 69 doppeltes, 69 Tensorform, 227 dyadisches, 108 Neuinterpretation, 226 Null, Parallelität, 67 Rechtsschraubenregel, 67, 72, 226 Tensorform, 210, 226
479
Vektorform, 153 vertraute Form, 228 Krümmung, 85, 93 Totalkrümmung, 99 Kugelfunktionen, 378 Legendre-Polynome, 377 Kurve Bahnkurve, 83, 91 orthogonale Kurvenschar, 336 Parameterdarstellung, 90 Raumkurve, 90 natürliche Gleichungen, 97 Rektifikation, 100 Lagrange-Identität, 69 Lemma von Ricci, 349 lineare Unabhängigkeit, 68, 70 Linearität von Transformationen, 168 Lorentz -Transformation, 55 -kovariante Formulierung, 107 Mannigfaltigkeit, 185 Matrix Adjunkt, 32 algebraisches Komplement, 32, 393 Blockmatrix, siehe dort C-Matrix, 398 charakteristische, 236 Christoffel-Matrix, 313, 319 Diagonalmatrix, 35 Dimension, 46 Eigenmatrix, 80 Eigenwerte, 237, 244 Einheitsmatrix, 35, 108, 113, 123, 204, 269
480
Euler-Matrix, 129 Falk-Schema, 28 formale, 33 Funktionalmatrix, siehe dort Γ-Matrix, 108, 121 Gram’sche Matrix, 34, 80, 109 H-Matrix, 319 Jacobi-Matrix, 268 Kehrmatrix, 32 2 ˆ 2, 33 Koeffizientenmatrix, 28 kongruente, 159 kontragrediente, 37, 107, 110 Kovarianzmatrix, 344 Spur, 361, 370 L-Matrix, 321 Matrixpotenzen, 246 Metrikmatrizen, siehe dort Ordnung, 46 Orthogonalmatrix, 36 Rechts-/Linksmultiplikation, 27 Rotationsmatrizen, 125 singuläre, 26 Spaltenvektor, 24 Spektrum, 245 Transformationsmatrix, siehe dort Transponierung, 24, 27 Verkettbarkeit, 26 Zeilenvektor, 24 Matrixinvarianten bei Kongruenztransformation, 244 bei Matrixpotenzen, 247 bei Ähnlichkeitstransformation, 244 Spektralverschiebung, 245 Spur, Som, Det, 243
Sachverzeichnis
Metrik des Raumes, 66, 106, 115, 287 euklidische Metrik, 287 metrische Faktoren, 281, 389, 391 Riemann’sche Metrik, 287 Metrikkoeffizienten, 115, 287 Metrikmatrizen, 288 Ableitung, 315 Diagonalform, 389, 390 Eigenschaften, 117 Elemente, 115 kovariant, 282 mit einem Index, 204 Minor, 33 Multipolentwicklung, 378 Nabla, 332, 352 kovarianter Vektor, 333 Nabla-Vektor, 332 nichtkommutativ Kreuzprodukt, 67 Matrizenprodukt, 27 tensorielles Produkt, 169 Operator Diagonalisierungsoperator, 36 Differentialoperator, 74, 332, 353 Tabelle, 383 Laplace-Operator, 370 linearer, 167 Nabla-Operator, 353 Operatorgleichung, 168 Projektionsoperator, ` ˘ 170 skalarer a ¨ grad , 358 vec-Operator, 44 Vektor-Laplace-Operator, 371 orthogonal
481
Sachverzeichnis
Basisvektoren, 284 Differentialoperationen, 402 Dreibein, 389, 402 Einheitsvektoren, 389 Koordinaten, 114 Koordinatensysteme, 323, 388 Kurvenschar, 336 Projektion, 141 Trajektorien, 336 Transformationsmatrix, 109, 392 Wegelemente, 289 positiv definit, 70, 251, 282, 284 Tensormatrix, 252 Potential elektrodynamische Potentiale, 373 Skalarpotential, 372 Vektorpotential, 373 Probekörper, 57 Produkt aus zwei und drei Matrizen, 27 dyadisches, 26, 169 Falk-Schema, 28 Kreuzprodukt, siehe dort Skalarprodukt, siehe dort Spatprodukt, siehe dort tensorielles, 169, 189 verjüngendes, 189 Punkt Aufpunkt, 374 Fixpunkt, 237 Flächenpunkt, 278 Quellpunkt, 374 Raumpunkt, 279 übergesetzter nach Newton, 83 vorgestellter bei Matrizen, 176
quadratische Form, 43, 250 Quadrik, 251 Rang, Rangabfall, 25 Raum affiner Raum, 64 euklidischer Raum, 54, 65, 287 Metrik, 66, 106, 115, 287 Riemann’scher Raum, 287 Raumzeit, 185 Rechts-/Linksmultiplikation Diagonalmatrix, 35 ε -Tensor, 225 Matrix, 27 Tensor, 189, 190 Rechtsschraube, 72, 105 Rechtssystem, 105, 107, 407 Prüfung, 393, 419 reziproker Abstand, 376 Reziprozitätsbedingung, 81, 113, 285 Richtungscosinus, 37, 78, 109, 129, 142, 393 Quadratsumme, 142 Rotation Feldvektor, 427 Ortsvektor, 86 Tensorform, 366 Vektor, 364 von Produkten, 368 Satz Additionssatz für Determinanten, 39 Determinantensatz, 39 Entwicklungssatz für Vektoren, 69 von Laplace, 39
482
Euler’scher Homogenitätssatz, 251 Fundamentalsatz der Algebra, 243 der Kurventheorie, 98 Funktionssatz, siehe dort Integralsatz, siehe dort Kosinussatz, 374, 377 Lancret’scher Satz, 99 Satz des Pythagoras, 106, 142 Satz von Schwarz, 273, 311 Wurzelsatz von Vieta, 243 Zerlegungssatz für Vektoren, 77 Schreibweise Ableitung Funktionalmatrix, 312 nach Koordinaten, 311 Basisvektoren ko- und kontravariant, 111, 112 mit Doppelkreuz (#), 111, 112 mit Nabla, 333 Blockmatrizen, 46 Christoffel-Matrix, 313 Funktionalmatrix, 268 Funktionssatz, 277 gemischte Komponenten, 176 höherstufige Tensoren, 49 kartesische Komponenten, 142 kovariante Ableitung, 340 Nabla-Operator, 333 Ornament, 142, 363, 367 Pfeil mit zwei Spitzen, 72 Schrifttypen, 12 Sonderzeichen, 11
Sachverzeichnis
Unterstreichung, 11 Vektoren, 142 Verknüpfung von Produkten, 12 Separation der Variablen, 388 Skalarprodukt bei reziproker Zerlegung, 152 Definition, 66 doppeltes, 177, 192, 207, 251 dyadisches, 80, 108 Faktortausch, 25 formales, 142 für das Kreuzprodukt, 211 kommutativ, 66 Matrizen, 25 mit ε -Tensor, 224 nichtkommutativ, 189 Null, Orthogonalität, 26, 66 Vektoren, 65, 152 Winkel, 66 Spatprodukt, 68 alternativ, 68 Basisvektoren, 108, 120, 131 kovariante Grundvektoren, 291 Pseudoskalar, 68 Tensorform, 227 Vektoren, 154 Strahlung Ausstrahlungsfunktion der Kugelwelle, 380 Summationskonvention, 6, 194 Index-Laufweite, 198 Summationsregel, 194 Symbol Christoffel-Symbole, siehe dort
Sachverzeichnis
Kronecker-Symbol, 81, 108, 229 L-Symbole, 320 Laufsymbol, 11 Levi-Civita-Symbol, 222 Systemkopplungen, 129 Taylor’sche Formel, 272 Tensor 3. Stufe, 215 ε -Tensor, 220 vollständig antisymmetrisch, 219 vollständig symmetrisch, 219 Ableitungstensor, 273, 369, 380 alternierender, 208 Begriff, 167 Definition, 180 der kovarianten Ableitungen, 354 Deviator, 248, 381 Differentiationsvorschrift, 352 Einheitstensor, 204 Fundamentaltensor, 204, 288 in orthogonalen Systemen, 400 kartesische Darstellung, 171 kartesische Komponenten, 172 Komponentenmatrizen, 175 kovarianter Tensor, 174 Kronecker-Tensor, 228 Mannigfaltigkeit, 185 Matrizenform, 174 Matrizenprodukt, 172 Metriktensor, 204, 288 Stufenerniedrigung, 187 Stufenzahl, 184 Summenform, 173 symmetrischer, 202
483
Diagonalisierung, 233 Systemtensor, 176 Tensorfeld, 185 Transformationsregel, 180 transponierter, 193 Vektorabbildung, 168 Verjüngung, 186, 187 Vertauschungsregel, 203, 209, 225 Zerlegung, 174, 211 Tensorableitung, 347 in orthogonalen Systemen, 402 zweite, 349 Tensorfläche, 251 Poinsot’sche Konstruktion, 253 Tensorellipsoid, 252 Tensorgradient, 356 Verjüngung, 362 Tensorinterpretation doppeltes Kreuzprodukt, 227 Kreuzprodukt, 225 Rotation, 366 Spatprodukt, 227 Tensorinvarianten, 186, 243, 248 Spur der Tensormatrizen, 187 Tensorkalkül, 6, 226, 228 Tensorkomponenten bei Basiswechsel, 178 bei gleicher Basis, 177 Matrizenform, 175 Tensorraum, 173 Theorem Divergenz-Theorem für Tensoren 2. Stufe, 432 Euler’sches Theorem, 88 Green’sches Theorem, 434 Helmholtz-Theorem, 372
484
Stokes-Theorem für Tensoren 2. Stufe, 433 von Cayley-Hamilton, 246 Theorie der Raumkurven, 97 Maxwell’sche Theorie, 64 Transformationstheorie, 56 Torsion, 96 Transformation Ähnlichkeitstransformation, 32, 125, 158 Äquivalenztransformation, 30 affine, 28, 106, 109 bei Basiswechsel Basisvektoren, 303 Differentiale, 302 Komponenten, 304 Metrikmatrizen, 304 Galilei-Transformation, 55 Hauptachsentransformation, siehe dort Kongruenztransformation, 32, 123, 159 kovariante Ableitung, 342 lineare, 28, 109, 157 Linearitätseigenschaft, 168 Lorentz-Transformation, 55 orthogonale, 109 Orthogonaltransformation, 37 Tensorkomponenten, 302 Vektorkomponenten, 301 Transformationsmatrix, 56 der ebenen Drehung, 126 Kopplungsmatrizen P, Q geradlinig, 122 krummlinig, 303, 305 Matrizen U, V, 111, 112
Sachverzeichnis
orthogonale Matrix, 392 orthogonale Matrix A, 109, 235 Überschiebung, 206 Vektor Abstandsvektor, 374 Addition, 64 affiner, 64 axialer, 72 Betrag, 66, 142, 147 Binormalenvektor, 95 Darboux’scher Vektor, 98 Drehvektor, 72 Einheitsvektor, siehe dort freier, 64 gebundener, 64, 143 Hauptnormalenvektor, 93 in orthogonalen Systemen, 399 Invariante, 141, 146 ko- und kontravarianter Vektor, 146 Normierung, 66 Nullvektor, 65, 68, 322 Orthogonalprojektion, 141, 147 Ortsvektor, 64, 71, 91, 143, 279, 293 totales Differential, 281 Parallelprojektion, 147 physikalischer, 155, 317 polarer, 71 reziproker, 81 Zerlegung, 81 Rotationsvektor, 86 Schubvektor, 71 Systemvektor, 176 Tangenteneinheitsvektor, 83, 91 Tangentenvektor, 91, 100, 279
485
Sachverzeichnis
Verschiebungsvektor, 142 Zerlegung, 76, 143, 145, 146 Vektorableitung, 339 in orthogonalen Systemen, 402 zweite, 346 Vektorgradient, 354, 359 der Basisvektoren, 355 Verjüngung, 360 Verjüngung, 186 höherstufige Tensoren, 188 spezielle Tensoren, 214 Tensorgradient, 362 Vektorgradient, 360 Volumenelement, 270, 293 orthogonales, 392 Wegelement, 91 in Koordinatenfläche, 283 kontravarianter Vektor, 281 orthogonale Systeme, 391 orthogonale Wegelemente, 289 totales Differential, 281 Wegintegral konservatives Feld, 433 Winkel Azimutwinkel, 88 Kontingenzwinkel, 93 Nutationswinkel, 127 Präzessionswinkel, 127 spitzer Winkel, 113 Torsionswinkel, 96 Wirkung auf Probekörper, 57 der Tensoroperation, 254 Fernwirkung, 57 im Aufpunkt, 374 Nahwirkung, Feldwirkung, 57
Zeitableitung Flächenintegral, 441 Konturintegral, 443 Ortsfunktionen, 83 totale Skalarfunktion, 436 Vektorfunktion, 437 von Integralen, 439 Volumenintegral, 440