Physik und Finanzen 3031369637, 9783031369636, 9783031369643

Dieses Buch führt Physikstudenten in die Konzepte und Methoden der Finanzwissenschaft ein. Obwohl die Finanzwissenschaft

149 107 18MB

German Pages 306 Year 2023

Report DMCA / Copyright

DOWNLOAD FILE

Polecaj historie

Physik und Finanzen
 3031369637, 9783031369636, 9783031369643

Table of contents :
Vorwort
Inhaltsverzeichnis
1 Einführung
Zusammenfassung
Literatur
2 Konzepte der Finanzen
Zusammenfassung
2.1 Aktien und andere handelbare Güter
2.2 Absicherung und Leerverkauf
2.3 Derivate
2.4 Geld
2.5 Abzinsung und Liquidität
2.6 Effizienzmarkthypothese
2.7 Theoretische Märkte
2.8 Marktteilnehmer
3 Portfoliotheorie und CAPM
Zusammenfassung
3.1 Variationsrechnung und Lagrange Multiplikatoren
3.2 Portfolio nur mit riskanten Vermögenswerten
3.3 Portfolio mit einem risikofreien Vermögenswert
3.4 Kapitalmarktlinie und Sharpe-Verhältnis
3.5 Kapitalgüterpreismodell
3.6 Bewertung
Anchor 9
Literatur
4 Stochastische Prozesse
Zusammenfassung
4.1 Binomialbäume
4.2 Wiener Prozess
4.3 Diffusionsprozesse und Green’sche Funktionen
4.4 Stochastische Integrale und Ito’s Lemma
4.5 Master- und Fokker-Planck-Gleichungen
4.6 Ein erster Blick auf die Optionspreisbildung
4.7 Abschweifung über Erwartungswerte
Literatur
5 Black-Scholes-Differentialgleichung
Zusammenfassung
5.1 Ableitung
5.2 Die Lösung
5.3 Risikoneutralität und Martingale
5.4 Dynamisches Hedging
5.5 Andere Beispiele
Literatur
6 Die Griechen und Risikomanagement
Zusammenfassung
6.1 Die Griechen
6.2 Volatilitätslächeln
6.3 Wert im Risiko
6.4 Risiko nach Wunsch gestalten
Anchor 7
Literatur
7 Regressionsmodelle und Hypothesentests
Zusammenfassung
7.1 Regression und Lineare Anpassung
7.2 Beispiele
7.3 Güte der Anpassung
7.4 -Verteilung
7.5 Student’s t-Verteilung
7.6 Hypothesentests und p-Werte
7.7 F-Test
7.8 Sparsamkeit
Anchor 11
Literatur
8 Zeitreihen
Zusammenfassung
8.1 Trend und Saisonalität
8.2 MA, AR und ARMA
8.3 Auto-Kovarianz und Autokorrelation
8.4 Partielle Autokorrelationsfunktion
8.5 Bestimmung der Modellkoeffizienten
8.6 Box-Jenkins
8.7 Prognose
8.8 Zoo der Modelle
Anchor 11
Literatur
9 Blasen, Abstürze, Dicke Schwänze und Lévy-Stabile Verteilungen
Zusammenfassung
9.1 Historische Blasen und Crashes
9.2 Blasen-Crash Mechanismen
9.3 Verhaltensökonomie
9.4 Verteilungen mit fetten Schwänzen
9.5 Potenzgesetze
9.6 Fraktale
9.7 Summen von Zufallszahlen
9.8 Lévy-Stabile Verteilungen
9.9 Extremwerttheorie
9.10 Endliche-Zeit-Divergenz und log-periodische Oszillationen
Literatur
10 Quantenfinanz und Pfadintegrale
Zusammenfassung
10.1 Quantenmechanik
10.2 Black-Scholes Hamiltonian
10.3 Preiskern
10.4 Barrier Optionen
10.5 Pfadintegrale in der Quantenmechanik
10.6 Pfadintegrale in der Finanzwelt
10.7 Monte-Carlo-Integration
10.8 Numerische Auswertung von Pfadintegralen
Literatur
11 Optimale Steuerungstheorie
Zusammenfassung
11.1 Makroökonomische Modelle
11.2 Steuerung und Rückkopplung
11.3 Hamiltonsche Mechanik
11.4 Hamiltonsche Funktionen für optimale Steuerung
11.5 Die Wiederkehr des Esels
11.6 Lineare Quadratische Regler
11.7 Steuerung der Robinson-Crusoe-Wirtschaft
Literatur
12 Kryptowährungen
Zusammenfassung
12.1 Information, Wahrscheinlichkeiten und Codes
12.2 Beziehung zur thermodynamischen Entropie
12.3 Informationen Durch Diskrete Kanäle Bewegen
12.4 Kontinuierliche Informationskanäle
12.5 Grundlagen der Kryptographie
12.6 Frühe Public-Key-Systeme
12.7 Elliptische Kurven Kryptographie
12.8 Bitcoins und Blockchains
12.9 Ethereum und Smart Contracts
12.10 Quantencomputing
Literatur
13 Lösungen für ausgewählte Übungen
Zusammenfassung
Anchor 3
Anhang A: Über die Unabhängigkeit bestimmter Zufallsvariablen
Anhang B: Software

Citation preview

Volker Ziemann

Physik und Finanzen

Physik und Finanzen

Volker Ziemann

Physik und Finanzen

Volker Ziemann   Department of Physics and Astronomy Uppsala University Uppsala, Sweden

ISBN 978-3-031-36963-6 ISBN 978-3-031-36964-3  (eBook) https://doi.org/10.1007/978-3-031-36964-3 Die Deutsche Nationalbibliothek verzeichnet diese Publikation in der Deutschen Nationalbibliografie; detaillierte bibliografische Daten sind im Internet über http://dnb.d-nb.de abrufbar. © Der/die Herausgeber bzw. der/die Autor(en), exklusiv lizenziert an Springer Nature Switzerland AG 2023 Das Werk einschließlich aller seiner Teile ist urheberrechtlich geschützt. Jede Verwertung, die nicht ausdrücklich vom Urheberrechtsgesetz zugelassen ist, bedarf der vorherigen Zustimmung des Verlags. Das gilt insbesondere für Vervielfältigungen, Bearbeitungen, Übersetzungen, Mikroverfilmungen und die Einspeicherung und Verarbeitung in elektronischen Systemen. Die Wiedergabe von allgemein beschreibenden Bezeichnungen, Marken, Unternehmensnamen etc. in diesem Werk bedeutet nicht, dass diese frei durch jedermann benutzt werden dürfen. Die Berechtigung zur Benutzung unterliegt, auch ohne gesonderten Hinweis hierzu, den Regeln des Markenrechts. Die Rechte des jeweiligen Zeicheninhabers sind zu beachten. Der Verlag, die Autoren und die Herausgeber gehen davon aus, dass die Angaben und Informationen in diesem Werk zum Zeitpunkt der Veröffentlichung vollständig und korrekt sind. Weder der Verlag noch die Autoren oder die Herausgeber übernehmen, ausdrücklich oder implizit, Gewähr für den Inhalt des Werkes, etwaige Fehler oder Äußerungen. Der Verlag bleibt im Hinblick auf geografische Zuordnungen und Gebietsbezeichnungen in veröffentlichten Karten und Institutionsadressen neutral. Planung/Lektorat: Caroline Strunz Springer Spektrum ist ein Imprint der eingetragenen Gesellschaft Springer Nature Switzerland AG und ist ein Teil von Springer Nature. Die Anschrift der Gesellschaft ist: Gewerbestrasse 11, 6330 Cham, Switzerland

Vorwort

Eines schönen Tages brachte mein Sohn, der damals Wirtschaft studierte, Bücher über die Anwendung von stochastischen Differentialgleichungen in der Finanzwirtschaft mit. Nach einem Dialog, der in etwa so verlief: „Oh, das kenne ich, das ist eine Fokker-Planck-Gleichung“ – „Nein, Papa, das ist Black-Scholes“, wurde ich neugierig. Schließlich könnte es in der Wirtschaft und Finanzwelt neben dem Geld auch Spaß geben. Also lieh ich mir Hulls Buch über die Grundlagen der Finanzökonomie aus, weil ich die Grundkonzepte und das Fachjargon verstehen wollte. Beim Durchblättern des Buches erkannte ich diese Differentialgleichungen, die so ähnlich aussehen wie eine Diffusionsgleichung mit einem Driftterm. Also machte ich mich daran zu verstehen, was Finanzen mit Diffusion zu tun haben. Später präsentierte ich einige Vorlesungen über meine Erkundungen einigen interessierten Studenten und Kollegen, was sehr anregend war und mich dazu veranlasste, das Thema weiter zu erforschen. So entstanden die späteren Kapitel. Sie alle befassen sich mit irgendeinem Aspekt von Zufallsprozessen und haben einige Überschneidungen zwischen Physik, Finanzen und anderen benachbarten Disziplinen. An diesem Punkt bereitete ich eine Vorlesungsreihe mit 5 ECTS (European transfer credits) für Masterstudenten an der Universität Uppsala vor und erweiterte das Manuskript, um es als Vorlesungsunterlagen für diesen Kurs zu verwenden, der im Frühjahr 2019 zum ersten Mal mit etwa 15 interessierten Studenten stattfand. Das Feedback nach dem Kurs war so positiv, so dass ich den Kurs im Frühjahr 2020 erneut anbot. Dieses Mal mit 24 Studenten, die viel mehr Feedback und Kritik lieferten, was mich dazu veranlasste, Teile des Manuskripts zu überarbeiten und es in seine jetzige Form zu bringen. Offensichtlich haben viele Menschen dazu beigetragen, das Manuskript zu verbessern. Zuerst muss ich meinem Sohn Ingvar danken. Er weckte mein Interesse an der Finanzwelt und las auch kritisch Teile des Manuskripts. Ebenso bin ich meinen Kollegen und den Studenten, die an den frühen Vorlesungen und später am Kurs teilnahmen, zu Dank verpflichtet. Viele von ihnen gaben wertvolle Kritik und Feedback zum wachsenden Manuskript. Ich möchte einige Studenten hervorheben, die besonders hilfreich waren: Joe und Martin aus dem Kurs 2019; Friedrich, Sebastian und Elias aus 2020. Sie halfen mir, viele Unklarheiten und Fehler auszumerzen. Sie sind jedoch nicht für eventuell verbleibende Fehler V

VI

Vorwort

verantwortlich, diese liegen allein in meiner Verantwortung. Ich muss auch unserer Studiendirektorin, Lisa Freyhult, für ihre Unterstützung an der Fakultät danken, diesen Kurs in den Lehrplan aufzunehmen. Schließlich möchte ich meiner Familie für ihre Geduld mit mir danken, als ich „ein bisschen“ zu sehr auf das Manuskript fokussiert war. Uppsala, Schweden

Volker Ziemann

Inhaltsverzeichnis

1 Einführung. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 1 Literatur. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 3 2

Konzepte der Finanzen. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 5 2.1 Aktien und andere handelbare Güter. . . . . . . . . . . . . . . . . . . . . . 5 2.2 Absicherung und Leerverkauf. . . . . . . . . . . . . . . . . . . . . . . . . . . 6 2.3 Derivate . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 7 2.4 Geld. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 9 2.5 Abzinsung und Liquidität . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 10 2.6 Effizienzmarkthypothese. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 11 2.7 Theoretische Märkte . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 12 2.8 Marktteilnehmer. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 12

3

Portfoliotheorie und CAPM. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 15 3.1 Variationsrechnung und Lagrange Multiplikatoren. . . . . . . . . . . 16 3.2 Portfolio nur mit riskanten Vermögenswerten. . . . . . . . . . . . . . . 18 3.3 Portfolio mit einem risikofreien Vermögenswert. . . . . . . . . . . . . 21 3.4 Kapitalmarktlinie und Sharpe-Verhältnis. . . . . . . . . . . . . . . . . . . 23 3.5 Kapitalgüterpreismodell. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 24 3.6 Bewertung . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 27 Literatur. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 29

4

Stochastische Prozesse . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 31 4.1 Binomialbäume . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 32 4.2 Wiener Prozess. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 34 4.3 Diffusionsprozesse und Green’sche Funktionen. . . . . . . . . . . . . 35 4.4 Stochastische Integrale und Ito’s Lemma . . . . . . . . . . . . . . . . . . 39 4.5 Master- und Fokker-Planck-Gleichungen . . . . . . . . . . . . . . . . . . 40 4.6 Ein erster Blick auf die Optionspreisbildung. . . . . . . . . . . . . . . . 42 4.7 Abschweifung über Erwartungswerte. . . . . . . . . . . . . . . . . . . . . 46 Literatur. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 49

5 Black-Scholes-Differentialgleichung. . . . . . . . . . . . . . . . . . . . . . . . . . . 51 5.1 Ableitung. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 52 5.2 Die Lösung. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 53 5.3 Risikoneutralität und Martingale. . . . . . . . . . . . . . . . . . . . . . . . . 56 VII

VIII

Inhaltsverzeichnis

5.4 Dynamisches Hedging. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 58 5.5 Andere Beispiele. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 60 Literatur. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 63 6

Die Griechen und Risikomanagement . . . . . . . . . . . . . . . . . . . . . . . . . 65 6.1 Die Griechen . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 65 6.2 Volatilitätslächeln. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 69 6.3 Wert im Risiko. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 70 6.4 Risiko nach Wunsch gestalten. . . . . . . . . . . . . . . . . . . . . . . . . . . 71 Literatur. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 75

7

Regressionsmodelle und Hypothesentests. . . . . . . . . . . . . . . . . . . . . . . 77 7.1 Regression und Lineare Anpassung. . . . . . . . . . . . . . . . . . . . . . . 79 7.2 Beispiele. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 81 7.3 Güte der Anpassung R2 . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 85 χ 2-Verteilung. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 86 7.4 7.5 Student’s t-Verteilung. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 88 7.6 Hypothesentests und p-Werte. . . . . . . . . . . . . . . . . . . . . . . . . . . . 93 7.7 F-Test. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 94 7.8 Sparsamkeit. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 98 Literatur. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 99

8 Zeitreihen. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 101 8.1 Trend und Saisonalität. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 103 8.2 MA, AR und ARMA . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 104 8.3 Auto-Kovarianz und Autokorrelation. . . . . . . . . . . . . . . . . . . . . . 107 8.4 Partielle Autokorrelationsfunktion. . . . . . . . . . . . . . . . . . . . . . . . 109 8.5 Bestimmung der Modellkoeffizienten. . . . . . . . . . . . . . . . . . . . . 112 8.6 Box-Jenkins. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 113 8.7 Prognose. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 113 8.8 Zoo der Modelle. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 118 Literatur. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 122 9

Blasen, Abstürze, Dicke Schwänze und Lévy-Stabile Verteilungen. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 125 9.1 Historische Blasen und Crashes. . . . . . . . . . . . . . . . . . . . . . . . . . 126 9.2 Blasen-Crash Mechanismen. . . . . . . . . . . . . . . . . . . . . . . . . . . . . 129 9.3 Verhaltensökonomie. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 130 9.4 Verteilungen mit fetten Schwänzen. . . . . . . . . . . . . . . . . . . . . . . 132 9.5 Potenzgesetze. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 133 9.6 Fraktale . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 136 9.7 Summen von Zufallszahlen. . . . . . . . . . . . . . . . . . . . . . . . . . . . . 140 9.8 Lévy-Stabile Verteilungen. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 144 9.9 Extremwerttheorie. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 146 9.10 Endliche-Zeit-Divergenz und log-periodische Oszillationen. . . . 152 Literatur. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 157

Inhaltsverzeichnis

IX

10 Quantenfinanz und Pfadintegrale. . . . . . . . . . . . . . . . . . . . . . . . . . . . . 159 10.1 Quantenmechanik . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 160 10.2 Black-Scholes Hamiltonian. . . . . . . . . . . . . . . . . . . . . . . . . . . . . 162 10.3 Preiskern . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 164 10.4 Barrier Optionen . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 165 10.5 Pfadintegrale in der Quantenmechanik . . . . . . . . . . . . . . . . . . . . 170 10.6 Pfadintegrale in der Finanzwelt. . . . . . . . . . . . . . . . . . . . . . . . . . 174 10.7 Monte-Carlo-Integration . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 178 10.8 Numerische Auswertung von Pfadintegralen. . . . . . . . . . . . . . . . 181 Literatur. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 185 11 Optimale Steuerungstheorie . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 187 11.1 Makroökonomische Modelle. . . . . . . . . . . . . . . . . . . . . . . . . . . . 188 11.2 Steuerung und Rückkopplung. . . . . . . . . . . . . . . . . . . . . . . . . . . 195 11.3 Hamiltonsche Mechanik . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 198 11.4 Hamiltonsche Funktionen für optimale Steuerung . . . . . . . . . . . 199 11.5 Die Wiederkehr des Esels . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 201 11.6 Lineare Quadratische Regler. . . . . . . . . . . . . . . . . . . . . . . . . . . . 203 11.7 Steuerung der Robinson-Crusoe-Wirtschaft . . . . . . . . . . . . . . . . 206 Literatur. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 209 12 Kryptowährungen. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 211 12.1 Information, Wahrscheinlichkeiten und Codes . . . . . . . . . . . . . . 213 12.2 Beziehung zur thermodynamischen Entropie . . . . . . . . . . . . . . . 217 12.3 Informationen Durch Diskrete Kanäle Bewegen. . . . . . . . . . . . . 218 12.4 Kontinuierliche Informationskanäle . . . . . . . . . . . . . . . . . . . . . . 223 12.5 Grundlagen der Kryptographie . . . . . . . . . . . . . . . . . . . . . . . . . . 227 12.6 Frühe Public-Key-Systeme . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 232 12.7 Elliptische Kurven Kryptographie. . . . . . . . . . . . . . . . . . . . . . . . 235 12.8 Bitcoins und Blockchains . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 239 12.9 Ethereum und Smart Contracts . . . . . . . . . . . . . . . . . . . . . . . . . . 243 12.10 Quantencomputing. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 247 Literatur. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 254 13 Lösungen für ausgewählte Übungen. . . . . . . . . . . . . . . . . . . . . . . . . . . 257 Anhang A: Über die Unabhängigkeit bestimmter Zufallsvariablen . . . . . 285 Anhang B: Software. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 289

1

Einführung

Zusammenfassung

Dieses Kapitel bereitet die Grundlage für das Buch, indem es ein gemeinsames Thema in vielen physischen und finanziellen Systemen festlegt; beide befassen sich mit dynamischen Systemen, die externen zufälligen Kräften unterliegen. Eine kurze Diskussion über die Zielgruppe des Buches folgt, bevor ein Überblick über dessen Inhalt gegeben wird. Was haben Physik und Finanzen gemeinsam? Die kurze Antwort lautet: Sie befassen sich beide mit dynamischen Systemen, die äußeren zufälligen Kräften unterliegen. In der Physik ist ein Beispiel der zufällige Weg von Pollen, die auf einer Flüssigkeit schweben, die von Einstein erstmals interpretierte und theoretisch analysierte Brownsche Bewegung [1]. Ein modernes Beispiel ist das Starten von herkömmlichen Lasern und Freie-Elektronen-Lasern aus Rauschen. Im Allgemeinen behandelt der Großteil des Teilgebiets der statistischen Physik Systeme, die zufälligen Kräften unterliegen und durch Verteilungen von Zustandsvariablen beschrieben werden. Viele Diffusionsprozesse fallen in diese Gruppe. In der Finanzwelt können die Dynamiken der Aktien oder anderer finanzieller Größen oft durch einen durchschnittlichen Drift zu höheren Werten beschrieben werden, der von großen Schwankungen überlagert wird. Bacheliers Analyse [2] war die erste Anwendung solcher Zufallsprozesse auf Finanzsysteme. Diese Übereinstimmung wurde natürlich früher bemerkt und führte zu einer großen Menge an Literatur, teilweise unter dem Namen Econophysics mit bemer­ kenswerten Büchern [3–6]. Die Ähnlichkeit der allgemeinen Merkmale ermöglicht es, ähnliche mathematische Methoden zu verwenden, um diese Systeme zu beschreiben und zu verstehen. Die Zielgruppe dieser Bücher sind erfahrene Physiker, die daran interessiert sind, ein neues Feld zu erkunden.

© Der/die Autor(en), exklusiv lizenziert an Springer Nature Switzerland AG 2023 V. Ziemann, Physik und Finanzen, https://doi.org/10.1007/978-3-031-36964-3_1

1

2

1 Einführung

In diesem Buch wenden wir uns jedoch an Studenten, die sich früher in ihrer Karriere befinden, typischerweise im dritten oder vierten Jahr, und verwenden Beispiele aus der Finanzwelt, um Konzepte aus der Physik zu verdeutlichen, mit der Absicht, ihr Verständnis der Methodik zu vertiefen. Häufig stellen wir Systeme aus der Physik und Systeme aus der Finanzwelt nebeneinander, die sehr ähnliche Methoden verwenden, wenn auch in unterschiedlichen Kontexten. Dieser Ansatz sollte den Studenten helfen, Methoden aus ihrer Physikausbildung aus einem anderen Blickwinkel zu sehen, was zu ihrer erhöhten Wertschätzung führen sollte. Die Anwendung derselben Methode auf Probleme in eher unterschiedlichen Kontexten sollte ihr Verständnis vertiefen. Darüber hinaus sind einige der mathematischen Methoden, wie stochastische Differentialgleichungen oder Pfadintegrale, nicht Teil des Kerncurriculums. Die Darstellung einfacher Anwendungen dieser Methoden in zwei Bereichen – Physik und Finanzen – nebeneinander wird die „Werkzeugkiste“ der Studenten mit zusätzlichen Möglichkeiten zur Problemlösung füllen. Im Grunde genommen sollte es ihnen die Augen für all die aufregenden Methoden öffnen, die nur darauf warten, auf Probleme angewendet zu werden, die ihnen begegnen. Bevor wir uns jedoch dem Thema zuwenden, müssen wir uns zunächst mit der Sprache und den Konzepten der Finanzwelt vertraut machen, denen das zweite Kapitel gewidmet ist. Im dritten Kapitel diskutieren wir, wie man ein Paket von Aktien – ein Portfolio – so auswählt, dass das Risiko von Verlusten minimiert wird. Dies ist eine wunderbare Anwendung von Variationsmethoden mit Zwangsbedingungen, den gleichen Methoden, die zur Analyse mechanischer Systeme verwendet werden. Diese Analyse ist quasi-statisch, eine Einschränkung, die wir im vierten Kapitel lockern, in dem wir stochastische Prozesse und ihre Beschreibung durch Langevin und Fokker-Planck Gleichungen betrachten. Dieses Kapitel bereitet den Boden, um die Black-Scholes Gleichung abzuleiten und zu lösen und einige ihrer Anwendungen im fünften und sechsten Kapitel zu behandeln. Da Aktienwerte über die Zeit aufgezeichnet werden, stellen sie Zeitreihen von Daten dar, aus denen wir versuchen, Informationen durch Anpassung von Regressionsmodellen zu extrahieren. Diese Anpassung von Modellen an Daten ist in der Physik sehr verbreitet und ist das Thema des siebten und achten Kapitels, in dem wir die Zuverlässigkeit und Robustheit der Anpassung sowie die Prognose in die Zukunft untersuchen. In Kap. 9 werfen wir einen Blick auf Finanzblasen und -crashs, indem wir zunächst historische Crashs und ihre möglichen Gründe diskutieren. Dies führt dazu, dass wir die Grundlage der vorherigen Analyse in Frage stellen und wir stoßen auf fette Schwänze, Fraktale und den zentralen Grenzwertsatz in dem Versuch, diese oft dramatischen Ereignisse zu verstehen. In Kap. 10 kehren wir zu weniger disruptiven Themen zurück und wenden Feynmans Pfadintegrale auf Quanten- und Finanzsysteme an und lösen sie mit Monte-Carlo Methoden. Alle bis zu diesem Punkt behandelten Systeme folgten einer gewissen intrinsischen Dynamik. Im elften Kapitel entwickeln wir Methoden, um diese Systeme selbst durch Anpassung externer Parameter zu beeinflussen und zu steuern, um ein Bewertungsmass zu optimieren. Dies gibt uns die Möglichkeit, den Zusammenhang zwischen Lagrange- und Hamilton-Mechanik zu betrachten

1 Einführung

3

und führt zum Thema der optimalen Steuerungstheorie. Hier wählen wir Beispiele aus der Mechanik und unter einfachen makroökonomischen Modellen. Im letzten Kapitel konzentrieren wir uns auf Kryptowährungen und erforschen die zugrunde liegenden Konzepte aus der Informationstheorie und Kryptographie, bevor wir zwei Währungen diskutieren: Bitcoin und Ethereum. Wir schließen das Kapitel mit einer Diskussion über die Bedrohung, die Quantencomputer für die kryptographischen Methoden darstellen könnten. MATLAB® wird im gesamten Buch verwendet, um verschiedene numerische Methoden zu veranschaulichen. Nützliche Funktionen sind in einem Anhang gesammelt und stehen als elektronisches Zusatzmaterial (ESM) auf der Webseite des Buches unter https://www.springer. com/9783030636425 zur Verfügung. Am Ende jedes Kapitels findet der Leser eine Reihe von Übungen, deren Lösungen im letzten Kapitel besprochen werden. Die zugehörigen MATLAB-Beispiele sind ebenfalls auf der Webseite des Buches erhältlich. Mit dem ausgearbeiteten Plan können wir direkt in den Hauptteil des Buches einsteigen und grundlegende Konzepte und die in der Finanzwelt verwendete Sprache betrachten. Für Produktinformationen zu MATLAB®, wenden Sie sich bitte an: The Mathworks, Inc. 3 Apple Hill Drive Natick, MA 01760-2098 USA Tel: 508-647-7000 Fax: 508-607-7001 Email: [email protected] Web: www.mathworks.com

Literatur 1. A. Einstein, Über die von der molekularkinetischen Theorie der Wärme geforderte Bewegung von in ruhenden Flüssigkeiten suspendierten Teilchen. Annalen der Physik 322, 549 (1905) 2. L. Bachelier, Theorie de la speculation. Annales Scientifiquies de l’Ecole Normale Superieure 17, 21 (1900) 3. R. Mantegna, H. Stanley, Econophysics (Cambridge University Press, Cambridge, 2004) 4. J. Voit, The Statistical Mechanics of Financial Markets (Springer, Berlin, 2005) 5. A. Schmidt, Quantitative Finance for Physicists (Elsevier, Amsterdam, 2005) 6. W. Paul, J. Baschnagel, Stochastic Processes—from Physics to Finance, 2nd edn. (Springer, Berlin, 2013)

2

Konzepte der Finanzen

Zusammenfassung

Nach der Einführung der Volatilität von Aktien als zentrales Merkmal werden die Konzepte des Hedging, des Leerverkaufs und des Diskontierens vorgestellt, sowie Termingeschäfte und Optionen als Funktionen – Derivate – der zugrunde liegenden Aktien. Bevor die verschiedenen Teilnehmer an den daraus resultierenden Märkten diskutiert werden, werden die Hypothese des effizienten Marktes und einige vereinfachende Annahmen behandelt, um die theoretische Behandlung durchführbar zu machen. Lassen Sie uns beginnen, indem wir uns mit einigen der Konzepte und der Fachsprache in der Finanzwelt vertraut machen. Eines der zentralen Elemente ist – zu niemandes Überraschung – Aktien.

2.1 Aktien und andere handelbare Güter Aktien oder Anteile S an Unternehmen sind Beispiele für zugrunde liegende Vermögenswerte, die im Mittelpunkt der Finanzökonomie stehen. Andere Vermögenswerte sind große Summen von Geld oder sogar grundlegende Waren wie Hälften von Schweinen oder Getreide. Denken Sie an Kellogs, die Mais für ihre Flakes kaufen! Diese Vermögenswerte werden in der Regel an (Aktien- oder anderen) Börsen gehandelt. Große Börsen befinden sich in Frankfurt, London, New York oder in Chicago an der Mercantile Exchange (CME). Diese Börsen veröffentlichen oft zusammengesetzte Indizes, wie DAX, FTSE oder den Dow Jones um das allgemeine Handelsverhalten zu verfolgen. Ein entscheidendes Merkmal ist der schwankende Wert dieser Vermögenswerte. Er hängt von vielen und wechselnden Einflüssen ab, wie zum Beispiel der Einführung eines besseren Produkts durch einen Konkurrenten, dem ­Verlust © Der/die Autor(en), exklusiv lizenziert an Springer Nature Switzerland AG 2023 V. Ziemann, Physik und Finanzen, https://doi.org/10.1007/978-3-031-36964-3_2

5

6

2  Konzepte der Finanzen

eines Rechtsstreits durch das Unternehmen oder einer Naturkatastrophe wie einem Erdbeben, das Produktionsanlagen beschädigt. Sogar die Erwartungen von Marktanalysten beeinflussen ihren Wert. Sie versuchen herauszufinden, ob Aktien kaufenswert sind oder nicht und wenn ihre Erwartungen nicht erfüllt werden, fallen die Aktienkurse. All diese und viele weitere Faktoren tragen zu Schwankungen der Aktienwerte bei. Diese Schwankungen werden normalerweise durch ihre relative Variation oder Varianz V = σ 2 = �(�S/S)2 �. Hier bezeichnen die spitzen Klammern den Mittelwert über einen geeigneten Zeitraum, wie zum Beispiel einen Monat oder ein Jahr. Die Variabilität oder Volatilität σ wird allgemein mit Risiko in Verbindung gebracht und spielt eine entscheidende Rolle im Umgang mit Aktien. So werden zufällige Schwankungen von handelbaren Mengen als Risiko wahrgenommen. Und das Management von Risiken ist die vorherrschende Beschäftigung von Finanzökonomen. Sie bauen eine Sammlung von handelbaren Vermögensweten – ein Portfolio – mit dem Ziel, das Risiko oder entsprechend die Varianz des Portfolios zu minimieren. Dieses Ausbalancieren von Risiken wird als Hedging oder Absicherung bezeichnet.

2.2 Absicherung und Leerverkauf Auf den ersten Blick führt die Addition mehrerer schwankender Variablen zu einer Variablen, die noch stärker schwankt als ihre Bestandteile. Dies ist wahr, es sei denn, zwei oder mehr Bestandteile sind antikorreliert. Wir benötigen daher eine Größe, die an Wert gewinnt, wenn eine Aktie an Wert verliert, und umgekehrt. Dies könnte ein Vermögenswert sein, der stark nachgefragt wird, während ein anderer Vermögenswert wenig nachgefragt wird. Als erstes Beispiel betrachten Sie eine Investition in die Aktie eines Konsumguts, wie Apple® Inc., und in Gold. In Zeiten globaler Unruhen steigt der Wert des Goldes und in Zeiten der Ruhe kaufen die Menschen mehr Konsumgüter, was den Wert der Apple-Aktie erhöht. Ein zweites, bodenständigeres Beispiel basiert auf der Aktie eines Herstellers von Regenmänteln und Regenschirmen und der Aktie eines Softdrink-Herstellers, wie Pepsi. In einem verregneten Sommer wird der Hersteller von Regenbekleidung florieren und in einem sonnigen Sommer der Hersteller von Softdrinks. Die Aktien in diesen Beispielen sind nur mäßig antikorreliert. Das dritte Beispiel ist perfekt antikorreliert und basiert auf der Möglichkeit, auf einen fallenden Aktienwert zu wetten. Dieser Mechanismus wird als Leerverkauf bezeichnet und basiert darauf, dass ich zunächst (kostenlos oder zu geringen Kosten) Aktien von einem Broker leihe mit dem Versprechen, sie zu einem späteren Zeitpunkt zurückzugeben. Nach Erhalt der geliehenen Aktien verkaufe ich sie sofort zum Marktwert, dem Spot-Preis. Zu einem späteren Zeitpunkt muss ich die Aktien zum Marktwert zurückkaufen, bevor ich sie dem ursprünglichen Eigentümer zurückgebe. Aber wenn der Aktienwert in der Zwischenzeit gesunken ist, zahle ich weniger als ich ursprünglich erhalten habe. So mache ich einen Gewinn, der durch die Preisdifferenz gegeben ist. Dieser Mechanismus stellt ein abgeleitetes Gut dar, das mit dem zugrunde liegenden Aktienpreis antikorreliert ist.

2.3 Derivate

7

Beachten Sie, dass dieses Verfahren – der Leerverkauf – der Verwendung eines zugrunde liegenden Vermögenswerts, der Aktie, ein Finanzinstrument darstellt, das uns ermöglicht, ein bestimmtes finanzielles Ziel zu erreichen, hier die Absicherung eines Risikos. Solche Instrumente oder Mechanismen, die Funktionen der Basisvermögenswerte, der Aktien oder anderer Güter sind, werden Derivate genannt. Sie sind die Werkzeuge des Finanz-Engineerings, der Mechanik des Risikomanagements. Wir werden eine Reihe von ihnen in den folgenden Abschnitten besprechen.

2.3 Derivate Das einfachste Finanzinstrument ist ein Terminkontrakt, welcher eine Vereinbarung zwischen zwei Parteien ist und daher als Over-the-Counter (OTC) Produkt bezeichnet wird. In einem Terminkontrakt vereinbaren zwei Parteien, ein Vermögenswert zu einem späteren Zeitpunkt zu einem vereinbarten Preis zu handeln, der sich vom heutigen Preis unterscheiden kann. Es schützt den Produzenten vor der Volatilität des Marktes und garantiert einen bekannten, wenn auch möglicherweise niedrigeren, Preis. Dies macht die Planung des Produzenten sicherer. Und der Käufer des Terminkontrakts hat die Chance, einen Gewinn zu erzielen, falls der Markt nach oben ausschlägt und der spätere Markt- oder Spot-Preis höher ist. Der vereinbarte Preis des Terminkontrakts bleibt für die Dauer des Vertrags fest. Ein Verwandter des Terminkontrakts ist ein Future-Kontrakt, der ebenfalls einen Handel zu einem späteren Zeitpunkt vorsieht, aber der Handel erfolgt an einer Börse, wie der CME, und nicht in einem Zwei-Parteien-Vertrag. Während der Preis eines Terminkontrakts fest ist, variiert der Wert eines Future Kontrakts mit der Zeit und nähert sich dem Spot-Preis, wenn die Lieferzeit näher rückt. Zweifellos die prominentesten Werkzeuge des Finanz-Engineerings sind Optionen, die Verträge sind, die dem Eigentümer der Option das Recht geben, ein Vermögenswert zu einem späteren Zeitpunkt zu einem festen, vereinbarten Preis zu verkaufen oder zu kaufen. Der Eigentümer hat die Wahl, die Option auszuüben, kann aber auch verzichten. Es gibt viele Arten von Optionen, wobei die zwei einfachsten sind: Call-Optionen, (Deutsch: Kaufoptionen) die dem Eigentümer das Recht geben, ein Vermögenswert zu Zeitpunkt T zum Preis K zu kaufen. Die zweite ist eine Put-Option, (Deutsch: Verkaufsoption) die dem Eigentümer das Recht gibt, zu Zeitpunkt T zum Preis K zu verkaufen. Zu diesem Zeitpunkt erreicht die Option die Fälligkeit und K wird als Ausübungspreis der Option bezeichnet. Optionen kommen in zwei Hauptvarianten; Europäische Optionen haben ein festes Ablaufdatum und Amerikanische Optionen haben flexible Ablaufdaten. Die Namen Europäisch und Amerikanisch haben nichts mit geographischer Verbreitung zu tun, sie werden nur als Bezeichnungen verwendet, so bedeutet Europäisch festes und Amerikanisch flexibles Ablaufdatum. Betrachten wir ein Beispiel: Ich verkaufe eine Europäische Call-Option zum Preis c, die dem Käufer der Option erlaubt, einen Vermögenswert zum Ausübungspreis K von mir bei Fälligkeit T zu kaufen. Der Käufer der Option begrenzt daher

8

2  Konzepte der Finanzen

den maximalen Preis, den er später für den Vermögenswert zahlen muss, auf K. Zum Zeitpunkt T kann der Preis des Vermögenswerts ST unter dem vereinbarten Ausübungspreis K liegen. Dann ist es für den Käufer vorteilhafter, direkt zum Marktpreis ST zu kaufen und die Call-Option zu verfallen lassen. In diesem Fall habe ich, der Verkäufer, einen Gewinn c gemacht. Wenn der Marktpreis ST über K liegt, wird der Käufer die Option ausüben und ich, der Verkäufer, muss den Vermögenswert zum Preis K liefern und könnte einen Verlust erleiden, es sei denn, ich besitze bereits eine Aktie. Beachten Sie, dass der Verkäufer der Call-Option im Voraus etwas Geld erhält, den Kaufpreis c der Option, und hofft, dass der Marktpreis fällt, damit er das Geld behalten kann. Wenn andererseits der Marktpreis steigt, muss der Verkäufer c investieren, und möglicherweise viel mehr, um die Option zu erfüllen, wenn der Käufer sie bei Fälligkeit ausübt. Beachten Sie, dass bei Fälligkeit der Wert der Call-Option null ist, wenn der Preis des Vermögenswerts unter dem Ausübungspreis K liegt und er ist S–K, wenn der Preis des Vermögenswerts über dem Ausübungspreis liegt. Also, warum möchte ich eine Option ausgeben? Ein Grund ist die Absicherung des Erwerbs des zugrunde liegenden Vermögenswerts, sagen wir eine Aktie. Nehmen wir an, ich kaufe eine Aktie und verkaufe gleichzeitig eine Call-Option. Wenn der Aktienkurs steigt, aber unter dem Ausübungspreis K bleibt, mache ich einen Gewinn, indem ich das Geld behalte, das ich für die Call-Option erhalten habe. Wenn der Aktienkurs über den Ausübungspreis K steigt, muss ich die Aktie, die ich besitze, an den Käufer der Option abgeben. Ich werde einen Verlust machen, aber zumindest nicht mehr als das, was ich sowieso besitze – die Aktie. Die Ausbalancierung der Anzahl der Optionen mit dem erworbenen Vermögenswert ist Teil der Absicherung und hängt von der korrekten Bewertung der Option ab, d. h. der Festlegung des Verkaufspreises c der Option. Wir werden auf dieses Thema in den Kap. 5 und 6 zurückkommen. Beachten Sie, wie der Besitz einer Option einen Wert darstellt, weil sie zu einem späteren Zeitpunkt genutzt werden kann, um etwas Nützliches zu tun, zum Beispiel ein Risiko abzusichern. Daher haben Optionen einen Preis. In späteren Kapiteln werden wir diskutieren, wie dieser Preis bestimmt werden kann. Derivate, wie Termingeschäfte, Futures und Optionen hängen alle von zugrunde liegenden Vermögenswerten ab, stellen aber selbst unabhängige Werte dar, so dass sie gehandelt werden können. Auf diese Weise sind Derivate vollwertige Mitglieder des Marktpools und haben die nützliche Eigenschaft, stark mit den zugrunde liegenden Aktien korreliert zu sein. Und das macht sie besonders geeignet für die Absicherung und das Ausgleichen von Risiken. Neben den Optionen, Termingeschäften und Futures gibt es weitere Derivate, wie Swaps und andere Kreditderivate, Forward-Optionen und Akkumulatoren, deren Diskussion jedoch über den Rahmen dieses Buches hinausgeht. Andererseits ist ein Vermögenswert, der in vielen Geschäften zentral ist und den wir daher diskutieren müssen, Geld.

2.4 Geld

9

2.4 Geld Historisch gesehen basierten Handelsgeschäfte auf Tauschhandel, der den direkten Austausch von Waren oder Dienstleistungen zwischen Handelspartnern beinhaltet. Da dieser Austausch zwangsläufig auf einer doppelten Geichzeitigkeit der Bedürfnisse, wo ein Handelspartner begehrt, was ein anderer anzubieten hat, basiert, ist es oft schwierig, einen solchen Partner zu finden. Darüber hinaus ist es oft unpraktisch, weil nur ganze Tiere den Besitzer wechseln können. Daher führten unsere Vorfahren ein Tauschmedium ein – Geld. Anfangs wurden Silber, Gold oder andere seltene Waren verwendet und in standardisierte Einheiten – Münzen – gegossen, die als Referenz für den Handel dienten. Beachten Sie, dass Münzen einen inneren Wert haben, der einer Anzahl von Kühen oder Eiern entspricht. Als der Handel jedoch expandierte, begann das begrenzte Angebot der seltenen Waren den Handel zu begrenzen. Dieses Problem kann umgangen werden, wenn eine Autorität – historisch ein König, heute eine Zentralbank – garantiert, ein Stück Papier, das an sich keinen Wert hat, für etwas anderes, zum Beispiel Goldmünzen oder andere Währungen, umzutauschen. Dieses Papiergeld, das auf einem Versprechen einer Autorität basiert, wird Fiat-Geld, genannt, weil es per Dekret eingeführt wird.1 Beachten Sie, dass der Wert des Papiergeldes eng mit unserem Vertrauen in die Autorität verbunden ist, dass das Geld sehr schwer zu fälschen ist und jeder, der das Geld fälscht, verfolgt und bestraft wird. Dieses Vertrauen in eine zentrale Autorität, die den Geldfluss verwaltet, ist der Dreh- und Angelpunkt, auf dem das Fiat-Geld beruht. Auf nationaler Ebene sind Zentralbanken die Behörden, die die Verfügbarkeit von Geld regulieren, indem sie den Zinssatz festlegen, zu dem Geschäftsbanken Geld von der Zentralbank leihen können, wie zum Beispiel die Europäische Zentralbank in der Eurozone oder die Federal Reserve Bank in den USA. Bis August 1971 nutzten die USA und viele andere Länder, die durch das BrettonWoods Abkommen mit den USA verbunden waren, Goldreserven zur Absicherung ihrer Währungen. Bemerkenswert ist, dass ein großer Teil der US-Reserven in Fort Knox gelagert wurde. Seit 1971 sind der Dollar und die Währungen der anderen Mitglieder des Bretton-Woods-Abkommens reine Fiat-Währungen und die Federal Reserve muss die Menge an Geld, die sie an Geschäftsbanken verleiht, nicht begrenzen, was das Wachstum stimuliert. Dieser erhöhte Geldfluss hat jedoch eine Kehrseite; er reduziert den Wert jedes im Umlauf befindlichen Dollars und erhöht damit die Inflation. Kryptowährungen, wie Bitcoin, Ethereum oder Litecoin sind Währungen, die nicht von zentralen Behörden abhängig sind, um ihre Integrität zu garantieren. Stattdessen führen sie ein verteiltes Hauptbuch, eine Datenbank, in der alle Transaktionen gespeichert sind. Diese Transaktionen werden digital signiert

1 Wie

zum Beispiel „fiat lux“ – es werde Licht (Genesis 1:3).

10

2  Konzepte der Finanzen

und Miner konkurrieren um die Verifizierung der Transaktionen. Der Prozess ist so organisiert, dass es praktisch unmöglich ist, eine Transaktion rückgängig zu machen, was die Datenbank fälschungssicher und unveränderlich macht. Wie dies in der Praxis umgesetzt wird, ist das Thema von Kap. 12. Bei Kryptowährungen wird das Vertrauen in eine zentrale Autorität durch das Vertrauen in die Integrität des Hauptbuchs ersetzt. Solange Handelspartner diesem Mechanismus vertrauen, hat eine Kryptowährung einen Wert, aber das ist eine Entscheidung, die alle Handelspartner gemeinsam treffen. Solange alle denken, dass Bitcoins eine großartige Idee sind und einen Zweck erfüllen, haben Bitcoins einen Wert. Diese gemeinschaftliche Stimmung ändert sich jedoch im Laufe der Zeit und das führt dazu, dass der Wechselkurs von Kryptowährungen stärker schwankt als die der meisten anderen Währungen.

2.5 Abzinsung und Liquidität Bei der Berechnung des Preises von Optionen und anderen Derivaten vergleichen wir Werte zu unterschiedlichen Zeiten, zum Beispiel jetzt und bei Fälligkeit, was einige zusätzliche Überlegungen erfordert. Lassen Sie uns daher herausfinden, wie viel Geld wir tatsächlich durch das Leerverkaufen eines Vermögenswertes verdienen können. Auf den ersten Blick ist es nur die Differenz zwischen dem Verkaufspreis unmittelbar nach dem Ausleihen der Aktien und dem Rückkaufpreis zu einem späteren Zeitpunkt. An dieser Stelle vergleichen wir Geld zu unterschiedlichen Zeiten, was wenig Sinn macht, weil Geld zu einem früheren Zeitpunkt in ein risikofreies Vermögen, wie zum Beispiel Sparanleihen oder den London Interbank Offered Rate (LIBOR), investiert werden kann. Der LIBOR ist der Zinssatz, zu dem Banken Geld untereinander ausleihen und verleihen und gilt als risikofrei. Wenn das Anfangskapital zum LIBOR-Zinssatz angelegt wird, würde es mit dem risikofreien Zinssatz rf um den Faktor erf t , wachsen, wobei wir von kontinuierlichem Zinseszins ausgehen. Umgekehrt bedeutet dies, dass Geld zu einem späteren Zeitpunkt im Vergleich zur früheren Zeit weniger wert ist und der Faktor, mit dem es abgezinst werden muss, ist e−rf t , wieder unter der Annahme von kontinuierlichem Zinseszins. Im Wesentlichen bedeutet Abzinsung, einen Wert für die Zeit t mit dem Abzinsungsfaktor e−rf t rückwärts zu propagieren. Eine der zugrunde liegenden Annahmen in der Finanztheorie ist, dass es immer eine Institution gibt, die Liquidität bereitstellt. Dies impliziert, dass wir immer unbegrenzte Geldmengen zum risikofreien Zinssatz rf leihen können und wir können immer überschüssige Gelder zum gleichen Zinssatz anlegen. Auf diese Weise besteht immer die Möglichkeit, den Wert des eigenen Vermögens zu erhöhen, indem man Geld zu dem Zinssatz rf bei der Bank einzahlt, aber die Hoffnung besteht natürlich darin, in andere Vermögenswerte zu investieren, die eine höhere Rendite ρ auf das investierte Geld bieten, wenn auch zu einem höheren Risiko. Das Spiel besteht darin, die höchste Rendite bei dem niedrigsten tolerierbaren Risiko zu erzielen.

2.6 Effizienzmarkthypothese

11

2.6 Effizienzmarkthypothese Eine weitere grundlegende Annahme ist, dass es in einem großen Markt mit vielen handelbaren Gütern und vielen Handelsagenten immer jemanden geben wird, der bereit ist, an einem Handel teilzunehmen. Ich könnte versuchen, große Mengen einer Aktie zu leerverkaufen, weil ich glaube, dass ihr Wert sinken wird, aber es gibt immer noch jemanden, der glaubt, dass der Wert steigt und alle Aktien kauft, die ich verkaufen möchte. Ebenso gehen wir davon aus, dass ein Landwirt, der an einem kleineren, aber garantierten, späteren Preis interessiert ist, um sein Weizen zu verkaufen, immer einen Handelspartner findet, der die andere Seite des Handels akzeptiert. Eine Folge der großen Anzahl von eifrigen Handelsagenten und der Existenz einer Anlagemöglichkeit zum risikofreien Zinssatz rf ist, dass der Markt insgesamt im Durchschnitt mit dem risikofreien Zinssatz rf wachsen wird, obwohl große Schwankungen auftreten können. Warum ist das so? Nun, wenn der durchschnittliche Zinssatz des gesamten Marktes niedriger wäre, dann würden alle Händler ihr Geld in risikofreie Anleihen investieren und niemand würde in Unternehmen investieren. Die Unternehmen müssten reagieren, indem sie eine höhere Rendite versprechen, wenn auch mit einem gewissen Risiko für die Anleger. Aber einige Anleger werden das Risiko eingehen und einige werden Geld verdienen und einige werden verlieren, aber im Durchschnitt wird der Gesamtgewinn beim risikofreien Zinssatz liegen. Beachten Sie, dass der gleiche Mechanismus auch zwischen anderen Handelspartnern funktionieren wird. Sobald es ein Ungleichgewicht zwischen Rendite und Risiko gibt, wird jemand es ausnutzen und das durchschnittliche Wachstum wird durch Angebot und Nachfrage wiederhergestellt. Dies wird als Effizienzmarkthypothese bezeichnet, nämlich dass Angebot und Nachfrage immer jedes Ungleichgewicht ausnutzen werden, bis es beseitigt ist. Die Ausnutzung eines kleinen Handelsungleichgewichts ohne Risiko wird als Arbitrage bezeichnet, ein Beispiel ist der Unterschied im Goldpreis in den USA und Großbritannien. Wenn er größer wird als die Handhabungskosten, macht es Sinn, Gold dort zu kaufen, wo es billiger ist, es über den Atlantik zu transportieren und es mit Gewinn zu verkaufen. Dies funktioniert nur, bis die Nachfrage nach Gold so groß ist, dass der Goldpreis auf ein Niveau steigt, das den Handel unrentabel macht. Nach dieser Diskussion sollte es etwas klarer werden, dass Aktien zufällig schwanken, aber der Markt insgesamt eine durchschnittliche Wachstumsrate beibehält, die dem risikofreien Zinssatz rf . entspricht. Dies deutet bereits auf die Diffusionsgleichung mit einem Driftterm hin, die uns in den kommenden Kapiteln beschäftigen wird. Bevor wir fortfahren, lassen Sie uns kurz die „Regeln des Handels“ zusammenfassen, eine Reihe von grundlegenden Annahmen, die Märkte in einer etwas idealisierten Form charakterisieren, hauptsächlich um die theoretische Analyse in späteren Kapiteln machbar zu machen.

12

2  Konzepte der Finanzen

2.7 Theoretische Märkte Die Märkte und Mechanismen basieren auf Annahmen, die wir im Folgenden auflisten. Einige der Regeln sind eher allgemein gehalten, um einen fairen Handel mit gleichen Informationen für alle Teilnehmer zu ermöglichen, und andere sind etwas idealisiert, um analytische Methoden durchführbar zu machen. Diese Regeln sind jedoch auch in realen Märkten weitgehend gültig. • Liquidität: Das Ausleihen und Verleihen von Geld in unbegrenzten Mengen zum risikofreien Zinssatz rf ist immer möglich. Es ist immer möglich, einen Handelspartner zum Kauf und zum Leerverkauf zu finden. • Gleichgewicht und keine Arbitrage: Der Markt befindet sich im Gleichgewicht und alle Möglichkeiten für Arbitrage werden sofort durch eine Reaktion des gesamten Marktes beseitigt. • Rationale Anleger: Alle Händler sind rational und versuchen, Risiken zu vermeiden oder zumindest ihren Gewinn für ein gegebenes Risiko zu maximieren. • Keine Transaktionskosten: Normalerweise fallen bei jeder Finanztransaktion einige Gebühren an, die an den Broker oder die Bank zu zahlen sind. Dieser Effekt kann durch den Handel mit großen Mengen minimiert werden und wir werden ihn ignorieren. • Keine Besteuerung: Besteuerung kann Entscheidungen bezüglich Aktienmärkten beeinflussen, da ein Verlust bei den Aktien zur Kompensation von Gewinnen in anderen Märkten und somit zur Minimierung der Steuern genutzt werden kann. Wir ignorieren diesen Effekt. • Transparenz: Alle Informationen stehen allen Händlern zur Verfügung. Es gibt keine Insiderinformationen. In der Realität sind diese idealisierten Regeln zumindest annähernd auch in der realen Welt gültig, deren Bewohner wir im nächsten Abschnitt betrachten.

2.8 Marktteilnehmer Bevor wir die Teilnehmer diskutieren, müssen wir ein wenig Fachjargon einführen, da dieser häufig im Zusammenhang mit Finanzen verwendet wird. Ein Händler, der eine Ware verkauft und sie daher nicht mehr besitzt, ist „short“ der Ware und nimmt die Short-Position in dem Handel ein. Umgekehrt nimmt der Käufer, der die Ware nun besitzt, die Long-Position ein. Zuerst betrachten wir die Hedger. Sie versuchen, das Risiko ihres Portfolios auszugleichen und sind hauptsächlich daran interessiert, große Verluste zu vermeiden, während sie gleichzeitig gezwungen sind, Risiken einzugehen. Ein Beispiel ist ein Schatzmeister in einem produzierenden Unternehmen, das Rohstoffe in ein wertvolleres Produkt umwandelt. Die Risiken, denen das Unternehmen ausgesetzt ist, sind der schwankende Preis der Rohstoffe und möglicherweise

2.8 Marktteilnehmer

13

schwankende Wechselkurse, wenn die Rohstoffe aus dem Ausland importiert werden müssen. Das Risiko durch den Preis der Rohstoffe kann durch den parallelen Kauf von Optionen oder Futures vom Rohstoff gemindert und so deren Preisschwankungen reduziert werden. Das Währungsrisiko kann durch den Verkauf des Endprodukts im Herkunftsland des Rohstoffs ausgeglichen werden. Tatsächlich nutzen die meisten Händler eine Form von Hedging, um die Risiken außerhalb ihrer Kontrolle zu begrenzen. Beachten Sie jedoch, dass Hedging einen Preis hat. Neben der Risikobegrenzung begrenzt es auch die Gewinne. Selbst wenn eine Seite des Hedgings einen großen Gewinn erzielt, entsteht auf der anderen Seite ein Verlust. Eine zweite große Gruppe von Händlern sind Spekulanten. Sie suchen tatsächlich danach, ihr Risiko zu erhöhen, um ihre Chance auf einen großen Gewinn zu erhöhen, allerdings auf Kosten des Risikos, im Falle einer unerwünschten und unerwarteten Marktentwicklung, große Verluste zu erleiden. Die dritte große Gruppe sind die Arbitrageure, die versuchen, kleine Ungleichgewichte in den Marktschwankungen auszunutzen, um einen risikofreien Gewinn zu erzielen. Ein Beispiel wurde bereits oben erwähnt, nämlich unterschiedliche Preise desselben Vermögenswerts, zum Beispiel Gold, in verschiedenen Ländern. Arbitrageure kaufen an der günstigen Stelle und verkaufen an der teuren Stelle, wodurch sie die Nachfrage an der günstigen Stelle erhöhen und den Preisunterschied ausgleichen. Ein weiteres Beispiel sind Händler, die kleine Unterschiede im Wert von zwei Vermögenswerten ausnutzen, die normalerweise einander folgen. Betrachten wir die Aktienkurse der Softdrink-Hersteller Pepsi® und Coca Cola®. Beide folgen einander ziemlich genau, weil die bestimmenden Einflüsse sehr ähnlich sind. Wenn zufällig eine kleine Diskrepanz auftritt, können die Arbitrageure ziemlich sicher sein, dass die Aktienkurse zu einem späteren Zeitpunkt wieder zusammenlaufen werden. Indem sie diese Information ausnutzen, können sie das vorübergehend zu billige Vermögen kaufen und das teure leer verkaufen. Arbitrageure spielen eine wichtige Rolle für den Markt. Sie sorgen dafür, dass auf alle Ungleichgewichtsschwankungen reagiert und diese dadurch reduziert werden. Sie halten den Markt im Gleichgewicht . Natürlich sind Banken Marktteilnehmer, und insbesondere die Zentralbanken. Sie legen die Diskontsätze fest, zu denen Geschäftsbanken selbst Geld leihen können und dies bestimmt alle anderen Zinssätze. Oft sind mit Banken Brokerfirmen verbunden. Sie sind Finanzberater oder Aktienmakler, die anderen Personen dabei helfen, ihre Geschäfte zu tätigen. Optionen werden von Market Makern gehandelt, welche oft Banken sind, aber auch unabhängige Broker sein können. Sie stellen die oben erwähnte Liquidität auf dem Markt zur Verfügung, weil sie sofort auf externe Angebote und Kaufanfragen reagieren und damit garantieren, dass Aktien und Optionen tatsächlich gehandelt werden können. Sie sorgen dafür, dass der Kauf und Verkauf von Optionen, oft zum Zweck der kontinuierlichen Anpassung der Absicherung (siehe unten), immer funktioniert. Die Regeln für den Handel werden von nationalen Handelskommissionen definiert und durchgesetzt, die den Handel überwachen. In den USA ist dies die

14

2  Konzepte der Finanzen

U.S. Securities and Exchange Commission. In der Eurozone wurde die Aufsicht über große Banken erst 2014 der Europäischen Zentralbank übertragen. Clearingstellen sind Vermittler zwischen Händlern. Sie garantieren, dass die Verträge zwischen anderen Marktteilnehmern eingehalten werden. Sie verlangen normalerweise von den Händlern, ein Margin-Konto zu führen, das ausreichend Mittel enthält, um alle erwarteten und vorhersehbaren Verluste zu decken. Nachdem wir die Voraussetzungen besprochen haben, können wir uns nun dem Risikomanagement zuwenden und ein Portfolio zusammenstellen, das unseren Appetit auf Gewinn und unsere Abneigung gegen das Risiko ausbalanciert. Es stellt sich heraus, dass diese Diskussion eng mit der Bewertung von Aktien verbunden ist. Nämlich die Frage, was den Wert eines gegebenen Vermögenswerts bestimmt. Übungen 1. Schreiben Sie einen kurzen Aufsatz darüber, was G. Soros 1992 getan hat, als er die Bank of England „shortete“. 2. Recherchieren Sie, was ein Hedgefonds ist und schreiben Sie einen kurzen Aufsatz darüber. Geben Sie ein paar Beispiele. 3. Finden Sie heraus, wo Sie mit Schweinefleisch handeln können, wo mit Aktien des Herstellers Ihres Smartphones? 4. Wo und wie können Sie mit Derivaten handeln, die auf dem Wetter basieren? Warum würde jemand das tun wollen? 5. Wer besitzt und betreibt die wichtigsten Börsen in Frankfurt, New York und Stockholm? 6. Finden Sie heraus, warum Verkaufen als „Short gehen“ bezeichnet wird und warum Kaufen als „Long gehen“ bezeichnet wird? 7. Schreiben Sie einen kurzen Aufsatz über das Bretton-Woods-Abkommen. 8. Welche Behörden überwachen Zahlungen mit Kreditkarten?

3

Portfoliotheorie und CAPM

Zusammenfassung

Dieses Kapitel befasst sich mit der Zusammenstellung von Aktien zu einem Portfolio, das dem Gewinnstreben eines Investors entspricht, während das Risiko, die ursprüngliche Investition zu verlieren, minimiert wird. Da die Theorie auf Variationsmethoden und auf Lagrange-Multiplikatoren basiert, werden Anwendungen dieser Konzepte in der Physik ihrer Verwendung in der Finanzwelt gegenübergestellt. Als Erweiterung der Portfoliotheorie werden die Grundgleichungen des Capital Asset Pricing Modells abgeleitet und zur Unternehmensbewertung verwendet. Nehmen wir an, wir möchten eine Summe Geld in Aktien investieren. Wie teilen wir also das verfügbare Geld auf Aktien auf, um unseren Gewinn zu maximieren und gleichzeitig das Risiko zu minimieren, tatsächlich Geld zu verlieren? Diese Frage wurde in den 1950er Jahren von Markowitz gestellt und beantwortet, was zu seinem Anteil am Gedenkpreis 1990 in A. Nobels Erinnerung führte. Wir beginnen mit seiner Analyse zur Auswahl eines Portfolios [1], die stark auf Methoden basiert, die wir in der Physik verwenden: Lagrange Multiplikatoren und Variationsmethoden. Betrachten wir verschiedene Händler, die unterschiedliche Grade an Eifer haben, einen Gewinn zu erzielen und unterschiedliche Grade an Risikoakzeptanz aufweisen. Ein sehr risikoaverser Händler würde beispielsweise einfach all sein verfügbares Geld auf ein Bankkonto legen, das den risikofreien Zinssatz rf bietet, der keine Volatilität σ aufweist und kein Risiko birgt, Geld zu verlieren.

Ergänzende Information Die elektronische Version dieses Kapitels enthält Zusatzmaterial, auf das über folgenden Link zugegriffen werden kann https://doi.org/10.1007/978-3-031-36964-3_3. © Der/die Autor(en), exklusiv lizenziert an Springer Nature Switzerland AG 2023 V. Ziemann, Physik und Finanzen, https://doi.org/10.1007/978-3-031-36964-3_3

15

3  Portfoliotheorie und CAPM

16

Ein ­ ehrgeizigerer Investor, ein Spekulant, wird eine höhere Rendite als den risikofreien Zinssatz rf , fordern, aber auf Kosten der Toleranz gegenüber einem gewissen Risiko oder Volatilität, was potenziell zu einer Reduzierung des Wertes der ursprünglichen Investition führen kann. Man hat normalerweise nur eine begrenzte Menge an Geld zur Verfügung, um mit dem Handel zu beginnen. Dies stellt eine Zwangsbedingung für die Fähigkeit zur Auswahl von Aktien dar. Eine solche Einschränkung wird effizient durch Lagrange-Multiplikatoren gehandhabt. Darüber hinaus basiert die Optimierung eines Portfolios auf Methoden aus dem Variationskalkül. Wir nutzen daher die Gelegenheit, kurz auf die Verwendung beider Konzepte in der klassischen Mechanik einzugehen [2, 3].

3.1 Variationsrechnung und Lagrange Multiplikatoren Die Bewegungsgleichungen für mechanische Systeme folgen aus Hamiltons Prinzip der Maximierung des Wirkungsfunktional S, was δS = 0 impliziert. Die Wirkung S ist definiert als das Zeitintegral der Lagrange-Funktion L(q, q˙ ), die von der Position q und Geschwindigkeit q˙ abhängt, zum Beispiel einer Punktmasse. Hier ignorieren wir jede explizite Abhängigkeit der Lagrangefunktion von der Zeit t. Das Minimimum der Wirkung S über ein festes Zeitintervall von t1 bis t2 ist also gegeben durch

0 = δS = δ

ˆt2

L(q, q˙ )dt =

ˆt2  t1

t1

 ∂L ∂L δq + δ q˙ dt , ∂q ∂ q˙

(3.1)

wobei wir L(q, q˙ ) in Bezug auf seine beiden Argumente q und q˙ variiert haben. Diese beiden Größen sind jedoch nicht unabhängig, sondern durch δ q˙ = dtd δq eingeschränkt, was uns erlaubt, die vorherige Gleichung umzuschreiben als

  ˆt2  d ∂L ∂L ∂L t2 δq + − δqdt , 0= ∂ q˙ ∂q dt ∂ q˙ t1

(3.2)

t1

  d ∂L zu wobei wir partielle Integration verwenden, um ∂L δ q ˙ = δq − dtd ∂L ∂ q˙ dt ∂ q˙ ∂ q˙ schreiben. Wir integrieren dann die totale Ableitung, um den ersten Term zu erhalten, der verschwindet, weil die Trajektorie q(t1 ) und q(t2 ) an den Endpunkten fest ist. Dies erfordert, dass der zweite Term für alle Variationen δq verschwindet, was nur erfüllt werden kann, wenn der Ausdruck in den Klammern null ist. Dies führt zu den Euler-Lagrange-Gleichungen 0=

d ∂L ∂L , − dt ∂ q˙ ∂q

(3.3)

aus dem die Bewegungsgleichungen folgen, in denen alle (generalisierten) Koordinaten als unabhängig angenommen werden. Wenn es zusätzliche Zwangsbedingungen zwischen ihnen gibt, können wir Lagrange-Multiplikatoren verwenden, um diese Einschränkungen zu berücksichtigen.

3.1  Variationsrechnung und Lagrange Multiplikatoren

17

Abb. 3.1  Die Koordinatensysteme, die zur Analyse der Dynamik eines Felsens verwendet werden, dessen Bewegung auf eine geneigte Ebene beschränkt ist.

Felsen

Wir diskutieren die Lagrange-Multiplikatoren, indem wir das einfache mechanische Modell eines fallenden Steins betrachten und dann die Bewegung des Steins auf eine geneigte Ebene beschränken. Abb. 3.1 veranschaulicht die Geometrie. Wir beschreiben die uneingeschränkte Bewegung des Steins in zwei Dimensionen x und y durch die Lagrange-Funktion L = T − U, wobei  T = (m/2)(˙x 2 + y˙ 2 ) die kinetische Energie ist und U = mgy die potentielle Energie. Die Einschränkung der „fallenden“ Bewegung auf die geneigte Ebene, gegeben durch die Gleichung y = x tan α, führt zur angepassten LagrangeFunktion

L = T − U + (y − x tan α) 1 = m(˙x 2 + y˙ 2 ) − mgy + (y − x tan α) 2

(3.4)

mit dem Lagrange-Multiplikator , den wir als zusätzliche dynamische ˙ so dass die Euler-LagrangeVariable behandeln. Es gibt keinen Term mit , Bewegungsgleichungen gegeben sind durch

  d d ∂L ∂L − = m˙x − − tan α = m¨x +  tan α dt ∂ x˙ ∂x dt   d ∂L ∂L d 0= − = m˙y − −mg +  = m¨y + mg −  dt ∂ y˙ ∂y dt ∂L = y − x tan α . 0= ∂

0=

(3.5)

Die Ableitung nach  stellt die Zwangsbedingung wieder her und die beiden ersten Gleichungen haben diese eingebaut mit Hilfe des Lagrange-Multiplikators . Im nächsten Schritt eliminieren wir  aus den Gleichungen, indem wir die erste Gleichung mit cos α und die zweite mit sin α multiplizieren und dann die beiden Gleichungen addieren. Dies führt uns zu 0 = x¨ cos α + y¨ sin α + g sin α. Jetzt verwenden wir die Zwansgbedingung, um y¨ = x¨ tan α zu eliminieren und kommen zu

0=

x¨ + g sin α cos α

oder

0 = s¨ + g sin α

(3.6)

3  Portfoliotheorie und CAPM

18

wobei s = x/ cos α ist die Entfernung, die entlang der geneigten Ebene gemessen wird, was auch das Ergebnis ist, das man von einfacheren Überlegungen erwarten kann. Beachten Sie, dass wir die Einschränkung einfach mit Hilfe eines LagrangeMultiplikators  in die Lagrange-Funktion einbauen und dann als zusätzlichen dynamischen Parameter behandeln. Dieses „Rezept“ integriert dann die Zwangsbedingung in die Bewegungsgleichung und gleichzeitig reproduziert die EulerLagrange-Gleichung in Bezug auf  diese. Nach dieser Auffrischung zur Veranschaulichung der Verwendung von Lagrange-Multiplikatoren zur Behandlung von Zwangsbedingungen in Variationsproblemen wenden wir uns der Optimierung von Portfolios zu.

3.2 Portfolio nur mit riskanten Vermögenswerten  Wir betrachten ein Portfolio von Aktien, die mit wi gewichtet sind, mit i wi = 1, was impliziert, dass die verfügbaren Mittel auf Aktien aufgeteilt werden und wi = 0.1 bedeutet, dass 10 % unserer Mittel der Aktie Nummer i zugewiesen werden. Es wird angenommen, dass die Aktien eine gewisse Rendite ri auf die ursprüngliche Investition erzielen. Die Frage  ist, wie man die wi wählt, um die durchschnittliche Portfolio-Rendite ρ = i wi �ri � zu maximieren, aber dies mit der geringsten Unsicherheit zu tun. Die letztere Anforderung übersetzt sich in die Minimierung der Varianz V der Rendite, die gegeben ist durch � �� � � �� � wj (rj − �rj �) = V (w) = wi (ri − �ri �)  Cij wi wj , (3.7) i

j

i

j

wobei Cij gegeben ist durch

  Cij = [ri − �ri �][rj − �rj �]

(3.8)

und wo die spitzen Klammern �·� Durchschnitte der Rendite ρ über einen geeignet gewählten Zeitraum in der Vergangenheit bezeichnen. Beachten Sie, dass die Kovarianzmatrix C durch Konstruktion symmetrisch ist. Die Anforderung, V zu  wi = 1 beiminimieren und gleichzeitig eine Rendite ρ zu erzielen, während behalten wird, kann in die Form gebracht werden, um eine Kostenfunktion zu minimieren, die oft als χ 2 bezeichnet wird       1  2 Cij wi wj + 1 ρ − wi �ri � + 2 1 − wi . (3.9) χ = 2 i j i i

Hier sind 1 und 2 Lagrange-Multiplikatoren, um die Zwangsbedingungen zu berücksichtigen, damit die gewichtete durchschnittliche Rendite gleich ρ ist und die Summe der Gewichte wi gleich eins. Dies ist analog zur Einbeziehung der Zwansgbedingung, auf der schiefen Ebene zu bleiben, bei der Behandlung des Lagrange’schen Formalismus für das mechanische System in (3.4).

3.2  Portfolio nur mit riskanten Vermögenswerten

19

Wir können die optimale Portfolioverteilung der Aktien wk für eine gegebene Gewinnbegierde ρ finden, indem wir das Minimum von χ 2 in Bezug auf die wk als Funktion von ρ bestimmen und schreiben

0=

 ∂χ 2 = Ckj wj − 1 �rk � − 2 ∂wk j

(3.10)

oder, bequemer in Matrixform

0 = Cw − 1 �r� − 2 e ,

(3.11)

wo wir den Vektor e eingeführt haben, bei dem alle Komponenten gleich Eins sind. Diese Gleichung wird leicht gelöst durch   w = C −1 1 �r� + 2 e (3.12) und seine Transponierte

wT = �rT �C −1 1 + eT C −1 2 ,

(3.13)

vorausgesetzt, dass die Kovarianzmatrix invertierbar ist. Dies ist der Fall, wenn es keine risikofreien Vermögenswerte im Portfolio gibt, ein Punkt, den wir im nächsten Abschnitt lockern. Aber jetzt setzen wir den Ausdruck für die Gewichte des Portfoliovektors w in die Bedingung für die gewünschte Rendite ρ ein und erhalten

ρ = wT �r� = �rT �C −1 �r�1 + eT C −1 �r�2 .

(3.14)

Die Normalisierungsbedingung kann als 1 = w · e geschrieben werden, was ergibt T

1 = wT e = �rT �C −1 e1 + eT C −1 e2 .

(3.15)

Diese beiden Gleichungen bilden ein System von linearen Gleichungen, das in eine matrixwertige Gleichung umgewandelt werden kann.    T −1   ρ �r �C �r� eT C −1 �r� 1 = , (3.16) 2 1 �rT �C −1 e eT C −1 e

was leicht für die Lagrange-Multiplikatoren 1 und 2 durch Invertierung der 2 × 2 Matrix, die in (3.16) erscheint gelöst werden kann  T −1     1 e C e − eT C −1 �r� ρ 1 , = (3.17) 1 2 � −�rT �C −1 e �rT �C −1 �r� wobei  ist die Determinante der 2 × 2 Matrix. Durch Einsetzen von 1 und 2 in (3.12), erhalten wir den optimalen Gewichtsvektor w für das Portfolio als Funktion der gewünschten Portfolio-Rendite ρ

w = 1 C −1 �r� + 2 C −1 e ,

(3.18)

die nur bekannte Größen wie die durchschnittliche Rendite der Aktien r und deren Varianz sowie die gewünschte Portfolio-Rendite ρ enthält, die den

3  Portfoliotheorie und CAPM

20 , ,

Linie Kapitalmarkt

Portfoliorendite

,

Effiziente Grenze

, ,

Tangente/Marktportfolio

,

Minimales Risiko ,

,

,

,

,

,

,

Volatilität

Abb. 3.2  Die Lokus von Paaren (ρ, σ ) in der Portfolio-Ebene. Die schwarze Hyperbel stellt die gewünschte Rendite ρ in Bezug auf die Volatilität σ für ein rein risikobehaftetes Portfolio dar. Die rote Linie stellt die gleichen Mengen dar, wenn eine risikofreie Anlageoption verfügbar ist

­Gewinnwunsch des Anlegers angibt. Die resultierende Volatilität σ des Portfolios, gegeben durch w, ist σ 2 = wT Cw. Wir können nun die Beziehung zwischen der gewünschten Rendite ρ und die resultierende Volatilität durch das Auftragen von ρ gegen σ bestimmen, was in Abb. 3.2 für ein Beispielportfolio mit drei Vermögenswerten durchgeführt wird, die ungefähr Renditen von �r1 � ≈ 1%, �r2 � ≈ 2% und �r3 � ≈ 3% mit ungefähren Volatilitäten von 1, 2 und 3 % aufweisen. Die Grafik wurde mit dem MATLABSkript aus Anhang B.1 erstellt und verwendet Sequenzen von korrelierten Zufallszahlen mit Renditen und Volatilitäten, die als die drei schwarzen Sternchen in Abb. 3.2 dargestellt sind. Wir zeigen auch die Beziehung zwischen der gewünschten Portfolio-Rendite ρ und der Portfolio-Volatilität σ als die durchgezogene schwarze Linie für unser Drei-Aktien-Portfolio. Das Portfolio mit einer minimalen Volatilität, die durch den am weitesten links liegenden Punkt im Knie der schwarzen Hyperbel gegeben ist. Die Koordinaten dieses Punktes können aus der Anforderung berechnet werden, dass σ 2 = wT Cw, wobei w gegeben ist durch (3.18) und (3.17) in Bezug auf die gewünschte Rendite ρ. Durch explizites Einsetzen von (3.18) finden wir

σ 2 = 21 rT C −1 r + 1 2 eT C −1 r + 1 2 rT C −1 e + 22 eT C −1 e      rT C −1 r eT C −1 r 1 = 1  2 2 rT C −1 e eT C −1 e     ρ =  1 2 1 =a11 ρ 2 + 2a12 ρ + a22 ,

(3.19)

3.3  Portfolio mit einem risikofreien Vermögenswert

21

wobei wir (3.16) verwendet haben. Darüber hinaus bezeichnen wir die Matrixelemente der symmetrischen Matrix in (3.17) durch aij . Differenzieren von σ 2 in Bezug auf ρ und Gleichsetzen des Ergebnisses mit Null ergibt die Rendite ρ ∗ am Punkt des minimalen Risikos, gegeben durch

a12 eT C −1 r = T −1 . a11 e C e Die entsprechende minimale Volatilität σ ∗ wird gegeben durch ρ∗ = −

σ ∗2 = a11 ρ ∗2 + 2a12 ρ ∗ + a22 =

(3.20)

2 1 a11 a22 − a12 = T −1 . a11 e C e

(3.21)

Der Punkt (σ ∗ , ρ ∗ ) wird in Abb. 3.2 durch ein Sternchen im Knie der schwarzen Kurve angezeigt. Beachten Sie, dass das Minimum tatsächlich kleiner ist als die kleinste Volatilität der zugrunde liegenden Vermögenswerte, die 1 % betrug. Wir stellen fest, dass das Mischen verschiedener Aktien die Volatilität des kombinierten Portfolios reduzieren kann, jedoch nicht vollständig beseitigt. Beachten Sie auch, dass in einigen Fällen einige der Gewichte wk negativ werden können, was dem Leerverkauf des Vermögenswerts mit dem negativen Gewicht entspricht. Bei der Ableitung der optimalen Portfolioverteilung der Aktien w, gingen wir davon aus, dass die Kovarianzmatrix C invertierbar ist, was nicht der Fall ist, wenn wir risikofreie Vermögenswerte wie Staatsanleihen in unser Portfolio aufnehmen. Im folgenden Abschnitt lockern wir diese Einschränkung.

3.3 Portfolio mit einem risikofreien Vermögenswert Wenn wir einen risikofreienVermögenswert in unserem Portfolio zur Verfügung haben, bleibt die Diskussion im vorherigen Abschnitt bis (3.11) unberührt, aber die Invertierung der Kovarianzmatrix C, die zu (3.12) führte, ist nicht möglich. Um das Problem genauer zu untersuchen, schreiben wir die zu (3.11) äquivalente Gleichung

   0 0      ..  =  .  0 0

0 0 .. .

Cˆ 0

0

0

     w1 �r1 � 1  w2   �r2 �  1        ..  − 1  ..  − 2  ..  ,  .   .  . 

wf

rf

(3.22)

1

wobei wir annehmen, dass wir N riskante Vermögenswerte haben und derjenige mit der Nummer N + 1 risikofrei ist, was die Nullen in der letzten Spalte und Zeile erklärt. Wir bezeichnen die Kovarianzmatrix, beschränkt auf den oberen linken N × N nicht-null Teil, mit Cˆ . Aus der letzten Zeile von (3.22) finden wir sofort

2 = −1 rf ,

(3.23)

3  Portfoliotheorie und CAPM

22

welches, nachdem es in die oberen N Zeilen von (3.22) eingefügt wurde, zu

        1 �r1 � w1 0  ..   ..   ..   ..  ˆ  .  = C  .  − 1  .  + 1 rf  .  1 �rN � 0 wN

(3.24)

führt. Die Lösung für die wi ergibt

   �r1 � − rf w1   ..  .. −1 −1   = 1 Cˆ r ,  .  = 1 Cˆ  . �rN � − rf wN 

(3.25)

wobei wir die Abkürzung r = �r� − rf e eingeführt haben. Der LagrangeMultiplikator 1 kann aus der Anforderung bestimmt werden, dass die Rendite ρ sein soll. Dies bringt uns zu

ρ = wT �r� + wf rf   = wT �r� + 1 − wT e rf   = rf + wT �r� − rf e

(3.26)

= rf + 1 �rT Cˆ −1 �r .

Aufgelöst nach 1 , erhalten wir

1 =

ρ − rf �rT Cˆ −1 �r

(3.27)

und für die ersten N Komponenten des Portfoliovektors w finden wir den folgenden Ausdruck, wenn wir 1 in (3.25) einfügen.

w=

ρ − rf Cˆ −1 �r . T −1 ˆ �r C �r

(3.28)

Der Anteil, der in den risikofreien Vermögenswerten  investiert wird ist  wf und kann aus der Normalisierungsanforderung wf + Ni wi = 1 bestimmt werden, hier geschrieben durch Aufteilung der Summe in den Beitrag zu den riskanten Vermögenswerten 1, . . . , N und dem risikofreien Vermögenswert. Die Varianz (oder Volatilität) des Portfolios, das aus einer Mischung des risikofreien Vermögenswertes und der riskanten Vermögenswerte besteht, wird gegeben durch

ˆ σ 2 = wT Cw

(3.29)

wobei w gegeben ist durch (3.28). Wenn wir w einsetzen und den resultierenden Ausdruck vereinfachen, kommen wir zu (ρ − rf )2 (ρ − rf )  T ˆ −1 σ2 = oder = �r C �r (3.30) σ �rT Cˆ −1 �r

3.4  Kapitalmarktlinie und Sharpe-Verhältnis

23

aus dem wir ableiten, dass die Überschussrendite über dem risikofreien  Zinssatz ρ − rf proportional zur Volatilität σ ist. Der Proportionalitätsfaktor rT Cˆ −1 r fasst all unser Wissen über unser Aktienportfolio zusammen. Es definiert die gestrichelte rote Linie, die als Kapitalallokationslinie, in Abb. 3.2 bezeichnet wird. Deren Steigung wird als Sharpe-Verhältnis bezeichnet.

3.4 Kapitalmarktlinie und Sharpe-Verhältnis Lassen Sie uns nun die Diskussion aus dem vorherigen Abschnitt verallgemeinern, indem wir annehmen, dass die zugrunde liegenden Vermögenswerte des Portfolios eine repräsentative Mischung aller auf dem Markt verfügbaren Vermögenswerte darstellen, wie zum Beispiel den S&P 500. In diesem Fall drücken wir die rechte Seite der rechten Gleichung von (3.30) in Bezug auf die Rendite rM und Volatilität σM des Marktes aus, indem wir feststellen, dass C −1 = 1/σM2 und r = rM − rf . Wenn wir diese Vereinfachungen einfügen, erhalten wir

rM − rf ρ − rf = σ σM

(3.31)

was zeigt, dass das Sharpe-Verhältnis unseres Portfolios auf der linken Seite der Gleichung dem des gesamten Marktes entspricht, aber wir können unsere gewünschte Rendite ρ nach unseren Vorlieben anpassen, allerdings verbunden mit einem spezifischen Risiko oder Volatilität σ . Daher wird das Sharpe-Verhältnis manchmal als Preis des Risikos bezeichnet; wenn wir eine höhere Auszahlung oder Rendite auf unsere Investition wünschen, müssen wir ein höheres Risiko akzeptieren. Die Linie, die die Kapitalallokation Linie für ein spezifisches Portfolio war, wird als Kapitalmarktlinie bezeichnet, wenn wir den gesamten Markt betrachten. Sie leitet sich von einem Portfolio ab, das den Markt repräsentiert. Beachten Sie, dass die (rote) Marktallokationslinie in Abb. 3.2 immer über der (schwarzen) Effizienzgrenze liegt, wie sie durch Investitionen in riskante Vermögenswerte gegeben ist. Dies ist keine Überraschung, denn wir haben eine zusätzliche Option; entweder investieren wir in das risikofreie Vermögen oder leihen uns zum risikofreien Zinssatz Geld und investieren das geliehene Geld in Aktien. Optionalität ist gut! Beachten Sie auch, dass der Schnittpunkt des Kapitalmarktes mit der vertikalen Achse eine Situation beschreibt, in der alle unsere verfügbaren Mittel in den risikofreien Vermögenswert investiert sind. Umgekehrt beschreibt der Punkt, an dem die Kapitalmarktlinie die blaue Effizienzgrenzlinie berührt, die Situation, in der alle unsere Mittel in riskante Vermögenswerte des Marktpotfolios investiert sind. Die Koordinaten dieses Punktes, an dem die Kapitalmarktlinie die Effizienzgrenze berührt, können leicht aus der Anforderung berechnet werden, dass alle verfügbaren Mittel in riskante Vermögenswerte investiert sind, nämlich eT w = 1. Unter Verwendung von (3.28) und der Lösung für die Rendite des Tangentialportfolios ρt , finden wir

3  Portfoliotheorie und CAPM

24

ρt = rf +

�rT Cˆ −1 �r . eT Cˆ −1 �r

(3.32)

Durch Einsetzen in (3.30), finden wir das Risiko σt des Tangentialportfolios

�rT Cˆ −1 �r σt2 =  2 . eT Cˆ −1 �r

(3.33)

In Abb. 3.2 wird der Tangentenpunkt durch ein rotes Sternchen angezeigt. Der Abschnitt der Kapitalmarktlinie zwischen dem Schnittpunkt und dem Tangentenpunkt beschreibt eine Mischung aus risikofreiem und optimalem Marktpaket, das unserem Risikogeschmack entspricht. Wenn wir risikoscheu sind, verwenden wir eine Mischung, die einem Punkt auf der Linie entspricht, der sich links, nahe dem Schnittpunkt befindet, wo die Rendite ρ nahe der risikofreien Rate rf liegt. Wenn wir risikotoleranter sind, wählen wir eine Mischung auf der Linie, die näher am Tangentenpunkt liegt. Wenn wir noch abenteuerlustiger sind, können wir Geld zum risikofreien Zinssatz ausleihen (negative Gewichtung wf ) und das geliehene Geld in das Marktpaket investieren. Dies wird als gehebelte Investition bezeichnet, die jedoch ein hohes Risiko birgt. Beachten Sie, dass alle Punkte auf der Kapitalmarktlinie die effizientesten Portfolios darstellen und konvexe Kombinationen aus dem Investieren eines Teils des eigenen Vermögens in das risikofreie Vermögen und dem Rest in das Tangentialportfolio sind, das übrigens dasselbe ist wie das zu Beginn dieses Abschnitts diskutierte Marktportfolio. Dass alle effizienten Portfolios auf der Kapitalmarktlinie lineare Kombinationen von nur zwei Anlagevermögen sind, wurde zuerst von Tobin [4] gefunden und Trennungstheorem genannt. Um einen zuvor unbekannten Vermögenswert mit dem Markt zu vergleichen, können wir dessen Sharpe-Verhältnis berechnen und es mit dem des Marktes vergleichen. Wenn es höher ist, lohnt es sich, den neuen Vermögenswert zu kaufen. Dies entspricht der Platzierung des neuen Vermögenswertes in dem Diagramm mit dem Portfolio-Raum in Abb. 3.2, wo die richtig bewerteten Vermögenswerte nahe der (roten) Kapitalmarktlinie liegen sollten. Wenn Vermögenswerte über der Linie liegen, sind sie unterbewertet und stellen eine potenzielle Anlageoption dar. Im Gegenteil, wenn sie unter der Kapitalmarktlinie liegen, sind sie überbewertet und bieten zu wenig Rendite für das Risiko, das eine Investition in sie mit sich bringen würde. Im folgenden Abschnitt diskutieren wir eine etwas verfeinerte Methode, um herauszufinden, ob wir einen neuen Vermögenswert in ein Portfolio aufnehmen möchten.

3.5 Kapitalgüterpreismodell Das Kapitalgüterpreismodell oder CAPM, wie es bekannt ist, beschreibt die erwartete Rendite r1 eines Vermögens, das zuvor nicht in ein Portfolio aufgenommen wurde, hier dem Marktportfolio. Das Modell wurde ursprünglich von

3.5 Kapitalgüterpreismodell

25

Sharpe [5] und Lintner [6] eingeführt. Da jedes effiziente Portfolio als Summe des risikofreien Vermögens und des Marktportfolios ausgedrückt werden kann, betrachten wir einen Markt mit diesen drei Vermögenswerten. Alle Informationen über diesen Mini-Markt sind in der Kovarianzmatrix kodiert   2 σ1 σ1M 0 C =  σ1M σM2 0  (3.34) 0 0 0

und die Renditen r1 , rM , rf jeweils für den neuen Vermögenswert, den Markt und den risikofreien Vermögenswert. Wir führen nun die gleiche Analyse für den MiniMarkt durch, die wir in Abschnitt 3.3 durchgeführt haben und verwenden (3.28) um die Gewichte für die Zuweisung von Mitteln an die Assets zu bestimmen. Sie stellen sich heraus als   ρ − rf w1 Cˆ −1 �r , = (3.35) wM �rT Cˆ −1 �r wobei Cˆ die 2 × 2 Matrix in der oberen linken Ecke der Kovarianzmatrix C ist und r wird durch die folgenden Beziehungen gegeben ist     2 r1 − rf σ1 σ1M ˆ and �r = C= . (3.36) rM − rf σ1M σM2

Um als Investition in Betracht gezogen zu werden, verlangen wir, dass der neue Vermögenswert mindestens so rentabel ist wie der Markt insgesamt. Andernfalls würden wir es nicht auswählen und stattdessen in das Marktportfolio investieren. Dies impliziert, dass der neue Vermögenswert ein Gewicht w1 größer als Null haben muss. In Anbetracht dessen, dass der Vor-Faktor (ρ − rf )/(�rT Cˆ −1 �r) positiv ist, impliziert dies, dass die erste Komponente von Cˆ −1 r größer als null sein muss. Bei der Auswertung dieser Ausdrucks finden wir   2 1 σM (r1 − rf ) − σ1M (rM − rf ) Cˆ −1 �r = 2 2 . (3.37) 2 −σ1M (r1 − rf ) + σ12 (rM − rf ) σ1 σM − σ1M Nach Umordnung der ersten Komponente führt dies zu

r1 ≥ rf +

σ1M (rM − rf ) = rf + β1 (rM − rf ) σM2

(3.38)

wobei wir das Beta β1 des neuen Vermögenswerts eingeführt haben

β1 =

σ1M . σM2

(3.39)

Gleichung 3.38 ist die Sharpe-Lintner-Version des Schlüsselmerkmals des CAPM. Die Interpretation von (3.38) als lineare Gleichung zwischen der erwarteten Rendite r1 und dem Risiko, wie durch β1 gegeben, wird oft als die Sicherheitsmarktkurve, dargestellt in Abb. 3.3, bezeichnet. Durch das Auftragen eines neuen Vermögenswerts r1 gegen β1 kann man bestimmen, ob der neue Vermögenswert über- oder unterbewertet ist, abhängig davon, ob r1 über oder unter rf + β1 (rM − rf ) liegt.

3  Portfoliotheorie und CAPM

26

Unterbewertet

Erwartete Rendite r

Abb. 3.3  Die Sicherheitsmarktkurve dargestellt als die erwartete Rendite als Funktion des systematischen Risikos β.

Überbewertet

,

,

Systematisches Risiko β

,

Während r1 die erwartete Rendite eines neuen Vermögenswerts beschreibt, beschreibt das Beta, wie stark der Vermögenswert mit der Bewegung des gesamten Marktes korreliert ist. Wenn β1 Eins ist, impliziert dies, dass der neue Vermögenswert im gleichen Prozentsatz wie der gesamte Markt steigen oder fallen wird. Zum Beispiel bedeutet ein Beta von 1,5, dass der neue Vermögenswert um 15 % steigt, sollte der Markt um 10 % steigen. Wenn Beta negativ ist, kann es zum Hedging und zur Kompensation anderer Risiken verwendet werden. Eine andere Interpretation ist, dass ein neuer Vermögenswert mit einem Beta gleich Eins sich genauso verhält wie der Markt und sein Verhalten bereits vom Marktportfolio abgedeckt und optimal abgesichert ist. Die erwartete Rendite r1 ist in diesem Fall gleich der Rendite rM des Marktportfolios. Andererseits impliziert ein positives Beta, das jedoch nicht gleich Eins ist, ein Risiko, das dem neuen Vermögenswert inhärent ist oder systematisch ist. Dieses zusätzliche Risiko, das nicht abgesichert werden kann, erfordert daher eine höhere Rendite r1 . Diese zusätzlichen Kosten des Risikos, wie durch Beta gekennzeichnet, werden daher durch die höhere Renditeanforderung gegeben. Die Rendite r1 die mit der Annahme effizienter Märkte im Gleichgewicht übereinstimmt, ist die in (3.38) gegebene. Wir müssen darauf hinweisen, dass die oben genannten Ergebnisse Teil des Standardkanons der Wirtschaftstheorie sind, obwohl sie nicht über jeden Zweifel erhaben sind. Das CAPM Modell basiert auf einer Reihe von vereinfachenden Annahmen, die für die analytische Behandlung notwendig sind. Diese Annahmen können und werden in Frage gestellt. Siehe zum Beispiel [7] für eine umfassende Übersicht über die Kritik. Eng verbunden mit der Frage, ob man einen Vermögenswert, wie zum Beispiel einen Anteil an einem Unternehmen, kaufen soll, ist die Frage nach dem Wert eines Unternehmens. Die einfache Antwort lautet „die Summe aller Aktien zum aktuellen Marktwert“. Aber das impliziert, dass der Markt den „wahren“ Wert „kennt“, der wiederum durch Angebot und Nachfrage bestimmt wird. Dies ist ein bisschen ein Henne-Ei-Problem und eine Möglichkeit, der zirkulären Logik

3.6 Bewertung

27

zu entkommen, besteht darin, andere Methoden zu verwenden, um einem Unternehmen einen Wert zuzuweisen. Wir behandeln zwei Methoden im nächsten Abschnitt.

3.6 Bewertung Eine Möglichkeit den Wert eines Unternehmens zu bestimmen, zum Beispiel vor dem Kauf eines Unternehmens oder der Fusion mit ihm, basiert auf der Berechnung der Marktkapitalisierung, des Unternehmens. Sie wird durch den Wert der (ausstehenden) Aktien, die an Börsen gehandelt werden, multipliziert mit dem Wert der Aktie, gegeben. Beachten Sie jedoch, dass die Marktkapitalisierung von einem Tag auf den anderen mit dem Aktienkurs schwankt und man sich fragen könnte, wie der „Markt“ als Ganzes – oder besser, seine Teilnehmer – bestimmt, was der richtige Preis eigentlich ist. Die zweite Methode basiert auf der Bewertung der erwarteten Leistung des Unternehmens unter Berücksichtigung der Tatsache, dass ein Investor erwartet, seine Investition über eine bestimmte Zeit, sagen wir Y = 5 Jahre, zurückzuerhalten. Eine häufig verwendete Leistungsmessgröße ist der diskontierte Cashflow D, gegeben durch

D=

Y  k=1

Ck , (1 + r)k

(3.40)

wobei r der jährliche Diskontsatz ist, der den Zeitwert des Geldes, diskutiert in Abschn. 2.5, berücksichtigt. Ck ist der erwartete jährliche Cashflow k Jahre in der Zukunft. Der Cashflow Ck im Jahr k wird im Wesentlichen durch die Differenz Ck = Ik − Pk des Einkommens Ik bestimmt, das das Unternehmen für seine Dienstleistungen erhält, und dem Kaufpreis Pk der Rohstoffe. Derzeit sind diese Werte unbekannt und müssen geschätzt werden. Große Veränderungen können erwartet werden, wenn innerhalb des Zeithorizonts Y neue Produktionsstätten eröffnet werden. Der Diskontsatz r, der zur Berechnung des diskontierten Cashflows verwendet wird, beschreibt die jährlichen Kosten für die Aufrechterhaltung des Kapitals V im Unternehmen. Oft wird der WACC, die gewichteten durchschnittlichen Kapitalkosten, für r eingesetzt. Er wird durch

WACC =

B V −B re + rd (1 − t) V V

(3.41)

beschrieben, wo B/V ist der Anteil des Kapitals, der durch das Ausleihen von Geld zu einem Zinssatz rd von einer Bank finanziert wird. Da auf die Zinszahlungen keine Steuern gezahlt werden müssen, wird letzterer um 1 − t reduziert, wobei t der Unternehmenssteuersatz ist, derzeit 21 % in den USA und zwischen 20 und 30 % in den meisten europäischen Ländern. (V − B)/V ist der verbleibende Anteil

3  Portfoliotheorie und CAPM

28

des Kapitals, der durch Aktien finanziert wird und re ist die erwartete Rendite von Investoren, die aus dem CAPM mit (3.38)

re = rf + β(rM − rf )

(3.42)

berechnet werden kann, wobei β die Korrelation der Aktien des Unternehmens mit einem Marktportfolio ist, wie in Abschn. 3.5 besprochen, wobei rf und rM bereits als der risikofreie Zinssatz und die durchschnittliche Wachstumsrate des Marktes definiert sind. Jetzt haben wir alle Zutaten zur Verfügung, um den abgezinsten Cashflow D zu berechnen und ihn mit dem Preis Pa zu vergleichen, den der gegenwärtige Eigentümer des Unternehmens verlangt. Für uns oder jeden anderen Investor ist der Unterschied zwischen D und Pa , genannt Netto Gegenwartswert N0 = D − Pa des Unternehmens, die entscheidende Größe zur Bewertung. Wenn es positiv ist, haben wir eine gute Chance, unsere Investition über die nächsten Y Jahre zurückzuerhalten. Wenn N0 negativ ist, ist die Investition fragwürdig. Beachten Sie jedoch, dass viele ad-hoc Annahmen in die Berechnung des abgezinsten Cashflows D einfließen, so dass diese Analyse durch zusätzliche Methoden ergänzt werden sollte, wie zum Beispiel die Bewertung des Kurs-Gewinn-Verhältnisses des Unternehmens in den letzten Jahren, um seine Leistung zu beurteilen und ob es tatsächlich einen positiven Cashflow flow hatte und diesen zur Ausschüttung von Dividenden an die Investoren verwendet hat. Bisher haben wir statische Eigenschaften von Aktien betrachtet, aber in den folgenden Abschnitten werden wir untersuchen, wie Aktien sich im Laufe der Zeit entwickeln. Übungen 1. Ein Teilchen mit der Masse m bewegt sich in zwei Dimensionen x und y im Potential U = (k/2)(x 2 + xy + y2 ), ist aber auf eine Linie beschränkt, die durch x + y = 1. gegeben ist. Berechnen Sie die Resonanzfrequenz und den Gleichgewichtspunkt, um den das Teilchen schwingt. 2. Unerwartet haben Sie etwas Geld von einer unbekannten Tante geerbt und Sie möchten es an der Börse investieren. Um das Problem handhabbar zu machen, entscheiden Sie sich, in zwei Positionen zu investieren, Apple® Inc. und einen Indexfonds, basierend auf einer Mischung von SP500-Unternehmen. Eine Tabelle der Schlusswerte am Ende jedes Handelstages für ein Jahr (27.3.2018– 27.3.2019) ist in der Datei stocks.dat auf der Webseite dieses Buches verfügbar. Diese Textdatei enthält drei Spalten: die erste gibt den Handelstag td an, die zweite enthält die Apple-Daten S1 , und die dritte die SP500-Daten S2 . Es gibt ein kurzes MATLAB-Skript get_stocks.m, um diese Datei zu laden. a. Stellen Sie die Aktienwerte S im Verhältnis zum Handelstag dar, um einen Eindruck davon zu bekommen, wie sich die Aktien entwickeln. b. Berechnen Sie die Tagesrenditen rk = (Sk+1 − Sk )/Sk , stellen Sie die Werte dar und berechnen Sie ihren Durchschnitt. Erinnerung: Skalieren Sie die durchschnittlichen Tagesrenditen mit den Handelstagen, um die Jahresrenditen zu ermitteln.

Literatur

29

c. Dann entscheiden Sie sich, die Theorie von Markowitz zu verwenden, um zu berechnen, wie Sie Ihr Geld zwischen den beiden Aktien aufteilen sollten, um eine Jahresrendite von 5, 10 und 15 % zu erzielen. Interpretieren Sie die Ergebnisse und wie sie umgesetzt werden können. 3. Für die höchste jährliche Rendite von ρ = 0.15%, wiederholen Sie die Analyse aus Übung 2 mit einem risikofreien Vermögenswert a) mit rf = 0%, b) mit rf = 3% im Portfolio enthalten. 4. Basierend auf den Daten in stocks.dat, verwenden Sie die SP500-Daten in der dritten Spalte als Proxy für den Gesamtmarkt und gehen Sie von einer jährlichen risikofreien Rate von rf = 5% aus. Verwenden Sie das CAPM, um zu bestimmen, ob die Aktie in der zweiten Spalte über- oder unterbewertet ist. 5. Bevor Sie ein Unternehmen kaufen, analysieren Sie deren Finanzberichte, die besagen, dass die Kapitalbasis 16 × 106 € beträgt, von denen 7 × 106 € durch Schulden zu einem Zinssatz von 5% finanziert werden. Der Steuersatz beträgt t = 30%. Die jährliche Rendite für die Investoren betrug historisch etwa 12% und der jährliche Cashflow betrug in der Regel 1.7 × 106 €. Der Preis, den der jetzige Eigentümer verlangt, beträgt 8.1 × 106 €. Können Sie erwarten, Ihre Investition in 6 Jahren zurückzuerhalten?

Literatur 1. H. Markowitz, Portfolio Selection. J. Finance 7, 77 (1952) 2. L. Landau, E. Lifschitz, Lehrbuch der theoretischen Physik, Band I: Mechanik (Akademie Verlag, Berlin, 1979) 3. H. Goldstein, J. Safko, C. Poole, Classical Mechanics (Pearson, Harlow, 2014) 4. J. Tobin, Liquidity preference as behavior towards risk. Rev. Econ. Stud. XXVI, 65 (1958) 5. W. Sharpe, Capital asset prices: a theory of market equilibrium under conditions of risk. J. Finance 19, 425 (1964) 6. J. Lintner, The valuation of risk assets and the selection of risky investments in stock portfolios and capital budgets. Rev. Econ. Stat. 47, 13 (1965) 7. E. Fama, K. French, The capital asset pricing model: theory and evidence. J. Econ. Perspect. 18, 25 (2004)

4

Stochastische Prozesse

Zusammenfassung

Nach der Einführung von binomialen Bäumen als zeitdiskretes Modell zur Bewertung von Optionen, geht dieses Kapitel darauf ein, wie ein Wiener Prozess zur Diffusionsgleichung führt, die anschließend mit Hilfe von Green'schen Funktionen gelöst wird. Es folgt ein kurzer Exkurs über die Rolle von Green'schen Funktionen in der Physik, bevor Ito’s Lemma diskutiert wird und zur Ableitung der Fokker-Planck-Gleichung für das kontinuierliche Modell verwendet wird, das die Entwicklung von Aktien beschreibt. Die Lösung der Fokker-Planck-Gleichung führt dann zur bekannten log-normalen Verteilung. Letztere wird dann verwendet, um den Erwartungswert eines Optionswerts abzuleiten, sollte er bei Fälligkeit ausgeübt werden. Beispiele aus anderen Anwendungen von Erwartungswerten in der Physik schließen dieses Kapitel ab. Im vorherigen Kapitel haben wir die zeitliche Entwicklung der Aktien ignoriert, abgesehen davon, dass wir davon ausgegangen sind, dass die zugrunde liegende Dynamik durch ein durchschnittliches Wachstum mit überlagerten Schwankungen bestimmt wird. Im gegenwärtigen und den folgenden Kapiteln lockern wir diese Einschränkung und werden uns mit der zeitlichen Entwicklung von Vermögenswerten befassen; ein ausgeklügeltes System zur Schätzung des Unvorhersehbaren. Wir werden nicht nur die Entwicklung von Aktien betrachten, sondern auch die von anderen Finanzderivaten, wie Optionen. Bevor wir uns mit quasi-kontinuierlichen Systemen unten befassen, diskutieren wir zuerst ein einfaches System, das uns hilft, die Mechanismen zu verstehen. Es basiert auf der Diskretisierung der Zeit und die Methode wird allgemein als die der Binomialbäume bezeichnet.

© Der/die Autor(en), exklusiv lizenziert an Springer Nature Switzerland AG 2023 V. Ziemann, Physik und Finanzen, https://doi.org/10.1007/978-3-031-36964-3_4

31

4  Stochastische Prozesse

32

4.1 Binomialbäume In der Theorie der Binomialbäume betrachten wir verschiedene Wege, auf denen der Wert eines Finanzprodukts, zum Beispiel einer Option, sich bewegen kann, entweder nach oben oder nach unten, und weisen den verschiedenen Fällen Wahrscheinlichkeiten zu. Der geeignete Anfangspreis wird dann durch den Erwartungswert des Optionspreises zur Endzeit bestimmt. Beachten Sie, dass dies vom Ausübungspreis K der Option abhängen wird. Eine Option, die ein höheres Risiko trägt, aber auch die Aussicht auf einen höheren Gewinn verspricht, wird mehr wert sein. Um konkret zu sein, betrachten wir die Preisgestaltung einer Call Option mit einem Anfangspreis c für ein zugrunde liegendes Gut, das wir als Aktie mit einem Anfangspreis S annehmen. Der Baum ist in Abb. 4.1 dargestellt. Zwischen der Anfangszeit, repräsentiert durch den Knoten auf der linken Seite, und der späteren Zeit kann der Preis der Aktie entweder steigen oder fallen, was durch die Pfeile nach oben und unten dargestellt wird. Wenn der Preis steigt, ist der Wert der Aktie f1 S und der Wert der Option ist c1 . Wenn er fällt, wird der Wert der Aktie f2 S und der der Option c2 . Beginnen wir mit der Schätzung von f1 und f2 wenn die Aktie eine Volatilität σ aufweist, was bedeutet, dass sie eine relative Streuung in Prozent der Zuwächse von (typischerweise) Tag zu Tag um σ hat, wie über (typischerweise) ein Jahr ermittelt haben. Wir gehen dann davon aus, dass der Aktienkurs einen zufälligen Weg ähnlich der Brownschen Bewegung durchführt. Aber die Brownsche Bewegung wird durch die Diffusionsgleichung beschrieben, für die wir wissen, dass eine anfängliche Punktquelle sich wie eine Gaußsche ausbreitet, deren Breite mit der Wurzel der Zeit zunimmt. Wir werden diese Aussage in den folgenden Abschnitten überprüfen. Für den Moment betrachten wir eher heuristisch die Breite der sich ausbreitenden Gaußschen als repräsentativ für die Entwicklung des Aktienkurses, wir können annehmen, dass

Abb. 4.1  Ein binomialer Baum. Der anfängliche Aktienpreis ist S und der Wert der Option ist c. Nach einer für einen Schritt charakteristischen Zeit kann der Aktienpreis entweder um den Faktor f1 steigen oder um f2 . sinken. Der Wert der Option in den jeweiligen Fällen ist c1 und c2 .

hoch

Aktie: fl*S Option: cl

Aktie: S Option: c hinunter Aktie: f2*S Option: c2

4.1 Binomialbäume

33 √

f1 = eσ

T

f2 = e−σ

und



(4.1)

T

gilt, wobei T in Einheiten von Jahren gemessen wird, wenn σ als charakteristische Streuung über ein Jahr ermittelt wurde. Beachten Sie, dass die Annahmen in diesem Modell weit davon entfernt sind, über jede Kritik erhaben zu sein, aber sie sind vernünftig. Darüber hinaus können wir annehmen, dass der Aktienpreis im Durchschnitt mit der Rate ρ wächst. Wir können uns daher fragen, wie hoch die Wahrscheinlichkeit p für eine Aufwärtsbewegung ist. Für eine Abwärtsbewegung ist sie dann 1 − p. Sowohl p als auch 1 − p wird ziemlich nahe an 1/2 sein, mit einem kleinen Vorteil nach oben, um den durchschnittlichen Anstieg mit der Rate ρ zu erzeugen. Um diese Überlegung zu formalisieren, setzen wir den geschätzten durchschnittlichen Anstieg gleich dem Erwartungswert für eine Auf- und Abwärtsbewegung des Aktienmarktes √

SeρT = pf1 S + (1 − p)f2 S = peσ

T

S + (1 − p)e−σ

√ T

S.

(4.2)

Beachten Sie, dass der absolute Wert des Aktienkurses S aus der Gleichung herausfällt und wir die Wahrscheinlichkeit p folgendermassen erhalten √

T √ e−σ T

eρT − e−σ

(4.3) , eσ T − was dann die Wahrscheinlichkeiten für Aufwärtsbewegungen (p) und für Abwärtsbewegungen (1 − p) als Folge der Aktienvolatilität σ und der durchschnittlichen erwarteten Wachstumsrate ρ bestimmt. Da die Call-Option am gleichen Markt teilnimmt, ist sie im Durchschnitt den gleichen Auf- und Abwärtsbewegungen unterworfen und wir können den Erwartungswert c¯ T der Option zum späteren Zeitpunkt T schätzen

p=



c¯ T = pc1 + (1 − p)c2 .

(4.4)

Aber wir wollten den Wert der Option zur Anfangszeit berechnen und müssen daher den Wert mit dem Diskontierungsfaktor e−ρT rückwärts propagieren und den Wert der Option c zur anfänglichen Zeit   c = e−ρT pc1 + (1 − p)c2 . (4.5) Beachten Sie, dass die Werte für c1 und c2 vom Ausübungspreis der Option K abhängen. Zum Beispiel ist der Wert der Call-Option am Knoten i dann ci und wird gegeben durch

ci = max(STi − K, 0) ,

(4.6)

wobei der Wert der zugrunde liegenden Aktie S am Knoten i zur Zeit T ist. Offensichtlich kann die Entwicklung des Optionspreises weiter analysiert werden, indem man jedes Zeitintervall in viele, sagen wir n, Unterabschnitte unterteilt. Dies führt zu einem Baum, in dem jeder Abschnitt 2n Knoten hat. Beim Übergang von einem Abschnitt zum nächsten beschreibt ein Zweig die Wahrscheinlichkeit, dass der Aktienwert steigt, und der andere, dass er sinkt. Im ersten

STi

4  Stochastische Prozesse

34

Durchgang durch den Baum füllen wir die erwarteten Werte des Aktienpreises S zu allen späteren Zeiten, indem mit den ent√ wir den vorherigen Aktienwert √ sprechenden Aufwärtsfaktoren eσ T und Abwärtsfaktoren e−σ T . multiplizieren. Auf diese Weise füllen wir den gesamten Baum mit Aktienpreisen, einschließlich der Werte an den Endknoten. Diese Werte vergleichen wir mit dem Ausübungspreis K unter Verwendung von (4.6) und berechnen den Wert der Option an jedem der Endknoten. In einem zweiten Durchgang durch den Baum, nun rückwärts in der Zeit, berechnen wir den Wert der Option an jedem der vorhergehenden Knoten unter Verwendung von (4.5). Auf diese Weise können wir rückwärts durch den Baum gelangen, um den Optionspreis c zur Anfangszeit zu erreichen. Bis zu diesem Punkt basierte die Argumentation auf diskretisierten Zeitschritten, aber im Grenzfall der Reduzierung der Schrittlänge auf Null nähern wir uns einem zeitkontinuierlichen Modell Es kann gezeigt werden [1] dass dieses äquivalent zu dem Modell ist, das wir in den folgenden Abschnitten diskutieren.

4.2 Wiener Prozess Von der Diskussion im vorherigen Abschnitt sollte es offensichtlich sein, dass der Preis von Aktien S und Optionen eine durchschnittliche Aufwärtsrate ρ und einen überlagerten zufällig schwankenden Teil haben, der durch die rms Streuung oder Volatilität σ gegeben ist. Dies impliziert direkt, die zeitliche Entwicklung von S als stochastischen Prozess zu schreiben und ihn auszudrücken als

dS = ρSdt + σ SdW (t)

oder

ds = ρsdt + σ sdW (t) ,

(4.7)

wobei wir s = S/S0 einführen und den Anfangswert der Aktie S0 zur Normalisierung verwenden. dW ist ein Weißrauschprozess (Wiener-Prozess). Eine Gleichung dieser Art, in der Physik oft eine Bewegungsgleichung mit zusätzlichen zufälligen Kräften, wird als Langevin-Gleichung bezeichnet. Bemerkenswerterweise erscheint eines der ersten Beispiele in Bacheliers Dissertation [2] über Finanzen, die Einsteins berühmter Analyse der Brownschen Bewegung [3] um einige Jahre vorausgeht. Beachten Sie, dass wir in Abwesenheit von Rauschen (σ = 0) ein rein exponentielles Wachstum erhalten mit der Rate ρ. Gleichung 4.7 ist ein Beispiel für eine stochastische Differentialgleichung. Da wir nicht täglich mit ihnen arbeiten, werden wir ihre Bestandteile und die Regeln für ihre Manipulation im Detail besprechen. Beginnen wir mit der Quelle der Zufälligkeit in (4.7), dem Wiener Prozess dW selbst. Um den Wiener Prozess dW zu besprechen, betrachten wir die vereinfachte Langevin Gleichung dx = σ dW was im Grunde bedeutet, dass das Partikel mit der Koordinate x eine Sequenz von zufälligen Stößen σ ξ , erhält, wo ξ eine rmsAmplitude von eins hat. Die Werte von ξ werden einer Gaußschen Verteilung entnommen

1 2 φ(ξ ) = √ e−ξ /2 . 2π

(4.8)

4.3  Diffusionsprozesse und Green’sche Funktionen

35

Um den Erwartungswert g(ξ ) einer Funktion g(ξ ) zu berechnen, die von der Zufallsvariable ξ abhängt, müssen wir ´ über viele Realisierungen von Zufallszahlen mitteln, bezeichnet durch �g(ξ )� = g(ξ )φ(ξ )dξ. Durch direkte Integration von g(ξ ) = ξ und g(ξ ) = ξ 2 finden wir

�ξ � = 0

und

�ξ 2 � = 1 ,

(4.9)

was uns zeigt, dass der Durchschnitt null und die rms-Amplitude eins ist. Wenn wir eine diskretisierte Form der Bewegungsgleichung einführen, erhalten wir

x(tn ) = x(tn−1 ) + σ ξ(tn )

oder

x(tn ) = σ

n 

ξ(ti ) ,

(4.10)

i=1

wobei wir annehmen, dass die Zeit in kleinen Schritten diskretisiert wird mit t = tn − tn−1 . Die zweite Gleichung sagt uns, dass der Wert von x zur Zeit tn einfach die Summe von n Zufallszahlen mit den oben angegebenen Eigenschaften ist. Es ist leicht zu sehen, dass für die durchschnittliche Position x(tn ) und ihr zweites Moment, gemittelt über viele Realisierungen der Zufallszahlen, gegeben sind durch

�x(tn )� =0 �x(tn )2 � =σ 2

n n   i=1 j=1

�ξ(ti )ξ(tj )� = σ 2

n n  

δij = nσ 2 = tn

i=1 j=1

σ2 . �t

(4.11)

Die Zufallszahlen ξ(ti ) für verschiedene Zeitschritte sind unabhängig, was dazu führt, dass ξ(ti )ξ(tj ) null ist für i = j und eins für i = j, daher ist �ξ(ti )ξ(tj )� = δij , wobei δij das Kronecker-Delta ist. Aus der zweiten Gleichung sehen wir, dass das zweite Moment, die quadratische Breite der√Verteilung von x, linear mit der Zeit tn wächst, oder auch die Breite wächst mit tn . Wir sehen, dass der Skalenfaktor die quadrierte Amplitude ist, geteilt durch t. Dies deutet darauf hin, dass die Einheiten von σ die Einheiten von x geteilt durch die Wurzel der Zeit sind, was wir schon in (4.1) verwendet haben, wo wir argumentiert haben, √ dass σ die für ein Jahr berechnete Volatilität war und dann skaliert wurde mit T um die erwartete Volatilität für einen anderen Zeitraum T zu schätzen. Wie wir sehen, liegt der Grund für dieses Argument in der zweiten der vorherigen Gleichungen und dem linearen Wachstum mit der Zeit des Quadrats der Breite x 2 . √ Dies erklärt auch die etwas saloppe Notation für dW mit dW = ξ dt , die in [1] verwendet wird, aber die Gleichung dW 2 = dt intuitiv verdaulich macht. Ein formaler Beweis des Letzteren findet sich in [4].

4.3 Diffusionsprozesse und Green’sche Funktionen Der Ausbreitung der rms erwarteten Position, implizit in (4.11), ist charakteristisch für einen Diffusionsprozess, den wir in diesem Abschnitt kurz untersuchen werden. Beispiele für Diffusionsprozesse sind die Ausbreitung einer

4  Stochastische Prozesse

36

lokalisierten Wärmequelle durch ihre Umgebung oder die Ausbreitung eines Farbstoffs, der in eine Flüssigkeit injiziert wird. Nach der Diskussion am Ende des vorherigen Abschnitts √ können wir die entsprechende Langevin-Gleichung ausdrücken als dx = σ ξ dt , wobei σ die Größe des zufälligen Sprungs ist und ξ kann als „Zufallszahlengenerator“ visualisiert werden, der Zufallszahlen mit rms breite Eins und Mittelwert Null erzeugt. Wir fragen uns jetzt, wie sich eine Verteilungsfunktion ψ(x, t) im Laufe der Zeit entwickelt, wenn alle x sich gemäß der Langevin-Gleichung in einer Dimension entwickeln. Zu einem späteren Zeitpunkt dτ kann ψ(x, t + dτ ) durch seine TaylorEntwicklung erster Ordnung approximiert werden

∂ψ dτ . (4.12) ∂t Eine ergänzende Sichtweise besteht darin zu betrachten, woher die Partikel bei x während des Zeitintervalls dτ kamen. Dies wird durch die sogenannte MasterGleichung ψ(x, t + dτ ) = ψ(x, t) +

ψ(x, t + dτ ) =

ˆ∞

ψ(x − dx, t)φ(ξ )dξ

(4.13)

−∞

√ gegben ist mit dx = σ ξ dτ , wobei wir annehmen, dass die Verteilungen der Sprünge ξ durch die Gaußfunktion aus (4.8) beschrieben wird. Im nächsten Schritt entwickeln wir ψ(x, t) bis zur zweiten Ordnung in der räumlichen Variable x und finden ψ(x, t + dτ ) =

ˆ∞ 

ψ(x, t) −

−∞

 1 ∂ 2ψ 2 2 ∂ψ √ σ ξ dτ + σ ξ dτ φ(ξ )dξ . (4.14) ∂x 2 ∂x 2

Da die Gaußfunktion φ(ξ ) normalisiert ist, einen Mittelwert von null und eine Einheits-RMS hat, bleiben nach Durchführung des Integrals über dξ nur der erste und dritte Term in der eckigen Klammer übrig. Wenn wir die resultierende Gleichung mit der linken Seite von (4.12) gleichsetzen, erhalten wir schließlich

σ 2 ∂ 2ψ ∂ψ (4.15) = , ∂t 2 ∂x 2 die als die Diffusionsgleichung bezeichnet wird. Eine spezielle Lösung G(x,t) dieser linearen partiellen Differentialgleichung ˜ t) in Bezug auf die kann durch Einführung ihrer Fourier-Transformation G(k, räumliche Variable x gefunden werden. 1 G(x, t) = 2π

ˆ∞

˜ t)dk e−ikx G(k,

(4.16)

−∞

und setzen es in (4.15) ein, was zu ˜ σ2 ˜ ∂G = − k2G ∂t 2

oder

˜ dG σ 2k2 =− dt , ˜ 2 G

(4.17)

4.3  Diffusionsprozesse und Green’sche Funktionen

37

führt, wobei wir die Variablen separiert haben. Diese Gleichung lässt sich leicht ˜ t) = G ˜ 0 e−σ 2 k 2 t/2 mit einer Integrationskonstante integrieren und wir erhalten G(k, ˜ 0 . Unter Verwendung von (4.16) zur Berechnung der Lösung G(x,t) finden wir G ∞ ˜0 ˜ 0 ˆ −ikx−σ 2 k 2 t/2 G G 2 2 e−x /2σ t , e dk = √ G(x, t) = 2π 2πσ 2 t

(4.18)

−∞

wobei wir das Integral berechnet ´ ∞haben,2 indem √ wir das Quadrat im Exponenten vervollständigt haben und dann −∞ e−ay dy = π/a benutzt haben. Diese Lösung G(x,t) hat das bekannte Verhalten einer sich ausbreitenden Gaußschen Funktion, die bereits in Abschn. 4.1 für (4.1) auftauchte. Beachten Sie auch, dass G(x,t) eine spezielle Lösung ist, die bei x → ±∞. verschwindet. Darüber hinaus finden wir, wenn wir die Lösung in der Grenze t → 0, betrachten, dass die Gaußsche Funktion immer spitzer wird und sich in der Grenze der DeltaFunktion von Dirac annähert. Sie ahmt daher die Ausbreitung von beispielsweise an einem einzigen Punkt injizierter Wärme nach. Wenn wir gleichzeitig an zwei getrennten Punkten x1 und x2 gleiche Mengen an Wärme injizieren würden, könnten wir dies als Ausbreitung von zwei fundamentalen Lösungen modellieren, proportional zu G(x − x1 , t) + G(x − x2 , t), weil die Diffusionsgleichung linear ist. Wenn wir eine glatte Verteilung ρ(x ′ ) der in das System injizierten Wärme zur Zeit t = 0 hätten, könnten wir die Lösung H(x,t) als Summe über alle einzelnen Wärmequellen beschreiben, gewichtet durch ρ(x ′ ). Aber das ist die Faltung der anfänglichen Wärmeverteilung mit der Ausbreitungsfunktion G(x,t)

H(x, t) =

ˆ∞

G(x − x ′ )ρ(x ′ )dx ′ ,

(4.19)

−∞

wobei G(x,t) durch (4.18) gegeben ist und als eine Green’sche Funktion für die Diffusionsgleichung bezeichnet wird. Lassen Sie uns kurz auf das Konzept der Green’schen Funktionen eingehen, indem wir zwei Beispiele nennen, eines aus der Physik und eines aus dem Ingenieurwesen. Im Allgemeinen sind Green’sche Funktionen „Hilfsfunktionen“ – Integralkerne – die auftauchen, wenn die Inversen von Differentialoperatoren konstruiert werden. Ein prominentes Beispiel ist die Green’sche Funktion der Poisson-Gleichung für das elektrostatische Potential U, gegeben durch

�U(x) =

1 ρ(x) ε0

(4.20)

mit der Ladungsdichte ρ(x) und der Dielektrizitätskonstanten ε0. Hier ist die Green’sche Funktion das Potential einer Punktladung, die sich bei x0 befindet. Ihre Ladungsverteilung ist ρ(x) = eδ(x − x0 ) mit der Dirac-Delta-Funktion δ(x) und der elementaren Ladung e. Es ist bekannt aus Vorlesungen zur elementaren Elektrodynamik, dass das Potential G(x) einer Punktladung gegeben ist durch

G(x − x0 ) =

e . 4π ε0 |x − x0 |

(4.21)

4  Stochastische Prozesse

38

Für eine punktartige Ladung ist die Symmetrie des Systems kugelförmig und wir können Kugelkoordinaten einführen. Um diese Aussage zu überprüfen, setzen wir x0 auf den Ursprung, so dass |x| = r und drücken den Laplace-Operator  und die Lösung G = 1/4πε0 r in Kugelkoordinaten aus. Zur Übung berechnen Sie doch, dass G1 überall null ist ausser am Koordinatenursprung, wo es divergiert. Der Laplace-Operator ist linear in der Ladungsdichte ρ und wir finden das Potential von zwei Punktladungen bei x1 und x2 als die Summe der Potentiale e e G1 = 4π ε0 |x−x G2 = 4π ε0 |x−x und  von den einzelnen Ladungen. Als Ver1| 2| allgemeinerung finden wir das Potential einer kontinuierlichen Ladungsverteilung ρ als die Summe über die, richtig gewichteten, Potentiale von Punktladungen. Aber das ist gerade die Faltung der Ladungsverteilung ρ(y) und des PunktLadungspotentials—der Green’schen Funktion G(x − y). Wir können daher schreiben

U(x) =

ˆ V

3

G(x − y)ρ(y)d y =

ˆ

ρ(y)d 3 y , 4πε0 |x − y|

(4.22)

V

wobei die Integration sich über ein geeignetes Volumen V erstreckt, das alle Ladungen in ρ(y) enthält. Wenn wir (4.20) mit (4.22) vergleichen, stellen wir fest, dass die erste eine (partielle) Differentialgleichung ist, die angibt, wie man den Laplace-Operator anwendet, um das Potential U zu finden. Aber wir wollen nicht U wissen, wir wollen U(x) wissen und (4.22) liefert uns genau diese Information. Es bestimmt U direkt, allerdings auf Kosten der Berechnung eines Integrals über die Ladungsverteilung, gewichtet mit einem Integral-Kern, der Green’schen Funktion. Letztere hat jedoch die intuitive Interpretation als das Potential einer Punktladung. Beachten Sie, dass die Green’schen Funktionen als die Reaktion U auf einen Stimulus ρ betrachtet werden können, bei dem wir U mit einem Faltungsintegral über ρ berechnen. Dies ist konzeptionell ähnlich zu dem, was in elektrischen Filtern passiert. Sie werden durch externe, möglicherweise verrauschte, Signale angeregt und entfernen dann das Rauschen durch beispielsweise Tiefpassfilterung. Die Filterfunktion in diesen Anwendungen übernimmt die gleiche Rolle wie die Green’sche Funktion, bei der das verrauschte Eingangssignal mit der Filterfunktion gefaltet wird. Darüber hinaus sind die Propagatoren in der Quantenfeldtheorie, die die fundamentalen Wechselwirkungen vermitteln, Green’sche Funktionen, die durch ein Teilchen verursacht werden und seinen Stimulus an ein zweites Teilchen vermitteln. Wir werden auf dieses Konzept in den folgenden Kapiteln immer wieder stoßen. In den nächsten Abschnitten werden wir jedoch den Einsatz von stochastischen Differentialgleichungen in einem finanziellen Kontext behandeln.

4.4  Stochastische Integrale und Ito’s Lemma

39

4.4 Stochastische Integrale und Ito’s Lemma In (4.7) zeichnet sich eine zweite Besonderheit stochastischer Prozesse ab, nämlich das Produkt zweier Zufallsvariablen s und dW. Beide springen und dies erfordert eine zusätzliche Diskussion darüber, wie das Produkt zu bewerten ist, wenn es in einem Integral erscheint, was wir benötigen, um (4.7) vorwärts in der Zeit zu bewegen. Es gibt zwei gebräuchliche Methoden, um die Produkte zu handhaben [4], eine nach Stratonovich und die andere ist auf Ito zurückzuführen. Letztere wird häufig in Finanzen verwendet und die Interpretation des Produkts ist, dass die Funktion s kurz vor einem Sprung genommen wird und die Integration von sdW beinhaltet ˆ    sdW = s(ti−1 ) W (ti ) − W (ti−1 ) . (4.23) i

während in der Stratonovich-Interpretation der Mittelwert von s zur Zeit ti und ti−1 verwendet wird. In (4.7) ist es verlockend, z = ln(s) als eine neue Variable einzuführen und erhalten damit eine Gleichung mit d ln(s) auf der linken Seite. Aber die Tatsache, dass wir mit stochastischen Variablen umgehen, erfordert, dass wir besondere Regeln berücksichtigen. Dies wird in Kürze deutlich. Beginnen wir mit der Entwicklung von dz zur zweiten Ordnung

dz =z(s + ds) − z(s) 1 ∂ 2z 2 ∂z ds + ds ∂s 2 ∂s2 ∂z 1 ∂ 2z 2 2 = [ρsdt + σ sdW ] + σ s dt , ∂s 2 ∂s2 =

(4.24)

wobei wir ds aus (4.7) ersetzt haben. Wir sehen, dass der Begriff ds2 das Produkt von zwei Zufallsvariablen ist und es stellt sich heraus [4] dass im Grenzfall dt → 0 die Terme mit dt 2 und dWdt gegen null gehen, während dW 2 = dt ist. Für die Ableitung von z = ln s in Bezug auf s, finden wir schließlich   1 2 dz = ρ − σ dt + σ dW . (4.25) 2

Diese Gleichung zeigt den zusätzlichen Faktor σ 2 /2 was auf die Tatsache zurückzuführen ist, dass wir mit Zufallsvariablen zu tun haben. Das Auftreten dieses zusätzlichen proportionalen Terms zu dt wird oft als Ito’s Lemma bezeichnet. Abgesehen von der Transformation der Variablen in stochastischen Gleichungen spielt das Ito’s Lemma eine zentrale Rolle in der Beschreibung von Derivaten wie Optionen und Futures. Sie sind Funktionen der zugrunde liegenden Aktien S, die stochastische Variablen sind, und daher selbst stochastische Variablen sind. Die stochastischen Differentialgleichungen können zum Beispiel durch MonteCarlo Simulationen gelöst werden, was bedeutet, eine stochastische Gleichung zu

4  Stochastische Prozesse

40

diskretisieren und einen Zufallszahlengenerator zu verwenden, um die zufälligen Stöße ξ zu liefern und über viele Realisierungen von Zufallszahlen zu mitteln. Wir werden diese Methoden in Kap. 10 behandeln. Eine ergänzende Methode besteht darin, eine Fokker-Planck-Gleichung abzuleiten, die die zeitliche Entwicklung einer Verteilungsfunktion der Zufallsvariable z beschreibt, einem Weg, den wir im folgenden Abschnitt verfolgen.

4.5 Master- und Fokker-Planck-Gleichungen Wir betrachten die stochastische Differentialgleichung in (4.25), wo die Zufallsvariable z linear mit der√Zeit wächst und während des Zeitintervalls dt einen zufälligen Stoß dW = ξ dt erhält. Hier nehmen wir an, dass ξ aus einer normalisierten Verteilung φ(ξ ) entnommen wird, die um Null zentriert und um den Ursprung symmetrisch ist φ(ξ ) = φ(−ξ ) und deren zweites Moment gleich Eins ist. Als Beispiel können wir die in (4.8) gegebene Gaußsche Funktion visualisieren. Die Zufallsvariablen z werden gemäß einer Wahrscheinlichkeitsverteilungsfunktion ψ(z, t) verteilt sein, im Sinne dass zur Zeit t die Wahrscheinlichkeit, z im Intervall zwischen z − dz/2 und z + dz/2 gegeben wird durch ψ(z, t)dz. Wir können uns nun fragen, wie sich ψ(z, t) im Laufe der Zeit entwickelt, vorausgesetzt, dass z der Langevin-Gleichung (4.25) folgt. Um dies zu tun, folgen wir der Strategie aus Abschn. 4.3, die uns vom Wiener-Prozess zur Diffusionsgleichung geführt hat. Wir betrachten daher die Wahrscheinlichkeitsverteilung zur Zeit t + dτ und schreiben ihre Taylor-Entwicklung

∂ψ dτ . (4.26) ∂t Gleichzeitig können wir betrachten, wie die Verteilung zur Zeit t + dτ bevölkert wurde. Dies wird durch die Master-Gleichung ψ(z, t + dτ ) = ψ(z, t) +

ψ(z, t + dτ ) =

ˆ∞

ψ(z − dz, t)φ(ξ )dξ

(4.27)

−∞

beschrieben, wobei dz implizit von dem zufälligen Prozess dW oder ξ abhängt durch (4.25). Wenn wir bis zur zweiten Ordnung in der räumlichen Variable z Taylor entwickeln, finden wir

 ˆ∞  1 ∂ 2ψ 2 ∂ψ dz + dz φ(ξ )dξ ψ(z, t + dτ ) = ψ(z, t) − ∂z 2 ∂z2 −∞ ˆ∞

=

−∞

 √ ∂ψ (ρdτ ˆ + σ ξ dτ ) ψ(z, t) − ∂z

 1 ∂ 2ψ 2 2 3/2 2 2 (ρˆ dτ + 2ξ ρdτ ˆ + σ ξ dτ ) φ(ξ )dξ , + 2 ∂z2

(4.28)

4.5  Master- und Fokker-Planck-Gleichungen

41

wobei wir (4.25) verwendet haben, um dz zu ersetzen und ausserdem die Abkürzung ρˆ = ρ − σ 2 /2 eingeführt haben. Jetzt können wir das Integral über ξ berechnen und nutzen die Tatsache, dass die Verteilung von φ(ξ ) symmetrisch ist

1 ∂ 2ψ 2 2 ∂ψ ˆ + ρdτ (ρˆ dτ + σ 2 dτ ) . (4.29) ∂z 2 ∂z2 wobei der Begriff ρˆ 2 dτ 2 verschwindet im Grenzfall dτ → 0. Darüber hinaus, durch Gleichsetzen mit (4.26) und Umstellen der Terme, erhalten wir die FokkerPlanck-Gleichung für die Verteilung von z = ln s ψ(z, t + dτ ) = ψ(z, t) −

∂ψ σ 2 ∂ 2ψ ∂ψ = −ρˆ + . (4.30) ∂t ∂z 2 ∂z2 Hier wird offensichtlich, dass (4.30) eine Diffusionsgleichung mit einem zusätzlichen Driftterm ist, in dem σ 2 /2 die Rolle der Diffusionskonstanten spielt und ρˆ = ρ − σ 2 /2 die der Driftgeschwindigkeit. Es ist einfach, aber etwas mühsam zu überprüfen, dass die folgende Verteilungsfunktion   (z − ρt) ˆ 2 1 exp − ψ(z, t)dz = √ dz (4.31) 2σ 2 t 2π σ 2 t

auf Eins normiert ist und die Fokker-Planck-Gleichung in (4.30) erfüllt. Diese Gleichung beschreibt eine diffundierende Gaußfunktion, die sich in Richtung positiver Werte von z mit der „Geschwindigkeit“ ρˆ bewegt. Wir können nun die ursprüngliche Variable S durch z = ln(S/S0 ) zurücksubstituieren und finden für die Verteilungsfunktion  der Aktienwerte nach einiger Zeit t

�(S, t) =

ˆ

ψ(z, t)δ(S − S0 ez )dz

δ(z − ln(S/S0 )) dz |S0 ez |   1 1 (ln(S/S0 ) − ρt) ˆ 2 √ , = exp − 2σ 2 t 2πσ 2 t S =

ˆ

ψ(z, t)

(4.32)

wobei δ(x) die Delta-Funktion von Dirac ist. Sie wird verwendet, um alle Werte von z zu sammeln, so dass S = S0 ez ist. In der zweiten Gleichung verwenden wir  die folgende Eigenschaft der Delta-Funktion δ(f (x)) = i (x − xi )/|f ′ (xi )|. Die letzte Zeile in (4.32) beschreibt die bekannte log-normal Verteilung. Es ist lehrreich, die zeitliche Entwicklung der Verteilung zu visualisieren. Von einem anfänglichen Aktienwert s = 1 oder S = S0 der durch eine DeltaFunktion δ(s − 1). dargestellt wird. Die Wahrscheinlichkeitsverteilungsfunktion nach einem Monat, sechs Monaten, einem Jahr und zwei√Jahren wird in Abb. 4.2 gezeigt, wobei wir eine Aktienvolatilität von σ = 30%/ Jahr und eine jährliche Wachstumsrate von ρ = 10% annehmen. Beachten Sie die deutliche Asymmetrie

4  Stochastische Prozesse

Wahrscheinlichkeitsverteilung dP/ds

42

ein Monat sechs Monate ein Jahr zwei Jahre

, , , Normalisierter Aktienwert S/S0

Abb. 4.2  Die Wahrscheinlichkeitsverteilungsfunktion der Aktienwerte nach einem Monat, sechs Monaten, einem Jahr und zwei Jahren, wobei die horizontale Achse auf den ursprünglichen Aktienwert S0 . normiert ist. Die zur Erstellung des Diagramms verwendeten Parameter sind √ σ = 30%/ year und ρ = 10%/ Jahr

aufgrund des Logarithmus im Exponenten und der 1/S-Abhängigkeit. Die Unterdrückung des Schwanzes auf der linken Seite der Verteilung kann dadurch erklärt werden, dass, wenn der Aktienwert sinkt, alle nachfolgenden Änderungen auf dem bereits kleineren Wert basieren. Wir sind jetzt in der Lage, die Argumentation aus Abschn. 4.1 über Binomialbäume anzuwenden, um den Wert von Optionen als Erwartungswerte des Aktienwerts zu bestimmen, der einen bestimmten Ausübungspreis übersteigt, was das Thema des nächsten Abschnitts ist.

4.6 Ein erster Blick auf die Optionspreisbildung Der Wert einer europäischen Option zum Anfangszeitpunkt wird durch den Erwartungswert des Payoffs S–K bei Fälligkeit gegeben, rückpropagiert zum Anfangszeitpunkt mit dem Diskontierungsfaktor e−ρt . Dies ist der gleiche Prozess, den wir diskutiert haben, als wir die Optionspreise auf den Endknoten durch den Binomialbaum zurückpropagierten, was in (4.5) kodiert ist. Unter Verwendung von Verteilungsfunktionen anstelle von Binomialbäumen wird der Wert einer CallOption c durch das Integral −ρt

c=e

ˆ∞ (S − K)�(S, t)dS K

(4.33)

Wahrscheinlichkeitsverteilung dP/ds

4.6  Ein erster Blick auf die Optionspreisbildung

43

, ,

, , , ,

setzen

aufrufen

, , , Normalisierter Aktienwert S/S0

Abb. 4.3  Die Wahrscheinlichkeitsverteilungsfunktion der Aktienwerte nach einem Jahr mit den Bereichen einer Call-Option mit einem Ausübungspreis von K/S0 = 1.5 und einer Put-Option mit K/S0 = 0.8 als schattierte Bereiche angezeigt

gegeben, wobei �(S, t) durch (4.32) gegeben ist. Abbildung 4.3 zeigt den Bereich, über den das Integral für eine Call- oder eine Put-Option berechnet werden muss. Außerhalb des angegebenen Bereichs ist der Wert der Optionen null, was durch die geeignete Wahl der unteren Grenze des Integrals berücksichtigt wird. Das Integral kann auf einfache Weise ausgewertet werden, indem die Variablen zurück zu z = ln(S/S0 ) geändert werden, was ergibt

S0 e−ρt c= √ 2πσ 2 t

ˆ∞

(z − ρt) ˆ 2 exp − 2σ 2 t

ln(K/S0 )





 K e − dz . S0 z

(4.34)

Das erste der Integrale mit dem Term ez kann integriert werden, indem man die Quadrat in der Exponenten vervollständigt und die Integrationsvariable ändert zu

z − ρt ˆ − σ 2t √ . (4.35) 2σ 2 t Zusätzlich kommen wir durch eine ähnliche Substitution im zweiten Integral zu y=

ˆ S0 e−ρt+ρt+σ √ c= π

2

/2

ˆ∞ 2t ln(K/S0 )−ρt−σ ˆ



2σ 2 t

−y2

e

Ke−ρt dy − √ π

ˆ∞

2

e−y dy ,

(4.36)

ln(K/S0 )−ρt ˆ



2σ 2 t

wobei wir alle schwierigen Begriffe im Exponenten des Integranden in Grenzen des Integrals umgewandelt haben. Die Integrale sind jetzt in Form von komplementären Fehlerfunktionen erfc [5], die definiert ist durch

4  Stochastische Prozesse

44

2 erfc(z) = √ π

ˆ∞

2

e−y dy = 1 − erf(z) ,

(4.37)

z

wobei erf(z) die normale Fehlerfunktion ist. Der Exponent vor dem ersten Integral ist null aufgrund von ρˆ = ρ − σ 2 /2 und wir erhalten schließlich

c=

  ln(K/S0 ) − (ρ + σ 2 /2)t S0 √ erfc 2 2σ 2 t   −ρt ln(K/S0 ) − (ρ − σ 2 /2)t Ke √ . erfc − 2 2σ 2 t

(4.38)

Um die allgemein bekannte Darstellungsweise der bekannten Optionspreisformel wiederherzustellen, drücken wir die komplementäre Fehlerfunktion erfc durch die kumulative Normalverteilungsfunktion N(z) aus, die gegeben ist durch

1 N(z) = √ 2π

ˆz

e−y

−∞

2

/2

dy =

  −z 1 erfc √ . 2 2

(4.39)

Die zweite Gleichheit zeigt ihre Beziehung zur komplementären Fehlerfunktion erfc . Das Ersetzen der Fehlerfunktionen in (4.38) führt zu dem häufig verwendeten Ausdruck     ln(S0 /K) + (ρ − σ 2 /2)t ln(S0 /K) + (ρ + σ 2 /2)t −ρt √ √ − Ke N . c = S0 N σ t σ t (4.40) Dieser Ausdruck ermöglicht es uns, einer Call-Option c mit Ausübungspreis K für den zugrunde liegende Vermögenswert S mit aktuellem Wert S0 einen Preis zuzuweisen, unter der Annahme, dass die Volatilität von der zugrunde liegenden Aktie σ ist und ihre Wachstumsrate ρ ist. Beachten Sie jedoch, dass wir frei sind, jeden Wert von ρ zu wählen. Wir könnten sogar einen auswählen, der den aktuellen Optionspreis c sehr hoch macht. Niemand würde dann die Call-Option kaufen, weil sie nicht als fair angesehen wird. Die Frage bleibt daher, wie man ρ so auswählt, dass der Optionspreis fair ist. Diese Frage wird von der Black-ScholesGleichung behandelt, die wir im nächsten Kapitel ausführlich besprechen. Trotz dieses Vorbehalts können wir den Preis der europäischen Put-Option p auf die gleiche Weise bestimmen, wie wir es für die Call-Option oben getan haben, indem wir über den schattierten Bereich auf der linken Seite in Abb. 4.3 integrieren. Dies führt zu

p=e

−ρt

ˆK

(K − S)�(S, t)dS ,

(4.41)

−∞

wobei K–S die Auszahlungsfunktion der Put-Option für S < K ist. Das Integral wichtet die Auszahlung, genau wie zuvor, mit der Wahrscheinlichkeit �(S, t)dS

4.6  Ein erster Blick auf die Optionspreisbildung

45

und propagiert dann diesen Erwartungswert zurück zur Anfangszeit mit dem Diskontierungsfaktor e−ρt . Die Auswertung der Integrale führt zur bekannten Form   ln(K/S0 ) − ρt + σ 2 t/2 √ p =Ke−ρt N σ t   ln(K/S0 ) − ρt − σ 2 t/2 √ − S0 N σ t   (4.42) ln(S0 /K) + (ρ − σ 2 /2)t −ρt √ =Ke N − σ t   ln(S0 /K) + (ρ + σ 2 /2)t √ − S0 N − , σ t wo, in der zweiten Gleichung, die kumulative Verteilungsfunktion N die gleichen Argumente wie in (4.40) hat. Diese Argumente werden häufig in der Finanzliteratur verwendet und werden bezeichnet durch

ln(S0 /K) + (ρ + σ 2 /2)t √ σ t √ ln(S0 /K) + (ρ − σ 2 /2)t √ d2 = = d1 − σ t . σ t d1 =

(4.43)

Beachten Sie, dass die Ableitung keine Annahmen über das Risikoausgleich eines Portfolios verwendet hat. Alles, was wir getan haben, war die Berechnung des Erwartungswertes der erwarteten Auszahlung, wenn der Durchschnittswert mit der Rate ρ wächst und die Verteilungen von Aktien, Anteilen oder Optionen lognormal sind. Die Preise von Put- und Call-Optionen mit dem gleichen Ausübungspreis K sind durch die sogenannte Put-Call-Parität verbunden, die direkt aus den Preisformeln für die jeweiligen Optionen folgt. Um dies zu beweisen, schreiben wir die Definition der Put-Option und verwenden die Eigenschaft der kumulativen Verteilungsfunktion, nämlich dassN(−z) = 1 − N(z). Wir finden

p =Ke−ρt N(−d2 ) − S0 N(−d1 ) =Ke−ρt [1 − N(d2 )] − S0 [1 − N(d1 )] =Ke−ρt − S0 + S0 N(d1 ) − Ke−ρt N(d2 ) =Ke−ρt − S0 + c ,

(4.44)

welche umgeschrieben werden kann als

c + Ke−ρt = p + S0 .

(4.45)

Die beiden Seiten dieser Gleichung können als die Werte von zwei Portfolios zur Zeit t = 0 interpretiert werden, wenn die Optionen verkauft werden. Das Portfolio auf der rechten Seite der Gleichung (4.45) besteht aus einer Put-Option und Aktien S0 . Das auf der linken Seite besteht aus einer Call-Option c und einem Geldwert

46

4  Stochastische Prozesse

Ke−ρt investiert mit Rate ρ. Aber warum sollte die Bank Ihnen die Rate ρ geben und was ist ein fairer Preis für die Call-Option c und die Put-Option p? Zur Vereinfachung nehmen wir an, dass wir einen bestimmten Betrag Ke−rf t bei der Bank zum risikofreien Zinssatz rf enzahlen. Im nächsten Kapitel werden wir sehen, dass es eine komplexe Beziehung zwischen dieser Annahme und der fairen Preisgestaltung von Optionen gibt. Wir können nun fragen, was die Werte der beiden Portfolios zur Ausübungszeit t = T sind. Betrachten Sie zuerst das Portfolio auf der rechten Seite. Wenn der Aktienpreis den Ausübungspreis übersteigt, verzichten wir auf die PutOption und behalten die Aktie, die einen Wert hat ST . Wenn der Aktienpreis unter dem Ausübungspreis liegt, üben wir die Put-Option aus und erzielen einen Gewinn von K − ST und der Wert der Aktie beträgt ST so dass der Wert dieses Portfolios K − ST + ST = K. beträgt. Wir vergleichen nun dieses Ergebnis mit dem des Portfolios, das durch die linke Seite in (4.45). Wenn der Aktienwert ST zum Zeitpunkt T über dem Ausübungspreis ST > K liegt, üben wir die Option aus, die einen Wert von ST − K bildet. Zusammen mit der Bankanlage, die auf den Wert K angewachsen ist, beträgt der Gesamtwert dieses Portfolios somit ST − K + K = ST . Wenn der Aktienwert unter dem Ausübungspreis ST < K liegt, verzichten wir auf die Call-Option, haben aber immer noch den Wert K auf der Bank, der den Gesamtwert unseres Portfolios bildet. Zusammenfassend stellen wir fest, dass beide Portfolios den Wert ST haben, wenn ST > K und K im Fall ST < K. Daher ist der Wert beider Portfolios in allen Fällen gleich, wie (4.45) zeigt. Wir stellen jedoch fest, dass es eine tiefere Verbindung zwischen dem risikofreien Zinssatz rf gibt, zu dem wir eine Geldsumme eingezahlt haben, und den fairen Preisen für die Optionen. Im vorherigen Kapitel haben wir immer angenommen, dass die Wachstumsrate der Aktie durch eine bestimmte Rate ρ, möglicherweise abgeleitet vom CAPM, gegeben ist. Daher ist die Bewertung der Optionen in diesem Kapitel nicht unbedingt fair, sondern hängt davon ab, einen vernünftigen Wert für ρ zu schätzen. Im nächsten Kapitel werden wir dieses Rätsel lösen, indem wir eine Differentialgleichung für die zeitliche Entwicklung der Optionspreise bestimmen und Portfolios erstellen, die (quasi) risikofrei sind und faire Preise für die Optionen implizieren. Aber bevor wir das tun, lassen Sie uns kurz auf die Berechnung von Erwartungswerten eingehen.

4.7 Abschweifung über Erwartungswerte In (4.33) berechnen wir den gegenwärtigen Wert einer Call-Option c durch Rückverbreitung der Auszahlungsfunktion max(S − K, 0). Eine ergänzende Sichtweise basiert auf der Vorstellung, die Auszahlungsfunktion zu mitteln, gewichtet durch die Wahrscheinlichkeitsverteilungsfunktion �(S, t), die gleich ist mit dem Erwartungswert der Auszahlungsfunktion im „Zustand“ �(S, t). Wir stellen fest, dass dies konzeptionell analog zur Berechnung des Erwartungswertes �|φ|H|φ� eines Operators H im Zustand |φ� in der ­ Quantenmechanik

4.7  Abschweifung über Erwartungs werte

47

ist. Nehmen wir an, dass H der Hamiltonian ist. in EigenSowohl H als auch φ  funktionen erweitern ψi von H haben wir H = i Ei |ψi ��ψi | und |φ� = j ck |ψj � mit, im Allgemeinen komplexen, Expansionskoeffizienten cj. Hier sind Ei die Eigenwerte von H und cj die Expansionskoeffizienten von |φ�. Für den Erwartungswert finden wir    �|φ|H|φ� = ck∗ �ψk | Ei |ψi ��ψi | cj |ψj � i

k

=

 k

i

j

j

Ei ck∗ cj �|ψk |ψi ��|ψi |ψj �

=



|ci |2 Ei

(4.46)

i

wobei wir verwendet haben, dass die Eigenfunktionen �|ψi |ψj � = δij orthogonal sind. Wir beobachten, dass der Erwartungswert �|φ|H|φ� durch die Eigenwerte Ei gewichtet durch die Wahrscheinlichkeit |ci |2 den Zustand |φ� im Eigenzustand |ψj � zu finden, berechnet werden kann. Die Berechnung der Wahrscheinlichkeiten in einem Würfelspiel ist konzeptionell ähnlich wie das Wetten auf Aktien, die einen bestimmten Ausübungspreis überschreiten. Lassen Sie uns herausfinden, was wahrscheinlicher ist, entweder sieben Augen zu würfeln oder einen zweistelligen Wert zu würfel n – 10, 11 oder 12. Nehmen wir an, dass die Auszahlung für das Würfeln von sieben Augen V1 = 13 $ und für das Würfeln von zweistelligen Augen ist es V2 = 10 $. Wir können die erwartete Auszahlung V  berechnen, indem wir die Auszahlung mit den Wahrscheinlichkeiten des Würfelns eines der beiden Ergebnisse gewichten. Da jeder Würfel sechs Seiten hat, beträgt die Wahrscheinlichkeit, eine bestimmte zu würfeln, 1/6. Da die Würfel unabhängig voneinander rollen, beträgt die Wahrscheinlichkeit eines Wurfs mit zwei Würfeln 1/36. Jetzt müssen wir nur noch die Anzahl der möglichen Kombinationen berechnen, die zu sieben führen, um die Wahrscheinlichkeit p1 zu berechnen. Es gibt sechs verschiedene Kombinationen: 1 + 6, 2 + 5, . . . , 6 + 1, was zu einer Wahrscheinlichkeit von p1 = 6/36 = 1/6 führt, um sieben Augen zu würfeln. Das Würfeln von zweistelligen Augen ist auch mit 6 verschiedenen Kombinationen möglich: 4 + 6, 5 + 5, 6 + 4 ergeben alle 10 Augen, und 5 + 6, 6 + 5, und 6 + 6 ergeben 11 oder 12 Augen. Selbst für diese Kombinationen beträgt die Wahrscheinlichkeit 6/36 oder p2 = 1/6. Wenn ich darauf wette, sieben Augen zu würfeln, erhalte ich 13 $ wenn ich gewinne und muss 10 $ an meinen Gegner zahlen, wenn ich verliere. Daher ist der Erwartungswert meiner Auszahlung gegeben durch �V � = p1 V1 − p2 V2 = 3/6 $. Daher habe ich im Durchschnitt einen Vorteil von einem halben Dollar pro Spiel. Der Gedanke, eine Quellenfunktion zu einem anderen Punkt zu propagieren – die Auszahlungsfunktion in der Finanzwelt zurück in der Zeit – spielt eine zentrale Rolle in der Optik, wo wir das Huygensche Prinzip [6] verwenden, um die Intensität auf einem entfernten Bildschirm zu finden, die durch Licht verursacht wird, das durch eine Öffnung scheint. Hier spielt die Öffnungsfunktion, die dort Einheit ist, wo Licht durchscheint und sonst Null, die Rolle der Quelle. In der Optik spielt die Punktverteilungsfunktion e2π ir/ /r die Rolle der Green’schen Funktion. Hier ist 

48

4  Stochastische Prozesse

die Wellenlänge des Lichts und r ist der Abstand zwischen dem Quellenpunkt und dem Beobachtungspunkt auf dem Bildschirm. Nachdem wir die Analogien in der Physik aufgezeigt haben, kehren wir direkt zurück zu einem der Kernthemen der Finanzwelt, der Black-Scholes-Gleichung. Übungen 1. Verwenden Sie einen Binomialbaum mit zwei Schichten, um den Wert einer Call-Option, die nach einem Jahr einen Ausübungspreis K hat, zu berechnen. Die jährliche Wachstumsrate beträgt ρ = 0.05/Jahr, und die jährliche Volatilität √ beträgt σ = 0.3/ Jahr. 2. Überprüfen Sie, dass in drei Dimensionen die Green’sche Funktion G(r) = 1/4πr erfüllt �G(r) = δ(r). 3. Bestimmen Sie die Green’sche Funktion für einen gedämpften harmonischen Oszillator, beschrieben durch x¨ + 2α x˙ + ω2 x = v0 δ(t). Hier ist ω die Oszillationsfrequenz, α ist die Dämpfungskonstante, und v0 ist eine anfängliche Änderung der Geschwindigkeit, die dem Oszillator bei t = 0. augenblicklich aufgebracht wird. Die Lösung dieser Gleichung ist die Green’sche Funktion. Sie entspricht der Impulsantwort auf eine augenblickliche Änderung der Geschwindigkeit ˙x = v0 . 4. Gleichung 4.15 kann verwendet werden, um die Abhängigkeit der Temperatur T → ψ zu beschreiben, wo D → σ 2 /2 die Wärmeleitfähigkeitskonstante des Materials ist. Bei t = 0 wird Wärme, die eine sofortige Temperaturerhöhung T0 verursacht, in einer Entfernung d vom isolierten Ende einer halbunendlichen Platte mit der Wärmeleitfähigkeitskonstanten D injiziert. Berechnen Sie die Temperatur am isolierten Ende als Funktion der Zeit. Hinweis: Denken Sie an „Bildwärmelasten“ und dass ∂T /∂x = 0 am isolierten Ende gilt. 5. Zeigen Sie, dass ψ(z, τ ) aus (4.31) (a) normalisiert ist und (b) (4.30) erfüllt. 6. Was ist die Wahrscheinlichkeit, dass eine Aktie mit einer jährlichen Rendite √ ρ = 0.1/Jahr und einer jährlichen Volatilität von σ = 0.3/ Jahr mindestens ihren Wert in 2 Jahren verdoppelt? 7. Was ist die Wahrscheinlichkeit, dass die Aktie aus Übung 6 nach zwei Jahren weniger als die Hälfte ihres Wertes hat? 8. Sie erfinden eine neue Option O, die eine Auszahlungsfunktion hat, die linear mit dem Aktienwert S im Bereich von (1 − u)K bis K wächst und linear von K bis (1 + u)K abnimmt, wobei u im Bereich 0.05 < u < 0.2 liegt. (a) Skizzieren Sie die Auszahlungsfunktion. (b) Berechnen Sie den Preis der Option für eine Aktie mit einer jährlichen Rendite von ρ = 0.1/Jahr und einer Volatilität von √ σ = 0.3/ year. 9. Das Huygenssche Prinzip sagt uns, dass das Bild einer Öffnung berechnet werden kann, indem alle ausgehenden sphärischen Wellen mit der Punktverteilungsfunktion e2π ir/ /r aufsummiert werden, wobei  die Wellenlänge des Lichts ist. Betrachten Sie nur eine Dimension, berechnen Sie das Bild einer Öffnung der Breite a auf einem Bildschirm in einer Entfernung d ≫ a von der Öffnung. Hinweis: Sie können annehmen, dass r im Nenner der Punktverteilungsfunktion ungefähr gleich d ist.

Literatur

49

Literatur 1. J.C. Hull, Options, Futures, and Other Derivatives, 8. Aufl. (Pearson, Boston, 2012) 2. L. Bachelier, Theorie de la speculation. Annales Scientifiquies de l’Ecole Normale Superieure 17, 21 (1900) 3. A. Einstein, Über die von der molekularkinetischen Theorie der Wärme geforderte Bewegung von in ruhenden Flüssigkeiten suspendierten Teilchen. Annalen der Physik 322, 549 (1905) 4. C.W. Gardiner, Handbook of Stochastic Methods, 2. Aufl. (Springer, Berlin, 1985) 5. M. Abramowitz, I. Stegun, Handbook of Mathematical Functions (Dover, New York, 1972) 6. E. Hecht, Optics, 2. Aufl. (Addison-Wesley, Reading, 1987)

5

Black-ScholesDifferentialgleichung

Zusammenfassung

Nachdem die Black-Scholes-Gleichung für eine Call-Option aus der Anforderung abgeleitet wurde, ein Portfolio risikofrei zu gestalten, wird die Gleichung mit einer Reihe von Variablensubstitutionen gelöst, die sie in eine Diffusionsgleichung umwandeln. Die Green'sche Funktion der letzteren wird dann zur Bewertung von europäischen Call-Optionen verwendet. Die Ähnlichkeit der in diesem Kapitel gefundenen Lösung mit der von Kap. 4 regt die Diskussion über Martingale-Prozesse an. Um die Verwendung von Optionen zur Absicherung besser zu verstehen, wird eine MATLAB-Simulation für die zeitliche Entwicklung von Aktien, Optionen und Bankguthaben vorgestellt. Die Black-Scholes Differentialgleichung hat in den 1970er Jahren erheblich zur raschen Ausweitung des Derivatmarktes beigetragen, da sie es Händlern ermöglichte, einen fairen Preis für eine große Anzahl von Optionen und anderen Finanzprodukten festzulegen. Folglich stieg das Vertrauen in diese Produkte und erhöhte ihre Attraktivität. Später wurde die Black-Scholes-Gleichung auch dafür verantwortlich gemacht, Marktcrashs verursacht zu haben [1], weil Händler auf das Vorhandensein von risikofreien Portfolios vertrauten, was ein Eckpfeiler der Theorie ist. Aber die Händler übersahen, dass einige der Voraussetzungen nicht mehr gültig waren. Zum Beispiel ist die unbegrenzte Liquidität, die Verfügbarkeit von Mitteln zum risikofreien Zinssatz, nicht mehr gegeben. Darüber hinaus ist die zugrunde liegende stochastische Dynamik in Zeiten finanzieller Not nicht unbedingt gaußförmig. In Kap. 9 werden wir einige der Kritikpunkte ansprechen, aber zuerst diskutieren wir die Standard-Black-Scholes-Theorie und berechnen einen fairen Preis für Standard-, oft als „Vanilla“ bezeichnete Call- und PutOptionen.

© Der/die Autor(en), exklusiv lizenziert an Springer Nature Switzerland AG 2023 V. Ziemann, Physik und Finanzen, https://doi.org/10.1007/978-3-031-36964-3_5

51

5 Black-Scholes-Differentialgleichung

52

5.1 Ableitung Lassen Sie uns daher die zeitliche Variation der Optionspreise betrachten und annehmen, dass die Option c(S, t) von dem Aktienwert S und der Zeit t abhängt. Somit ist c ein Derivat des zugrunde liegenden Vermögenswerts S, der selbst eine stochastische Variable ist und der Langevin-Gleichung aus (4.7) folgt. Daher ist auch c eine stochastische Variable und wir müssen eine stochastische Differentialgleichung für sie ableiten, um zu analysieren, wie sie sich im Laufe der Zeit entwickelt. Zur ersten Ordnung im zeitlichen Inkrement dt, schreiben wir die Taylor-Expansion von c

∂c ∂c 1 ∂ 2c 2 (5.1) dt + dS + dS , ∂t ∂S 2 ∂S 2 wobei wir, wie zuvor, die Terme bis zur zweiten Ordnung in der stochastischen Variable S mitnehmen. Ähnlich wie in Abschn. 4.5 setzen wir nun dS aus (4.7) ein und behalten Begriffe bis zur ersten Ordnung in dt dc =

∂c 1 ∂ 2c 2 2 ∂c σ S dt dc = dt + [ρSdt + σ SdW ] + ∂t ∂S 2 ∂S 2   ∂c ∂c 1 ∂ 2c 2 2 ∂c + ρS + σ S dt + σ S dW , = ∂t ∂S 2 ∂S 2 ∂S

(5.2)

was die stochastische Differentialgleichung einer Größe beschreibt, hier c, die von einer anderen stochastischen Variable abhängt, hier S. Beachten Sie, dass wir die bereits in Abschn. 4.4 verwendeten Substitutionen verwendet haben, insbesondere dW 2 = dt. Darüber hinaus ist ρ die erwartete, aber unbekannte, Wachstumsrate der Aktie S und σ ist ihre Volatilität. Wir betrachten nun ein Portfolio , bestehend aus einer Option c und einer Anzahl von Aktien S. Wir versuchen es so zu konstruieren, dass das Portfolio risikofrei wird, im Sinne dass der Wiener-Prozesses dW verschwindet. Dies wird erreicht, indem einen Bruchteil � = ∂c/∂S Aktien erworben und eine Option c verkauft wird. Das Portfolio  ergibt sich somit

� = −c +

∂c S. ∂S

(5.3)

Sein Wert wird sich im Laufe der Zeit folgendermassen ändern

∂c dS d� = − dc + ∂S   ∂c ∂c 1 ∂ 2c 2 2 =− + ρS + σ S dt ∂t ∂S 2 ∂S 2 ∂c ∂c − σ S dW + [ρSdt + σ SdW ] ∂S ∂S   ∂c 1 2 2 ∂ 2 c =− + σ S dt . ∂t 2 ∂S 2

(5.4)

5.2  Die Lösung

53

Und hier geschieht die Magie: sowohl der zufällige, stochastische Teil, proportional zu dW, als auch die unbekannte Wachstumsrate ρ heben sich auf und erscheinen nicht in der letzten Zeile von (5.4), die daher nicht mehr stochastisch, sondern eine gewöhnliche partielle Differentialgleichung beschreibt. Daher wird in einer risikoneutralen Umgebung der Wert des Portfolios mit der risikofreien Rate rf wachsen und wir erhalten   ∂c S dt . d� = rf �dt = rf −c + (5.5) ∂S

Wenn wir die beiden Ausdrücke für d aus (5.4) und (5.5) gleichsetzen und durch dt teilen, erhalten wir die Differentialgleichung, die mit den Namen ihrer Hauptbeiträger verbunden ist: F. Black, M. Scholes und R. Merton

∂c ∂c 1 ∂ 2c (5.6) = σ 2 S 2 2 + rf S − rf c . ∂t 2 ∂S ∂S Sie verknüpft die zeitliche Entwicklung der Option c mit der des zugrunde liegenden Vermögenswerts S. Es ist interessant, dass die zeitliche Entwicklung der Option c nur durch die Volatilität σ und durch den risikofreien Zinssatz rf , bestimmt wird, und nicht durch die angenommene Wachstumsrate ρ der Aktie S. Wir weisen darauf hin, dass (5.6) abgeleitet wurde, indem das Portfolio , definiert in (5.3), absichtlich risikofrei konstruiert wurde. Diese Art der Zusammenstellung eines abgesicherten Portfolios aus einer Option und � = ∂c/∂S Aktien S wird üblicherweise als -Absicherung bezeichnet. Wir stellen fest, dass die zeitliche Entwicklung der Option c, gegeben durch (5.6), eine direkte Folge der Definition von  in (5.3) ist. Lassen Sie uns fortfahren, um den Wert von c zu einem gegebenen Zeitpunkt vor der Fälligkeit zu bestimmen. Um dies zu tun, müssen wir die partielle Differentialgleichung aus (5.6) integrieren, und dies ist das Thema des nächsten Abschnitts. −

5.2 Die Lösung Wir setzen nun fort, diese Gleichung für eine Call-Option mit der Randbedingung c = max(S − K, 0) zur Zeit T zu lösen. Inspiriert von [2], stellen wir fest, dass diese partielle Differentialgleichung der Diffusionsgleichung sehr ähnlich ist, mit Ausnahme des zusätzlichen Terms −rf t und dass die Zeit aufgrund des Minuszeichens vor der zeitlichen Ableitung in die "falsche" Richtung läuft. Da wir an der Entwicklung des Optionspreises bis zur Fälligkeit zur Zeit T interessiert sind, führen wir die neue Variable τ = T − t ein

c(S, t) = e−rf τ g(S, τ ) ,

(5.7)

∂g 1 ∂ 2g ∂g = σ 2 S 2 2 + rf S . ∂τ 2 ∂S ∂S

(5.8)

welche (5.6) umwandelt in

5 Black-Scholes-Differentialgleichung

54

Darüber hinaus zeigen die Potenzen von S vor den Ableitungen, dass es vorteilhaft ist, z = ln S/K einzuführen. Hier haben wir uns dafür entschieden, den Aktienwert S auf den Ausübungspreis K zu normieren, da es die einzige Variable ist, die in dem Problem eine Geldeinheit hat. Nach einiger Algebra finden wir   1 2 ∂g(z, τ ) 1 2 ∂ 2 g(z, τ ) ∂g(z, τ ) = rf − σ + σ . (5.9) ∂τ 2 ∂z 2 ∂z2

Beachten Sie, dass dies, abgesehen vom Vorzeichen von rˆ = rf − σ 2 /2, die gleiche Gleichung wie die Fokker-Planck-Gleichung für die Verteilungsfunktion der Aktienpreise in (4.30). Dies ist nicht überraschend, da die Definition des Portfolios  in (5.3) die zeitliche Entwicklung des Derivats c mit der des zugrunde liegenden Aktienkurses S verknüpft. Schließlich kommen wir durch die Einführung der Substitution x = z + rˆ τ zu

σ 2 ∂ 2 g(x, τ ) ∂g(x, τ ) (5.10) = , ∂τ 2 ∂x 2 die wir bereits in (4.15) in Abschn. 4.3 angetroffen haben. Dort haben wir festgestellt, dass seine grundlegende Lösung, die Green’sche Funktion, durch (4.18) gegeben ist. Das Hinzufügen des Faktors e−rf τ aus (5.7) liefert uns die Green’sche Funktion für die Black-Scholes-Gleichung   x2 1 exp − 2 − rf τ . G(x, τ ) = √ (5.11) 2σ τ 2πσ 2 τ

Nachdem x = z + rˆ τ = ln(S/K) + rˆ τ in Bezug auf die ursprünglichen Variablen ausgedrückt wurde, löst diese Green’sche Funktion (5.6), erfüllt jedoch nicht die Randbedingungen, nämlich die Auszahlungsfunktion bei τ = 0 zu reproduzieren. Andererseits ist die Black-Scholes-Gleichung eine lineare Differentialgleichung, so dass lineare Kombinationen von Lösungen ebenfalls Lösungen sind. Wie in Abschn. 4.3 diskutiert, ist G(x, τ ) die fundamentale Lösung, die von einer Punktsie in einer gaußschen Weise, quelle bei τ = 0 ausgeht. Von dort diffundiert √ wobei die Breite mit der Zeit gemäß σ τ zunimmt. Darüber hinaus läuft τ rückwärts in der Zeit und τ = 0 entspricht der Fälligkeit der Option bei t = T . Das Problem, den Wert der Option c zu einem früheren Zeitpunkt t zu finden, wird auf ein Anfangswertdiffusionsproblem abgebildet, bei dem die Auszahlungsfunktion max(S − K, 0) die Rolle der Anfangsverteilung übernimmt. Wir schreiben die Auszahlungsfunktion unter Verwendung der Variablen x ′ = log(S/K) und τ um und verwenden dann die Green’sche Funktion, um sie rückwärts in der Zeit zu propagieren, und führen schließlich die Variablen S und t wieder ein. Die Verteilung der „Wärmequellen“ an der Stelle x ′ entspricht max(S − K, 0) bei t = T . Sie wird also durch die lineare Überlagerung von Grundlösungen gegeben, gewichtet mit der Auszahlungsfunktion ′



max(Kex − K, 0) = K max(ex − 1, 0) bei τ = T − t = 0. x′

(5.12)

Dies entspricht K(e − 1) für x ≥ 0 und 0 für x < 0. Um die Verteilung zur Zeit τ zu finden, integrieren wir über die Beiträge aller Quellenpunkte x ′ mit ihren ′



5.2  Die Lösung

55

jeweiligen Stärken, gegeben in (5.12), und gewichtet sie mit der Green’schen Funktion, die als Propagator vom „Quellpunkt“ x ′ zum „Beobachtungspunkt“ x vermittelt

c(x, τ ) =

ˆ∞



K(ex − 1)G(x ′ − x, τ )dx ′ .

(5.13)

0

Wenn wir G(x, τ ) aus (5.11) einsetzen, finden wir  � � ˆ∞ (x ′ − x − σ 2 τ )2 Ke−rf τ  x+σ 2 τ/2 exp − e dx ′ c(x, τ ) = √ 2σ 2 τ 2πσ 2 τ  0  �  � ˆ∞ (x ′ − x)2 dx ′ , − exp −  2σ 2 τ

(5.14)

0

wobei wir das Quadrat im Exponenten des ersten Integrals vervollständigt haben. Nach Verschiebung der Integrationsvariablen zur Vereinfachung des Exponenten √ und der Substitution y′ = x ′ /σ τ , drücken wir die Integrale mit Hilfe der kumulative Verteilungsfunktionen N(x) aus, die bereits in (4.39) definiert wurde

    x x + σ 2τ −rf τ − Ke c(x, τ ) =Ke 1−N − √ 1−N − √ σ τ σ τ    2  x x + σ τ 2 √ √ =Kex+σ τ/2−rf τ N . − Ke−rf τ N (5.15) σ τ σ τ x+σ 2 τ/2−rf τ





Jetzt können wir die ursprünglichen Variablen x = z + rˆ τ und z = ln S/K wieder einsetzten. Unter Verwendung der Abkürzung rˆ = rf − σ 2 /2 , die die vorherige Gleichung zu vereinfacht, kommen wir zu

 ln(S/K) + (rf + σ 2 /2)τ √ c(S, τ ) =SN σ τ   ln(S/K) + (rf − σ 2 /2)τ √ . − Ke−rf τ N σ τ 

(5.16)

Nach dem Ersetzen von τ = T − t finden wir den Preis der Call-Option c(S, t)

 ln(S/K) + (rf + σ 2 /2)(T − t) √ c(S, t) =SN σ T −t   (5.17) ln(S/K) + (rf − σ 2 /2)(T − t) √ − Ke−rf (T −t) N , σ T −t 

was sich fast mit dem Ergebnis, das in Abschn. 4.6 in (4.40) gefunden wurde, deckt. Nur die Wachstumsrate ρ wird durch den risikofreien Zinssatz rf in (4.40) ersetzt.

56

5 Black-Scholes-Differentialgleichung

Es ist bemerkenswert, dass die unterschiedlichen Anfangsannahmen über den Optionspreis, die in der Ableitung in Abschn. 4.6 und in diesem Abschnitt verwendet wurden, zu ähnlichen Ergebnissen führen. Im ersteren Fall haben wir den erwarteten Wert des zukünftigen Gewinns auf den heutigen Wert zurückgerechnet, unter Verwendung der erwarteten Wachstumsrate des Vermögenswerts. In diesem Abschnitt haben wir eine Differentialgleichung abgeleitet, die ein abgesichertes Portfolio (5.3) beschreibt, das risikofrei ist und daher mit dem risikofreien Zinssatz rf wächst. Es verknüpft die zeitliche Entwicklung der Aktien S mit der der Option c. Die Lösung der Differentialgleichung mit den Randbedingungen, die für die Art der Option relevant sind, führte zum gleichen Optionspreis, einschließlich seiner zeitlichen Entwicklung bis zur Fälligkeit (T − t), allerdings mit ρ ersetzt durch rf .

5.3 Risikoneutralität und Martingale In diesem Abschnitt zeigen wir, wie die zwei Ansätze aus den Abschn. 4.6 und 5.2 miteinander verbunden sind. Betrachten Sie zwei stochastische Prozesse, einen für den Aktienpreis S, der bereits in Abschn. 4.6 verwendet wurde, und einen zweiten für einen stochastischen Prozess X, bei dem die Wachstumsrate ρ ersetzt wird durch rf

dS =ρSdt + σ SdW (t) dX =rf Xdt + σ XdW (t)

(5.18)

wobei dW ein Wiener-Prozess ist. Wir nehmen an, dass beide Prozesse die gleichen Anfangsbedingungen S0 = X0 und die gleiche Volatilität haben, aber unterschiedliche Wachstumsraten ρ und rf aufwisen. Daher sind die Prozesse eindeutig unterschiedlich. Wenn wir den ersten Prozess mit S verwenden, kommen wir zu einem Preis für die Call-Option in (4.40) und wenn wir den zweiten Prozess mit X verwenden, würden wir bei (5.17) ankommen, das ursprünglich durch die Erstellung eines risikofreien abgesicherten Portfolios abgeleitet wurde. Beachten Sie, dass die Wachstumsrate ρ von der Erwartung des Optionsverkäufers oder eines Marktanalytikers abhängt und daher etwas willkürlich ist. Wir können dann Call-Optionen cS nach Prozess S mit Optionen cX vergleichen, die auf Prozess X basieren. Genauer gesagt, betrachten wir eine Call-Option mit einem Ausübungspreis K über dem aktuellen Aktienwert S. Dies macht die Option cS teurer als cX . Stellen Sie sich einen Optionsverkäufer vor, der eine Option mit Preis verkauft cS und kauft gleichzeitig eine weniger teure Option cX, basierend auf Prozess X, der mit dem zugrunde liegenden Vermögenswert abgesichert ist und somit einen risikofreien Gewinn erzeugt. In diesem Fall erzeugt das Paket basierend auf cX einen risikofreien Gewinn zusätzlich zur Differenz zwischen den Optionspreisen cX und cS, die bereits in der Tasche des Optionsverkäufers ist und daher ebenfalls risikofrei ist. Der Gesamtgewinn des Optionsverkäufers ist risikofrei und höher als der risikofreie Zinssatz. Dies widerspricht jedoch der Grundannahme, dass systematisches Arbitrage oder ein risikofreier Gewinn über dem risikofreien

5.3  Risikoneutralität und Martingale

57

Zinssatz nicht möglich ist. Wir schließen daraus, dass das Schreiben von Optionen basierend auf erwarteten Wachstumsraten dem Optionsverkäufer einen unfairen Vorteil verschafft. In der Praxis würde niemand die Option cS kaufen. Wir stellen fest, dass wir zumindest für einfache Optionen den hypothetischen Prozess X mit der gleichen Volatilität wie die zugrunde liegende Aktie, aber mit risikofreier Wachstumsrate rf verwenden können, um den fairen, arbitragefreien Preis der Option zu berechnen, indem wir die Erwartungswerte der Auszahlungsfunktion unter Verwendung der log-normalen Verteilungsfunktion (4.32) integrieren, jedoch mit ρˆ = ρ − σ 2 /2 ersetzt durch rf − σ 2 /2. Diese modifizierte Verteilungsfunktion bezeichnen wir als �rf (S, t). Die Berechnung von Erwartungswerten mit dieser modifizierten Verteilungsfunktion wird als risikoneutrale Bewertung bezeichnet und ermöglicht es uns, Optionspreise fair zu berechnen. Zentral in der Diskussion über effiziente Märkte ist, dass Arbitrage - unfairer Vorteil - um einen risikofreien Gewinn über dem risikofreien Zinssatz zu erzielen, verboten ist. Dennoch gibt es Arbitrageure, die minimale Ungleichgewichte ausnutzen, um genau solch einen Gewinn zu erzielen. Dies ähnelt dem physikalischen Gesetz der Energieerhaltung und doch gibt es Vakuumfluktuationen, bei denen die Energieerhaltung verletzt wird, vorausgesetzt, es geschieht schnell genug, begrenzt durch das Heisenbergsche Unschärfeprinzip. Auf die gleiche Weise ist Arbitrage auf einem effizienten Markt verboten, kann aber kurzzeitig verletzt werden. In diesem Sinne, um Wilmotts [3] Diktum über das No-Arbitrage-Gesetz zu paraphrasieren: „Es gibt kein kostenloses Mittagessen, nur einen schnellen Austausch von Snacks.“ Die Vorstellung eines fairen Prozesses führt zum Konzept eines Martingales, das einen stochastischen Prozess beschreibt, bei dem das Ergebnis unvoreingenommen ist, in dem Sinne, dass der Erwartungswert des Aktienwerts von morgen, wenn man die Aktienwerte aller vorherigen Tage kennt, der Wert von heute ist. Mit anderen Worten, der Aktienwert kann mit gleicher Wahrscheinlichkeit steigen oder fallen. Für eine stochastische Variable x kann dies wie folgt geschrieben werden:

E(xn+1 |xn , . . . x0 ) = xn ,

(5.19)

wo die linke Seite den Erwartungswert von xn+1 bedingt durch vorherige Werte xj mit j ≤ n. Daher ist die beste Schätzung des morgigen Wertes gleich dem heutigen Wert. Wenn das x Aktienkurse bezeichnet und das n die Tage kennzeichnet, vergleichen wir Werte an verschiedenen Tagen und in diesem Fall müssen wir die Abzinsung berücksichtigen, aber die obige Diskussion sollte klar gemacht haben, dass wir mit dem risikofreien Zinssatz rf abzinsen müssen, so dass die MartingalBedingung nun lautet

E(e−rf T ST |S0 ) = S0

(5.20)

mit der Interpretation, dass der Aktienwert von morgen ST , auf heute abgezinst, bedingt auf den heutigen Wert S0, auch S0 ist. In einem fairen Spiel können wir den nächsten Würfelwurf sozusagen nicht vorhersehen. Erwartungswerte einer beliebigen Funktion g(S) werden dann durch gewichtetes Mitteln mit rf durchgeführt, so dass wir

5 Black-Scholes-Differentialgleichung

58

E(g(S)) = �g(S)� =

ˆ

g(S)�rf (S, t)dS

(5.21)

erhalten, was eine Methode zur Bewertung von Erwartungswerten auf risikoneutrale Weise darstellt, indem die Gewichtungsfunktion rf , verwendet wird, wo rf dS das Martingale-Maß ist.

5.4 Dynamisches Hedging Wir werfen nun einen näheren Blick auf die Mechanik der dynamischen oder − Absicherung, nämlich das kontinuierliche Anpassen des Verhältnisses von Aktien zu Optionen in einem risikofreien Portfolio. Betrachten Sie zunächst die linke Darstellung in Abb. 5.1, die den Preis einer europäischen Call-Option als Funktion des Aktienpreises zu verschiedenen Zeiten bis zur Fälligkeit zeigt. Bei Fälligkeit ist der Preis der Option offensichtlich die Auszahlungsfunktion, dargestellt als die durchgehende schwarze Linie. Zu früheren Zeiten ist der Preis der Option höher als die Auszahlungsfunktion, was die Erwartung widerspiegelt, dass es eine endliche Wahrscheinlichkeit gibt, dass die Option im Geld endet, was bedeutet, dass sie einen Gewinn für den Optionsinhaber erzeugt, weil der Aktienpreis S bei Fälligkeit den Ausübungspreis K übersteigt. Wenn der Aktienpreis unter dem Ausübungspreis liegt—aus dem Geld—ist der Optionspreis niedrig, aber nicht null, weil es immer noch eine Chance gibt, dass eine Aufwärtsbewegung des Aktienpreises die Option bei Fälligkeit rentabel machen kann. Das Diagramm auf der rechten Seite in Abb. 5.1 zeigt � = ∂c/∂S, das Hedging-Verhältnis gemäß (5.3). Es ist nahe Null, wenn der Aktienpreis S weit unter dem Ausübungspreis K liegt, was darauf hindeutet, dass es eine endliche, aber geringe Chance gibt, dass die Option im Geld endet. Daher ist eine geringe Anzahl von Aktien erforderlich, um die geringe Wahrscheinlichkeit abzusichern, dass der Optionsverkäufer die Aktien bei Fälligkeit an den Optionsinhaber übergeben muss. Wenn der Aktienpreis näher kommt und schließlich den Ausübungspreis übersteigt, nähert sich das Hedging-Verhältnis  Eins an, was auf eine hohe Wahrscheinlichkeit hinweist, dass der Inhaber die Option bei Fälligkeit ausübt. Daher sollte der Optionsverkäufer besser Aktien erwerben, um seine Verpflichtung gegenüber dem Optionskäufer zu decken. Der Anteil  der Aktien im Portfolio spiegelt somit die Wahrscheinlichkeit wider, die Aktien bei Fälligkeit zu liefern. In Abb. 5.2 zeigen wir die entsprechenden Diagramme für eine europäische PutOption, werden die Details hier jedoch nicht weiter diskutieren. Beachten Sie, dass das  von Call- und Put-Optionen explizit berechnet werden kann, indem c in Bezug auf S in (5.17) differenziert wird. Der äquivalente Ausdruck für die Put-Option wird durch die entsprechende Ableitung von p in (4.42) gegeben, wo wir ρ durch den risikofreien Zinssatz rf . ersetzen müssen. Wenn wir die Berechnungen explizit durchführen, finden wir

5.4  Dynamisches Hedging

59

,

bei Fälligkeit 6 Monate vorher 12 Monate vorher 24 Monate vorher

∆ für die Call option

Preis der Call option c(S,tt)

,

, , , ,

, , , bei Fälligkeit 6 Monate vorher 12 Monate vorher 24 Monate vorher

,

,

,

,

bei Fälligkeit 6 Monate vorher 12 Monate vorher 24 Monate vorher

, , ,

, ∆ für Put option

Preis der Put option p(S,dt)

Abb. 5.1  Der Preis (links) und das Delta (rechts) einer europäischen Call-Option bei Fälligkeit, 6, 12 und 24 Monate vor Fälligkeit. Die jährliche Wachstumsrate und Volatilität wird mit 5 % bzw. 30 % angenommen

, , bei Fälligkeit 6 Monate vorher 12 Monate vorher 24 Monate vorher

,

, ,

,

,

,

Abb. 5.2  Der Preis (links) und das Delta (rechts) einer europäischen Put-Option bei Fälligkeit, 6, 12 und 24 Monate vor Fälligkeit. Die jährliche Wachstumsrate und Volatilität wird mit 5 % bzw. 30 % angenommen

für eine europäische Call-Option für eine europäische Put-Option

(5.22)

Hier ist N(x) die Normalverteilung aus (4.39) und d1 ist in (4.43) definiert. Wir illustrieren nun im Detail, wie dynamisches Hedging funktioniert, indem wir eine Simulation des Prozesses schreiben. Siehe Anhänge B.2 und B.3 für den MATLAB-Code. Wir nehmen an, dass ich anfangs kein Kapital habe, aber eine Option verkaufe und den Optionspreis c0 in bar erhalte, den ich zu dem risikofreien Zinssatz rf bei der Bank einzahle. Dann berechne ich die anfängliche Absicherung S� = S∂c/∂S, leihe diesen Betrag zum risikofreien Zinssatz aus und kaufe S Aktien. Während der verbleibenden Tage bis zur Fälligkeit berechne ich am Ende jeden Handelstages d das Delta d mit der Black-Scholes-Formel und dem aktuellen Aktienkurs Sd und der verbleibenden Zeit bis zur F ­ älligkeit

60

5 Black-Scholes-Differentialgleichung

und verwende diese Informationen, um den aktualisierten Absicherungswert d Sd . zu berechnen. Je nachdem, ob dieser Wert größer oder kleiner ist als der Absicherungswert des Vortages, kaufe ich zusätzliche Aktien oder verkaufe aus meinem Portfolio. Darüber hinaus muss ich Zinsen für das von der Bank geliehene Geld zahlen, um die Aktien zu bezahlen. Dieses Verfahren der täglichen Neuberechnung des Absicherungswertes hält das Portfolio risikofrei. Wenn die Fälligkeit näher rückt, nähert sich  entweder null oder eins, wie aus dem Diagramm auf der rechten Seite in Abb. 5.1 ersichtlich ist. Wenn die Option im Geld ist, wird sich  Eins nähern und meine Position, Aktien bereitzustellen, ist durch die Absicherung gedeckt. Dann kann ich die Aktien aus der Absicherung an den Besitzer der Option übergeben, erhalte aber nur den Ausübungspreis für die Aktien. Dieses Geld verwende ich, um das Darlehen plus aufgelaufene Zinsen bei der Bank zu begleichen. Das obere Diagramm in Abb. 5.3 zeigt die zeitliche Entwicklung des Aktienpreises, dargestellt als durchgezogene schwarze Linie. Die Absicherung ist als gestrichelt gepunktete rote Linie dargestellt und das von der Bank geliehene Geld wird als gestrichelte blaue Linie angezeigt. Die Kosten für mich, den Verfasser der Option, sind das geliehene Geld minus dem Ausübungspreis, aber das wird durch den ursprünglich erhaltenen Preis der Option c0 , gedeckt, der zum risikofreien Zinssatz rf . angelegt wurde. Das untere Diagramm in Abb. 5.3 zeigt die Situation, in der die Option bei Fälligkeit aus dem Geld ist. In diesem Fall wird  sich null nähern und ich benötige keine Absicherung, da der Besitzer der Option verzichtet. Wir stellen fest, dass die anfängliche Absicherung, dargestellt als eine punktiert gestrichelte rote Linie, auf null reduziert wird, während die Zeit auf die Fälligkeit zugeht und es immer offensichtlicher wird, dass die Option nicht ausgeübt wird. Daher nähert sich  null und ich kann die Aktien in der Absicherung verkaufen. Bei Fälligkeit sind keine Aktien vorhanden und daher wurde das gesamte Geld an die Bank zurückgegeben und ich kann die aufgelaufenen Zinsen aus dem ursprünglich für die Option erhaltenen Geld c0 bezahlen. Beachten Sie, dass ich in beiden diskutierten Fällen, als Verfasser der Option, einen Gewinn erziele. Dies ist hauptsächlich darauf zurückzuführen, dass die Aktien ohne Schwankungen gestiegen sind, während bei der Berechnung des Optionspreises und des  eine jährliche Volatilität von 30 % angenommen wurde. In Wirklichkeit muss ich die Absicherung immer erhöhen, wenn der Aktienkurs steigt, und Aktien verkaufen, um die Absicherung zu reduzieren, wenn er sinkt, und daher muss ich Aktien zu einem hohen Preis kaufen und zu einem niedrigeren Preis verkaufen. Dies wird meine Gewinne reduzieren, ist aber im Durchschnitt wird dies durch den ursprünglich berechneten Optionspreis c0 gedeckt.

5.5 Andere Beispiele Eine Methode zur Berechnung des Preises von Finanzderivaten wie Optionen basiert auf der Verwendung der Green’schen Funktion aus (5.11) und ihrer Faltung mit der Auszahlungsfunktion. Dies ist das, was wir für die Call-Option in (5.13)

5.5  Andere Beispiele

,

S,K,∆ S,Geliehen

,

61

Aktie S Ausübungspreis K Geliehen Absicherung ∆S

, , , ,

Handelstage

S,K,∆ S,Geliehen

,

Aktie S Ausübungspreis K Geliehen Absicherung ∆S

, , , ,

Handelstage

Abb. 5.3  Der Aktienpreis (durchgezogen schwarz) und der Ausübungspreis (gepunktet) sowie der Wert der Absicherung (gestrichelt gepunktet in rot) und der geliehene Betrag (gestrichelt in blau) als Funktion der Handelstage bis zur Fälligkeit am Tag 252, dem Ende eines Handelsjahres. Zur Vereinfachung ist die Volatilität auf null gesetzt und die Aktien steigen um 9 % über das Jahr, der risikofreie Zinssatz beträgt 5 % und der Ausübungspreis entspricht dem anfänglichen Aktienpreis (oben) und liegt 20 % darüber (unten)

getan haben. Inspiriert durch die enge Beziehung der Black-Scholes zu der Diffusionsgleichung, können wir die Auszahlungsfunktion als eine anfängliche Wärmeverteilung interpretieren, die sich mit der Zeit ausbreitet und die „Wärme“ beobachten, die an einem anderen Ort als Funktion der Zeit ankommt. Die zweite Methode basiert auf der Bewertung des Erwartungswertes der Auszahlungsfunktion über die erwartete log-normal Verteilung des endgültigen Aktienwerts, gegeben durch (4.32) und der Rückverfolgung des Erwartungswertes zurück zur

5 Black-Scholes-Differentialgleichung

62

Anfangszeit. Hier müssen wir im Hinterkopf behalten, den risikofreien Zinssatz anstelle einer angenommenen Wachstumsrate ρ zu verwenden, um eine faire Bewertung unseres Derivats in Übereinstimmung gemäss der Diskussion von Abschn. 5.3 zu gewährleisten. Es ist anschaulich, die Auszahlungsfunktionen für Call-, Put- und zwei exotische Optionen in Abb. 5.4 zu zeigen. Die Call- und Put-Optionen wurden bereits behandelt. Eine Gap-Option, die in der Mitte rechts gezeigt wird, zahlt die Differenz zwischen dem Aktien- und dem Ausübungspreis aus, aber nur, wenn ein zweites Ausübungslevel überschritten wurde. Die Auszahlungsfunktion rechts zahlt 20 % mehr als der Ausübungspreis, vorausgesetzt, dieser wird überschritten. Eine solche Option ähnelt stark einem Glücksspiel; wenn der Ausübungspreis überhaupt überschritten wird, wird ein Bonus von 20 % über dem Ausübungspreis ausgezahlt. Da diese Option für den Optionsverkäufer sehr teuer werden kann, können wir erwarten, dass sie ziemlich teuer ist. Wir verweisen auf [3] für die Diskussion einer großen Anzahl weiterer Optionen und der Methoden, wie man sie bewertet. Ein Terminkontrakt, wie in Kap. 2 diskutiert, kann direkt bewertet werden, ohne die Differentialgleichung zu verwenden. Die Vereinbarung, eine Aktie oder ein anderes Vermögenswert zu einem späteren Zeitpunkt T zum vereinbarten Preis K zu liefern, hat bei Fälligkeit den Wert ST − K der entweder positiv oder negativ sein kann. Zu einem früheren Zeitpunkt t wird sein Wert durch den rückpropagierten Wert gegeben

f = e−rf t (ST − K) = S − e−rf t K

(5.23)

wo S der heutige Wert der Aktie ist. Es ist einfach zu überprüfen, dass der Terminkontrakt f tatsächlich die Black-Scholes-Differentialgleichung erfüllt, berechnen

Kaufoption, max(0,S-K)

Verkaufsoption, max(0.K-S)

Option Lücke

konstante Option

,

,

,

,

,

,

,

,

Auszahlung

,

Auszahlung

Auszahlung

Auszahlung

,

,

,

, ,

,

,

,

,

,

,

,

,

,

,

,

Abb. 5.4  Die Auszahlungsfunktionen von Call (links), Put (links Mitte), Gap-Option (rechts Mitte) und einer konstanten Option (rechts) als Funktion des Verhältnisses von Aktien- und Ausübungspreis S/K

Literatur

63

Sie einfach alle Ableitungen und setzen Sie in (5.6) mit c ersetzt durch f. Die Tatsache, dass der Terminkontrakt die Black-Scholes-Differentialgleichung erfüllt, impliziert, dass er gehandelt werden kann, ohne eine Chance für einen risikofreien Gewinn zu bieten. Mit anderen Worten, es gibt keine Möglichkeiten für Arbitrage. Handelskommissionen, die die Verwendung neuer Finanzinstrumente an Börsen überwachen und genehmigen, überprüfen dies, um sicherzustellen, dass alle Geschäfte fair sind. Übungen 1. Leiten Sie die Black-Scholes-Gleichung für das folgende Portfolio her ˆ = −p + S ∂p . � ∂S 2. Berechnen Sie den fairen Preis der Option, die im rechten Diagramm in Abb. 5.4 dargestellt ist. 3. Sie haben die brillante Idee, eine Option auszugeben, die das Doppelte des aktuellen Aktienwerts S0 , auszahlt, wenn der Wert der Aktie S1 nach einem Jahr im Bereich K1 < S1 < K2 . liegt. Sie möchten K1 und K2 allgemein halten, um verschiedene Varianten der Option verschiedenen Kunden anbieten zu können. (a) Skizzieren Sie die Auszahlungsfunktion. (b) Bestimmen Sie einen fairen Preis für die Optionen als Funktion von K1 und K2 . 4. Berechnen Sie einen fairen Preis für eine Option mit der Auszahlungsfunktion, die durch max(S 2 /K − K, 0) definiert ist. 5. Erklären Sie mit Ihren eigenen Worten das Konzept eines Martingale-Maßes. 6. Erklären Sie, warum die Bewertung von Optionen mit dem Martingale-Maß aus (5.21) den gleichen Preis ergibt wie die Berechnung mit der Black-ScholesGleichung aus Abschn. 5.2. 7. Berechnen Sie N ′ (z) = dN/dz und zeigen Sie, dass N(z) + N(−z) = 1 gilt. 8. Zeigen Sie, dass der Forward-Vertrag f, gegeben durch (5.23), die BlackScholes Gleichung (5.6) erfüllt.

Literatur 1. I. Steward, The Mathematical Equation That Caused the Banks to Crash, The Guardian (2012). Available online at https://www.theguardian.com/science/2012/feb/12/black-scholesequation-credit-crunch 2. D. Silverman, Solution of the Black Scholes Equation Using the Green’s Function of the Diffusion Equation, unpublished note (UC Irvine, 1999) 3. P. Wilmott, S. Howison, J. Dewynne, The Mathematics of Financial Derivatives (Cambridge University Press, Cambridge, 2005)

6

Die Griechen und Risikomanagement

Zusammenfassung

Dieses Kapitel führt die Griechen als Ableitungen des Optionspreises in Bezug auf die Variablen und Parameter der Black-Scholes-Gleichung ein. Ihre Verwendung zur Absicherung von Risiken und zur Beurteilung der Widerstandsfähigkeit einer Absicherung gegenüber Parameteränderungen wird diskutiert. Es folgt eine Diskussion über das Volatilitätslächeln und das Konzept des Wertim-Risko. Schließlich werden Kombinationen von einfachen Optionen, wie Bull-Spreads oder Straddles, vorgestellt und ihre Verwendung zur Anpassung der eigenen Investition an die eigenen Erwartungen wird kurz angesprochen. Nachdem wir die Ableitung der Preisformeln für die Optionen behandelt haben, gehen wir nun weiter und untersuchen Eigenschaften der Lösungen, insbesondere ihre Widerstandsfähigkeit. Dann diskutieren wir den Einsatz von Optionen, um eine Portfolioversicherung zu erstellen, sowie andere Finanzinstrumente, um auf ein erwartetes Verhalten des Marktes zu wetten.

6.1 Die Griechen Normalerweise werden Optionen verwendet um das Risiko von Aktien in einem Portfolio abzusichern. Die Anzahl der Aktien, die benötigt werden, um eine Option auszugleichen, wird durch die Bedingung gegeben, dass das Portfolio , Ergänzende Information Die elektronische Version dieses Kapitels enthält Zusatzmaterial, auf das über folgenden Link zugegriffen werden kann https://doi.org/10.1007/978-3-03136964-3_6. Die Videos lassen sich durch Anklicken des DOI Links in der Legende einer entsprechenden Abbildung abspielen, oder indem Sie diesen Link mit der SN More Media App scannen. © Der/die Autor(en), exklusiv lizenziert an Springer Nature Switzerland AG 2023 V. Ziemann, Physik und Finanzen, https://doi.org/10.1007/978-3-031-36964-3_6

65

6  Die Griechen und Risikomanagement

66

gegeben durch (5.3), null ist. In diesem Fall wird jede Variation im Aktienwert S durch eine entsprechende entgegengesetzte Variation im Wert der Option ausgeglichen. Die Proportionalitätskonstante

�=

∂c ∂S

(6.1)

wird - zur Überraschung aller - Delta genannt und ist das erste Mitglied der Mengen, die die Stabilität eines Portfolios charakterisieren, genannt die Griechen. Delta kann aus der Bewertungsgleichung für die entsprechende Option berechnet werden, zum Beispiel (4.40) oder (5.17), durch Differenzierung, was die Art und Weise ist, wie wir (5.22) abgeleitet haben. Das Delta ist spezifisch für den Typ der Option, den zugrunde liegenden Aktienkurs und die Zeit bis zur Fälligkeit der Option. Wenn wir den Optionswert oder sein Delta zu einem späteren Zeitpunkt erneut berechnen, kann der Wert sich geändert haben, da sowohl der Aktienwert als auch die Zeit bis zur Fälligkeit sich geändert haben. Dies impliziert, dass die Absicherung gefährdet ist, es sei denn, der Bruchteil  von Aktien und Optionen wird wiederholt ausgeglichen. In der Praxis wird diese Neuausrichtung in der Regel täglich durchgeführt. Der Grund dafür ist, dass von einem Tag auf den nächsten neue Informationen über den Aktienwert S hinzugefügt werden und die Aktualisierung der Absicherung berücksichtigt diese zusätzlichen Informationen. Abgesehen von der Abhängigkeit von der Zeit t und dem Aktienpreis S, hängt der Optionspreis auch vom risikofreien Zinssatz rf und der Volatilität σ ab. In den Kapiteln 4 und 5 haben wir angenommen, dass letztere konstant sind, während sie im wirklichen Leben variieren. Ihre Abhängigkeit von externen Einflüssen wird als zusätzliches Risiko wahrgenommen und wir untersuchen daher, wie stark sie tatsächlich den Wert einer Option oder allgemeiner, eines Portfolios, beeinflussen. Zunächst betrachten wir die Variation von  mit der der zugrunde liegenden Aktien, was durch die Größe Gamma, bezeichnet durch Ŵ, und definiert durch die Änderungsrate, die Ableitung von 

∂� ∂ 2c (6.2) = 2 . ∂S ∂S Ŵ zeigt an, wie schnell die Absicherung neu ausbalanciert werden muss. Hier haben wir Ŵ für die Option c allein definiert, aber oft wird es auch für ein Portfolio  berechnet. Die Abhängigkeit von Ŵ auf den Aktienpreis wird in Abb. 6.1 für 6, 12 und 24 Monate vor Fälligkeit gezeigt. Wir beobachten, dass es nahe dem Ausübungspreis, wo S/K ≈ 1, spitz zuläuft und das Spitzwerden wird umso ausgeprägter, je näher wir der Fälligkeit kommen. Dies spiegelt die Tatsache wider, dass ein Aktienpreis nahe am Ausübungspreis große Änderungen im Absicherungsverhältnis  verursachen kann. Wenn der Aktienpreis um den Ausübungspreis herumwandert, wird die Absicherung sehr schwierig. Wenn andererseits der Aktienpreis erheblich vom Ausübungspreis abweicht, variiert die Absicherung sehr wenig. Ŵ=

6.1  Die Griechen

67

Abb. 6.1  Das Gamma Ŵ einer europäischen CallOption 6, 12 und 24 Monate vor Fälligkeit. Die jährliche Wachstumsrate und Volatilität wird als 5 % bzw. 30 % angenommen

für die Call option

,

6 Monate vorher 12 Monate vorher 24 Monate vorher

,

,

,

,

Die Ableitung nach der Zeit wird Theta, bezeichnet durch , genannt und wird definiert als

∂� ∂c , oder �(�) = (6.3) ∂t ∂t wobei wir unterscheiden zwischen dem  der Option c oder dem eines Portfolios . In der Praxis wird  hauptsächlich überwacht. Wir zeigen die Abhängigkeit von  vom Verhältnis von Aktien- zu Ausübungspreis im Diagramm auf der linken Seite in Abb. 6.2. Ähnlich wie bei Ŵ, variiert die Zeitableitung von  am stärksten, wenn der Aktienpreis nahe am Ausübungspreis liegt, was wiederum darauf hinweist, dass die Absicherung schwierig ist, wenn der Aktienpreis nahe am Ausübungspreis liegt. Auf der rechten Seite in Abb. 6.2 zeigen wir, wie  mit der Zeit

6 Monate vorher 12 Monate vorher 24 Monate vorher

, , , ,

, , ,

, ,

für die Call option

für die Call option

�(c) =

, ,

,

am Geld (K=S) im Geld (K p und testen, ob χq2 signifikant kleiner ist als χp2. Um diese Verbesserung zu quantifizieren, führen wir die F-Statistik

f =

(χp2 − χq2 )/(q − p) χq2 /(N − q)

(7.37)

.

ein. Hier ist der Nenner das χq2 pro Freiheitsgrad der „größeren“ Anpassung, während im Zähler der Unterschied χp2 − χq2 pro zusätzlichem Freiheitsgrad steht, der von den zusätzlichen q − p Anpassungsparametern stammt. Der F-Wert misst somit die relative Reduzierung des χ 2 bei Erhöhung der Anzahl der Anpassungsparameter. Wir weisen darauf hin, dass der Nenner von N − q quadrierten Zufallszahl si und der Zähler auf den q − p zusätzlichen si abhängt. Im Anhang A motivieren wir, dass die Zufallszahlen im Zähler und die im Nenner statistisch unabhängig sind, was uns erlaubt, die Verteilung der F-Statistik als das Verhältnis von zwei unabhängigen χ 2-Verteilungen; eine mit n = q − p Freiheitsgraden, die andere mit m = N − q Freiheitsgraden. Zur einfachen Referenz zeigen wir erneut die χ 2-Verteilungsfunktion, die bereits in (7.22) zu sehen war

ψn (x) =

1 2n/2 Ŵ(n/2)

x n/2−1 e−x/2 .

Wir werden es einmal verwenden, um die χ 2 −Variable x mit n = q − p Freiheitsgraden, die im Zähler von (7.37) erscheinen, zu beschreiben und einmal für die χ 2 -Variable y für die m = N − q Freiheitsgraden im Nenner. Mit diesen Variablen kann die F−Statistik f geschrieben werden als

f =

mx x/n = y/m ny

mit

m =N −q

und

n=q−p.

(7.38)

Unsere nächste Aufgabe besteht darin, die Verteilungsfunktion �(f ) für das f zu berechnen

�n,m (f ) =

ˆ∞

dyψm (y)

0

n = m

ˆ∞

dxψn (x)δ(f − mx/ny)

0

ˆ∞

(7.39)

dyψm (y)ψn (nyf /m)y ,

0

wobei wir verwendet haben, dass die χ 2 −Variable y positiv ist und dass ∂f /∂x = m/ny. Wiederum sammelt die Delta-Funktion alle Werte von x und y, die in f = mx/ny resultieren. Durch Einsetzen der Definition von ψm und ψn erhalten wir

7  Regressionsmodelle und Hypothesentests

96

 n/2−1 ˆ∞ nf n/m y(m+n)/2−1 e−y(1+nf /m)/2 dy �n,m (f ) = m/2+n/2 2 Ŵ(m/2)Ŵ(n/2) m 0

(7.40)

Ŵ((m + n)/2)  n n/2 f n/2−1 , = Ŵ(m/2)Ŵ(n/2) m (1 + nf /m)(n+m)/2 wobei wir im zweiten Schritt z = (1 + nf /m)y/2 einsetzen und dann das verbleibende Integral als Darstellung einer Gamma-Funktion mit Argument schreiben. Beachten Sie, dass die spezifische Kombination von (n + m)/2  Gamma-Funktionen als Beta-Funktion B(p, q) ausgedrückt werden kann mit [4]

B(p, q) =

Ŵ(p)Ŵ(q) , Ŵ(p + q)

was es uns ermöglicht, die F−Verteilung in der Form  n n/2 1 f n/2−1 �n,m (f ) = B(n/2, m/2) m (1 + nf /m)(n+m)/2

(7.41)

(7.42)

zu schreiben, was deutlich zeigt, dass es nur von der Anzahl der Freiheitsgrade m = N − q und n = q − p abhängt. Wir können es jetzt verwenden, um zu beurteilen, ob wir n zusätzliche Anpassungsparameter in ein Modell einbeziehen müssen und ob diese zusätzliche Komplexität den Aufwand wert ist. Abb. 7.8 zeigt die F−Verteilungsfunktion für einige Werte von n und m. In den ersten beiden Fällen haben wir eine kleine Anzahl von Freiheitsgraden N − q = m = 5 wo wir q Parameter an N Datenpunkte anpassen. Wir vergleichen dann, welche Verteilungen unserer Testcharakteristik f wir erwarten können, wenn wir n zusätzliche Anpassungsparameter hinzufügen. Die gestrichelte blaue Linie entspricht einer Situation, in der wir n = 2 zusätzliche Anpassungsparameter hinzufügen. Wir sehen, dass die Verteilungsfunktion nahe Null spitz zuläuft, was darauf hinweist, dass kleine Werte von f sehr wahrscheinlich sind. Hinzufügen eines dritten Anpassungsparameters (n = 3) lässt �3,5 (f ) die Form anzunehmen, die durch die punktiert gestrichene rote Linie angezeigt wird. Jetzt sind sehr kleine Werte nahe Null weniger wahrscheinlich und die Verteilung zeigt einen Peak. Die durchgehende schwarze Linie in Abb. 7.8 zeigt einen Fall, in dem wir n = 10 zusätzliche Anpassungsparameter zu einer Anpassung hinzufügen, die ursprünglich N − q = m = 30 Freiheitsgrade hatte. Wir beobachten, dass der Peak der Verteilung sich in Richtung f = 1 bewegt, aber ziemlich breit ist und signifikante Schwänze zeigt. Um intuitiv beurteilen zu können, ob eine gefundene f-Statistik wahrscheinlich ist oder nicht, berechnen wir die Wahrscheinlichkeit, dass ihr Wert sogar noch kleiner oder größer ist, je nachdem, ob wir einen besonders kleinen oder großen Wert von f finden. Die Wahrscheinlichkeit kann in Bezug auf die kumulative Verteilungsfunktion von �n,m (f ) ausgedrückt werden durch

7.7  F-Test

97

, , , ,

Abb. 7.8  Die F−Wahrscheinlichkeitsverteilungsfunktion �n,m (f ) aus (7.42) für einige Kombinationen von n und m

ˆf 0

n

1 �n,m (f ′ )df ′ =  n m  B 2, 2 1 = n m B 2, 2

ˆm f 0

n

t 2 −1 dt (1 + t)

n+m 2

(7.43)

nf

ˆm+nf 0

n

m

u 2 −1 (1 − u) 2 −1 du

n m = Ixˆ , 2 2

mit xˆ = nf /(m + nf ) und wo wir die Substitution t = u/(1 − u) in der zweiten Gleichheit verwendet haben. Ixˆ (a, b) ist die (regularisierte) unvollständige BetaFunktion [4], die wir bereits in (7.34) begegnet sind, und B(a, b) ist die BetaFunktion [4]. Nun, um die Wahrscheinlichkeit zu bewerten, ist der p-Wert p(f), einen noch kleineren Wert f zu finden, gegeben durch p(f ) = Ixˆ (n/2, m/2). Beachten Sie, dass xˆ von f abhängt. Umgekehrt wird die Wahrscheinlichkeit, einen größeren Wert zu finden, der auf der rechten Seite des Maximums relevant ist, durch p(f ) = 1 − Ixˆ (n/2, m/2) gegeben. Die Ablehnung von Hypothesen funktioniert genauso wie oben in Abschn. 7.6 besprochen. Wenn ein F−-Wert f, berechnet aus Daten, in den Schwänzen der Verteilung liegt und den Wert für eine 10 % Schwanzfraktion übersteigt, sagen wir, dass die Hypothese auf dem 10 % Niveau abgelehnt wird.

7  Regressionsmodelle und Hypothesentests

98

7.8 Sparsamkeit In der Philosophie ist ein Rasiermesser ein Kriterium um Erklärungen zu entfernen, die ziemlich unwahrscheinlich sind. Das Bild, etwas Unerwünschtes abzurasieren, zum Beispiel den Bart, kommt in den Sinn. Ein bekanntes Beispiel ist das Ockhamsche Rasiermesser, das aus dem Lateinischen übersetzt lautet: „Man sollte nicht mehr Dinge annehmen, als notwendig sind.“ Heute wird es oft umformuliert als „Die einfachere Lösung ist wahrscheinlich die richtige.“ Angewendet auf unsere Regressionsanalyse und das Anpassen von Parametern an Modelle, leitet es uns an, Modelle mit so wenigen Anpassungsparametern wie möglich zu suchen, was auch als Prinzip der Sparsamkeit bezeichnet wird. Es hilft uns zu vermeiden, unnötige Parameter zu einem Modell hinzuzufügen, die dann zu einer Überanpassung führen können, die dazu führt, dass die Modellparameter stark durch Rauschen in den Daten beeinflusst werden oder überbestimmt werden. Ein solches Modell funktioniert dann sehr gut mit dem vorhandenen Datensatz mit seinem speziellen Rauschspektrum, aber seine Vorhersagekraft zur Erklärung neuer Daten ist begrenzt. Ein klassisches Beispiel für Überanpassung ist die Anpassung eines Polynoms vom Grad n − 1 an n Datenpunkte. Bei vielen Datenpunkten ist das Polynom von sehr hoher Ordnung. Es passt perfekt zum Datensatz und macht das χ 2 der Anpassung zu null, aber außerhalb des Bereichs des ursprünglichen Datensatzes treten typischerweise große Ausschläge auf. Jeder zusätzliche Datenpunkt wird wahrscheinlich nicht gut durch dieses stark überbestimmte Polynom beschrieben. Ein weiterer Grund, zu viele Anpassungsparameter zu vermeiden, ist, dass Gruppen von Parametern stark korreliert sind und diese Entartung wiederum stark vom Rauschen beeinflusst wird. Es ist daher ratsam, ein Modell mit der geringsten Anzahl von Anpassungsparametern zu konstruieren - sparsam, mit anderen Worten. Die Verwendung weniger Parameter macht Modelle daher robuster gegen den trügerischen Einfluss von Rauschen. Jetzt, da wir die Methoden haben, um Parameter an Modelle anzupassen und ihre Gültigkeit und Robustheit zu bewerten, können wir uns die Zeitreihen genauer ansehen und nützliche Informationen aus den Rohdaten extrahieren. Übungen 1. In einem Experiment haben Sie den Parameter y aufgezeichnet, während Sie einen anderen Parameter s in Tab. 7.1 geändert haben. (a) Sie erwarten eine lineare Abhängigkeit zwischen s und y und setzen daher (7.1) auf, verwenden

Tab. 7.1  Parameter s und Messwert y für Übung 1. Die letzte Zeile zeigt die Fehlerbalken für (b)

s y σ

−2

−1

0

1

2

2

−7,0

−3,5

−3,3

1

2

3

4

5

0,1

1,6

0,3

1,5

5,5

2

2

2

2

1

Literatur

99

die Methoden aus Abschn. 7.1 und bestimmen die Steigung a und den Achsenabschnitt b einer Geradenanpassung an die Daten. Wenn Sie annehmen, dass alle Fehlerbalken σ = 1 sind, welche Werte erhalten Sie für a und b und was sind die Fehlerbalken dieser Anpassungsparameter. (b) Sie stellen fest, dass Sie beim Aufzeichnen der Datenpunkte im Bereich −1 < s < 4 weniger sorgfältig waren. Sie verdoppeln daher die Fehlerbalken für die entsprechenden Datenpunkte, wie in der letzten Zeile der Tabelle angegeben, und führen die Anpassung erneut durch. Welche Werte erhalten Sie für a und b und was sind ihre Fehlerbalken? 2. Berechnen Sie den R-Wert der Daten und der Anpassung aus Übung 1a. 3. Verwenden Sie (7.5) und (7.6) um zu beweisen, dass (7.7) korrekt ist. 4. Wenn x eine Gaußsche Zufallsvariable ist, berechnen Sie die Wahrscheinlichkeitsverteilungsfunktionen von (a) y = x − a, (b) y = bx, und (c) y = cx 2. 5. Sie wissen, dass die Daten in der Datei ex7_5.dat, die auf der Webseite des Buches verfügbar sind, von einem Prozess stammen, der durch ein Polynom dritter Ordnung angepasst werden kann. (a) Stellen Sie die Daten dar. (b) Finden Sie die Koeffizienten eines Polynoms dritter Ordnung in einer Regressionsanalyse. (c) Schätzen Sie die Fehlerbalken σy der y-Werte (die „Messungen“) aus der rms-Abweichung Ihres Anpassungspolynoms zu den Datenpunkten. Beachten Sie, dass dies ein sehr heuristischer Ansatz zur Schätzung von Fehlerbalken ist und kritisiert werden kann! (d) Berechnen Sie die Kovarianzmatrix, basierend auf Ihrer Schätzung der Fehlerbalken σy , und leiten Sie die Fehlerbalken der Polynomkoeffizienten ab. Gibt es einen Koeffizienten, der so klein ist, dass er mit Null übereinstimmt. (e) Bestimmen Sie seinen F-Wert fˆ und die Wahrscheinlichkeit, einen F-Wert zu finden, der sogar größer ist als fˆ . 6. Verfolgen wir die Qualitätskontrolle bei Guinness vom Ende des Abschn. 7.5 weiter und nehmen wir an, dass wir einen fünften Sack Gerste mit dem Testergebnis x = 13. testen. Wie lautet nun der 90 %ige Konfidenzbereich? Wenn wir mit einem Konfidenzniveau von 80 % zufrieden wären, wie würde dieser Bereich aussehen?

Literatur 1. US Bureau of Labor Statistics data on educational attainment (2018). https://www.bls.gov/ emp/tables/unemployment-earnings-education.htm 2. Novel Coronavirus COVID-19 (2019-nCoV) Data Repository by Johns Hopkins CSSE (2019). https://github.com/CSSEGISandData/COVID-19 3. H. Hethcote, The mathematics of infectious diseases. SIAM Rev. 42, 599 (2000) 4. M. Abramowitz, I. Stegun, Handbook of Mathematical Functions (Dover, New York, 1972) 5. G. Casella, R.L. Berger, Statistical Inference, 2. Aufl. (Brooks/Cole, 2008)

8

Zeitreihen

Zusammenfassung

Dieses Kapitel führt die Box-Jenkins-Methodik zur Analyse von Zeitreihendaten ein, die zunächst Trend und Saisonalität entfernt, bevor versucht wird, die verbleibende Zeitreihe durch gleitende Durchschnitte oder autoregressive Modelle zu erklären. Um die Ordnung eines Prozesses zu bestimmen, werden Autokorrelations- und partielle Autokorrelationsfunktionen eingeführt. Sie werden dann verwendet, um ein geeignetes Modell für die Dynamik zu konstruieren. Alle Konzepte werden mit Umweltdaten veranschaulicht. Später im Kapitel werden die grundlegenden Ideen hinter Prognoseanwendungen entwickelt. Eine Diskussion über verschiedene Arten von Modellen, darunter ARIMA, EWMA und GARCH, schließt die Präsentation ab. Daten in Physik, Finanzen und anderen Bereichen werden oft mit einer konstanten Rate produziert. Beispiele sind Aktienkurse, die täglich, stündlich oder sogar im Bruchteil einer Sekunde aktualisiert werden und wir versuchen, Informationen aus den Daten zu extrahieren. Wir könnten entweder versuchen, • ein Modell zu bestimmen, um die Dynamik des Systems zu charakterisieren; • die nächsten Datenpunkte zu prognostizieren oder vorherzusagen; • inhärente Eigenschaften der Daten abzuleiten, zum Beispiel ihre Volatilität.

Ergänzende Information Die elektronische Version dieses Kapitels enthält Zusatzmaterial, auf das über folgenden Link zugegriffen werden kann 10.1007/978-3-031-36964-3_8. Die Videos lassen sich durch Anklicken des DOI Links in der Legende einer entsprechenden Abbildung abspielen, oder indem Sie diesen Link mit der SN More Media App scannen. © Der/die Autor(en), exklusiv lizenziert an Springer Nature Switzerland AG 2023 V. Ziemann, Physik und Finanzen, https://doi.org/10.1007/978-3-031-36964-3_8

101

8 Zeitreihen

102

In den folgenden Abschnitten werden wir diese Punkte nacheinander behandeln. Inspiriert von der Diskussion auf der NIST-Website [1, 2] basieren wir unsere Diskussion auf Messungen der CO2 Konzentration vom Mauna Loa Observatorium in Hawaii. Zeitreihen der durchschnittlichen monatlichen Messungen von 1958 bis heute sind in der Datei co2_mm_mlo.txt aus [3] verfügbar. Wir formatieren die Daten in dieser Textdatei neu, extrahieren Daten für den Zeitraum zwischen 1995 und 2008 und erzeugen eine Datei, die drei Spalten enthält: das Datum in Dezimalform, die durchschnittliche monatliche CO2 Konzentration ausgedrückt in µMol/Mol trockener Luft und der Monat als Zahl (Jan = 1,…, Dez = 12). Wir zeigen die ersten paar Zeilen, um dieses Format zu veranschaulichen. 1995.04 1995.12 1995.21 2010.96

359.92 360.86 361.83 : 389.79

1 2 3 12

Abb. 8.1  Die CO 2 Konzentration bei Mauna Loa von 1995 bis 2008 [3] und eine lineare Anpassung an die Daten

CO2 Konzentration

Wir können einen ersten Eindruck von den Daten erhalten, indem wir einfach die Datenpunkte plotten, wie in Abb. 8.1 gezeigt. Wir beobachten eine periodische – saisonale – Variation auf einer linear ansteigenden Basislinie – einem Trend – mit einigen verbleibenden Restschwankungen. Unsere Aufgabe besteht darin, zunächst die offensichtlichen Variationen (Trend und möglicherweise Saisonalität) zu beschreiben und dann ein Modell zu erstellen, das die Restschwankungen berücksichtigt, in dem Sinne, dass wir ein dynamisches Modell oder einen (digitalen) Filter (FIR oder IIR, endliche oder unendliche Impulsantwort) konstruieren möchten, der weißes Rauschen in das Restschwankungsmuster umwandelt. Aber zuerst die ersten Dinge: Lassen Sie uns Trend und Saisonalität entfernen.

Daten lineare Anpassung

Jahr

8.1  Trend und Saisonalität

103

8.1 Trend und Saisonalität In unseren Beispieldaten scheint der Trend linear zu sein, aber in anderen Fällen könnte er quadratisch sein oder eine andere funktionale Abhängigkeit von der Zeit oder der Stichprobennummer haben. Da er hier linear zu sein scheint, passen wir eine Gerade des Typs y = p1 + p2 x mit Achsenabschnitt p1 und Steigung p2 an die Rohdaten an, die als Gerade in Abb. 8.1 dargestellt ist. Wir subtrahieren dann diese Linie von den Rohdaten und zeigen das Ergebnis in Abb. 8.2, wo der Trend entfernt ist und die saisonalen Variationen das auffälligste verbleibende Merkmal sind. Die saisonale Schwankungen werden deutlich, wenn man die CO2 Konzentration nach Trendentfernung als Funktion des Monats darstellt, was wir in Abb. 8.3 zeigen, wo es mehrere Datenpunkte für jeden Monat aus den verschiedenen Jahren

CO2 (Trend entfernt)

Abb. 8.2  Die CO 2 Konzentration mit entferntem Trend

CO2 (Trend entfernt)

CO2 (Trend entfernt)

Jahr

Monat

Monat

Abb. 8.3  Die CO 2 Konzentration mit entferntem Trend, dargestellt gegen die Monatsnummer. Links sind die Rohdatenpunkte und rechts ein Box-Plot

8 Zeitreihen

Abb. 8.4  Die CO 2 Konzentration mit entferntem Trend und differenziert mit Verzögerung 12 zur Entfernung der Saisonalität

CO2 (kein Trend, keine Saison)

104

Zeit

gibt. Die sinusförmige Oszillation ist deutlich sichtbar und dass Monate verschiedener Jahre um denselben Wert herum gruppiert sind. Die Gruppierung kann sehr offensichtlich gemacht werden, indem man einen Box-Plot verwendet, gezeigt für die gleichen Daten auf der rechten Seite in Abb. 8.3. Für jeden Monat zeigt es das Median als eine rote Linie und die zentralen 50 % der Datenpunkte (25–75 % Perzentil) als eine Box und die extremen Werte werden als kurze horizontale Markierungen dargestellt. Es ermöglicht uns, die Qualität der Periodizität zu beurteilen und ob die monatlichen Schwankungen im Vergleich zur innermonatlichen Streuung signifikant sind, was sie hier eindeutig sind. Eine Möglichkeit, den größten Teil der Saisonalität zu entfernen, besteht darin, die Daten mit der Verzögerung der Saisonalität zu differenzieren, vorausgesetzt, sie ist bekannt. Bei diesem Verfahren wird eine neue Zeitreihe sk erzeugt, indem die Daten der ursprünglichen Reihe am Punkt k − 12 von dem am Punkt k subtrahiert werden, oder sk = xk − xk−12 , wobei xk die ursprüngliche Zeitreihe ist. Die resultierende Zeitreihe nach der Differenzierung ist in Abb. 8.4 dargestellt. Wir sehen, dass die Saisonalität entfernt ist. Wir stellen fest, dass die resultierende Zeitreihe nach Entfernung von Trend und Saisonalität immer noch keinem weißes Rauschen ähnelt. Daher besteht unsere Aufgabe darin, einen Filter zu konstruieren, der weißes Rauschen in die in Abb. 8.4 dargestellte Zeitreihe umwandelt. Wenn uns dies gelingt, haben wir das System nach bestem Wissen und Gewissen charakterisiert, denn alle Informationen über die Dynamik sind in den Filterkoeffizienten codiert und alles, was wir über das weiße Rauschen, das das System anregt, wissen können, ist seine RMS-Amplitude.

8.2 MA, AR und ARMA Lassen Sie uns beginnen, indem wir das weiße Rauschen durch seine Zeitreihe εi spezifizieren. Dies beschreibt eine Reihe von Schocks εj, die ein System anregen. Die Statistik der Schocks wird gegeben durch

8.2  MA, AR und ARMA

105

�εi � = 0

und

�εi εj � = σ 2 δij ,

(8.1)

wobei die spitzen Klammern den Durchschnitt über das Ensemble der Schocks oder über die Zeit bezeichnen. Dies bedeutet im Grunde, dass die Schocks einen Null-Mittelwert haben, Varianz σ 2, und von Schock zu Schock unkorreliert sind. Wir nehmen an, dass eine Reihe dieser Schocks unser System anregt, das wir als einen Prozess modellieren, der bestimmte Merkmale aus dem weißen Rauschen extrahiert und als Filter modelliert wird. Das einfachste Modell ist ein gleitender Durchschnitt oder MA-Prozess, der eine Anzahl von n + 1 aufeinanderfolgenden Schocks multipliziert εi mit festen Zahlen aj und gibt ihre gewichtete Summe

yi =

n 

aj εi−j

(8.2)

j=0

aus. Beachten Sie, dass die Ausgabe yi das Skalarprodukt der Filterkoeffizienten und der letzten n + 1 Schocks ist. Wir können uns dies so vorstellen, dass die Filterkoeffizienten ein Fenster bereitstellen, durch das wir die Sequenz der Schocks εi beobachten. Als Beispiel betrachten Sie den MA-Prozess mit allen n + 1 Koeffizienten gleich ak = 1/(n + 1), was das gleitende Mittel von n + 1 aufeinanderfolgenden Schocks berechnet. Die Notation in (8.2) macht es leicht zu verstehen, warum der Prozess „gleitender Durchschnitt“ genannt wird. In der Literatur wird jedoch häufig eine Notation verwendet, bei der der erste Koeffizient auf Eins gesetzt und die verbleibenden Koeffizienten durch θ mit umgekehrtem Vorzeichen bezeichnet werden. Ein allgemeiner MA(q) Prozess ist daher gegeben durch

yi = εi − θ1 εi−1 − · · · − θq εi−q

(8.3)

mit den Koeffizienten θk in Bezug auf die Koeffizienten aj durch a0 = 1 und aj = −θj für j > 0. Wir weisen darauf hin, dass in der Elektrotechnik (8.2) als Finite-Impulsantwort (FIR) Filter bezeichnet wird, vorausgesetzt, dass die zufälligen Stöße εj durch ein abgetastetes Eingangssignal xj ersetzt werden. Das Ausgangssignal yi wird dann durch den gewichteten Durchschnitt der neuesten Eingangsproben xj gegeben, wobei die Filterkoeffizienten aj die auf die jeweiligen Samples angewendeten Gewichte sind. Der Name „Finite-Impulsantwort“ beschreibt das Merkmal, dass ein bestimmtes Eingangssample xj endlich viele, nämlich n + 1 Zeitschritte benötigt, um durch das Filter zu fließen. Zum Beispiel wird ein Eingangssignal mit einem einzigen Nicht-Null-Wert xk = 1 die Filterkoeffizienten als Ausgangssignal yi erzeugen. Ein etwas komplexerer Filter ist ein Filter mit unendlicher Impulsantwort (IIR), der darauf basiert, einen Bruchteil des Ausgangssignals zurück zum Eingang zu speisen. Seine funktionale Abhängigkeit wird durch

yi =

n  j=1

bj yi−j + a0 xi

(8.4)

8 Zeitreihen

106

gegeben, wobei die Koeffizienten bk die Gewichte beschreiben, wie viel von den vorherigen Ausgangssignalen yi−j zurück zum Eingang gespeist wird. Der Name „unendlicher Impuls“ beschreibt das Merkmal, dass Kombinationen von Koeffizienten dazu führen können, dass eine einzelne Nicht-Null-Eingabeprobe zu einem Ausgangssignal mit unendlicher Dauer führt. Ein Beispiel für einen IIR-Filter ist der exponentiell gewichtete gleitende Durchschnitt (EWMA) Filter, der gegeben wird durch

yi =

1 (myi−1 + xi ) , m+1

(8.5)

bezogen auf die Koeffizienten in (8.4) durch b1 = m/(m + 1) und a0 = 1/(m + 1) definiert. Die Interpretation ist unkompliziert. Die Ausgabe besteht aus einer stark gewichteten vorherigen Probe (mit Gewicht m/(m + 1)) und einem schwach gewichteten neuen Probe-Update (mit Gewicht 1/(m + 1)). Dieser Filter ist auch ein Tiefpassfilter, da er Schwankungen des Eingangssignals xi über ungefähr m Proben glättet. IIR- und FIR-Filter werden häufig in digitalen Datenerfassungsanwendungen verwendet, um verrauschte Signale zu bereinigen. Aber lassen Sie uns zur Diskussion von statistischen Prozessen zurückkehren, die durch zufällige Stöße εj angeregt werden. In der Zeitreihenliteratur werden die Prozesse, die den IIR-Filtern aus der Elektrotechnik entsprechen, als autoregressive (AR) Prozesse bezeichnet, die das Zurückführen des Ausgangs auf den Eingang beschreiben. Wieder variiert die Nomenklatur ein wenig und wir schreiben

yi = φ1 yi−1 + · · · + φp yi−p + εi =

p 

φj yi−j + εi

(8.6)

j=1

um einen AR(p) Prozess zu bezeichnen. Es ist nicht überraschend, dass die kombinierte Wirkung eines gleitenden Durchschnittsprozesses und eines autoregressiven Prozesses als ARMA (p,q) Prozess bezeichnet wird und seine funktionale Beschreibung die Summe der Wirkung eines MA- und eines AR-Prozesses ist

yi = φ1 yi−1 + · · · + φp yi−p + εi − θ1 εi−1 − · · · − θq εi−q ,

(8.7)

wobei wir die üblicherweise verwendeten Variablen θj und φj verwenden, um die Koeffizienten zu bezeichnen, die diesen ARMA(p,q) Prozess beschreiben. Hier betrachten wir nur stationäre Prozesse in dem Sinne, dass die Koeffizienten θj und φk für die gesamte Dauer der von uns aufgezeichneten Zeitreihe konstant sind. Lassen Sie uns nun zur CO2 Zeitreihe yi, dargestellt in Abb. 8.4, zurückkehren und die Eignung der in diesem Abschnitt diskutierten Prozesse zur Charakterisierung dieser Zeitreihe untersuchen. Wir müssen daher die Koeffizienten θj und φj ermitteln, die die yi aus Schocks εi , wie in (8.1) definiert, erzeugen. Aber zuerst müssen wir herausfinden, welche Ordnungen der Prozesse p und q geeignet sind. Dies wird durch die Autokorrelationsfunktion (ACF) und die partielle Autokorrelationsfunktion (PACF) erleichtert.

8.3  Auto-Kovarianz und Autokorrelation

107

8.3 Auto-Kovarianz und Autokorrelation Wir betrachten zuerst den MA(q) Prozess aus (8.3) und berechnen die AutoKovarianzen γj, die die gemittelten Summen der Zeitreihen yi sind, gewichtet durch die um j Proben verschobene Zeitreihe yi−j, wobei wir annehmen, dass undefinierte Proben null sind (8.8)

γj = �yi yi−j � ,

wobei die spitzen Klammern ein Durchschnitt über verschiedene Realisierungen des Rauschprozesses εi darstellen. Beachten Sie, dass die Autokovarianzen γj symmetrisch sind in dem Sinne, dass γj = γ−j . Um zu erforschen, wie diese Grössen nützlich sein können, berechnen wir die Autokorrelation γj für einen MA(q) Prozess, der durch (8.3) mit q = 1 gegeben ist, also yi = εi − θ1 εi−1 . Für γ0 erhalten wir dann

γ0 =�(εi − θ1 εi−1 )2 � 2 � =�εi2 − 2θ1 εi εi−1 + θ12 εi−1

(8.9)

=σ 2 (1 + θ12 ) , wobei wir (8.1) verwenden, um den Durchschnitt über die Schocks zu berechnen. Für die anderen Autokovarianzen γj finden wir

γ1 =�(εi − θ1 εi−1 )(εi−1 − θ1 εi−2 )� = −θ1 σ 2 γ2 =�(εi − θ1 εi−1 )(εi−2 − θ1 εi−3 )� = 0

(8.10)

und alle höheren γj mit  j > 1 sind ebenfalls null. Dies ist bemerkenswert, da es uns helfen wird, die Ordnung des Prozesses zu schätzen und zu charakterisieren, wenn wir Schätzungen der Kovarianzen aus einer gegebenen Zeitreihe berechnen. Die Autokorrelationen (ACF) ρj sind definiert als die Autokovarianzen γj, geteilt durch γ0

ρj =

γj , γ0

(8.11)

was die Autokorrelationen dimensionslos macht. Sie hängen weder von den physikalischen Einheiten des Prozesses ab noch von der numerischen Größe der Zeitreihenwerte yi . Wenn wir auf höhere Ordnungen MA(q)-Prozesse verallgemeinern, stellen wir fest, dass γ0 und die γj höherer Ordnung auf die gleiche Weise wie zuvor berechnet werden können. Sie werden gegeben durch γ0 =�(εi − θ1 εi−1 − · · · − θq εi−q )2 � =σ 2 (1 + θ12 + · · · + θq2 ) γj =σ 2 (−θj + θ1 θj+1 + · · · + θq−j θq ) γj = 0

for 1 < j < q for j > q.

(8.12)

8 Zeitreihen

108

Wieder sehen wir, dass alle Koeffizienten für j > q verschwinden. Die ACF ρj sind auf die gleiche Weise definiert wie für den Fall q = 1 , indem die γj durch γ0 normalisiert werden, wie in (8.11). In der Praxis berechnen wir Schätzungen für die γj aus den Zeitreihendaten yi wie zum Beispiel die aus Abb. 8.4, plotten sie und prüfen, ob einige deutliche Spitzen auftauchen und ob die Kovarianzen oder Korrelationen jenseits eines Cut-Offs verschwinden, was wir als die Ordnung q des Prozesses interpretieren können. Lassen Sie uns kurz diskutieren, was „verschwinden“ oder „klein“ in diesem Kontext bedeutet, basierend auf einer sehr heuristischen und qualitativen Diskussion. Die Autokovarianzen werden aus der Summe von n Produkten yi yi−j berechnet und wir können intuitiv verstehen, dass eine zunehmende Anzahl von Datenpunkten n die Präzision verbessert, mit der die Autokovarianzen berechnet werden können. Da die zufällige Komponente der yi unkorreliert sind, können wir annehmen, dass das Produkt von zwei solchen Parametern√ unkorreliert ist. Die zufällige Komponente des Koeffizienten γj wird daher wie n wachsen, während die Größe von γj und auch γ0 linear mit n wachsen wird. Aus diesen beiden Abhängigkeiten von der Länge der Zeitreihe n können wir intuitiv verstehen, dass √ die zufällige Komponente der Autokorrelationen ρj , mit 1/ n, abnehmen wird, wobei dies den Standardfehler der Zufallskomponente anzeigt. Siehe Quenouille [4] für eine detailliertere Diskussion dieser Abhängigkeit. Aber wir können diese Information verwenden, um zu spezifizieren, was wir mit „klein“ meinen, nämlich dass √ der Koeffizient ρj klein ist im Vergleich zu zwei Mal dem Standardfehler oder ±2/ n, was das Band anzeigt, das dem 95 % Konfidenzniveau im Sinn von Abschn. 7.5 entspricht. Nachdem wir die MA-Prozesse und die Interpretation der Größe der Koeffizienten in Autokorrelationsdiagrammen betrachtet haben, müssen wir die Autokovarianzen und Autokorrelationen der AR(p) Prozesse aus (8.6) untersuchen. Wie zuvor betrachten wir zuerst den einfachsten Prozess mit p = 1, der gegeben ist durch yi = φ1 yi−1 + εi . Die Autokovarianzen sind gegeben durch (8.8) und können berechnet werden, indem man ein System im Ruhezustand betrachtet mit yj = 0 für j < 0 bevor die Sequenz der Schocks beginnt, das System zu erregen. Nach der ersten Iteration haben wir y1 = ε1 und nach der zweiten Iteration haben wir y2 = ε2 + φ1 ε1 und nach der dritten y3 = ε3 + φ1 ε2 + φ12 ε1 . Offensichtlich hängt der Wert von yi von den aktuellen und allen vorherigen j Schocks εi−j mit i ≥ 0 ab, wobei jeder Schock durch φ1 gewichtet wird. Wenn wir dies verallgemeinern, können wir schreiben

yi = εi + φ1 εi−1 + φ12 εi−2 + · · · =

∞ 

j

φ1 εi−j .

(8.13)

j=0

In dieser Form können wir die Autokovarianzen berechnen als

γ0 =�yi yi � = σ 2 (1 + φ12 + φ14 + · · · ) j

γj =�yi yi−j � = σ 2 φ1 (1 + φ12 + φ14 + · · · )

(8.14)

8.4  Partielle Autokorrelationsfunktion

, Autokorrelation ρ j

Abb. 8.5  Die Autokorrelationen ρj versus j der CO 2 Konzentration mit entferntem Trend und differenziert mit Lag 12 zur Entfernung der Saisonalität. Die roten Linien kennzeichnen die 95 % Konfidenzniveaus

109

, , ,

, , Indexverschiebung j

und, vorausgesetzt, dass |φ1 | < 1, können wir die Reihe summieren und kommen zu

γ0 =

j

σ2 1 − φ12

und

γj =

σ 2 φ1 . 1 − φ12

(8.15)

Die Autokorrelationen ρj ergeben sich dann zu

ρj =

γj j = φ1 , γ0

(8.16)

was impliziert, dass die Autokorrelationen ρj von j = 0 hin zu größeren j exponentiell abnehmen, was die Signatur eines AR(1)-Prozesses ist. Zurückkehrend zu den Daten in Abb. 8.4, zeigen wir die ACF für die CO2 Daten nach Entfernung von Trend und Saisonalität in Abb. 8.5. Die roten Linien kennzeichnen das 95 % Konfidenzniveau um Null. Wir sehen, dass eine große Anzahl von Autokorrelationen hoch relevant sind und kein Cut-off sichtbar ist. Andererseits scheint es einen exponentiellen Abfall der ρj als Funktion der Verschiebung j zu geben, was darauf hindeutet, dass der zugrunde liegende Prozess vom AR-Typ ist. Die große Anzahl von nicht vernachlässigbaren Autokorrelationen macht es schwierig, die relevanten Parameter φj direkt zu identifizieren. Um diesen Mangel zu beheben, diskutieren wir eine Methode zur Bestimmung der wichtigsten Parameter im folgenden Abschnitt.

8.4 Partielle Autokorrelationsfunktion Zuerst bestimmen wir Beziehungen zwischen den experimentell bestimmten Autokorrelationen ρj und den gesuchten Parametern φk . Eine solche Beziehung für AR(p) Prozesse kann gefunden werden, indem die Definition des AR-Prozesses aus (8.6) in die Definition der Autokovarianzen eingesetzt wird. Zuerst betrachten wir γ0

8 Zeitreihen

110

γ0 = �yi yi � = φ1 γ1 + · · · + φp γp + σ 2 f¨ur j = 0 , (8.17)    p wobei der Term σ 2 von �εi yi � = �εi εi + j=1 φj yi−j � = σ 2 kommt. Für γj mit j > 0 berechnen wir γj =�(φ1 yi−1 + · · · + φp yi−p + εi )yi−j � =φ1 �yi−1 yi−j � + · · · + φp �yi−p yi−j � + �εi yi−j � für j > 0, =φ1 γj−1 + · · · + φp γj−p

(8.18)

wobei �εi yi−j � = 0, weil die Schocks zu einem späteren Zeitpunkt i nicht mit dem Zeitreihenwert yi−j korreliert sind, der ihm vorausgeht. Wenn wir die Gleichungen für γj durch γ0 teilen, erhalten wir die folgende Beziehung für die Autokorrelationen ρj

ρj = φ1 ρj−1 + φ2 ρj−2 + · · · + φp ρj−p .

(8.19)

mit ρ0 = 1 und ρj = ρ−j . Diese Gleichungen werden als Yule-Walker-Gleichungen bezeichnet. Sie zeigen, dass die Autokorrelationen ρj die gleiche Rekursionsrelation wie die ursprüngliche Zeitreihe befolgen, jedoch ohne die zufälligen Schocks εk. Wenn wir (8.19) für aufeinanderfolgende j schreiben, erhalten wir ein System von Gleichungen für die AR(p) Koeffizienten φj

ρ1 =φ1 + φ2 ρ1 + · · · + φp ρp−1 ρ2 =φ1 ρ1 + φ2 + · · · + φp ρp−2 .. . ρp =φ1 ρp−1 + φ2 ρp−2 + · · · + φp .

(8.20)

Dieser Satz von Gleichungen kann in eine matrixwertige Gleichung umgewandelt werden, mit dem Ergebnis



  ρ1 1 ρ1  ρ2   ρ1 1      ..  .. .. . = . .     ρp−1   ρp−2 ρp−3 ρp ρp−1 ρp−2

  . . . ρp−1 φ1   . . . ρp−2   φ2   ..  .. ..   . .    . . . . ρ1  φp−1  ... 1 φp

(8.21)

und, wenn die Matrix nicht entartet ist, können wir die Koeffizienten φj durch Invertieren der Matrix bestimmen. Wir erhalten damit



  φ1 1 ρ1  φ2   ρ1 1     ..   .. .. . = . .     φp−1   ρp−2 ρp−3 φp ρp−1 ρp−2

 −1  . . . ρp−1 ρ1   . . . ρp−2    ρ2     . . .. . , . ..   .  . . . ρ1   ρp−1  ... 1 ρp

(8.22)

8.4  Partielle Autokorrelationsfunktion

111

vorausgesetzt, dass wir die Ordnung p des AR(p)-Prozesses kennen. Aber wir wissen das nicht a-priori. Nachdem wir jedoch zunächst die Schätzungen der Autokorrelationen berechnet haben, können wir (8.22) für zunehmende Werte von p = 1, 2, . . . , aufstellen, was zu einer Sequenz von linearen Systemen der Ordnung p = 1, 2, . . . . führt. Bei jedem Schritt notieren wir den Koeffizienten der höchsten Ordnung p, den wir φpp nennen. Dieser Koeffizient ist klein, wenn alle Informationen bereits durch die Koeffizienten niedrigerer Ordnung berücksichtigt sind. Ist er hingegen groß, trägt er neue Informationen. Indem wir die Anpassung mit progressiv steigender Ordnung p wiederholen und immer den Koeffizienten höchster Ordnung φpp , speichern, überprüfen wir schrittweise, ob der neue höchste Koeffizient neue Informationen beiträgt. Darüber hinaus, wenn die Ordnung des Prozesses, der die Zeitreihen erzeugt hat, aus denen die Autokorrelationen abgeleitet sind pˆ ist, sollten alle φpp mit p > pˆ null oder zumindest klein sein. Die Koeffizienten φpp werden als partielle Autokorrelationsfunktion (PACF) bezeichnet. Da sie oberhalb des Wertes von pˆ , charakteristisch für den zugrunde liegenden Prozess , klein oder null sind, liefern sie einen Cut-off, der uns hilft, das größte p zu identifizieren, das benötigt wird, um die Prozessdynamik angemessen zu beschreiben. In Abb. 8.6 zeigen wir die aus den in Abb. 8.5 dargestellten Autokorrelationen abgeleitete PACF für unsere CO2 Daten mit 95% Konfidenzniveau um Null, angezeigt als rote Linien. Hier finden wir, dass die Koeffizienten für p = 1 und 12 das 95% Konfidenzniveau deutlich überschreiten und die bei p = 7, 9, und 13 nur leicht. Im Sinne des Aufbaus eines sparsamen Modells wagen wir es, letztere zu vernachlässigen, weil das Modell niedrigster Ordnung mit p = 1 den größten Teil der Dynamik enthält und die p = 12 Komponente ist eine verbleibende saisonale Komponente, die unserem früheren Versuch, die Saisonalität zu entfernen, entgangen ist. Zusammenfassend ist unsere beste Vermutung für die Dynamik

yi = φ1 yi−1 + φ12 yi−12 + εi

Abb. 8.6  Die partiellen Autokorrelationen φjj gegen j der CO 2 Konzentration mit entferntem Trend und differenziert mit Verzögerung 12 zur Entfernung der Saisonalität. Die roten Linien kennzeichnen die 95% Konfidenzniveaus

Partielle Autokorrelation φjj

und wir werden die Parameter φ1 und φ12 im nächsten Abschnitt bestimmen.

,

, , ,

,

Indexverschiebung j

(8.23)

8 Zeitreihen

112

8.5 Bestimmung der Modellkoeffizienten Sobald wir wissen, dass der zugrunde liegende Prozess autoregressiv ist und welche Koeffizienten relevant sind, können wir ein Gleichungssystem aufstellen, aus dem wir dann die Koeffizienten φj . Wir schreiben einfach Kopien von (8.23) für i = 13, 14, . . . bis zum letzten Datenpunkt n und fügen Sie sie in Matrixform zusammen

  y12 y13  y14   y13     ..  =  .. .  . 



y1 y2 .. .

yn−1 yn−12

yn

� �  φ1 ,   φ12

(8.24)

was dieselbe Form hat wie (7.2) in Kap. 7. Wir lösen es im Sinne der kleinsten Quadrate mit Hilfe der Pseudoinversen aus (7.4)



φ1 φ12



 y13  �−1  �  y14  = At A At  .  ,  ..  

(8.25)

yn

wobei A die Matrix mit den beiden Spalten der verschobenen Datenpunkte aus (8.24) ist. Wir testen, wie gut unser Modell funktioniert, indem wir sowohl die Annäherung als auch die Originaldaten auf der linken Seite in Abb. 8.7 zeigen. Wir kommen zu dem Schluss, dass der allgemeine Trend der Daten ziemlich gut reproduziert wird, wenn man die geringe Anzahl von Anpassungsparametern berücksichtigt. Die Anpassungsresiduen werden in der Grafik auf der rechten Seite in Abb. 8.7 gezeigt. Wir kommen zu dem Schluss, dass das Verfahren der ersten Entfernung des Trends, dann der Saisonalität und schließlich der Identifizierung

CO2 (kein Trend, keine Saison)

Daten fit

Rückstände

,

,

, Jahr

Jahr

Abb. 8.7  Auf der linken Seite zeigen wir die Daten aus Abb. 8.4 (Sternchen) mit der angepassten Zeitreihe (durchgezogene rote Linie) und auf der rechten Seite zeigen wir die verbleibenden Unterschiede zwischen Daten und Anpassung

8.7 Prognose

113

eines bestimmten Modells mit Hilfe der ACF und PACF ein sparsames, aber trotzdem zufriedenstellendes Modell auf der Basis von nur zwei Parametern liefert. In unserem Beispiel wies die Analyse von ACF und PACF auf ein AR-Modell hin und die Anpassung war unkompliziert mit (8.24), da die Koeffizienten eines autoregressiven Prozesses nur von den bekannten Zeitreihendaten yi abhängen. Wenn die Analyse auf ein MA-Modell hingewiesen hätte, wäre dies nicht möglich gewesen, da die Anpassungsparameter durch die Entfaltung der Ausgangs- und Eingangsdaten gegeben sind. Aber die Eingangsdaten sind die Schocks, die wir leider nicht kennen.

8.6 Box-Jenkins Das Verfahren zur Analyse der früher in diesem Kapitel verwendeten Zeitreihen folgt in etwa dem Verfahren, das allgemein als Box-Jenkins-Verfahren [5] bezeichnet wird. Das Verfahren basiert auf den folgenden Schritten: • Plotten Sie die Daten und überprüfen Sie, ob sie stationär sind, entfernen Sie den Trend, falls notwendig. Wenn alle Werte positiv sind, sollten Sie den Logarithmus der Werte in Betracht ziehen. • Bestimmen Sie die Saisonalität oder Periodizität aus der spektralen Analyse (Fourier-Transformation, FFT), Autokorrelation oder anderen Informationen, zum Beispiel a-priori-Wissen. • Differenzieren Sie die Zeitreihe, um die Saisonalität zu entfernen und sie stationär zu machen. • Bestimmen Sie die Ordnung des ARMA-Prozesses aus der Autokorrelation und partiellen Autokorrelation des verbleibenden Zeitreihenplots. • Bestimmen Sie die Koeffizienten des Modells. • Überprüfen Sie, ob das Modell die Daten ausreichend beschreibt. Wenn die Anpassung nicht zufriedenstellend ist, verwenden Sie möglicherweise mehr oder andere Anpassungsparameter. • Sobald das Modell festgelegt ist, können wir es verwenden, um vorherzusagen, wie sich das System in der Zukunft entwickelt. Es gibt standardisierte Softwaretools, um all diese Schritte durchzuführen. Sie verwenden viel ausgefeiltere Verifizierungsalgorithmen als die, die wir in diesem Kapitel verwendet haben. Eine umfangreiche Liste verfügbarer Software wird auf Wikipedia unter der Überschrift Vergleich von statistischen Paketen gepflegt.

8.7 Prognose Im einfachsten Fall können wir das im vorherigen Abschnitt berechnete parsimonische Modell iterieren (und davon ausgehen, dass alle zukünftigen unbekannten Schocks gleich ihrem Erwartungswert null sind), um das Prognose-

8 Zeitreihen

114

ergebnis zu bestimmen. Dies funktioniert sowohl für MA-, AR- oder ARMAModelle. Die Fehlerbalken der vorhergesagten Werte sind jedoch am einfachsten zu bewerten, wenn wir ein MA-Modell haben. Daher präsentieren wir zunächst eine Methode, die ein AR(p) oder ARMA(p,q) Modell in ein MA(∞) Modell umwandelt, so dass wir später eine einheitliche Methode zur Prognose der Fehlerbalken vorstellen können. Zunächst führen wir den Verzögerungsoperator Lˆ  ein, das durch die folgende Beziehung auf jede abgetastete Variable yi

ˆ i = yi−1 , Ly

(8.26)

einen Wert in den vorherigen ändert. Wiederholte Anwendung von Lˆ erzeugt frühere Werte, so dass Lˆ m yi = yi−m . Diese Notation ermöglicht es uns, das allgemeine ARMA(p,q) Modell aus (8.7) zu schreiben als     p q � � 1 − φi Lˆ j yi = 1 − θj Lˆ j εi . (8.27) j=1

j=1

Vorausgesetzt,  in Lˆ keine Einheitswurzeln hat, können wir beide  dassdas Polynom p Seiten durch 1 − j=1 φi Lˆ j teilen, was zu folgendem Ergebnis führt   ∞ � yi = 1 − πj Lˆ j εi , (8.28) j=1

wobei wir die πj rekursiv, Ordnung für Ordnung, aus dem θi und dem φk berechnen können. Da wir alle tatsächlichen Werte εj bis zu j = m kennen, können wir die Prognosewert n Schritte in die Zukunft berechnen mit   ∞ � �ym+n � = 1 − πj Lˆ j εm . (8.29) j=n+1

Hier ersetzen wir frühere und unbekannte Werte von εm+k durch k = 1 . . . n durch ihren Erwartungswert, der null ist. Die Fehlerbalken für die Prognose basiert dann auf der Unsicherheit der Werte der Schocks von k = m + 1 bis k = m + n und die Varianz (oder Quadrat des Fehlerbalkens) V (y, m + n) für ym+n der gegeben ist durch   n−1 � V (y, m + n) = σ 2 (ym+n ) = 1 + πj2 σ 2 , (8.30) j=1

wobei σ die Varianz der εi ist, wie in (8.1) definiert. Daher sind alle Informationen über die Fehlerbalken für die Prognosewerte enthalten in den Koeffizienten πi . Alle Informationen, die uns zur Verfügung stehen, um die Prognose yn+m zu erstellen, sind eine endliche Anzahl früherer Werte yj für j ≤ m. Daher verwenden wir diese verfügbaren früheren Datenpunkte, um die Prognose yˆ i+n und ihre Fehlerbalken vorherzusagen, wobei wir die zukünftige Schätzung yˆ i+n mit einem 2

8.7 Prognose

115

Hut markieren. Um dies zu tun, gehen wir davon aus, dass die Schätzung eines zukünftigen Wertes yˆ i+n, welches n Zeitschritte in der Zukunft liegt, eine lineare Funktion der letzten bekannten m Proben yi−j ist mit j = 0, . . . , m − 1

yˆ i+n =

m−1 

(8.31)

αj yi−j .

j=0

Es kann gezeigt werden [6] dass diese Darstellung den mittleren quadratischen Fehler minimiert. Beachten Sie, dass die Koeffizienten αj = αj (n) von der Prognoseentfernung n abhängt, obwohl wir das Argument weglassen, um die Gleichungen lesbarer zu machen. Alle Informationen über die Prognose werden in den Koeffizienten αj berücksichtigt, so dass die Differenz zwischen der linken und rechten Seite von (8.31) nicht mit einem der früheren Werte yi−k . korreliert ist. Diese Anforderung führt zu  � � m−1 � yˆ i+n − αj yi−j yi−k = 0 für k = 0, . . . , m − 1 , (8.32) j=0

wobei die spitzen Klammern das Ensemblemittel über viele Realisierungen der Zeitreihe bezeichnen. Die vorherige Gleichung kann umgeschrieben werden als



m−1     αj yi−j yi−k yˆ i+n yi−k =

f¨ur k = 0, . . . , m − 1.

(8.33)

j=0

  Hier bemerken wir, dass yi−j yi−k = γj−k, wobei γk die in Abschnitt 8.3 angetroffenen Autokovarianzen sind.  Für eine gegebene Zeitreihe yi, können wir die γj schätzen, indem wir γj = n1 ni=1 yi yi−j berechnen, wobei nicht spezifizierte Werte von yi zu nullgesetzt werden. Der Ausdruck auf der linken Seite von (8.33) entspricht yˆ i+n yi−k = γn+k . Unter Verwendung dieser Beziehungen und der Umformulierung der vorherigen Gleichung in Komponentenform kommen wir zu 



γn  γn+1   .. .

γn+m−1



γ0   γ1    =  ..  .

γ1 γ0 .. .

... ... .. .

 α0 γm−1  α1 γm−2    .. ..  . .

γm−1 γm−2 . . . γ0

αm−1



  , 

(8.34)

welche wir invertieren, um die Prognosekoeffizienten αk (n) zu berechnen



α0 (n)  α1 (n)   .. .

αm−1 (n)





γ0   γ1    =  ..  .

γ1 γ0 .. .

... ... .. .

−1  γm−1 γn  γn+1 γm−2      .. ..  . .

γm−1 γm−2 . . . γ0

γn+m−1



  . 

(8.35)

Hier haben wir das Argument n zu den Koeffizienten hinzugefügt αk (n) als Erinnerung daran, dass die Koeffizienten spezifisch für die Prognoseentfernung n

8 Zeitreihen

116

sind. Die Verwendung dieser Koeffizienten in (8.31) führt zu einer Prognose, die aus den zuvor aufgezeichneten Werten yk abgeleitet wird. Für die Bequemlichkeit bei weiteren Berechnungen führen wir die folgende Kurznotation für die vorherige Gleichung ein

α(n) = Ŵ −1 γ (n) ,

(8.36)

wobei α(n) der Spaltenvektor ist, wie in (8.34) gezeigt, und γ (n) der Spaltenvektor auf der rechten Seite ist. Die Transponierung der Vektoren wird durch einen hochgestellten Buchstaben ‚t‘ gekennzeichnet. Ŵ bezeichnet die Matrix in (8.34). Nun werden wir die erwartete Genauigkeit der Prognose behandeln, indem wir den Erwartungswert der quadratischen Abweichung der Prognose σ 2 (yi+n ) �  � m−1 m−1 � � yi−k αk  σ (ˆyi+n )2 = yˆ i+n − αj yi−j yˆ i+n − j=0

j=0

m−1 m−1 � m−1 (8.37) � � � � = yˆ i+n yˆ i+n − 2 αj �ˆyi+n yi−j � + αj αk �yi−j yi−k � j=0

j=0 k=0

=γ0 − 2α(n)t γ (n) + α(n)t Ŵα(n) ,

berechnen, wobei wir die oben eingeführten Abkürzungen verwendet haben und insbesondere Ŵjk = �yi−j yi−k �. Wenn wir (8.36) einfügen, erhalten wir schließlich

σ (ˆyi+n )2 = γ0 − γ (n)t Ŵ −1 γ (n)

(8.38)

und die 95 %Konfidenzintervalle um den Prognosewert yˆ i+n werden gegeben durch yˆ i+n ± 2 σ (ˆyi+n )2 . Inspiriert durch die Lektüre über algorithmische Handelsmethoden in [7] wollen wir die Verwendung von Prognosen anhand eines ziemlich konstruierten Beispiels untersuchen, bei dem wir die Tag-zu-Tag-Renditen rd = Sd+1 − Sd einer Aktie Sd am Tag d, verwenden, um das Vorzeichen der Rendite am folgenden Tag d + 1 vorherzusagen. Wenn das Vorzeichen positiv ist, behalten wir die Aktie; wenn es negativ ist, verkaufen wir sie leer. Die Hoffnung besteht darin, einen durch einen fallenden Aktienwert verursachten Verlust in einen Gewinn umzuwandeln. Andererseits, wenn die Vorhersage falsch ist, verwandeln wir den Gewinn aus steigenden Aktien in einen Verlust, weil wir leer verkaufen. Wir berechnen die laufende Bilanz unseres Portfolios, indem wir die „echte“ Rendite rd+1 mit dem vom Algorithmus vorhergesagten Zeichen akkumulieren. Um es zu testen, haben wir Daten von Apple Inc. (AAPL) vom 27. März 2018 bis zum 27. März 2019 verwendet, die wir [8] entnommen haben, und zeigen das Ergebnis in Abb.8.8. Die durchgezogene schwarze Linie zeigt die Entwicklung des Aktienwerts, wie sie im Laufe des Zeitraums stattgefunden hat. Die punktiertgestrichene blaue Kurve basiert nur auf Daten des letzten Tages (m = 1) um den nächsten vorherzusagen, was im Grunde bedeutet „wenn es gestiegen ist, wird es

117

Kumulierte Erträge

8.7 Prognose

Handelstage

Abb. 8.8  Die kumulierten Renditen für Apple-Aktien, wie sie tatsächlich passiert sind (schwarz) und simulierte Daten unter Verwendung des im Text diskutierten Algorithmus, für m = 1 (blau) und m = 4 (rot)

weiter steigen“. Wir beobachten, dass es meistens der schwarzen Linie mit etwas schlechteren Ergebnissen folgt. Besonders nach Tag 200 verpasst es den Anstieg; wahrscheinlich wird der Algorithmus durch kleine Schwankungen in den echten Daten getäuscht. Die gestrichelte rote Linie basiert auf der Verwendung der letzten vier Tage (m = 4) um den folgenden Tag vorherzusagen. Diese Vorhersage funktioniert bis zum Tag 150 eher schlecht, aber während der folgenden 50 Tage, in denen der Aktienwert fällt, recht gut. Wir führen dies darauf zurück, dass die schwarze Linie mit den echten Daten mäßig systematische Schwankungen zeigt, die dieser Algorithmus korrekt identifiziert hat. Die Variation des Horizonts m, auf dem die Vorhersage basiert, zeigte unterschiedliche Ergebnisse, die meisten von ihnen liegen im Bereich, der durch die beiden Beispiele aus Abb. 8.8 gegeben ist. Auch Tests mit anderen Aktien zeigten große Variationen. Für Aktien mit recht stabilen Veränderungen in ihrem Wert hat m = 1 am besten funktioniert, aber wir beobachten, dass der Algorithmus durch zufällige Aktienbewegungen stark getäuscht wird. Dies ist verständlich, denn die Verwendung einer Prognosemethode setzt implizit voraus, dass die zugrunde liegende Dynamik systematisches Verhalten zeigt. Wenn wir also an die effiziente Markt Hypothese glauben, dass die Aktienentwicklung auf einem Martingale-Prozess basiert, sollten wir nicht in der Lage sein, den Aktienwert von morgen auf der Grundlage historischer Werte vorherzusagen. Wir empfehlen daher, diesen Algorithmus nicht mit echtem Geld zu verwenden. Die meisten der bisher begegneten Modelle waren autoregressiv. Aber es gibt mehr.

8 Zeitreihen

118

8.8 Zoo der Modelle In Abschn. 8.2 haben wir bereits MA, AR und ARMA Modelle behandelt, die durch (8.3, 8.6 und 8.7) definiert wurden. In diesem Abschnitt werden wir eine Reihe von Verallgemeinerungen diskutieren. ARIMA ARMA Modelle mit Koeffizienten θ und φ funktionieren nur zufriedenstellend, wenn der zugrunde liegende Prozess stationär ist, anstatt einen Trend oder saisonale Schwankungen aufzuweisen. Dies haben wir bereits in Abschn. 8.1 beobachtet und behoben, wo wir die CO2 Daten von Mauna Loa diskutiert haben. Dort fanden wir auch heraus, dass die Differenzierung der Datenpunkte, wie von der Box-Jenkins Methodik vorgeschlagen, die Zeitreihe „stationärer“ macht. Indem wir also einen oder mehrere Differenzierungsschritte hinzufügen

zi = yi − yi−1 ,

(8.39)

erzeugen wir eine neue Zeitreihe zi, die näher an einer stationären Reihe ist als die ursprüngliche Reihe yi. Dies wird dann als ARIMA( p, d = 1, q)-Modell, wenn nur ein einziger Differenzierungsschritt vorgeschaltet ist, sonst kann d auch größere Werte annehmen. Da die Umkehrung der Differenzierung die Integration ist und am Ende die Differenzierung rückgängig gemacht werden muss, wird das Modell als autoregressive integrierte gleitende Durchschnitt, oder ARIMA-Modell bezeichnet. Beachten Sie, dass die Differenzierungsstufe durch den Lag-Operator Lˆ aus (8.26), beschrieben werden kann, was uns erlaubt zu schreiben

ˆ i zi = (1 − L)y

(8.40)

ˆ i = (1 − L) ˆ 2 yi = yi − 2yi−1 + yi−2 ui = zi − zi−1 = (1 − L)z

(8.41)

und die zweite Ableitung wird wobei wir beobachten, dass der letzte Ausdruck tatsächlich die zweite Ableitung ist, weil er als ui = (yi − yi−1 ) − (yi−1 − yi−2 ). geschrieben werden kann. Ein wunderbares Beispiel für die Verwendung von ARIMA-Modellen wird in [9, 10] diskutiert, wo die Autoren die Auswirkungen von Terroranschlägen auf die durch den Tourismus in Italien im Zeitraum von 1971 bis 1988 erzeugten Einnahmen analysieren. Sie basieren ihre Analyse auf dem Datensatz ITALY.XLS, der von [11] erhältlich ist. Die Datei enthält drei Spalten mit Werten für einen Dreimonatszeitraum: die Zeit t, eine Menge y, die mit dem Logarithmus der durch den Tourismus erzeugten Einnahmen zusammenhängt, und z, die Anzahl der Terroranschläge während des Quartals. Wir zeigen die Terroranschläge z in der oberen Grafik in Abb. 8.9 und y in der mittleren Grafik. Da der Tourismus stark von der Jahreszeit abhängt, entfernen wir zunächst die Saisonalität, indem wir yn∗ = yn − yn−4 und zn∗ = zn − zn−4 einführen, bevor wir das Modell bestimmen. ∗ ∗ ∗ yn∗ = ayn−1 + b1 zn−1 + b2 zn−2

(8.42)

8.8  Zoo der Modelle

119

mit einem autoregressiven Koeffizienten a und zwei gleitenden Durchschnittskoeffizienten b1 und b2. In [9] bestimmen die Autoren sorgfältig, welche Koeffizienten nützlich sind. Wir haben ein MATLAB-Skript vorbereitet, das zunächst b1 = −0.0043 und b2 = −0.0036 aus einer Methode der kleinsten Quadrate ermittelt und dann den direkten Einfluss von der Zeitreihe durch ∗ ∗ Berechnung subtrahiert un∗ = yn∗ − b1 zn−1 . In einem zweiten Schritt wird − b2 zn−2 ∗ ∗ a = 0.60 durch eine Regressionsanalyse von un = aun−1 bestimmt. Mit allen verfügbaren Koeffizienten des Modells berechnen wir den entgangenen Umsatz als Folge eines einzelnen Terroranschlags im zweiten Quartal z2∗ = 1 und iterieren (8.42) für einige Iterationen. Abb. 8.9 zeigt diese Impuls-Antwort. Wir sehen, dass der Angriff im zweiten Quartal, dargestellt als gestrichelte rote Linie, die Reduzierung der touristischen Einnahmen auslöst, die ihren maximalen Einfluss nach zwei Dreimonatsperioden erreicht und dann langsam über einen Zeitraum von zwei bis drei Jahren abklingt. Die Autoren von [9] verwenden dann die Fläche unter der Kurve, um den gesamten finanziellen Schaden zu schätzen, den ein einzelner Terrorakt verursacht hat. Aber wir werden zu anderen Zeitreihenmodellen übergehen. ARFIMA Wenn der Differenzierungsparameter d eine Fraktion anstelle einer Ganzzahl ist, wird das Modell als autoregressive fractionally integrated moving average, oder

Jahr , , ,

dy/attack

Jahr

Impuls-Antwort Angriff, der auslöst

3-monatiger Zeitraum

Abb. 8.9  Die Anzahl der Terroranschläge in Italien pro Quartal (oben), die entsprechend skalierte Einnahmen aus touristischen Aktivitäten (Mitte) und die Impulsantwort eines einzelnen Terroranschlags auf die Einnahmen (unten). Die Analyse basiert auf [9, 10]

8 Zeitreihen

120

ARFIMA(p,d,q)-Modell bezeichnet. Diese Modelle sind besonders nützlich, wenn der zugrunde liegende Prozess ein sehr langes Gedächtnis hat, was leicht zu erkennen ist, wenn man die Differenzierungsschritte in Bezug auf den LagOperator Lˆ schreibt und formal die binomische Expansion verwendet

(1 − L)d =

d    d(d − 1) ˆ 2 d ˆk L = 1 − dL + L − ··· 2! k i=0

(8.43)

Wir stellen fest, dass die Reihe für fraktionale Werte von d nicht endet. Daher trägt die Information aus viel früheren Werten zum aktuellen Wert bei. EWMA Wir sind bereits der exponentiell gewichteten gleitenden Durchschnittsmethode in (8.5) begegnet. Es handelt sich im Wesentlichen um einen IIR-Filter, der den gewichteten Durchschnitt der neuesten Ausgabe und eines neuen Werts ausgibt. Die Gleichung wird in der folgenden Gleichung auf der linken Seite reproduziert.

yi =

1 (myi−1 + xi ) m+1

oder

σi2 =

 1  2 mσi−1 + ui2 , (8.44) m+1

wobei wir m mal den vorherigen Ausgabewert yi−1 und den neuen Wert xi mitteln. Auf diese Weise werden alte Werte auf einer Zeitskala von m Proben „vergessen“ und kontinuierlich durch neue Werte xi aktualisiert. Die Gleichung auf der rechten Seite ist auf die gleiche Weise konstruiert, berechnet aber kontinuierlich aktualisierte Werte der Volatilität σi, deren tägliche Schwankung der relativen Rendite uj wird gegeben durch

uj =

Sj − Sj−1 . Sj−1

(8.45)

Hier ist Sj beispielsweise der schwankende Aktienwert. Wir veranschaulichen dies in Abb. 8.10, die die täglichen Renditen u (blau) und den entsprechenden Wert von σ , gemittelt mit m = 20 (rot), für Apple Inc. (oben) und für Coca-Cola (unten) von März 2018 bis März 2019, heruntergeladen von https://finance.yahoo.com. Wir stellen fest, dass die High-Tech-Aktie von Apple volatiler ist als die eher stabile Aktie von Coca-Cola. Letztere zeigt nur einen eintägigen Ausreißer nahe Handelstag 220, der σ zu erhöht, bevor es sich mit einer Rate, die durch m bestimmt wird, wieder dem Durchschnittswert nähert. Offensichtlich ist der Durst nach Softdrinks weniger volatil als der Durst nach High-Tech-Produkten. Anstatt nur die Volatilität kontinuierlich zu aktualisieren, können wir Variationen der relativen Kovarianz σ XY zwischen zwei abgetasteten Variablen Xi und Yi zum Abtastzeitpunkt i bestimmen. Die Kovarianzmatrix für zwei Aktien X und Y, die bei der Berechnung der optimierten Portfolios in Kap. 3 erscheint, kann als Illustration dienen. Um sie kontinuierlich zu aktualisieren, berechnen wir     1 Xi − Xi−1 Yi − Yi−1 XY XY mσi−1 + , σi = (8.46) m+1 Xj−1 Yi−1

8.8  Zoo der Modelle

121 Apple Inc.

,

, Coca-Cola ,

, Handelstage vom 27. März 2018 bis 27. März 2019

Abb. 8.10  Die täglichen Renditen (blau) und die Werte, die mit einem exponentiellen Filter mit m = 20 (rot) für Apple Inc. und Coca-Cola von März 2018 bis März 2019 gemittelt wurden

was eine Schätzung der Kovarianzmatrix ergibt, die auf der jüngsten Vergangenheit basiert, und durch exponentielles Mitteln über die letzten m Tage definiert ist. ARCH(n) und GARCH(n, m) Die Verallgemeinerung von EWMA-Modellen für quadrierte Größen, wie das auf der rechten Seite in (8.44), sind ARCH- und GARCH-Modelle. Hier steht ARCH für autoregressive bedingte Heteroskedastizität und ein Modell der Ordnung n ähnelt einem MA-Prozess oder einem FIR-Filter mit n Koeffizienten aj und einem konstanten zusätzlichen Term c, somit

σi2 = c +

n 

2 aj ui−j .

(8.47)

j=1

Hier beginnt die Summe bei Eins und nicht bei Null, wie in (8.2). Der Begriff Heteroskedastizität bezieht sich auf die Tatsache, dass die Volatilität σ variiert, anstatt konstant zu sein. Die Verallgemeinerung zu ARMA-Modellen oder IIR-Filtern, die frühere Proben verwenden, hier um den aktualisierten Wert σi zu berechnen, wird GARCH genannt, ein Akronym für generalisierte autoregressive bedingte Heteroskedastizität. Ein GARCH(n,m) Modell wird daher wie folgt geschrieben

σi2 = c +

n  j=1

2 aj ui−j +

m 

2 bk σi−k ,

(8.48)

k=1

wo n und m jeweils die Ordnungen des gleitenden Durchschnitts und des autoregressiven Teils sind.

122

8 Zeitreihen

Die meiste Zeit ist die Volatilität vernünftigerweise konstant, aber gelegentlich steigt sie erheblich an. Ein Grund für einen solchen Anstieg ist politische Unruhe, aber andere sind spekulative Blasen und anschließende Marktzusammenbrüche, das Thema des nächsten Kapitels. Übungen 1. Entfernen Sie den Trend und die Saisonalität aus den Daten in der Datei ex8_1.dat. Welchen Zeitraum verwenden Sie? Zeichnen Sie die Residuen und sortieren Sie sie dann in ein Histogramm mit 30 Bins. Hinweis: MATLAB hat eine eingebaute Funktion histogram(). 2. Sie vermuten, dass die Daten in der Datei ex8_2.dat von einem MA(q)– Prozess stammen. Bestimmen Sie die Ordnung q des Prozesses. 3. Sie vermuten, dass die Daten in der Datei ex8_3.dat von einem AR(p)– Prozess stammen. Bestimmen Sie die Ordnung p des Prozesses und diskutieren Sie, welche Koeffizienten φj signifikant sind. 4. Analysieren Sie die Zeitreihen der CO2–Konzentration, gemessen auf Mauna Loa von 2009 bis 2019, verfügbar in der Datei ex8_2009a.dat auf der Webseite des Buches. In Ihrer Analyse a. entfernen Sie den Trend und die Saisonalität aus den Daten; b. führen Sie eine PACF auf den Residuen durch (bis zur Ordnung 4: φ44) um die relevanten Koeffizienten für ein AR(p)Modell zu finden; c. bestimmen Sie die Modellkoeffizienten und zeigen Sie das Modell zusammen mit den Daten an, um zu überprüfen, ob Ihre Anpassung sinnvoll ist. 5. Leiten Sie die Koeffizienten πj für j = 1, 2, und 3 ab, die in (8.28) auftaucht aus den θi und φk, die in (8.27) definiert sind. 6. Verwenden Sie einen EWMA Filter mit m = 1, 3, 10, und 30, um das Rauschen aus der Zeitreihe in der Datei ex8_6.dat, die auf der Webseite des Buches verfügbar ist, zu entfernen. Stellen Sie sowohl die ursprüngliche Zeitreihe als auch die entrauschten Kopien dar. Diskutieren Sie, was Sie beobachten, wenn Sie m erhöhen.

Literatur 1. NIST/SEMATECH e-Handbook of Statistical Methods (2016). http://www.itl.nist.gov/ div898/handbook/ 2. http://www.itl.nist.gov/div898/handbook/pmc/section4/pmc4411.htm 3. NOAA ESRL Global Monitoring Laboratory. 2019, updated annually. Atmospheric Carbon Dioxide Dry Air Mole Fractions from quasi-continuous measurements at Mauna Loa, Hawaii, Barrow, Alaska, American Samoa and South Pole. Compiled by K.W. Thoning, A. Crotwell, and D.R. Kitzis. National Oceanic and Atmospheric Administration (NOAA), Earth System Research Laboratories (ESRL), Global Monitoring Laboratory (GML): Boulder, Colorado, USA. Version 2020-04 at https://doi.org/10.15138/yaf1-bk21 4. M. Quenouille, Approximate tests of correlation in time series. J. R. Stat. Soc. B11, 68 (1949) 5. G. Box, G. Jenkins, G. Reinsel, Time Series Analysis, 4. Aufl. (Wiley, Hoboken, 2008)

Literatur

123

6. J. Hamilton, Time Series Analysis (Princeton University Press, Princeton, 1994) 7. G. Zuckerman, The Man Who Solved the Market (Penguin Random House, New York, 2019) 8. https://finance.yahoo.com/quote/AAPL . Zugegriffen: 28 Mar 2019 9. W. Enders, T. Sandler, G. Parise, An econometric analysis of the impact of terrorism on tourism. Kyklos 45, 531 (1992) 10. W. Enders, Applied Economentric Time Series, 4. Aufl. (Wiley, Hoboken, 2015) 11. http://time-series.net/data-sets

9

Blasen, Abstürze, Dicke Schwänze und Lévy-Stabile Verteilungen

Zusammenfassung

Nach der Darstellung historischer Blasen und Crashs destilliert dieses Kapitel eine Reihe relevanter Mechanismen hinter Börsencrashs. Eine Quelle für das manchmal irrationale Verhalten von Anlegern lässt sich auf ihre Psychologie zurückführen, was eine kurze Diskussion über Verhaltensökonomie motiviert. Das kollektive Verhalten aller Händler bestimmt die Wahrscheinlichkeitsverteilungsfunktion der täglichen Renditen aus dem Aktienmarkt, deren Verteilung deutlich dicke Schwänze aufweist. Dies motiviert uns, Potenzgesetze, Fraktale, Zufallswanderungen mit Inkrementen aus fettschwänzigen Verteilungen und Levy-stabile Verteilungen als ihren Grenzfall zu behandeln. In diesem Kontext wird der zentrale Grenzwertsatz abgeleitet und eine zugrunde liegende Annahme der Black-Scholes-Theorie in Frage gestellt; die ja auf einem (Gaußschen) Wiener Prozess basiert. Nach einer kurzen Diskussion der Extremwerttheorie führen wir Sornettes Theorie der endlichen Zeitdivergenzen ein, die manchmal in Zeitreihen von Aktienmärkten sichtbar sind. Viel von der in vorherigen Kapiteln diskutierten Finanz- und Wirtschaftstheorie basiert auf der Vorstellung von Märkten im Gleichgewicht, einem Konzept, das als „Effizienzmarkthypothese“ gefeiert wird. Diese Hypothese ist wahrscheinlich die meiste Zeit eine gute Annäherung an die Wahrheit, aber hin und wieder treten Märkte in eine Phase ein, in der sie sehr schnell wachsen – eine Blase – und später noch schneller schrumpfen – ein Crash. Im oberen Diagramm in Abb. 9.1 zeigen wir die historische Entwicklung des Dow Jones Index [1] von 1900 bis 2010 auf einer logarithmischen Skala. Er steigt von etwa 50 im Jahr 1900 auf etwa 10000 im Jahr 2010. Die Kurve ist weder glatt noch folgt sie einem exponentiellen Wachstum. Stattdessen gibt es Perioden steiler Anstiege, Beispiele sind das späte 20. Jahrhundert, die Mitte der 1980er Jahre, die 1990er Jahre und die ersten Jahre

© Der/die Autor(en), exklusiv lizenziert an Springer Nature Switzerland AG 2023 V. Ziemann, Physik und Finanzen, https://doi.org/10.1007/978-3-031-36964-3_9

125

9  Blasen, Abstürze, Dicke Schwänze und Lévy-Stabile Verteilungen

Dow-Jones-Index

126

Relative Veränderung

Jahr , ,

, , Jahr

Abb. 9.1  Die obere Grafik zeigt die langfristige Geschichte und die relative Variation des Dow Jones Industrial Index von 1900 bis 2010. (Daten von [1])

des neuen Jahrtausends. Während dieser Zeiten war der Markt in einer Blase, die anschließend in einem mehr oder weniger gewaltsamen Crash entlüftet wurde, sichtbar als ein signifikanter Rückgang im Index. Das untere Diagramm zeigt die Tag-zu-Tag-Variation (I(i + 1) − I(i))/I(i) des Index. Wir beobachten, dass Crashes von erhöhter Volatilität oder stark schwankenden Tag-zu-Tag-Variationen begleitet werden. Crashes werden durch große Einzeltagesverluste identifiziert, wie zum Beispiel den 30 %igen Verlust während des Crashs im Oktober 1987. Diese Muster von Blasen und Crashes sind schwer mit der Vorstellung eines Marktes im Gleichgewicht in Einklang zu bringen. Um dieses Verhalten besser zu verstehen, werden wir daher historische Beispiele für Crashes diskutieren, gefolgt von einer Darstellung der wahrscheinlichen Mechanismen, die sie verursachen. Schließlich verbringen wir einige Zeit damit, die Mathematik der Crashes zu charakterisieren. Aber lassen Sie uns zunächst einige der historischen Spekulationsblasen der Aktienmärkte und die anschließenden Crashes [2] betrachten.

9.1 Historische Blasen und Crashes Die erste große Blase war die Tulpenmanie in Holland, die von 1634 bis 1637 andauerte. Zu dieser Zeit war Holland durch den Handel der Ostindien-Kompanie reich geworden und war von einem Luxusprodukt aus dem Nahen Osten – Tulpen – begeistert. Die Nachfrage nach den kostbaren Zwiebeln beschleunigte sich im Jahr 1635 und die Aussicht auf ständig steigende Preise führte zu Spekulationen

9.1  Historische Blasen und Crashes

127

in einem Ausmaß, dass die Menschen ihre Häuser verpfändeten, um in Tulpen zu investieren. Die Blase entleerte sich Anfang 1637 katastrophal, nachdem ein Käufer von Tulpen seinen Kauf nicht bezahlen konnte und dann immer mehr potenzielle Käufer vom Kauf Abstand nahmen, was zu einem drastischen Preisverfall des wahrgenommenen Reichtums führte. Die Menschen erkannten, dass sie nur noch Tulpenzwiebeln hatten, die den größten Teil ihres Wertes verloren hatten und nicht mehr als Sicherheit für Kredite dienen konnten. Nach einigen Monaten war die Spekulation mit Tulpen beendet. Die Mississippi-Blase dauerte von 1718 bis 1720, als der schottische Spieler und Finanztheoretiker John Law durch eine Reihe von glücklichen (für ihn) Zufällen beauftragt wurde, die erste französische Nationalbank zu gründen, um die desolaten Finanzen der französischen Regierung zu verbessern. Er erhöhte die Menge des verfügbaren Geldes – die Liquidität – durch Einführung von „Papiergeld“, zu dem er versprach, vom König sanktioniert, es frei in Gold umzutauschen. Aufgrund des Erfolgs seiner Methode zur Rettung der Staatsfinanzen erhielt er das Monopol für den Handel mit den neu erworbenen Überseegebieten in Nordamerika. Er begann Anleihen auszugeben, die hohe Gewinne versprachen. Bald nahm die Spekulation mit diesen Anleihen zu und verursachte eine riesige Blase, die teilweise durch Law angeheizt wurde, der für die Ausgabe von Liquidität in Form von Papiergeld verantwortlich war. Die Blase platzte Anfang 1720, als Spekulanten versuchten, ihre Gewinne durch Umwandlung von MississippiAnleihen in Gold zu realisieren. Fast gleichzeitig entwickelte sich die Südsee-Blase in England während einer prosperierenden Periode, als der South Sea Trading Company das Monopol für den Handel mit spanischen Kolonien in der Karibik und Südamerika gewährt wurde. Die Erwartung hoher Gewinne führte zu Spekulationen mit ihren Aktien, trotz eines laufenden Krieges mit Spanien. Die Gewinne wurden erwartet, sobald der Krieg beendet war. Der Erfolg der South Sea Company führte dazu, dass Nachahmer mit weniger glaubwürdigen Schnell-reich-werden-Schemata auftauchten, eine Entwicklung, die durch das vom Parlament erlassene „Bubble Act“ gestoppt wurde, das von allen Joint Ventures eine königliche Charta verlangte. Dies beseitigte viele Konkurrenten und führte zu einem enormen Anstieg der Aktien der South Sea Company, was eine Verkaufslawine auslöste, um die Gewinne zu realisieren. Dies wiederum führte dazu, dass die Blase implodierte und einen riesigen Vermögensverlust verursachte, einschließlich eines Teils von Isaac Newton [2]. Nach den Wirren des Ersten Weltkriegs waren die 1920er Jahre geprägt von Frieden und Wohlstand, insbesondere in den USA. Neue Entwicklungen wie Automobile, Radios, Filme und der Luftverkehr sind Teil des Grundes. Gleichzeitig verbesserte der verstärkte Zustrom von Menschen, die von ländlichen in städtische Gebiete zogen, die wirtschaftlichen Bedingungen und erhöhte den Konsum eines großen Teils der Bevölkerung. Viele Menschen hatten Geld zum Ausgeben und investierten es in den Aktienmarkt, der scheinbar grenzenlos expandierte. Es war üblich, Geld zu leihen, um zu investieren und das eigene Portfolio als Sicherheit zu verwenden, was gut funktioniert, solange der Aktienmarkt steigt. 1929 jedoch

128

9  Blasen, Abstürze, Dicke Schwänze und Lévy-Stabile Verteilungen

zeigten sich erste Anzeichen dafür, dass es eine Grenze für das Wachstum gibt, und reduzierter Optimismus und Zweifel führten zu weit verbreiteten Versuchen, Gewinne aus den Aktien zu realisieren. Aber Verkäufer fanden nur wenige Käufer, was dazu führte, dass der Wert der Aktien fiel. Dies löste Margin Calls von den Geldverleihern aus, weil die Aktien den Wert des geliehenen Geldes nicht deckten. So endete die spekulative Blase der 1920er Jahre im großen Crash von 1929 [3], der zur großen Depression der 1930er Jahre führte. In der zweiten Hälfte der 1950er Jahre führte die aufstrebende Elektronikindustrie nach der Entdeckung des Transistors und dem Beginn des Weltraumrennens 1957 zu einer Blase, die als „Tronics-Boom“ bezeichnet wurde und 1962 mit einem Rückgang des Dow um etwa 25 % innerhalb weniger Monate eher schrumpfte als plötzlich zu platzen. Nachdem die Ära der Ölkrisen in den 1970er Jahren hinter sich gelassen wurde, waren die frühen 1980er Jahre geprägt von liberaler Wirtschaftspolitik unter dem neu gewählten Präsidenten Reagan. Die Steuerpolitik begünstigte Fusionen von Unternehmen, die oft durch massives Leihen von Geld von der Öffentlichkeit durch die Ausgabe sogenannter Junk Bonds, finanziert wurden, die hohe Renditen versprachen, aber auch ein hohes Risiko mit sich brachten. Das Versprechen erhöhter Effizienz und gesteigerten zukünftigen Gewinnen führte zu euphorischen Marktbedingungen mit vielen willigen Investoren. Um die Gewinne zu sichern und Verluste zu begrenzen, wurden neue Technologien wie automatisierter Handel und Portfolioversicherung mit Put-Optionen implementiert. Die Blase wuchs, begann aber zu wackeln, als die Menschen begannen, Gewinne zu realisieren. Dann setzte die automatische Portfolioversicherung ein, was zu einem enormen Anstieg der Verkaufsorders führte, die nicht erfüllt werden konnten, und schließlich platzte die Blase im Oktober 1987 und führte zum Schwarzen Montag Crash von 1987. Im Gegensatz zu den Folgen des Crashs von 1929 erholte sich der Markt schnell vom Crash von 1987 und erreichte innerhalb von zwei Jahren wieder sein vorheriges Niveau. Gerade als sich die Erholung vom Crash von 1987 voll entfaltete, wurde der vorherrschende Optimismus weiter gestärkt durch den Fall der Berliner Mauer, den Untergang der Sowjetunion und das Ende des Kalten Krieges, was zu einer bemerkenswerten Wachstumsperiode in den 1990er Jahren führte. Teilweise befeuert durch die neu entstehenden Internet- und Technologieunternehmen, die große Gewinne versprachen, wuchs der Aktienmarkt in einem bemerkenswerten Tempo zu immer grösseren Höhen der Aktienindizes. Es gab einige Rückschläge auf dem Weg, wie zum Beispiel Russlands Zahlungsausfall bei Auslandsschulden im Jahr 1998, der einige Hedgefonds auslöschte, aber der allgemeine Trend war aufwärts. Dies setzte sich fort, bis Spekulanten vorsichtig wurden und Versuche, Aktien zu verkaufen, auf Schwierigkeiten stießen, was dann zum sogenannten Dotcom-Crash von 2000 führte. Um Probleme mit fehlender Liquidität nach dem Dotcom-Crash zu lindern, wurden die Zinssätze in den USA erheblich gesenkt. Gleichzeitig entstand ein politischer Konsens, den Kauf von Privathäusern zu fördern, auch für diejenigen,

9.2  Blasen-Crash Mechanismen

129

die zuvor nicht für Hypotheken in Frage kamen. Die erhöhte Verfügbarkeit von Hypotheken führte zu einer erhöhten Nachfrage nach Wohnraum, was zu höheren Preisen für Häuser führte. Die Verwendung der neu erworbenen Häuser als Sicherheit für die Hypothek ist möglich, solange die Hauspreise steigen. Um das Jahr 2007 herum sank jedoch die Nachfrage nach neuen Häusern, was den Wert der Häuser minderte, so dass der Hauswert die Hypotheken nicht mehr deckte. Die in Bedrängnis geratenen Hausbesitzer mussten unter Preis verkaufen oder ihre Hypothek nicht bedienen. Letzteres geschah in großem Umfang, was mehrere Banken auslöschte, am bekanntesten die Lehman Brothers. Beachten Sie, dass keiner der oben genannten Crashs durch Naturkatastrophen verursacht wurde, sondern eher durch Spekulationen auf einen steigenden Vermögenspreis. Im folgenden Abschnitt werden wir versuchen, einige Beobachtungen über die zugrunde liegenden Mechanismen der Blasen-CrashSequenz zusammenzufassen.

9.2 Blasen-Crash Mechanismen Hier destillieren wir einige Beobachtungen, die sich auf die spekulativen Blasen und die daraus resultierenden Crashs aus dem vorhergehenden Abschnitt beziehen. • Die normale Bewertung von Aktien als Summe der diskontierten zukünftigen Gewinne (siehe Abschn. 3.6) gilt nicht. Stattdessen spekulieren Händler auf einen steigenden Aktienpreis und hoffen, zu höheren Preisen zu verkaufen, als sie die Aktien gekauft haben. • Blasen erfordern Liquidität zur Investition. Oft wird der steigende Aktienwert als Sicherheit für das geliehene Geld verwendet, was als „gehebelter Kauf“ oder „auf Margin gekauft“ bezeichnet wird. Billiges Geld und niedrige Zinssätze begleiten oft Blasen. • Spekulative Blasen und Crashs scheinen untrennbar miteinander verbunden zu sein. Zunächst ein unerschütterliches Vertrauen in einen stetig steigenden Vermögenswert (was A. Greenspan 1996 als „irrationale Überschwänglichkeit“ bezeichnete, welches auch der Titel von Shillers Buch [4] über Blasen ist) treibt die Blase zu immer höheren Werten. Der Verlust des Glaubens an den fortgesetzten Anstieg des Aktienwerts und der Beginn des Aktienverkaufs gehen einem Crash voraus. Beachten Sie jedoch, dass Blasen manchmal eher verpuffen als in einem vollständigen Crash zu enden. • Oft treibt eine neue Technologie oder eine äquivalente Entwicklung, wie erwartete Reichtümer aus Amerika oder den Südseeinseln, die Blase an. Der Hype um neuartige Internetaktien in der Dotcom-Blase oder die Begeisterung über steigende Hauswerte vor 2008 basieren auf demselben Mechanismus. • Blasen folgen manchmal einer schlimmen Periode, wie einem Krieg, und nehmen dann wirklich Fahrt auf, wenn Optimismus für die Zukunft wiederkehrt. Denken Sie an die „Goldenen Zwanziger Jahre“ vor dem Crash von 1929!

130

9  Blasen, Abstürze, Dicke Schwänze und Lévy-Stabile Verteilungen

• Es ist bemerkenswert, dass oft keine spezifische exogene Ursache für einen Crash identifiziert werden kann. Es scheint aus einer intrinsischen Instabilität des Wirtschaftssystems zu resultieren, ähnlich einem gesättigten Dampf, der spontan ausfällt, angeregt durch eine zufällige Inhomogenität. Es ist offensichtlich, dass Konzepte wie „Optimismus“ oder „Glaube“ schwer in einem physikalischen Rahmen zu handhaben sind und mentale Zustände beschreiben, die besser in einem Rahmen mit Psychologie oder anderen Verhaltenswissenschaften behandelt werden.

9.3 Verhaltensökonomie Das Feld der Verhaltensökonomie berücksichtigt die tief in unserer menschlichen Psyche verankerten Antriebskräfte und wie wir Entscheidungen treffen und deren Ergebnisse bewerten. Das Maß, wie wir ein solches Ergebnis bewerten, wird Nutzen genannt. Historisch gesehen gingen Ökonomen davon aus, dass die Akteure des Handels rational handeln, was wir auch in den ersten Kapiteln angenommen haben. Solche rationalen Akteure werden nach Thaler [5] als Econs bezeichnet. Econs berechnen den erwarteten Nutzen oder Wert einer Handlung V  durch den wohldefinierten Erwartungswert, wobei pi die Wahrscheinlichkeiten und Oi die Ergebnisse sind. Im Gegensatz dazu verhalten sich die überwiegende Mehrheit der Bevölkerung zuweilen nicht rational und werden von Thaler als Menschen bezeichnet. Sie berechnen den erwarteten Nutzen, indem sie eine nicht-lineare Funktion der pi und Oi . anwenden. Als Beispiel betrachten Sie die folgende Wette: • Gewinne mit Sicherheit 80 EUR, oder • Gewinne 100 EUR mit einer 90 % Chance und nichts mit einer 10 % Chance. Econs würden die zweite Wette wählen, weil der erwartete Gewinn 10 EUR höher ist, aber ich würde die erste Wahl treffen. Ich schätze die Aussicht, mit Sicherheit 80 EUR zu gewinnen, höher ein als die Aussicht, tatsächlich mit einer 10 % Chance nichts zu gewinnen. Anscheinend funktioniert die lineare Berechnung von Erwartungswerten für uns Menschen nicht in der Nähe von Gewissheit. Die wahrscheinlich einflussreichsten Wissenschaftler, die die Psychologie der Entscheidungsfindung analysiert haben, sind A. Tversky und D. Kahneman. Sie beschreiben eine Theorie [6], wie Menschen Entscheidungen treffen, basierend auf den zu erwartenden Ergebnissen, daher der Name Prospect-Theorie. Ihre Arbeit basiert auf einer großen Anzahl von psychologischen Experimenten, oder Wetten, ähnlich der oben genannten, die sie ausgewertet haben. Sie fanden eine Reihe von Schlüsselkonzepten, die uns Menschen antreiben. Diese Konzepte sind in Abb. 9.2 prägnant dargestellt. Die Abbildung zeigt den erlebten Wert, oder Nutzen, als Funktion von Gewinnen oder Verlusten in Bezug auf den Referenzpunkt am Ursprung.

9.3 Verhaltensökonomie

131

Wert

,

,

Referenz

, Verluste ,

Gewinne ,

Abb. 9.2  Der Werte Funktion der Prospect-Theorie

• Referenzpunkt: Wir Menschen verwenden die Situation kurz vor einer Entscheidung als Referenz, um Gewinne oder Verluste zu beurteilen, die aus der Entscheidung resultieren. Abb. 9.2 zeigt den Ursprung als Referenzpunkt. Im Gegensatz dazu kümmern sich Econs nicht um die Referenz. Für sie zählt nur das endgültige Ergebnis auf einer absoluten Skala, wie zum Beispiel das Gesamtvermögen. • Verankerung: Die Festlegung einer Referenz vor dem Stellen einer Frage beeinflusst die Antwort. In vielen Situationen, zum Beispiel bei Gehaltsverhandlungen, führt eine hohe Anfangsforderung zu einem höheren Ergebnis als eine bescheidene Anfangsanforderung normalerweise erzielen würde. • Verlustaversion: Psychologische Experimente zeigen, dass Verluste etwa zwei bis drei Mal mehr schmerzen als ein Gewinn gleicher Größe erfreut. Daher ist der negative Zweig in Abb. 9.2, der Verluste beschreibt, steiler als der positive Zweig. • Nicht-lineare Gewichtung: Die relative Zunahme des Nutzens beim Erhalt von 20 EUR anstelle von 10 EUR wird positiver empfunden als der Erhalt von 120 anstelle von 110 EUR. Dies wird in Abb. 9.2 durch das Abflachen der Kurven an den Extremen angezeigt. Einer der Gründe für das „menschliche“ Verhalten sind zwei Teilsysteme unseres Gehirns. System 1 befindet sich physisch im alten Teil des Gehirns, der sich früh in der menschlichen Evolution entwickelt hat. Es handelt sehr schnell, intuitiv und mühelos, wird aber von Faustregeln, sogenannten Heuristiken, geleitet, die manchmal getäuscht werden. System 2 befindet sich physisch im Frontallappen, einem Bereich des Gehirns, der für analytisches Denken verantwortlich ist. System 2 ist langsam und seine Nutzung erfordert viel Energie in der geistigen Anstrengung. Normalerweise überwacht System 2 System 1, aber wenn ersteres

132

9  Blasen, Abstürze, Dicke Schwänze und Lévy-Stabile Verteilungen

mit anderen Aufgaben beschäftigt ist, trifft System 1 trotzdem Entscheidungen, und diese sind manchmal dumm oder zumindest suboptimal, wie Tversky, Kahnemann und andere zeigten [6]. Da diese psychologischen Mechanismen uns allen gemeinsam sind – einschließlich der Spekulanten – könnten wir versucht sein, die Marktteilnehmer als ein großes System interagierender Agenten zu betrachten, ähnlich wie Physiker es in der statistischen Mechanik tun. Die Schwierigkeit besteht darin, dass die Interaktionen in physischen Systemen eher homogen sind (alle Partikel sind gleich und haben das gleiche Interaktionspotential), während in Wirtschaftssystemen die Händler und Spekulanten in einer riesigen Vielfalt vorkommen. Die grundlegenden „menschlichen“ Interaktionspotentiale sind jedoch durch die Mechanismen der Prospect-Theorie, wie oben beschrieben, etwas eingeschränkt. Obwohl sie zentral für das Verhalten der Marktteilnehmer sind, werden wir die psychologische Diskussion nicht weiter verfolgen, sondern einige Methoden aus der statistischen Mechanik und dynamischen Systemen verwenden, um die Dynamik der Aktienmärkte und insbesondere Abstürze weiter zu untersuchen.

9.4 Verteilungen mit fetten Schwänzen Ein natürlicher Ort, um zu beginnen ist die Zeitreihe der Aktienkurse und Informationen über die Abstürze zu extrahieren, die extreme Ereignisse in der Zeitreihe sind. Auf dem unteren Diagramm in Abb. 9.1 sehen wir, dass die Abstürze von 1929 und 1987 von einer großen Volatilität und insbesondere großen negativen Sprüngen der täglichen Preisvariation begleitet sind. Wenn der zugrunde liegende stochastische Prozess Gaussisch wäre, wären große Sprünge viel seltener als tatsächlich beobachtet. Dies ist deutlich sichtbar auf dem linken Diagramm in Abb. 9.3. Es zeigt das Histogramm aller täglichen Veränderungen des Dow Jones Index von 1900 bis 2010 auf einer vertikal logarithmischen Skala als schwarze Sternchen. Die rote Kurve ist eine Gaußsche, die die gleiche Standardabweichung von 1,1 % wie die Rohdatenpunkte hat. Auf der logarithmischen Skala erscheint sie als umgekehrte Parabel, die die Datenpunkte bis zu etwa ±5% oder etwa fünf Standardabweichungen ziemlich gut verfolgt, aber darüber hinaus gibt es einen klaren Überschuss an Datenpunkten oberhalb der Gaußschen. Darüber hinaus sind die Abweichungen auf der negativen Seite etwas ausgeprägter. Auf der rechten Seite in Abb. 9.3 zeigen wir die gleichen Datenpunkte auf doppelt logarithmischer Skala, getrennt für positive und negative Abweichungen, letztere einfach auf die positive Seite gekippt, sowie die Gaußsche. In dieser Darstellung passt die Gaußsche nicht sehr gut zu den Daten. Aber bei großen horizontalen Abweichungen erscheinen die Daten in doppelt logarithmischer Darstellung linear, was auf ein Potenzgesetz der Form y ∝ x −α hinweist. Wir verzichten auf die Angabe der Koeffizienten wegen der begrenzten Statistik der wenigen Datenpunkte bei großen Abweichungen. Im Allgemeinen treten Potenzgesetzverteilungen jedoch in vielen Kontexten auf. Ein Beispiel ist die Verteilung von

9.5 Potenzgesetze

133

Daten Gaußscher

Dositiv negativ Gaußscher Lineare Anpassung an den Schwanz

,

,

,

,

Relativer Zuwachs pro Tag

Relativer Zuwachs pro Tag

Abb. 9.3  Die linke Grafik zeigt ein Histogramm der relativen Tag-zu-Tag-Änderungen der Dow Jones-Daten aus der unteren Grafik in Abb. 9.1 sowie eine Gaußsche Anpassung mit 1,1 % Standardabweichung als rote Linie. Die rechte Grafik zeigt die gleichen Daten, aber getrennt für die positiven (Sternchen) und negativen (Pluszeichen) sowie die Gaußsche Anpassung

wohlhabenden Individuen; es gibt wenige extrem reiche Individuen, aber sehr viele mehr Individuen mit mäßigem Reichtum. Wenn man ein Histogramm des Reichtums gegen die Anzahl der Individuen in einer bestimmten Reichtumsklasse in doppelt logarithmischer Weise darstellt, ergibt sich eine Gerade, was darauf hinweist, dass die Verteilung einem Potenzgesetz folgt. Dies wurde erstmals von V. Pareto, beobachtet, der die Verteilung des Reichtums in Italien Anfang der 1900er Jahre analysierte. In den 1960er Jahren fanden Mandelbrot [7] und Fama [8] FettSchwanz Verteilungen bei der Analyse von Aktienrenditen. Andere Verteilungen, die Potenzgesetzen folgen, sind mäßig große Erdbeben, wenn man ein Histogramm der Anzahl der Beben gegen ihre Größe darstellt – das bekannte RichterGesetz und Zipfs Gesetz der Wortfrequenz in Texten. Wir verweisen auf [9] für weitere Beispiele. Also gibt es etwas Besonderes an Potenzgesetzen und wir werden sie daher weiter untersuchen.

9.5 Potenzgesetze Wir folgen [9] und schreiben ein allgemeines Potenzgesetz in der Form

p(x) = Cx −α .

(9.1)

Wir weisen darauf hin, dass das Potenzgesetz wahrscheinlich nur für Werte von x größer als einem bestimmten Mindestwert xˆ gültig ist. Dies war der Fall bei den täglichen Schwankungen des Dow Jones Index, der nur für Werte größer als xˆ = 0,05 einem Potenzgesetz folgt. Alle Verteilungen, die wir im folgenden

9  Blasen, Abstürze, Dicke Schwänze und Lévy-Stabile Verteilungen

134

Abschnitt diskutieren, werden den Bereich über xˆ bis unendlich abdecken. Da Divergenzen nur in diesem Bereich auftreten, ignorieren wir die Tatsache, dass die Normalisierung und alle Momente um eine additive Konstante abweichen, je nachdem, ob wir die Verteilung unterhalb von xˆ berücksichtigen oder nicht. Die Normalisierung der Verteilung p(x) von xˆ bis unendlich ist gegeben durch

1=

ˆ∞

xˆ α−1

∞  C 1−α C −α+1  x xˆ = p(x)dx =  −α + 1 α−1 xˆ

(9.2)

oder C = (α − 1)ˆx , vorausgesetzt α > 1 um die Konvergenz des Integrals zu gewährleisten. Die Momente können dann durch Standardintegrale berechnet werden und sind gegeben durch m

�x � =

ˆ∞

x m p(x)dx =

α−1 xˆ m , α−1−m

(9.3)



wobei wir die Konstante C durch die aus der Normalisierung der Verteilung gefundene ausgedrückt haben. Gleichung 9.3 offenbart bereits einige interessante Eigenschaften von Potenzgesetzen. Um ein erstes Moment – den Mittelwert – zu haben, müssen sie α > 2 haben, sonst ist die rechte Seite negativ, obwohl alles auf der linken Seite positiv ist. Darüber hinaus existiert das zweite Moment mit m = 2 nur für α > 3. Im gleichen Sinne, damit das m-te Moment x m  zu existiert, muss α > m + 1  gelten. Umgekehrt hat eine Potenzgesetzverteilung x −α, charakterisiert durch den Exponenten α, nur Momente bis zur Ordnung α − 1. Als Beispiel betrachten wir die Verteilung ψa (x), bekannt als Lorentz-, Cauchyoder Breit-Wigner-Verteilung in verschiedenen Bereichen

ψa (x) =

1 a . 2 π a + x2

(9.4)

Der Parameter a steht qualitativ in Beziehung zur Breite der Verteilung. Asymptotisch verhält sich die Verteilung wie x −α mit α = 2 und ist bekannt dafür, kein zweites Moment zu haben, in Übereinstimmung mit der allgemeinen Diskussion im vorherigen Absatz. Als Illustration, wo Potenzgesetze auftreten können, kehren wir zur schwedischen Einkommensverteilung zurück und zeigen das Integral der Verteilungen für die Jahre 2010 bis 2014 in Abb. 9.4, abgerufen von der Website der schwedischen Statistikbehörde [10]. Wir haben uns dafür entschieden, das Integral zu zeigen, weil die Daten dadurch glatter werden. Die horizontale Achse zeigt das jährliche Einkommensniveau und auf der vertikalen Achse die Anzahl der Erwachsenen über 20 Jahre, die mehr besitzen als der Wert auf der horizontalen Achse. Die Darstellung auf der linken Seite zeigt die Daten auf einer linearen Skala und auf der rechten Seite auf einer doppelt logarithmischen Skala. Sie zeigt die lineare Abhängigkeit für hohe Einkommen, konsistent mit einer Potenzgesetz-

9.5 Potenzgesetze

Anzahl der Menschen [Millionen] ...

Anzahl der Menschen [Millionen] ...

135

... mit größerem Einkommen als [kSeK]

... mit größeren Einkommen als [kSeK]

Abb. 9.4  Die schwedische Einkommens Verteilung für die Jahre 2010 bis 2014. Der Schwanzexponent liegt zwischen α + 1 = 3,20 und 3,25 für alle Jahre

abhängigkeit mit einem Schwanzexponenten α + 1 = 3,2 für das Integral, so dass α = 2,2, was etwas größer ist als der Exponent α = 2,09 für die USA, berichtet in [9], und in der gleichen Größenordnung wie der Exponent für Italien (α = 2,5) oder Australien (α = 2,3), berichtet in [11]. Beachten Sie jedoch, dass unsere Bestimmung des Schwanzexponenten sehr grob ist. Sie sollte nur als Beispiel dienen und nicht für weitere Vergleiche verwendet werden. Die anderen Daten aus [9] wurden mit viel ausgefeilteren Methoden ermittelt. Ein besonderes Merkmal von Potenzgesetzen ist ihre Skaleninvarianz im Sinne, dass das Multiplizieren des Arguments gleich dem gleichen Potenzgesetz multipliziert mit einer Konstante ist

p(ax) = q(a)p(x)

(9.5)

welche, gemäß [9], visualisiert werden kann, indem man den Skalierungsfaktor a als eine Änderung der Einheiten betrachtet, die die Gesamtform der Verteilung beibehält. Mit dieser Definition der Skaleninvarianz zeigen wir nun, dass p(x) ein Potenzgesetz sein muss. Wir differenzieren zuerst die linke Seite von (9.5) und dann die rechte Seite, was zu folgendem führt

p′ (a) p′ (1) dp(ax) a=1 = xp′ (ax) = q′ (a)p(x) = p(x) −→ xp′ (x) = p(x) , (9.6) da p(1) p(1) wobei wir q(a) = p(a)/p(1) verwendet haben, was aus Einsetzen von x = 1 in (9.5) folgt. Variablen trennen und anschließendes Integrieren ergibt

ln p(x) − ln p(1) =

p′ (1) ′ ln x = ln x p (1)/p(1) p(1)

(9.7)

wobei die Integrationskonstante ln p(1) auf der linken Seite folgt, wenn man x = 1 setzt, was dazu führt, dass beide Seiten der Gleichung verschwinden. Die vorherige Gleichung umschreiben ergibt

p(x) = p(1)x −α

mit

α = −p′ (1)/p(1).

(9.8)

136

9  Blasen, Abstürze, Dicke Schwänze und Lévy-Stabile Verteilungen

Wir haben somit gezeigt, dass die Anforderung an die Skaleninvarianz in (9.5) direkt impliziert, dass p(x) einem Potenzgesetz folgt. Wir weisen darauf hin, dass Skaleninvarianz in unserem Kontext von Abstürzen ein sehr wichtiges Konzept ist, weil es impliziert, dass es keine natürliche Skala in den täglichen Schwankungen oder der Volatilität gibt. Im Gegensatz dazu besitzen Gaußsche Verteilungen ihre Standardabweichung σ als natürliche Skala, während die Potenzgesetzverteilung aus (9.1) skaleninvariant ist und für sehr große Schwankungen verantwortlich sein kann. In früheren Kapiteln haben wir die zeitliche Entwicklung von Aktienwerten durch einen Zufallsweg beschrieben, bei dem die kleinen täglichen Zuwächse mit einer Gaußschen Verteilung zur Entwicklung der Aktienwerte über längere Zeiträume führten. Aktienwerte sind daher Summen von Zufallszahlen. In einem späteren Abschnitt werden wir dieses Thema weiter verfolgen, insbesondere, was passiert, wenn die Zufallswerte aus Verteilungen gezogen werden, die von einer Gaußschen abweichen, wie z. B. die fettschwänzigen Potenzgesetzverteilungen. Aber zuerst wollen wir das Konzept der Skaleninvarianz etwas weiter erforschen, da es sich auf das Konzept der Fraktale bezieht.

9.6 Fraktale Die Vorstellung von Selbstähnlichkeit oder Skalierung ist eng mit dem Konzept der Fraktale verbunden. Sie sind geometrische Objekte, die eine von einer ganzen Zahl verschiedene Dimension haben. Das Konzept stammt von B. Mandelbrot, der sich fragte, wie sich die Länge der englischen Küste ändert, wenn die Größe des Lineals, mit dem sie gemessen wird, sich ändert. Mit einem großen Lineal übersehen wir alle kleinen Buchten, während die Abnahme der Linealgröße immer die gemessene Küstenlänge erhöht. Im Gegensatz dazu ergibt die wiederholte Messung der Länge einer mathematischen Linie, von der wir wissen, dass sie eindimensional ist, immer die gleiche Länge. Eine Abnahme der Linealgröße ändert die gemessene Länge nicht, weil die kürzeren Segmente durch ihre größere Anzahl ausgeglichen werden. Eine andere Möglichkeit, die geometrische Dimension eines Objekts auf der Ebene zu bestimmen, besteht darin, die Ebene mit kleinen Quadraten zu bedecken und die Anzahl der Quadrate zu zählen, die das Objekt überdecken. Dann beobachten wir, wie die Anzahl der bedeckenden Quadrate mit deren Größe skaliert. Wenn das geometrische Objekt eindimensional ist, wächst die Anzahl der bedeckenden Quadrate linear mit der Größe der Quadrate. Wenn das geometrische Objekt eine kreisförmige Scheibe wäre, würden wir feststellen, dass die Anzahl der Quadrate quadratisch mit der Größe der Quadrate wächst. Stellen Sie sich vor, wir hätten ein Objekt mit vielen dicht eingebetteten Löchern; die Anzahl der Quadrate, um das Objekt mit den Löchern zu bedecken, wäre etwas zwischen eins und zwei. Die Dimension, die wir auf diese Weise finden, wird Box-CountingDimension, die in vielen praktischen Fällen gleich der Hausdorff-Dimension ist. Im Allgemeinen skaliert die Anzahl der Boxen, die benötigt werden, um das

9.6 Fraktale

137

Generation

Objekt N zu bedecken, mit der Boxgröße ε als N(ε) = εD wenn das Objekt die Dimension D hat. Umgekehrt können wir die Dimension bestimmen, indem wir N(ε) im Maßstab ε zählen und berechnen es durch D = ln(N(ε))/ ln(ε). Mit der Absicht eine Intuition darüber zu entwickeln, wie Fraktale aussehen oder sich verhalten, diskutieren wir kurz zwei klassische geometrische Objekte mit fraktaler Dimension. Zuerst betrachten wir die Cantor-Menge, die durch die Transformation des Intervalls von null bis eins definiert ist, das wiederholt das zentrale Drittel eines beliebigen Intervalls herausnimmt. Dies wird in Abb. 9.5 illustriert, wo die obere Linie das Einheitsintervall zeigt. Auf der Linie darunter wird das zentrale Drittel entfernt und auf aufeinanderfolgenden Linien von einer Ebene zur nächsten wird immer das zentrale Drittel entfernt. Wir zeigen nur die ersten sechs Iterationen, aber es ist leicht zu verstehen, dass die Menge der Punkte nach unendlich vielen Iterationen kein eindimensionaler Punkt ist, weil es viele Punkte gibt (manchmal als Cantor-Staub bezeichnet). Es ist auch keine eindimensionale Linie, weil viele Punkte fehlen. Daher erwarten wir, dass die Dimension irgendwo zwischen null und eins liegt. Tatsächlich sehen wir, dass sich beim Ändern der Größe eines überdeckenden Quadrats um den Faktor ε ∼ 3−m, nur die Hälfte der Punkte in den Liniensegmenten übrig bleibt und sie sich um N ∼ 2−m verkleinern. Die Dimension D ist dann gegeben durch die tatsächlich D = ln(N)/ ln(ε) = ln(2−m )/ ln(3−m ) = ln(2)/ ln(3) ≈ 0,63, zwischen null und eins liegt. Die Cantor-Menge ist daher kein Punkt, aber noch nicht ganz eine Linie; sie hat eine fraktale Dimension von etwa D ≈ 0,63. Die zweite fraktale Menge ist Kochs Schneeflocke. Abb. 9.6 veranschaulicht ihre Konstruktion, die von einem einzelnen Dreieck (rot) ausgeht und wiederholt das zentrale Drittel eines jeden Intervalls durch einen „gleichseitigen Umweg“ ersetzt, wie man auf dem oberen linken Graphen sehen kann. Dort wird ein kleines blaues Dreieck zu jeder Seite des roten Dreiecks hinzugefügt. Im nächsten Schritt wird jedes der Segmente auf die gleiche Weise behandelt und dann wird der Prozess unendlich oft wiederholt. Die Dimension der Koch-Schneeflocke erwarten wir als einen Wert zwischen eins und zwei, weil der Umfang der Schneeflocke

,

,

,

,

,

,

,

,

,

Abb. 9.5  Eine Illustration, wie das Cantor-Set durch wiederholtes Entfernen des mittleren Drittels eines verbleibenden Intervalls konstruiert wird

9  Blasen, Abstürze, Dicke Schwänze und Lévy-Stabile Verteilungen

138

wächst, da in jeder Iteration Punkte hinzugefügt werden. Tatsächlich wächst die Anzahl der Punkte mit N ∼ 4m wenn wir die Skala um den Faktor drei erhöhen ε ∼ 3m . Für die Dimension D erhalten wir dann D = ln(4)/ ln(3) ≈ 1,26. Wir stellen fest, dass sowohl das Cantor-Set als auch Kochs Schneeflocke selbstähnliche Objekte sind, in dem Sinne, dass das Hineinzoomen in einen Teil des Objekts gleich aussieht, unabhängig von der Vergrößerung, die wir verwenden. Und diese Selbstähnlichkeit kann als Leitprinzip für das nicht-gaußsche Rauschen von Aktienkursen dienen. In [12] beschreibt Mandelbrot eine Methode zur Erzeugung von Fraktalen, indem er die Methode nachahmt, mit der die KochSchneeflocke erzeugt wurde. Er führte eine Abbildung vom Einheitsintervall auf sich selbst ein. Ein Beispiel ist in der oberen Grafik in Abb. 9.7 mit Parametern aus [12] dargestellt. Die Koordinaten der beiden Punkte, die den Knick in der Linie erzeugen, sind (4/9, 2/3) und (5/9, 1/3). Diese Abbildung wird auf jedes neu erstellte Intervall skaliert und iteriert, was zu der in der zweiten Grafik in Abb. 9.7 dargestellten Grafik führt. Die dritte Grafik zeigt den Unterschied zwischen einer kleinen Anzahl aufeinanderfolgender Datenpunkte und ist, salopp gesagt, die Ableitung der zweiten Grafik. Die untere Grafik zeigt ein Histogramm der in der dritten Grafik gezeigten Unterschiede. Wir stellen fest, dass die zweite Grafik eine

Generation:1

Generation:2

,

,

,

,

,

,

,

,

,

,

,

,

,

Generation:3

Generation:4

,

,

,

,

,

,

,

,

,

,

,

,

,

,

,

Abb. 9.6  Eine Illustration, wie die Koch-Schneeflocke durch wiederholte Hinzufügung eines ‚gleichseitigen Umwegs‘ im mittleren Teil jedes Intervalls konstruiert wird

9.6 Fraktale

139

, ,

,

,

,

,

,

,

,

,

,

,

,

,

,

,

,

,

,

,

,

,

,

,

,

,

,

,

,

, , ,

,

,

,

,

,

,

Abb. 9.7  Mandelbrots uni-fraktale Abbildung des Einheitsintervalls auf sich selbst. Die obere Darstellung zeigt die Abbildung der ersten Generation und die zweite Darstellung zeigt die Abbildung nach 10 Iterationen. Die dritte Darstellung zeigt den Unterschied zwischen 17 aufeinanderfolgenden Punkten und die untere Darstellung ein Histogramm der Sprünge in der dritten Darstellung

schwache Ähnlichkeit mit der Bewegung von Aktien hat, aber immer noch recht geordnet erscheint, was keine Überraschung ist; sie wird einfach durch Iteration der oberen Grafik auf jedem Segment erzeugt. Um die Zufälligkeit in der Kurve zu erhöhen, schlug Mandelbrot weiter vor, die Reihenfolge, in der die Segmente platziert werden, zu mischen. Anstatt der Sequenz (lang1, kurz, lang2), die wir verwenden, um die Sequenz der drei Segmente in der oberen Grafik von Abb. 9.7 zu bezeichnen, verwenden wir eine zufällige Permutation wie (lang2, lang1, kurz), um die drei Segmente für die nächste Iteration zu platzieren. Dies erzeugt deutlich zufälligere Spuren, die in der zweiten Grafik in Abb. 9.8 zu sehen sind. Die dritte Grafik zeigt die Inkremente und sie scheinen aus einem eher gleichmäßigen Hintergrundrauschen mit überlagerten großen Ausreißern zu bestehen. Dies ist auch im Histogramm zu sehen, das in der unteren Grafik in Abb. 9.8 dargestellt ist. Beachten Sie, dass hier die vertikale Achse des Histogramms logarithmisch ist, um die „dicken Schwänze“ deutlicher sichtbar zu machen. Wir stellen fest, dass Mandelbrots Algorithmus zur Erzeugung von durcheinandergewürfelten Fraktalen tatsächlich Kurven und Inkremente erzeugt, die Aktienkursen und dem Histogramm mit den Inkrementen, die dicke Schwänze zeigen, etwas ähneln. Beachten Sie, dass das Strecken- und Faltenverfahren auch auf die horizontale, die Zeitachse, angewendet werden kann. In diesem Fall zeigt die resultierende Kurve ausgeprägtere Perioden der Ruhe und Aktivitätsschübe, ganz so, wie der Handel im Laufe der Zeit fortschreitet. Die resultierenden Spuren werden Multifraktale genannt, im Gegensatz zu den Unifraktal-Spuren, die wir oben diskutiert haben.

9  Blasen, Abstürze, Dicke Schwänze und Lévy-Stabile Verteilungen

140

, ,

,

,

,

,

,

,

,

,

,

,

,

,

,

,

,

,

,

,

,

,

,

,

,

,

,

,

,

, ,

,

,

,

,

,

,

,

Abb. 9.8  Die gleiche Art von Grafiken wie in Abb. 9.7, aber hier sind die drei Teilintervalle zufällig durcheinandergewürfelt. Die Unterschiede in der dritten Grafik erscheinen nun wie weißes Rauschen mit einer Anzahl von großen Ausreißern, die herausstechen

Ein besonderes Merkmal der Fraktalkurven-Erzeugung ist die wiederholte Anwendung einer einfachen „Regel“, die zu einer selbstähnlichen Struktur führt, was wir früher „Skalierung“ nannten. Die auf großer Skala gefundene Struktur erscheint auf einer stark reduzierten Skala wieder. Wir werden in Abschn. 9.10 sehen, dass diese Selbstähnlichkeit mit diskreten Skalen zusätzliche großskalige Merkmale verursacht, die in Aktienkursen beobachtet werden können. Die im Laufe der Zeit sich entwickelnden Aktienwerte, wie in Abb. 9.1 dargestellt, oder die synthetische Spur aus Abb. 9.8, können als Hinzufügen eines zufälligen Inkrements zum vorherigen Wert interpretiert werden, ganz im Sinne von (4.7), nur dass hier die Inkremente aus einer Verteilung mit dicken Schwänzen gezogen werden. Dies motiviert das Thema des nächsten Abschnitts – das Addieren mehrerer Zufallszahlen.

9.7 Summen von Zufallszahlen Was passiert also, wenn wir Zufallszahlen aus einer gegebenen Verteilung addieren? Wenn die zugrunde liegende Verteilung Gaußförmig ist, können wir uns leicht davon überzeugen, dass die resultierende Verteilung ebenfalls Gaußförmig ist. Betrachten wir zur Vereinfachung zwei unabhängige Gaußförmige Verteilungen von Zufallszahlen x1 und x2. Diese werden typischerweise als iid bezeichnet, was eine Abkürzung für unabhängig identisch verteilt ist. Die Verteilung der Summe x = x1 + x2 kann berechnet werden, indem die unabhängigen Verteilungen als Produkt geschrieben, aber dann ihre Summe mit Hilfe einer

9.7  Summen von Zufallszahlen

141

Delta-Funktion eingeschränkt wird. Für die Verteilung �2 (x) der Summenvariablen x finden wir

�2 (x) =

ˆ∞

−∞ ˆ∞

=

dx1

ˆ∞

dx2 G(x1 , σ )G(x2 , σ )δ(x − x1 − x2 )

−∞

(9.9)

dx1 G(x1 , σ )G(x − x1 , σ ) ,

−∞

wobei G(xi , σ ) normalisierte Gaußsche Funktionen sind mit Standardabweichung σ oder Varianz σ 2

1

e−x

2

/2σ 2

. (9.10) 2πσ Die zweite Gleichheit in (9.9) beschreibt die Faltung von zwei Gaußförmigen Funktionen und wir wissen, dass dies wieder eine Gaußförmige Funktion mit einer Varianz ist, die die Summe der Varianzen der beiden Bestandteile ist. Da die Varianz das Quadrat der Standardabweichung σ ist, finden wir, dass √ �2 (x) = G(x, 2σ ), (9.11) G(x, σ ) = √

so dass die Summe von zwei Zufallszahlen, die jeweils nach einer Gaußschen Verteilung √ verteilt sind, wieder Gaußförmig ist, aber mit einer Standardabweichung, die 2 mal größer ist als die Standardabweichung σ der beiden Gauß Funktion für x1 und x2 . Die Verallgemeinerung von zwei auf viele, sagen wir N, i.i.d Variablen ist leicht zu realisieren, indem man beobachtet, dass die Faltung von zwei Funktionen äquivalent ist zum Produkt der Fourier-Transformationen, die durch ein Tilde gekennzeichnet und mit dem Argument k der einzelnen Funktionen und dann Fourier-transformiert zurück. In diesem Sinne ist die Fourier-Transformation ˜ N (k) der Faltung der N Gauß Funktionen �

N  ˜ σ) , ˜ N (k) = G(k, �

(9.12)

˜ σ ) die Fourier-Transformation der Gauß Funktion G(x, σ ) aus (9.10) ist. wobei G(k, ˜ σ) = G(k,

ˆ∞

eikx G(x, σ )dx = e−k

2

σ 2 /2

.

(9.13)

−∞

˜ N (k) Aus (9.12) wissen wir � √ ˜ ˜ N (k) = e−Nk 2 σ 2 /2 = G(k, (9.14) Nσ ) , � √ ˜ σ ), aber σ wird ersetzt durch Nσ . Ihre inverse die die gleiche Form hat wie G(k, √ Fourier-Transformation wird ergeben �N (x) = G(x, Nσ ).

142

9  Blasen, Abstürze, Dicke Schwänze und Lévy-Stabile Verteilungen

Jetzt fügen wir√eine Wendung hinzu: Da wir wissen, dass die Standardabweichung mit N wächst, berechnen wir nicht die Verteilungsfunktion von x = x1 + · · · +√xn , sondern berechnen die Verteilungsfunktion von y = (x1 + · · · + xn )/ N , was bedeutet, dass jede Zufallsvariable xi durch √ N geteilt wird und das bedeutet, dass in der Definition des Gauß in (9.10) die √ Standardabweichung σ wird ersetzt durch σ N und wenn√wir die folgenden Schritte zurückverfolgen, stellen wir fest, dass der Faktor N aus (9.14) √ verschwindet. Mit anderen Worten, wenn wir die skalierten Variablen y = x/ N anstelle von x verwenden, reproduziert die Summe der aus i.i.d Gauß Verteilungen gezogenen Zufallszahlen die ursprüngliche Gauß Verteilung. Beachten Sie, dass wir jede andere Verteilung D(x) anstelle einer Gaußschen verwenden könnten. Aber bevor wir weiter vorgehen, müssen wir kurz die erzeugende Funktion einer Wahrscheinlichkeitsverteilungsfunktion D(x) und ihre ´ Kumulantenentwicklung einführen. Die Fourier-Transformation ˜ D(k) = eikx D(x)dx von D(x) wird die erzeugende Funktion genannt, weil die ´ Expansionskoeffizienten ihrer Taylor-Reihe mit den Momenten �x m � = x m D(x)dx durch  ∞  m˜ m  D(k) d �x �  m m m ˜ D(k) (ik) mit �x � = (−i) =  (9.15) m! dk m  m=0

k=0

gegeben ist. Gleichermassen führen wir die Taylor-Entwicklungskoeffizienten cm   ˜ des Logarithmus der erzeugenden Funktion log D(k) ein. Die cm werden als ˜ Kumulanten bezeichnet und sie ermöglichen es uns, D(k) zu schreiben als   ∞   ˜ d m log D(k)  cm  m m  ˜ D(k) = exp mit cm = (−i) (ik) . (9.16)  m m! dk  m=0 k=0

Die Kumulanten haben die sehr praktische Eigenschaft, dass das Faltungsprodukt von zwei Verteilungsfunktionen der Summe ihrer jeweiligen Kumulanten entspricht. Wir haben dieses Merkmal bereits bei den Gaußschen Verteilungen gesehen, deren Varianzen addiert werden, wenn zwei Gaußsche Verteilungen gefaltet werden. Lassen Sie uns nun zur Berechnung der Summe von Zufallszahlen zurück˜ kehren, die aus der Verteilungsfunktion D(x) mit Fourier-Transformation D(k) ˜ entnommen werden. Die erzeugende Funktion �N (k) der Summe von N aus D(x) ˜ gezogenen Zufallszahlen wird durch die Nte Potenz von D(k) gegeben

N  ˜ ˜ N (k) = D(k) � .

(9.17)

9.7  Summen von Zufallszahlen

143

˜ Wenn wir nun D(k) durch seine Kumulantenerweiterung ausdrücken, wie in (9.16) gegeben, stellen wir fest, dass die Nte Potenz der Verteilungsfunktion einfach alle Kumulanten cm mit N multipliziert und wir erhalten ∞   Ncm ˜ N (k) = exp � (ik)m . (9.18) m! m=0 Die Inverse Fourier-Transformation ergibt dann die Verteilungsfunktion �N (x)

�N (x) =

1 2π

ˆ∞

˜ N (k)dk . e−ikx �

(9.19)

−∞

Wir wissen, dass �N (x), die Summe von N Zufallszahlen, sich um den Faktor √ N im Vergleich zur zugrunde liegenden Verteilung D(x) ausgebreitet hat, wo die Breite durch die Varianz gegeben war, die gleich dem√zweiten Kumulanten c2 ist. Wenn wir andererseits umskalieren �N (x) durch x = Ny, ist die Breite oder Kumulant der skalierten Verteilungsfunktion wieder gleich c2. Die Fourier-Transformation wird dann zu ∞   √ ˆ iky √ k ˜N √ , N e �N ( Ny)dy = � N

(9.20)

−∞

√ wobei der Faktor N auf der linken Seite die Normalisierung erhält. Eine √ Untersuchung zeigt, dass eine Multiplikation im Realraum mit einem Faktor N multi√ pliziert die Variable k im Fourier-Raum mit dem inversen Faktor 1/ N. ˜ N (k) in (9.18) anwendet, nämlich k durch Wenn man dieses Verfahren auf � √ ˜ Nr (k) wobei wir r zum Index k/ N ersetzt, erhält man die skalierte Funktion � hinzugefügt haben, um die Skalierung zu kennzeichnen ∞   ∞  Ncm  ik m  c m ˜ Nr (k) = exp √ � = exp N 1−m/2 (ik)m . (9.21) m! m! N m=0 m=0 Wir beobachten, dass die Fourier-Transformation der Verteilung, die sich aus√ der Summe von N Zufallszahlen ergibt und auf die ursprüngliche Skala durch N skaliert wird, in Bezug auf die Kumulantenexpansion gegeben ist, wobei die Kumulanten durch

cm → N 1−m/2 cm .

(9.22)

Im Grenzfall großer N → ∞ überleben nur die ersten beiden Kumulanten, alle anderen mit m > 2 verschwinden. Im Grenzfall erhalten wir

˜ Nr (k) = e−c2 k 2 /2 , lim �

N→∞

(9.23)

144

9  Blasen, Abstürze, Dicke Schwänze und Lévy-Stabile Verteilungen

wo wir stillschweigend angenommen haben, dass die Verteilungen zentriert sind mit c1 = 0. Für die Grenzverteilung im Realraum finden wir

1 �r (y) = 2π

ˆ∞

e−iky e−c2 k

2

/2

=√

−∞

1 2 e−y /2c2 , 2πc2

(9.24)

was eine Gaußsche Verteilung mit einer Standardabweichung ist, die durch die zweite Kumulante der zugrunde liegenden Verteilungsfunktion D(x) gegeben ist. Beachten Sie, dass es sehr wenige Voraussetzungen für die Verteilungsfunktion gibt, nur dass sie als Kumulant-Expansion ausgedrückt werden kann, was das Vorhandensein von mindestens der ersten und zweiten Kumulanten erfordert. Tatsächlich umfasst dies alle Verteilungen mit existierendem zweiten Moment oder äquivalent zweitem Kumulant. Aber das ist das Wesen des zentralen Grenzwertsatzes, der besagt, dass Summen von Zufallszahlen, die aus einer Verteilung mit einem zweiten Moment entnommen werden, gegen eine Gaußsche Verteilung konvergieren, wenn ausreichend viele Zufallszahlen gezogen werden und die Ausbreitung der Verteilung durch Skalierung ausgeglichen wird, was genau das ist, was wir getan haben. Wir können dieses Verhalten auch beschreiben, indem wir eine beliebige Verteilungsfunktion mit existierendem zweiten Moment betrachten, die wiederholt mit sich selbst gefaltet und skaliert wird. Wenn dieses Verfahren ausreichend oft wiederholt wird, erhalten wir eine Gaußsche Verteilungsfunktion. Sobald wir bei einer Gaußschen Verteilung ankommen, reproduziert die Faltung mit sich selbst und die Skalierung die gleiche Gaußsche Verteilung. Im Grunde bilden wir Verteilungen auf andere Verteilungen ab und bleiben schließlich bei einer allgemeinen Verteilung hängen, die ein Fixpunkt der Abbildungsregel ist. Beachten Sie, dass dies eine sehr fußgängerfreundliche Beschreibung der Renormierungsgruppe ist. Diese Diskussion behandelt jedoch keine Potenzgesetze – sie haben weder ein erstes noch ein zweites Moment. Insbesondere zufällige Zahlen, die aus einer Cauchy- oder Lorentz-Verteilung in (9.4) gezogen werden, konvergieren nicht gegen eine Gaußschen Verteilung. Im nächsten Abschnitt werden wir herausfinden, was sie statt dessen tun.

9.8 Lévy-Stabile Verteilungen Es stellt sich heraus, dass der Prozess des wiederholten Faltens und Skalierens der fettschwänzigen Potenzgesetzverteilungen, die in Abschn. 9.5 diskutiert wurden, [13] zu sogenannten Lévy-stabilen Verteilungen konvergieren. Sie gehorchen der Fixpunktbedingung

Lµ (y; N)dy = Lµ (x; 1)dx

mit

y = aN x + b N ,

(9.25)

wobei Lµ (x; N) die Funktion ist Lµ (x; 1) N-mal mit sich selbst gefaltet ist, aber die gleiche Form wie die ursprüngliche Verteilung behält. Es gibt sehr wenige explizit bekannte Darstellungen von Lévy-stabilen Verteilungen im Real-

9.8  Lévy-Stabile Verteilungen

145

raum, aber die Fourier-Transformationen von symmetrischen Verteilungen mit Lµ (x; 1) = Lµ (−x; 1) haben die Form µ L˜ µ (k; 1) = e−a|k|

(9.26)

mit 0 < µ < 2

was der Kumulanten-Entwicklung aus (9.16) ähnelt, aber Bruchpotenzen µ kleiner als 2 verwendet. Tatsächlich beschreibt µ = 2 eine Gaußsche mit a = σ 2 /2, was leicht zu sehen ist, wenn man mit (9.13) vergleicht. Der Fall µ = 1 führt zur Cauchy-Verteilung in (9.4). Die allgemeine Form für asymmetrische Verteilungen findet sich in [13]. Im Folgenden werden wir uns jedoch auf symmetrische Verteilungen beschränken, deren Relevanz zur Beschreibung von Finanzdaten in [14] veranschaulicht wurde. Zuerst zeigen wir, dass die Lévy-Verteilungen, wie durch (9.26) beschrieben, tatsächlich die Skalierungsrelation aus (9.25) erfüllen. Da alle Verteilungen i.i.d sind, können wir die Fourier-Transformation der N-mal gefalteten Form durch

N  µ L˜ µ (k; N) = L˜ µ (k; 1) = e−aN|k|

(9.27)

berechnen und erhalten die Realraumversion aus der inversen Fourier-Transformation

1 Lµ (y; N) = 2π

ˆ∞

µ

e−iky e−aN|k| dk

−∞

1 = 1/µ N 2π 1

ˆ∞



′ µ

e−ik x e−a|k | dk ′

(9.28)

−∞

=

1 N 1/µ

Lµ (x; 1)

wo wir k ′ = kN 1/µ und x = yN −1/µ in der zweiten Gleichung substituiert haben, so dass k ′ x = ky. Die letzte Gleichung ist nur die Definition der Fourier-Transformation von Lµ (x; 1). Wir sehen also, dass die Form der Verteilung durch wiederholte Faltung erhalten bleibt, genau wie von (9.25) gefordert. Nun bleibt zu zeigen, dass die Lévy-Verteilungen tatsächlich zu PotenzgesetzVerteilungen führen. Um dies zu zeigen, berechnen wir ihr asymptotisches Verhalten für große x und das wird durch das Verhalten der Fourier-Transformation in der Nähe von k = 0 bestimmt. Daher Fourier-transformieren wir nur den ersten Ordnungsterm der Taylor-Expansion von (9.26)

1 2π

ˆ∞ −∞

−ikx

e

a (1 − a|k| )dk ≈δ(x) − π µ

ˆ∞

k µ e−ikx dk

0

1

a ≈δ(x) − µ+1 x π

ˆ∞ 0

(9.29)

zµ e−iz dz ,

146

9  Blasen, Abstürze, Dicke Schwänze und Lévy-Stabile Verteilungen Cauchy Gauß Levy

Cauchy Gauß Levy

Abb. 9.9  Die normalisierte Cauchy (µ = 1, schwarz) Gauss (µ = 2, rot) und symmetrisierte Lévy-Verteilung (µ = 1/2, blau). Auf der linken Seite ist die vertikale Achse logarithmisch und auf dem rechten Diagramm sind beide Achsen logarithmisch mit nur positiven x−Werten. Die starken Potenzgesetz-Schwänze für Cauchy- und Lévy-Verteilungen mit 1/x µ+1 Abhängigkeit sind deutlich sichtbar

wobei wir die Substitution z = kx im letzten Schritt verwenden und sehen, dass die asymptotische x-Abhängigkeit tatsächlich ein Potenzgesetz mit 1/x µ+1 ergibt. Im Vergleich mit (9.1) sehen wir, dass die Schwanzordnung α aus Abschn. 9.5 ist verwandt mit µ durch α = µ + 1. Es ist lehrreich, die drei bekannten Realraumbeispiele für Lévy-stabile Verteilungen zu plotten. In Abb. 9.9 zeigen wir normalisierte Cauchy (9.4), Gaußsche (9.10) und die symmetrisierte Lévy-Verteilung

1 e−1/2|x| . L1/2 (x; 1) = √ π (2|x|)3/2

(9.30)

Auf der linken Seite werden die Verteilungen mit einer vertikalen logarithmischen Achse gezeigt, und auf der rechten Seite mit doppelt-logarithmischen Achsen und etwas erweitertem horizontalen Bereich. Wir bemerken insbesondere die Potenzgesetzabhängigkeit für Cauchy- und Lévy-Verteilungen. Beachten Sie auch, dass die Lévy-Verteilung L1/2 ein Loch am Ursprung hat. Darüber hinaus impliziert µ = 1/2 dass die Lévy-Verteilung weder ein erstes noch zweites Moment besitzt. Jetzt wissen wir, wie fette Schwänze durch Potenzgesetze charakterisiert sind und wir verwenden diese Informationen, um zu untersuchen, wie der maximale Wert, der aus einer Verteilung gezogen wird, fettschwänzig oder anders, mit wiederholtem Ziehen von Zahlen aus der Verteilung wächst. Dies beantwortet die Frage, wie lange wir warten müssen, bis wir auf das nächste extreme Ereignis stoßen.

9.9 Extremwerttheorie Die Theorie der Extremwerte befasst sich unter anderem mit der Frage, wie schnell der maximale Wert von Stichproben, die aus einer gegebenen Verteilung gezogen werden, als Funktion der wiederholten Ziehungen wächst. Umgekehrt,

9.9 Extremwerttheorie

147

wie oft müssen wir ziehen, bis wir erwarten können, einen bestimmten großen Wert zu überschreiten? Darüber hinaus könnten wir neugierig auf die Verteilung der Extremwerte sein. Dies ist im Grunde das Histogramm der Werte, die alle vorherigen Stichproben überschreiten. Wir werden beide Themen diskutieren, beginnen aber mit der ersten Frage und folgen dabei [9]. Also fragen wir uns zuerst, wie schnell der Wert der maximalen Stichprobe mit der Anzahl der Ziehungen n wächst. Wir beginnen mit einer normalisierten Verteilungsfunktion D(x) und ihrer kumulativen Verteilungsfunktion

C(x) =

ˆx

D(x ′ )dx ′ ,

(9.31)



wobei xˆ der kleinstmögliche Wert ist, der beispielsweise für eine Gaußsche Verteilung −∞, sein könnte. Für eine Potenzgesetzverteilung wäre es der kleinste Wert, zum Beispiel 1. Beachten Sie, dass wir ebenso gut den Schwanzanteil T (x) = 1 − C(x) einführen könnten, der die Fläche unter der Verteilungsfunktion von x bis zum maximalen Wert ist, der oft unendlich ist. Die Wahrscheinlichkeit, eine Stichprobe zwischen x und x + dx nach n Zeichnungen wird beschrieben durch

�(x)dx = nC(x)n−1 D(x)dx

(9.32)

weil wir n − 1 Mal einen Wert kleiner als x finden müssen, was den Faktor C(x)n−1 erklärt und einmal einen Wert zwischen x und x + dx, was D(x)dx entspricht. Außerdem gibt es n verschiedene Möglichkeiten zu wählen, wann das Maximum gezogen wird. Der gesuchte erwartete Maximalwert nach n Ziehungen kann daher als Erwartungswert von x in Bezug auf die Verteilungsfunktion �(x) berechnet werden.

�xn � =

ˆ∞

x�(x)dx = n



ˆ∞

xC(x)n−1 D(x)dx.

(9.33)



Lassen Sie uns nun xn  für verschiedene Verteilungen D(x), berechnen, um ihr Verhalten für große n zu untersuchen. Zunächst betrachten wir eine exponentielle Verteilung, die auf dem Intervall von 0 bis Unendlich definiert ist.

D(x)dx = e−x dx

so dass C(x) = 1 − e−x .

(9.34)

Der Erwartungswert für das Maximum nach n Ziehungen ist dann

�xn �exp = n

ˆ∞

xe−x (1 − e−x )n−1 dx ,

(9.35)

0

was wir numerisch integrieren für n = 10m mit m = 1, . . . , 10 und zeigen das Ergebnis als durchgezogene schwarze Linie in Abb. 9.10. Wir beobachten, dass xn exp linear mit log(n) wächst.

148

9  Blasen, Abstürze, Dicke Schwänze und Lévy-Stabile Verteilungen

In einem zweiten Beispiel verwenden wir eine vereinfachte Gauß-Funktion, die nur für positive x definiert ist, um die Skalierung des Maximalwerts für große n zu bewerten. Für die Gauß-Funktion verwenden wir

2 2 D(x) = √ e−x π

so dass C(x) = erf(x)

(9.36)

welche, nach Einsetzen in (9.33) zu folgendem Ausdruck führt

�xn �gauss

2n =√ π

ˆ∞

2

xe−x erf(x)n−1 dx .

(9.37)

0

Durch numerische Integration dieses Ausdrucks und Quadrieren des Ergebnisses erhalten wir die punktierte rote Linie in Abb. 9.10, die eine lineare Abhängigkeit zeigt. Dies deutet darauf hin, dass √ für eine Gaußsche der erwartete Maximalwert nach n Ziehungen xn gauss mit log(n) anwächst. Für die Potenzgesetze, die in Abschn. 9.5 besprochen wurden, schreiben wir die Verteilungsfunktion D(x) als

µˆx µ , (9.38) x µ+1 wobei wir den Parameter µ = α − 1 verwenden, um die Schwanzordnung konsistent mit Abschn. 9.8 zu charakterisieren. Für die kumulative Schwanzverteilungsfunktion T(x) erhalten wir dann D(x) =

Exponential Gaußsches Quadrat

Abb. 9.10  Der durchschnittliche maximale erwartete Wert xn exp für eine exponentielle Verteilung wird als durchgezogene schwarze Linie dargestellt. Die rote gestrichelte Linie zeigt das Quadrat des durchschnittlichen maximalen erwarteten Werts xn 2gauss für eine Gaußsche √ Verteilung. Dies impliziert für die exponentielle Verteilung �xn �exp ∝ log(n) und �xn �gauss ∝ log(n) für eine Gaußsche Verteilung

9.9 Extremwerttheorie

149

T (x) = 1 − C(x) =

ˆ∞

D(x ′ )dx ′ =

x

 x −µ xˆ

,

(9.39)

so dass der Ausdruck für den Erwartungswert xn  Wert gegeben ist durch

�xn � = nµ

ˆ∞ xˆ

  x −µ n−1 xˆ µ 1− dx. xµ xˆ

(9.40)

Ersetzen von y = 1 − (x/ˆx )−µ ändert die Integrationsgrenzen und wir kommen zu

�xn � = nˆx

ˆ1 0

  µ−1 , (1 − y)1/µ yn−1 dy = nˆx B n, µ

(9.41)

wobei B(z,w) ist die Beta-Funktion, der wir bereits in Abschn. 7.7 begegnet sind. Jetzt müssen wir die asymptotische Abhängigkeit der Beta-Funktion für große Argumente n finden. Wir drücken daher die Beta-Funktion durch die GammaFunktion aus und verwenden die Stirling-Formel (6.1.37 in [15]). Um das Schreiben zu vereinfachen, setzen wir z = (µ − 1)/µ) und erhalten

B(n, z) =

nn e−n nn Ŵ(n)Ŵ(z) ≈ Ŵ(z) −(n+z) ≈ Ŵ(z) ≈ Ŵ(z)n−z , n+z (n + z) Ŵ(n + z) e (n + z)n+z (9.42)

wo wir mehrmals verwendet haben, dass z ≪ n. Für die asymptotische Abhängigkeit von xn  wir finden daher

�xn � ∼ n1+(µ−1)/µ ∼ n1/µ .

(9.43)

Der maximale Wert, den wir nach n Proben erwarten können, wächst also mit n1/µ. Beachten Sie, dass dies viel schneller wächst als die logarithmisch wachsenden erwarteten Werte für die exponentiellen und Gaußschen Verteilungen aus den ersten beiden Beispielen. In Abb. 9.11 zeigen wir die Abhängigkeit des erwarteten Maximalwerts für mehrere Verteilungen mit µ = 0,5, 1, 1,5 und einer Gaußschen Verteilung zum Vergleich. Beachten Sie, dass bei Gaußschen Verteilungen große Werte (hoch auf der vertikalen Achse) trotz Wartens auf viele Proben selten erwartet werden, während Verteilungen mit dicken Schwänzen, und dazu gehört die Cauchy-Verteilung mit µ = 1, eine viel höhere Erwartung großer Werte haben, selbst nach einer moderaten Anzahl von Proben. Es ist lehrreich zu untersuchen, welcher Anteil eines Vermögens x mit Verteilung D(x) tatsächlich in einem bestimmten Teil der Verteilung verteilt ist. Dies hat V. Pareto getan als er analysierte, welcher Anteil des Vermögens der italienischen Bevölkerung von welchem Anteil der Bevölkerung gehalten wird. Stellen Sie sich vor, dass jemand mit einem Vermögen von 100 Mrd. US$ etwa 0,6 % des Bruttoinlandsprodukts (BIP) der USA im Jahr 2015 besitzt. Letzteres beträgt etwa 18.000 Mrd. US$.

9  Blasen, Abstürze, Dicke Schwänze und Lévy-Stabile Verteilungen

Erwarteter Höchstwert

150

μ=0,5 μ=1 (Cauchy) μ=1,5 Gauss

Anzahl der Proben n Abb. 9.11  Der erwartete Extremwert als Funktion der Proben n für mehrere Verteilungen. Beachten Sie, dass kleine µ verursachen, dass xn  schnell wächst, während die Gaußsche Verteilung schwach anwächst

Das kumulative Vermögen A(x) im Schwanz einer Potenzgesetzverteilung wird gegeben durch

A(x) =

ˆ∞ x

 µ−1 µˆx xˆ , x D(x )dx = µ−1 x ′





(9.44)

wobei wir das Potenzgesetz aus (9.38) eingesetzt haben. Der Anteil des Vermögens (der „Vermögensanteil“) im Schwanz ist  µ−1 xˆ A(x) = . W (x) = (9.45) A(ˆx ) x Wir haben den Anteil in den Schwänzen bereits in (9.39) berechnet und festgestellt, dass er T (x) = (x/ˆx )−µ ist. Wenn wir W(x) durch T(x) ausdrücken, finden wir

W = T (µ−1)/µ ,

(9.46)

was wir in Abb. 9.12 für µ = 1,1, 1,2, 1,5, 2,0, und 2.5 darstellen. In [9] zitiert der Autor, dass der Potenzgesetzexponent für die US-Vermögensverteilung α = µ + 1 = 2,1. ist. Daher sehen wir aus der Kurve für µ = 1,1 dass T = 20% der Bevölkerung über 80 % des Vermögens besitzt. Diese Beobachtung stimmt mit Paretos ursprünglicher Analyse im 19. Jahrhundert überein und wird als Paretos 80/20 Gesetz bezeichnet. Schließlich folgen wir [16] und berechnen die Wahrscheinlichkeit, dass in n Ziehungen der maximale Wert unter x bleibt. Aber diese Verteilung ist gegeben durch

Reichtum in der Schlussfraktion W

9.9 Extremwerttheorie

151

, , ,

μ=1,1 μ=1,2 μ=1,5 μ=2 μ=2,5

,

,

, , Schwanzanteil T

,

Abb. 9.12  Der Anteil des Vermögens W in der Schwanzfraktion T für Potenzgesetzverteilungen mit µ = 1,1, 1,2, 1,5, 2,0, 2,5.

H(x) = C(x)n ,

(9.47)

wobei C(x) die kumulative Verteilungsfunktion ist, gegeben durch das Integral über D(x). Bemerkenswerterweise nähert sich im Grenzfall n → ∞ die Verteilung H(x) einer konstanten Verteilung. Es gibt drei verschiedene Fälle. Erstens, wenn die zugrunde liegende Verteilung Schwänze hat, die schneller als ein Potenzgesetz abfallen, wie beispielsweise eine Gaußsche Verteilung, kann gezeigt werden [13] dass sie sich der Gumbel-Verteilung nähert   G(x) = exp −e−(x−m)/a (9.48)

wobei m die Position beschreibt und a ein Skalenparameter ist. Wenn die zugrunde liegende Verteilung D(x) einem Potenzgesetz folgt mit D(x) ∝ 1/x µ+1, kann die Grenzverteilung gezeigt werden [13] dass die Grenzverteilung eine Fréchet-Verteilung ist, die definiert ist durch   1 . F(x) = exp − (9.49) max(0, 1 + (x − m)/(µa))µ

Wenn die Verteilung D(x) einen endlichen Maximalwert xf = m + a/|ξ | hat, kann gezeigt werden [13], dass die Grenzverteilung die Weibull-Verteilung ist, gegeben durch     m + (a/|ξ |) − x 1/|ξ | W (x) = exp − max 0, (9.50) a wo ξ negativ ist und x nähert sich dem maximalen Wert xf mit (xf − x)1/|ξ | .

9  Blasen, Abstürze, Dicke Schwänze und Lévy-Stabile Verteilungen

152

, , , ,

,

Abb. 9.13  Beispiele für die Gumbel-, Fréchet- und Weibull-Verteilungen

In Abb. 9.13 zeigen wir die Abhängigkeit der Gumbel-, Fréchet- und WeibullVerteilungen für a = 1 und m = 0. Wir haben ξ = −1/2 für die Weibull-Verteilung gewählt, und µ = 1,1 für die Fréchet-Verteilung. Wir weisen darauf hin, dass die Wahrscheinlichkeit, einen Wert größer als die Abszisse x zu finden, jeweils gegeben ist durch 1 − G(x), oder 1 − F(x), oder 1 − W (x) . Die FréchetVerteilung, die eine zugrunde liegende Potenzgesetzverteilung hat, aus der die Stichproben gezogen werden, steigt bei großen Werten von x sehr langsam an und ist weit entfernt von Eins, selbst bei x = 10. Dies impliziert, dass es eine signifikante Wahrscheinlichkeit gibt, noch extremere Werte zu finden. Im Gegensatz dazu hat die Weibull-Verteilung einen Endpunkt bei x = 2 und die GumbelVerteilung nähert sich bereits bei moderaten Werten von x der Eins. Nachdem wir die Verteilungen der potenziellen Tag-zu-Tag-Schwankungen diskutiert und ihr Verhalten bis zu einem gewissen Grad analysiert haben, werden wir uns nun wieder den spekulativen Blasen zuwenden.

9.10 Endliche-Zeit-Divergenz und log-periodische Oszillationen Die Zeit vom Start einer spekulativen Blase bis zu dem Zeitpunkt, an dem sie ohne Grenzen wächst und abstürzt, ist endlich. Dies steht im Gegensatz zu einem exponentiellen Wachstum, das eine unendlich lange Zeit benötigt, um „Unendlich zu erreichen“. Daher sind Blasen und Abstürze durch eine endliche-ZeitDivergenz und eine größere als lineare Wachstumsrate ν > 1 gekennzeichnet. Wir untersuchen das Verhalten, indem wir das folgende einfache System für eine dynamische Variable s betrachten

9.10  Endliche-Zeit-Divergenz und log-periodische Oszillationen

153

1 sν ds = (9.51) dt τ sˆ ν−1 wobei τ eine Zeitkonstante ist und sˆ ein Skalierungsfaktor. Wenn wir die Gleichung als ds/sν = dt/(ˆsν−1 τ ) umschreiben, können wir sie integrieren mit dem Ergebnis s(t) =

s0 (1 − t/τc )1/(ν−1)

mit

τc =

 ν−1 τ sˆ ν − 1 s0

(9.52)

wobei s0 der Wert von s bei t = 0 ist. Wir beobachten, dass s eine Singularität zur endlichen Zeit t = τc . aufweist. Wir beobachten auch, dass τc vom Anfangswert s0 abhängt, so dass größere s0 dazu führen, dass τc kleiner ist, so dass die Singularität früher erreicht wird. Die Stärke der Nichtlinearität ν beschreibt die Geschwindigkeit, mit der die Singularität erreicht wird. Insbesondere ν = 2 führt zu einer hyperbolischen Singularität mit s(t) ∼ 1/(t − τc ). Auf der linken Seite der Abb. 9.14 zeigen wir den Dow Jones Industrial Index während der „Goldenen Zwanziger Jahre“ bis zum Crash von 1929. Die rote Linie ist eine Anpassung, die durch „Augenmaß“ und manuelle Anpassung der Parameter ν und τc vorgenommen wurde, bis die Anpassung „gut aussieht“. Ebenso zeigt das rechte Diagramm die Blase, die zum Crash von 1987 führte. In beiden Diagrammen sind die verwendeten Werte in der Legende angegeben. Der Zeitpunkt der Singularität τc wurde auf diese Weise bestimmt, 180 Tage nach dem Ende der angezeigten Daten zu sein. Die Interpretation ist, dass der Markt im Jahr 1929 überhitzt war und auf diese Weise instabil wurde und jede kleine Störung konnte (und tat) zum Crash führen. Wir stellen fest, dass trotz recht vernünftig aussehender Anpassungen die Vorhersagekraft begrenzt ist, weil wir heute („ex-post“) bereits wissen, dass es zu den jeweiligen Zeiten einen Crash gab und wir den Bereich für die Anpassung

Dow Jones Anpassung mit =2,8,τ c =2204 Tage

Dow Jones

Dow Jones

Dow Jones Anpassung mit =2,4, =2882 Tage

Jahr

Jahr

Abb. 9.14  Auf der linken Seite zeigen wir die Blase, die zum Crash von 1929 führte, und eine „abgeschätzte“ Anpassung an (9.52) mit ν = 2.4 und τc = 2862 Tagen. Die Grafik auf der rechten Seite zeigt die Blase, die zum Crash von 1987 führte, mit einer Anpassung mit ν = 2.8 und τc = 2204 Tagen. In beiden Fällen befindet sich die Singularität 180 Tage nach dem Ende der dargestellten Daten

9  Blasen, Abstürze, Dicke Schwänze und Lévy-Stabile Verteilungen

154

passend auswählen konnten. Hätten wir die Rohdaten beobachtet, während sie in den 1980er Jahren („ex-ante“) produziert wurden, wären wir wahrscheinlich nicht in der Lage gewesen, von den verrauschten Rohdaten in die Zukunft zu extrapolieren und vorherzusagen, wann die Singularität eintreten wird. Eine hilfreiche Beobachtung, die Sornette [17] hervorhebt, sind systematische Oszillationen auf den angepassten Kurven, die scheinbar eine immer kürzere Periode zu haben, je näher die Singularität rückt. Diese Oszillationen sind in Abb. 9.14 gut sichtbar und noch ausgeprägter vor dem Soft-Crash aus dem Jahr 1962, der in Abb. 9.15 dargestellt ist und durch Investoren verursacht wurde, die von der ersten Welle der Unterhaltungselektronik nach der Erfindung des Transistors begeistert waren. Wie sich herausstellt, kann der Ursprung der Oszillationen auf eine Skaleninvarianz zurückgeführt werden, die durch p(x) = q()p(x), die wir bereits in Abschn. 9.5 diskutiert haben, aber mit einer speziellen Wendung. Hier ändert sich die Skala in diskreter Weise um einen Faktor , anstatt kontinuierlich, was uns früher zu skaleninvarianten Verteilungen und zu Potenzgesetzen führte. Im Falle einer diskreten Skaleninvarianz ist die allgemeinste Lösung für (9.5)   ln x γ ˆ p(x) = Cx Q (9.53) ln  wobei der Exponent γ gerade das Negative von α in (9.1) ist und Q(x) ist eine periodische Funktion mit einer Periode Eins Q(z + 1) = Q(z). Dies ist leicht zu überprüfen, indem man berechnet

    ln x ln(x) γ γ γ γ ˆ ˆ +1 = C x Q p(x) =C x Q ln  ln    ˆ γ x γ Q ln x = γ p(x) =C ln  wobei wir q() = γ identifizieren.

Dow Jones Logarithmischperiodische Anpassung

Dow Jones

Abb. 9.15  Die Blase aus den frühen 1960er Jahren, die 1962 verpuffte. Die Oszillationen sind jedoch in diesem Fall sehr deutlich ausgedrückt und eine Anpassung an (9.58) funktioniert ziemlich gut

Jahr

(9.54)

9.10  Endliche-Zeit-Divergenz und log-periodische Oszillationen

155

Da wir wissen dass Q(z) periodisch mit Einheitsperiodizität ist, können wir es als Fourier-Reihe schreiben

ˆ CQ(z) =

∞ 

cn e2π inz ,

(9.55)

n=−∞

wobei wir die Konstante Cˆ in die Fourier-Koeffizienten cn aufgenommen haben. Nach Einsetzen der Darstellung von Q(z) in (9.53), finden wir

p(x) = x γ

∞ 

n=−∞

cn e2π in ln(x)/ ln() =

∞ 

cn x γ +2π in/ ln()

(9.56)

n=−∞

was zeigt, dass für diskrete Skaleninvarianzen die Funktion p(x) kein einfaches Potenzgesetz ist, sondern eine unendliche Reihe von Potenzgesetzen mit komplexen Exponenten. In Abschn. 9.6 haben wir gezeigt, wie die Entwicklung von Aktien in Form eines multifraktalen Zufallswegs beschrieben werden kann, der explizit durch wiederholte Anwendung derselben Regel auf jede zeitliche Unterteilung konstruiert wurde. Dies deutet auf eine diskrete Skalentransformation hin und wir folgen [17] und stellen die Hypothese auf, dass die Aktien durch (9.56) beschrieben werden können. Wenn wir nur die ersten beiden Terme mit n = 0 und n = 1 mitnehmen, und erhalten   ln x γ γ −φ . p(x) = Bx + Cx cos 2π (9.57) ln 

Wir erkennen jetzt, dass die diskreten Unterteilungen der Zeitreihe unserer Aktie in der Zeit stattfinden und somit entspricht x der Zeit. Wir haben uns dafür entschieden, die Zeit als Zeit-bis-zum-Crash zu messen und haben daher x = tc − t. Darüber hinaus identifizieren wir ω = 2π/ ln  mit der Log-Periodizität der Schwingungen. Wenn wir noch einen zusätzlichen ad-hoc-Anpassungsparameter A einbeziehen, um eine Verschiebung in den Aktienwerten zu berücksichtigen, kommen wir zu der folgenden Beschreibung für die Aktien vor dem Crash

p(t) = A + B(tc − t)γ + C(tc − t)γ cos(ω ln(tc − t) − φ)

(9.58)

was unserem vorherigen vereinfachten Modell in (9.52) ähnelt, vorausgesetzt, dass A = 0 und C = 0. Darüber hinaus ist der Exponent γ in (9.58) verwandt mit ν in (9.52) und ist gegeben durch γ = −1/(ν − 1). In Abb.  9.15 zeigt die rote Linie eine Anpassung an (9.58) mit A = 960, B = −120, C = −14,9, γ = 0,68, tc = 164,83, ω = 12,1, und φ = 4.1, wobei die Parameter aus [17] entnommen sind. Die letzten 30 Monate vor dem Crash von 1929 können ebenfalls mit (9.58) angepasst werden, wobei die Parameter aus [17] entnommen sind ( A = 571, B = −267, C = 14,3, γ = 0,45, tc = 1930,22, ω = 7,9, φ = 1). Die Anpassung wird als rote Linie in Abb. 9.16

9  Blasen, Abstürze, Dicke Schwänze und Lévy-Stabile Verteilungen

156

Dow Jones

Dow Jones

Logarithmischperiodische Anpassung

Jahr Abb. 9.16  Die Blase vor dem großen Crash von 1929 mit log-periodischer Oszillation und einer Anpassung an (9.58). Wir haben den Anpassungsbereich eingeschränkt, weil nichtlineare Effekte die Anpassung vor Juni 1927 verderben, aber eine verbesserte Anpassungsfunktion ist verfügbar und wird in [17] diskutiert

dargestellt. Die Anpassung des gesamten in der linken Darstellung in Abb. 9.14 gezeigten Zeitraums erfordert eine nichtlineare Theorie (siehe [17] und darin enthaltene Referenzen), die jedoch über unseren Rahmen hinausgeht. Wir haben einen langen Weg zurückgelegt, indem wir über spekulative Blasen und Crashs diskutiert haben, angefangen von einer historischen Darstellung über Verhaltenskonzepte bis hin zur Extremwerttheorie, Fraktalen und schließlich einer Theorie, die versucht, den Zeitpunkt eines Crashs zu quantifizieren und sogar vorherzusagen. Aber nach all dem Chaos, das durch die Blasen und Crashs verursacht wurde, kehren wir nun in das ruhigere Reich der Optionspreisbildung zurück, verwenden jedoch quantenmechanische Werkzeuge und Pfadintegrale für die Aufgabe. Übungen 1. Berechnen Sie die erzeugende Funktion der Wahrscheinlichkeitsverteilungsfunktion R(x), die durch R(x) = 1/a für −a/2 < x < a/2 und R(x) = 0 sonst gegeben ist. 2. Berechnen Sie die ersten vier Kumulanten von R(x) aus Übung 1. 3. Berechnen Sie die Faltung von zwei Cauchy-Verteilungen. 4. Erzeugen Sie 105 Zufallszahlen, gleichmäßig verteilt zwischen −1 und 1, teilen Sie sie in 104 Gruppen von zehn Zahlen, summieren Sie die zehn Zahlen und erstellen Sie ein Histogramm der Summen. Was beobachten Sie? Können Sie das Ergebnis mit der zweiten Kumulanten, berechnet in Übung 2, in Einklang bringen?

Literatur

157

5. Was ist die fraktale Dimension einer modifizierten Cantor-Menge, bei der Sie immer das zentrale Viertel jedes Liniensegments entfernen? ν 6. Betrachten Sie die Verteilungsfunktion Dν (x) = A(ν)e−x für 1/2 < ν < 2 im Bereich 0 < x < ∞ und berechnen Sie den erwarteten Maximalwert der Zufallszahlen nach dem Ziehen von n Zahlen und wie er sich mit n skaliert. Daher, ´∞ a) bestimmen Sie A(ν) so dass 0 Dν (x ′ )dx ′ = 1; ´x b) berechne die kumulative Verteilungsfunktion Cν (x) = 0 Dν (x ′ )dx ′ ; c) berechne numerisch xn  aus (9.33); d) zeichnen Sie xn ν gegen log10 (n)und überzeugen Sie sich selbst, dass dies ungefähr einer Geraden folgt, genau wie die Daten in Abb. 9.10 es tun. Hinweis: Versuchen Sie in (a) und (b) die Substitution t = x ν. 7. Die Bevölkerung N eines vereinfachten biologischen Systems ändert sich mit der Zeit gemäß der Raten-Gleichung dN/dt = −δN + βN 2 mit der Sterberate δ und der Geburtenrate β. Letztere tritt quadratisch auf, weil zwei Mitglieder sich treffen müssen, um sich fortzupflanzen. Die Ähnlichkeit zu (9.51) regt die Frage an, wie δ die Divergenz beeinflusst. Diskutieren und analysieren Sie, wie die Zeit τc bis zur Singularität beeinflusst wird. 8. Fettschwänzige Verteilungen: Wo bricht die Ableitung der Fokker-PlanckGleichung in Abschn. 4.5 zusammen, wenn wir eine fettgeschwänzte Verteilung für das verwenden, was φ(ξ ) genannt wurde? 9. Forschen Sie, warum der Crash von 1929 zu einer langen Depression führte, der Crash von 1987 jedoch nicht.

Literatur 1. https://finance.yahoo.com/quote/^DJI/history. Zugegriffen: 19 Mai 2020 2. P. Charles, Kindleberger, Manias, Panics, and Crashes, A History of Financial Crises, revised Aufl. (Basic Books, New York, 1989) 3. J. Galbraith, The Great Crash of 1929 (Houghton Mifflin, New York, 2009) 4. R. Shiller, Irrational Exuberance, 2. Aufl. (Broadway Books, New York, 2005) 5. R. Thaler, C. Sunstein, Nudge (Penguin, 2009) 6. A. Tversky, D. Kahneman, Prospect theory: an analysis of decision under risk. Econometrica 47, 263 (1979); A. Tversky, D. Kahneman, Advances in prospect theory: Cumulative representation of uncertainty. J. Risk Uncertainty 5, 297 (1992); D. Kahneman, Thinking, Fast and Slow (Farrar, Straus and Giroux, New York, 2011) 7. B. Mandelbrot, The variation of certain speculative prices. J. Bus. 36, 394 (1963) 8. E. Fama, The behavior of stock-market prices. J. Bus. 38, 34 (1965) 9. M. Newman, Power laws, Pareto distributions and Zipf’s law. Contemporary Phys. 46, 323 (2005) 10. Swedish Statisiska Centralbyrå. http://www.scb.se 11. F. Clementi, T. Di Matteo, M. Gallegati, The power-law tail exponent of income distributions. Physica A 370, 49 (2006) 12. B. Mandelbrot, Multifractals and 1/f Noise (Springer, Heidelberg, 1999) 13. B. Gnedenko, A. Kolmogorov, Limit Distributions for Sums of Independent Random Variables (Addison Wesley, 1968)

158

9  Blasen, Abstürze, Dicke Schwänze und Lévy-Stabile Verteilungen

14. R. Mantegna, H. Stanley, Scaling behavior in the dynamics of an economic index. Nature 376, 46 (1995) 15. M. Abramowitz, I. Stegun, Handbook of Mathematical Functions (Dover, New York, 1972) 16. D. Sornette, Critical Phenomena in Natural Sciences, 2. Aufl. (Springer, Heidelberg, 2006) 17. D. Sornette, Why Stock Markets Crash (Princeton University Press, Princeton, 2004); D. Sornette, Critical market crashes. Phys. Rep. 378, 1 (2003)

Quantenfinanz und Pfadintegrale

10

Zusammenfassung

Angeregt durch die Ähnlichkeit der Black-Scholes-Gleichung und der Schrödinger-Gleichung verwendet dieses Kapitel quantenmechanische Methoden zur Bestimmung des Preiskerns, der sich als äquivalent zur in früheren Kapiteln gefundenen Green-Funktion herausstellt. Mit den quantenmechanischen Methoden wird die Down-and-Out-Barrier-Option im Detail behandelt. Nachdem Feynmans Beschreibung der Quantenmechanik in Form von Pfadintegralen behandelt wurde, werden diese verwendet, um den zuvor gefundenen Preiskern neu abzuleiten. Da Pfadintegrale sehr gut für numerische Auswertungen geeignet sind, führen wir Monte-Carlo-Methoden ein, einschließlich des Metropolis-Hasting-Algorithmus, um die mehrdimensionalen Integrale zu berechnen. Auf den ersten Blick erscheint es seltsam, Finanzen und Optionspreisbildung mit quantenmechanischen Konzepten in Verbindung zu bringen, aber wir werden sehen, dass es mehrere gemeinsame Punkte gibt. Beachten Sie zunächst, dass wir gegen Ende von Abschn. 5.1 die Black-Scholes-Gleichung in (5.6) abgeleitet haben. Jetzt beobachten wir, dass die Substitution S/S0 = ex sie in die Form einer quasi-Schrödinger-Gleichung  2  ∂c σ 2 ∂ 2c σ ∂c − =− + r + rf c = HBS c (10.1) f 2 ∂t 2 ∂x 2 ∂x mit dem Black-Scholes-Hamiltonian HBS

HBS = −

σ 2 ∂2 + 2 ∂x 2



σ2 − rf 2



∂ + rf ∂x

(10.2)

bringt. Es scheint also zumindest eine formale Ähnlichkeit zwischen der Schrödinger-Gleichung und der Black-Scholes-Gleichung zu geben, die wir zuvor in Abschn. 5.2 mit der Diffusionsgleichung in Verbindung gebracht ­haben. © Der/die Autor(en), exklusiv lizenziert an Springer Nature Switzerland AG 2023 V. Ziemann, Physik und Finanzen, https://doi.org/10.1007/978-3-031-36964-3_10

159

10  Quantenfinanz und Pfadintegrale

160

Dies ist keine Überraschung, denn das stochastische Wandern der Aktienkurse – die Unfähigkeit, sie zu einem späteren Zeitpunkt vorherzusagen – und die quantenmechanische Unfähigkeit, den definitiven Zustand eines Systems zu einem späteren Zeitpunkt vorherzusagen, legen die Möglichkeit nahe, einen gemeinsamen mathematischen Rahmen zur Beschreibung beider zu finden. Beachten Sie, dass in diesem Rahmen x = log(S/S0 ) die Rolle der PositionsKoordinate in einem quantenmechanischen System übernimmt. Beginnen wir mit einer kurzen Auffrischung der Grundlagen der Quantenmechanik, konzentrieren uns aber auf die Punkte, die für die spätere Diskussion relevant sind. Wir werden dann die Ähnlichkeiten, aber auch die Unterschiede, aufzeigen, wie diese Konzepte in der Finanzwelt verwendet werden. Für eine vollständige Behandlung der Quantenmechanik wird der Leser beispielsweise auf [1] verwiesen.

10.1 Quantenmechanik Wir werden ausgiebig die Notation verwenden, die erstmals von Dirac eingeführt wurde, um quantenmechanische Zustände als Bra �x| und Ket |ψ� Vektoren, wobei �x| und |ψ� Elemente aus dualen Vektorräumen sind. Darüber hinaus wird das Skalarprodukt zwischen Vektoren in diesen dualen Vektorräumen durch �x|ψ� = ψ(x) bezeichnet, wobei ψ(x) die Wellenfunktion des Zustands |ψ� ist. Wenn wir die Reihenfolge der Einträge austauschen, erhalten wir das komplex Konjugierte �ψ|x� = �x|ψ�∗ = ψ(x)∗ des Skalarprodukts, wobei der Stern das komplex Konjugierte bezeichnet. Die Wellenfunktion ψ(x) hat die Interpretation, dass die Wahrscheinlichkeit, ein Teilchen im Bereich zwischen x und x + dx zu finden, durch die ψ(x)ψ(x)∗ dx gegeben ist. Darüber hinaus bilden die Zustände |x� eine vollständige Basis für den Vektorraum, was eine Folge von ˆ ˆ ˆ 1 = dx|x��x| = dx P(x) (10.3)

ˆ ist, wobei P(x) = |x��x| der Projektionsoperator auf den Zustand |x� ist. Das Integral besagt einfach, dass die Basis, die alle Positionsvektoren |x� umfasst, vollständig ist. Das Skalarprodukt zweier Basisvektoren �x ′ | und |x� wird gegeben durch �x ′ |x� = δ(x ′ − x), wobei δ(y) Diracs Delta-Funktion ist. Unter Verwendung der Darstellung der Delta-Funktion als Integral über eine komplexe Exponentialfunktion können wir 1 �x |x� = δ(x − x) = 2π ′



ˆ∞ −∞

ik(x ′ −x)

e

1 dk = 2π

ˆ∞

�x ′ |k��k|x�dk

(10.4)

−∞

mit �k|x� = e−ikx schreiben. Beachten Sie, dass k in Beziehung zum Impuls p eines Partikels steht durch k = p/ mit  = h/2π, wobei h die Plancksche Konstante ist. Die letzte Gleichung zeigt, dass auch die Vektoren |k� eine vollständige Basis bilden und wir haben

10.1 Quantenmechanik

161

1=

1 2π

ˆ

dk|k��k| .

(10.5)

Hier ist |k��k| ein Projektor auf einen Zustand mit Impuls p = k. In der Quantenmechanik werden alle physikalischen Eigenschaften von ˆ bezeichnet Zuständen durch hermitesche Operatoren beschrieben, die durch O ˆ und mit einem Zirkumflex gekennzeichnet sind. Die Messung der Eigenschaft O ˆ eines Zustands |f � beinhaltet die Untersuchung des Ergebnisses von O|f � mit einem ˆ � entspricht. zweiten Zustand �g|, was der Berechnung des Matrixelements �g|O|f ˆ Dieses Verfahren beschreibt die Berechnung der Überlappung der Wirkung von O ˆ auf |f � mit �g|. Die Wahrscheinlichkeit, O|f � in �g| zu finden, wird dann durch den ˆ �|2 gegeben. Wir können quadrierten absoluten Wert des Matrixelements |�g|O|f diese Matrixelemente explizit berechnen, indem wir die Identität aus (10.3) zwischen den Zuständen und dem Operator einfügen. ˆ ˆ ˆ � = dx ′ dx�g|x ′ ��x ′ |O|x��x|f ˆ �g|O|f � ˆ ˆ (10.6) = dx ′ dx g(x ′ )∗ O(x ′ , x) f (x)

ˆ ausgedrückt in der Basis der Positionsˆ und O(x ′ , x) = �x ′ |O|x� ist der Operator O vektoren. Wir hätten genauso gut die Impulsbasisvektoren aus (10.5) verwenden ˆ ausgedrückt im können und hätten die Zustände |f � und �g| und den Operator O „Impulsraum“ erhalten. Alle Operatoren, die physikalisch beobachtbare Größen darstellen, werden durch hermitesche Operatoren beschrieben. Ihre Wirkung auf einen Vektor oder seinen dualen Vektor ergibt das gleiche Ergebnis. Um dies zu sehen, definieren ˆ durch einen wir zunächst den hermitesch Konjugierten Operator zum Operator O † ˆ Dolch O und dass es auf den dualen Bra-Zustand auf seiner linken Seite wirkt, definiert durch ˆ † |g� = �g|O|f ˆ �∗ , �f |O

(10.7)

wobei, wie zuvor, der Stern das komplexe Konjugat bezeichnet. Der Impulsoperator pˆ hat die Form pˆ = −i∂/∂x und es ist leicht zu sehen, dass

∂ ∂ �x|k� = −i eikx = keikx = p�x|k� . (10.8) ∂x ∂x Die Anwendung von pˆ auf einen Zustand mit k = p/ erzeugt somit eine reale Zahl p = k und stellt eine Messung des Impulses des Zustands |k� dar. In der Schrödinger-Formulierung der Quantenmechanik werden Teilchen durch Wellen �(x, t) ∝ eikx−iωt , beschrieben, die durch einen Wellenvektor k = p/ und eine Frequenz ω charakterisiert sind, die mit der Energie E der Welle durch die Plancksche Relation E = ω in Verbindung steht. Wir sehen, dass wir die Energie E durch eine partielle Ableitung in Bezug auf die Zeit t bestimmen können, so �x|ˆp|k� = −i

10  Quantenfinanz und Pfadintegrale

162

dass i∂�(x, t)/∂t = E�(x, t). Darüber hinaus wissen wir aus der klassischen Mechanik, dass die (kinetische) Energie eines frei beweglichen Partikels mit dem Impuls p durch E = p2 /2m in Beziehung steht, wobei m die Masse des Partikels ist. Nach Schrödingers gewagtem Schritt, diese Beziehung als Operatorgleichung zu interpretieren, schreiben wir E = pˆ 2 /2m = −(2 /2m)(∂/∂x)2 . Setzen wir in die Gleichung mit der Zeitableitung ein, erhalten wir die Schrödinger-Gleichung für ein freies Teilchen

∂ 2 ∂ 2 ˆ (10.9) t) . �(x, t) = − �(x, t) = H�(x, ∂t 2m ∂x 2 Hier haben wir die letzte Gleichheit hinzugefügt, indem wir den Energieoperator ˆ den Hamilton Operator, eingeführt haben. Tatsächlich können wir sogar H, Hamilton Operatoren einschließlich potentieller Energien verwenden. Sie werden von ihrem klassischen Gegenstücken H(q, p) = p2 /2m + V (q) abgeleitet, indem q und p durch ihre quantenmechanischen Operatoräquivalente ersetzt werden. Eine wichtige Eigenschaft des Hamiltonoperators ist, dass er die Wellenfunktion  in der Zeit vorwärts bewegt. Dies kann gesehen werden, indem man die Zeitableitung auf der linken Seite der Schrödinger-Gleichung ˆ �(x, t + dt) − �(x, t) = −iHdt�(x, t)/ diskretisiert, was zu   ˆ iHdt iHˆ �(x, t)dt = 1 − �(x, t) . (10.10) �(x, t + dt) = �(x, t) −   i

Dies ist nur für einen kleinen Zeitschritt dt gültig. Für größere Zeitschritte t = ndt, unterteilt in n infinitesimale Zeitschritte, müssen wir den kleinen Zeitschritt n Mal wiederholen n  ˆ iH�t ˆ �(x, t) = e−iH�t/ �(x, t) �(x, t + �t) = 1 − (10.11) n wobei wir limn→∞ (1 − x/n)n = e−x verwendet und gnadenlos Fragen der Zeitordnung und Konvergenz ignoriert haben. Beachten Sie jedoch, dass der Hamiltonoperator Hˆ die Bewegung in der Zeit erzeugt. Er drängt die Wellenfunktionen in die Zukunft und diese Eigenschaft werden wir ausnutzen, wenn wir quantenmechanische Methoden zur Beschreibung von Finanzen verwenden.

10.2 Black-Scholes Hamiltonian Es gibt zwei bestimmte Punkte, an denen die Anwendung von Quantenkonzepten in der Finanzwelt von der Behandlung in der Physik abweicht. Erstens sind die Wellenfunktionen in der Quantenmechanik komplexwertig und die physikalisch relevanten Mengen – die Wahrscheinlichkeiten – sind die quadrierten Absolutwerte der Wellenfunktion, während in der Finanzwelt die „Wellenfunktionen“ reellwertig sind und beispielsweise Optionspreise beschreiben. Dies wird auch durch die fehlende komplexe Einheit i in der Black-Scholes „SchrödingerGleichung“ in (10.1) deutlich.

10.2  Black-Scholes Hamiltonian

163

Zweitens sind die Operatoren im Black-Scholes Hamiltonian nicht notwendigerweise hermitisch, was wir verstehen, wenn wir den Operator ∂/∂x, betrachten, der in (10.2) sowohl in der ersten als auch in der zweiten Potenz erscheint. Wir berechnen



�f |

∂ ∂x

†

∗ ˆ ∂ ∂ dx�g|x��x| |f � |g� =�g| |f �∗ = ∂x ∂x ˆ ∗ (10.12) ˆ ∂g ∂f ∂ dxg∗ (x) = = − dx f ∗ (x) = −�f | |g� , ∂x ∂x ∂x

wobei wir partielle Integration verwenden, um die Ableitung von f auf g zu verschieben und annehmen, dass f und g an den Integralgrenzen verschwinden. Gl. 10.12 impliziert, dass der Ableitungsoperator anti-hermitisch ist  † ∂ ∂ . =− (10.13) ∂x ∂x Auf ähnliche Weise können wir zeigen, dass der Positionsoperator x hermitisch ist. Diese Mischung aus hermitischen und anti-hermitischen Operatoren erfordert von uns besondere Aufmerksamkeit bei den Berechnungen. Drittens haben wir in Abschn. 5.2 und insbesondere in (5.13) festgestellt, dass der Wert einer Option zu einem Zeitpunkt τ vor Fälligkeit als Faltung der Auszahlungsfunktion und der Green’schen Funktion geschrieben werden kann. Dieses Konzept ähnelt dem eines Operators – eines Propagators – der einen quantenmechanischen Zustand in der Zeit vorantreibt, wie in (10.11) illustriert. Nachdem wir diese Korrespondenz hergestellt haben, entwickeln wir nun Methoden, um diese Analogie der quantenmechanischen Beschreibung zur stochastischen Beschreibung weiter zu verfolgen. Wir werden die Diskussion lose auf [2] stützen. Lassen Sie uns den Hamiltonian HBS verwenden, um die zeitliche Entwicklung der Option c durch Integration von (10.1) zu finden, was lautet ∂c/∂t = HBS c. Mit Argumenten, ähnlich denen, die zu (10.11) führten, schreiben wir

c(x, t) = etHBS c(x, 0)

oder

|c(t)� = etHBS |c(0)� ,

(10.14)

wobei wir die Gleichung auf der linken Seite wiederherstellen, indem wir mit �x| von links multiplizieren. Zur Zeit τ = T − t vor der Fälligkeit, wo der Wert der Option die Auszahlungsfunktion g(x) ist, können wir schreiben |c(T )� = eTHBS |g�, so dass

|c(t)� = e−(T −t)HBS |g� = e−τ HBS |g� .

(10.15)

Diese Gleichung hat eine recht intuitive Interpretation des Black-ScholesHamiltonians HBS der die Auszahlungsfunktion g rückwärts in der Zeit auf die gegenwärtige Zeit τ = T − t vor der Fälligkeit abbildet. Unterschiedliche Optionen werden durch ihre individuellen Auszahlungsfunktionen g(x), aber die Dynamik der Rückverfolgung des Wertes zur gegenwärtigen Zeit ist allen Optionen gemeinsam und wird durch den Hamiltonian HBS beschrieben.

10  Quantenfinanz und Pfadintegrale

164

10.3 Preiskern Um (10.15) zu berechnen, müssen wir eine Basis wählen und daher mit �x| von der linken Seite multiplizieren und auch die Identität aus (10.3) zwischen dem Operator e−τ HBS und |g� einfügen. Dies führt zu ˆ c(x, t) =�x|c(t)� = dx ′ �x|e−τ HBS |x ′ ��x ′ |g� ˆ (10.16) = dx ′ pBS (x, τ ; x ′ )g(x ′ ), wobei �x ′ |g� = g(x ′ ) die Auszahlungsfunktion ist und pBS (x, τ ; x ′ ) = �x|e−τ HBS |x ′ � wird als Preiskern für den Black-Scholes-Hamiltonian bezeichnet. Wir sehen, dass der Wert einer Option c durch die Faltung des Preiskerns pBS mit der Auszahlungsfunktion g(x) gegeben ist, was dem in Abschn. 5.2 beschriebenen Verfahren ähnelt. Vergleichen Sie einfach (10.16) mit (5.13). Dies veranschaulicht die Funktionalität des Preiskerns pBS als Propagator zwischen Zustand |x ′ � und Zustand �x| einige Zeit τ früher. Der Kernel pBS ist somit definiert als das Matrixelement eines effektiven „Wechselwirkungs-Hamiltonians“ e−τ HBS eingeklemmt zwischen den beiden Zuständen �x| und |x ′ �. Aber wir müssen immer noch die funktionale Abhängigkeit von pBS von seine Argumente bestimmen, was bedeutet, dass wir das Matrixelement �x|e−τ HBS |x ′ � auswerten müssen. Wir tun dies, indem wir die Identität im Impulsraum aus (10.5) einfügen. Indem wir das Symbol p anstelle von k im Integral verwenden, erhalten wir ˆ dp �x|e−τ HBS |p��p|x ′ �. pBS (x, τ ; x ′ ) = (10.17) 2π Wir stellen fest, dass wir das Matrixelement folgendermassen schreiben können

�x|e−τ HBS |p� = e−τ HBS �x|p� = e−τ HBS eipx .

(10.18)

Um den Exponenten zu berechnen, werten wir zuerst  2 2    2 σ p σ +i − rf p + rf eipx HBS eipx = 2 2

(10.19)

aus, wobei wir den Hamiltonian aus (10.2) verwenden und beachten, dass jede Ableitung in Bezug auf x einen Faktor ip erzeugt auf die gleiche Weise wie Fourier-Transformationen dies tun. Jede Funktion von HBS in der Impulsbasis kann daher als Funktion des Hamilton-Operators in der vorherigen Gleichung geschrieben werden

�x|e−τ HBS |p� = e−τ (σ

2 2

p /2+i(σ 2 /2−rf )p+rf ) ipx

e

.

Wenn man dies in die (10.17) einsetzt, wird der Preisbildungskern ˆ dp −τ (σ 2 p2 /2+ip(σ 2 /2−rf )+rf ) ip(x−x′ ) e e , pBS (x, τ ; x ′ ) = 2π

(10.20)

(10.21)

wobei das verbleibende Integral Gaussisch ist und durch Vervollständigung des Quadrats im Exponenten berechnet werden kann. Das endgültige Ergebnis für den Preisbildungskern wird dann

10.4  Barrier Optionen

165

 

x − x ′ + (rf − σ 2 /2)τ pBS (x, τ ; x ) = √ exp − 2σ 2 τ 2π σ 2 τ ′

e−rf τ

2 

.

(10.22)

Es kann gezeigt werden, dass der Preisbildungskern tatsächlich der Green’s Funktion aus (5.11) entspricht, wobei wir im Hinterkopf behalten müssen, dass einige der Variablen anders benannt sind. Zur Klarheit wiederholen wir die zuvor gemachte Aussage, dass der Preisbildungskern wie ein Propagator in der Quantenmechanik wirkt, der die Übergangswahrscheinlichkeit zwischen Anfangs- und Endzuständen angibt. Dies gibt ein ziemlich intuitives Bild davon, wie Optionen bewertet werden. Da der Kern alle Dynamiken der Aktienmarktschwankungen einbettet, ermöglicht er uns, den Wert jeder Option mit jeder gegebenen Auszahlungsfunktion g(x) einfach durch Faltung mit dem Preisbildungskern zu berechnen. Anstatt die Berechnungen aus Abschn. 5.2 zu wiederholen, um die Preisformeln für zuvor berechnete Optionen zu bestimmen, werden wir den neuen Formalismus verwenden, um die Preisgestaltung von Barrier Optionen zu berechnen, was mit den Methoden aus Abschn. 5.2 schwierig ist.

10.4 Barrier Optionen Hier betrachten wir die Down-and-Out Barrier Option, die ungültig wird, sobald der Aktienkurs eine untere Grenze SDO /S0 = e−B unterschreitet. Wir integrieren diese Eigenschaft in den Hamiltonian, indem wir ein Potential V(x) einführen, das unendlich ist für x ≤ B und zwingen somit die Wellenfunktion, in diesem Bereich null zu werden. Die untere Grenze wirkt somit wie eine Barriere für die Wellenfunktion, daher der Name. Der Hamiltonian ist dann gegeben durch  2  σ 2 ∂2 ∂ σ − rf + rf + V (x) , (10.23) HDO = HBS + V (x) = − + 2 2 ∂x 2 ∂x wobei V (x) = ∞ für x ≤ B und V (x) = 0 für x > B. Um den Preisbildungskern �x|e−τ HDO |x ′ � zu berechnen, müssen wir die Eigenfunktionen und Eigenwerte für HDO finden. Wir wissen bereits, dass sie in der Region x ≤ B null sind. Umgekehrt, in der Region x > B, wo das Potential null ist, können wir annehmen, dass die Eigenfunktionen denen des ungestörten BlackScholes Hamiltonians HBS ähneln. Darüber hinaus müssen sie an der Grenze x = B verschwinden. Wir schreiben daher die Eigenfunktionen ψE (x) mit Eigenwert E in der folgenden Form

�x|E� =ψE (x) = e(α+ip)(x−B) − e(α−ip)(x−B) =2ieα(x−B) sin (p(x − B))

(10.24)

mit unbekannten Parametern α und p. Durch diese Konstruktion verschwindet ψE (x) bei x − B und wir nehmen an, dass es nur für x > B definiert ist.

10  Quantenfinanz und Pfadintegrale

166

Wir verwenden nun ψE (x) als Ansatz für die Eigenfunktion von HDO und müssen daher die Ableitungen von ψ(x) in Bezug auf x berechnen. Bei zweimaliger Differenzierung finden wir   ψE′ (x) =2ieα(x−B) α sin(p(x − B)) + p cos(p(x − B))   (10.25) ψE′′ (x) =2ieα(x−B) (α 2 − p2 ) sin(p(x − B)) + 2αp cos(p(x − B)) , welches uns erlaubt HDO ψ(x). zu berechnen. Nach einiger Algebra führt dies zu

HDO ψE (x) =2ieα(x−B)     2  σ2  2 σ α − p2 + α − rf + rf sin(p(x − B)) − 2 2   2    (10.26) σ 2 + −σ αp + − rf p cos(p(x − B)) 2 =EψE (x) . Damit ψE (x) eine Eigenfunktion von HDO ist, muss die eckige Klammer vor cos(p(x − B)) verschwinden. Nach dem Ausklammern des gemeinsamen Faktors p und der Auflösung nach α ergibt sich

σ 2 /2 − rf , (10.27) σ2 was α, einen der ursprünglich unbekannten Parameter, bestimmt. Der andere Parameter p ergibt sich aus der Anforderung, dass die eckige Klammer vor sin(p(x − B)) gleich dem Energieeigenwert E sein muss, was uns  2    σ2  2 σ σ2  2 2 − rf + rf = E=− α −p +α p + γ2 (10.28) 2 2 2 α=

mit γ = (σ 2 /2 + rf )/σ 2 gibt. Beachten Sie, dass γ sich von α durch das  Vorzeichen vor rf unterscheidet. Auflösen von (10.28) nach p ergibt p = 2E/σ 2 − γ 2 . Wir erinnern uns daran, dass der Hamiltonian nicht hermitisch ist, was bedeutet, dass die Eigenfunktionen des Hamiltonians HDO und seines adjungierten † nicht die gleichen sind. Führen wir eine ähnliche Berechnung wie oben HDO durch, finden wir die adjungierten Eigenfunktionen

�E|x� =e−(α+ip)(x−B) − e−(α−ip)(x−B)

(10.29)

= − 2ie−α(x−B) sin (p(x − B)) ,

wobei α und p abhängig von E˜ sind und die Eigenwerte �E|HDO = E�E| erfüllen. Die Normalisierung der Eigenwerte folgt aus ˆ∞ ˆ∞ ′ ′ �E|E � = dx�E|x��x|E � = 4 dx sin(p(x − B)) sin(p′ (x − B)) B

=4

B

ˆ∞

dx sin(px) sin(p′ x) = 2πδ(p − p′ ) = 2π

0

=2πσ 2

 2E/σ 2 − γ 2 δ(E − E ′ ) ,

δ(E − E ′ ) |dp/dE|

(10.30)

10.4  Barrier Optionen

167

−1   wobei wir (10.28) verwendet haben, um dp/dE = σ 2 2E/σ 2 − γ 2  zu schreiben. Die Normalisierung ermöglicht es uns, den Einheitsoperator zu berechnen, ausgedrückt durch die Energieeigenzustände ˆ∞

1=

σ 2 γ 2 /2

2πσ 2

dE  |E��E| , 2E/σ 2 − γ 2

(10.31)

was wir beweisen können, indem wir die Basis |x� zur Berechnung wählen

ˆ∞



Q(x, x ) =

σ 2 γ 2 /2

�x|E��E|x ′ �dE  . 2πσ 2 2E/σ 2 − γ 2

(10.32)

Wir benutzen die Funktionen �x|E� = ψE (x) und �E|x ′ � aus  (10.24) und (10.29) und wechseln die Integrationsvariable von E zu p = 2E/σ 2 − γ 2 . Damit erhalten wir ′

α(x−x ′ )

Q(x, x ) =e

ˆ∞ 0



=eα(x−x )

ˆ∞ 0



=eα(x−x )

ˆ∞

−∞

  dp  ip(x−B ′ ′ e − e−ip(x−B) e−ip(x −B − eip(x −B) 2π  dp  ip(x−x′ ) ′ ′ ′ e + e−ip(x−x ) − eip(x+x −2B) − e−ip(x+x −2B) 2π dp 





eip(x−x ) − eip(x+x −2B)



α(x−x ′ )

(10.33)





=e δ(x − x ′ ) − eα(x−x ) δ(x + x ′ − 2B) =δ(x − x ′ ) . In der dritten Gleichung decken die Exponentialfunktionen mit −ip die negativen Werte von p ab, so dass wir sie weglassen können, während wir die untere Integrationsgrenze auf −∞ erweitern. Die zweite Delta-Funktion ist null, weil x > B und x ′ > B, so dass x + x ′ − 2B > 0 und das Argument der Delta-Funktion nie null wird, so dass ihr Funktionswert null ist. Zusammenfassend haben wir gezeigt, dass Q(x, x ′ ) = δ(x − x ′ ), was beweist, dass die Basis der Energieeigenzustände, wie sie in (10.31) verwendet wird, tatsächlich vollständig ist. Wir nutzen diese Vollständigkeitsrelation sofort aus, um den Preisbildungskern zu berechnen pDO (x, τ ; x ′ ) = �x|e−τ HDO |x ′ �

ˆ∞



pDO (x, τ ; x ) =

σ 2 γ 2 /2

=

ˆ∞ 0

dE 2πσ 2



2E/σ 2 − γ 2

dp −τ E e �x|E��E|x ′ � , 2π

�x|e−τ HDO |E��E|x ′ � (10.34)

10  Quantenfinanz und Pfadintegrale

168

wobei wir die Integration über E durch eine Integration über p ersetzt haben, mit p = 2E/σ 2 − γ 2 , wie zuvor. Darüber hinaus haben wir e−τ HDO |E� = e−τ E |E�, verwendet, weil |E� ein Eigenzustand des Hamilton-Operators ist. Wir fahren fort, indem wir die Ausdrücke für die Eigenfunktionen �x|E� und �E|x ′ � einsetzen und die Energie im Exponenten durch p ausdrücken. E = (p2 + γ 2 )σ 2 /2, so dass wir nach einiger weiterer Algebra erhalten −γ 2 τ σ 2 /2+α(x−x ′ )



pDO (x, τ ; x ) =e

ˆ∞

dp −p2 τ σ 2 /2 e 2π

0



ip(x−x ′ )

× e =e−γ

2







+ e−ip(x−x ) − eip(x+x −2B) − e−ip(x+x −2B)

τ σ 2 /2+α(x−x ′ )

ˆ∞

−∞



(10.35)

 dp −p2 τ σ 2 /2  ip(x−x′ ) ′ e e − eip(x+x −2B) . 2π

Nach der Auswertung der Gaußschen Integrale über p, erhalten wir schließlich

  (σ 2 /2 + rf )2 τ ′ exp − + α(x − x ) pDO (x, τ ; x ) = √ 2σ 2 2π σ 2 τ    (10.36)   (x + x ′ − 2B)2 (x − x ′ )2 exp − − . × exp − 2σ 2 τ 2σ 2 τ ′

1

Der erste Term in den geschweiften Klammern, kombiniert mit den exponentiellen Vorfaktoren, ergibt das folgende Ergebnis

(10.37)

wobei wir das Quadrat vervollständigt haben, um den Term proportionalzu x − x ′ in den quadratischen Term zu absorbieren. Der zweite Term kann auf ähnliche Weise behandelt werden, aber wir müssen Terme proportional zu 2B − 2x hinzufügen und subtrahieren, um den quadratischen Term in der unten diskutierten Form ausdrücken zu können. Für die Summe der Terme im Exponenten haben wir

2  2 σ /2 + rf τ σ 2 /2 − rf (2B − x − x ′ )2 ′ − (x − x ) + 2σ 2 σ2 2σ 2 τ 2  ′ 2 2B − x − x + (rf − σ /2)τ rf − σ 2 /2 = + r τ + 2 (x − B) . f 2σ 2 τ σ2 (10.38) Sammeln der beiden Terme und Einsetzen in (10.36) ergibt den Preisbildungskern pDO (x, τ ; x ′ )

10.4  Barrier Optionen

169

 2 ′ 2 + τ (r − σ /2) x − x f − rf τ pDO (x, τ ; x ′ ) = √ exp − 2σ 2 τ 2π σ 2 τ    2 2B − x − x ′ + τ (rf − σ 2 /2) 1 −√ − rf τ exp − 2σ 2 τ 2π σ 2 τ   rf − σ 2 /2 (x − B) . × exp −2 σ2 (10.39) 1

 

Ein Vergleich mit (10.22) zeigt, dass der erste Term gleich dem einfachen BlackScholes-Preiskern pBS (x, τ ; x ′ ) ist und der zweite Term ist durch pBS (2B − x, τ ; x ′ ) mit einem zusätzlichen Vorfaktor gegeben

   x − 2(rf −σ2 2 /2) σ rf − σ 2 /2 e . (x − B) = exp −2 σ2 eB

(10.40)

So kann der Preisbildungskern für unsere Barrierenoption schließlich geschrieben werden als

pDO (x, τ ; x ′ ) = pBS (x, τ ; x ′ ) −



ex eB

− 2(rf −σ2 2 /2) σ

pBS (2B − x, τ ; x ′ ) (10.41)

mit pBS (x, τ ; x ′ ) gegeben durch (10.22). Alle Preise für Dropout-Optionen mit einer gegebenen Auszahlungsfunktion g(x) können nun berechnet werden, indem die Auszahlung mit dem Preisbildungskern aus (10.41) gefaltet wird. Alle Informationen über die Dynamik des Prozesses, wie zum Beispiel rf und σ , aber auch was auf dem Weg passiert – die absorbierende Grenze – ist in pDO (x, τ , x ′ ) enthalten. Deshalb verwenden verschiedene Dropout-Optionen den gleichen Kernel, hängen aber von der spezifischen Auszahlungsfunktion ab. Bevor wir zu Pfadintegralen übergehen, lassen Sie uns kurz darüber nachdenken, wie der Dropout-Kernel pDO aus zwei Black-Scholes-Kernels pBS zusammengesetzt ist. Der Unterschied der beiden Black-Scholes-Kernels in (10.41) wird so konstruiert, dass pDO (x, τ , x ′ ) = 0 ist bei x = B. Dies folgt dem gleichen Geist wie das Platzieren von Bildladungen in elektrostatischen Problemen, um die Randbedingungen auf, zum Beispiel, einer leitenden Ebene zu erfüllen, wie auf der linken Seite in Abb. 10.1 gezeigt. Bildquellen können immer verwendet werden, wenn die zugrunde liegenden partiellen Differentialgleichungen linear sind, was auch für die Black-Scholes-Gleichung mit ihrem zugrunde liegenden diffusiven Prozess gilt, der durch die Diffusionsgleichung definiert (4.15) ist. Das Platzieren einer Anti-Quelle, die genauso stark ist wie die ursprüngliche Quelle, auf der anderen Seite einer absorbierenden Grenze zwingt die Lösung, an der Grenze null zu sein. Dies wird in der Skizze auf der rechten Seite in Abb. 10.1 illustriert. Die beiden Begriffe in (10.41) entsprechen daher einem Paar von Diffusionsprozessen die

10  Quantenfinanz und Pfadintegrale

170

Absorbierende Barrier Spiegelebene Anti-quelle Quelle

Abb. 10.1  Das linke Bild veranschaulicht die Verwendung von Bildladungen um die Randbedingungen auf einer leitenden Oberfläche zu erfüllen und die rechte Seite zeigt die Verwendung von Bildquellen für diffusive Probleme

sicherstellen, dass die Randbedingung pDO (x, τ , x ′ ) = 0 an der absorbierenden Grenze bei x = B erfüllt ist. Der zusätzliche Vorfaktor aus (10.40) ist notwendig, weil die Black-Scholes-Gleichung einen zusätzlichen Driftterm enthält und die log-normale Form der Verteilungsfunktion verwendet, anstatt eines einfachen Gauß. Nach dieser Abschweifung über Bildladungen, werfen wir nun einen Blick auf ein weiteres fortgeschrittenes Konzept – Pfadintegrale. Zuerst besprechen wir ihre Verwendung in der Quantenmechanik, bevor wir Anwendungen in der Finanzwelt betrachten.

10.5 Pfadintegrale in der Quantenmechanik Pfadintegrale bieten eine weitere, und ziemlich bemerkenswerte, Möglichkeit, die Dynamik von Quantensystemen durch Green’sche Funktionen K(xb , tb ; xa , ta ) zu charakterisieren, welche beschreibt wie Wellenfunktionen ψ(x, t) sich von der Zeit ta bis zur Zeit tb entwickeln

ψ(xb , tb ) =

ˆ∞

K(xb , tb ; xa , ta )ψ(xa , ta )dxa .

(10.42)

−∞

Aufgrund von Feynmans enormer Intuition wissen wir heute, dass wir die Green’sche Funktion K, auch als Propagator bezeichnet, als Summe über alle Pfade [3] schreiben können, die zur Zeit ta am Ort xa beginnen und zur Zeit tb am Ort xb enden. Aber wir müssen jedem möglichen Pfad ein Gewicht zuordnen und Feynman vermutete, dass dieses Gewicht von der klassischen Wirkung

S(b, a) =

ˆtb ta

L(x, x˙ )dt

mit

x(ta ) = xa

und

x(tb ) = xb ,

(10.43)

10.5  Pfadintegrale in der Quantenmechanik

171

abhängt, wobei L(x, x˙ ) = m˙x 2 /2 − V (x) die Lagrange-Funktion ist, die die Dynamik des Systems charakterisiert. Hier betrachten wir nur Lagrange Funktionen ohne explizite Zeitabhängigkeit. Das jedem Pfad zugewiesene Gewicht ist eiS(b,a)/ , so dass wir den Propagator K(xb , tb ; xa , ta ) als  K(xb , tb ; xa , ta ) ∝ eiS(b,a)/ , (10.44) alle Pfade

schreiben, was bedeutet, dass jeder Pfad von a nach b mit einem Phasenfaktor gewichtet wird, der von der Wirkung S(b,a) auf diesem Pfad abhängt. Da wir mit quantenmechanischen Systemen arbeiten, teilen wir die Wirkung S(b,a) durch , welche die gleichen Einheiten (Joule-Sekunden) wie die Wirkung hat und daher den Exponenten dimensionslos macht. Aufgrund der Kleinheit von  variiert der Wert von S/ stark und Beiträge verschiedener Pfade interferieren destruktiv, es sei denn, viele Pfade in der Nähe haben ähnliche Werte der Wirkung S(b,a). Aber dies geschieht in der Nähe eines Pfades x¯ (t) für den die Wirkung S(b,a) stationär ist, wenn man diesen Pfad ein wenig variiert, oder δS = 0. Aber diese Anforderung an die Stationarität ist gerade das Hamiltonsche Prinzip, von dem wir wissen, dass es zu den Euler-LagrangeGleichungen für die Bewegungsgleichungen führt, die die Trajektorie x¯ des äquivalenten klassischen Systems bestimmen. Dies bedeutet, dass die Pfade in der Nähe der Lösung x¯ der Bewegungsgleichungen für das klassische System am meisten zum Propagator K beitragen, alle anderen Pfade werden destruktiv interferieren und sich im Durchschnitt ausgleichen. Wir müssen noch herausfinden, wie wir tatsächlich die „Summe über alle Pfade“ berechnen können. Dies kann jedoch erreicht werden, indem die Zeit in n kleine Schritte ε = tk+1 − tk unterteilt wird was uns erlaubt

S(b, a) = ε

n 

L(˙xk , xk )

k=1

oder

eiS(b,a)/ =

n 

eiεL(˙xk ,xk )/

(10.45)

k=1

zu schreiben, wobei der Index k die Zeitschritte kennzeichnet. Wir identifizieren auch x0 = xa und xn = xb . Für den Propagator K finden wir

ˆ ˆ  n dxn−1 dx1 1 ... ... eiεL(˙xk ,xk )/ (10.46) ε→0 A A A k=1 √ mit nε = tb − ta und A = 2πiε/m ist ein Normalisierungsfaktor, der, wie wir später zeigen, diese Form hat. Beachten Sie, dass die Integrale über alle Zwischenpunkte x1 . . . xn−1 gehen und eiεL(˙xk ,xk )/ der Gewichtungsfaktor ist, um von Schritt k zu Schritt k + 1 zu gelangen. Die Lagrange-Funktion hängt sowohl von den Positionen xk als auch von den Geschwindigkeiten x˙ k ab, aber letztere können in Bezug auf Positionen in benachbarten Schritten ausgedrückt werden durch x˙ k = (xk+1 − xk )/ε, was dazu führt, dass das Integral nur von den Positionen abhängt. Hier sehen wir, dass das Gewicht, um von weit getrennten Positionen K(xb , tb ; xa , ta ) = lim

10  Quantenfinanz und Pfadintegrale

172

zu gehen, x˙ k groß macht und somit den Phasenfaktor im Exponenten stark erhöht. Aber die Summierung über alle Kombinationen von Zwischenpunkten in den Schritten parametrisiert alle Pfade und gibt jedem den richtigen Gewichts- und Phasenfaktor. Es ist lehrreich, den Propagator Kˆ für ein freies Teilchen (Potential V (x) = 0), zu berechnen, was den Propagator in die Form   ˆ ˆ n  im 1 2 ˆ b , tb ; xa , ta ) = lim K(x . . . exp (xk − xk−1 ) dx1 . . . dxn−1 ε→0 An 2ε k=1 (10.47)

bringt, wobei wir sehen, dass die Integrale Faltungen von Gauß-Funktionen sind, die zu einer neuen Gauß-Funktion führen. Auf diese Weise erhalten wir 1/2    im(xb − xa )2 m ˆ K(xb , tb ; xa , ta ) = , exp (10.48) 2πi(tb − ta ) 2(tb − ta ) vorausgesetzt, wir falten etwas rücksichtslos Gaußsche Funktionen mit komplexem Argument und√stellen fest, dass die Breite jeder einzelnen Gaußschen Funktion proportional zu ε ist. Erinnern Sie sich an (9.14), dass die Summe der quadrierten Breiten die Breiten der Faltung bestimmt, welche ist Nε = tb − ta. Wir verweisen auf Abschn. 3.1 in [4] für die Details der Berechnung. Es bleibt zu zeigen, dass die Formulierung der Quantenmechanik mit Pfadintegralen tatsächlich äquivalent zur Formulierung mit der Schrödinger-Gleichung ist. Wir folgen Abschn. 4.1 von [4] und schreiben (10.42) für ein infinitesimales Zeitinkrement ε

1 ψ(x, t + ε) = A

ˆ∞

1 = A

−∞ ˆ∞ −∞

exp



  x−y iε L , x ψ(y, t)dy  ε

(10.49)    iεV (x) im(x − y)2 exp − ψ(y, t)dy . exp ε 



Wie oben diskutiert, wenn der ursprüngliche Punkt y und der neue Punkt x stark unterschiedlich sind, ist die Geschwindigkeit (x − y)/ε macht die Aktion groß und die Phase variiert wild. Wir nehmen daher an, dass y und x sich nur um einen kleinen Betrag unterscheiden ξ = y − x. Wenn wir ξ in die vorherige Gleichung einsetzen und die Integrationsvariable von y zu ξ , ändern, kommen wir zu

1 ψ(x, t + ε) = A

ˆ∞ −∞

exp



   iεV (x) imξ 2 exp − ψ(x + ξ , t)dξ . (10.50) ε 

Um fortzufahren, nutzen wir nun aus, dass der Zeitschritt ε klein ist und erweitern den vorherigen Ausdruck zur ersten Ordnung in ε mit dem Ergebnis

10.5  Pfadintegrale in der Quantenmechanik

173

∂ψ 1 = ψ(x, t) + ε ∂t A

ˆ∞

imξ 2 exp ε

1 = A

−∞ ˆ∞

  iεV (x) 1− ψ(x + ξ , t)dξ 

imξ 2 exp ε

   ξ 2 ∂ 2ψ iεV (x) ∂ψ + 1− ψ(x, t) + ξ dξ ,  ∂x 2 ∂x 2





−∞

(10.51)

wobei wir bis zur zweiten Ordnung in ξ entwickeln, weil der erste Ordnungsdurchschnitt zu null wird und zu einer Trivialität führen würde. Wir sehen, dass Gaußsche Integrale über Potenzen von ξ übrig bleiben, die leicht berechnet werden können, wie wir unten tun. Aber zuerst betrachten wir die nullte Ordnung in ε, aus der wir folgern

1 ψ(x, t) = A

ˆ∞ −∞

   1 2πiε 1/2 imξ 2 exp ψ(x, t)dξ = ψ(x, t) , (10.52) ε A m 

was das bereits angegebene Ergebnis für die Normalisierungsfunktion A ergibt   2πiε 1/2 . A= (10.53) m Beachten Sie, dass wir das Gaußsche Integral über ξ rücksichtslos berechnet haben, wobei wir ignoriert haben, dass der Exponent aufgrund des Faktors i ein imaginäres Argument hat. Hier und in einem Großteil der Präsentation haben wir viele mathematische Feinheiten ignoriert, die in der rigoroseren Literatur über Pfadintegrale diskutiert und ordnungsgemäß behandelt werden. Aber hier behalten wir die heuristische Einstellung bei, die tatsächlich in [4] befürwortet wird. Zurück zur Herleitung: vergleichen wir nun die Terme in (10.51), die linear in ε sind, so finden wir die Schrödinger-Gleichung

iεV (x) 1 ∂ψ =− + ε ∂t  A

ˆ∞ −∞ 2

=−

exp



 imξ 2 ξ 2 ∂ 2 ψ dξ ε 2 ∂x 2

(10.54)

iεV (x) 1 ∂ ψ iε +  2 ∂x 2 m

oder, nach dem Kürzen von ε und dem Umordnen von Begriffen   i 2 ∂ 2 ψ i ∂ψ =− − + V (x)ψ = − Hψ , 2 ∂t  2m ∂x 

(10.55)

was die bekannte Schrödinger-Gleichung ist, mit der Zeitableitung auf der linken Seite und dem Hamiltonian H auf der rechten Seite.

10  Quantenfinanz und Pfadintegrale

174

Die sehr knappe Darstellung in diesem Abschnitt sollte als Einführung in den historischen Ursprung der Pfadintegrale und in das Konzept der Summierung über Pfade dienen. Darüber hinaus betonen wir die besondere Beziehung der Wirkungsfunktional mit der Lagrange-Funktion zum Hamiltonian in der Schrödinger-Gleichung. Beachten Sie auch, dass die Berechnungen, die wir im letzten Teil dieses Abschnitts durchgeführt haben, den Schritten zur Ableitung der Fokker-Planck Gleichung aus der Master-Gleichung in Abschn. 4.5 ähnelten. Diese Beobachtung sollte den gewagten Schritt rechtfertigen, Pfadintegrale in der Finanzwelt anzuwenden.

10.6 Pfadintegrale in der Finanzwelt In diesem Abschnitt werden wir den Preisbildungskern pBS aus (10.22) für den Black-Scholes-Hamiltonian mit Hilfe von Pfadintegralen, erstmals im Kontext der Finanzen von Dash [5] verwendet, um die Methodik zu veranschaulichen. In dem vorherigen Abschnitt haben wir festgestellt, dass das Pfadintegral vom Wirkungsintegral im Exponenten abhängt, wobei die Wirkung das Integral über die Lagrange-Funktion von festen Start- und Endpunkten zu festen Anfangs- und Endzeiten ist. Aber wie finden wir die Lagrange-Funktion, die dem Black-ScholesHamiltonian aus (10.2) entspricht? Wir beginnen mit der Betrachtung eines infinitesimal kurzen Zeitraums ε und schreiben die Übergangswahrscheinlichkeit in der Form mit der Lagrange-Funktion im Exponenten

pBS (xi , ε; xi−1 ) = �xi |e−εHBS |xi−1 � = N (ε)eεLBS (xi ,xi−1 ,ε)

(10.56)

mit einer gewissen Normalisierungskonstante Ni (ε), die von dem kurzen Zeitintervall ε abhängt. Vergleicht man dies mit dem Ausdruck für den Preisbildungskern in (10.22) für τ = ε, finden wir die folgenden Beziehungen für LBS (xi , xi−1 , ε) und N (ε)  2 1 xi − xi−1 2 + rf − σ /2 − rf LBS (xi , xi−1 , ε) = − 2 (10.57) 2σ ε

√ und N (ε) = 1/ 2πσ 2 ε . Es ist lehrreich, diese Lagrangefunktion mit der zu vergleichen, der durch Umwandlung des Black-Scholes-Hamiltonians direkt in die äquivalenten Lagrangefunktion mit einer Legendre-Transformation, bekannt aus der klassischen Mechanik [6], erzielt wird. Sie konvertiert die Lagrangefunktion L(x, x˙ ), die von der Position x und Geschwindigkeit x˙ in die Hamilton Funktion H(x, p) = x˙ p − L(x, x˙ ), welche von der Position x und dem Impuls p = ∂L/∂ x˙ abhängt. Der quantenmechanische Hamiltonian aus (10.2) wird in den äquivalenten klassischen Hamiltonian umgewandelt, indem p = ∂/∂x ersetzt wird   σ2 2 σ2 HBS (x, p) = − p − rf − p + rf . (10.58) 2 2

10.6  Pfadintegrale in der Finanzwelt

175

Die Anwendung einer von Hamiltons Gleichungen führt uns zur Bewegungsgleichung

x˙ =

σ2 ∂HBS = −σ 2 p − rf + ∂p 2

oder

p=−

x˙ + rf − σ 2 /2 . (10.59) σ2

Die andere Bewegungsgleichung ergibt ∂HBS /∂x = 0 weil der Black-Scholes Hamiltonian HBS nicht explizit von x abhängt. Jetzt können wir die Lagrange-Funktion über die Legendre-Transformation finden

LBS =˙x p − HBS       σ2 σ2 σ2 p − − p 2 − rf − p + rf = −σ 2 p − rf + 2 2 2  2 2 2 σ 2 1 σ p − rf = − 2 x˙ + rf − =− − rf , 2 2σ 2

(10.60)

wobei wir p = (˙x + r − σ 2 /2)/σ 2 in der letzten Gleichung substituiert haben. Wir stellen fest, dass diese Lagrange funktion die gleiche ist, die wir in (10.57) gefunden haben, indem wir den Preisbildungskern pBS für einen infinitesimalen Zeitschritt und nach dem Ersetzen von x˙ = (xi − xi−1 )/ε gefunden haben. Nachdem wir die Lagrangefunktion LBS bestimmt haben, sind wir nun bereit, den Preisbildungskern pBS zu berechnen, indem wir das Zeitintervall τ = Nε in N kurze Zeitscheiben unterteilen und den infinitesimalen Black-Scholes-Propagator verwenden, um von xi−1 zu xi zu gelangen. Um über alle möglichen Pfade zu summieren, müssen wir daher über alle N − 1 Zwischenkoordinaten integrieren −τ HBS

�xN |e

|x0 � =

ˆ

dxN−1 �xN |e−εHBS |xN−1 � . . . ˆ . . . dx1 �x2 |e−εHBS |x1 ��x1 |e−εHBS |x0 �

1 eεLBS (N) =√ 2π σ 2 ε ˆ∞ ˆ∞ dx1 dxN−1 εLBS (N−1) √ √ ... × e eεLBS (1) 2π σ 2 ε 2πσ 2 ε −∞

−∞



1

= √ 2π σ 2 ε �

1 = √ 2π σ 2 ε

�N ˆ∞ �N

dxN−1 . . .

ˆ∞

−∞

−∞







∞ N−1 �ˆ i=1 −∞

dx1 eε

dxi eSBS ,

�N

i=1

LBS (i)

(10.61)

10  Quantenfinanz und Pfadintegrale

176

wobei wir die Abkürzung LBS (i) = LBS (xi , xi−1 , ε) für die Lagrangefunktion aus (10.57) eingeführt haben. Darüber hinaus definieren wir die Black-Scholes Wirkung SBS als das Zeitintegral über die Lagrange-Funktion mit Endpunkten x0 und xN festgehalten. Für die kleinen Zeitschritte ε, können wir das Integral als Summe schreiben N N   LBS (xi , xi−1 , ε) LBS (i) = ε SBS =ε i=1

i=1

=−

1 2σ 2 ε

N   i=1

 2 σ2 xi − xi−1 + ε rf − − εrf N . 2

(10.62)

Die letzte Zeile von (10.61) suggeriert, ein Pfadintegralmaß DX durch den folgenden Ausdruck einzuführen   �N N−1 � ˆ∞ ˆ � 1  dxi  . DX = √ (10.63) 2π σ 2 ε i=1 −∞

Beachten Sie, dass √ es N − 1 Integrationen über die Zwischenpunkte gibt, aber der Vorfaktor 1/ 2πσ 2 ε wird zur Potenz N erhoben, weil es einen Faktor für jede Zeitschritt gibt und es N Schritte gibt. Mit anderen Worten, es gibt einen Propagator für jeden Schritt, aber nur N − 1 Zwischenpunkte, über die integriert werden muss. Insbesondere müssen wir nicht über x0 oder xN integrieren, weil sie die Randbedingungen darstellen und daher fest sind. Schließlich sehen wir, dass wir den Preisbildungskern formal als Pfadintegral ˆ pBS (xN , τ ; x0 ) = DXeSBS , (10.64) schreiben können, ´ wobei die Black-Scholes Wirkung SBS in (10.62) definiert ist und das Maß DX muss im Grenzfall von großem N in (10.63) interpretiert werden. Es ist lehrreich zu überprüfen, ob die Pfadintegralformulierung tatsächlich den Preisbildungskern aus (10.22) wiederherstellt. Um dies zu erreichen, folgen wir [2] und beginnen mit der letzten Zeile von (10.61). Wir drücken die Wirkung SBS durch die letzte Zeile von (10.62) aus

ˆ

SBS

DXe

 N ˆ∞ ˆ∞ 1 dxN−1 . . . dx1 = √ 2πσ 2 ε −∞ −∞   N  2  1 2 × exp − 2 xi − xi−1 + ε(rf − σ /2) − rf εN 2σ ε i=1  N ˆ∞ ˆ∞ 1 = √ dyN−1 . . . dy1 2πσ 2 ε −∞ −∞   N 1  2 × exp −rf τ − y , 2σ 2 ε i=1 i

(10.65)

10.6  Pfadintegrale in der Finanzwelt

177

wobei wir neue Variablen yi = xi − xi−1 + ε(rf − σ 2 /2) eingeführt haben und beachten Sie, dass die Jakobideterminante für diese Variablentransformation Eins ist, weil dyi = dxi . Wir haben N Terme yi2 im Exponenten, aber nur N − 1 Integrale zu lösen. Darüber hinaus müssen wir die Einschränkungen erfüllen, um die Randbedingungen zu erfüllen, nämlich dass wir am Ende xN erreichen müssen. Wir berücksichtigen diese Einschränkung, indem wir beachten, dass für die Summe der yi gilt

κ=

N  i=1

  yi = xN − x0 + Nε rf − σ 2 /2 = xN − x0 + τ (rf − σ 2 /2)

(10.66)

weil in der Summe die Faktoren yi für i = 1, . . . , N − 1 einmal mit positivem und einmal mit negativem Vorzeichen erscheinen. Nur xN und x0 sind ungepaart. Diese Einschränkung berücksichtigen wir in (10.65) durch Hinzufügen einer DeltaFunktion mit der Zwangsbedingung   ˆ∞   N  dp ip κ−Ni=1 yi e . δ κ− yi = (10.67) 2π i=1 −∞

Eine zusätzliche Integration über yN führt uns zu

ˆ

SBS

DXe

−rf τ



1

�N ˆ∞

ˆ∞

ˆ∞

√ dyN dyN−1 . . . dy1 2π σ 2 ε −∞ −∞ −∞ � ˆ∞ � � � � N 1 � 2 dp −ip κ− Ni=1 yi × exp − 2 e yi 2σ ε i=1 2π

=e

(10.68)

−∞

=e−rf τ

ˆ∞ −∞

  � � N ˆ∞ yi2 dp −ipκ  1 √ e dyi exp − 2 + ipyi  , 2π 2σ ε 2π σ 2 ε −∞

wobei wir die Terme mit yi zusammenfassen und sehen, dass sie alle gleich sind, mit Ausnahme des Namens der Indices i = 1, . . . , N. Das Integral über yi ist gaußisch und wird auf einfache Weise ausgewertet. Nachdem wir die Nte Potenz genommen haben, erhalten wir

ˆ

SBS

DXe

−rf τ

=e

ˆ∞ −∞

dp −ipκ −σ 2 τ p2 /2 e−rf τ 2 2 e−κ /2σ τ , e e =√ 2π 2πσ 2 τ

(10.69)

wobei das verbleibende Integral über p ebenfalls von Standard-Gaußscher Art ist. Schließlich erhält man durch Einsetzen von κ aus (10.66) den Ausdruck für den Black-Scholes-Preiskern aus (10.22). An diesem Punkt haben wir den Kreis geschlossen und gezeigt, dass Pfadintegrale das Black-Scholes-Problem lösen und den Preisbildungskern finden,

10  Quantenfinanz und Pfadintegrale

178

der es uns ermöglicht, die Optionspreisformeln durch Integration über die Auszahlungsfunktion zu berechnen. Wir haben nur die Äquivalenz der Pfadintegralmethode mit der herkömmlichen Theorie gezeigt, aber dennoch haben wir ein neues Werkzeug – Pfadintegrale – zur Verfügung. Sie ermöglichten es uns, ein einfaches Problem analytisch zu lösen. Bei komplexeren Problemen erweisen sich Pfadintegrale jedoch als sehr geeignet für numerische Methoden, die auf MonteCarlo-Methoden basieren, dem Thema des nächsten Abschnitts.

10.7 Monte-Carlo-Integration In den vorherigen Abschnitten beruht die Berechnung von Pfadintegralen auf der Aufteilung eines langen Zeitintervalls in viele kurze Intervalle, der Einführung von räumlichen Koordinaten xi zu allen Zwischenzeiten, dann die Verwendung der Übergangswahrscheinlichkeit von einem Zeitschritt zum nächsten und schließlich die Integration über alle Zwischenkoordinaten. Dies ist die Idee hinter der ersten Zeile von (10.65), die auch zeigt, dass das Pfadintegral im Wesentlichen ein mehrdimensionales Integral über die Zwischenkoordinaten mit der Wirkung SBS im Exponenten als Integranden ist. Die Monte-Carlo-Integration ist eine leistungsfähige Methode zur Auswertung solcher mehrdimensionalen Integrale. Wir beginnen jedoch mit der Untersuchung von Monte-Carlo-Methoden für ein eindimensionales Beispiel, bei dem wir den numerischen Wert eines RiemannIntegrals einer Funktion f(x) über ein Intervall a < x < b ermitteln. Die herkömmliche Methode basiert auf der Aufteilung des Intervalls in eine große Anzahl n von Unterteilungen dx zwischen äquidistanten Punkten xi, die Summierung der Fläche der „Balken“ mit Höhe f (xi ) und Breite dx und schließlich die Grenzwertbildung n → ∞. Stattdessen können wir das Integral auch annähern, indem wir einfach eine große Anzahl N von Zufallszahlen xj im Intervall [a, b] generieren und alle Werte f (xj ) aufsummieren. Dann müssen wir die Summe mit einer durchschnittlichen Intervallbreite multiplizieren, die wir auf (b − a)/N schätzen. Für die Monte-Carlo-Schätzung des Integrals finden wir daher

ˆb a

N

f (x)dx ≈

b−a  f (xj ) . N j=1

(10.70)

Wenn wir „die Würfel“ ausreichend oft werfen, also für große N, so können wir erwarten, dass diese Näherung den tatsächlichen Wert des Integrals annähert. Um einen Eindruck von der Konvergenzrate als Funktion von N zu bekommen, greifen wir auf ein Beispiel zurück: wir berechnen das Integral von f (x) = 15(x 2 − x 4 )/4 im Intervall [−1, 1]´ mit Hilfe von Zufallszahlen und vergleichen es mit dem 1 korrekten Wert von −1 f (x)dx = 1. Das Ergebnis der Auswertung ist in Abb. 10.2 dargestellt. Nach einigen tausend Zufallszahlen nähern wir uns dem korrekten Wert auf Prozentebene.

10.7 Monte-Carlo-Integration

179

, Summe von f(xr) Richtiger Wert

,

Integral

,

, , , Anzahl der verwendeten Zufallszahlen

Abb. 10.2  Monte-Carlo-Näherung an das Integral einer Funktion der Anzahl der verwendeten Zufallszahlen

Der Vorteil dieser Methode liegt in der Einfachheit ihrer Codierung. Nur zwei Zeilen MATLAB genügen x=-1+2*rand(1,N); % random numbers between -1 and 1 Imc=(2.0/N)*sum(f(x));

Die erste Zeile erzeugt N Zufallszahlen zwischen −1 und 1 und die zweite Zeile summiert alle Funktionsauswertungen. Der Nachteil ist die langsame Konvergenz, insbesondere bei der Integration von Funktionen, die über große Teilbereiche des Integrationsintervalls klein sind. Integrale von Gaußschen Funktionen über unendliche Intervalle sind ein Beispiel, das problematisch ist. Wir müssen daher eine bessere Methode finden; eine, die mehr Aufmerksamkeit auf die Bereiche lenkt, in denen die Funktion groß ist, oder noch besser, Zufallszahlen erzeugt, deren Verteilung das Integranden nachahmt. Mit anderen Worten, wir versuchen, einen Zufallszahlengenerator zu bauen, der Zufallszahlen erzeugt, deren Histogramm die Funktion f(x) reproduziert. Dieses Verfahren zur Erstellung eines maßgeschneiderten Zufallszahlengenerators wird Importance Sampling genannt. Eine Möglichkeit, Zufallszahlen zu erzeugen, die den Integranden nachahmen, ist die Akzeptanz-Ablehnung, die auf der Erzeugung von zwei Zufallszahlen xj und yj basiert, wobei yj zwischen dem Minimum und Maximum der Funktion f(x) liegen muss. Wir wählen dann Zufallszahlen aus, indem wir diejenigen xj nehmen, für die yj < f (xj ) gilt. Eine Visualisierung dieser Methode basiert auf dem Werfen von Pfeilen auf eine Zielfläche mit x und y und der Linie f(x) auf dem Ziel gezeichnet. Wenn wir unterhalb der Linie treffen, wählen wir den Wert von x, wenn es oberhalb der Linie ist, ignorieren wir ihn. Wenn wir dieses Verfahren ausreichend oft wiederholen, sind die Zufallszahlen xj um Werte gruppiert, bei denen f(x) groß ist. Der MATLAB-Code zur Erzeugung einer solchen Verteilung ist ebenfalls recht kompakt

10  Quantenfinanz und Pfadintegrale

180 x=-1+2*rand(1,N); y=rand(1,N); x=x(y 1 ist bringt der neue Wert y uns näher an das Maximum und wird als neue Zufallszahl xk+1 = y akzeptiert. Wenn hingegen α ≤ 1, ist, geben wir y eine zweite Chance, indem wir α mit einer gleichmäßig verteilten Zufallszahl u zwischen null und eins vergleichen und y nur auswählen, wenn α > u. Wenn die zweite Chance scheitert, verwenden wir einfach erneut xk . Man kann den Algorithmus von jedem zufälligen Wert starten, aber es wird empfohlen, für eine Anzahl (100er bis 1000er) von Burn-in-Iterationen zu iterieren, bevor Werte akzeptiert werden. Dies vermeidet, dass man in einer Region stecken bleibt,

,

,

,

,

,

,

,

,

Abb. 10.3  Das Histogramm der durch die Akzeptanz-Ablehnungsmethode erzeugten Zufallszahlen für f (x) = 15(x 2 − x 4 )/15. Nur etwa die Hälfte der ursprünglich N = 104 Zufallszahlen werden für das Histogramm akzeptiert

10.8  Numerische Auswertung von Pfadintegralen

181

Annahme-Ablehnung

Metropole

Abb. 10.4  Histogramme von Zufallszahlen aus einer Gaußschen Verteilung, erzeugt durch die Akzeptanz-Ablehnungsmethode (oben) und durch den Metropolis-Hastings-Algorithmus (unten)

nur aufgrund einer unglücklichen Wahl des Anfangswertes. Eine MATLABDarstellung des Algorithmus ist in Anhang B.5 zu sehen. Es hat den Vorteil, dass es nicht viel Aufwand verschwendet, um Zufallszahlen zu erzeugen, wo sie nicht benötigt werden, sondern verweilt um die Maxima der Verteilungsfunktion. Da die Integranden der Pfadintegrale typischerweise vom Gaußschen Typ sind, führen wir den Akzeptanz-Ablehnungs-Algorithmus 10000 Mal aus, während wir x− Werte zwischen ±5 Mal dem rms-Wert des Gaußschen auswerten. Etwa 8000 Werte werden abgelehnt und wir können nur 2000 Werte verwenden, deren Histogramm wir in der oberen Darstellung von Abb. 10.4 zeigen. Wir verwenden dann den Metropolis-Algorithmus und können alle erzeugten 10000 Zufallszahlen nach einer anfänglichen Burn-in-Periode von 100 Iterationen verwenden und zeigen das resultierende Histogramm in der unteren Darstellung von Abb. 10.4. Offensichtlich ist der Metropolis-Algorithmus effizienter, weil er weniger Zeit in Regionen verbringt, in denen der Funktionswert klein ist. Im folgenden Abschnitt werden wir diese Methoden zur Auswertung von Pfadintegralen verwenden.

10.8 Numerische Auswertung von Pfadintegralen Wir wenden uns nun der Auswertung des Preiskerns pBS (x) aus (10.22) unter Verwendung der Darstellung als Pfadintegral aus (10.64) mit der Definition der Wirkung SBS aus (10.62). Nach der Auswertung des Pfadintegrals mit gleichmäßig verteilten Pfaden verwenden wir dann Pfade, die mit dem Metropolis-HastingsAlgorithmus erzeugt wurden und schließlich Pfade, die die Dynamik des Systems nachahmen.

182

10  Quantenfinanz und Pfadintegrale

Eine große Anzahl von gleichmäßig verteilten Zufallspfaden im Bereich von ±4 σ . Der folgende Codeausschnitt veranschaulicht die Erzeugung von Npath Pfaden, die in der Matrix x gespeichert sind. Der erste Index kennzeichnet die nslice Punkte und der zweite Index kennzeichnet die verschiedenen Pfade. Als nächstes wird der Beitrag jedes Slices und für jeden Pfad zu SBS berechnet und in der Variable term1 gespeichert. Der Beitrag des ersten Slices, beginnend bei x0 = 0, wird separat berechnet und in term2 gespeichert. Npath=20000000; x=-4*sigma+8*sigma*rand(nslice,Npath); term1=sum((x(2:end,:)-x(1:end-1,:)+dt*rfhat).ˆ2,1); term2=(x(1,:)+dt*rfhat).ˆ2; eSBS=exp(-(term1+term2)/(2*dt*sigmaˆ2));

Beide Begriffe gehen in die Berechnung von eSBS ein, im Skript bezeichnet durch eSBS, mit SBS gegeben in (10.62). Beachten Sie, dass wir den Diskontfaktor εrf N nicht einbezogen haben und die Normalisierung des Pfadintegrals auf später verschieben. Wir führen die Berechnung des Pfadintegrals im folgenden Codeabschnitt durch, wo wir zunächst die Endpositionen der Pfade auf ein Raster xx mit Schrittweite σ/5 projizieren, Platz für das path_integral reservieren und über alle Pfade iterieren. Innerhalb der Schleife fügen wir den Beitrag jedes Pfades zum entsprechenden Rasterpunkt hinzu. ix=round(x(end,:)/(sigma/5)); ixmin=min(ix); ixmax=max(ix); xx=(ixmin:ixmax)*sigma/5; path_integral=zeros(1,ixmax-ixmin+1); for k=1:Npath ipos=ix(k)-ixmin+1; path_integral(ipos)=path_integral(ipos)+eSBS(k); end i0=(xx(2)-xx(1))*sum(path_integral); % normalize path integral=exp(-rf*t)*path integral/i0;

Schließlich berechnen wir das normalisierte Pfadintegral mit der zuvor bestimmten Normalisierungskonstante i0 und berücksichtigen den Diskontier­ ungsfaktor e−rf τ. Die linke Seite in Abb. 10.5 zeigt den numerisch ausgewerteten Preisbildungskern pBS als Sternchen, während die rote gestrichelte Linie das analytische Ergebnis aus (10.22) oder (10.69) zeigt. Für diese Darstellung haben wir 2 × 107 Stichprobenpfade zur Auswertung des Pfadintegrals verwendet. Kleinere Zahlen führen zu signifikanten Abweichungen des numerischen Ergebnisses von den analytischen Ergebnissen. Trotz der großen Anzahl von Pfaden beträgt die Laufzeit nur wenige Sekunden auf einem Desktop-Computer. Das zur Vorbereitung der Darstellung verwendete MATLAB-Skript ist in Anhang B.6 wiedergegeben. Der Leser wird ermutigt, die Parameter zu variieren und zu erkunden, wie sich die Darstellung ändert.

10.8  Numerische Auswertung von Pfadintegralen ,

MC-Uniform analytisch

Preisfindungskern pBS

Preisfindungskern pBS

,

,

,

,

,

183

,

Met.-Hast. MC analytisch

,

,

,

,

,

Abb. 10.5  Die Sternchen zeigen den Preiskern, bewertet durch die Verwendung von 2 × 107 Pfaden, die aus gleichmäßig verteilten Zufallszahlen konstruiert wurden (links), und bewertet durch die Verwendung von 105 Pfaden, die durch den Metropolis-Hastings-Algorithmus erzeugt wurden (rechts). Die roten gestrichelten Linien zeigen das analytische Ergebnis aus (10.22)

Im zweiten Beispiel verwenden wir den Metropolis-Hastings-Algorithmus zur Erzeugung der Pfade. Alles, was wir tun müssen, ist den Pfadgenerierungsalgorithmus durch den folgenden Code zu ersetzen, der zunächst die gewünschte Anzahl von Pfaden definiert und dann die Verteilung der Zufallszahlen so festlegt, dass sie einer Gaußschen Verteilung mit einer rms von 3σ . folgt. Als nächstes werden der Startwert x0 und β für die Funktion metropolis3(), die im vorherigen Abschnitt besprochen und in Anhang B.5 wiedergegeben wurde, definiert. Npath=100000; % sample paths h=@(x)exp(-x.ˆ2/(2*(2*sigma)ˆ2)); % Metropolis-Hastings x0=0.01; beta=3*sqrt(sigmaˆ2*dt); y=metropolis3(h,beta,1000,x0); % burn-in x=metropolis3(h,beta,Npath*nslice,y(1000)); x=reshape(x,[nslice,Npath]);

Nach 1000 Burn-in-Iterationen gibt die metropolis3()Funktion Npath*nslice aufeinanderfolgend erzeugte Zufallszahlen zurück, die daher Pfade beschreiben, die stärker korreliert sind als die gleichmäßig erzeugten Zufallszahlen aus dem vorherigen Beispiel. Die meisten Pfade in diesem Beispiel erzeugen daher größere Beiträge zum Pfadintegral. Der Befehl reshape() wird verwendet, um das eindimensionale Array x, das von metropolis3() zurückgegeben wird, in die Form umzuwandeln, in der jede Spalte die Positionen für einen Pfad enthält. Nach der Vorbereitung der Pfade können wir die Berechnung des Pfadintegrals, die für das vorherige Beispiel besprochen wurde, wiederverwenden, um das Pfadintegral zu berechnen, das den Preisbildungskern beschreibt. Die rechte Seite in Abb. 10.5 zeigt den numerisch ausgewerteten Kern als Sternchen und die analytischen Werte durch eine gestrichelte Linie. Beachten Sie, dass die Verwendung von nur 105 verschiedenen Pfaden in diesem Beispiel ausreicht, um eine vergleich-

10  Quantenfinanz und Pfadintegrale

184

bare Genauigkeit zu dem vorherigen Beispiel zu erzielen, in dem wir 2 × 107 gleichmäßig verteilte Zufallszahlen verwenden. In einem dritten Beispiel bereiten wir die Stichprobenpfade vor, indem √ wir den Zufallsspaziergang direkt simulieren, wobei die Schrittgröße durch σ/ N mit der Anzahl der Scheiben N gegeben ist. Wir verdoppeln künstlich die Schrittgröße, um dem Prozess die Möglichkeit zu geben, die Enden der Verteilung zu erkunden; sollten die zusätzlichen Pfade zu weit abweichen, unterdrücken ihr großer Beitrag zur Wirkung ihren Beitrag zum Pfadintegral. Dann verwenden wir die eingebaute cumsum() Funktion, um die Schritte für jeden Pfad kumulativ hinzuzufügen. Npath=10000; % sample paths x=2*randn(nslice,Npath)*sigma/sqrt(nslice); x=cumsum(x,1);

Der Rest der Simulation bleibt gleich. Bei der Untersuchung verschiedener Pfadzahlen stellen wir fest, dass sogar so wenige wie 104 Pfade ausreichen, um pBS ziemlich gut zu approximieren. In der Praxis ist es nicht möglich, den Preis für viele Optionen mit analytischen Methoden zu berechnen, und man muss auf Monto-Carlo-Methoden zurückgreifen, wie sie in diesem Kapitel besprochen wurden. Dieses weite Feld weiter zu erkunden, liegt jedoch außerhalb unseres Rahmens. Stattdessen wenden wir uns der Steuerung von dynamischen Systemen zu, seien es physikalische oder makroökonomische Systemen. Im Gegensatz zu den Aktienwerten auf ihrem Zufallsspaziergang, die wir nicht kontrollieren können, wollen wir untersuchen, ob wir auf die Gesamtwirtschaft Einfluss nehmen können? Können wir diese stattdessen kontrollieren? Lassen Sie uns das im nächsten Kapitel herausfinden. Übungen ∂ hermitesch oder anti-hermitesch? Beweisen Sie Ihre 1. Ist der Operator x ∂x Antwort! 2. (a) Überprüfen Sie, dass der Erwartungswert des Hamilton-Operators H = p2 /2m + mω2 x 2 /2 eines harmonischen Oszillators ⟨ψ|H|ψ⟩=ℏω/2 1/4 −β 2 x2 /2 ist, e wobei p = i∂/∂x und für die Wellenfunktion ψ(x) = β 2 /π gilt mit β 2 = mω/. Berechnen Sie die Erwartungswerte von (b) der Position �ψ|x|ψ�, (c) dem Impuls �ψ|p|ψ�, (d) der kinetischen Energie �ψ|(p2 /2m)|ψ�, und (e) der potentiellen Energie �ψ|(mω2 x 2 /2)|ψ�. 3. Zeigen Sie, dass der Preisbildungskern aus (10.22) und die Green’s Funktion aus (5.11) die gleiche Größe beschreiben. 4. Berechnen Sie das folgende Integral I mit Monte-Carlo Methoden

I=

ˆ2 1

3/4

ln(x)e−x dx .

(10.71)

Literatur

185

Wie viele Zufallszahlen benötigen Sie, bis das Ergebnis sich innerhalb von �I/I ≈ 10−3 stabilisiert? Überprüfen Sie Ihr Ergebnis mit einem anderen numerischen Integrationswerkzeug Ihrer Wahl. Dokumentieren Sie, wie gut Ihr Monte-Carlo damit vergleichbar ist. 5. Verwenden Sie den Metropolis-Hastings-Algorithmus, um einen Zufallszahlengenerator zu erstellen, der Zufallszahlen gemäß der Cauchy-Verteilung generiert. Erstellen Sie ein Histogramm der Zahlen und überprüfen Sie, dass die Zahlen gemäß der Cauchy-Verteilung verteilt sind. Untersuchen Sie verschiedene Werte von β.

Literatur 1. C. Cohen-Tannoudji, B. Diu, F. Laloe, Quantum Mechanics, Bd. 2 (Wiley, New York, 1977) 2. B. Baaquie, Quantum Finance (Cambridge University Press, Cambridge, 2004) 3. R. Feynman, Space-time approach to non-relativistic quantum mechanics. Rev. Mod. Phys. 20, 367 (1948) 4. R. Feynman, A. Hibbs, Quantum Mechanics and Path Integrals, emended Aufl. (Dover, New York, 2005) 5. J. Dash, Path Integrals and Options, Part I, CNRS Preprint CPT-88, PE.2206, see also J Dash, Quantitative Finance and Risk Management (World Scientific, Singapore, 1988), S. 2004 6. H. Goldstein, J. Safko, C. Poole, Classical Mechanics (Pearson, Harlow, 2014)

Optimale Steuerungstheorie

11

Zusammenfassung

Nach der Einführung der Solow- und Robinson-Crusoe-Modelle als Beispiele für reale Konjunkturzyklusmodelle – analog zu den Bewegungsgleichungen in der Physik – leiten wir die Bellman-Gleichung ab, um ein Steuergesetz für einen Parameter zu finden, der ein Leistungsmaß optimiert. Ein einfaches mechanisches Modell, basierend auf einem Esel, der eine Masse über unebenen Boden zieht, veranschaulicht die Grundlagen des Zustandsraumformalismus in der optimalen Steuerungstheorie. Nach einer Diskussion des Zusammenhangs zwischen Lagrange- und Hamilton-Funktionen in der klassischen Mechanik leitet dieses Kapitel Hamiltons Gleichungen für allgemeine dynamische Systeme ab, die ein Leistungsmaß minimieren. Hier sind Ähnlichkeiten zu Hamiltons Prinzip der Minimierung der Wirkung relevant. An diesem Punkt können wir die neu entwickelten Methoden verwenden, um den Fortschritt des Esels zu optimieren, bevor wir die gleichen Methoden verwenden, um die Riccati-Gleichung abzuleiten und lineare quadratische Regler zu analysieren, die anschließend verwendet werden, um eine Robinson-Crusoe-Wirtschaft nahe ihrem Gleichgewicht zu steuern. In diesem Kapitel werden wir Methoden diskutieren, um Parameter zu steuern, die ein dynamisches System beeinflussen, um ein wünschenswertes Ziel zu erreichen. Beispiele aus dem Ingenieurwesen sind Steuerventile, die den Durchfluss von Flüssigkeiten regulieren, die zur Aufrechterhaltung einer chemischen Reaktion benötigt werden; oder Fliehkraftregler, Regulatoren, die automatisch die Geschwindigkeit von Dampfmaschinen steuern, der Vorfahre des Tempomats, den man in modernen Autos findet. Eine weitere Gruppe von Systemen, die gesteuert werden können, sind makroökonomische Systeme. Zentralbanken steuern den Zinssatz, zu dem Geschäftsbanken Geld leihen können. Dies beeinflusst direkt die

© Der/die Autor(en), exklusiv lizenziert an Springer Nature Switzerland AG 2023 V. Ziemann, Physik und Finanzen, https://doi.org/10.1007/978-3-031-36964-3_11

187

11  Optimale Steuerungstheorie

188

Verfügbarkeit von Krediten für Unternehmen, die sie zur Expansion nutzen, zum Beispiel durch die Eröffnung einer zusätzlichen Fabrik. Als Konsequenz sinkt die Arbeitslosenquote, weil die neuen Arbeitsplätze in den Fabriken besetzt werden müssen. Die Gesamtwirkung der Maßnahmen der Zentralbank ist (hoffentlich) eine Steigerung des Bruttoinlandsprodukts und des Wohlstands der Bevölkerung insgesamt. Zumindest ist das die Theorie, und eine Voraussetzung zur Analyse dieser Theorie ist ein mathematisches Modell für die Dynamik des Systems. In der Physik werden die Modelle durch Bewegungsgleichungen beschrieben. In der Wirtschaft sind Raten-Gleichungen, die die Dynamik beschreiben, das Herzstück sogenannter Real-Business-Cycle Modelle [1]. Im nächsten Abschnitt werden wir einige dieser Modelle diskutieren und wie sie in eine mathematische Form [2] gebracht werden, die für die Optimierungsmethoden geeignet ist, die wir weiter unten diskutieren werden.

11.1 Makroökonomische Modelle Zunächst betrachten wir eine vereinfachte Version des Solow-Modells, [1] welches den Ertrag y eines Unternehmens mit Kapitalbasis k berücksichtigt, und die Frage, welcher Anteil σ der Ausgabe in das Kapital reinvestiert werden soll. Eine größere Kapitalbasis ermöglicht es dem Unternehmen, in der Zukunft einen höhere Ertrag zu erzielen, lässt aber heute wenig Gewinn zur Ausschüttung an die Aktionäre übrig. Wir analysieren dieses Modell mit geeignet gewählten diskreten Zeitschritten, gekennzeichnet durch t. Für ein Unternehmen könnte dies ein Dreimonatszeitraum sein, der mit der üblichen Geschäftsberichtspraxis übereinstimmt. Daher kennzeichnen wir alle Mengen mit einem Subskript t, um den Zeitschritt t zu bezeichnen. Der Ertrag yt = f (kt ) ist dann eine Funktion f (kt ) des verfügbaren Kapitals kt , multipliziert mit einem Parameter , welches das technologische Niveau des Unternehmens beschreibt. Es ist groß für ein Unternehmen, das HighTech-Produkte herstellt, und klein für einen Sweatshop in der Dritten Welt. Ein häufig verwendetes Modell für die Funktion f ist das Cobb-Douglas-Modell f (kt ) = kt� mit der Outputelastizität im Bereich 0 < � < 1. Da  immer kleiner als Eins ist, beschreibt es den Effekt der abnehmenden Erträge. Eine 100 000 € Erhöhung des Kapitals macht einen großen Unterschied für einen kleinen Computerladen, ist aber kaum bemerkbar in einem großen Unternehmen, wie Apple. Der Ertrag yt wird also in Bezug auf die Kapitalbasis kt zum Zeitpunkt t durch

yt = f (kt ) = kt�

(11.1)

gegeben. Aber wie ändert sich das Kapital kt von Periode zu Periode? Dies wird durch zwei Effekte bestimmt. Erstens, das Kapital kt verliert mit einer Rate δ an Wert, zum Beispiel aufgrund von Ausrüstung, die sich abnutzt und schließlich kaputt geht. Maschinen, die zur Produktion von Gütern verwendet werden, verlieren ihren Wert bei Gebrauch und müssen nach einiger Zeit ersetzt werden. Dies wird allgemein als Abschreibung eines Teils des Kaufpreises für die Maschinen

11.1  Makroökonomische Modelle

189

bezeichnet. Wir beschreiben es durch den Abschreibungsparameter δ. Der zweite Effekt, der die Kapitalbasis verändert, sind Investitionen it während der Periode t, so dass die Kapitalbasis kt+1 für die nachfolgende Periode gegeben ist durch (11.2)

kt+1 = (1 − δ)kt + it .

Und hier kommt die Reinvestitionsrate σ ins Spiel. In diesem Modell werden die Investitionen it durch einen Bruchteil σ des Ertrags yt gegeben (11.3)

it = σ yt = σ f (kt ). Nach dem Einfügen von (11.3) in (11.2) erhalten wir

(11.4)

kt+1 = (1 − δ)kt + σ f (kt ),

was ein dynamisches System beschreibt, das das Kapital kt von einer Periode zur nächsten abbildet. Es ist einfach, diese Gleichung in MATLAB zu programmieren und die dynamische Variable kt , und auch yt und it als Funktion der Periode t aufzutragen. Auf der linken Seite von Abb. 11.1 zeigen wir das Ergebnis der Simulation, die mit dem Code aus Anhang B.7 erzeugt wurde und die Parameter  = 1, δ = 0,1, σ = 0,15, und  = 0,7. verwendet. Ausgehend vom Anfangswert k0 = 1, beobachten wir, dass das Kapital kt infolge der Reinvestition zunimmt und nach etwa 150 Perioden ein Gleichgewicht erreicht. Beachten Sie, dass das Kapital am Ende der Simulationsperiode etwa viermal größer ist als zu Beginn. Da wir an einem hohen Ertrag yt auf lange Sicht interessiert sind, wollen wir herausfinden, wie das Gleichgewichtsniveau von den Systemparametern abhängt. Wir führen daher Gleichgewichtswerte k¯ = kt+1 = kt und ¯i = it+1 = it ein. Sie folgen aus der Anforderung, dass diese Werte sich von einer Periode zur nächsten nicht ändern. Wenn wir die Gleichgewichtswerte in (11.4) einsetzen, finden wir

Kapital kt Ausgabe yt Investition it

oder

σ  ¯� σ ¯ k . f (k) = k¯ = δ δ

, Zeitschritt t

(11.5)

Gleichgewichtskapital k

¯ k¯ = (1 − δ)k¯ + σ f (k)

, , Reinvestitionsanteil

,

Abb. 11.1  Links: die Zeitentwicklung des Solow-Modells aus (11.2) mit den Parametern  = 1, δ = 0,1, σ = 0,15, und  = 0,7. Rechts: der Gleichgewichtswert des Kapitals k¯ als Funktion der Reinvestitionsrate σ

11  Optimale Steuerungstheorie

190

Dies ist eine Gleichung für das Kapital k¯ im Gleichgewicht, das von den System¯ = k¯ � parametern σ , , und δ. abhängt. Für die Cobb-Douglas-Funktion f (k) 1/(1−�) ¯ können wir die zweite Gleichung mit dem Ergebnis k = (σ /δ) lösen. Die rechte Seite in Abb. 11.1 zeigt k¯ als Funktion von σ wobei beobachtet wird, dass große Werte von σ die Gleichgewichtswerte k¯ erheblich erhöhen. Warum also nicht die Reinvestition noch weiter erhöhen? Die Antwort ist natürlich, dass wir den nicht reinvestierten Teil des Ertrags, den Gewinn pt = yt − it , für etwas anderes verwenden möchten. Erweitern wir daher das Modell, um den Gewinn pt und die Tatsache, dass wir ihn schätzen, zu berücksichtigen. Da dieses ökonomische Modell nur einen einzigen Akteur hat, wird es als Robinson Crusoe Wirtschaft [1] bezeichnet (Sie werden erraten, warum). Die Gleichungen, die die Dynamik dieser Wirtschaft beschreiben, ähneln sehr denen des Solow-Modells.

kt+1 = (1 − δ)kt + it

pt = f (kt ) − it .

und

(11.6)

Was wir tatsächlich maximieren wollen, ist die „Freude“, die wir aus den Gewinnen während der Periode t ziehen, die durch die Nutzenfunktion u(pt ) quantifiziert wird. Eine oft verwendete Form ist die logarithmische Nutzenfunktion u(pt ) = log(pt ). Aber wir maximieren nicht nur den Nutzen für eine einzelne Periode, sondern auch für die absehbare Zukunft. Wir kümmern uns jedoch mehr um die nahe Zukunft als um die ferne Zukunft. Diesen Effekt berücksichtigen wir durch die Einführung des Parameters β, der den zukünftigen Nutzen u(pt ) „diskontiert“. Dies ist in das Zielfunktional Vt [p] eingebaut, das von der Zeitreihe aller zukünftigen Gewinne abhängt, anstatt von einem einzelnen Wert. Wir zeigen dies durch die Verwendung von eckigen Klammern an. Vt [p] wird dann definiert durch

Vt [p] =

∞  j=0

β j u(pt+j ) =

∞ 

β j log(pt+j ),

(11.7)

j=0

wobei wir den Nutzen u in der zweiten Gleichheit durch den Logarithmus ersetzt haben. (11.6) beschreibt die Dynamik des Systems und (11.7) ist die Zielfunktion, die wir maximieren wollen. Sie hängt von der Zeitreihe der Gewinne ab, diese wiederum vom Steuerungsparameter, der Investition it . Die Frage, die nun zu beantworten ist: Welche Abfolge von Investitionen it maximiert Vt [p]? Was also ist die beste Strategie oder Steuerungsgesetz, um den Ertrag yt = pt + it in Investition it und Gewinn pt aufzuteilen? Wenn wir zu viel Gewinn abziehen, um ihn zu genießen, werden wir in der Zukunft weniger Kapital haben, so dass es in der Zukunft weniger Gewinn zu genießen gibt. Umgekehrt lässt zu viel Reinvestition zu wenig Gewinn zum Genießen übrig, trotz eines riesigen Kapitals. Offensichtlich sollte es eine optimale Investitionspolitik geben. Versuchen wir nun, diese optimale Politik zu finden, indem wir die Zielfunktion in den aktuellsten Beitrag und den Rest aufteilen. Mit pt = f (kt ) + (1 − δ)kt − kt+1 können wir schreiben

11.1  Makroökonomische Modelle

Vt [p] =

∞ 

β j u(pt+j ) = u(pt ) +

j=0

= u(pt ) + βVt+1 [p],

191 ∞  j=1

β j u(pt+j ) = u(pt ) + β

∞ 

β i u(pt+1+i )

i=0

(11.8) wobei wir zuerst die Summe in Terme mit j = 0 und j ≥ 1 aufspalten und dann die neue Variable i = j − 1 einführen, was uns erlaubt, den zweiten Term umzuschreiben als βVt+1 [p]. Diese Gleichung wird Bellman-Gleichung genannt. Sie drückt das Zielfunktional Vt [p] zur Zeit t aus durch den Nutzen u(pt ), der am nächsten in der Zeit liegt und das Zielfunktional Vt+1 [p], der unser Minimierungsziel für die Zukunft, beginnend bei t + 1 kodiert. Diese rekursive Beschreibung des Ziel-Funktionals Vt [p] gibt uns einen Ansatzpunkt, um die optimale Strategie zu finden. Wenn wir annehmen, dass wir bereits ∗ [p], die optimale Strategie für Vt+1 [p], gefunden haben, nennen wir sie Vt+1 müssen wir nur noch den zusätzlichen Term Vt [p] minimieren, um das Optimum für zu finden. u(pt ). Dieser Algorithmus, der die Grundlage für die dynamische Programmierung [3] bildet, erfordert jedoch, dass wir von der fernen Zukunft aus starten und uns zurück zum zeitlich nächsten Punkt arbeiten. Ungeachtet der Schwierigkeiten des unendlichen Zeithorizonts (die Summe erstreckt sich bis ins Unendliche), werden wir das Optimum untersuchen, indem wir die Ableitung von Vt [p] in Bezug auf kt+1 , berechnen, wobei wir alle Gewinne pt durch die Werte des Kapitals kt ausdrücken müssen via pt = f (kt ) + (1 − δ)kt − kt+1 . Die Verwendung von kt+1 anstelle von pt ist irrelevant, da beide die Information darüber enthalten, wie viel vom Ertrag yt = f (kt ) in die nächste Zeitperiode übertragen wird. Wir finden Bedingungen für die pt oder äquivalent für die kt+1 indem wir die Ableitung auf null setzen.

∂Vt+1 [p] ∂u(f (kt ) + (1 − δ)kt − kt+1 ) +β ∂kt+1 ∂kt+1 ′ = −u (f (kt ) + (1 − δ)kt − kt+1 )   + βu′ (f (kt+1 ) + (1 − δ)kt+1 − kt+2 ) f ′ (kk+1 ) + 1 − δ   = −u′ (pt ) + βu′ (pt+1 ) f ′ (kk+1 ) + 1 − δ

0=

(11.9)

wobei u′ (p) die Ableitung der Nutzenfunktion in Bezug auf ihr Argument bezeichnet. Beachten Sie, dass Vt+1 [p] das kt enthält, verschoben um eine Periode, was für die innere Ableitung in der eckigen Klammer in der zweiten Gleichheit sorgt. Die letzte Gleichheit drückt nur die Argumente der Nutzenfunktionen in Bezug auf die Gewinne aus, anstatt das Kapital, um die Gleichung leichter lesbar zu machen. Mit der rekursiven Beschreibung der Zielfunktion könnten wir nun eine Gleichung für die nächste Periode finden und durch Wiederholung dieses Verfahrens kommen wir zu einer unendlichen Folge von Gleichungen wie (11.9). Selbst wenn wir das Anfangskapital k0 berücksichtigen, ist es immer noch unmöglich, diese

11  Optimale Steuerungstheorie

192

unendliche Folge von Gleichungen zu lösen. Wir können jedoch die Gleichungen schließen, indem wir annehmen, dass wir zu einem weit entfernten Zeitpunkt das gesamte Kapital als Gewinn abziehen. Dies beendet die unendliche Regression und führt zu einem endlich-dimensionalen Satz von nichtlinearen und gekoppelten Gleichungen, die schwer zu lösen sind. Daher analysieren wir anstatt des transienten Systems die stationäre Lösung, die das System asymptotisch annähert. Im stationären Zustand werden wir haben kt = kt+1 = k¯ und daher auch u(pt ) = u(pt+1 ), was es uns ermöglicht, die letzte Zeile in (11.9) zu

  ¯ +1−δ 0 = −1 + β f ′ (k)

oder

1 ¯ (11.10) − 1 + δ = f ′ (k) β

zu vereinfachen. Wenn wir eine Cobb-Douglas-Produktionsfunktion annehmen f (k) = k � , können wir das Gleichgewichtskapital k¯ , den Gewinn p¯ und die Investition ¯i Rate bestimmen zu

k¯ =



1   �−1 1 1 −1+δ , � β

¯ p¯ = k¯ � − δ k,

und ¯i = δ k¯ . (11.11)

Diese Gleichungen ermöglichen es uns, zum Beispiel, die Auswirkung der Abschreibung δ auf die Gewinne im Gleichgewichtszustand zu bewerten. Dies liefert uns Informationen darüber, wie die Ausfallrate der Maschinen die Gewinne beeinflusst. Wir stellen daher k¯ , p¯ , und ¯i als Funktion von δ auf der linken Seite in Abb. 11.2 dar. Hier verwenden wir β = 0,8,  = 0,7, und  = 1 in der Simulation. Wir beobachten, dass das Gleichgewichtskapital k¯ , dargestellt als durchgezogene schwarze Linie, von etwa 10 auf etwas über 2 abnimmt, wenn δ von 0,1 auf 0,3 erhöht wird. Gleichzeitig sinken die Gewinne um etwa den gleichen Faktor. Offensichtlich lohnt es sich, hochwertige Maschinen zu kaufen und gut zu warten. Die Grafik auf der rechten Seite in Abb. 11.2 zeigt das Kapital, den Gewinn und die Investitionen für δ = 0,2 als Funktion des technologischen Levels , was uns

Kapital Gewinn Investition

Kapital Gewinn Investition

,

,

,

Abwertung

,

,

Technologisches Niveau λ

Abb. 11.2  Die Gleichgewichtswerte des Kapitals k¯ , des Gewinns p¯ , und der Investition ¯i aus (11.11) für β = 0,8, � = 0,7,  = 1 als Funktion der Abschreibung δ (links) und als Funktion des technologischen Niveaus  (rechts), wobei δ auf δ = 0,2 festgelegt wurde

11.1  Makroökonomische Modelle

193

erlaubt, den Unterschied in den Gewinnen zu bewerten, wenn wir eine Sweatshop mit einem kleinen Wert von  ≈ 0,3 mit einem viel fortschrittlicheren Unternehmen mit  = 3 vergleichen. Letzteres erhält eine mehr als 2000 Mal höhere Kapitalbasis (durchgezogene schwarze Linie) und entsprechend höhere Gewinne, dargestellt als gestrichelte rote Linie. Bevor wir weitermachen, um die Modelle zu optimieren, lassen Sie uns kurz einige Erweiterungen des Grundmodells diskutieren. Eine Erweiterung besteht darin, Zufallseffekte hinzuzufügen, bei denen wir das technologische Niveau  unseres Prozesses als Zufallsvariable betrachten, die um einen Durchschnittswert herumwandert. Dies simuliert zum Beispiel, dass Geräte zu zufälligen Zeitpunkten ausfallen. Der Zufallsprozess für  folgt dann der folgenden Dynamik

t+1 = γ t + (1 − γ ) + aεt

mit

�ε� = 0 und �ε 2 � = 1.

(11.12)

Hier ist εt eine Sequenz von zufälligen Schocks mit den angegebenen statistischen Eigenschaften. Darüber hinaus gibt γ den Zeitskalen an, über die der Prozess ein „Gedächtnis“ hat und der Begriff 1 − γ stellt sicher, dass der Prozess einen Mittelwert von Eins hat. Beachten Sie, dass dieser Prozess eine Variante des AR(1)Modells ist, das wir in Kap. 8 besprochen haben. Die Dynamik der Robinson Crusoe Wirtschaft mit zufälligen Schocks wird dann durch die folgenden Gleichungen gegeben

kt+1 = (1 − δ)kt + it t+1 = γ t + (1 − γ ) + aεt pt = t f (kt ) − it ∞  β j �log(pt+j )�, V [p] =

(11.13)

j=0

wobei der einzige Unterschied zum vorherigen Modell der zusätzliche Zufallsprozess für  und die Notwendigkeit, den Erwartungswert der Nützlichkeit, ausgedrückt durch die spitzen Klammern, in der Definition des Ziel-Funktional zu verwenden. Die zweite Erweiterung, die wir in Betracht ziehen, fügt den Effekt der Arbeit ht hinzu, die erforderlich ist, um den Ertrag yt . zu produzieren. Diese Erweiterung beschreibt das Dilemma des Studenten, welches auch als Hansen-Modell bekannt ist. Für den Ertrag yt zum Zeitpunkt t verwenden wir eine Cobb-DouglasProduktionsfunktion, die gegeben ist durch

yt = f (kt , ht ) = kt� ht1−� .

(11.14)

Das Dilemma des Studenten ergibt sich aus der Tatsache, dass sie ihre Zeit zwischen Arbeit ht und Freizeit lt = 1 − ht zum Faulenzen aufteilen muss. Die Freizeit lt wird in der Nutzenfunktion geschätzt, aber die Arbeit ht muss aufgewendet werden, um ein Ziel zu erreichen,  dasj nun sowohl Gewinne pt und Freizeit lt schätzt und die Form V [p, l] = ∞ j=0 β u(pt+j , lt+j ) hat. Das vollständige dynamische System, einschließlich des Ziel-Funktionals, ist dann gegeben durch

11  Optimale Steuerungstheorie

194

kt+1 = (1 − δ)kt + it pt = f (kt , ht ) − it lt = 1 − h t ∞  β j u(pt+j , lt+j ), V [p, l] =

(11.15)

j=0

wobei von u(pt , lt ) oft angenommen wird, eine logarithmische Abhängigkeit zu haben

u(pt , lt ) = log(pt ) + w log(lt )

(11.16)

mit einem gewissen Gewicht w, um den beiden Beiträgen ein relatives Gewicht zuzuweisen. Einige Menschen schätzen Geld höher als ihre Freizeit; sie verwenden einen kleinen Wert für w. Andere kümmern sich nicht viel um Geld, sondern ziehen es vor, stattdessen herumzualbern; sie verwenden einen großen Wert für w. In der dritten Erweiterung zeigen wir, wie man die Evolutionsgleichungen, die bisher diskrete Zeitschritte verwenden, zeitkontinuierlich macht. Dies beinhaltet, die Dauer eines Zeitschritts t unendlich klein zu machen, so dass wir Unterschiede von Periode zu Periode als Ableitungen behandeln können. Bezeichnen wir daher den Gewinn pro Zeiteinheit mit p′ = pt /�t und die anderen Mengen ′ , δ ′ und i′ sind ebenfalls die entsprechenden Grössen, geteilt durch t. Wie zuvor beschreibt β einen Faktor zur Diskontierung zukünftiger Nutzen und p′0 ist ein Referenzgewinn, um das Argument des Logarithmus dimensionslos zu machen. Die kontinuierliche Version von (11.6) und (11.7) ist

k˙ = −δ ′ k + i′ p′ = ′ f (k) − i′ ˆ∞ ′ V [p ] = β t log(p′ (t)/p′0 )dt,

(11.17)

0

wobei die Ableitung des Kapitals k˙ im Grenzwert von t → 0 gegeben ist durch k˙ = (kt+1 − kt )/�t. Lassen Sie uns nun kurz eine allgemeine Notation einführen, die in der Literatur weit verbreitet ist. Diskrete Optimierungsprobleme werden oft in einem Rahmen definiert, in dem die Dynamik des Systems durch Differenzengleichungen xt+1 = F(xt ) + G(ut ) für die Zustandsvariablen x und die Regler u. Auf der Grundlage dieser Bewegungsgleichungen, die die Zustandsvariablen zeitlich voranbringen, versuchen wir dann, Observable yt = H(xt ) auf eine Weise zu beeinflussen, dass ein Zielfunktional V [y, u] minimiert wird. Hier hängt V [y, u] von den Zeitreihen sowohl der Observablen y als auch vom Controller u ab. Für lineare Systeme können die Funktionen F, G und H durch Matrizen dargestellt werden.

11.2 Steuerung und Rückkopplung

195

Wenn das System kontinuierlich in der Zeit ist, werden die Differenzengleichungen durch Differentialgleichungen der Form x˙ = F(x) + G(u) für die Zustandsvektoren x und die Controller u ersetzt. Ebenso werden beobachtbare Größen y = H(x) eingeführt, die vom Zustandsvektor x abhängen und das Ziel der Optimierung besteht darin, das Zielfunktional V [y, u] zu minimieren, das typischerweise ein Integral über eine Funktion von y und u für ein bestimmtes Zeitintervall ist. Die Darstellung von Steuerungsproblemen durch Zustandsvariablen, Controller und Observable wird oft als Zustandsraumformalismus bezeichnet. Solche Systeme treten nicht nur in der Wirtschaft, sondern auch in der Physik und im Ingenieurwesen auf. Betrachten wir daher ein einfaches Beispiel, basierend auf einem Esel, der eine Masse über rauen Boden zieht.

11.2 Steuerung und Rückkopplung Der Esel zieht eine Masse m wie in Abb. 11.3 dargestellt. Die Dynamik des etwas vereinfachten Systems wird durch die Bewegungsgleichungen für die Masse bestimmt

m¨x + α x˙ = F,

(11.18)

wobei α die Reibung zwischen der Masse und dem rauen Boden beschreibt. F ist die Kraft—der Controller—mit der der Esel die Masse zieht. Um diese Gleichung in die am Ende des vorherigen Abschnitts erwähnte Form zu bringen, konvertieren wir sie in die Zustandsraumform, indem wir die Zustandsvariablen x1 und x2 definieren

x = x1

und

x˙ = x˙ 1 = x2 .

(11.19)

Dies ermöglicht es uns, die Bewegungsgleichungen als eine Gruppe von Differentialgleichungen erster Ordnung zu schreiben

x˙ 1 = x2 x˙ 2 = − mα x2 + mF ,

(11.20)

welche die am Ende des vorherigen Abschnitts gegebene Form haben, vorausgesetzt, wir identifizieren die Kraft als den Regler u = F. Da dieses System von Differentialgleichungen linear ist, kann es auch in Matrixform geschrieben werden

Abb. 11.3  Der Esel zieht eine Masse über unebenen Boden, was durch eine geschwindigkeitsabhängige Reibungskraft modelliert wird

11  Optimale Steuerungstheorie

196



x˙ 1 x˙ 2



=



0 1 0 − mα



x1 x2



+



0 1 m



u,

(11.21)

was es einfach macht, sie für eine numerische Behandlung anzupassen. Wir werden in Abschn. 11.5 zum Esel zurückkehren, aber wir müssen zuerst verschiedene Arten von Zielfunktionalen und andere Bedingungen diskutieren, die wir bei der Optimierung erfüllen müssen. Neben den Bewegungsgleichungen, die die Zustandsvariablen x1 und x2 mit dem Controller u verknüpfen, könnten diese Parameter durch Grenzen eingeschränkt sein. Beispiele für solche Grenzen sind

0 ≤ x = x1 ≤ l 0 ≤ x˙ = x2 ≤ vmax −Fmax ≤ F = u ≤ Fmax

innerhalb der Grenzen bleiben Geschwindigkeitsbegrenzung begrenzte Kraft.

Eine weitere Einschränkung könnte sein, dass die Masse pünktlich geliefert werden muss. Dies macht die endgültige Zeit tf zu einer Bedingung, die einen großen Einfluss auf das Ziel-Funktional J[x, u] hat. Das spezifische Ziel hängt vom jeweiligen Fall ab, und weitere Beispiele kommen in den Sinn

Kürzeste Zeit: J[x, u] = tf − t0 = Minimum an Treibstoff: J[x, u] = Minimale Leistung: J[x, u] =

´tf

t0 ´tf

´l 0

dx x˙

|u(t)|dt u(t)2 dt

(11.22)

t0

Ziel erreichen: x(tf ) = l . . . mit Geschwindigkeit null: x˙ (tf ) = 0 Optimale Geschwindigkeit vd : J[x, u] =

 ´tf  (˙x (t) − vd )2 + wu(t)2 dt

t0

Lassen Sie uns die verschiedenen Ziel-Funktionale anhand eines Beispiels veranschaulichen. Betrachten Sie den Luftverkehr von einem Punkt x = 0 zu einem anderen xf = l, reisend auf Höhe h0 , was in Abb. 11.4 dargestellt ist. Die Zustandsvariablen sind somit die Entfernung x1 = x und die Höhe x2 = h und die Regler sind der Schub u1 = T des Strahltriebwerks und der Winkel u2 = φ einer Steuerfläche des Flugzeugs. Es gibt mehrere zu erfüllende Einschränkungen: Eine davon ist, das Ziel rechtzeitig zu erreichen, was tf festlegt. Darüber hinaus wollen wir das Ziel erreichen, was xf = l impliziert und wir wollen es mit Geschwindigkeit Null erreichen. Dies impliziert x˙ f = 0 und, noch wichtiger, h˙ f = 0. Für das Ziel-Funktional müssen wir so lange wie möglich auf h0 fliegen, was in dem Ziel-Funktional

J[x, u] =

ˆtf t0

(x2 (t) − h0 )2 dt

(11.23)

11.2 Steuerung und Rückkopplung

197

Höhe h0 der Flugbahn Winkel ϕ

Schubkraft T

Abb. 11.4  Die Optimierung des Luftverkehrs beinhaltet eine Reihe von Einschränkungen, wie zum Beispiel das Zurücklegen einer bestimmten Strecke 0 ≤ x ≤ l, das Erreichen einer bestimmten Endzeit tf , das Fliegen in einer vorgegebenen Höhe h0, oder die Minimierung des verbrauchten Treibstoffs, unter anderem. Die Steuerungen, um diese, manchmal widersprüchlichen Anforderungen zu erfüllen, sind zum Beispiel der Winkel und der Schub der Strahltriebwerke

resultiert. Wenn wir so wirtschaftlich wie möglich fliegen wollen, möchten wir vielleicht den Kraftstoffverbrauch minimieren, indem wir das Integral über den Schub u1 = T

J[x, u] =

ˆtf

|u1 |dt

(11.24)

t0

minimieren. In der Realität würde wahrscheinlich eine gewichtete Summe mehrerer Ziele verwendet werden. Ausgestattet mit einem guten Verständnis der Einschränkungen, wenden wir uns der generischen Formulierung eines optimalen Steuerungsproblems zu, das auf dynamischen Gleichungen

x˙ = a(x, u, t)

(11.25)

basiert um die Bewegungsgleichungen auszudrücken. Es ist etwas allgemeiner als das, was wir am Ende des vorherigen Abschnitts eingeführt haben. Hier nehmen wir an, dass die Observablen  y identisch mit einer oder mehreren der Zustandsvariablen sind. Das dynamische System, beschrieben durch (11.25), muss gesteuert werden, um das Zielfunktionale J[x, u] zu minimieren, das die folgende Form hat

J[x, u] = h(x(tf ), tf ) +

ˆtf

g(x(t), u(t), t)dt.

(11.26)

t0

Es enthält einen Term, der über ein Leistungsmaß g(x, u) integriert, in den makroökonomischen Beispielen war dies die Nutzenfunktion. Hier hängt g(x, u, t) sowohl von Zustandsvariablen x als auch von Controllern u ab. Es handelt sich um eine integrale Beschränkung. Der zweite Beitrag wird durch die Funktion h charakterisiert, die nur von den Zustandsvariablen xf zur Endzeit tf abhängt und oft als Endpunkt-Beschränkung bezeichnet wird. In vielen Anwendungen werden die Bewegungsgleichungen und ihre Abhängigkeit von den Controllern durch eine Gruppe von linearen Gleichungen gegeben

11  Optimale Steuerungstheorie

198

x˙ = Ax + Bu

(11.27)

wobei die Matrizen A und B von der Zeit abhängen können, aber oft konstant sind. Darüber hinaus kann in vielen Anwendungen die Zielfunktion als Integral über eine quadratische Form ausgedrückt werden, gegeben durch

J[x, u] =

ˆtf t0



 xt Qx + ut Ru dt,

(11.28)

wobei Q und R positiv semidefinite, möglicherweise zeitabhängige, Matrizen sind. Quadratische Formen sind rechnerisch attraktiv, weil sie zu Lösungen führen, die analytisch gefunden werden können, wie wir in Kürze sehen werden. Die Lösung eines optimalen Steuerproblems beinhaltet die Bestimmung des Controllers u(t) als Funktion der Zeit. Wir suchen daher eine Funktion J[x, u] zu minimieren um eine Funktion u(t) zu bestimmen, was vage ähnlich´ist wie das t Finden der Bewegungsgleichungen aus dem Wirkungsintegral S[q] = t0f L(q, q˙ )dt das von einer Lagrange Funtion L(q, q˙ ) abhängt. In Kap. 3 haben wir Methoden aus der Variationsrechnung verwendet, um die Euler-Lagrange-Gleichungen zu bestimmen. Sie sind die Bewegungsgleichungen, deren Lösung die Trajektorie q(t) ergibt. Hier haben wir ein ähnliches Problem. Der gesuchte Controller u übernimmt die Rolle der Trajektorie, das Ziel J[x, u] übernimmt die Rolle des Wirkungsintegrals, und g(x, u, t) die der Lagrange-Funktion. Die einzige Schwierigkeit besteht darin, dass sich durch (11.25) die Zustandsvariablen gleichzeitig ändern. Es stellt sich heraus, dass diese Schwierigkeit durch die Verwendung eines Hamiltonschen - anstelle eines Lagrangeschen – Rahmens überwunden werden kann. Wir fassen daher kurz die Grundlagen der Hamiltonschen Mechanik zusammen [4, 5].

11.3 Hamiltonsche Mechanik In Abschn. 3.1 haben wir gefunden dass das Minimieren des Wirkungsintegrals S[q] das in Bezug auf die Lagrange-Funktion L(q, q˙ ) definiert ist   tf ˆ d ∂L ∂L − , (11.29) f¨uhrt zu 0= δS[q] = δ  L(q, q˙ )dt  = 0 dt ∂ q˙ ∂q t0

und zu den Euler-Lagrange-Gleichungen zur Beschreibung der Bewegungsgleichungen für die Trajektorie q(t) führt. Während die Lagrange-Funktion L(q, q˙ ), hier angenommen als zeitunabhängig, abhängt von der Zustands Variable q und ihrer Ableitung q˙ , möchten wir, dass der Hamiltonian stattdessen von q und dem kanonischen Impuls p = ∂L/∂ q˙ abhängt [4, 5]. Darüber hinaus wollen wir dass die partiellen Ableitungen von H(q,p) die Zeit-Ableitungen von q und p ergeben.

11.4  Hamiltonsche Funktionen für optimale Steuerung

199

Als Voraussetzung stellen wir fest, dass die Euler-Lagrange   Gleichungen es uns erlauben, folgendes zu schreiben

0=

d ∂L d ∂L ∂L − = p− dt ∂ q˙ ∂q dt ∂q

oder

p˙ =

∂L . ∂q

(11.30)

Mit diesen Beziehungen können wir das totale Differential der Lagrange-Funktion auf folgende Weise ausdrücken

dL =

  ∂L ∂L dq + d q˙ = p˙ dq + pd q˙ = p˙ dq + d(p˙q) − q˙ dp , ∂q ∂ q˙

(11.31)

wobei wir die partiellen Ableitungen der Lagrange-Funktion durch p und p˙ mit Hilfe der Definition des kanonischen Impulses p und (11.30) ersetzen. Wir entfernen den Term proportional zu d q˙ mit Hilfe von pd q˙ = d(p˙q) − q˙ dp. Nachdem wir die proportional zu dq und dp stehenden Terme auf der linken Seite gesammelt haben, kommen wir zu

q˙ dp − p˙ dq = d(p˙q − L) = dH =

∂H ∂H dp + dq, ∂p ∂q

(11.32)

wobei wir die auf der rechten Seite verbleibenden Terme als Hamiltonian definieren H = p˙q − L definieren. Darüber hinaus erhalten wir durch das Schreiben von dH(q,p) durch seine partiellen Ableitungen und den Vergleich der Koeffizienten mit der linken Seite, Hamiltons Gleichungen, die in den folgenden Gleichungen zusammengefasst sind

H = p˙q − L,

q˙ =

∂H , ∂p

p˙ = −

∂H . ∂q

(11.33)

Beachten Sie, dass die Anforderung, den kanonischen Impuls p anstelle von q˙ zu verwenden, zur Einführung der Hamilton Funktion H(q, p) führt und die Euler-Lagrange-Gleichungen, die von zweiter Ordnung sind, durch Paare von Gleichungen erster Ordnung ersetzt - die Hamiltonschen Gleichungen. Diese Transformation von Lagrange zu Hamilton wird üblicherweise als LegendreTransformation bezeichnet. Lassen Sie uns nun erkunden wie dieser Formalismus uns hilft, das Optimierungsproblem zu lösen.

11.4 Hamiltonsche Funktionen für optimale Steuerung In diesem Abschnitt lassen wir die Endpunktbeschränkungen weg, um das Problem handhabbarer zu machen, das somit zusammengefasst werden kann durch Minimierung von

J[x, u] =

ˆtf t0

g(x, u)dt

mit der Bedingung

x˙ = a(x, u).

(11.34)

11  Optimale Steuerungstheorie

200

Wir behandeln nun die Bewegungsgleichungen als Zwangsbedingung und führen Lagrange-Multiplikatoren ein, die im Englischen als Costate variablen bezeichnet werden. Wir werden später sehen, dass wir die Costates als „Impuls“ interpretieren können, der zu den Zustandsvariablen x korrespondiert. Das Ziel-Funktional, das nun die Bewegungsgleichungen einschließt, kann wie folgt geschrieben werden

J[x, u, p] =

ˆtf t0



 g(x, u) + pt [a(x, u) − x˙ ] dt.

(11.35)

Diese Ziel-Funktional hängt von x, u, und den Costate variablen p, ab, die alle unabhängig voneinander variieren können. Lassen Sie uns daher die Variation δJ berechnen und Terme proportional zu δx, δu, und δp als unabhängig betrachten. Wir kommen dann zu

ˆtf 

∂g ∂g δx + δu + δpt (a − x˙ ) ∂x ∂u t0   ∂a ∂a δx + δu − δ x˙ dt +pt ∂x ∂u  ˆtf  ∂g ∂a + pt δx − pt δ x˙ + δpt (a − x˙ ) = ∂x ∂x t0    ∂g t ∂a +p δu dt, + ∂u ∂u

δJ[x, u, p] =

(11.36)

wobei ∂/∂x den Gradienten in Bezug auf die Komponenten von x bezeichnet. Eine sorgfältige Untersuchung zeigt, dass es auch einen Term proportional zu δ x˙ gibt, den wir mit Hilfe einer partiellen Integration umschreiben können zu

ˆtf t0



t

 p δ x˙ dt =

ˆtf  t0

 ˆtf   d  t  ˙t p˙t δx dt, p δx − p δx dt = − dt

(11.37)

t0

wobei die totale Ableitung verschwindet, weil wir annehmen, dass t0 und tf festgelegt sind. Schließlich können wir die gesamte Variation des Zielfunktionals δJ[x, u, p] als

δJ[x, u, p] =

ˆtf  t0

 ∂g t ∂a t ˙ +p + p δx ∂x ∂x    ∂g t t ∂a +p δu dt +δp [a − x˙ ] + ∂u ∂u

(11.38)

schreiben. Da die Variationen δx, δu, und δp unabhängig sind, müssen die Terme in den eckigen Klammern einzeln verschwinden. Sammeln wir diese Gleichungen,

11.5  Die Wiederkehr des Esels

201

finden wir das Äquivalent zu Hamiltons Gleichungen, die die „Bewegungsgleichungen“

∂a ∂g − pt ∂x ∂x x˙ = a(x, u) ∂a ∂g + pt 0= ∂u ∂u

p˙ t = −

(11.39)

sind für einen Hamiltonian H(x, u, p), gegeben durch H(x, u, p) = g(x, u) + pt a.

(11.40)

Mit dieser Definition der Hamilton Funktion, können wir endlich die Bewegungsgleichungen aus (11.39) als

p˙ = −

∂H ∂x

x˙ =

∂H ∂p

0=

∂H . ∂u

(11.41)

schreiben. Nun sehen wir, dass die costates p, ursprünglich eingeführt als Lagrange Multiplikatoren, die Rolle des Impulses übernehmen, der den Zuständen x entspricht. Der Hamiltonian H, definiert in (11.40), erinnert an eine LegendreTransformation von g. Darüber hinaus wird das Minimieren der Zielfunktion nun als Anforderung formuliert, dass die partiellen Ableitungen von H(x, u, p) in Bezug auf u (der Gradient) null sind. Was haben wir also durch die Umformulierung des Problems in einem Hamiltonschen Rahmen gewonnen? Zunächst haben wir eine konsistente Möglichkeit gefunden, die Optimierung handzuhaben, wenn der Zustandsvektor x sich bewegt, während wir den Controller u ändern. Zweitens sieht die Minimierung jetzt aus wie eine normale Minimierung; wir müssen nur den Gradienten der Hamilton-Funktion in Bezug auf den Controller u berechnen und das Ergebnis gleich null setzen. Um diesen neuen Formalismus zu veranschaulichen, werden wir einen zweiten Blick auf den Esel aus Abschn. 11.2 werfen.

11.5 Die Wiederkehr des Esels Um das Problem so einfach wie möglich (aber nicht einfacher als so) zu machen, verlangen wir, dass der Esel bei x = l zur Zeit t = tf ankommt und das Integral der aufgewendeten Leistung, das proportional zu g(x, u) = u2 /2 integriert von t = 0 bis t = tf ist, minimiert wird. Darüber hinaus nehmen wir an, dass die Variablen geeignet skaliert sind, so dass m = 1 und F = u. Die Bewegungsgleichungen aus (11.20) nehmen dann die folgende Form an

x˙ 1 = x2 x˙ 2 = −αx2 + u .

(11.42)

11  Optimale Steuerungstheorie

202

Nun können wir direkt (11.40) verwenden, um den Hamiltonian zu schreiben als

1 2 u + p1 x2 + p2 (−αx2 + u). (11.43) 2 Beachten Sie, dass dieser Hamiltonian von zwei Zustandsvariablen x1 und x2 , einem Controller u, und zwei Costate variablen p1 und p2 abhängt. Wenn wir Hamiltons Gleichungen (11.41) auf diesen Hamiltonian anwenden, erhalten wir den folgenden Satz von fünf Gleichungen H(x1 , x2 , u, p1 , p2 ) =

∂H =0 ∂x1 ∂H p˙ 2 = − = −p1 + αp2 ∂x2 ∂H = x2 x˙ 1 = ∂p1 ∂H x˙ 2 = = −αx2 + u ∂p2 ∂H 0= = u + p2 . ∂u p˙ 1 = −

(11.44)

Die ersten vier Gleichungen beziehen sich auf die Zustands- und Costate vektoren, aber die fünfte Gleichung, die die Minimierungsbeschränkung 0 = ∂ H/∂u enthält ermöglicht es uns, den Controller u durch den Costate p2 auszudrücken. Das Ersetzen von u = −p2 in den ersten vier Gleichungen führt zu

p˙ 1 p˙ 2 x˙ 1 x˙ 2

=0 = −p1 + αp2 = x2 = −αx2 − p2 ,

(11.45)

was ist ein gekoppeltes System von vier gewöhnlichen Differentialgleichungen für die vier Variablen x1 , x2 , p1 , und p2 darstellet. Es unterliegt den vier Randbedingungen. So sind x0 = 0 und x˙ 0 = 0 bei t = 0 und xf = L und x˙ f = 0 bei t = tf = T . Beachten Sie, dass es Randbedingungen für sowohl Anfangs- als auch Endwerte gibt, was es im Allgemeinen sehr schwierig macht, sie gleichzeitig zu erfüllen. Der Esel hat jedoch Glück, denn die ursprünglichen Bewegungsgleichungen für die beiden Zustandsvariablen x1 und x2 allein sind linear und g ist quadratisch. Dies macht die Gleichungen in (11.45) linear und einfach zu lösen, und dann die Integrationskonstanten zu bestimmen, indem die Randbedingungen erfüllt werden. Die erste Gleichung führt sofort zu p1 = c1 , wobei c1 eine Integrationskonstante ist. Nach dem Einsetzen in die zweite Gleichung und Trennen der Variablen ist das Integral elementar und führt zu p2 = c1 /α + (c2 − c1 /α)eαt mit einer zweiten Integrationskonstante c2 . Das Einsetzen dieser in die letzte Gleichung ergibt eine inhomogene lineare Differentialgleichung, die die homogene Lösung

11.6  Lineare Quadratische Regler

203

zh = c3 e−αt mit einer dritten Integrationskonstante c3 hat. Eine spezielle Lösung zp zur inhomogenen Gleichung kann durch den Ansatz zp (t) = g(t)e−αt gefunden werden, was zu g(t) = −(c1 /α 2 )eαt − (1/2α)(c2 − c1 /α)e2αt führt, so dass wir x2 (t) = zh (t) + zp (t) finden, oder c1  αt 1  c1 c2 − e . x2 (t) = c3 e−αt − 2 − (11.46) α 2α α Mit dieser Ausdrucksweise können wir die dritte Gleichung integrieren und x1 c1 c1  αt 1  c3 e x1 (t) = c4 − e−αt − 2 t − 2 c2 − (11.47) α α 2α α mit einer vierten Integrationskonstante c4 bestimmen. Die Randbedingungen für t = 0, eingefügt in die Gleichungen für x1 (t) und x2 (t), führt zu c1  c1 c1  1  1  c3 c2 − und 0 = c3 − 2 − c2 − − , (11.48) 0 = c4 − α 2α α α 2α α was uns erlaubt, nach c1 = 2α 2 c3 − α 3 c4 aufzulösen durch c3 und c4 und ebenso für c2 = α 2 c4 . Mit diesen Vereinfachungen können die Randbedingungen für t = T wie folgt geschrieben werden

 αT    e − e−αT − 2αT L = c4 1 + αT − eαT + c3 α    αT  αT −αT 0 = c4 α − αe + c3 e + e −2 .

(11.49)

Nachdem wir dieses lineare Gleichungssystem für c3 und c4 mit dem MATLABCode aus Anhang B.8 gelöst haben, sind wir bereit, die vier Integrationskonstanten in (11.46) und 11.47) und dann die Trajektorie x1 (t) und die Geschwindigkeit des Esels x2 (t) in Abb. 11.5 darzustellen. In der Simulation verlangen wir, dass der Esel eine Strecke von L = 100m in T = 20s zurücklegt und die Lösungen für schwache Reibung α = 0,1 ist als durchgezogene Linie und für zehnmal stärkere Reibung als gestrichelte Linie dargestellt. Wir sehen, dass es bei starker Reibung vorteilhaft ist, schnell eine niedrigere und konstante Geschwindigkeit zu erreichen, im Vergleich zur Situation mit schwacher Reibung, die durch eine fast konstante Beschleunigung bis zur Mitte und eine ebenso konstante Verzögerung bis zum Ziel gekennzeichnet ist. Mit dem Esel sicher zurück im Stall wenden wir uns nun allgemeinen linearen Systemen zu, die am Ende von Abschn. 11.1 erwähnt wurden. Zielfunktionale, die auf Integralen über quadratische Formen basieren, sind recht häufig und wir widmen daher den nächsten Abschnitt den linearen quadratischen Reglern.

11.6 Lineare Quadratische Regler Die Dynamik von Zustandsvektoren x für lineare Systeme wird bestimmt durch (11.27) und (11.28)

11  Optimale Steuerungstheorie

204

,

Abb. 11.5  Die obere Darstellung zeigt die Position der Masse während der Reisezeit für α = 0,1/s (durchgezogen) und α = 1/s (gestrichelt). Die untere Darstellung zeigt die Geschwindigkeit für die entsprechenden Fälle

1 J[x, u] = 2

x˙ = A(t)x + B(t)u und

ˆtf t0

 t  x Q(t)x + ut R(t)u dt

mit den Matrizen A(t) und B(t). Die Matrizen Q(t) und R(t) die im Zielfunktional J[x, u] auftauchen, sind positiv definit. Basierend auf diesen Definitionen verwenden wir (11.40) um den Hamiltonian zu konstruieren.

1 1 t x Qx + ut Ru + pt (Ax + Bu) 2 2 (11.50) 1 t 1 = x Qx + ut Ru + xt At p + ut Bt p. 2 2 Die Anwendung von (11.41) liefert uns die Bewegungsgleichungen für die Zustands- und Costate variablen sowie die Zwangsbedingung H(x, u, p) =

∂H = −Qx − At p ∂x ∂H = Ax + Bu x˙ = ∂p ∂H 0= = Ru + Bt p. ∂u

p˙ = −

(11.51)

Die letzte Gleichung wird für den Controller u aufgelöst und durch die Costates p ausgedrückt

u = −R−1 Bt p,

(11.52)

11.6  Lineare Quadratische Regler

205

vorausgesetzt, dass die Matrix R invertierbar ist, was Null-Eigenwerte von R ausschließt und die Matrix muss positiv definit sein. Ersetzen wir den Controller u in den Gleichungen für die Zustände und Costates, so kommen wir zu      A − BR−1 Bt x x˙ = . (11.53) p p˙ −Q − At

Beachten Sie, dass wenn alle Matrizen A, B, R, und Q konstant sind, es sich hierbei um lineare gewöhnliche Differentialgleichungen mit konstanten Koeffizienten handelt, welche einfach zu lösen sind. Anstatt einen direkten numerischen Lösungsansatz zu versuchen, werden wir versuchen, eine spezielle Lösung zu finden, in der die Zustands- und Costate vektoren durch eine Matrix K(t) mit p = K(t)x, verbunden sind, weil uns dies zusammen mit (11.52) erlaubt, ein Steuergesetz in der Form

u = −R−1 Bt Kx,

(11.54)

zu finden, was den erforderlichen Steuerwert u direkt aus dem aktuellen Zustand x ableitet. Dadurch werden sowohl x als auch u klein, wie es die Zielfunktion erfordert. Lassen Sie uns nun K finden. Aus der Definition

p = K(t)x

erhalten wir

˙ + K x˙ . p˙ = Kx

(11.55)

˙ aufzulösen und wiederholt (11.51) und (11.53) zu verwenden, Indem wir nach Kx, kommen wir zu ˙ = p˙ − K x˙ = p˙ − K(Ax + Bu) Kx = −Qx − At p − KAx + KBR−1 Bt p t

(11.56)

−1 t

= −Qx − A Kx − KAx + KBR B Kx. Da diese Gleichung für alle Zustände x erfüllt sein muss, können wir die Zustände x aus der Gleichung weglassen und erhalten die Riccati-Gleichung

K˙ = −Q − At K − KA + KBR−1 Bt K,

(11.57)

welche eine Bedingung für die Matrix K(t) ist, um (11.55) zu erfüllen. Die Lösung dieser nichtlinearen matrixwertigen Gleichung ist im Allgemeinen nicht trivial, aber wenn wir erfolgreich sind, bestimmt K das optimale Steuergesetz über (11.54). Dies ist der Regler, der kleine Werte von x mit dem geringsten Steueraufwand in dem Sinne erzeugt, dass die Controller u so klein wie möglich sind, wobei das relative Gewicht zwischen dem Zustand x und den Reglern u in den Matrizen R und Q kodiert ist. Für zeitinvariante Systeme, bei denen alle Matrizen konstant sind, ist kann die stationäre Lösung mit K˙ = 0 durch Lösen von

0 = −Q − At K − KA + KBR−1 Bt K

(11.58)

gefunden werden, was eine algebraische Gleichung ist. Dies erleichtert die Lösung für K im Vergleich zur Bestimmung von K aus der vollständigen RiccatiGleichung (11.57), die eine nichtlineare Differentialgleichung ist.

11  Optimale Steuerungstheorie

206

Im folgenden Abschnitt wenden wir diese Methoden an, um die RobinsonCrusoe-Wirtschaft nahe ihrem Gleichgewicht zu stabilisieren.

11.7 Steuerung der Robinson-Crusoe-Wirtschaft Lassen Sie uns nun den optimalen Feedback-Controller aus dem vorherigen Abschnitt verwenden, um die Gewinne der Robinson-Crusoe-Wirtschaft unter stationären Bedingungen zu stabilisieren, sollte das System gestört werden. Dies ist die Aufgabe des Geschäftsführers eines Unternehmens, um eine zuverlässige und konstante Dividende an die Aktionäre zu gewährleisten. Aber hier entwickeln wir eine Strategie, um dies automatisch zu tun. Denken Sie daran, dass die Gleichgewichtsbedingungen der Robinson-Crusoe-Wirtschaft in (11.11) gegeben sind. Darüber hinaus zeigt Abb. 11.2 ihre Abhängigkeit von der Abschreibung δ und vom technologischen Niveau . Um das Modell an den kontinuierlichen Zeitrahmen anzupassen, der im vorherigen Abschnitt verwendet wurde, verwenden wir die Dynamik, die durch (11.17) beschrieben wird, und hier wiedergegeben wird

k˙ = −δ ′ k + i′

und

p′ = ′ k � − i ′ ,

wobei das Apostroph die pro-Zeiteinheit Grössen bezeichnet, die kurz vor (11.17) eingeführt wurden. Die Eliminierung der Investition i′ aus den beiden Gleichungen führt zu

k˙ = −δ ′ k + ′ k � − p′ .

(11.59)

In dieser Gleichung erkennen wir das Kapital k als Zustandsvariable. Darüber hinaus können wir das Kapital steuern, indem wir die Gewinne p′ entsprechend anpassen. Leider ist dieses System nicht linear, aber wir versuchen dennoch, es zu stabilisieren, sobald es seinen stationären Zustand erreicht hat, der definiert ist durch k˙¯ = 0 und dies führt zu der Bedingung p¯ ′ = ′ k¯ � − δ ′ k¯ . Wir entwickeln nun sowohl k = k¯ + x als auch p′ = p¯ ′ + u um das Gleichgewicht und setzen in (11.59) ein womit wir erhalten   x˙ = �′ k¯ �−1 − δ ′ x − u. (11.60) ′ ′ ¯ �−1 − δ und b = −1 kann diese Gleichung in Mit den Definitionen a = � k die kanonische Form umgewandelt werden, die durch (11.27) eines Steuerungsproblems definiert ist x˙ = ax + bu. Eine geeignete Zielfunktion für dieses Problem wird durch die eindimensionale Version von (11.28)

1 J[x, u] = 2

ˆtf t0



 qx 2 + ru2 dt

(11.61)

mit den Gewichten q und r für die Zustandsvariable x und den Controller u gegeben. Wenn wir so schnell wie möglich zum stationären Zustand zurückkehren möchten, weisen wir dem ersten Term q ≫ r ein größeres Gewicht zu.

11.7  Steuerung der Robinson-Crusoe-Wirtschaft

207

Im Gegensatz dazu, wenn wir die Aktionäre zufriedenstellen und ein konstantes Gewinnniveau aufrechterhalten wollen, verwenden wir q ≪ r, was jedoch zu einer längeren Zeit führt, um den stationären Zustand zu erreichen. Unter Verwendung des Formalismus aus dem vorherigen Abschnitt lösen wir die stationäre Riccati-Gleichung, die durch (11.58) gegeben ist, und finden den Faktor K, was in Übung 2 gemacht wird. Das anschließende Einsetzen in (11.52) führt zum Steuerungsgesetz    a qb2 u = − 1 ± 1 + 2 x. (11.62) b ra Die Wahl des positiven Vorzeichens für die Wurzel und das Einsetzen in x˙ = ax + bu führt zu  1 qb2 (11.63) x˙ = −a 1 + 2 x = − x ra τ was zeigt, dass die Rückkopplung  Störungen mit einer exponentiellen Zeitskala τ dämpft, gegeben durch 1/τ = a 1 + qb2 /ra2 . Abb. 11.6 zeigt zwei Simulationen des gestörten stationären Zustands einer Robinson-Crusoe-Wirtschaft mit den Parametern  = 1,  = 0,7, und δ = 0,2. Das System beginnt von einem gestörten Zustand mit x = k − k¯ = −0,1 und entwickelt sich dann weiter, während der Controller u = p′ − p¯ ′, berechnet durch das in (11.62) spezifizierte Steuergesetz, angewendet wird. Die obere Dar-

, ,

Kapital x=∆k Gewinn u=∆p

, ,

Kapital x=∆k Gewinn u=∆p

Abb. 11.6  Verwendung eines linearen quadratischen Reglers in der Robinson-Crusoe-Wirtschaft mit  = 1,  = 0,7, und δ = 0,2. Im oberen Diagramm wird eine schnelle Rückkehr zum stetigen Zustand bevorzugt, indem q = 5 und r = 1 in (11.61) gewählt wird. Im unteren Diagramm wird eine geringe Abweichung der Gewinne bevorzugt, indem q = 1 und r = 5 gewählt wird, was dazu führt, dass die Erholungszeit τ viel länger ist

11  Optimale Steuerungstheorie

208

stellung zeigt die x und u als Funktion der Zeit t für q = 5 und r = 1 als Gewichte in der Zielfunktional aus (11.61). Hier versucht der Controller schnell zum stationären Zustand x = 0 und u = 0 zurückzukehren, bestraft aber große Werte des Controllers u fünfmal weniger. Tatsächlich sehen wir, dass die Abweichung vom stationären Gewinn u, dargestellt als gestrichelte rote Linie, große negative Werte annimmt, was darauf hindeutet, dass ein erheblicher Teil des Gewinns zur Auffüllung des Kapitals verwendet wird, dargestellt durch die durchgezogene schwarze Linie. Die untere Darstellung in Abb. 11.62 zeigt die Situation, wenn die Gewichte q = 1 und r = 5 gewählt werden. Hier versucht der Controller, kleine Anregungen u zu verwenden, oder anders ausgedrückt, er versucht, die Gewinne einigermaßen konstant zu halten. Wir beobachten, dass es nun viel länger dauert, zum stationären Zustand zurückzukehren – die Zeitkonstante τ ist viel größer - aber die Gewinne, dargestellt als gestrichelt-gepunktete rote Linie, sind viel weniger betroffen, verglichen mit der Situation in der oberen Darstellung. Wir stellen also fest, dass die Wahl geeigneter Gewichte q und r es uns ermöglicht, das Verhalten des Systems flexibel an unsere Vorlieben anzupassen. Nachdem wir ein Vermögen mit Aktien und Optionen gemacht und gelernt haben, wie wir all diesen Reichtum kontrollieren können, ist es an der Zeit, über Geld zu sprechen. Und da wir im einundzwanzigsten Jahrhundert leben, werden wir über Kryptowährungen sprechen. Übungen 1. Simulieren Sie die Robinson-Crusoe-Wirtschaft, die durch die Gleichungen definiert ist

kt+1 = (1 − δ)kt + it ,

yt = kt� ,

it = σ yt

und

pt = yt − it

mit δ = 0,1, � = 0,7, σ = 0,2. Hier nehmen wir eine Cobb-DouglasProduktionsfunktion an und dass ein Bruchteil σ der Ausgabe yt ist für Investitionen bestimmt it , den Rest nehmen wir als Gewinn zum Faulenzen. Heute leiten Sie eine bestimmte Menge an Freude V[p] von allen zukünftigen  j Gewinnen ab, die durch V [p] = ∞ β log(pj ) charakterisiert wird, wo wir j=0 zukünftige Freude mit einem „Diskontfaktor“ diskontieren β = 0,9. Schreiben Sie eine Simulation und variieren Sie den Investitionsanteil σ um V nach 100 Iterationen zu maximieren. 2. Simulieren Sie den stochastischen Prozess

t+1 = γ t + (2 − γ ) + aεt für 1 < t < 500 Generationen. Hier sind εt Zufallszahlen, die aus einer Gaußschen Verteilung mit null Mittelwert und einer rms von eins gezogen werden. Verwenden Sie die Parameter γ = 0,9 und a = 0,2. Zu welchem Wert tendiert  im Durchschnitt? Finden Sie einen analytischen Ausdruck für diesen asymptotischen Wert.

Literatur

209

3. Bestimmen Sie den Hamiltonian für H(x, θ, px , pθ ) ein mechanisches System mit der Lagrange-Funktion L(x, θ, x˙ , θ˙ ) = 3m˙x 2 /2 + mr x˙ θ˙ + mr 2 θ˙ 2 /2 − kx 2 − mgrθ 2 /2, wo x und θ die Koordinaten sind, x˙ , und θ˙ sind die entsprechenden Geschwindigkeiten, und px und pθ sind die entsprechenden Impulse. Darüber hinaus sind m, r, k, und g Konstanten. 4. Betrachten Sie den instabilen eindimensionalen Prozess, definiert durch x˙ = ax + bu, wo a und b positive Konstanten sind und das Leistungsmaß durch (11.61) gegeben ist. Zeigen Sie, dass der „Gain“ κ des Feedbacks, der den optimalen Controller durch u = κx definiert, durch (11.62) gegeben ist. 5. Betrachten Sie das dynamische System, definiert durch x˙ = αx β + u mit α, β > 0, und der Leistungsmaßstab gegeben durch (11.61). Leiten Sie den Hamiltonian aus (11.40) und die Bewegungsgleichungen, gegeben durch (11.41), für dieses System ab. Angenommen, die Randbedingungen x = x0 bei t = 0 und x = 0 bei t = tf gelten, untersuchen Sie, ob Sie Methoden, ähnlich denen aus Abschn. 11.5, zur Lösung dieses Problems verwenden können.

Literatur 1. G. McCandless, The ABCs of RBCs (Harvard University Press, Cambridge, Ma, 2008) 2. R. Dorfman, An economic interpretation of optimal control theory. Am. Econ. Rev. 59, 817 (1969) 3. D. Kirk, Optimal Control Theory (Dover Publications, New York, 2004) 4. L. Landau, E. Lifschitz, Lehrbuch der theoretischen Physik, Band I: Mechanik (Akademie Verlag, Berlin, 1979) 5. H. Goldstein, J. Safko, C. Poole, Classical Mechanics (Pearson, Harlow, 2014)

Kryptowährungen

12

Zusammenfassung

Basierend auf der Vorstellung, dass heutige Geldtransaktionen auf dem Transfer von Informationen beruhen, bietet dieses Kapitel eine grundlegende Einführung in die Informationstheorie von Shannon, mit ihrem zentralen Konzept – der Entropie. Nach der Darstellung verschiedener Wege zur Kodierung von Informationen wird das Verhältnis von Shannons Entropie zur Entropie, wie sie aus der Thermodynamik bekannt ist, anhand eines physikalischen Systems mit diskreten Energielevels veranschaulicht. Das Kapitel diskutiert dann die Übertragung von Informationen über binäre symmetrische Kanäle und entwickelt die notwendigen Konzepte, um das Maximum der gegenseitigen Information als Kanalkapazität festzulegen. Nach der Übertragung von Informationen durch kontinuierliche Kanäle, die durch das Signal-Rausch-Verhältnis begrenzt sind, führt ein Abschnitt in die Grundlagen der Kryptographie ein, die zur Sicherung der Übertragung sensibler Informationen notwendig ist. Öffentliche Schlüsselsysteme, Diffie-Helman und RSA, werden ausführlich diskutiert, bevor die Grundlagen der elliptischen Funktionenkryptographie behandelt werden, die sowohl für Bitcoin als auch für Ethereum-Blockchains die Grundlage bildet, dem Thema späterer Abschnitte in diesem Kapitel. Ein Ethereum-SmartContract wird als Beispiel für eine verteilte Anwendung – eine DApp – diskutiert. Der letzte Abschnitt berührt die Grundlagen des Quantencomputings und veranschaulicht die Schlüsselkonzepte von Shors Algorithmus, der eines Tages eine Bedrohung für kryptographische Systeme darstellen könnte. Nach anfänglichen Entwicklungen vom Tauschhandel von Gütern, wie Schweinen und Geflügel, zu Münzen und Papiergeld, über die wir kurz in Abschn. 2.4 gesprochen haben, werden Geldtransaktionen in der heutigen Welt hauptsächlich elektronisch abgewickelt. Studienkredite und Gehälter werden auf unsere Konten

© Der/die Autor(en), exklusiv lizenziert an Springer Nature Switzerland AG 2023 V. Ziemann, Physik und Finanzen, https://doi.org/10.1007/978-3-031-36964-3_12

211

212

12 Kryptowährungen

überwiesen. Ebenso bezahlen wir unsere Strom- oder Gasrechnungen elektronisch. Darüber hinaus bezahlen wir beim Essen gehen oder beim Einkaufen mit Kreditkarten oder mit unseren Smartphones über Google Pay, Apple Pay, Venmo oder Swish. Keine dieser Methoden zur Geldüberweisung beinhaltet den tatsächlichen Austausch von Münzen oder Papiergeld. Offensichtlich hat sich Geld von dem Austausch greifbarer Vermögenswerte – Schweine, Münzen oder Papiergeld – zu dem Austausch von Information darüber entwickelt, wer das Recht hat, Dinge bis zu einem bestimmten Wert zu kaufen. Im Folgenden werden wir Geld daher als Eintrag in einer dezentralisierten Datenbank behandeln, die angibt, wer welche Kaufkraft besitzt. Selbst der Besitz eines Schweins repräsentiert die Kaufkraft bis zum äquivalenten Wert anderer Mengen, und eine Münze in Ihrer Tasche verbindet Sie mit der Kaufkraft, die dem Nennwert der Münze entspricht. In diesen Beispielen sind sowohl Schwein als auch Münze Teil einer Datenbank von handelbaren Gütern. Offensichtlich sind Bankkonten Datenbanken, die von den Banken gepflegt und verifiziert werden und die Kaufkraft, die durch den Kontostand repräsentiert wird, mit dem Besitzer des Kontos verbinden. Darüber hinaus sind die Datenbanken verschiedener Banken über das international vereinbarte IBAN-System unter der Schirmherrschaft der Society for Worldwide Interbank Transactions (SWIFT) miteinander verknüpft. In allen Fällen werden die Transaktionen von Behörden überwacht, um zu überprüfen und zu garantieren, dass die Transaktionen korrekt abgeschlossen werden. Beim Handel mit einem Schwein stellen die beiden Partner der Transaktion sicher, dass das Schwein gesund ist und übergeben das Schwein nur, wenn beide Partner zufrieden sind. Die Echtheit von Goldmünzen wurde historisch (zumindest in Westernfilmen) durch Hineinbeißen in die Münze überprüft. Papiergeld wird auf speziellem Papier gedruckt, das die Noten schwer zu fälschen macht. Darüber hinaus trägt es das Siegel der ausstellenden Behörde, zum Beispiel eines Königs, und das Fälschen des Siegels zieht eine schwere Strafe nach sich. Heute überwachen die Banken die Transaktionen. Sie überprüfen, ob der Initiator einer Überweisung ausreichende Mittel zur Verfügung hat und ob das Konto, auf das die Mittel eingezahlt werden sollen, tatsächlich existiert. Hier sehen wir, dass eine Banktransaktion tatsächlich die Eigentümerschaft der Kaufkraft von einem Bankkonto auf ein anderes überträgt. Da die Konten Teil einer Datenbank sind, müssen wir Datenbankeinträge übertragen, die die Informationen über das Eigentum und den Wert der Transaktion darstellen. Und diese Informationen müssen von einer Datenbank in eine andere übertragen werden. Darüber hinaus wollen wir definitiv, dass diese Übertragung zuverlässig und fehlerfrei ist. In den folgenden Abschnitten müssen wir daher herausfinden, was Information im abstrakten Sinne tatsächlich ist und wie sie durch Störungen beeinflusst wird, wenn sie von einer Datenbank zur nächsten übertragen wird. Zunächst wollen wir kurz die Schlüsselfunktionen von Geld zusammenfassen. Basierend auf dem Konzept der verteilten Datenbank aus den vorherigen Absätzen verbinden wir einen Teil der Kaufkraft mit der Information H, die durch

12.1  Information, Wahrscheinlichkeiten und Codes

213

einen Eintrag in einer Datenbank dargestellt wird. Erstens repräsentiert H einen Wert, der ein Schwein, der Nennwert einer Münze oder der Betrag auf einem Bankkonto sein kann. Zweitens hat H einen Besitzer, zum Beispiel den Besitzer eines Schweins oder eines Bankkontos. Drittens müssen wir in der Lage sein, H zuverlässig von einer Datenbank in eine andere zu übertragen. Viertens müssen wir jederzeit das Eigentum an H überprüfen können. Fünftens müssen Transaktionen sicher und manipulationssicher sein; wir versuchen, unsere Münzen vor Taschendieben zu schützen und vertrauen den Banken, dass sie unsere Konten vor illegalen Manipulationen schützen, wie zum Beispiel der Änderung des Betrags einer Überweisung oder die Initiierung einer betrügerischen Überweisung. Die ersten drei Punkte, Wert, Eigentum und Übertragung, sind dem Geld inhärent, aber der vierte und fünfte Punkt beinhalten Aufsichtsfunktionen; wir verlangen, dass Eigentum und Transaktionen validiert werden können. Herkömmliches Geld, typisiert durch Münzen, Kreditkarten oder Bankkonten, hat garantierende Behörden, die jede Verletzung ihrer „Nutzungsbedingungen“ untersuchen und verfolgen. Wir werden in Abschn. 12.5 sehen, dass Kryptowährungen eingebaute Validierungsmechanismen haben, die externe Aufsichtssysteme überflüssig machen. Aus der Diskussion sollte klar hervorgehen, dass das zentrale Konzept, das der modernen Verwendung von Geld zugrunde liegt, „Information“ ist, die eng mit der thermodynamischen Entropie verbunden ist. Dies wird das Thema des nächsten Abschnitts sein.

12.1 Information, Wahrscheinlichkeiten und Codes Information wird üblicherweise als eine Sequenz von Ja-Nein-Entscheidungen quantifiziert. Dies führt zur bekannten binären Darstellung, bei der die Zahl „1“ „Ja“ und „0“ „Nein“ entspricht. Hier trägt jede Entscheidung die Information einer Binärziffer, oder Bit. Wir messen daher Informationen anhand der Anzahl der Bits, die benötigt werden, um eine bestimmte Konfiguration unter einer Anzahl von äquivalenten Konfigurationen eindeutig zu beschreiben. Wenn wir uns ein einzelnes Bit als elektrischen Schalter vorstellen, sehen wir, dass der Schalter einen von zwei möglichen Konfigurationen – oder Mikrozuständen – beschreibt. Entweder ist der Schalter an, oder er ist aus. Wenn beide Zustände mit der Wahrscheinlichkeit p = 1/2 gleich häufig auftreten, können wir annehmen, dass wir einfach den Mikrozustand des Schalters zu jeder Zeit erraten und etwa die Hälfte der Zeit richtig raten. Allgemeiner gesagt, beachten Sie, dass die Anzahl n der möglichen Konfigurationen, alle angenommen, dass sie die gleiche Wahrscheinlichkeit p haben n = 1/p ist. Dies gilt sogar, wenn n größer als zwei ist. Solange alle n Mikrozustände gleich wahrscheinlich sind, können wir uns fragen: Wie viele Schalter werden benötigt, um einen der n Zustände eindeutig zu beschreiben. Die Anzahl der Schalter beschreibt dann die Information Hˆ , die benötigt wird, um eine

12 Kryptowährungen

214

Konfiguration unter den n möglichen Mikrozuständen zu identifizieren, dies ist gegeben durch

Hˆ = log2 (n) = log2 (1/p).

(12.1) ˆ Beachten Sie, dass H die in Bits gemessene Information ist. Diese Maßeinheit für Information wurde ursprünglich 1928 von Hartley [1] eingeführt, wurde jedoch erst nach der Veröffentlichung von Shannons bahnbrechendem Bericht [2] im Jahr 1948 allgemein bekannt. In der Literatur wird die Größe H¯ oft als „Information“, „Unsicherheit“ oder „Entropie“ bezeichnet. Bevor eine bestimmte Auswahl unter den n möglichen ausgewählt wird, bezieht sich Hˆ auf die „Unsicherheit“ unseres Wissens. Es wird auch als „Entropie“ bezeichnet, in Anlehnung an die thermodynamische Entropie, welche ebenfalls unsere Unfähigkeit beschreibt, eine bestimmte Konfiguration eines physikalischen Systems zu identifizieren. Wir werden diese Analogie in Abschn. 12.2 weiter behandeln. Andererseits, sobald wir wissen, welche der n verschiedenen Auswahlmöglichkeiten ausgewählt wurde, können wir dieses Wissen als „Information“ bezeichnen. Normalerweise können wir aus dem Kontext ableiten, welche Interpretation beabsichtigt ist. Die Betonung von „gleich wahrscheinlich“ in den vorherigen Absätzen wird durch die Existenz von Systemen gerechtfertigt, in denen die Zustände nicht gleich wahrscheinlich sind. Betrachten Sie zum Beispiel den ASCII [3] Zeichencode, der auf den meisten Computersystemen verwendet wird. Er verwendet eine Gruppe von acht Bits, um die normalen Zeichen und Sonderzeichen, wie Komma, Punkt, aber auch Zeilenumbruch zu kodieren. Um die Inhaber von Bankkonten zu identifizieren, benötigen wir jedoch nur die 26 Großbuchstaben A bis Z plus ein Leerzeichen, um Vor- und Nachnamen zu trennen. Für diesen begrenzten Zeichensatz müssen wir nur 27 Symbole unterscheiden oder, unter Verwendung der nächsten größeren Zweierpotenz: fünf Bits, um 32 Symbole zu unterscheiden. Darüber hinaus treten die verschiedenen Symbole nicht mit der gleichen Wahrscheinlichkeit auf; der Buchstabe „E“ ist viel wahrscheinlicher als der Buchstabe „Q“. Konsistent mit der Beobachtung, unterstützt durch (12.1), dass Ereignisse mit einer geringen Wahrscheinlichkeit p mehr Information tragen, stellen wir fest, dass wir trotz des Weglassens der viel wahrscheinlicheren Vokale, den folgenden Satz verstehen können y cn stll ndrstnd ths sntnc.1 Daher müssen wir herausfinden, wie wir Information charakterisieren können, wenn die Symbole nicht gleich wahrscheinlich sind. Betrachten wir eine Quelle von Zeichen, die sequenziell pro Zeiteinheit ein Zeichen des geschriebenen Englischen ausstößt und finden heraus, wie viel Information wir erwarten können. Nach Shannon [2], gehen wir davon aus, dass die Wahrscheinlichkeiten pi, mit denen die Zeichen erscheinen, bekannt sind. Hier kennzeichnet i die Zeichen, so dass i = 1 „A“ entspricht und so weiter. Um die

1 You

can still understand this sentence. Deutsch: Sie können diesen Satz immer noch verstehen.

12.1  Information, Wahrscheinlichkeiten und Codes

215

durchschnittliche Entropie H pro ausgestoßenem Zeichen zu finden, berechnen wir den Erwartungswert der Entropie log2 (1/pi ), die von jedem Zeichen getragen wird, das mit Wahrscheinlichkeit pi auftritt   H= pi log2 (1/pi ) = − pi log2 (pi ), (12.2) i

i

wobei die Summe sich über alle möglichen Zeichen erstreckt, die von der Quelle ausgestoßen werden. Beachten Sie, dass im Spezialfall, in dem alle Wahrscheinlichkeiten pi sind gleich pi = 1/n für i = 1, . . . , n gilt, (12.2) kehrt zu (12.1) zurück. Bei der Berechnung von Ausdrücken wie T (x) = x log2 x, folgen wir der Konvention, dass T (0) = 0, was durch Kontinuität im Grenzwert x → 0 gerechtfertigt ist. Darüber hinaus garantiert diese Annahme, dass Konfigurationen die mit Wahrscheinlichkeit p = 0 auftreten, nicht zur Entropie H beitragen. Um ein besseres Verständnis von (12.2) und seinen Implikationen zu erlangen, laden wir die Datei pg10.txt mit dem ASCII-Text der King James Bibel [4] von Project Gutenberg [5] herunter. Mit dem einfachen Skript aus Anhang B.9 bereiten wir die folgende Datei vor, die die Anzahl der Vorkommen jedes Zeichens enthält 751152 275735 A 48880 B :

Das Leerzeichen tritt 751152 Mal und der Buchstabe „A“ tritt 272735 Mal in der bereinigten Datei auf, die den Text der King James Bibel enthält. Aus den Zeichenfrequenzen ni, die in der ersten  Spalte angezeigt werden, ist es einfach, die Wahrscheinlichkeiten pi = ni / i ni und die durchschnittliche Information pro Zeichen H aus (12.2) zu berechnen. Für die King James Bibel finden wir HKJB ≈ 4,04. Wiederholen wir die gleiche Übung für Shakespeares Hamlet [6], finden wir einen ähnlichen Wert von HHamlet ≈ 3,94. Wir schließen daraus, dass wir anstelle von einem Byte mit acht Bits nur vier Bits pro Zeichen, oder die Hälfte eines Bytes, auch Nibble genannt, zur Kodierung von englischen Texten verwenden könnten. Aber wie sendet man Hamlet mit nur vier Bits pro Zeichen, wenn mehr als 16 verschiedene Zeichen verwendet werden? Dies wird tatsächlich erreicht, indem weniger Bits verwendet werden, um die häufiger auftretenden Zeichen zu kodieren und längere „Codes“ für die selteneren Zeichen zu verwenden. Diese Aufgabe, die als Quellen codierung bezeichnet wird, lässt sich leicht anhand eines einfachen Beispiels veranschaulichen, bei dem nur vier Zeichen, sagen wir A, B, C und D, oder allgemeiner gesagt, vier Symbole, übertragen werden. Nehmen wir an, dass diese Symbole mit den Wahrscheinlichkeiten 1/2, 1/4, 1/8 und 1/8 auftreten. In Tab. 12.1 zeigen wir die Symbole zusammen mit ihren zugehörigen Wahrscheinlichkeiten und zwei Möglichkeiten, sie zu kodieren. Die erste Kodierung verwendet binäre Codes und die zweite verwendet eine Null, um den Code zu

12 Kryptowährungen

216

Tab. 12.1  Zwei verschiedene Kodierungen für vier Symbole, die in der ersten Spalte gezeigt werden, die jeweils mit den in der zweiten Spalte gezeigten Wahrscheinlichkeiten auftreten

Symbol

Wahrscheinlichkeit

Kodierung 1

Kodierung 2

A

1/2

00

0

B

1/4

01

10

C

1/8

10

110

D

1/8

11

111

beenden und eine zunehmende Anzahl von Einsen, um die Symbole zu unterscheiden. Beachten Sie, dass wir dem häufigsten Symbol „A“, das die höchste Wahrscheinlichkeit hat, in einer Nachricht zu erscheinen, den kürzesten Code, eine einzelne „0“, zuweisen. Es ist leicht sich zu überzeugen, dass jede Sequenz von Nullen und Einsen eindeutig in die ursprüngliche Sequenz von Symbolen zurückverwandelt werden kann: Zählen Sie die Einsen bis zu einem Maximum von drei aufeinanderfolgenden oder bis eine Null gefunden wird. Zum Beispiel zeigt „0“ ohne vorhergehende „1“ das Symbol „A“ an.  Lassen Sie uns nun die durchschnittliche Anzahl der Bits �l� = i p i li berechnen, wo li die Anzahl der Bits – die Länge – des entsprechenden Codes ist und i die vier Symbole identifiziert. Für die erste, binäre, Codierung wird jedes Symbol durch zwei Bits repräsentiert, so dass die durchschnittliche Länge �l�1 = 2 beträgt. In der zweiten Codierung beträgt die durchschnittliche Länge für die Symbole �l�2 = 7/4, was kleiner ist als l1. Der Gewinn ist in diesem einfachen Beispiel nicht sehr groß, veranschaulicht aber die Idee, nämlich kürzere Codes für die häufiger auftretenden Symbole zu verwenden. Tatsächlich hat Shannon in seinem Quellen codierungs theorem bewiesen [2], dass lange Nachrichten mit sehr vielen, sagen wir n, Symbolen, in einer Sequenz der Länge Ln kodiert werden können, gegeben ist durch nH < Ln < nH + 1, wobei die verschiedenen Symbole aus einem Satz von Symbolenmit Wahrscheinlichkeiten pi stammen und daher durch die Entropie H = − i pi log2 pi charakterisiert sind. Hier muss n ausreichend groß sein, um die verschiedenen Wahrscheinlichkeiten der Symbole auszunutzen. Shannons Beweis, der außerhalb unseres Bereichs liegt, beweist nur die Existenz eines solchen optimalen Codes, beschreibt aber nicht, wie man ihn konstruiert. Natürlich ist es von erheblichem Interesse, effiziente Codes für einen Satz von Symbolen mit zugeordneten Wahrscheinlichkeiten zu finden, die die Länge der übertragenen Nachrichten minimieren. Das Problem wurde 1952 umfassend gelöst und führte zur Konstruktion von Huffman-Codes [7]. In seinem bahnbrechenden Bericht [2] zentrierte Shannon seine Analyse um die „Entropie“, wie sie in (12.2) definiert ist. Im folgenden Abschnitt werden wir ihre Beziehung zum Konzept der Entropie untersuchen, das in der Thermodynamik und statistischen Mechanik gut bekannt ist.

12.2  Beziehung zur thermodynamischen Entropie

217

12.2 Beziehung zur thermodynamischen Entropie Es ist aufschlussreich die Beziehung der Definition der Entropie H aus Abschn. 12.1 zur Entropie S = kb σ , bekannt aus der Thermodynamik und statistischen Mechanik [8] zu diskutieren. Betrachten wir daher ein System mit diskreten Energielevels Ei. Wir erinnern uns, dass die Besetzung ni eines Levels i in einem solchen System durch die Suche nach den wahrscheinlichsten Besetzungen ni ermittelt werden kann.  Diese unterliegt zwei Einschränkungen;  sowohl die Summe der Partikel n = i ni als auch die Gesamtenergie U = i ni Ei müssen konstant sein. Wir stellen fest, dass die Gesamtzahl der Kombinationen C zur Verteilung der n Partikel über die Energielevels gegeben ist durch    n! n n − n1 . C= ··· = (12.3) n2 n1 n1 !n2 ! · · ·

Im thermodynamischen Gleichgewicht ordnet sich das System in eine Konfiguration mit der größten Anzahl von Kombinationen C, die wir finden können, indem wir C maximieren, oder, bequemer, indem wir log C in Bezug auf die Besetzungszahl ni maximieren. Unter Verwendung der Stirling’schen Näherung für die Fakultät log m! ≈ m log m −m für große m, schreiben wir die vorherige Gleichung um als log C = n log n − i ni log ni. Unter Einbeziehung der beiden Beschränkungen mit Lagrange-Multiplikatoren α und β, stellen wir fest, dass die ni      � � ∂  nj  + β U − nj Ej  0= log C + α n − ∂ni (12.4) j j

= − log ni − 1 − α − βEi .

erfüllen müssen. Wenn wir nach ni auflösen, finden wir die Boltzmann-Verteilung ni = Ae−βEi, wobei A = e−1−α eine Normalisierungskonstante ist. Wir identifizieren auch β = 1/kB T als die inverse absolute Temperatur auf der Kelvin-Skala und kB ist die Boltzmann-Konstante. Fortan verwenden wir τ = kB T = 1/β um die Notation zu vereinfachen. Wissend, dass die Besetzungen ni dem Boltzmann-Gesetz folgen, ermöglicht es  −E i /τ uns, die Zustandssumme Z = und die Wahrscheinlichkeit, dass ein Zustand ie i ist besetzt ist, gegeben wird durch  pi = e−Ei /τ /Z, wobei wir Z verwenden, um die Summe aller Wahrscheinlichkeiten i pi = 1 auf Eins  zu normalisieren. Darüber hinaus wird die Gesamtenergie U gegeben durch U = i pi Ei = τ 2 (∂ log Z/∂τ ). Um die Entropie in diesem Rahmen auszudrücken, müssen wir zuerst die Helmholtz-Freie Energie F(τ , V ) als Legendre-Transformation der Energie U(σ , V ) einführen. Aus dU = τ dσ − pdV = d(τ σ ) − σ dτ − pdV finden wir, dass dF = d(U − τ σ ) = −σ dτ − pdV , was F = U − τ σ und σ = −(∂F/dτ )V impliziert. Wenn wir das Letztere in F = U − τ σ = U + τ (∂F/dτ )V einfügen, führt dies zu U = F − τ (∂F/dτ )V = −τ 2 ∂(F/τ )/∂τ . Das Ausdrücken von U in Bezug auf Z führt zu

12 Kryptowährungen

218

∂ log Z ∂(F/τ ) =− oder F = −τ log Z (12.5) ∂τ ∂τ abgesehen von einem linearen Term in τ , von dem man zeigen kann dass er null ist [8]. Für die Entropie σ erhalten wir dann 1 F U ∂F = log Z + pi Ei = − + . σ =− (12.6) ∂τ τ τ τ i

Beachten Sie, dass diese Gleichung der Definition der Helmholtz-Freien Energie F = U − τ σ entspricht. Anstatt die Entropie durch Differenzierung der freien Energie in Bezug auf die Temperatur τ zu berechnen, können wir auch die Wahrscheinlichkeiten pi = e−Ei /τ /Z verwenden um H direkt aus (12.2)

  e−Ei /τ  Ei F U H=− pi log pi = − − − − log Z = (12.7) Z τ τ τ i i  zu berechnen, wobei wir U = i pi Ei und F = −τ log Z verwendet haben. Beachten Sie, dass wir den natürlichen Logarithmus in (12.7) anstelle des Logarithmus zur Basis 2, was einfach bedeutet, dass wir eine andere Einheit zur Messung der Information verwenden; hier messen wir die Information in Nats anstatt in Bits. Wir stellen jedoch fest, dass die thermodynamische Entropie, wie durch S = kB σ übereinstimmt mit dem Konzept der Information H, wie es aus den Wahrscheinlichkeiten pi in (12.2) oder (12.7) abgeleitet wird. Mit diesem Verständnis des Konzepts „Entropie“ sind wir bereit, es von einem Ort zum nächsten zu bewegen, was Banken ermöglicht, Gehälter von ihren digitalen Tresoren an die Empfänger zu übertragen. 

12.3 Informationen Durch Diskrete Kanäle Bewegen Der Prozess des Bewegens von Informationen von einer Quelle zu einem Empfänger wird schematisch in Abb. 12.1 dargestellt. Die Information, eine Nachricht, fließt von der Quelle zu einem Encoder, der in Rot dargestellt ist.

Quelle

Encoder

Kanal

Decoder

Empfänger

Rauschen

Abb. 12.1  Ein generisches Kommunikationssystem mit Nachrichtenquelle, Encoder, Übertragungskanal, Decoder und Empfänger. Der Encoder erzeugt einen Datenstrom von Symbolen xi mit Wahrscheinlichkeiten pi. Dieser Strom wird dann durch Rauschen, parametrisiert durch ε, auf dem Weg zum Decoder gestört

12.3  Informationen Durch Diskrete Kanäle Bewegen

219

Dies könnte ein Huffman-Encoder sein, der in Abschn. 12.1 erwähnt wird, wo die Nachricht in eine Sequenz von Symbolen xi umgewandelt wird. Zur Vereinfachung gehen wir davon aus, dass die Daten als Binärdaten mit zwei Symbolen „1“ und „0“ dargestellt werden. Die Wahrscheinlichkeiten der beiden Symbole müssen nicht gleich sein; Encoding 2, das in Abschn. 12.1 diskutiert wird, verwendet zum Beispiel sechs „1“ und nur drei „0“. Nach dem Encoder werden die Daten durch einen Übertragungskanal geleitet, der in Abb. 12.1 in Blau dargestellt ist. Dort können die Daten durch Rauschen beeinträchtigt werden, das den Datenstrom verfälscht, zum Beispiel durch zufälliges Umschalten eines Bits von „0“ auf „1“ oder umgekehrt. Abbildung 12.2 veranschaulicht einen solchen binären symmetrischen Kanal in dem ε die Wahrscheinlichkeit ist, dass ein Bit umgeschaltet wird und α die Wahrscheinlichkeiten parametrisiert, dass „0“ oder „1“ erscheinen, wobei α = 1/2 gleichwahrscheinliche Ereignisse für „0“ und „1“ beschreibt. Am Empfangsende macht ein Decoder, dargestellt in Magenta, die Codierung rückgängig, stellt die Nachricht mit den vom Sender verwendeten Symbolen wieder her und leitet sie schließlich an den Empfänger weiter. Die Schlüsselfrage, die wir beantworten müssen, ist, wie viel wir über die übertragenen Symbole xi erfahren können, indem wir ein empfangenes Symbol yj beobachten. Oder, da wir a priori bereits wissen, dass der übertragene Stream von einem Encoder mit Unsicherheit H[x] stammt, um wie viel die Unsicherheit über xi durch Beobachtung von yj reduziert wird? Und unter welchen Umständen können wir es sogar auf eine einzige Wahl beschränken – den „echten“ Wert, der übertragen wurde. Es sollte offensichtlich sein, dass die Antwort in den Wahrscheinlichkeiten begraben liegt, dass die eine oder die andere Alternative im Decoder auftaucht. Historisch gesehen wurden alle Konzepte in [2] entwickelt, aber wir folgen lose der modernen Diskussion in [9]. Daher lassen Sie uns den in Abb. 12.2 beschriebenen Kanal parallel zu den theoretischen Überlegungen analysieren. Der Encoder ist durch die Wahrscheinlichkeiten der Symbole „1“ und „0“ gekennzeichnet, die aus der Abbildung als px (1) = 1 − α und px (0) = α abgelesen werden können. Darüber hinaus wird der Kanal durch die bedingten Wahrscheinlichkeiten pyx (yj |xi ) beschrieben, welche die Wahrscheinlichkeiten beschreiben, dass ein Symbol yj empfangen wird, vorausgesetzt, dass xi übertragen wurde. Von Abb. 12.2 lesen wir ab und finden

Abb. 12.2  Binärer symmetrischer Kanal (Bitflip-Kanal), bei dem die Eingangssymbole „1“ und „0“ (rot) durch Umschalten der Bits mit Wahrscheinlichkeit ε gestört werden, bevor sie vom Decoder unter Verwendung der gleichen Symbole (magenta oder fast rot) empfangen werden

12 Kryptowährungen

220



pyx (1|1) pyx (1|0) pyx (0|1) pyx (0|0)



=



1−ε ε ε 1−ε



.

(12.8)

Beachten Sie, dass wir das Subskript an p als Marker benötigen, um die Wahrscheinlichkeit pyx (yj |xi ) von yj bedingt durch xi, zu unterscheiden von der Wahrscheinlichkeit pxy (xi |yj ) um xi zu finden, bedingt durch yj. Als weitere Verfeinerung verknüpfen wir den Encoder, gekennzeichnet durch α, mit dem Kanal, indem wir die Verbundwahrscheinlichkeit pxy (xi , yj ) eines Ereignisses einführen, dass xi und yj gleichzeitig auftreten. Es kann ausgedrückt werden durch

pxy (xi , yj ) = pyx (yj |xi )px (xi ).

(12.9)

Für den binären Kanal finden wir zum Beispiel pxy (1, 1) = (1 − ε)(1 − α). Summieren von (12.9) über alle möglichen Eingabesymbole xi gibt uns zwei Möglichkeiten, die Wahrscheinlichkeit py (yj ) zu bestimmen, dass der Decoder ein Symbol yj findet   py (yj ) = pxy (xi , yj ) = pyx (yj |xi )px (xi ). (12.10) i

i

Im binären Kanal haben wir py (1) = 1 − γ und py (0) = γ mit γ = ε + α − 2εα. Wir beobachten, dass wir in (12.9) die linke Seite pxy (xi , yj ) auf eine zweite Weise berechnen können, indem wir die rückwärts bedingte Wahrscheinlichkeit pxy (xi |yj ) (der Encoder hat xi gesendet und der Decoder hat yj  empfangen) mit der Wahrscheinlichkeit py (yj ) ( das Symbol yj ist angekommen) multipliziert. Wir erhalten

pxy (xi , yj ) = pxy (xi |yj )py (yj ) .

(12.11)

Beachten Sie, dass die linken Seiten von (12.9) und (12.11) gleich sind und das Gleichsetzen der rechten Seiten führt zu Bayes’ Theorem

pxy (xi |yj ) =

pyx (yj |xi )px (xi ) . py (yj )

(12.12)

dies ermöglicht es uns, die Wahrscheinlichkeit abzuleiten, dass xi gesendet wurde, vorausgesetzt wir haben yj empfangen. Beachten Sie, wie die Berechnung die Wahrscheinlichkeiten, mit denen xi und yj auftreten – die vorherige Information – berücksichtigt. Für den binären Kanal finden wir pxy (1|1) = (1 − ε)(1 − α)/(1 − ε − α + 2εα) und die Berechnung der anderen Wahrscheinlichkeiten bleibt als Übung überlassen. Aber wir wollen eigentlich keine Vorhersagen darüber treffen, welche Symbole gesendet wurden. Stattdessen wollen wir die Leistung des Kommunikationskanals zur Informationsübertragung bewerten und daher die Entropie der beteiligten Verteilungen berücksichtigen. Die Entropie der Eingabe H[x] und Ausgabe H[y] werden durch ihre jeweiligen Wahrscheinlichkeiten definiert und sind gegeben durch   H[x] = − px (xi ) log2 px (xi ) und H[y] = − py (yj ) log2 py (yj ) (12.13) i

j

12.3  Informationen Durch Diskrete Kanäle Bewegen

221

wobei wir eckige Klammern verwenden, um zu kennzeichnen, dass die Entropie von der Gesamtheit aller x oder y abhängt. Im binären Kanal haben wir H[x] = Hb (α). Hier ist Hb (p) = −p log2 p − (1 − p) log2 (1 − p) die Entropie eines binären Systems mit den Wahrscheinlichkeiten p und 1 − p. Unter Verwendung der Wahrscheinlichkeiten py (yj ) von oben, finden wir H[y] = Hb (γ ) mit γ = ε + α − 2εα. Analog dazu ist die gemeinsame Entropie H[x, y] durch die Verbundwahrscheinlichkeiten pxy (xi , yj ) definiert als  H[x, y] = − pxy (xi , yj ) log2 pxy (xi , yj ). (12.14) i

j

Der Wert von H[x, y] für unseren binären Kanal ergibt sich durch explizite Berechnung der Summe H[x, y] = Hb (α) + Hb (ε). Beachten Sie, dass H[x, y] durch die Summe der Entropie des Eingangssignals H[x] = Hb (α) gegeben ist und der Entropie, die durch die zufälligen Bitänderungen im Übertragungskanal hinzugefügt wird Hb (ε). Wir können jetzt pxy (xi , yj ) = pyx (yj |xi )px (xi ), bekannt aus (12.9), im Logarithmus ersetzen und das Produkt im Logarithmus als Summe von zwei Termen schreiben. Wir finden die sogenannte Kettenregel  H[x, y] = H[x] + H[y|x] mit H[y|x] = − pxy (xi , yj ) log2 pyx (yj |xi ) i

j

(12.15)

wobei H[y|x] die bedingte Entropie der Menge von y ist, vorausgesetzt, dass die Menge von x bereits bekannt ist. Äquivalent können wir die rückwärtigen bedingten Wahrscheinlichkeiten aus (12.11) im Logarithmus verwenden und finden  H[x, y] = H[y] + H[x|y] mit H[x|y] = − pxy (xi , yj ) log2 pxy (xi |yj ). i

j

(12.16)

Für unseren binären Kanal finden wir H[x|y] durch Berechnung von H[y|x] = H[x, y] − H[x] = Hb (ε) oder durch direkte Auswertung der Summe in (12.15). Beachten Sie, dass die zusätzliche Entropie H[y|x], benötigt wird, um den Unterschied zwischen der gemeinsamen Entropie und der Eingabeentropie H[x] zu erklären. Es ist die Entropie, die aufgrund des Rauschens des Kanals hinzugefügt wird. Und dieses Rauschen wird durch die Entropie H[y|x] charakterisiert, die gleich Hb (ε) für den binären Kanal ist. Ebenso ist H[x|y] = H[x, y] − H[y] = Hb (α) + Hb (ε) − Hb (γ ). Um die Menge an Informationen zu finden, die wir über einen verrauschten Kommunikationskanal übertragen können, formulieren wir das Problem neu, indem wir die Frage stellen, wie viel wir tatsächlich über die Quelle lernen können, indem wir die Ausgabe des Decoders beobachten. Dazu führen wir die gegenseitige Information I[x;y]

12 Kryptowährungen

222

I[x; y] =



     pxy (xi , yj ) log2 pxy (xi , yj ) − log2 px (xi )py (yj )

=



pxy (xi , yj ) log2

i

i

j

j



pxy (xi , yj ) px (xi )py (yj )



(12.17)

ein. Als Motivation für diese Definition betrachten Sie die Situation, in der die Eingaben x und die Ausgaben y unkorreliert sind, was bedeutet, dass wir nichts über die Eingabe lernen können, indem wir die Ausgabe beobachten. Aber für unkorrelierte Variablen faktorisiert die Verteilungsfunktion und wir hätten pxy (xi , yj ) = px (xi )py (yj ), was zu I[x; y] = 0 führen würde. Wenn andererseits die Variablen von Eingabe und Ausgabe korreliert sind, sagt uns I[x;y] wie viel Information übertragen werden kann. Es ist einfach zu zeigen, dass I[x; y] = H[x] + H[y] − H[x, y] gilt. Darüber hinaus, indem entweder H[x, y] = H[x] + H[y|x] aus (12.15) oder H[x, y] = H[y] + H[x|y] aus (12.16) eingefügt wird, folgern wir

I[x; y] = H[y] − H[y|x]

oder

I[x; y] = H[x] − H[x|y]

(12.18)

was Shannon in [2] verwendete, um den Kommunikationskanal zu charakterisieren. Aus unserer früheren Diskussion über die Identifizierung von H[y|x] mit der Menge an Rauschen, die im Kanal erzeugt wird, interpretieren wir (12.18) als die Menge an Information I[x;y], die wir über die Eingabe x lernen können. Sie wird durch die gesendete Information H[x] gegeben, minus die Informationen H[x|y], die im Kanal zerstört wurden. Für den binären Kanal finden wir I[x; y] = Hb (γ ) − Hb (ε) mit γ = ε + α − 2εα. Unter Verwendung der gegenseitigen Information I[x;y] können wir nun die Kanal-Kapazität C als das maximal erreichbare I[x;y] definieren, wobei wir hinsichtlich aller möglichen Eingabewahrscheinlichkeitsverteilungen px (xi ) maximieren

C = max I[x; y].

(12.19)

Im Allgemeinen ist es nicht möglich, dieses Maximum explizit zu finden, aber für unseren binären Kanal sind alle möglichen Eingabeverteilungen durch α parametrisiert. Daher können wir entweder analytisch oder numerisch das Maximum von I[x; y] = Hb (α + ε − 2εα) − Hb (ε) als Funktion von α bestimmen; oder einfach die Darstellung auf der linken Seite in Abb. 12.3 betrachten, wo wir I[x;y] als Funktion von α für zwei Werte von ε darstellen. Beide Kurven erreichen ihr Maximum bei α = 1/2. Mit α = 1/2 zeigen wir dann die Kanalkapazität C als Funktion der Bit-Flip-Wahrscheinlichkeit ε auf der rechten Seite in Abb. 12.3. Wir beobachten, dass die Kapazität für sehr kleine Fehlerquoten gegen C = 1 strebt, was bedeutet, dass jedes gesendete Bit auch empfangen wird. Wenn die Bit-FlipRate ε sich der 1/2 nähert, nähert sich die Kapazität null; wenn die Bits die Hälfte der Zeit zufällig umgedreht werden, ist es unmöglich, das Eingangssignal wiederherzustellen. Wenn die Bit-Flip-Rate ε weiter ansteigt und sich der Eins nähert,

12.4  Kontinuierliche Informationskanäle ,

, ,

,

223

,

, ,

,

, ,

, ,

,

,

,

,

,

,

,

Abb. 12.3  Die gegenseitige Information I[x;y] für den binären symmetrischen Kanal als Funktion von α für ε = 0,05 und 0,2 (links) und die Kanalkapazität C als Funktion der Fehlerquote ε (rechts).

nähert sich die Kapazität C wieder C = 1 Bit/Bit; auch wenn jedes Bit mit Sicherheit umgeklappt wird ε = 1, können wir die vollständige Information, die durch den Kanal gesendet wurde, wiederherstellen. Aber was bedeutet eine Kapazität C = 0,5? Es ist lehrreich, dies als C = 1Bit /2 Bits zu schreiben. Mit anderen Worten, wir müssen zwei Bits übertragen, um effektiv ein Bit zuverlässig zu übertragen. Dass solche fehlerkorrigierenden Codes, im Grenzfall von langen Nachrichten, immer für jede nicht-null Kapazität C existieren, ist das Wesen von Shannons Kanalkodierung Theorem [2, 10]. Er zeigte auch, dass es nicht möglich ist, mehr Informationen als die Kanalkapazität C über einen Kommunikationskanal zu übertragen. Das Rauschen im Kanal zerstört übertragene Informationen und wir müssen erkennen, welche Bits umgeklappt wurden und sie dann zurückklappen. Dies erfordert zusätzliche, redundante, Informationen, die wir zusammen mit der eigentlichen Information, der Nutzlast, senden müssen. Wir nennen nur Hamming-Codes als ein Beispiel für eine Klasse von fehlerkorrigierenden Codes, die die Nutzlast in größere Datenrahmen packen. Dies ermöglicht dem Empfänger, umgeklappte Bits zu erkennen und zu korrigieren. In den vorhergehenden Abschnitten wurden die übertragenen Symbole aus einem diskreten Satz ausgewählt. Als nächstes diskutieren wir kurz die Erweiterung der Theorie auf kontinuierliche Mengen im folgenden Abschnitt.

12.4 Kontinuierliche Informationskanäle Ein Beispiel, bei dem kontinuierliche Signale auftreten, ist die Übertragung der Information – die Musik – als kontinuierlicher Strom von Spannungen u, von einem altmodischen Plattenspieler zum Audioverstärker und weiter zu den Lautsprechern. Die Spannungen x = u/u0, normalisiert auf eine Referenzspannung u0 , haben eine kontinuierliche Wahrscheinlichkeitsverteilung p(x), die durch ein Histogramm der in kleinen Zeitintervallen gemessenen Spannungen approximiert

12 Kryptowährungen

224 Beethoven Gauß

,

,

Sinus Gauß

,

,

,

,

Abb. 12.4  Die durchgehenden schwarzen Linien zeigen die Amplituden-Wahrscheinlichkeitsverteilung des ersten Satzes von Beethovens fünfter Symphonie (links) und die einer Sinuswelle (rechts). Die rms der beiden Gaußkurven, dargestellt als gestrichelte rote Kurven, sind gleich und auch gleich den entsprechenden schwarzen Kurven

werden kann, normalisiert durch die Gesamtzahl der Messungen. In Abb. 12.4 zeigen wir die Amplituden-Wahrscheinlichkeitsverteilungen für den ersten Satz von Beethovens fünfter Symphonie auf der linken und für eine Sinuswelle auf der rechten Seite. Die Amplitude der Sinuswelle wurde so gewählt, dass sie das gleiche rms wie die Verteilung auf der linken Seite hat. Die gestrichelten roten Kurven zeigen Gaußkurven mit der rms der Verteilungen und sind auf beiden Plots gleich. Mit solchen Wahrscheinlichkeitsverteilungen zur Verfügung, können wir nun das Konzept der Entropie, eingeführt in (12.2), auf kontinuierliche Variablen x erweitern ˆ H[x] = − p(x) log (p(x))dx (12.20) wobei das Integral sich über den Bereich erstreckt, in dem x ist definiert. Beachten Sie, dass wir den natürlichen Logarithmus mit der Basis e verwenden, wie wir es in Abschn. 12.2 getan haben, so dass die Entropie Einheiten von nats hat. Die anderen Konzepte, die in Abschn. 12.3 eingeführt wurden, wie gemeinsame und bedingte Wahrscheinlichkeiten, gemeinsame und bedingte Entropien sowie gegenseitige Informationen können ebenso verallgemeinert werden; wir müssen nur die Summen durch Integrale ersetzen. Im Folgenden werden wir diese Analogie großzügig nutzen und auf die Gleichungen im vorherigen Abschnitt verweisen, die für diskrete Variablen bewiesen wurden. Die Entropien der Verteilungen, die in Abb. 12.4 gezeigt sind, sind H = −0,460 für die Beethoven-Symphonie und ein deutlich kleinerer Wert von H = −0,868 für die Sinus. Die Gauß Funktion, die als rote gestrichelte Kurven dargestellt ist, hat die größte Entropie H = −0,259. Da wir die maximale Information über einen Kanal übertragen wollen, könnten wir uns fragen: Welche Wahrscheinlichkeitsverteilungsfunktion g(x) die größte Entropie hat? Aus physikalischen Gründen betrachten wir nur Spannungen, die eine endliche durchschnittliche Leistung u2 /R in einem Widerstand R abgeben.

12.4  Kontinuierliche Informationskanäle

225

Dies impliziert, dass die Verteilung g(x) ein endliches zweites Moment haben ´ muss, definiert durch σ 2 = x 2 g(x)dx. Darüber hinaus muss, da es sich um eine Wahrscheinlichkeitsverteilungsfunktion handelt, g(x) nicht-negativ sein und es ´ muss normalisiert sein mit g(x)dx = 1. Daher kann g(x) durch Minimierung der Funktion J[g] in Bezug auf g(x) ˆ   2 J[g] = 1 + 2 σ + −g(x) log(g(x)) − 1 g(x) − 2 x 2 g(x) dx (12.21)

mit zwei Lagrange-Multiplikatoren 1 und 2 gefunden werden. Die Variation in Bezug auf δg(x) ergibt

0 = − log(g(x)) − 1 − 1 − 2 x 2

oder

2

g(x) = e−2 −1 e−2 x .(12.22)

Differenziert man nach den Lagrange-Multiplikatoren, so erhält man die Beschränkungen, die wir verwenden, um 1 und 2 zu bestimmen. Wir finden also eine Gauß Funktion

1 2 2 e−x /2σ g(x) = √ (12.23) 2πσ als die normalisierte Wahrscheinlichkeitsverteilung mit σ 2 als zweites Moment, das die Entropie maximiert, die durch (12.20) gegeben ist. Es ist nun einfach, die Entropie der Gauß Funktion zu berechnen als   1 log 2πeσ 2 . (12.24) 2 Der Wert, der aus (12.24) berechnet wurde, stimmt mit dem Wert überein, den wir numerisch für die Gaußsche in Abb. 12.4 ermittelt haben und jetzt verstehen wir, warum es die größte der drei Entropien ist, die wir aus den Amplituden-Wahrscheinlichkeitsverteilungen ermittelt haben. Auf den kommenden Seiten werden wir diese Gaußfunktionen nicht nur als Modelle für die Quellen verwenden, die die informationstragenden Signale erzeugen, sondern auch für die nutzlose Information, die durch zufällige Spannungen hinzugefügt wird, während die Signale einen Kommunikationskanal durchlaufen. Die Verteilung der Spannungen definiert nur die Statistik der Spannungen, die auftreten können, aber wir kümmern uns auch darum, dass jede mögliche Spannung unmittelbar auf jede andere Spannung folgen kann. Das bedeutet, dass wir sehr scharfe Übergänge von einem Spannungspegel zu einem anderen treu übertragen werden. Aber scharfe Übergänge werden durch hohe FourierHarmonische beschrieben. Die höchste nützliche Frequenz, genannt die Bandbreite W, wird daher begrenzen, wie viele verschiedene Spannungen wir pro Zeiteinheit T über den Kanal übertragen können. Nach dem Nyquist-Theorem [11], benötigen wir mindestens zwei Messungen pro Periode, um eine Frequenz zu charakterisieren. Daher können insgesamt n = 2TW unterschiedliche Spannungen während der Zeit T durch einen Kanal mit Bandbreite W übertragen werden. Die Hg =

226

12 Kryptowährungen

gesamte während der Zeit T transportierte Entropie wird dann durch nHg = 2TWHg und die entsprechende Rate H˙ = nHg /T = 2WHg wird gegeben durch   H˙ = W log 2πeσ 2 . (12.25)

Für eine Quelle, die durch ein rms-Signalpegel σ 2 = PS gekennzeichnet ist, ˙ finden wir die Rate H[x] = W log (2πePS ) und für das Rauschen auf dem Kanal 2 ˙ mit σ = PN , ist es H[N] = W log (2πePN ). Darüber hinaus, da die Quelle und das Rauschen unkorreliert sind, ist die Gesamtleistung Pt, die beim Decoder ankommt, gegeben durch Pt = PS + PN und die entsprechende Entropierate ist ˙ H[y] = W log (2πe(PS + PN )). Die Kapazität C des kontinuierlichen Kanals wird analog zu (12.19) als das ˙ y] = H[x] ˙ ˙ ˙ y] Maximum der gegenseitigen Informationsrate I[x; + H[y] − H[x, über alle möglichen Eingaben definiert. Durch Einsetzen von ˙ y] = H[x] ˙ ˙ ˙ y] = H[y] ˙ ˙ aus (12.16), erhalten wir I[x; H[x, + H[y|x] − H[y|x]. ˙ Unmittelbar nach (12.16) haben wir argumentiert, dass H[y|x] die Entropie ist, die durch das Rauschen zum Signal hinzugefügt wird, was, wie wir aus dem vor˙ herigen Absatz wissen, gleich H[N] ist. Wenn wir alle Grössen in den Ausdruck ˙ ˙ ˙ für C = I[x; y] = H[y] − H[N] einsetzen, finden wir   PS .(12.26) C = W log (2πe(PS + PN )) − W log (2πePN ) = W log 1 + PN Die Entropie von sowohl Quelle als auch Rauschen wurde als Maximum-Entropie˙ y] als die Gauß angenommen, so dass wir die gegenseitige Informationsrate I[x; Kanalkapazität C identifizieren können. Wir stellen fest, dass die Kanalkapazität C durch die Bandbreite W und das Signal-zu-Rauschen Verhältnis bestimmt wird. Eine höhere Bandbreite – die Fähigkeit, höhere Frequenzen zu übertragen – ermöglicht es uns, mehr Informationen zu übertragen. Darüber hinaus ermöglicht uns eine geringe Rauschleistung PN kleinere Unterschiede im Nutzsignal zu unterscheiden, was uns mehr Signalstufen zur Kodierung von Informationen gibt. Als Beispiel betrachten wir die Kommunikation in einem drahtlosen WLAN Netzwerk, das von der Erhöhung der Bandbreite durch Kanalbündelung profitiert, bei der zwei oder mehr der standardmäßig W = 20MHz breiten Kanäle gleichzeitig genutzt werden, um die Download-Geschwindigkeit zu erhöhen. Darüber hinaus erhöhen die Übertragungsverstärker automatisch die Übertragungsleistung PS, bis zum gesetzlich erlaubten Maximum, um die Übertragungskapazität zu maximieren. Normalerweise wird die Leistungsstufe so gewählt, dass sie der Rate entspricht, mit der die Informationen an der Quelle erzeugt werden – das Hören eines Internet-Radiosenders erfordert weniger Bandbreite als das Anschauen eines hochauflösenden Films. Aber wenn jemand in der Küche eine defekte Mikrowelle einschaltet, erhöht sich das Rauschniveau PN und der WiFi-Router, der sich ebenfalls in der Küche befindet, erhöht die Übertragungsleistung PS um die Kanalkapazität aufrechtzuerhalten, so dass es immer noch möglich ist, den Film im Wohnzimmer zu genießen.

12.5  Grundlagen der Kryptographie

227

Bis zu diesem Punkt wissen wir, wie wir Informationen – unsere Bankdaten – charakterisieren und von einem Punkt zum anderen übertragen können, sowohl über diskrete als auch über kontinuierliche Kanäle. Aber wir müssen noch sicherstellen, dass niemand die Daten auf dem Weg verfälscht, was mit kryptographischen Methoden gemacht werden kann, dem Thema des nächsten Abschnitts.

12.5 Grundlagen der Kryptographie Wenn Daten über ein Netzwerk gesendet werden, kann jeder die Kommunikation abhören und, sofern keine besonderen Vorkehrungen getroffen werden, sogar die übermittelten Informationen ändern. Ein gewisses Maß an Garantie für die Integrität der Daten ist in die unteren Ebenen der Netzwerkkommunikation eingebaut, wie das Internetprotokoll (IP) und das Transfersteuerungsprotokoll (TCP), aber es garantiert weder Privatsphäre noch Sicherheit gegen Manipulationen, was es ungeeignet macht, Geld zu übertragen, es sei denn, zusätzliche Sicherheitsmaßnahmen werden hinzugefügt. Wir müssen daher Methoden in Betracht ziehen, um Übertragungen über Kommunikationskanäle zu autorisieren und zu authentifizieren. Im klassischen Bankwesen gingen wir zur Bank, verwendeten einen Ausweis zur Authentifizierung und unterschrieben dann ein Papier, um die Übertragung zu autorisieren. Beachten Sie, dass sowohl Ausweise als auch persönliche Unterschriften „Geheimnisse“ sind, die für jede Person einzigartig sind. Lassen Sie uns daher einen Blick darauf werfen, wie Geheimnisse über Kommunikationskanäle gesendet werden. Ein generischer verschlüsselter Kommunikationskanal ist in Abb. 12.5 dargestellt, wo zwei Parteien, üblicherweise Alice und Bob genannt, heimlich eine Nachricht m austauschen, die mit einem Schlüssel k verschlüsselt wird, um die verschlüsselte Nachricht c, auch Geheimtext genannt, zu erzeugen. Letzterer wird dann über einen öffentlichen Kommunikationskanal gesendet, wo er von einem Lauscher, üblicherweise Eve genannt, aufgegriffen werden kann, der den Schlüssel k nicht kennt. Bob hingegen kennt k und kann ihn verwenden, um die

Eve Alice

verschl üsseln

entschl üsseln

Bob

Schlüsselaustausch Abb. 12.5  Verschlüsselter Kommunikationskanal: Alice verschlüsselt die Nachricht m mit dem Schlüssel k und sendet den Geheimtext c an Bob, der c mit demselben Schlüssel entschlüsselt. Eve, die den Schlüssel nicht kennt, kann die Nachricht aus dem Geheimtext nicht wiederherstellen. Beachten Sie, dass der Schlüssel über einen separaten sicheren Kanal gesendet werden muss, der durch die gestrichelte Linie angezeigt wird

12 Kryptowährungen

228

Nachricht zu entschlüsseln. Beachten Sie, dass Alice und Bob den geheimen Schlüssel k über einen zweiten Kanal austauschen müssen, der in Abb. 12.5 als gestrichelte Linie dargestellt ist. Der Zweck der Verschlüsselung besteht darin, Entropie in den Kanal einzuführen, so dass die gegenseitige Information I[x;y] zwischen Alice und Bob groß ist, während die gegenseitige Information I[x;z] zwischen Alice und Eve so klein wie möglich ist. Auf der rechten Seite in Abb. 12.3 sehen wir, dass die Kanalkapazität für den binären symmetrischen Kanal null wird, wenn die Wahrscheinlichkeit ε für ein umgeklapptes Bit 1/2 im Verschlüsselungsprozess ist. Gleichzeitig müssen wir sicherstellen, dass der Verschlüsselungsprozess umkehrbar ist, so dass Bob die ursprüngliche Nachricht m aus dem Geheimtext c wiederherstellen kann. In der Folge werden wir uns ausschließlich mit binären, anstatt mit textuellen Daten befassen, so dass wir den binären symmetrischen Kanal als Beispiel verwenden können. Nehmen wir an, Alice möchte den Buchstaben „A“ senden, der m = b’01000001  in dem ASCII-Code entspricht. Eine Möglichkeit, binäre Zahlen zu verschlüsseln, basiert auf der logischen exklusiven Oder, oder xor(i, j) Funktion, die für ein Bit i, j = 0, 1 folgendermassen definiert ist xor(i, j) = 0 für i = j und xor(i, j) = 1 für i = j. Für mehrstellige Zahlen, wie m = b’01000001, und dem geheimen Schlüssel k, definieren wir xor(m, k) damit auf ein Bit zur Zeit zu operieren. Mit dem geheimen Schlüssel k =b’01101100, finden wir den Geheimtext c = xor(m, k) aus m k c

= = =

b’01000001 b’01101100 b’00101101

wann immer m und k das gleiche Bit an einer bestimmten Position haben, enthält c „0“ an dieser Position; wenn die Bits unterschiedlich sind, enthält c „1“. Es ist leicht uns zu überzeugen, dass Bob die ursprüngliche Nachricht m aus dem Geheimtext c durch Berechnung von m = xor(c, k) wiederherstellen kann. Bob kann den Geheimtext c entschlüsseln, aber Eve sieht nur c. Lassen Sie uns daher die bedingten Wahrscheinlichkeiten pyx und pzx aus (12.8) berechnen, wobei Alice xi sendet, Bob yi empfängt und Eve zi beobachtet. Im folgenden MATLAB-Skript definieren wir zunächst den Schlüssel k und 2 × 2 Arrays zur Speicherung der bedingten Wahrscheinlichkeiten. Dann durchlaufen wir alle möglichen Nachrichten m, was α = 1/2 in Abb. 12.2 impliziert und sicherstellt, dass die gleiche Anzahl von „1“ und „0“ gesendet wird. Innerhalb der Schleife kodieren wir zunächst m, um den Geheimtext c zu erhalten, bevor wir Bobs Aktion der Dekodierung von c mit demselben Schlüssel k simulieren. Dann vergleichen wir die acht Bits in jedem Byte und aktualisieren die bedingten Wahrscheinlichkeiten. Nach den Schleifen normalisieren wir die Einträge in den 2 × 2 Matrizen für die bedingten Wahrscheinlichkeiten.

12.5  Grundlagen der Kryptographie

229

k=bin2dec(’01101100’); % key pyx=zeros(2,2); pzx=pyx; % cond. probabilities for m=0:255 % loop over all messages c=bitxor(m,k); % Alice encodes to ciphertext bob=bitxor(c,k); % Bob decodes with key for i=1:8 % compare all eight bits bx=bitget(m,i); bz=bitget(c,i); by=bitget(bob,i); pyx(2-by,2-bx)=pyx(2-by,2-bx)+1; % update probs. pzx(2-bz,2-bx)=pzx(2-bz,2-bx)+1; end end pyx=pyx/1024 % Alice to Bob, pyx=[1,0;0;1] pzx=pzx/1024 % Alice to Eve, pzx=[0.5,0.5;0.5,0.5]

Die bedingten Wahrscheinlichkeiten pyx für den Kanal von Alice zu Bob, verglichen mit (12.8), sind konsistent mit ε = 0, was impliziert, dass die gegenseitige Information I[x;y] Eins ist. Da wir α = 1/2 haben, impliziert dies, dass die Kanalkapazität C, die auf der rechten Seite in Abb. 12.3 dargestellt ist, ebenfalls Eins ist. Andererseits sind die Wahrscheinlichkeiten pzx für den Kanal von Alice zu Eve konsistent mit ε = 1/2, was darauf hinweist, dass die Kanalkapazität C null ist und Eve keine Informationen aus dem Bitstrom extrahieren kann, der auf dem öffentlichen Kanal reist. Wir weisen darauf hin, dass dieses Ergebnis in gewissem Maße von dem gewählten Schlüssel k abhängt. Wir haben einen mit vier gesetzten und vier nicht gesetzten Bits ausgewählt. Wenn wir einen Schlüssel k mit drei gesetzten und fünf nicht gesetzten Bits auswählen, unterscheidet sich ε von 1/2. In dem Beispiel haben wir nur einen acht-Bit-Schlüssel verwendet, aber wir können den Schlüssel k natürlich viel länger machen, sagen wir 256 Bits und Blöcke der gleichen Länge kodieren, jeweils einen nach dem anderen. Kryptographische Systeme, die auf solchen festen Datenblöcken arbeiten, werden als Blockchiffren, bezeichnet, auf denen viele unten diskutierte Verschlüsselungssysteme basieren. Wir stellen fest, dass einfache kryptographische Algorithmen zwei signifikante Probleme haben. Erstens müssen sowohl der Sender als auch der Empfänger den Schlüssel k kennen, was es zwingend erforderlich macht, den Schlüssel über einen potenziell unsicheren Kommunikationskanal zu senden. Wir könnten in Erwägung ziehen, die Übertragung zu verschlüsseln, aber dies erfordert eine frühere Übertragung eines anderen Schlüssels, um sie zu kodieren. Wir werden später darauf eingehen, wie die Schlüsselverteilung, die gemeinhin als Henne-Ei-Problem betrachtet wird, gelöst werden kann. Das zweite Problem des einfachen xorChiffre besteht darin, dass wir den vermeintlich geheimen Schlüssel leicht aufdecken können, indem wir eine spezielle Nachricht an die Kodierungsfunktion

230

12 Kryptowährungen

weitergeben. Das triviale Beispiel ist, dass xor(b′ 0, k) = k, wo m = b′ 0 eine Nachricht ist, die nur aus Nullen besteht. Dieses zweite Problem wurde ursprünglich durch den Data Encryption Standard(DES), der erstmals in den 1970er Jahren eingeführt wurde, gelöst. Er arbeitet mit Blöcken einer Länge von 64 Bits und verwendet einen Schlüssel k0 mit einer effektiven Länge von 56 Bits, bestehend aus acht 7-Bit-Abschnitten. Aus diesem geheimen Schlüssel werden sechzehn Unter-Schlüssel k0 , . . . , k15 abgeleitet. Die Kodierung erfolgt in sechzehn Schritten, die als Runden, bezeichnet und durch den Index i gekennzeichnet sind, in denen die Nachricht mi bei Schritt i wird in einen linken und einen rechten Teil mi = (Li , Ri ) aufgeteilt, jeder mit einer Länge von 32 Bits. Die Transformation von einer Runde zur nächsten wird durch

mi+1 = (Li+1 , Ri+1 ) = (Ri , xor(Li , F(Ri , ki )))

(12.27)

gegeben, wobei F(Ri , ki ) eine sogenannte Feistel-Funktion ist. Sie verwürfelt die 32 Bits in Ri mit dem Unter-Schlüssel ki mit einem für DES spezifischen Algorithmus. Schließlich wird Ri+1 als xor mit Li berechnet. Beachten Sie, dass in jeder Runde eine Hälfte von mi unverändert bleibt, während die andere Hälfte mit einem von der anderen Hälfte und einem Unter-Schlüssel abgeleiteten Schlüssel xor ’ed wird. Nach sechzehn Runden hat sich die ursprüngliche Nachricht m0 in den Chiffretext c = m16 verwandelt. Es stellt sich heraus, dass der gleiche Algorithmus verwendet werden kann, um einen verschlüsselten Chiffretext c zu entschlüsseln. Alles, was wir tun müssen, ist die Reihenfolge der Unter-Schlüssel umzukehren und den Chiffretext durch die sechzehn Runden zu leiten, wobei die letzte Runde den Unter-Schlüssel k0 verwendet, um die ursprüngliche Nachricht m0 wiederherzustellen. Da sowohl die Codierung als auch die Decodierung den gleichen Algorithmus verwenden, gilt DES als effizient. Im Laufe der Jahre wurde jedoch gezeigt, dass die DES-Verschlüsselung in einer angemessen kurzen Zeit gebrochen werden kann und ihre Verwendung nicht mehr empfohlen wird. Sie wird durch andere Verschlüsselungsalgorithmen ersetzt, zum Beispiel durch Triple-DES, welches drei 56-Bit lange Schlüssel verwendet. Es verschlüsselt zunächst mit einem Schlüssel, dann entschlüsselt es mit dem zweiten Schlüssel und verschlüsselt schließlich erneut mit dem dritten Schlüssel. Um den Chiffretext zu entschlüsseln, müssen wir diese Sequenz in umgekehrter Reihenfolge rückgängig machen. Wir entschlüsseln zuerst mit dem dritten Schlüssel, verschlüsseln mit dem zweiten und entschlüsseln mit dem ersten Schlüssel. Der derzeit aktuelle Verschlüsselungsstandard ist der Advanced Encryption Standard (AES), der 2001 angekündigt wurde. Er verwendet symmetrische Schlüssel und arbeitet mit 128-Bit langen Datenblöcken. Verschlüsselungsschlüssel mit einer Länge zwischen 128 und 512 Bits werden unterstützt. Die 128 Bits jedes Blocks werden in einem 4 × 4 Array von Bytes zusammengestellt, das anschließend in zehn bis vierzehn Runden mit Unter-Schlüsseln, die vom Primärschlüssel abgeleitet sind, durcheinandergewirbelt wird. Um die Belastung der Prozessoren, insbesondere der in Desktop-Computern verwendeten, zu reduzieren, unterstützen die Prozessoren AES in Hardware, was eine effiziente Ver-

12.5  Grundlagen der Kryptographie

231

schlüsselung von Daten ermöglicht, entweder lokal auf der Festplatte oder beim Betrachten von Websites mit https. Manchmal wollen wir die Kommunikation nicht wirklich vor anderen verbergen, sondern nur sicherstellen, dass die Integrität einer Nachricht nicht beeinträchtigt wird, sei es unbeabsichtigt durch Übertragungsfehler oder absichtlich durch eine dritte Partei, die die Nachrichten fälscht. Zu diesem Zweck verwenden wir einen speziellen Fingerabdruck einer Nachricht, genannt Hash oder Nachrichten-Prüfsumme. Einer der einfachsten Hashes einer Nachricht m = (b1 , b2 , b3 ) besteht beispielsweise aus drei Bytes b3 , b2 , und b1 ist die zu einer Prüfsumme c kombiniert werden, bei der alle Bytes nacheinander xor’ed werden, wie zum Beispiel c = xor(b3 , xor(b2 , b1 )). Diese Prüfsumme c kann vor und nach einer Übertragung berechnet werden, um sicherzustellen, dass die Integrität der Nachricht erhalten bleibt. Die Verwendung eines nur ein Byte langen Fingerabdrucks erlaubt nur die Unterscheidung zwischen 256 verschiedenen Fällen und Kollisionen – das Finden des gleichen c für verschiedene Nachrichten m1 und m2 – sind wahrscheinlich. Darüber hinaus reicht es aus, nur 256 verschiedene Nachrichten zu testen, um eine zu finden, die eine gegebene Prüfsumme c erzeugt. In einem kryptografischen Kontext, in dem wir den Hash-Wert verwenden, um die Integrität der Nachricht zu garantieren, wird dies als Pre-Image-Angriff bezeichnet. Und schließlich muss die Berechnung des Hashs deterministisch sein, im Sinne, dass die Berechnung auf verschiedenen Computersystemen gleiche Hashs ergibt. Daher müssen wir deterministische Funktionen finden, die lange Hashs berechnen und sicherstellen, dass selbst ähnliche Nachrichten stark unterschiedliche Hash-Werte c erzeugen, so dass das Verschieben eines Dezimalpunkts in einer Finanztransaktion c drastisch ändert. Die MD5 Nachrichten-Digest-Funktion, die erstmals 1992 eingeführt wurde, berechnet einen 128-Bit langen Hash-Wert aus einer Eingabe-Nachricht, die beliebige Länge haben kann. Die Nachricht kann eine Textzeichenkette, eine binäre Größe oder der Inhalt einer beliebigen Datei sein. Für eine Diskussion über die Funktionsweise des MD5-Hashs und anderer Hash-Funktionen verweisen wir auf die spezialisierte Literatur [12]. Im Laufe des letzten Jahrzehnts wurde jedoch gezeigt, dass Kollisionen im oben diskutierten Sinne mit moderater Rechenleistung konstruiert werden können, was MD5 für kryptografische Anwendungen ungeeignet macht. Andererseits wird MD5 immer noch verwendet, um zu überprüfen, ob heruntergeladene Dateien während der Übertragung nicht beschädigt wurden. Im Jahr 2001 wurde die SHA-2-Familie von Hashing-Algorithmen veröffentlicht. Sie unterstützt mehrere Längen der Hashs, einschließlich der 256-BitVersion SHA-256, die von der Bitcoin-Kryptowährung verwendet wird. Der Algorithmus basiert auf der Zerlegung der Nachricht in 512-Bit-Blöcke und dann weiterer Unterteilung jedes Blocks in sechzehn 32-Bit-Blöcke, die durch Bit-Verschiebung und xor’ing gründlich durcheinandergewirbelt werden, um insgesamt 64 Blöcke zu erhalten, die jeweils 32 Bit lang sind. Diese 64 Blöcke durchlaufen eine zweite Runde des Durcheinanderwirbelns, die xor’ing mit vorbestimmten pseudo-zufälligen Zahlen beinhaltet und schließlich zu einem 256-Bit langen

232

12 Kryptowährungen

Hash-Wert zusammengefügt werden. Die prominente Verwendung von SHA256 in mehreren Kryptowährungen hat die Entwicklung spezieller Hardware, basierend auf Field-Programmable Gate Arrays (FPGA) und Application Specific Integrated Circuits (ASIC), angeregt. Diese Geräte berechnen Hashs mit einer Rate von Milliarden pro Sekunde und werden oft parallel verwendet, was eine Bedrohung gegen Pre-Image-Angriffe darstellt, die versuchen, eine Eingabe für die Hash-Funktion zu finden, die zu einem gewünschten Hash-Wert auswertet und somit das Manipulieren des Fingerabdrucks ermöglichen würde. Um diese Schwäche gegenüber Brute-Force-Pre-Image-Angriffen zu überwinden, verwenden moderne Kryptowährungen, wie Ethereum, HashingAlgorithmen, die große Mengen an Speicher für die Berechnung benötigen und daher teure Hardware erfordern, was den hohen Grad an Parallelisierung, der eine Bedrohung für SHA-256 darstellt, ausschließt. Das Durcheinanderwirbeln in ethash [15] Hashs basiert darauf, zunächst eine sehr große Datenstruktur von pseudo-zufälligen Zahlen zu erstellen und dann Zahlen aus dieser Struktur in einer quasi-zufälligen Weise auszuwählen, was es unmöglich macht, nur einen kleinen Teil der Struktur im Speicher zu behalten. Die Berechnung des scrypt Hashs funktioniert ähnlich. Die hohen Kosten, sowohl in Bezug auf Hardware als auch rechnerisch, erklären die Beliebtheit dieser Hashs in modernen Kryptowährungen. Gelegentlich benötigen wir Fingerabdrücke einer großen Anzahl von digitalen Elementen, sagen wir n = 100 Dateien. Wir können dann entweder n Hashes senden, um jede Datei einzeln zu überprüfen, oder wir können die Hashes zu einem Merkle-Baum zusammenfügen. Es basiert darauf, zuerst die einzelnen Hashes zu berechnen und dann anschließend die Bit-Konkatenation von zwei Hashes zu hashen, um n/2 Hashes zu erhalten. Wir wiederholen den Prozess dann, bis nur noch ein Hash übrig bleibt, der als Merkle-Wurzel bezeichnet wird. Beachten Sie, dass ungepaarte Hashes mit sich selbst gehasht werden. Auf diese Weise erhalten wir einen einzigen Hash-Wert, die Merkle-Wurzel, der zur Überprüfung der Integrität der gesamten Gruppe von n Dateien oder eines anderen digitalen Elements verwendet wird. Wir werden Merkle-Bäume wieder begegnen, da sie verwendet werden, um große Mengen von Finanztransaktionen zu fingerprinten, die in eine Kryptowährungsdatenbank eingegeben werden, um deren Integrität zu gewährleisten. Bis jetzt haben wir eine Reihe von kryptographischen Werkzeugen gesammelt, die es uns ermöglichen, digitale Vermögenswerte zu verschlüsseln und zu fingerprinten, aber wir stehen immer noch vor dem Schlüsselverteilungsproblem, das bis Mitte der 1970er Jahre auf eine Lösung warten musste.

12.6 Frühe Public-Key-Systeme In DES, AES und vielen anderen Verschlüsselungsmethoden ist der Schlüssel, der zum Verschlüsseln und zum Entschlüsseln verwendet wird, derselbe, der daher als symmetrischer Schlüssel bezeichnet wird. Wenn nur symmetrische Schlüsselsysteme zur Verfügung stehen, bedeutet dies, dass die Schlüssel auf andere Weise

12.6 Frühe Public-Key-Systeme

233

ausgetauscht werden müssen. Vor Mitte der siebziger Jahre wurden Kurierdienste eingesetzt, die Aktenkoffer mit Blättern, auf denen die Schlüssel standen, zwischen den kommunizierenden Partnern hin und her transportierten, zum Beispiel zwischen dem Außenministerium und den Botschaften in fremden Ländern. Dies war teuer und nur möglich, wenn hochgeheime Informationen ausgetauscht werden mussten, insbesondere während des Kalten Krieges. 1976 jedoch veröffentlichten Diffie und Hellman ihren bahnbrechenden Bericht [13], in dem sie vorschlugen, asymmetrische Schlüssel zu verwenden. Alice und Bob, die Parteien einer Zwei-Wege-Kommunikation, haben jeweils ihre privaten Geheimnisse; Alice kennt ihr Geheimnis a, weiß aber nicht Bobs Geheimnis b. Vorher einigen sie sich öffentlich darauf, zwei große Zahlen g und p zu verwenden, wobei p eine Primzahl und g eine primitive Wurzel von p ist, was bedeutet, dass gj (mod p) für j = 1, . . . , p alle ganzzahligen Werte zwischen 1 und p − 1 durchläuft. Hier bezeichnet a (mod p) den Rest einer ganzzahligen Division von a durch p. Sobald diese Vorarbeiten abgeschlossen sind, sendet Alice die Zahl A = ga (mod p) an Bob und Bob sendet B = gb (mod p) an Alice, die den geheimen Schlüssel über k = Ba (mod p) = gab (mod p) berechnet. Bob kommt auf denselben Schlüssel, indem er k = Ab (mod p) = gba (mod p) berechnet. Alle weiteren Kommunikationen zwischen ihnen können dann k als Schlüssel für die Verschlüsselung und Entschlüsselung mit einem der zuvor genannten Algorithmen verwenden. Beachten Sie, dass sie auf denselben geheimen Schlüssel k kommen, ohne ihre privaten Geheimnisse jemandem preiszugeben. Darüber hinaus kann ein Lauscher auf dem Kommunikationskanal – Eve – nur g, p, A, und B aufnehmen, steht aber vor dem Problem, Alice’s Geheimnis a aus der Kenntnis von A = ga (mod p), zu bestimmen, was eine große Anzahl von Versuchen für a erfordert, um eines zu finden, das A erzeugt. Wenn die Zahlen g und p sehr groß sind, ist dies rechnerisch nicht machbar. Trotz des großen Vorteils, sich auf einen Schlüssel k zu einigen, funktioniert die Kommunikation nur zwischen zwei Partnern, hier Alice und Bob, die eine gemeinsame Sitzung planen müssen, in der sie k ausarbeiten, bevor sie es zur Verschlüsselung ihrer weiteren Kommunikation verwenden können. Diese Komplexität schließt das spontane Senden von beispielsweise E-Mails aus. Dieser Mangel wurde 1977 durch das RSA Public-Key-Kryptosystem, entwickelt von Rivest, Shamir und Adelman, überwunden. Der Algorithmus basiert auf der Suche nach positiven ganzen Zahlen n, e, und d, so dass für jede Nachricht, die als positive Ganzzahl m mit 0 ≤ m < n geschrieben wird, wir med (mod n) = m haben. Hier stellen n und e den öffentlichen Schlüssel dar und d ist der private Schlüssel. Betrachten wir ein Standard-Szenario, in dem Alice ihren öffentlichen Schlüssel (n, e) auf ihrer Website veröffentlicht und den privaten Schlüssel d für sich behält. Wenn Bob eine Nachricht m an Alice senden möchte, sucht er ihren öffentlichen Schlüssel (n, e) auf und berechnet die verschlüsselte Nachricht c = me (mod n), die er Alice über einen offenen Kommunikationskanal sendet. Für verschiedene Nachrichten m springt der Chiffretext c zwischen 0 und n in einer quasi-zufälligen Weise herum, was garantiert, dass es praktisch unmöglich ist, m aus c zu erraten, es sei denn, man hat Zugang zum privaten Schlüssel d. Solche Funktionen, die leicht in eine Richtung zu berechnen sind, aber extrem

12 Kryptowährungen

234

schwierig umzukehren sind, es sei denn, man hat Zugang zum privaten Schlüssel, werden Falltürfunktionen genannt. Da Alice ihren privaten Schlüssel d kennt, muss sie nur cd (mod n) = med (mod n) = m berechnen um die Klartextnachricht m wiederherzustellen. Eve, die verzweifelt versucht zu erfahren, was Bob an Alice sendet, hat Zugang zu c, n und e, aber sie muss alle möglichen Nach¯ ausprobieren, die tatsächlich den Geheimtext c = m ¯ e (mod n) erzeugen. richten m Wenn n und e groß sind, ist dies in einer angemessenen Zeit nicht machbar. Wir weisen darauf hin, dass dieses Public-Key-Kryptosystem die Technologie ermöglicht, die den Handel im Internet möglich macht. Ohne Public-Key-Kryptographie gäbe es kein amazon.com oder ebay.com. Immer wenn Sie ein https-Prefix einer Internetadresse sehen, ist die Public-Key-Kryptographie beteiligt, um einen symmetrischen Schlüssel auszutauschen, der eine schnellere Kommunikation ermöglicht und daher zur Verschlüsselung der weiteren Kommunikation verwendet wird, zum Beispiel zur Übermittlung von Kreditkartendetails. Das heimliche Senden einer Nachricht von Bob an Alice ist nur eine mögliche Anwendung. Stellen Sie sich ein Szenario vor, in dem von Eve bekannt ist, dass sie Alice’s Unterschrift in E-Mails fälscht, so dass Alice sicherstellen ˆ ist. Sie berechnet muss, dass sie der echte Absender einer E-Mail mit dem Text m ˆ mit einer der zuvor diskutierten Hashes. Dann zunächst einen Hash-Wert cˆ von m „signiert“ sie diesen Hash cˆ mit ihrem privaten Schlüssel d durch Berechnung von ˆ an Bob. s = cˆ d (mod n) und übermittelt s zusammen mit der Klartextnachricht m ˆ ′ erhält. Sie war nicht verschlüsselt Wir nehmen an, dass Bob diese Nachricht als m und er weiß nicht, ob jemand die Nachricht manipuliert hat. Um herauszufinden, ˆ ′ wirklich die ist, die Alice gesendet hat, verwendet ob die empfangene Nachricht m er Alice’s öffentlichen Schlüssel (n,e) um den signierten Hash s auszupacken und ˆ . Er überprüft se (mod n) = cˆ ed (mod n) = cˆ zu finden, den Hash der Nachricht m ˆ ′ echt ist, indem er ihren Hash cˆ ′ berechnet. dann, ob die empfangene Nachricht m Wenn das gleich cˆ ist, sind die Nachrichten gleich. Beachten Sie, dass Alice hier ihren geheimen privaten Schlüssel d verwendet, um den Hash der Nachricht zu signieren, und Bob den öffentlichen Schlüssel (n, e) verwendet, um zu überprüfen, dass die Signatur nur von Alice stammen kann. Aber wie finden wir die Schlüssel, oder die Zahlen n, e, und d? Hier skizzieren wir nur die Konstruktion, die auf Eulers Totiententheorem basiert. Es besagt dass, wenn zwei Zahlen m und n keinen gemeinsamen Faktor außer 1 haben, mϕ(n) = 1(mod n) gilt, wobei ϕ(n) die Eulersche Phi-Funktion von n ist. Sie ist gleich der Anzahl der Ganzzahlen, die keine gemeinsamen Faktoren mit n haben, was bedeutet, dass sie teilerfremd oder prim zueinander in Bezug auf n sind. Wenn wir nun zwei große Primzahlen p und q auswählen und n = pq definieren, dann kann die Eulersche Phi-Funktion von n berechnet werden als ϕ(n) = (p − 1)(q − 1). Wenn wir zuerst die kte Potenz und dann das Modul auf beiden Seiten des Eulerschen Theorems nehmen führt dies zu

mkϕ(n)+1 (modn) = m

f¨ur eine ganze Zahl k,

(12.28)

und dies gibt uns die gewünschte Form m , vorausgesetzt wir wählen eine Zahl e, die teilerfremd mit ϕ(n) ist und dann müssen wir einen Wert von k finden, so ed

12.7  Elliptische Kurven Kryptographie

235

dass d = (kϕ(n) + 1)/e eine ganze Zahl ist. Entweder suchen wir nach d, das ed(mod ϕ(n)) = 1 erfüllt oder wir schreiben diese Gleichung um als

ed − kϕ(n) = 1 = gcd(e, ϕ(n))

(12.29)

wobei der größte gemeinsame Teiler von e und ϕ(n) die Eins ist, oder gcd(e, ϕ(n)) = 1, weil e und ϕ(n) teilerfremd sind. Dieser Ausdruck hat die Form der Bézout’schen Gleichung, die leicht mit der Funktion gcd() in MATLAB gelöst werden kann, die den erweiterten Algorithmus von Euklid implementiert. Das folgende kurze MATLAB-Skript visualisiert diesen Prozess. p=5; q=11; e=3; n=p*q; phin=(p-1)*(q-1); [gcdval,d,kk]=gcd(e,phin); if gcdval ˜= 1 disp(’Error: e and phin not coprime’); end d=powermod(d,1,phin) message=6 ciphertext=powermod(message,e,n) decoded=powermod(ciphertext,d,n)

Zuerst wählen wir die beiden Primzahlen p, q und den Verschlüsselungsschlüssel e aus und berechnen dann n und ϕ(n) bevor wir die Bézout-Gleichung lösen, um den Entschlüsselungsschlüssel d zu finden, während die nächste Zeile sicherstellt, dass d positiv ist. Nach dem Aufruf von gcd() zeigen wir eine Fehlermeldung an, wenn e nicht teilerfremd zu ϕ(n) ist. In den letzten drei Zeilen definieren wir zuerst eine Nachricht, kodieren sie und dekodieren sie wieder. Hier verwenden wir die Funktion powermod(), die gut für mäßig große Werte von e und d funktioniert. Wir betonen, dass das System sicher ist, solange Eve n nicht in seine Primfaktoren zerlegen kann. Diese eingebauten Funktionen funktionieren gut für mäßig große Ganzzahlen, aber in der Praxis und um die Faktorisierung von n in die zugrunde liegenden Primzahlen p und q zu verhindern, haben die Zahlen typischerweise mehr als hundert Ziffern, was spezielle Funktionen zur Handhabung der Arithmetik erfordert. Diese Großzahl-Routinen sind oft nicht sehr schnell, was ein limitierender Faktor auf mobilen Geräten, wie Smartphones, ist. Daher sind andere Algorithmen erwünscht, die kleinere Ganzzahlen verwenden, aber dennoch eine gleichwertige oder verbesserte Sicherheit im Vergleich zum ursprünglichen RSA-Algorithmus bieten.

12.7 Elliptische Kurven Kryptographie Obwohl bereits in den 1980er Jahren für effiziente kryptographische Anwendungen vorgeschlagen, wurden elliptische Kurven erst in den letzten zwei Jahrzehnten populär. Diese Methode basiert auf der Abbildung von zwei Punkten A und B, die auf einer elliptischen Kurve liegen, die durch

12 Kryptowährungen

236

y2 = x 3 + ax + b

(12.30)

definiert ist auf einen dritten Punkt C = A ⊕ B. Die linke Seite in Abb. 12.6 veranschaulicht die Konstruktion. Die elliptische Kurve secp256k1, die in der Bitcoin-Kryptowährung verwendet wird und durch y2 = x 3 + 7 definiert ist, wird als schwarze Linie dargestellt. Die beiden Punkte A und B liegen auf der Kurve und die gerade Linie, die sie verbindet, wird verlängert, bis sie die Kurve wieder schneidet, was den Punkt C ′ definiert. Die Reflexion von C ′ auf der horizontalen Achse schneidet die Kurve, die symmetrisch ist, am Punkt C = ⊖C ′, wo wir C als das „Negative“ von C ′ in einem abstrakten Sinn definieren und ebenso C = A ⊕ B in einem ebenso abstrakten Sinn. Die Operationen, die durch ⊖ und ⊕, beschreiben, wie man einen neuen Punkt, hier C, aus zuvor definierten Punkten findet. Wir betonen, dass es fast immer möglich ist, den dritten Punkt auf der Kurve zu finden. Ein Sonderfall ist der Grenzfall B → A, in welchem Fall zwei Punkte, die die Steigung der Geraden definieren, zur Tangente an die Kurve werden. Darüber hinaus müssen wir künstlich einen Punkt 0ˆ im Unendlichen zur Kurve hinzufügen, um die Gleichung C ⊖ C = 0ˆ sinnvoll zu machen. Der Punkt im Unendlichen übernimmt somit die Rolle einer „Null“. Die Abbildung von zwei Punkten A und B auf den dritten ist leicht zu finden, indem man den Schnittpunkt der elliptischen Kurve aus (12.30) und der Geraden, die durch die Punkte A und B verläuft, berechnet. Sie wird gegeben durch y = s(x − xA ) + yA und hat die Steigung s = (yB − yA )/(xB − xA ). Das Gleichsetzen der Gleichungen führt zu

    0 = x 3 − s2 x 2 + a + 2s2 xA − 2sy1 x + b − s2 xA2 − yA2 + 2sxA yA = (x − xA )(x − xB )(x − xC ) (12.31) = x 3 − [xA + xB + xC ]x 2 + [xA xB + xA xC + xB xC ]x − xA xB xC Die zweite Gleichheit ist gültig, weil die Gleichung dritter Ordnung in der ersten Gleichheit drei Wurzeln hat – die horizontalen Koordinaten der Punkte, an denen die Gerade und die elliptische Kurve sich schneiden. Wir kennen bereits zwei der drei Wurzeln und können daher die Koeffizienten allein aus dem quadratischen Term bestimmen. Wir finden xC = s2 − xA − xB. Einsetzen in die Gleichung für die Gerade ergibt die vertikale Koordinate von C ′. Das Invertieren des Vorzeichens führt zu yC = −s(xC − xA ) − yA. Wenn die beiden Punkte A und B gleich sind mit xA = xB und yA = yB müssen wir die Steigung s durch die Ableitung s = dy/dx = (3xA2 + a)/2yA am Punkt A = B ersetzen . Zusammenfassend müssen wir zuerst die Steigung aus

s=

yB − yA xB − xA

f¨ur A �= B

oder

s=

3xA2 + a 2yA

f¨ur A = B

(12.32)

bestimmen und dann die Koordinaten des Punktes C aus

xC = s2 − xA − xB

und

yC = −s(xC − xA ) − yA .

(12.33)

12.7  Elliptische Kurven Kryptographie

237

Um diese Operation zu visualisieren, addieren wir wiederholt denselben Punkt A, der als roter Stern auf der rechten Seite in Abb. 12.6 dargestellt ist, und berechnen A2 = A ⊕ A, A3 = A2 ⊕ A, . . . für hundert Iterationen. Die schwarzen Punkte zeigen, dass die Punkte über die gesamte elliptische Kurve verstreut sind, aber nicht ausreichend, um die für eine effiziente Verschlüsselung benötigte Zufälligkeit zu liefern. Anstatt mit reellen Zahlen zu arbeiten, wenn wir die Koordinaten des Punktes C berechnen, verwenden wir modulare Arithmetik über einem endlichen Feld mit der Basis p in (12.32) und (12.33). Dies erhöht die scheinbare Zufälligkeit des „Herumspringens“ dramatisch. Wir wählen p als Primzahl, weil dies garantiert, dass die Multiplikation der Zahlenmenge P = {1, . . . , p − 1} mit einer beliebigen ganzen Zahl k, also {k, . . . , k(p − 1)}(mod p) die gleiche Menge P ergibt, in der jedoch die Reihenfolge der Zahlen durcheinandergewürfelt ist. Die meisten Operationen, wie Addition und Multiplikation, sind gut definiert, wenn man modulare Arithmetik verwendet; nur Divisionen, die in der Berechnung der Steigung in (12.32) verwendet werden, erfordern besondere Aufmerksamkeit. Wir können jedoch das Inverse einer Zahl in einem endlichen Feld berechnen, indem wir den kleinen Satz von Fermat ausnutzen, der besagt, dass für jede Zahl a die Gleichung ap−1 = 1(mod p) gültig ist. Wenn wir es als a−1 = a−1 1 = a−1 ap−1 = ap−2 umschreiben, wo alle Gleichungen modulo p verstanden werden, finden wir

a−1 = ap−2 (mod p),

(12.34)

was uns eine Methode zur Berechnung des Inversen einer Zahl a in einem endlichen Feld liefert und es uns ermöglicht, die Divisionen in (12.32) zu berechnen. Wir verwenden die MATLAB-Skripte aus Anhang B.11, um (12.32) und (12.33) über einem endlichen Feld mit p = 113 zu iterieren, was zu den in Abb. 12.7 gezeigten Plots führt. Auf der linken Seite ist die Startposition G = (13, 31) durch ein rotes Sternchen gekennzeichnet; auf der rechten Seite ist es G = (15, 52). Hier bezeichnen wir den Ausgangspunkt mit dem Buchstaben G, um zu

Abb. 12.6  Links: Veranschaulichung der Methode zur Addition von zwei Punkten „A“ und „B“ auf der elliptischen Kurve, um C = A ⊕ B zu erhalten. Rechts: Wenn das zugrunde liegende Feld die reellen Zahlen sind, springt das wiederholte Hinzufügen des gleichen Punktes, angezeigt durch das rote Sternchen, zu vielen Punkten auf der Kurve, angezeigt durch schwarze Punkte

238

12 Kryptowährungen

Abb. 12.7  Addition auf elliptischen Kurven über einem endlichen Feld mit p = 113 und Generatorpunkt G = (13, 31) auf der linken Seite und G = (15, 52) auf der rechten Seite

signalisieren, dass es sich um den Generator der Gruppe von Punkten handelt, die die durchlaufenen Punkte anzeigen. Sie sind über den zulässigen Bereich zwischen 0 und p − 1 = 112 verstreut. Wir stellen fest, dass es auf dem linken Diagramm deutlich mehr Punkte gibt als auf dem rechten Diagramm. Tatsächlich wiederholen sich die Punkte nach einer Anzahl von Additionen; auf der linken Seite gibt es n = 114 unterschiedliche Punkte und auf der rechten Seite gibt es nur n = 19 unterschiedliche Punkte, einschließlich eines Punktes im Unendlichen. Es stellt sich heraus, dass die „Addition“ von Punkten auf der Kurve die Struktur einer Gruppe GG auferlegt, die die Elemente von GG sind. Der Punkt im Unendlichen dient als „Null“ der Gruppe. Beachten Sie, dass die Gruppe vom Startpunkt G abhängt. Darüber hinaus wird die Anzahl der unterschiedlichen Elemente n als die Ordnung der Gruppe bezeichnet. Um für die Kryptographie nützlich zu sein, muss n eine Primzahl sein. Es bestimmt die Anzahl der unterschiedlichen Chiffretexte, die in diesem Schema kodiert werden können. Die Elemente in GG sind tatsächlich eine Gruppe, weil es dann möglich ist, ein Element B der Gruppe von jedem anderen Element A zu erreichen, indem man G eine endliche Anzahl j von Malen hinzufügt, was wir durch B = A ⊕ (j ⊙ G) bezeichnen. Nun können Alice und Bob elliptische Kurven verwenden, um ein gemeinsames Geheimnis S zu bestimmen, das praktisch unmöglich von Eve herauszufinden ist. Diese Methode wird elliptic curve Diffie-Hellman (ECDH) genannt. Alice und Bob einigen sich auf eine elliptische Kurve mit den Parametern a und b, ein endliches Feld der Primordnung p, und einen Generatorpunkt G. Alice wählt einen privaten Schlüssel dA und Bob wählt dB und beide veröffentlichen ihre jeweiligen öffentlichen Schlüssel PA = dA ⊙ G und PB = dB ⊙ G, die zwei Punkte auf der Kurve beschreiben. Alice berechnet dann SA = dA ⊙ PB = (dA dB ) ⊙ G und Bob berechnet SB = dB ⊙ PA = (dB dA ) ⊙ G, wobei alle Berechnungen modulo n durchgeführt werden. Wir sehen, dass sie auf das gleiche Geheimnis S = SA = SB kommen, das sie zur Verschlüsselung der nachfolgenden Kommunikation verwenden können, zum Beispiel mit AES. Aber elliptische Kurven können auch zum Signieren von Dokumenten verwendet werden, zum Beispiel dem Hash Wert h der Nachricht m? Diese Methode

12.8  Bitcoins und Blockchains

239

wird als elliptic curve digital signature algorithm (ECDSA) bezeichnet. Gegeben die Kurvenparameter a und b, der Startpunkt G und die Ordnung der Gruppe n, wählt Alice ihr Geheimnis, den privaten Schlüssel d. Dann berechnet sie einen Punkt P = d ⊙ G auf der Kurve. Dies ist ihr öffentlicher Schlüssel, den sie öffentlich bekannt macht. Kennt man einen Punkt P auf der Kurve, ist es praktisch unmöglich zu bestimmen, wie viele Iterationen d benötigt werden, um von dem Generator G, dorthin zu gelangen was die Sicherheit des Systems gewährleistet. Um den Hash h zu signieren, wählt sie eine zufällige Zahl k im Bereich von 1 bis n − 1, was einen weiteren Punkt R = k ⊙ G auf der Kurve bestimmt. Wir betonen, dass k wirklich zufällig sein muss und insbesondere nicht in einer zweiten Transaktion wiederverwendet werden darf, da dies die Bestimmung des privaten Schlüssels d ermöglichen würde. Die horizontale Koordinate r(mod n) des Punktes R = (r, ·) ist ein Teil der Signatur. Der zweite Teil der Signatur s wird aus dem Hash h, dem privaten Schlüssel d, dem Zufallswert k und der Koordinate r berechnet, indem s = (h + rd)/k(mod n) berechnet wird. Alice übermittelt dann die Nachricht m und die Signatur (r, s) an Bob. Bob überprüft die Signatur, indem er den Hash h von m mit der gleichen HashFunktion wie Alice berechnet. Mit h und der Signatur (r, s) berechnet er dann Q = (h/s) ⊙ G + (r/s) ⊙ P(mod n). Lassen Sie uns bestimmen, was er finden sollte, wenn die Signatur gültig ist

Q=

r h rd h + rd h G+ P = G+ G= G = kG = R, s s s s (h + rd)/k

(12.35)

wobei alle Berechnungen modulo n durchgeführt werden und wir das ⊙ weggelassen haben. In der zweiten Gleichheit haben wir P = d ⊙ G verwendet und in der dritten haben wir die Definition der Signatur s eingefügt. Wir stellen fest, dass die Signatur gültig ist, wenn die horizontale Koordinate von Q die gleiche ist wie die horizontale Koordinate von R, welches r ist. Beachten Sie, dass der Zweck des Aufbaus der Signatur (r, s) auf solch eine verschlungene Weise darin besteht, das Reverse-Engineering des privaten Schlüssels praktisch unmöglich zu machen, während die Validierung durch die Berechnung von Q recht einfach ist. Auf diese Weise kann Alice Nachrichten m an Bob senden und er kann überprüfen, ob sie tatsächlich von ihr stammt und von niemand anderem. Außerdem wird jede Änderung an m die alte Signatur ungültig machen und wir müssen erneut signieren. Dies ist eine der Schlüsselfunktionen, die das Fälschen der Datensätze in der Datenbank der Transaktionen in der Bitcoin-Infrastruktur verhindert.

12.8 Bitcoins und Blockchains Die Kryptowährung „Bitcoin“ unterhält eine offen zugängliche Datenbank – die Blockchain – die alle Transaktionen der zugrunde liegenden Währung – den Bitcoins – von einem Besitzer zum nächsten aufzeichnet. Die Struktur der Blockchain-

12 Kryptowährungen

240

Datenbank erlaubt nur das Hinzufügen neuer Transaktionen zur Blockchain und das Lesen zuvor geschriebener. Im Gegensatz zu herkömmlichen Datenbanken ist das Aktualisieren oder Löschen von Einträgen in der Datenbank nicht möglich. Darüber hinaus werden mehrere Kopien der Blockchain von vielen vollständigen Knoten des Bitcoin Netzwerks, dargestellt als die schattierten roten Kreise in Abb. 12.8, gepflegt. Ein ausgeklügelter Konsensalgorithmus, implementiert durch die Miner, dargestellt als die grün schattierten Ovale in Abb. 12.8, gewährleistet die Konsistenz zwischen mehreren Kopien auf deterministische Weise. Die Aufrechterhaltung eines einzigartigen Zustands unter vielen identischen Kopien der Blockchain garantiert eine hohe Widerstandsfähigkeit gegen das Entfernen von Knoten, sei es aufgrund von Fehlfunktionen oder aufgrund von Zensur. Jeder Besitzer von Bitcoins kann daher immer seinen Besitz von Bitcoins durch das Lesen aus der Blockchain auf jedem Knoten bestätigen. Das Vertrauen in die Bitcoin-Kryptowährung wird somit durch die Unveränderlichkeit der Blockchain und den Konsens Algorithmus zur Gewährleistung der Identität aller Kopien hergestellt. Sobald eine Transaktion und damit der Besitz eines Bitcoins in der Blockchain verzeichnet ist, bleibt sie dort für immer – sie ist unveränderlich. Die Blockchain-Datenbank erfüllt daher die abstrakte Definition von „Geld“ vom Anfang dieses Kapitels: Sie hält einen Nachweis über die Kaufkraft fest. Da alle Transaktionen seit der Einführung des Systems im Jahr 2009 aufgezeichnet sind, ist die Datenbank umfangreich. Zum Zeitpunkt des Schreibens im Juni 2020 hat sie eine Größe von etwa 280 GB. Der Betrieb der Blockchain wird durch den Konsensalgorithmus und die Unveränderlichkeit der Aufzeichnungen geregelt. Sie wird nicht von einer externen Autorität überwacht, was Satoshi Nakamoto gefiel, dem mysteriösen Autor des Whitepapers [14], das die Bitcoin-Infrastruktur skizziert. Satoshi, dessen Identität unbekannt bleibt, war enttäuscht von der Handhabung des USImmobiliencrashs von 2008 durch die Bundesbehörden, die die Banken auf

Vollständiger Knoten Alices Wallet:

privater Schlüssel:

öffentlicher Schlüssel: öffentlicher Betrag:

Alice

Wallet Miner

Internet

Bob

Abb. 12.8  Das Bitcoin-Netzwerk besteht aus vollständigen Knoten, die die gesamte BitcoinDatenbank hosten, Minern, die die Integrität der Datenbank sicherstellen, und Clients – Alice und Bob – mit einer Wallet, die das Netzwerk zur Übertragung von Bitcoins nutzen

12.8  Bitcoins und Blockchains

241

Kosten der Steuerzahler retteten. Im Jahr 2008 veröffentlichte er die Beschreibung der Bitcoin-Kryptowährung auf einer Mailingliste [14] und stellte den Quellcode einer Implementierung auf einem öffentlichen Repository zur Verfügung. Das System ging im Januar 2009 online. Die ersten Bitcoins hatten einen sehr geringen Wert, sie sind schließlich nur Bits im Speicher eines Computers, aber bald konnten sie verwendet werden, um reale Gegenstände zu kaufen, wie eine Pizza, die 20.000 Bitcoins kostete, was der erste Handel war, der Bitcoins mit der realen Wirtschaft verband. Im Laufe der Jahre wuchsen diese Verbindungen, da Bitcoins verwendet werden konnten, um Waren und Dienstleistungen zu bezahlen und, was wichtig ist, gegen konventionelle Währungen getauscht werden konnten. In vielen Ländern sind sogar die Gewinne aus dem Handel mit Bitcoins steuerpflichtig. Der Wechselkurs von Bitcoins (BTC auf ausländischen Börsen) ist sehr volatil. Von einem Wechselkurs von etwa 400 US$ pro Bitcoin Anfang 2016 stieg er Ende 2017 auf fast 20.000 US$. Zum Zeitpunkt des Schreibens liegt er bei etwa 9000 US$. Um zu verstehen, wie das Bitcoin-System funktioniert, folgen wir dem Geld und betrachten Alice, die nach ihrem Abschluss eine Wallet mit einem Bitcoin, im Wert von 108 Satoshis, von einer reichen Tante erhalten hat. Eine Wallet ist ein Computerprogramm, das ein privates und ein öffentliches Schlüsselpaar verwaltet, wie es auf der linken Seite in Abb. 12.8 dargestellt ist. Da Bitcoin die elliptische Kurvenkryptographie secp256k1 verwendet, ist der private Schlüssel dA eine 256Bit lange Ganzzahl und ihr öffentlicher Schlüssel ist der Punkt PA = dA ⊙ G. Die Wallet kann auf einer Vielzahl von Plattformen laufen, einschließlich ihres Smartphones, das sie sorgfältig bewachen muss, damit nur sie Zugang zu dA hat. Jetzt möchte sie Bob für ihren Anteil an einer Pizza bezahlen – etwa 9 $ oder 105 Satoshis. Daher startet sie ihr Wallet-Programm und fragt Bob nach seinem öffentlichen Schlüssel PB bevor sie die Überweisung einleitet, die nur eine Nachricht mA ist, die besagt, dass 105 Satoshis von PA zu PB übergehen. Das Wallet berechnet dann den SHA-256-Hash von mA, was zu hA führt, das Alice mit ihrem privaten Schlüssel dA signiert was den signierten Hash hˆ A liefert. Schließlich sendet die Wallet das Paket aus mA und hˆ A an das Bitcoin-System, wo es in einem Pool landet und darauf wartet, verarbeitet zu werden. Dieser Pool wird von den Minern, nennen wir einen von ihnen Marge, geleert wird, die zusammen mit vielen anderen Minern daran arbeiten, Transaktionen zu verifizieren und sie dann in die Blockchain-Datenbank einzutragen. Marge arbeitet eine lange Liste von Transaktionen ab und wenn sie zu PA’s Transaktion mA kommt, überprüft sie, ob die Wallet PA tatsächlich ausreichend Bitcoins hat, dass hˆ A signiert von PA ist und der Hash von mA auch hA ergibt. Schließlich stellt Marge sicher, dass PB eine gültige Zieladresse ist. Wenn die Transaktion mA diese Tests besteht, legt sie mA und ihren Hash hA in die Liste der validierten Transaktionen, die unten in Abb. 12.9 gezeigt wird. Nachdem alle Transaktionen validiert sind, beginnt Marge mit dem Aufbau des nächsten Blocks, hier bezeichnet als Block n der Blockchain. Sie kombiniert zwei sukzessive Hashes,

12 Kryptowährungen

242

Block n-1

Prev. hash 0x00..072E MerkleWurzel

Zeitstempel Nonce

Block n

Prev. hash 0x00..0A1F MerkleWurzel

Zeitstempel Nonce

Gemeinsamer Hash Ihre Hashes Transaktionen Abb. 12.9  Zwei aufeinanderfolgende Blöcke in der Blockchain sind verknüpft, indem der Hash des vorherigen Blocks in den nächsten (rot) eingefügt wird. Jeder Block enthält die MerkleWurzel, die aus den Hashes einer Anzahl von Transaktionen, einem Zeitstempel und einer Nonce konstruiert wird. Der Wert der Nonce wird angepasst, um einen Hash des gesamten Blocks zu erhalten, der kleiner als eine gegebene Grenze ist, was den Nachweis der Arbeit des Miners zeigt

um einen Merkle-Baum zu bilden und speichert die Wurzel des Baums im Block, neben einem Zeitstempel und dem Hash des abgeschlossenen vorherigen Blocks, was die Kontinuität und die eindeutige Verknüpfung der Blöcke in der Blockchain gewährleistet. Schließlich muss Marge ihre Arbeit validieren, indem sie eine Dummy-Variable variiert, die als Nonce bezeichnet wird, um sicherzustellen, dass der Hash des Blocks n mit einer bestimmten Anzahl von Nullen beginnt. Dieser Schritt ist erforderlich, um sicherzustellen, dass der jenige unter den Minern mit der schnellsten Hardware diesen Schritt zuerst abschließt. Sobald Block n abgeschlossen ist, kann die Arbeit am nächsten Block n + 1 beginnen. Dieses Proof of Work Schema stellt sicher, dass die Transaktion mA Teil eines Blocks ist, der schnell unter einer großen Anzahl aufeinanderfolgender Blöcke begraben wird. Die Umkehrung der Transaktion würde erfordern, alle nachfolgenden Transaktionen und Blöcke neu zu berechnen und würde noch leistungsfähigere Hardware erfordern. Dieses Schema leistet daher einen wesentlichen Beitrag zur Integrität des Bitcoin-Netzwerks und verhindert das doppelte Ausgeben von Bitcoins. Das System passt regelmäßig die Schwierigkeit der Berechnung des endgültigen Hashs für einen Block an, so dass alle 10 min ein neuer Block erzeugt wird, was das System auch an immer leistungsfähigere Hardware anpasst. Vorausgesetzt, dass Marge die erste ist, die Block n abschließt, postet sie ihn ins Bitcoin-Netzwerk, so dass alle anderen Knoten ihn an ihre Kopie der Blockchain anhängen und nachfolgende Blöcke darauf verweisen. Wenn die Blockchain versehentlich in zwei Zweige aufgeteilt wird, besteht der Konsens darin, dass die längste Kette das leistungsfähigste Mining-System darstellt und fortan verwendet wird, während die anderen, veralteten Zweige aussterben. Die Transaktionen auf dem veralteten Zweig kehren zum Pool zurück. Auf diese Weise bleiben alle

12.9  Ethereum und Smart Contracts

243

Kopien der Blockchain synchronisiert und repräsentieren einen eindeutigen Zustand des Bitcoin-Netzwerks. Marge wird für ihren Dienst zur Aufrechterhaltung der Integrität des Bitcoin-Netzwerks belohnt, indem sie eine Anzahl von Bitcoins, derzeit 6,25 Bitcoins, für einen abgeschlossenen Block erhält. Bob kann sicher sein, dass die 105 Satoshis, die Alice gesendet hat, tatsächlich in seiner Tasche sind, nachdem der Block, der die Transaktion mA enthält, unter sechs Blöcken mit einem späteren Zeitstempel begraben ist. An diesem Punkt ist das Eigentum an den 105 Satoshis tief in der Datenbank – der Blockchain – begraben. Da die Nachricht mA, die öffentlich zugänglich ist, nur die öffentlichen Schlüssel PA und PB enthält, bietet das System ein gewisses Maß an Anonymität, es sei denn, es ist möglich, den öffentlichen Schlüssel PA mit Alice, der Person, zu verknüpfen. Der Bezahlungsmechanismus für die Miner ist der einzige Weg, neue Bitcoins bis zu einem Maximum von 21 × 106 Bitcoins zu erstellen. Um dieses Limit asymptotisch zu erreichen, wird das Mining zunehmend schwieriger, da mehr führende Nullen im Hash eines Blocks vorhanden sein müssen, während die Anzahl der Bitcoins als Lohn stetig reduziert wird. Dies stellt sicher, dass Bitcoins knapp bleiben und nicht aufgrund von Überangebot an Inflation leiden. Allerdings werden die erhaltenen Bitcoins irgendwann nicht ausreichen, um den Betrieb der Mining-Operationen zu finanzieren. Dann werden die Miner den Initiator einer Transaktion auffordern, eine Transaktionsgebühr zu zahlen. Dies ist freiwillig, aber Miner werden wahrscheinlich nur Transaktionen bearbeiten, die eine Gebühr bieten. Darüber hinaus wird die große Menge an Rechen- und Stromleistung, die zum Minen von Bitcoins benötigt wird, kritisiert, insbesondere wenn man die vielen erfolglosen konkurrierenden Miner berücksichtigt. Der daraus resultierende CO2-Fußabdruck des Bitcoin-Netzwerks ist ziemlich groß, hauptsächlich aufgrund des Proof-of-Work-Schemas, das im Wettbewerbsmining-Prozess verwendet wird. Moderne, auf Blockchain basierende Netzwerke adressieren einige der Kritikpunkte und bieten zusätzlich mehr Funktionen als das Bitcoin-Netzwerk. Ethereum ist eines dieser modernen Netzwerke.

12.9 Ethereum und Smart Contracts Die Ethereum Kryptowährung [15, 16] unterhält ihre eigene Blockchain als Datenbank. Die Infrastruktur mit Knoten zur Aufrechthaltung und Speicherung der Blockchain, Minern zur Anhängung neuer Blöcke an die Blockchain und Clients, die Transaktionen initiieren, ähnelt der von Bitcoin. Allerdings speichert die Ethereum-Blockchain neben der Aufzeichnung von Transaktionen in der zugrunde liegenden Währung, genannt Ether, auch Programmcode und Daten. Die Daten können unter der Kontrolle des Codes oder durch reguläre Transaktionen geändert werden, aber erst nachdem die Änderungen durch den Mining-Prozess in die Blockchain integriert wurden. Der auf der Blockchain gespeicherte Code

244

12 Kryptowährungen

kann nie rückwirkend geändert werden, was ihn besonders vertrauenswürdig macht. Man kann ihn beispielsweise verwenden, um automatisch Gelder zu übertragen, vorausgesetzt, bestimmte Bedingungen, die im Programmcode festgelegt sind, werden erfüllt. Ein solches kodiertes Regelwerk wird allgemein als Smart Contract bezeichnet. Er ist öffentlich zugänglich, jeder kann die Regeln sehen, aber niemand kann sie ändern. Wie Bitcoin verwendet Ethereum die elliptische Kurve secp256k1 zur Signierung der Transaktionen, nutzt jedoch die moderne Keccak256 Hashing Funktion zur Berechnung von Hashes. Wir weisen darauf hin, dass Keccak256 einige geringfügige Unterschiede zum SHA-3-Hash aufweist, der Modifikationen durch US-Regierungs- Organisationen enthält [16]. Darüber hinaus basiert der Proof-of-Work-Algorithmus auf ethash [15], der erheblichen Speicher und Bandbreite erfordert. Das unterscheidende Merkmal von Ethereum ist die Ethereum virtuelle Maschine (EVM). Sie bietet eine Laufzeitumgebung für die Smart Contracts, die in einem Zwischen-Byte-Code-Format gespeichert sind. Auf diese Weise läuft der Code auf der EVM, unabhängig von der Hardware eines Computers. Dies ist analog dazu, wie die die JAVA® Laufzeitumgebung die Ausführung von kompilierten JAVA-Programmen ermöglicht. Die von der EVM unterstützten Anweisungen sind Turing-vollständig; jeder Algorithmus, der in Computeranweisungen kodiert werden kann, kann auch für die EVM kodiert werden. Dies beinhaltet zum Beispiel unendliche Schleifen. Sie werden jedoch verhindert, indem der Aufrufer des Smart Contracts, entweder eine von Menschen kontrollierte Wallet oder ein anderer Vertrag, zur Bezahlung der Ausführung Gas bereitstellen muss, das direkt in Ether umwandelbar ist. Jede Anweisung, wie das Addieren von zwei Zahlen und jeder Zugriff auf den Speicher kostet etwas Gas. Daher würde eine unendliche Schleife zum Stillstand kommen, weil sie kein Gas mehr hat. Ein Out-of-Gas-Ereignis macht alle Aktionen des Vertrags rückgängig, während der Miner das gesamte ursprünglich zugewiesene Gas behält. Unter normalen Umständen führt ein Miner den Vertrag ohne Probleme aus, sobald er ausgelöst wird, aktualisiert er die Blockchain und erhält das verbrauchte Gas als Belohnung. Um die Verwendung von Smart Contracts zu veranschaulichen, betrachten wir eine Kneipe, die Ether als Zahlungsmittel für Getränke akzeptiert. Die Wirtin zeigt einfach einen QR-Code dem Kunden, der eine Ethereum-Wallet auf seinem Smartphone hat. Der QR-Code zeigt den Preis des Getränks und die Adresse eines Smart Contracts, an den die Zahlung gerichtet ist. Diese Wirtin ist sehr gesetzestreu und unterhält einen Smart Contract, der die eingehenden Zahlungen auf ein Steuerkonto und ein Geschäftskonto aufteilt. Der Quellcode dieses Smart Contracts, geschrieben in der Solidity Programmiersprache, ist folgender.

12.9  Ethereum und Smart Contracts

245

pragma solidity ˆ0.5.17; contract TaxCollector { uint16 drinks; constructor() public { drinks=0x0; } function drinks_total() view public returns (uint16) { return drinks; } function () external payable { address payable business=0x3a..; address payable tax=0xF2..; uint256 t=2*msg.value/10; tax.transfer(t); business.transfer(msg.value-t); drinks += 1; } }

Die pragma Direktive gibt an, welche Version des Compilers verwendet werden soll und innerhalb der contract Definition definieren wir zunächst eine globale Variable drinks, die die Gesamtzahl der jemals verkauften Getränke zählt. Als globale Variable wird sie in der Blockchain gespeichert und wird jedes Mal aktualisiert, wenn der Vertrag ausgeführt wird. Der constructor wird ausgeführt, wenn der Vertrag auf der Blockchain gespeichert wird und initialisiert die Variable drinks auf null. Die Funktion drinks_total ermöglicht es uns zu abzufragen, wie viele Getränke bisher verkauft wurden. Die letzte Funktion hat keinen Namen; sie wird als Fallback-Funktion bezeichnet. Darüber hinaus hat sie das Attribut payable, das es ihr ermöglicht, Gelder vom Kunden zu erhalten, der das Getränk gekauft und die Transaktion initiiert hat. Der erhaltene Betrag ist in der Variable msg.value zugänglich. Innerhalb der Funktion sind die Adressen der Steuer- und Geschäftskonten fest codiert. Dann wird die Steuer berechnet und in der Variable t gespeichert, bevor sie an das Steuerkonto gesendet und der Rest an das Geschäftskonto gesendet wird. Beachten Sie, dass dieser Vertrag nur illustrativ ist, aber als Ausgangspunkt für weitere Erkundungen mit der Testumgebung aus Anhang B.12 dienen kann. Andererseits sollte er nicht auf der Haupt-Ethereum-Blockchain bereitgestellt werden. Sobald die Wirtin den Smart-Vertrag geschrieben hat, kompiliert sie ihn mit einem Solidity-Compiler in Bytecode, signiert den Bytecode mit ihrem privaten Schlüssel und sendet ihn an eine reservierte Adresse, von wo aus er zur Aufnahme in die Blockchain eingeplant wird. Von nun an wird ihr Smart-Vertrag unter einer

246

12 Kryptowährungen

Adresse zugänglich sein, die dem Vertrag während des Einreichungsprozesses gegeben wird. Sie zeigt diese Adresse und den zu zahlenden Betrag auf dem dem Kunden gezeigten QR-Code an, der dann Ether an den Vertrag überweist. Diese Transaktion wird im nächsten Block aufgenommen, woraufhin der Vertrag ausgeführt wird, die drinks-Variable aktualisiert und den erhaltenen Betrag auf das Steuer- und Geschäftskonto verteilt wird. Beachten Sie, dass die Aufnahme des Vertrags in die Blockchain Gas kostet, das die Wirtin bezahlt, und dass das spätere Ausführen des Vertrags erneut Gas kostet, das der Kunde als Initiator der Transaktion bezahlt. Typischerweise entspricht das für eine Transaktion benötigte Gas Centbeträgen in Euro oder US-Dollar. Die Struktur von Smart-Verträgen mit einem Konstruktor, der zur Einreichungszeit ausgeführt wird, und einer Reihe von Funktionen, die Zugang zu Informationen über den Initiator der aufrufenden Transaktion und den globalen Zustand der Blockchain haben, ist sehr flexibel. Sie kann beispielsweise verwendet werden, um Tokens einzuführen, die als Handelseinheit dienen. Man kann an die Spielchips denken, die beim Betreten eines Casinos gekauft und anschließend für alle Glücksspiele im Haus verwendet werden. Ein zweites Beispiel sind Aktien eines Unternehmens, die den Inhabern einen Anteil am Unternehmen geben und sie zu einem Anteil an den jährlichen Dividenden berechtigen. Sogar sekundäre Kryptowährungen auf der Ethereum-Blockchain wurden eingeführt. Bibliotheken erleichtern die Einführung neuer Tokens: ERC20 [16] für austauschbare, fungible Tokens und ERC721 [17] für nicht fungible Tokens, wie virtuelle Sammlerstücke, die einzigartig sind, zum Beispiel Cryptokitties [18]. An diesem Punkt sollte klar sein, dass der Initiator einer Transaktion die Rolle eines „Kunden“ hat, der mit einem „Server“ interagiert, dessen Rolle von der Blockchain zusammen mit den Minern übernommen wird. Die Kommunikation basiert auf Standard-Netzwerkprotokollen und gut dokumentierten Schnittstellen der Smart-Verträge. Diese Infrastruktur erleichtert das Schreiben von dezentralisierten Anwendungen (DApps), bei denen die Client-Software, man kann an erweiterte Wallets denken, Nachrichten und Ether hin und her zu den Verträgen sendet. Add-ons für Browser, Kommandozeilen-Schnittstellen oder eigenständige Anwendungen sind machbar. Das Erstellen von Smart-Verträgen auf Ethereum ist nicht der einzige Weg, Blockchains zu nutzen. Frameworks wie Hyperledger [19] können verwendet werden, um Blockchains, ob privat oder öffentlich, zu implementieren, um Informationen und unternehmensspezifische Regelsätze in Smart-Verträgen zu speichern. Eine dauerhafte Aufzeichnung von Qualitätskontrolldaten in einer Datenbank, in der sie nie geändert werden können, aber Maßnahmen auslösen, wenn ein Artikel fehlerhaft ist, ist eine Anwendung. Einen Schritt weiter gehend, können Smart-Verträge die Betriebsregeln einer Gemeinschaftsunternehmung von Partnern, die sich gegenseitig nicht vertrauen, formalisieren. Das Crowdsourcing von Geldern für ein neues Projekt kann als Beispiel für eine sogenannte dezentralisierte autonome Organisation (DAO) dienen. Derzeit operieren solche Unternehmen außerhalb der Gerichtsbarkeit der meisten Länder, aber das wird sich in der Zukunft ändern [20].

12.10 Quantencomputing

247

Die Integrität dieser Organisationen beruht auf den zugrunde liegenden kryptographischen Methoden, was dazu anregt, sich mit modernen Entwicklungen in Physik und Informatik zu beschäftigen und wie sie die Kryptographie beeinträchtigen können. Die meisten kryptographischen Methoden basieren auf Falltür-Funktionen, die einfach zu berechnen, aber extrem schwierig umzukehren sind. Das klassische Beispiel ist die Zerlegung einer sehr großen Zahl in ihre Primfaktoren. Die Schwierigkeit hängt von der verfügbaren Rechenleistung ab. Da Quantencomputer völlig andere Algorithmen verwenden als die heutigen Computer, diskutieren wir kurz ihre Funktionsweise und inwieweit sie eine Bedrohung für die Kryptographie darstellen.

12.10 Quantencomputing Die Sicherheit vieler Kryptographie Algorithmen basiert auf der Tatsache, dass es praktisch unmöglich ist, die Faktoren p und q einer sehr großen Zahl N = pq zu finden. Dieses Problem ist jedoch gleichwertig mit der Suche nach der Periode r, so dass x r = 1 (mod N) für eine zufällig gewählte x < N , teilerfremd mit N ist. Die Periode r zu finden, ist genauso schwierig wie das Finden der Primfaktoren und könnte praktisch ewig dauern, wenn N groß ist. Quantencomputer versprechen jedoch, dies effizient zu tun, wie wir weiter unten diskutieren werden. Gehen wir vorerst davon aus, dass einige technische Bedingungen erfüllt sind, dass die Periode r bekannt ist und sich als gerade Zahl herausstellt. Dies ermöglicht es uns, x r = 1 (mod N) umzuschreiben als

(x r/2 − 1)(x r/2 + 1) = kN

(12.36)

für eine ganze Zahl k

aus der wir schließen, dass p = gcd(x − 1, N) und q = gcd(x + 1, N) Faktoren von N sind. Der Versuch, N = 15 zu faktorisieren, liefert ein Beispiel mit den kleinsten nicht-trivialen Ganzzahlen. Wählen wir x = 7, was zur Sequenz x k = {7, 4, 13, 1, 7, 4, . . . } für k = 1, 2, . . . und wir finden x 4 = 1, was impliziert r = 4. Für die Faktoren erhalten wir dann p = gcd(x r/2 − 1, N) = gcd(48, 15) = 3 und q = gcd(x r/2 + 1, N) = 5, beide teilen N = 15. Beachten Sie, dass die meisten Schritte, wie das Finden des größten gemeinsamen Teilers, wenig Zeit in Anspruch nehmen. Nur die Bestimmung der Periode r ist mit klassischen Computern extrem zeitaufwendig. In seinem bahnbrechenden Bericht [21] zeigte Shor, wie die Verwendung eines Quantencomputers diese Zeit dramatisch reduzieren kann, was auf lange Sicht viele kryptografische Algorithmen gefährden könnte. Bevor wir über Quantencomputer sprechen, erinnern wir uns kurz an die Funktionsweise klassischer Computer, die auf Logikgattern basieren, die Operationen der Booleschen Algebra implementieren. Da boolesche „Zustände“ entweder wahr oder falsch sind, werden sie durch „1“ und „0“ repräsentiert. Der obere Teil der linken Seite in Abb. 12.10 zeigt ein Gatter, das eine logische nicht Operation implementiert, die den Eingang A invertiert und ihn an seinem Ausgang X verfügbar macht. Die Schaltung darunter zeigt ein logisches UND Gatter r/2

r/2

248

12 Kryptowährungen

Abb. 12.10  Links: NICHT (oben) und NAND (unten) Gatter und die Tabelle, die die Beziehung der Ausgänge X und Y zu den Eingängen A und B beschreibt. Rechts: Halbaddierer, bestehend aus NAND-Gattern, die die Summe S und ein Übertragungsbit C der Eingänge A und B berechnen.

mit invertiertem Ausgang, was zu einem nicht-und, oder NAND-Gatter führt. Die Tabellen unter den beiden Schaltungen zeigen die Ausgänge X und Y, die den Eingangswerten A und B entsprechen. Komplexere logische Operationen, wie das Addieren von zwei Binärziffern im Halbaddierer, gezeigt auf der rechten Seite in Abb. 12.10, können mit geeignet verbundenen NAND-Gattern konstruiert werden. Die Tabelle unter der Schaltung veranschaulicht, wie die Eingänge A und B kombiniert werden, um die Summe S und ein Übertragungsbit C zu erzeugen. Alle digitalen Geräte, einschließlich der Prozessoren, die moderne Computer antreiben, bestehen aus vielen solchen elementaren Bausteinen. Wir betonen, dass ein Zustand in einem der logischen Zustände „0“ und „1“ sein muss, was ein Bit darstellt. Quanten Computer [22], andererseits, arbeiten mit Qubits, die quantenmechanische Zustände sind, die als Spins visualisiert werden können, die nach oben oder unten zeigen können und üblicherweise als |0� und |1� dargestellt werden. Im Gegensatz zu klassischen Bits können Qubits in Überlagerungszuständen sein α|0� + β|1� mit α 2 + β 2 = 1; Schrödingers Katze befindet sich in einem solchen Zustand. Anstatt die Dirac-Notation zu verwenden, können wir die Qubits genauso gut als Spaltenvektoren schreiben, wie zum Beispiel       1 0 α |0� = , |1� = , und α|0� + β|1� = . (12.37) 0 1 β Quantenmechanische Operatoren übernehmen die Rolle der Logikgatter und die Pauli-Matrix σx [23], auf der linken Seite in (12.38) dargestellt, wirkt ähnlich wie ein Inverter; es tauscht die „0“ und „1“ Komponente eines Qubits aus.       1 1 1 0 0 1 1 σx = , H=√ , Rk = k (12.38) 1 0 0 e2π i/2 2 1 −1 Der Hadamard Operator H, gezeigt in der zweiten Gleichung, erzeugt√eine Über√ lagerung der „0“ und „1“ Komponenten mit α = 1/ 2 und β = ±1/ 2. Rk, auf

12.10 Quantencomputing

249

der rechten Seite in (12.38) gezeigt, fügt einer der Komponenten einen Phasenfaktor hinzu. Beachten Sie, dass diese Operatoren ein Qubit an ihrem Eingang in ein Qubit an ihrem Ausgang transformieren. Darüber hinaus werden alle Operatoren als unitäre Matrizen dargestellt, weil sie die Transformation eines Spin-Zustands in einen anderen Spin-Zustand beschreiben, aber sie ändern nicht den Absolutwert des Spins. Um Multi-Input-Gatter zu beschreiben, führen wir Zustände ein, die mehrere Qubits q1 und q2 als das Tensorprodukt der einzelnen Qubits beschreiben: |q1 q2 � = |q1 � ⊗ |q2 �. Mit dieser Notation führen wir das kontrollierte Nicht, oder CNOT-Gate ein, das auf zwei Qubits operiert. |q1 q2 � und kippt q2, aber nur wenn q1 = 1. Wir können es daher durch

CNOT = |00��00| + |01��01| + |10��11| + |11��10|,

(12.39)

beschreiben, wobei �q| das Transponierte von |q� ist. Es ist einfach zu verstehen, wie CNOT auf zum Beispiel |11� wirkt, weil nur der dritte Term in (12.39) nicht null ist und zu |10� am Ausgang führt. Da das erste Qubit „1“ ist, wird das zweite Qubit umgekehrt. Analog dazu führen wir das gesteuerte-Rk Gatter ein: es wendet Rk an, vorausgesetzt dass ein Kontroll-Qubit „1“ ist. Die Hadamard- und CNOT-Operatoren, zusammen mit mehreren anderen Operatoren, übernehmen die Rolle der Logikgatter in klassischen Schaltkreisen und sie werden verwendet, um Quantenschaltkreise zu konstruieren, wie den in Abb. 12.11 gezeigten. Wir beginnen den Betrieb des Schaltkreises mit zwei Qubits q1 und q2, jeweils vorbereitet im Zustand |0�. Mit dem zweiten Qubit passiert im ersten Zeitschritt nichts, was durch den Einheitsoperator in der unteren Spur angezeigt wird. Gleichzeitig ändert ein Hadamard-Operator q1 in der oberen Spur. Zu √ diesem Zeitpunkt befindet sich das System im Zustand |q1 q2 �a = (|00� + |10�)/ 2. Das folgende CNOT-Gatter wird nur q2 im zweiten √ Term umklappen, so dass das System den Zustand |q1 q2 �b = (|00� + |11�)/ 2 einnimmt. Dieser Zustand wird verschränkt genannt, weil es eine Überlagerung von Qubits ist, die immer gleich sind. Betrachten Sie das Messgerät G1 in der oberen Spur in Abb. 12.11, das entweder „0“ oder „1“ misst, jeweils mit einer Wahrscheinlichkeit von 1/2. Führt man also die Berechnung mit diesem Schalt-

Abb. 12.11  Vorbereitung eines verschränkten Zustands durch erstmalige Vorbereitung von zwei Qubits im Zustand „0“ und anschließendes Durchlaufenlassen durch einen Quantenschaltkreis, bestehend aus einem Hadamard- und einem CNOT-Gate. Der kleine volle Kreis ist verbunden mit dem Kontroll-Qubit q1 und dem ⊕ zum Qubit, das geändert wird. Die Messgeräte G1 und G2 werden verwendet, um den Endzustand zu messen

12 Kryptowährungen

250

kreis viele Male durch, so tritt jedes Ergebnis mit annähernd gleicher Häufigkeit auf. Aber welches Ergebnis auch immer erzielt wird, die anschließende Messung von q2 mit G2 zeigt immer das gleiche G2 = G1. Vor der Messung mit G1 war der Zustand unentschieden und die Wahrscheinlichkeiten gleich, aber sobald wir mit der Messung mit G1 beginnen, „entscheidet das System“ und dann hat G2 keine andere Möglichkeit, als G1 zu folgen. Beachten Sie wie die Verschränkung das Ergebnis von G1 und G2 verschränkt. Hier wird der Determinismus klassischer Schaltkreise durch die probabilistische Natur der Quanten Mechanik ersetzt, bei der mehrere Qubits verschränkt sind. Komplexere Quantenschaltkreise können aus mehreren Quantengattern bestehen, die auf mehrere Qubits wirken; ein wichtiges Beispiel ist die QuantenFourier-Transformation (QFT). Sie transformiert die N = 2m Zustände, die durch m Qubits am Eingang zu Qubits am Ausgang ausgedrückt werden können, die zusätzliche Phasenfaktoren e2π ijk/N enthalten. Hier kennzeichnen j und k mit 0 ≤ j, k ≤ N − 1 die N verschiedenen Zustände. Um den Algorithmus zu veranschaulichen, analysieren wir sorgfältig die m = 3 Qubit-Version. Ein entscheidender Trick in der Analyse besteht darin, j und k durch ihre binären Darstellungen auszudrücken j = q1 4 + q2 2 + q1 und k = q˜ 1 4 + q˜ 2 2 + q˜ 3, wobei q die drei Qubits am Eingang bezeichnet und q˜ die drei Qubits am Ausgang der Schaltung. 7

1  2π ijk/8 |q1 q2 q3 � → √ e |˜q1 q˜ 2 q˜ 3 � 8 k=0

1 1 1 1    2π ij(˜q1 4+˜q2 2+˜q3 )/8 e |˜q1 q˜ 2 q˜ 3 � =√ 8 q˜ =0 q˜ =0 q˜ =0 1

1 

2

3

1 1   1 e2π ijq˜ 1 /2 |˜q1 � ⊗ e2π ijq˜ 2 /4 |˜q2 � ⊗ e2π ijq˜ 3 /8 |˜q3 � =√ 8 q˜ =0 q˜ =0 q˜ =0 1

2

3

     1  = √ |0� + e2π ij/2 |1� ⊗ |0� + e2π ij/4 |1� ⊗ |0� + e2π ij/8 |1� 8    1  = √ |0� + e2π iq3 /2 |1� ⊗ |0� + e2π i(q2 /2+q3 /4) |1� 8   ⊗ |0� + e2π i(q1 /2+q2 /4+q3 /8) |1� (12.40)

i(2q1 +q2 ) = 1 für alle Beim Auswerten der ersten Klammer verwenden wir, dass e2π√ Werte von q1 und q2 gilt. Darüber hinaus stellt der Faktor 1/ 8 sicher, dass die Transformation unitär ist. Wir weisen darauf hin, dass es einfach ist, die Methode auf mehr Qubits zu verallgemeinern. Die letzte Gleichung aus (12.40) kann leicht in die Montage von Quantengattern übersetzt werden, die in Abb. 12.12 gezeigt wird. Die Hadamard-Gatter H dreht Vorzeichen für den |1� Zustand um, konsistent mit (12.38). Die Rk-Gates verursachen eine Phasenverschiebung des „1“-Zustands, vorausgesetzt, dass das konditionierende Qubit, angezeigt durch

251

12.10 Quantencomputing

Abb. 12.12   Schaltung für √ die dreiquantige normalisierenden Faktoren 1/ 2 werden weggelassen

Quanten-Fourier-Transformation.

Die

den schwarzen Punkt, „1“ ist. Wir weisen darauf hin, dass alle Quantengatter und folglich auch zusammengesetzte Schaltkreise unitär sind, sie sind umkehrbar, was uns erlaubt, den QFT-Schaltkreis rückwärts zu verwenden, um die inverse QFT zu berechnen. Beachten Sie außerdem, wie diese Gatter drei Qubits verschränken, um die Fourier-Transformation auf N = 8 Zuständen mit nur sechs Gates durchzuführen. Dies scheint sehr effizient zu sein, wenn man bedenkt, dass eine klassische Fourier-Transformation von N Datenpunkten N 2 = 64 Multiplikationen erfordert. Selbst eine schnelle Fourier-Transformation erfordert in der Größenordnung von N log2 N = 24 Multiplikationen. Andererseits ist es schwierig, die gewünschten spektralen Informationen aus den Qubits am Ausgang zu extrahieren, da nur Phaseninformationen vorhanden sind. Obwohl die QFT keine direkten spektralen Informationen liefert, ist sie in anderer Hinsicht sehr nützlich, wie zum Beispiel bei der Bestimmung der Periode eines zyklischen Prozesses, genannt Ordnungsfindung, und Phasenschätzung φ von einem unbekannten unitären Operator U im Eigenzustand |u�, gegeben durch U|u� = e2π iφ |u�. Der Operator U wird von einem Qubit gesteuert, das Phase und Qubit verschränkt. Darüber hinaus nehmen wir an, dass die Phase durch φ = q1 /2 + q2 /4 + q3 /8 approximiert wird, wobei q1 , q2, und q3 eine binäre Darstellung von φ liefern. Abb. 12.13 veranschaulicht den Phasenschätzkreis, der aus drei Qubits besteht, die auf |0� initialisiert sind und anschließend mit den

Abb. 12.13  Schaltung zur Bestimmung der binären Darstellung φ = q1 /2 + q2 /4 + q3 /8 der Phase φ des Eigenzustands |u� des Operators U

12 Kryptowährungen

252

Hadamard-Operatoren H in einen überlagerten Zustand versetzt werden. Das zweite Register beschreibt den Eigenzustand |u�, welches eine Phasenverschiebung von e2π ikφ erfährt, wenn es den Operator U k passiert. Die Verschränkung mit dem steuernden Qubit führt dazu, dass die Phase der |1� Komponente den zusätzlichen Phasenfaktor e2π ikφ erhält. Wenn wir nun die Phase φ durch ihre binäre Darstellung ausdrücken, erhalten wir die Beschreibung auf der rechten Seite in Abb. 12.13. Beachten Sie, dass diese zusätzlichen Phasenfaktoren genau wie das Ergebnis der QFT in Abb. 12.12 aussehen. Da die QFT umkehrbar ist, fügen wir einfach den Schaltkreis aus Abb. 12.12, aber in umgekehrter Reihenfolge, auf der rechten Seite von Abb. 12.13 hinzu. Durch Hinzufügen von Messgeräten zum Ausgang können wir dann das Bitmuster wiederherstellen, das die Phase φ beschreibt. Jetzt haben wir alle Werkzeuge zur Verfügung, um die Ordnung r vom Anfang dieses Abschnitts und definiert durch x r = 1 (mod N) zu bestimmen. Alles, was wir tun müssen, ist einen unitären Operator U zu konstruieren, der es uns ermöglicht, die Suche nach r in eine Suche nach einer Phase φ zu übersetzen. Betrachten wir die Zustände |x k (mod N)� und den Operator U definiert durch U|x k (mod N)� = |xx k (mod N)� = |x k+1 (mod N)�. Geleitet von der Idee, dass die Summe aller Zustände innerhalb einer kPeriode r sich unter der Operation von U wiederholt, erkennen wir, dass r−1 k=0 |x (mod N)� ein Eigenvektor von U mit dem Eigenwert 1 ist. Ebenso ist es einfach zu zeigen, dass r−1 1  −2π iks/r k e |x (mod N)� |us � = √ r k=0

(12.41)

ein Eigenvektor von U mit dem Eigenwert e2π is/r für alle 0 ≤ s ≤ r − 1 ist. Beachten Sie, dass die Phase, die wir suchen, hier als φ = s/r gegeben ist. Das Problem ist, dass wir r nicht kennen und daher den Eigenvektor nicht direkt bestimmen können, um die Phasenschätzungsmethode aus dem vorherigen Absatz anzuwenden. Es stellt sich jedoch  √ heraus, r−1 dass die Summe der verschiedenen r|us � den Zustand |1� ergibt, oder 1/ r s=0 |us � = |1�, so dass wir den Vektor |u� für die Phasenschätzung einfach mit |1� initialisieren. Das mehrfache Durchführen der Phasenschätzung erzeugt dann Phasen mit unterschiedlichen Verhältnissen s/r, aber die Werte, die zur korrekten Periode r gehören, treten häufiger auf. Abb. 12.14 veranschaulicht den Algorithmus zur Findung von r für N = 15, was m = 4 Qubits zur Beschreibung des Eigenzustands |u� erfordert, der auf |1� initialisiert ist, wie auf der linken unteren Seite der Abbildung gezeigt. Der j Eigenzustand |u� durchläuft acht kontrollierte unitäre Transformationen U 2 für j j = 0, . . . , 7 und die entsprechenden Phaseninkremente 2 φ sind verschränkt mit den Qubits der Phasenmessschaltung, die im oberen Teil der Abbildung gezeigt wird. Um eine genaue Messung der Phase φ = s/r zu erhalten, das ist das Verhältnis von zwei vier-Bit-Zahlen, wählen wir 2m = 8 Qubits für den Phasenschätzungsschaltkreis, was auch die Anzahl der unitären Transformationen erklärt. Der Rest des Phasenschätzungsschaltkreises besteht, wie zuvor, aus Hadamard-Gattern, der inversen QFT, und den Messgeräten zur Bestimmung des Bit-Musters, das die Phase φ = s/r beschreibt. Beachten Sie, dass φ in Form einer Bruchbinär-

12.10 Quantencomputing

253

Abb. 12.14  Schaltung zur Bestimmung der Ordnung r aus (12.36). Der Operator U ist so konstruiert, dass er die Potenz k eines Zustands |x k (mod N)� erhöht. Der linke Teil der Schaltung bestimmt eine binäre Darstellung von φ = s/r und die inverse Quanten-Fourier-Transformation macht die einzelnen Qubits auf den Messgeräten sichtbar. Siehe den Text für Details und für Definitionen der Symbole

erweiterung gegeben ist. In einem letzten Schritt müssen wir daher einen Bruch s/r finden, der nahe am gemessenen Wert φ liegt und einen Nenner r ′ hat, der kleiner ist als N, was mit Kettenbruchentwicklung gemacht werden kann. Ein solcher Wert von r ′ ist dann ein Kandidat für die Periode r, die die Faktoren von N bestimmt und somit das Faktorisierungsproblem löst, wie im ersten Abschnitt dieses Abschnitts besprochen. Wir betonen, dass gezeigt werden kann dass die Anzahl der benötigten Quantengatter mit der Anzahl der Bits m skaliert mit m3 um N zu beschreiben [22]. √ Im Gegensatz dazu skaliert das Testen aller Primzahlen kleiner als N mit 2m/2 und das ist für sehr große Zahlen nicht machbar. Beachten Sie, dass wir 3m = 12 Qubits benötigen, um die vier-Bit-Zahl N = 15 zu faktorisieren. Die Faktoren mit einer großen Anzahl von Bits zu finden, sagen wir N = 300 würde einen Schaltkreis mit 900 Qubits erfordern, was weit über das derzeit Machbare hinausgeht. Darüber hinaus ist die Konstruktion der kontrollierten-U-Gates sehr schwierig und stellt derzeit eine Einschränkung dar, um den Algorithmus auf größere m zu skalieren. Derzeit ist die größte faktorisierte Zahl 21. Daher scheinen Algorithmen wie RSA vorerst sicher zu sein. Und sollten in der Zukunft leistungsfähigere Quantencomputer verfügbar werden, können Alice und Bob immer verschränkte Zustände verwenden, um sich auf einen geheimen Schlüssel zu einigen, den selbst Quantencomputer nicht herausfinden können. Übungen 1. Zeigen Sie, dass für pi = 1/n für i = 1, . . . , n, (12.2) zu (12.1) zurückkehrt. 2. Bestimmen Sie die Wahrscheinlichkeiten px (xi ) und py (yj ), die gemeinsamen Wahrscheinlichkeiten pxy (xi , yj ), sowie die bedingten Wahrscheinlichkeiten pxy (xi |yj ) für den in Abb. 12.2 dargestellten binären Kanal.

254

12 Kryptowährungen

3. Bestimmen Sie H[x],H[y],H[x,y] und H[y|x] für den binären Kanal aus Abb. 12.2. 4. Wenn xi und yj statistisch unabhängig sind, faktorisiert die gemeinsame Wahrscheinlichkeitsverteilungsfunktion und kann als pxy (xi , yj ) = px (xi )py (yj ) geschrieben werden. Zeigen Sie, dass dies H[x, y] = H[x] + H[y]impliziert. 5. Zeigen Sie, dass H[y|x] = H[y] gilt, wenn xi und yj statistisch unabhängig sind. 6. Alice und Bob bestimmen, den Diffie-Hellman-Schlüsselaustauschme­ chanismus mit p = 9967 und g = 33 zu verwenden. Alice sendet ihre öffentliche Nummer A = 7025 an Bob, der den privaten Schlüssel b = 557 hat. Er möchte nun eine einzelne Zahl, die Stunde 1 < h < 24 wann er Alice treffen möchte, in verschlüsselter Form an sie senden. (a) Bestimmen Sie den Diffie-Hellman-Verschlüsselungsschlüssel k, den Bob dann verwendet, um den Geheimtext zu erzeugen. (b) Alice erhält daraufhin den Geheimtext c = 4148. Wann werden sie sich treffen? Hinweis: In MATLAB können Sie die Funktionen powermod() und bitxor() verwenden. 7. Alice und Bob vereinbaren, den RSA-Algorithmus mit dem öffentlichen Schlüssel (n, e) = (5561, 5) zu verwenden. Alice möchte Bob treffen und sendet die Stunde, kodiert mit ihrem privaten Schlüssel, der sich als c = 5343 herausstellt. Eve möchte verzweifelt wissen, wann sie sich treffen und fängt die Nachricht ab, so dass auch sie c kennt. Sie erkennt, dass die Zahl n im öffentlichen Schlüssel eher klein ist, was es ihr ermöglicht, den Entschlüsselungsschlüssel d zu bestimmen. Hilf Eve herauszufinden, wann Alice und Bob sich treffen? Hinweis: MATLAB hat einen eingebauten Befehl factor() 8. Alice und Bob vereinbaren, ECDSA mit einer Hash-Funktion zu verwenden, bei der sie xor benutzen um die numerischen Werte der ASCII-Codes der Zeichen in einer Nachricht zu verschlüsseln. Zum Beispiel ist der Code des Buchstabens „A“ 65. Darüber hinaus verwenden sie die elliptische Kurve y2 = x 3 + 7, ein Integer-Feld basierend auf p = 113, und den Generatorpunkt G = (15, 52), den gleichen, der zur Vorbereitung der Kurve auf der rechten Seite in Abb. 12.7 verwendet wurde. Alice, auch bekannt durch ihren öffentlichen Punkt P = (93, 16), sendet die Nachricht „YES“ zu einer Einladung und signiert die Nachricht mit (r, s) = (66, 11). Bitte helfen Sie Bob zu überprüfen, ob ihre Nachricht authentisch ist. Hinweis: Schauen Sie sich den MATLAB-Code in Anhang B.11 an. 9. Zeigen Sie, dass U|us � = e2π is/r |us �, wobei |us � in (12.41) definiert ist und U kurz davor definiert wurde.

Literatur 1. R. Hartley, Transmission of information. Bell Syst. Tech. J. 7, 535 (1928) 2. C. Shannon, The mathematical theory of communication. Bell Syst. Tech. J. 27, 623 (1948). Reprinted in book form by C. Shannon and W. Weaver with the same title, University of Illinois Press, 1998

Literatur

255

3. C. Mackezie, Coded Character Sets (Addison-Wesley Publishing Company, Reading, History and Development, 1980) 4. King James bible: https://www.gutenberg.org/ebooks/10 5. Project Gutenberg web site: https://www.gutenberg.org 6. W. Shakespeare, Hamlet: available at https://www.gutenberg.org/ebooks/1787 7. D. Huffman, A method for the construction of minimum-redundancy codes. Proc.IRE (Institute of Radio Engineers, now IEEE) 40, 1098 (1952) 8. C. Kittel, H. Kroemer, Thermal Physics, 2nd edn. (W.H. Freeman, San Francisco, 1980) 9. S. Moser, P. Chen, A student’s Guide to Coding and Information Theory (Cambridge University Press, Cambridge, 2012) 10. T. Cover, J. Thomas, Elements of Information Theory, 2. Aufl. (Wiley, Hoboken, 2006) 11. H. Nyquist, Certain topics in telegraph transmission theory. Trans. AIEE. 47(2), 617 (1928) 12. B. Schneier, Applied Cryptography (J. Wiley, Indianapolis, 2015) 13. W. Diffie, M. Hellman, New directions in cryptography. IEEE Trans. Inf. Theory IT-22, 644 (1976) 14. S. Nakamoto, Bitcoin: A Peer-to-Peer Electronic Cash System (2008). https://bitcoin.org/en/ bitcoin-paper 15. G. Wood, Ethereum: A secure decentralised generalised transaction ledger. Petersburg version 4ea7b96, (2020) 16. A. Antonopoulos, G. Wood, Mastering Ethereum (O’Reilly Media, Sebastopol, 2018) 17. ERC-721 non-fungible tokens on the Ethereum blockchain, http://erc721.org 18. Cryptokitties website, https://www.cryptokitties.co 19. Open-source blockchain Hyperledger, https://www.hyperledger.org 20. Federal Ministery for Economic Affairs and Energy, Blockchain Strategy of the Federal Government (2019). https://www.bmwi.de/Redaktion/EN/Publikationen/Digitale-Welt/ blockchain-strategy.html. Zugegriffen 9 July 2020) 21. P. Shor, Algorithms for quantum computation: discrete logarithms and factoring, in Proceedings 35th Annual Symposium on Foundations of Computer Science (IEEE Comput. Soc. Press, 1994), p. 124 22. M. Nielsen, I. Chuang, Quantum Computation and Quantum Information (Cambridge University Press, Cambridge, 2010) 23. C. Cohen-Tannoudji, B. Diu, F. Laloe, Quantum Mechanics, vol. 2 (Wiley, New York, 1977)

Lösungen für ausgewählte Übungen

13

Zusammenfassung

Dieses Kapitel präsentiert die Lösungen zu vielen der Übungen am Ende der Kapitel. Numerische Lösungen mit Beispielcode in MATLAB, wo zutreffend, finden Sie im elektronischen Ergänzungsmaterial. In diesem Kapitel präsentieren wir Lösungen zu den meisten Übungen am Ende der Kapitel. Für viele Lösungen ist der begleitende MATLAB-Code im externen ergänzenden Material (ESM) auf der Webseite dieses Buches unter Kap. 13 verfügbar. Die untenstehenden Lösungen sind nach Kapitel und Übungsnummer referenziert, getrennt durch einen Punkt. Übung 2.1 1992 hat G. Soros das Pfund leer verkauft, indem er 1010£ verkaufte mit dem Versprechen, sie später zurückzukaufen. Die britische Bank musste all diese Pfund kaufen, um innerhalb bestimmter Margen des Wechselkurses zur Deutschen Mark zu bleiben. Sie war dazu verpflichtet, nachdem sie zuvor dem europäischen Wechselkursmechanismus beigetreten war. Die britische Zentralbank konnte diesem Ansturm nicht standhalten und musste am Ende das britische Pfund um fast 10 % abwerten, was Soros einen Gewinn von 10 % auf diesen 10 Mrd. £ Einsatz brachte.

Ergänzende Information  Die elektronische Version dieses Kapitels enthält Zusatzmaterial, auf das über folgenden Link zugegriffen werden kann https://doi.org/10.1007/978-3-03136964-3_13. Die Videos lassen sich durch Anklicken des DOI Links in der Legende einer entsprechenden Abbildung abspielen, oder indem Sie diesen Link mit der SN More Media App scannen. © Der/die Autor(en), exklusiv lizenziert an Springer Nature Switzerland AG 2023 V. Ziemann, Physik und Finanzen, https://doi.org/10.1007/978-3-031-36964-3_13

257

13  Lösungen für ausgewählte Übungen

258

Übung 2.5 DAX: Deutsche Börse Aktiengesellschaft (AG), ist eine öffentlich gehaltene Aktiengesellschaft. NYSE: die Intercontinental Exchange (ICE) ist ein Unternehmen, das Börsen besitzt, darunter die NYSE. Sie sind an der NYSE gelistet. Stockholm: gehört NASDAQ, Inc, einem Finanzunternehmen, das Börsen betreibt, darunter die NASDAQ in New York, wo NASDAQ Inc. gelistet ist. Übung 2.6 Eine Person, die einen vollständig bezahlten Gegenstand besitzt, sagen wir eine Aktie, hat die Long-Position. Im Gegensatz dazu schuldet eine Person, die die Aktie jemand anderem schuldet oder sie verkauft hat, ist short der Aktie. Daher entspricht „nicht haben“ „short“. Man könnte vermuten, dass der Ursprung dieser Nomenklatur aus dem Mittelalter stammt, als Schulden mit Kerbstöcken aufgezeichnet wurden. Dies sind speziell markierte Holzstücke, die in zwei Teile gebrochen wurden. Das kürzere Stück wurde dem Schuldner und das längere Stück dem Gläubiger als Aufzeichnung der Transaktion gegeben. Übung 3.1 Die Lagrange-Funktion L(x, y, x˙ , y˙ ), einschließlich der Zwangsbedingung, ist gegeben durch

 k  m 2 x˙ + y˙ 2 − x 2 + xy + y2 + (x + y − 1), (13.1) 2 2 wobei  ein Lagrange-Multiplikator ist. Die Euler-Lagrange-Gleichungen führen dann zu den folgenden Bewegungsgleichungen  y d ∂L ∂L − = m¨x + k x + − 0= dt ∂ x˙ ∂x 2   d ∂L ∂L x 0= − = m¨y + k y + − (13.2) dt ∂ y˙ ∂y 2 ∂L = x + y − 1. 0= ∂ L(x, y, x˙ , y˙ ) =

Die Differenz der ersten beiden Gleichungen führt zu

k 0 = m(¨x − y¨ ) + (x − y) 2 und die Verwendung der dritten Gleichung zur Eliminierung von y ergibt   1 . 0 = 2m¨x + k x − 2

(13.3)

(13.4)

Durch Teilen durch 2m und Substituieren von z = x − 1/2 finden wir die Eigen√ frequenz ω = k/2m und den Gleichgewichtspunkt bei z = 0 oder x = 1/2.

13  Lösungen für ausgewählte Übungen

259

Übung 3.2 und 3.3 Nach dem Lesen der Daten-Datei und der Zuweisung der Aktienwerte zu den Variablen S1 und S2, berechnen wir die täglichen Renditen r1=(S1(2:end)-S1(1:end-1))./S1(1:end-1); r2=(S2(2:end)-S2(1:end-1))./S2(1:end-1);

Der Rest der Analyse folgt eng dem MATLAB-Skript, das in Anhang B.1 besprochen wird, angepasst an zwei Aktien. Siehe die Dateien ex3_2.m und ex3_3.m im ESM für die vollständigen Lösungen. Übung 3.4 Das Lesen und Vorbereiten der täglichen Renditen wird mit dem Code durchgeführt, der bereits in Übung 3.3 verwendet wurde. Im folgenden Code Ausschnitt illustrieren wir die Berechnung der Kovarianzmatrix Cˆ , die uns die Volatilitäten σ1 und σM, und das Beta β der Aktien liefert. Diese Mengen werden verwendet, um die linke und rechte Seite von (3.38) zu bewerten. C=[rp1’*rp1, rp1’*rp2; rp1’*rp2, rp2’*rp2]/N sig1=sqrt(C(1,1)) % volatility Apple sigM=sqrt(C(2,2)) % volatility SP500 beta=C(1,2)/sigMˆ2 rf=0.05/N; % per trading day lhs=rm1 % of (3.38) % 6.9e-4 rhs=rf+beta*(rm2-rf) % 3.9e-4

Die linke Seite von (3.38) ist größer als die rechte Seite, was impliziert, dass die Apple-Aktie unterbewertet ist. Die vollständige Lösung ist als ex3_4.m im ESM verfügbar. Übung 3.5 Nachdem alle Variablen mit den im Übungstext angegebenen Werten initialisiert wurden, berechnen wir zuerst den WACC und verwenden ihn dann in der Summe, um den abgezinsten Cashflow D zu bestimmen. k=1:6 % years WACC=(V-B)*re/V+B*rd*(1-t)/V D=sum(C./(1+WACC).ˆk) % 7.79E6

D ergibt sich zu 7,8M€, was weniger ist als der geforderte Preis von 8,1M€, was darauf hindeutet, dass es schwierig sein wird, die ursprüngliche Investition zurückzugewinnen. Siehe ex3_5.m, verfügbar im ESM, für die vollständige Lösung.

13  Lösungen für ausgewählte Übungen

260

Übung 4.1 Abb. 13.1 zeigt den zweischichtigen Binomialbaum mit den Zuwächsen f1 und f2 gegeben durch (4.1) und die Wahrscheinlichkeit p aus (4.3), dass der Aktienkurs tatsächlich steigt. Wir müssen im Hinterkopf behalten, dass das Jahr in zwei ρ durch zwei geteilt Segmente unterteilt ist und die jährliche Wachstumsrate √ werden muss und die Volatilität σ durch 2. Mit diesen Werten berechnen wir die Aktienwerte nach zwei Segmenten, wie in Abb. 13.1 gezeigt. Wir vergleichen dann die Werte mit dem Ausübungspreis K und stellen fest, dass nur der oberste Zweig beiträgt, weil f1 = 1/f2 und die Auszahlungsfunktion für eine Call-Option max(ST − K, 0) ist. So finden wir heraus, dass nach Anwendung des Diskontierungsfaktors e−ρT , der Wert der Call-Option zu Beginn des Vertrags c0 = e−ρT p2 (f12 − 1)S0 = 0.129S0 ist, wobei T ein Jahr ist, so dass ρT = 0.05. Siehe ex4_1.m aus dem ESM für die numerischen Details. Übung 4.2 Da G(r) radiale Symmetrie hat, benötigen wir nur den radialen Teil des Laplace operator in drei Dimensionen r. Unter Verwendung von sphärischen Koordinaten in drei Dimensionen ist er gegeben durch   1 ∂ 2 ∂G(r) r . �r G(r) = 2 (13.5) r ∂r ∂r Für nicht-null r, zeigt das sofortige Einsetzen von G(r) = 1/4πr dass die Klammer zu einer Konstante wird, so dass die „äußere“ Ableitung zu null wird. Um die 4π im Nenner zu rechtfertigen, verwenden wir den Gaußschen Satz und schreiben den Laplace-Operator als Skalarprodukt der Divergenz ∇ und des Gradienten ∇ angewendet auf die Funktion G, die mit dem Feld durch E = −∇G verbunden ist. Die Integration des Feldes über eine kleine Kugel mit Radius ε um den Ursprung ergibt ˆ ˆ ˆ 1 dS (∇ · ∇)GdV = − EdS = (13.6) 4πr 2 V (ε)

Abb. 13.1  Übung 4.1: Zweischichtiger Binomialbaum

∂V (ε)

∂V (ε)

13  Lösungen für ausgewählte Übungen

261

wobei V (ε) das Volumen der kleinen Kugel ist und ∂V (ε) seine Oberfläche. In der zweiten Gleichheit setzen wir den radialen Gradienten von E = −∇G = 1/4πr 2 ein. Da r = ε auf der Oberfläche der Kugel ist und dS = 4πε 2 sehen wir, dass das Integral über G eins ist. Zusammenfassend ist der Wert null, außer am Ursprung, wo das Integral eins beträgt. Übung 4.3 Die Reaktion des Systems auf eine anfängliche Geschwindigkeitsstörung v0 kann berechnet werden, indem die Anfangswerte der homogenen Lösung der Differentialgleichung auf die Anfangsgeschwindigkeit abgestimmt werden. Die Testlösung x = Aeiωt führt zu der folgenden Gleichung zur Bestimmung der Eigenfrequenzen ω

ω2 − 2iαω − ω02 = 0 (13.7)  die die Lösungen ω± = iα ± ω02 − α 2 hat. Wir nehmen an, dass die Dämpfung

schwach ist mit α < ω0. Die allgemeine Lösung wird dann gegeben durch

x = Aeiω+ t + Beiω− t

und

x˙ = iω+ Aeiω+ t + iω− Beiω− t .

(13.8)

Wenn wir die Anfangswerte x(0) = 0 und x˙ (0) = v0 abgleichen, finden wir

v0 A=−  2i ω02 − α 2

und

B = −A.

(13.9)

Die Reaktion des Systems auf einen Geschwindigkeitsimpuls bei t = 0 ergibt dann   v0 e−αt 2 2t . x(t) = 2 ω − α sin (13.10) 0 ω0 − α 2 Übung 4.4 Die Temperaturdiffusionsgleichung wird durch die angegebenen Substitutionen gegeben und hat die Lösung   (x − d)2 T0 exp − , T (x, t; d) = √ (13.11) 4Dt 4πDt wobei d die Position bezeichnet, an der die lokale Temperaturerhöhung auftritt. Da das isolierte Ende vorgibt, dass ∂T /∂x = 0 bei x = 0, platzieren wir eine zusätzliche Bildquelle bei x = −d, die dann die Randbedingungen bei x = 0 erfüllt. Die Temperaturverteilung wird daher beschrieben durch Tb (x, t) = T (x, t; d) + T (x, t; −d), so dass das Temperaturprofil am isolierten Ende durch Tb (0, t) gegeben ist. Durch Einsetzen geeigneter Zahlen und Darstellen des Temperaturprofils zeigt sich ein anfänglicher Temperaturanstieg bis zu einem maximalen Wert und ein anschließender asymptotischer Abfall. Siehe Abb. 13.2 für eine Illustration die von ex4_4.m aus dem ESM generiert wurde.

13  Lösungen für ausgewählte Übungen

262

, ,

bei x=0

,

, ,

Abb. 13.2  Aufgabe 4.4: Oben: das Temperaturprofil bei t = 0,2s und t = 1s entlang der Platte, die sich von ihrem isolierten Ende bei x = 0 nach rechts erstreckt. Beachten Sie, dass bei t = 0,2 s der Temperaturanstieg nahe x = d = 2 groß ist, bevor er sich ausbreitet. Unten: die Temperatur bei x = 0 als Funktion der Zeit. Wir sehen, dass es eine kurze Zeit dauert, bis die Temperatur ansteigt, gefolgt von einem langzeitigen Abfall

Übung 4.5

√ a) Nach dem Einsetzen von y = (z − ρt)/ ˆ 2σ 2 t wird das Integral über ψ(z, t)dz zu ˆ∞ −∞

1 ψ(z, t)dz = √ π

ˆ∞

2

e−y dy = 1,

(13.12)

−∞

was zeigt, dass das Integral normalisiert ist. b) Um die Notation zu vereinfachen, führen wir ein g(z, t) = (z − ρt) ˆ 2 /2σ 2 t √ −1/2 −g(z,t) 2 und A = 1/ 2πσ und schreiben ψ(z, t) = At . Um zu zeigen, dass e ψ(z, t) (4.30) löst, müssen wir seine Ableitungen in Bezug auf t und auf z berechnen. Für die Ableitungen von g(z, t) finden wir

∂g ∂ 2g −z2 + ρˆ 2 t 2 z − ρt ˆ 1 ∂g = = , , und = 2 . 2 2 2 2 ∂t 2σ t ∂z σ t ∂z σ t Für die Ableitungen von ψ(z, t) in Bezug auf z erhalten wir dann

(13.13)

  ∂ 2ψ ∂ψ = −ψg′ und = g′2 − g′′ ψ (13.14) 2 ∂z ∂z wobei wir die Notation g′ = ∂g/∂z verwenden. Für die linke Seite von (4.30) finden wir   At −3/2 −g 1 z2 − ρˆ 2 t 2 ∂ψ −1/2 −g ∂g =− e − At e = − + ψ. (13.15) ∂t 2 ∂t 2t 2σ 2 t

13  Lösungen für ausgewählte Übungen

263

Für die rechte Seite von (4.30) berechnen wir

   (z − ρt) ˆ 2 1 σ 2  ′2 σ 2 ′′ ρ(z ˆ − ρt) ˆ ′′ ′ ψ =ρg g −g ψ = + − ˆ ψ+ ψ −ρψ ˆ + 2 2 σ 2t 2σ 2 t 2 2t  2  1 z − ρˆ 2 t 2 = − ψ, 2 2σ t 2t ′

(13.16)

was gleich dem Ausdruck ist, den wir für ∂ψ/∂t in (13.15) gefunden haben. Übung 4.6 und 4.7 Diese gesuchte Wahrscheinlichkeit P>2 wird gegeben durch

P>2 =

ˆ∞

�(S, t)dS,

(13.17)

2S0

wobei �(S, t) gegeben ist durch (4.32) mit t = 2Jahren und ρˆ = ρ − σ 2 /2 ≈ 0,055. Durch Einsetzen von z = ln(S/S0 ) und dz = dS/S ergibt sich das Integral

ˆ∞

  (z − ρt) ˆ 2 exp − dz. P>2 = √ (13.18) 2σ 2 t 2πσ 2 t ln 2 √ √ Die Substitution y = (z − ρt)/ ˆ 2σ 2 t mit dy/dz = 1/ 2σ 2 t gibt uns dann 1

P>2

1 =√ π

ˆ∞ ln(2)− √ ρtˆ 2σ 2 t

−y2

e

  1 ln(2) − ρt ˆ √ dy = erfc 2 2σ 2 t

(13.19)

Für die in der Übung gegebenen Zahlen finden wir P>2 ≈ 0,085, was als roter Bereich in Abb. 13.3 dargestellt ist. Die Wahrscheinlichkeit P