Wahrscheinlichkeitsrechnung und schließende Statistik [2., verb. Aufl.] 3540277870, 9783540277873

Das Buch bietet eine Einführung in die wichtigsten Methoden der Wahrscheinlichkeitsrechnung und des statistischen Schlie

767 131 12MB

German Pages 343 [352] Year 2005

Report DMCA / Copyright

DOWNLOAD FILE

Polecaj historie

Wahrscheinlichkeitsrechnung und schließende Statistik  [2., verb. Aufl.]
 3540277870, 9783540277873

Table of contents :
Cover......Page 1
Vorwort......Page 5
Inhaltsverzeichnis......Page 7
Kapitel 0 Einführung......Page 13
Kapitel 1 Zufallsvorgange und Wahrscheinlichkeiten......Page 17
Kapitel 2 Zufallsvariable und Verteilungen......Page 53
Kapitel 3 Gemeinsame Verteilung und Grenzwertsatze......Page 136
Kapitel 4 Stichproben und Stichprobenfunktionen......Page 184
Kapitel 5 Schatzverfahren für Parameter......Page 205
Kapitel 6 Hypothesentests......Page 246
Kapitel 7 Lineare Regression......Page 300
Tabellenanhang......Page 326
Literaturverzeichnis......Page 344
Index......Page 348

Citation preview

Springer-Lehrbuch

Karl Mosler ´ Friedrich Schmid

Wahrscheinlichkeitsrechnung und schlieûende Statistik Zweite, verbesserte Auflage

Mit 42 Abbildungen und 7 Tabellen

12

Univ.-Professor Dr. Karl Mosler Univ.-Professor Dr. Friedrich Schmid Universitåt zu Kæln Seminar fçr Wirtschafts- und Sozialstatistik Albertus-Magnus-Platz 50923 Kæln [email protected] [email protected]

Auf dem Umschlag sind abgebildet (von links): Carl Friedrich Gauss (1777±1855) Karl Pearson (1857±1936) Ronald Aylmer Fisher (1890±1962) Andrei N. Kolmogoroff (1903±1987)

ISBN-10 ISBN-13

3-540-27787-0 Springer Berlin Heidelberg New York 978-3-540-27787-3 Springer Berlin Heidelberg New York

ISBN 3-540-00970-1 1. Auflage Springer Berlin Heidelberg New York

Bibliografische Information Der Deutschen Bibliothek Die Deutsche Bibliothek verzeichnet diese Publikation in der Deutschen Nationalbibliografie; detaillierte bibliografische Daten sind im Internet çber abrufbar. Dieses Werk ist urheberrechtlich geschçtzt. Die dadurch begrçndeten Rechte, insbesondere die der Ûbersetzung, des Nachdrucks, des Vortrags, der Entnahme von Abbildungen und Tabellen, der Funksendung, der Mikroverfilmung oder der Vervielfåltigung auf anderen Wegen und der Speicherung in Datenverarbeitungsanlagen, bleiben, auch bei nur auszugsweiser Verwertung, vorbehalten. Eine Vervielfåltigung dieses Werkes oder von Teilen dieses Werkes ist auch im Einzelfall nur in den Grenzen der gesetzlichen Bestimmungen des Urheberrechtsgesetzes der Bundesrepublik Deutschland vom 9. September 1965 in der jeweils geltenden Fassung zulåssig. Sie ist grundsåtzlich vergçtungspflichtig. Zuwiderhandlungen unterliegen den Strafbestimmungen des Urheberrechtsgesetzes. Springer ist ein Unternehmen von Springer Science+Business Media springer.de ° Springer-Verlag Berlin Heidelberg 2004, 2006 Printed in Germany Die Wiedergabe von Gebrauchsnamen, Handelsnamen, Warenbezeichnungen usw. in diesem Werk berechtigt auch ohne besondere Kennzeichnung nicht zu der Annahme, dass solche Namen im Sinne der Warenzeichen- und Markenschutz-Gesetzgebung als frei zu betrachten wåren und daher von jedermann benutzt werden dçrften. Umschlaggestaltung: Design & Production, Heidelberg SPIN 11527114

154/3153-5 4 3 2 1 0 ± Gedruckt auf såurefreiem Papier

Vorwort

Dieses Lehrbuch gibt eine Einfiihrung in die Wahrscheinlichkeitsrechnung und in die fiir die Wirtschaftswissenschaften relevanten Methoden der schHefienden Statistik. Es ist aus Vorlesungen entstanden, die die Autoren regelmafiig an der Wirtschafts- und Sozialwissenschaftlichen Fakultat der Universitat zu Koln halten, und umfasst insbesondere den Stoff der dortigen DiplomVorpriifung im Bereich „Wahrscheinhchkeitsrechnung und statistische Inferenz". Dartiber hinaus enthalt es zahlreiche Erganzungen, insbesondere weitere statistische Verfahren sowie Hinweise, die fiir das Verstandnis und die Anwendung der Verfahren und die Interpretation ihrer Ergebnisse niitzUch sind. Die in diesem Buch dargestellten Methoden sind universell und finden in den unterschiedhchsten Wissensbereichen Anwendung. Die Beispiele sind allerdings vornehmhch dem Bereich der Wirtschafts- und Sozialwissenschaften entnommen. Eine Einfiihrung in die Methoden der deskriptiven Datenanalyse und in die Wirtschaftsstatistik bietet unser Lehrbuch „Beschreibende Statistik und Wirtschaftsstatistik" (Springer-Verlag, Berhn u.a. 2005). Der praktische Einsatz statistischer Verfahren ist ohne Computer nicht vorstellbar. Auch im Grundstudium der Wirtschaftswissenschaften sollen die Studierenden die Moglichkeiten des Computereinsatzes kennenlernen und an einschlagige statistische Software herangefiihrt werden. Hierbei beschranken wir uns auf den Einsatz der Programme Microsoft® Excel und SPSS. Das Programm Excel bietet zwar nur begrenzte und etwas umstandliche Moglichkeiten der Auswertung, ist aber den Studierenden leicht zuganglich und deshalb am besten fiir Anfangeriibungen geeignet. Fiir anspruchsvollere Methoden der statistischen Auswertung greifen wir auf das Programm SPSS

zuriick, das zwar ebenfalls keine idealen Moglichkeiten bietet, jedoch Sozialund Wirtschaftswissenschaftlern haufig als Arbeitsumgebung zur Verfiigung steht. Im Anschluss an einige Kapitel werden Hinweise zur Durchftihrung der wichtigsten Verfahren am Computer gegeben. Datensatze zum Einiiben dieser Verfahren findet man auf der Internetseite http://www.wiso.uni-koeln.de/p/mosler-schmid. Auf diese Internetseite werden auch Ubungsaufgaben und etwaige Erganzungen und Korrekturen zu diesem Lehrbuch gestellt. Einschlagige Klausuraufgaben findet man in Bomsdorf, Crohn, Mosler und Schmid (2004), einen Abriss der wichtigsten Formeln in Bomsdorf, Crohn, Mosler und Schmid (2003). Das Literaturverzeichnis am Ende des Buches umfasst ausgewahlte Lehrbiicher der Wahrscheinlichkeitsrechnung und der statistischen Inferenz, Tabellenwerke, interaktive Lernprogramme sowie Einftihrungen in statistische Software. Auf spezielle erganzende Literatur wird in den einzelnen Kapiteln hingewiesen. Bei der Bearbeitung des Buchmanuskripts haben uns die wissenschaftlichen Mitarbeiter und studentischen Hilfskrafte des Seminars fiir Wirtschafts- und Sozialstatistik der Universitat zu Koln tatkraftig unterstiitzt. Cenannt seien Prau Nana Dyckerhoff sowie die Herren Dr. Eckard Crohn, Jadran Dobric, Jens Kahlenberg, Christoph Scheicher und Axel Schmidt. Sie haben das Manuskript mehrfach gelesen und zahlreiche Korrekturen und Verbesserungsvorschlage beigesteuert. Herr Peter Kosater hat die Excel- und SPSSAnleitungen entworfen. Herr Dr. Rainer Dyckerhoff hat die Tabellen berechnet. Ihnen alien sei herzlich gedankt. Piir die zweite Auflage wurde der gesamte Text sorgfaltig durchgesehen. Viele Kollegen anderer Hochschulen haben uns auf Druckfehler und Verbesserungsmoglichkeiten hingewiesen. Ihnen alien danken wir herzlich, besonders unserem Dresdner Kollegen Herrn Prof. Stefan Huschens. Koln, im Juli 2005

Karl Mosler Priedrich Schmid

Inhaltsverzeichnis 0

Einfiihrung

1

1

Zufallsvorgange und Wahrscheinlichkeiten

5

1.1

Zufallsvorgange

5

1.1.1

Ergebnismengen

6

1.1.2

Ereignisse und ihre Verkniipfung

7

1.2

1.3

1.4

Wahrscheinlichkeiten

13

1.2.1

Formale Definition der Wahrscheinlichkeit

14

1.2.2

Laplace-Experimente

17

1.2.3

Anordnung und Auswahl von Objekten (Kombinatorik)

18

Bedingte Wahrscheinlichkeit und Unabhangigkeit

24

1.3.1

Bedingte Wahrscheinlichkeit

24

1.3.2

Rechenregeln

25

1.3.3

Totale Wahrscheinlichkeit und Formel von Bayes . . .

27

1.3.4

Unabhangigkeit von Ereignissen

31

Erganzungen

36

1.4.1

Allgemeiner Additions- und Multiplikationssatz flir Wahrscheinlichkeiten 36

1.4.2

Subjektive Wahrscheinlichkeit und WettbegrifF . . . .

38

1.4.3

Praktische Bestimmung von Wahrscheinlichkeiten . . .

39

vii

viii

2

INHALTSVERZEICHNIS

Zufallsvariable und Verteilungen

41

2.1

Grundbegriffe

42

2.1.1

Verteilungsfunktion

44

2.1.2

Quantilfunktion

47

2.1.3

Diskrete Zufallsvariable

51

2.1.4

Stetige Zufallsvariable

53

2.1.5

AfRn-lineare Transformation von Zufallsvariablen . . .

58

2.1.6

Unimodalitat

60

2.1.7

Symmetrie

62

2.2

2.3

2.4

2.5

2.6

Verteilungsparameter

63

2.2.1

Erwartungswert

63

2.2.2

Varianz

67

2.2.3

Ungleichung von Tschebyscheff

70

2.2.4

Schiefe und Wolbung

72

Spezielle diskrete Verteilungen

.

75

2.3.1

Binomialverteilung

76

2.3.2

Poisson-Verteilung

79

2.3.3

Geometrische Verteilung

82

2.3.4

Hypergeometrische Verteilung

86

Spezielle stetige Verteilungen

89

2.4.1

Rechteckverteilung

90

2.4.2

Exponentialverteilung

94

2.4.3

Pareto-Verteilung

99

2.4.4

Normalverteilung

102

2.4.5

Lognormalverteilung

Ill

2.4.6

Ubersicht iiber einige spezielle Verteilungen

114

Erganzungen

116

2.5.1

Borel-Mengen, Verteilung einer Zufallsvariablen . . . .

116

2.5.2

Erwartungswert einer Wette als subjektive Wahrscheinlichkeit

116

Anhang: Verwendung von Excel und SPSS

118

INHALTSVERZEICHNIS

3

Gemeinsame Verteilung und Grenzwertsatze

125

3.1

Gemeinsame Verteilung von Zufallsvariablen

126

3.1.1

Gemeinsame Verteilung von zwei Zufallsvariablen . . .

126

3.1.2

Gemeinsame Verteilung von n Zufallsvariablen

....

143

3.1.3

Summen von unabhangigen Binomial-, Poisson- und Gaufi-Variablen

149

3.2

3.3

4

ix

Grenzwertsatze

152

3.2.1

Schwaches Gesetz der grofien Zahlen

153

3.2.2

Wahrscheinlichkeit und relative Haufigkeit

155

3.2.3

Konvergenz der empirischen Verteilungsfunktion

3.2.4

Zentraler Grenzwertsatz

...

156 158

Erganzungen

164

3.3.1

Multivariate Normalverteilung

164

3.3.2

Poisson-Prozess

166

3.3.3

Monte-Carlo-Simulation

170

Stichproben und Stichprobenfunktionen

173

4.1

Zufallsstichproben und statistisches Schliefien

174

4.1.1

Zufallsstichproben

174

4.1.2

Statistisches Schliei3en

177

4.1.3

Stichproben aus endlichen Grundgesamtheiten

....

180

4.2

Stichprobenfunktionen (Statistiken)

182

4.3

Statistiken bei normalverteilter Stichprobe

183

4.3.1

Chi-Quadrat-Verteilung

184

4.3.2

t-Verteilung

185

4.3.3

F-Verteilung

187

4.4

4.5

Erganzungen

189

4.4.1

Verwendung von Zufallszahlen

189

4.4.2

Weitere Verfahren der Stichprobenauswahl

189

Anhang: Verwendung von Excel und SPSS

192

INHALTSVERZEICHNIS

5

Schatzverfahren fiir Parameter

195

5.1

Punktschatzung

195

5.1.1

Unverzerrtheit und Konsistenz

197

5.1.2

Schatzung von Erwartungswerten

198

5.1.3

Schatzung von Wahrscheinlichkeiten und Anteilswerten 199

5.1.4

Schatzung von Varianzen und Standardabweichungen

201

5.1.5

Schatzung von Quantilen

203

5.1.6

Schatzung von KorrelationskoefRzienten

203

5.2

5.3

Konstruktionsprinzipien fiir Punktschatzer

204

5.2.1

Momentenschatzer

204

5.2.2

Maximum-Likelihood-Schatzer

206

5.2.3

ML-Schatzer bei speziellen Verteilungen

208

5.2.4

Eigenschaften von ML- und Momentenschatzern

...

211

Intervallschatzung

212

5.3.1

Konfidenzintervalle

213

5.3.2

Intervall fiir fj. einer Normalverteilung, a^ bekannt . . 214

5.3.3

Intervall fiir /i einer beliebigen Verteilung,

AUBGA.

Ein Mengensystem A C P(r^), das diese drei Forderungen erfiillt, wird als Ereignisalgebra bezeichnet. Jede Ereignisalgebra enthalt damit mindestens das sichere Ereigns Q und das unmogliche Ereignis 0 . Offenbar ist V{^) selbst eine Ereignisalgebra. Beispiel 1.3 (Fortsetzung): Wenn ein Spieler beim Roulette grundsdtzlich nur auf „Rouge" oder auf „Noir" setzt, interessieren ihn in erster Linie diese beiden Ereignisse. Die kleinste Ereignisalgebra, die die Ereignisse R und N enthalt, ist A = {n,0,R,N,'R,T^,Z,'Z). (Man prilfe die fiir eine Ereignisalgebra geforderten Eigenschaften nach!) Allgemein folgt aus (A2) und (A3): Fiir beliebige A und B e A gilt 'A e A und B e A wegen (A2) und aui3erdem AUB E A wegen (A3), also (wiederum wegen (A2)) AnB = AUBeA. In einer Ereignisalgebra A gilt deshalb:

1.2.

WAHRSCHEINLICHKEITEN

13

• Der Durchschnitt von je zwei Ereignissen ist ein Ereignis, A.BeA



AnBeA.

Mittels vollstandiger Induktion lasst sich weiter folgern, dass eine Ereignisalgebra A nicht nur in Bezug auf Vereinigung und Durchschnitt von zwei Ereignissen, sondern auch beziiglich Vereinigung und Durchschnitt von endlich vielen Ereignissen abgeschlossen ist: • Die Vereinigung von je n Ereignissen ist ein Ereignis, n

Ai,A2,..,yAneA

==>

[JAieA.

• Der Durchschnitt von je n Ereignissen ist ein Ereignis,

AuA2,.,.,AneA

=>

f]AieA. i=l

Bei unendlichen Ergebnismengen, etwa wenn Q ein Intervall der reellen Zahlen ist, fordert man statt (A3) die Eigenschaft (A3') Die Vereinigung einer jeden unendlichen Folge von Ereignissen ist ein Ereignis, oo

Ai,A2,As,,..eA

=>

[JAieA.

Ein Mengensystem A^ das (Al), (A2) und (A3') erfiillt, bezeichnet man als eine Ereignis-cr-Algebra. Offenbar ist die Forderung (A3') starker als die Forderung (A3). Dann gilt auch: • Der Durchschnitt einer jeden unendlichen Folge von Ereignissen ist ein Ereignis, Ai,A2,As,...eA

=^

f]AieA. i=l

1.2

Wahrscheinlichkeiten

Bei einem Zufallsvorgang wird jedem Ereignis eine Zahl zwischen 0 und 1 als Wahrscheinlichkeit fur sein Eintreten zugeordnet. Wie immer diese Zuordnung im konkreten Fall erfolgt, es miissen gewisse for male Regeln gelten, damit man mit den Wahrscheinlichkeiten in sinnvoller Weise rechnen kann. Die Kolmogoroffschen Axiome (Abschnitt 1.2.1) bestehen aus drei solchen Regeln, die besonders einfach sind und aus denen sich alle weiteren Rechenregeln fiir Wahrscheinlichkeiten ableiten lassen.

14

1. ZUFALLSVORGANGE UND W A H R S C H E I N L I C H K E I T E N

1.2.1

For male Definition der Wahrscheinlichkeit

1st f^ eine Ergebnismenge und A eine zugehorige Ereignisalgebra, so definieren wir zunachst die Wahrscheinlichkeit von Ereignissen formal als Abbildung P:

A A

—> R, K-> P ( A ) ,

die folgenden drei Forderungen geniigt: (Kl)

P (^) > 0

(K2)

p{n) = i,

(K3)

P{AUB)

Nichtnegativitat

fiir alle A,

Normierung = P{A) + P{B), falls AnB ==

0.

AdditivitSt

Nun konnen wir auch den Begriff des Zufallsvorgangs praziser fassen. Ein Zufallsvorgang besteht aus einer Ergebnismenge, einer Ereignisalgebra und einer gemaiS (Kl), (K2) und (K3) definierten Wahrscheinlichkeit. Eigenschaften und Rechenregeln Fiir Ereignisse A und B gilt: P{A)

= 1-P{A),

(1.2)

P{&) PiA) 0

= 0, < P ( S ) , falls A c s , < P{A) < 1.

(1.3) (1.4) (1.5)

B E W E I S Die Formel (1.2) fiir die Wahrscheinlichkeit des Komplementarereignisses beweist man so: Wegen (K3) mit B = A und (Kl) gilt

P{A) + P(A) = PiA U 1 ) = P ( n ) = 1, also P(A) = 1 - P{A). Setzt man in (1.2) speziell A — Q, ein, folgt P ( 0 ) = P(fi) = 1 - P{n) = 1 - 1 = 0, d.h. (1.3). Gelte nun A C B; dann ist B = AL\{B\A) und An{B\A) also P{B) = P{A) + P{B \ A) > PiA), da PiB\A)

= 0,

> 0; es folgt (1.4). Aus (Kl), (K2) und (1.4) schlieiSt man (1.5). D

Eine Wahrscheinlichkeit ist demnach eine nichtnegative Funktion, die jedem Ereignis eine Zahl zwischen 0 und 1 zuordnet und additiv in dem Sinne ist,

1.2.

WAHRSCHEINLICHKEITEN

15

dass die Wahrscheinlichkeit einer Vereinigung zweier disjunkter Ereignisse gleich der Summe der beiden einzelnen WahrscheinUchkeiten ist. Fiir die WahrscheinUchkeit des Differenzereignisses A\B = AnB ergibt sich allgemein die Formel P{A\B) = P{A)-P{AnB) ,

(1.6)

und speziell, wenn B in A enthalten ist, P{A\B)

= P{A) - P{B),

falls Be. A.

(1.7)

BEWEIS Da A die disjunkte Vereinigung von A\B und A(^ B ist, gilt P{A) = P{A \B) + P{A n J5), woraus (1.6) folgt. Wenn B C A gilt, ist AnB = B und wir erhalten (1.7). D

Flir drei paarweise disjunkte Ereignisse A, B und C folgt aus der Forderung (K3), dass P{AUBUC)

= P{{AUB)UC) = P{AUB) + P{C) = P{A) + P{B) + P{C),

(1.8)

Allgemein zeigt man durch vollstandige Induktion fiir endlich viele Ereignisse A i , . . . , An: (K3) ist aquivalent zu P(Ai U A2 U . . . U An) = P(Ai) + P(A2) + . . . + P(An), sofern Ai n Aj = & fiir alle i j^ j . Kurz:

sofern die Ai paarweise disjunkt sind. Fiir Ereignisse A^B und C, die nicht notwendig paarweise disjunkt sind, gelten die Additionssatze

P{AUB) --= P{A) + P{B)-P{AnB) , PiAUBUC) --= P{A) + PiB) + P{C) -P{AnB)-P{BnC)-P{AnC) +P(AnBnC) .

(1.10) (1.11)

BEWEIS Den Additionssatz (1.10) fiir zwei Mengen A und B erhalt man so: Da AU B die disjunkte Vereinigung von A\B und B ist, gilt

P{A UB) = P{A \B) + P{B) = P{A)-P{AnB)-{-

P{B),

16

1. ZUFALLSVORGANGE UND W A H R S C H E I N L I C H K E I T E N

letzteres wegen (1.6). Um den Additionssatz (1.11) fiir drei Ereignisse A, B und C zu zeigen, ersetzt man in (1.10) das Ereignis B durch BUC und erhalt P {AU B U C) = P {A) + P {B U C) - P {An {B U C)) , Mehrfache Anwendung von (1.10) liefert

P{BUC)

= P{B)-\-P{C)-P{BnC)

,

p {An {BUC)) = P{{AnB)u{AnC)) = P{A nB)-\- P{A nc)- P{{A nB)n{An C)) = P{A nB) + P{A nC)-P{AnBnC), und alles zusammen ergibt (1.11).



Wir illustrieren einige Rechenregeln fiir Wahrscheinlichkeiten an einem einfachen Beispiel: Beispiel 1.10: In einer Kleinstadt erscheinen die Lokalbldtter „Abendzeitung^^ und „BildposV'. Die Wahrscheinlichkeit, dass ein Einwohner die Abendzeitung liest, sei 0.6, die Bildpost liest, sei 0.5, die Abendzeitung oder die Bildpost (oder beide) liest, sei 0.9. Wie grofi ist die Wahrscheinlichkeit, dass ein Einwohner a) beide Lokalbldtter liest, b) keines der beiden Lokalbldtter liest, c) ein Lokalblatt, aber nicht beide liest? zu a) Bezeichne A das Ereignis, dass der Einwohner die Abendzeitung liest, B dass er die Bildpost liest. Es ist P{A nB) = P{A) + P{B) - P{A UB) = 0.6 + 0.5 - 0.9 = 0.2 . zu b) Es ist P{A nB)=

P{A \JB) = l - P{A u 5 ) - 1 - 0.9 = 0.1.

zu c) Es ist P{{A\JB)\{AnB))

= =

P{AuB)-P{{AuB)n{AnB)) P{AuB)-P{AnB) = 0.9-0.2 = 0.7.

1.2.

WAHRSCHEINLICHKEITEN

17

Allgemeiner fordert man von einer Wahrscheinlichkeit die Additivitat in Bezug auf unendliche Folgen disjunkter Ereignisse. Als a-additive Wahrscheinlichkeit wird eine Abbildung einer Ereignis-a-Algebra in die reellen Zahlen bezeichnet, fiir die (Kl) und (K2) gilt, sowie an Stelle von (K3) die starkere Bedingung (K3'), (K3')

P(

[jAi]

= E P{Ai),

falls Ai r]Aj = 0 fiir

i^j.

Die Regeln (Kl), (K2) und (K3') fiir eine cr-additive Wahrscheinlichkeit P nennt man auch die KolmogorofFschen Axiome^. Die KolmogorofFschen Axiome sagen jedoch nichts dariiber aus, wie bei einem konkreten Zufallsvorgang die Wahrscheinlichkeiten numerisch festgelegt werden sollen. Wie das bei einer bestimmten Art von Zufallsexperimenten, namlich den Laplace-Experimenten, geschehen kann, wird in Abschnitt 1.2.2 gezeigt. Im Ubrigen verweisen wir auf die erganzenden Abschnitte 1.4.2 und 1.4.3 iiber subjektive Wahrscheinlichkeiten und die praktische Bestimmung von Wahrscheinlichkeiten.

1.2.2

Laplace-Experiment e

Ein Zufallsexperiment heifit Laplace-Experiment, wenn fi eine Menge mit n Elementen ist, fi = {^1,^2, • • • , ^ n } , und die Wahrscheinlichkeit eines Ereignisses AdO. durch

'' ^ ^ = 0.429 • 10"^ ,

P (Jiinf Richtige ohne ZusatzzahV)

=

(Da)(y) = 0.180 • lO-"*,

22

1. ZUFALLSVORGANGE UND W A H R S C H E I N L I C H K E I T E N

4. Kombinationen mit Zuriicklegen Durch Ziehen mit Zuriicklegen werden wieder k Objekte ohne Beriicksichtigung der Reihenfolge ausgewahlt. Hierbei kommt es darauf an, wie haufig Objekt Nr. 1 ausgewahlt wurde, wie haufig Objekt Nr. 2 ausgewahlt wurde, etc. Sei rrij die Haufigkeit, mit der Objekt Nr. j ausgewahlt wurde. Gesucht ist also die Anzahl der Moglichkeiten, die mi,7712,..., m^ so festzulegen, dass mi + m2 + . . . + mn = A: und 0 < rrij < k fiir j = 1,2,..., n gilt. Bildlich veranschaulichen kann man sich das durch die folgende Graphik, in der die k ausgewahlten Objekte mit Hilfe von Strichen in n Klassen sortiert sind:

* * **

I

**

I•• • I

mi Objekte mit Nr. 1 7712 Objekte mit Nr. 2

** *

rrin Objekte mit Nr. n

Die k Objekte und die n — 1 Striche sind hier nebeneinander aufgereiht und nehmen zusammen n+fc—1 Platze ein. Die gesuchte Anzahl der Moglichkeiten entspricht jetzt der Anzahl der Moglichkeiten, aus den insgesamt n + k — 1 moglichen Platzen fiir Objekte und Striche n — 1 Platze fiir die Striche auszuwahlen. Sie ist gleich n + / c - l \ _ /n + / c - l n-1 J~ [ k Beispiel 1.17: Bei einer Wahl stehen zehn Kandidaten zur Auswahl; der Wdhlerhat drei Stimmen, die aber „gehdufelt^^ werden diirfen, d.h. der Wdhler hat das Recht, bei einem Kandidaten mehr als ein Kreuz zu machen. Offensichtlich gibt es 10 + (3 - 1)>^ _ /^12>^ _ 12! _ 1 2 - 1 1 - 1 0 _ 3 J \3 J 3!-9! 3-2.1 Moglichkeiten, die Kreuze zu setzen, da es auf die Reihenfolge, in der die Kreuze gesetzt werden, nicht ankommt.

1.2.

23

WAHRSCHEINLICHKEITEN

Anzahl der Auswahlen von k aus n verschiedenen Objekten: ohne Beriicksichtigung der Reihenfolge (Kombinationen) ohne Zuriicklegen

C)

mit Zuriicklegen

("%'-')

mit

[

Beriicksichtigung der Reihenfolge (Variationen) | n! (n-fc)!

n'^

Abschliefiend noch zwei Beispiele zur Berechnung von Wahrscheinlichkeiten mit Hilfe der Kombinatorik: Beispiel 1.18: Die PIN-Nummer einer Bankkarte besteht aus vier Ziffern, von denen die erste keine Null ist. Wie viele verschiedene PIN-Nummern gibt es? Berechnen Sie die Wahrscheinlichkeit, durch dreimaliges y,Probieren" eine PIN-Nummer zu erraten. Es gibt 9 • 10^ verschiedene Nummern. Die gesuchte Wahrscheinlichkeit (drei giinstige von insgesamt 9 • 10^ Moglichkeiten) betrdgt

9 • 103

1 3000

0.00033.

Beispiel 1.19: Ein Hacker hat drei Minuten Zeit, in einen Computer einzubrechen und kann dabei pro Sekunde 1000 Passworter ausprobieren. Er weifl, dass das Passwort aus sechs Zeichen, ndmlich vier Ziffern und zwei unterschiedlichen Buchstaben, besteht. Wie grofi ist die Wahrscheinlichkeit, dass der Hacker Erfolg hat? Fiir das Passwort gibt es (2) • 26 • 25 • 10^ verschiedene Moglichkeiten. Dabei zdhlt (2) die Moglichkeiten, die Stellen der Buchstaben festzulegen. In drei Minuten filhrt der Hacker 180 000 Versuche durch. Die gesuchte Wahrscheinlichkeit betrdgt demnach 180 000 = 0.00185. (l) . 26 • 25 • 104

24

1.3 1.3.1

1. ZUFALLSVORGANGE UND W A H R S C H E I N L I C H K E I T E N

Bedingte Wahrscheinlichkeit und Unabhangigkeit Bedingte Wahrscheinlichkeit

In diesem Abschnitt behandeln wir zunachst, wie die Wahrscheinlichkeit flir ein Ereignis A zu modifizieren ist, wenn als zusatzhche Information zur Verfiigung steht, dass ein anderes Ereignis B schon eingetreten ist. In diesem Fall geniigt es, von den Ergebnissen in A nur noch die in Erwagung zu ziehen, die auch in B liegen. Man betrachtet das Ereignis AD B und bezieht seine Wahrscheinlichkeit auf diejenige von B. Dies flihrt zur folgenden Definition: Ist B ein Ereignis mit P{B) > 0, so heifit fiir jedes Ereignis A

^iMB^-'-^ bedingte Wahrscheinlichkeit von A unter der Bedingung B. Die bedingte Wahrscheinlichkeit wird so interpretiert: P{A\B) gibt die Wahrscheinlichkeit daftir an, dass A eintritt, wenn man bereits weifi, dass B eingetreten ist. Beispiel 1.9 (Portsetzung): Im Horsaal befinden sich 280 Personen, 144 von ihnen sind Prauen. 70 der Anwesenden haben schon im Lotto „6 aus -^P" gespielt, davon 36 Prauen. 28 Personen haben bereits (mindestens) einmal im Lotto gewonnen. Durch Zufallsziehung wird eine Person ausgewdhlt. Wir betrachten die Ereignisse: F L G

= Die Person ist eine Prau. = Die Person hat im Lotto gespielt. = Die Person hat gewonnen.

Dann ist offenbar P{G nL) = P{G) = ^ , P{L) = ^

P(G|L) = ^

^ ^\^)

und daher

= #=0.4 280

die bedingte Wahrscheinlichkeit dafur, dass die Person im Lotto gewonnen hat (vorausgesetzt, sie hat uberhaupt im Lotto gespielt). Beispiel 1.20: Das Werfen eines fairen Wurfels ist ein Laplace-Experiment; vgl. Beispiel 1.2. Sei A = {6} und B = {2,4,6} , dann ist P {A) = ^ , jedoch P{B)

P({2,4,6})

6

1.3.

BEDINGTE WAHRSCHEINLICHKEIT UND UNABHANGIGKEIT

25

Die bedingte Wahrscheinlichkeit fiir eine „6^' unter der Bedingung, dass eine gerade Augenzahl eingetreten ist, ist also | . Wir Ziehen nun einige Folgerungen aus der obigen Definition. Bei fest gegebenem Ereignis B mit P{B) > 0 ist die bedingte WahrscheinUchkeit P{'\B):

A A

- ^ ^->

M, P{A\B),

selbst eine WahrscheinUchkeit, denn es gilt (Kl)

P{A\B)>0

fiir beliebige Ereignisse

(K2)

P(n\B)

(K3)

P{Ai U A2\B) = P{Ai\B) + P{A2\B),

= l

AeA,

flir das sichere Ereignis fi, falls Ai n ^2 = 0 ist.

Die ersten beiden Aussagen sind offensichtlich, die dritte macht man sich so klar:

da mit Ai n A2 = & auch die beiden Mengen Ai H B und ^2 H ^ disjunkt sind. Die auf ein fest gegebenes Ereignis B bedingte Wahrscheinlichkeit P{'\B) erftillt also die drei Axiome der Wahrscheinlichkeit. Damit gelten alle bisher fiir gewohnliche Wahrscheinlichkeiten hergeleiteten Rechenregeln auch fiir bedingte Wahrscheinlichkeiten.

1.3.2

Rechenregeln

Aus der Definition der bedingten Wahrscheinlichkeit folgt, dass fiir beliebige AeA P{A\Q) P{A\B)

= =

P{A), 1, w e n n ^ c A .

(1.14) (1.15)

Wenn also B C A gilt, d.h. S mit Sicherheit das Ereignis A zur Folge hat, dann tritt A unter der Bedingung B auch mit Wahrscheinlichkeit 1 ein. Durch Umformen der Definition der bedingten Wahrscheinlichkeit erhalt man den Multiplikationssatz fiir zwei Ereignisse P{A nB) = P{A\B) • P{B),

wenn P{B) > 0.

26

1. ZUFALLSVORGANGE UND W A H R S C H E I N L I C H K E I T E N

Ebenso gilt P{A nB) = P{B\A) • P{Al,

wenn P{A) > 0.

Der Multiplikationssatz fiir drei Ereignisse lautet P{Ar]BnC)=

P{A\B n C) •

P{B\C)



P{C)

,

wenn P{B n C) > 0.

Aus P{B n C) > 0 folgt namlich, dass P{C) > P{B H C) > 0 ist. Deshalb gilt

P{AnBnC) = P{An(^nC)) = P{A\BnC) • P{B\C) • P{C). ^"

V

'

=p{BnC)

Fiir mehr als drei Ereignisse gilt ein allgemeiner Multiplikationssatz flir Wahrscheinlichkeiten; siehe Abschnitt 1,4.1 in den Erganzungen zu diesem Kapitel. Beispiel 1.21: In einem Restaurant bestellen gewohnlich 40% der Gdste keine Vorspeise und 30% der Gdste keinen Nachtisch. 15% der Gdste nehmen weder Vorspeise noch Nachtisch. Wie grofi ist die Wahrscheinlichkeit, dass a) ein Gast keine Nachspeise nimmt, unter der Bedingung, dass er auch keine Vorspeise genommen hat? b) ein Gast, der eine Vorspeise gewdhlt hat, auch noch einen Nachtisch bestellt? Bezeichne V das Ereignis, dass der Gast eine Vorspeise bestellt, N das Ereignis, dass er einen Nachtisch ordert. Aus den gegebenen Prozentzahlen erhalten wir die Wahrscheinlichkeit en P{V)

=

P{N)==

l-P{V)

- 1 - 0.4 = 0.6,

1-P(N)

= 1 - 0 . 3 = 0.7,

p(Fn]v) - p{vuN)

= 0.15.

zu a) Es ist ,—,-, P(NV) ^ ' ^

PiVDN) 0.15 ^ ,-, ^ = ^ = 0.375. P{V) 0.4

1.3.

BEDINGTE WAHRSCHEINLICHKEIT UND UNABHANGIGKEIT

27

zu b) Es ist P(N\V^ ^ '^

=

=

PjNnV) PiV)

P{N) +

P{V)-P{NUV) P{V)

PjN) + P{V) - (1 PjVUN)) P{V) 0.7+ 0 . 6 - ( 1 - 0 . 1 5 ) 0.6 l-3-0-85^a45^Q^3 0.6 0.6

Beispiel 1.22: Zum Erwerb eines Scheines sind einem Studenten drei Versuche erlaubt. Fiir die drei Ereignisse Ai = „Student besteht beim i-ten Versuch",

i = 1,2,3,

seien die folgenden bedingten Wahrscheinlichkeiten gegeben: P{Ai) P{A2\Ai) P ( T a l l i n As)

= =

0.6, 0.5,

=

0.4.

Wie grofi ist die Wahrscheinlichkeit, den Schein zu erwerben? Es ist P{AI{JA2UA3)

1.3.3

=

1 - P (Ai U ^2 U A3)

=

1 - P ( l l 0^420^3)

= =

1-P(l3l^n:42)-P(l2|^)-P(^) 1 - ( 1 - 0 . 4 ) - ( 1 - 0 . 5 ) - ( 1 - 0 . 6 ) = 0.88.

Totale Wahrscheinlichkeit und Formel von Bayes

Wir nehmen nun an, dass Ai,A2,..-,An eine vollstandige Zerlegung der Ergebnismenge Cl und B ein Ereignis ist. Dann sind (vgl. Abbildung 1.3)

{BnAi),iBnA2),...,{BnAn) disjunkte Ereignisse und deshalb

(

n

\J{BnAi)\ =

2= 1

\

n

=

J2P{B\A,)-P{A,).

Y^PiBnAi),

28

1. ZUFALLSVORGANGE UND WAHRSCHEINLICHKEITEN

Wir erhalten die Formel von der totalen Wahrscheinlichkeit:

PiB) = J2PiB\A,).PiA,) i=l

Die nicht bedingte, d.h. „totale" Wahrscheinlichkeit P {B) ergibt sich dabei als gewichtetes Mittel der bedingten Wahrscheinlichkeiten P {B \ Ai) mit Gewichten P{Ai).

Abbildung 1.3: Zur Formel von der totalen Wahrscheinlichkeit Fiir jedes z = 1,2,..., n gilt gemafi der Definition der bedingten Wahrscheinlichkeit P(A i m PJAnB) P{B\Ai).P{Ai) Daraus und aus der Formel von der totalen Wahrscheinlichkeit folgt die Formel von Bayes*^

P{B\Ai)^P{Ai)

P{Ai\B)

i = 1,2,... , n .

tp{B\A^)^P{A^)

Beispiel 1.23: Die Produktion von Kiihlschrdnken erfolgt an drei Produktionsstdtten. Eine Verbraucherorganisation untersucht, ob die Gerdte die Garantiezeit ohne einen Defekt uberstehen. Da die drei Produktionsstdtten mit unterschiedlichen Fertigungsstandards arbeiten, weisen die Gerdte je nach ^Thomas Bayes (1702-1761)

1.3.

BEDINGTE WAHRSCHEINLICHKEIT UND UNABHANGIGKEIT

29

Fertigungsstdtte unterschiedliche Defektraten auf: 1.5% in Produktion 1, 1% in Produktion 2, 3% in Produktion 3. Die beiden ersten Produktionsstdtten haben jeweils einen Anteil von 40% an der Gesamtproduktion, die dritte Produktionsstdtte einen Anteil von 20%. Aus der Gesamtproduktion wird nun zufdllig ein Stilck entnommen. Wie grofl ist die Wahrscheinlichkeit, dass ein defekter Kiihlschrank aus der Produktion 1 stammt? Zur Losung definieren wir zundchst die relevanten Ereignisse: Ai'. B:

Kiihlschrank stammt aus Produktion i, Kiihlschrank ist defekt.

z = 1,2,3,

Aus den Angaben folgt P{Ai) P{B\Ai)

= =

0.4, 0.015,

P{B)

=

P{A2) P{B\A2)

= =

0.4, 0.01,

P(A3) = 0.2, P{B\A3) = 0.03,

J2P{B\A,).P{A,) i=l

=

0.015-0.4 4-0.01-0.4 4-0.03-0.2 = 0.016,

Die Wahrscheinlichkeit, dass der defekte Kiihlschrank aus der Produktion 1 stammt, betrdgt 37.5%. Wichtige Anwendungen finden die bedingten Wahrscheinlichkeiten und die Formel von Bayes im Bereich der medizinischen Statistik. Wir geben hierzu ein Beispiel. Beispiel 1.24-' An Patienten einer bestimmten Population wird mithilfe eines Labortests untersucht, ob eine bestimmte Krankheit vorliegt oder nicht. Der Anteil TT der Kranken in der Population ist bekannt. Falls der konkrete Patient krank ist, zeigt der Test mit einer Wahrscheinlichkeit von 99% die Krankheit an (Ergebnis „positiv"); falls er nicht krank ist, zeigt der Test mit einer Wahrscheinlichkeit von 2% die Krankheit an. Wie grofl ist die Wahrscheinlichkeit, dass der Test bei einem zufdllig aus der Population ausgewdhlten Probanden a) die Krankheit anzeigt, b) ein korrektes Ergebnis liefert? c) Wie grofl ist die Wahrscheinlichkeit, dass die Krankheit vorliegt unter der Bedingung, dass der Test sie anzeigt?

30

1. ZUFALLSVORGANGE UND W A H R S C H E I N L I C H K E I T E N

Zur Losung verwenden wir die Bezeichnungen K (= Krankheit liegt vor) und T (= Test zeigt Krankheit an). Dem Text entnimmt man P{K) - TT,

P ( T |i^) - 0.99,

P{T \K) = 0.02 .

zu a) Gesucht ist hier P{T). Nach der Formel der totalen Wahrscheinlichkeit ist P{T) = P{T \K) ' P{K) + P{T | Z ) . P(K), also P{T)

-

0.99 •7r + 0 . 0 2 - ( I - T T )

=

0.02 +0.97-TT.

zu b) Die gesuchte Wahrscheinlichkeit ist P{{T n K) [J {T n'K)

= = = =

P{TnK) + P{Tnl{) P{T \K) ' P{K) + P(T\K) . P{K) 0.99 • TT + (1 - 0.02) • (1 - TT) 0.98 +0.01-TT.

zu c) Gesucht ist nun P{K \T). Nach der Formel von Bayes gilt P{K\T)

=

P{T\K)'P{K) P{T \K) • P{K) + P{T \K) . P{K) 0.99 -TT

_

0.99 • TT + 0.02 • (1 -

/

0.02

V

TT)

l-TT^

0-99

^

TT

Offensichtlich hat P{K) = n jeweils einen starken Einfluss auf die bedingte Wahrscheinlichkeit P{K\T) und die weiteren Ergebnisse. So ergibt sich = = = z=z

0.846 0.333 0.047 0.005

fiir fiir fiir fiir

•K

=

TT

=

TT

=

n =

0.1, 0.01, 0.001, 0.0001.

Ist Z.B. der Anteil der Kranken ein Promille (also n — 0.001^; so sind nur 4.7% der Probanden mit positivem Testergebnis wirklich krank. Zur Interpretation der Formel von Bayes Eine mogliche Interpretation der Formel von Bayes lautet wie folgt: Ai^...^An sind sich ausschliefiende mogliche Zustande der Welt („Hypothesen"), von denen genau einer zutrifft. B ist das Ergebnis eines Experiments oder einer Beobachtung.

1.3.

BEDINGTE WAHRSCHEINLICHKEIT UND UNABHANGIGKEIT

31

Fiir jede der n Hypothesen Ai sei die Wahrscheinlichkeit bekannt, dass B eintritt, wenn Ai gilt. Aufierdem sei mit P{Ai) eine - eventuell subjektive (vgl. Abschnitt 1.4.2) - Wahrscheinlichkeit gegeben, dass die Hypothese Ai zutrifft. P{Ai) heifit A-priori-Wahrscheinlichkeit von Ai. Die bedingte Wahrscheinlichkeit P{B\Ai) ist die Wahrscheinlichkeit von J5, wenn die Hypothese Ai zutrifft. P{Ai\B) wird A-posteriori-WahrscheinUchkeit von Ai genannt. Sie gibt die (nach der Beobachtung) ermittelte Wahrscheinlichkeit daflir an, dass Ai zutrifft unter der Bedingung, dass das Versuchsergebnis B beobachtet worden ist. P{Ai\B) wird mit der Formel von Bayes berechnet.

1.3.4

Unabhangigkeit von Ereignissen

Zwei Ereignisse A und B sollen, anschaulich gesprochen, unabhangig heifien, wenn das Eintreten von A keinerlei „Einfluss" auf das Eintreten von B hat und umgekehrt. Die formale Definition ist: Zwei Ereignisse A und B heifien stochastisch unabhangig (kurz: unabhangig), wenn P{AnB)=P{A)'P{B). A und B heifien abhangig, wenn sie nicht unabhangig sind. Man beachte, dass man in dieser Definition A und B vertauschen kann. Wir Ziehen einige Folgerungen: 1. Unter der Annahme P {B) > 0 gilt offensichtlich A und B unabhangig 4=^ P {A\B) = P {A) . Ebenso gilt unter der Annahme P (A) > 0 A und B unabhangig P {B\A) = P (B) . Bei unabhangigen Ereignissen A und B hangen die bedingten Wahrscheinlichkeiten P {A\B) bzw. P {B\A) also nicht von den „bedingenden" Ereignissen B bzw. A ab. 2. Mit A und B sind auch die folgenden beiden Ereignisse jeweils unabhangig: A und 'B, A und B, 'A und 'B. BEWEIS

Die erste dieser Aussagen sieht man wie folgt ein: P{An^

= = =

P{A\B)

= P{A)-P{AnB) P{A)-P{A)'P{B) P{A)^{1-P{B))==P{A)>P{B).

Die beiden anderen Aussagen zeigt man analog.

D

32

1. ZUFALLSVORGANGE UND W A H R S C H E I N L I C H K E I T E N

3. 1st A ein Ereignis mit P (A) = 0 oder P {A) = 1, so ist A von jedem beliebigen Ereignis B unabhangig. BEWEIS

AUS P{A)

= 0 folgt namlich P (A) - P {B) = 0 - P {B) = 0

und P{AnB)

< P{A) = 0, 3\soP{AnB)

P{AnB)

=

=0

P{A)'P{B).

Aus P (^) = 1 folgt in ahnlicher Weise P {A)'P {B) = hP (B) = P {B), Offenbar ist P{AUB) = 1 und deshalb P{AnB)

= = =

P{A) + P{B)-P{A[J B) 1 + P{B)-1 = P{B) l'P{B) = P{A)'P{B).

D

4. Wenn A und B disjunkt sind sowie P{A) ,P {B) > 0, konnen A und B nicht unabhangig sein. Dann gilt namlich P{AnB)

=

O^P{A)'P{B),

Beispiel 1.9 (Fortsetzung): Bei der Zufallsziehung im Horsaal betrachten wir wieder die Ereignisse F (Die ausgewdhlte Person ist eine Frau) und L (Die Person hat im Lotto gespielt). Mit den oben gegebenen Zahlen erhalten wir P{L) = ^ = 0.25 sowie

P{L n F)

36

P ( L | F ) = 1 ^ 1 ^ = | | = 0.25. Es folgt, dass (in dieser Population) die Ereignisse L und F unabhangig sind: Ob jemand im Lotto spielt oder nicht, hdngt nicht vom Geschlecht ab. Beispiel 1.25: Eine Miinze (mit Zahl = Z und Wappen = W) wird zweimal geworfen. Es ist fi = {{Z,Z), (Z, 1^) {W, Z) {W, W)]. Wir fassen das Zufal Is experiment als Laplace-Experiment auf. Sei Z\ W2 W12

— Zahl beim ersten Wurf = Wappen beim zweiten Wurf — Wappen bei beiden Wiirfen.

Z\ und W2 sind unabhangig, da P{ZinW2)

=

P{{Z,W})

= i

und

P{Zi)-P{W2)

= _

P{{Z,Z},{Z,W})'P{{Z,W},{W,W}) 1 1 _ 1 2 ' 2 ~ 4'

1.3.

BEDINGTE WAHRSCHEINLICHKEIT UND UNABHANGIGKEIT

33

W2 und W12 sind abhangig, da P{W2nWi2)

=

P{{w,w})

P{W2)

=

P{{W,W},{Z,W})

PiyVn)

=

P{{W.W\)

=

^ i

P{W2)-P{W,2)

-

=

i, =

= i, ^ ^

i,

also

i-

Wir wollen nun den Begriff der stochastischen Unabhangigkeit von zwei auf n Ereignisse verallgemeinern. Die n Ereignisse ^1,^2? • • • ^^n heifien paarweise unabhangig, wenn P {Ai n A^) = P {Ai)' P {Aj)

fur alle ij

= 1,... ,n mit i ^ j .

Die n Ereignisse Ai^A2^ • •., ^ n heifien vollstandig unabhangig, kurz: unabhangig, wenn fiir jede Auswahl von m Indizes ii, ^2? • • • > ^m ^ {1» 2 , . . . , n}, 2 < m < n. P{Ai, DAi.n..

.nAiJ

= P{Ai,) 'PiAi,)....

'P{AiJ

gilt, d.h. wenn fiir jede Auswahl aus den n Ereignissen die entsprechende Produktformel fiir deren Wahrscheinlichkeiten gilt. Paarweise und vollstandige Unabhangigkeit sollen nun fiir n = 3 verdeutlicht werden. Seien Ai,A2^ As drei Ereignisse. Sie sind paarweise unabhangig, wenn die drei Bedingungen P{AinA2) P{AinAs) P{A2nAs)

= = -

P(Ai).p(A2), P(Ai).P(A3), P{A2)'P{As)

erfiillt sind. Ai, ^ 2 , As sind vollstandig unabhangig, wenn zusatzlich zu diesen Bedingungen noch P{Ai n ^2 n As) = P{Ai) 'P{A2)

'P{As)

gilt. Beispiel 1.26: Zwei faire Wilrfel werden geworfen, und zwar so, dass jedes der moglichen Ergebnisse (bestehend aus zwei Augenzahlen) in gleicher Weise auftreten kann. Wir fassen dieses Zufallsexperiment als Laplace-Experiment

34

1. ZUFALLSVORGANGE UND W A H R S C H E I N L I C H K E I T E N

auf. Bezeichne A\ A2 A3

— Augenzahl beim ersten Wurf ist ungerade, = Augenzahl beim zweiten Wurf ist ungerade, = Augensumme ist ungerade.

Die Ereignisse ^ 1 , ^ 2 , ^ 3 sind paarweise unabhdngig, aber nicht (vollstdndig) unabhdngig. Es gilt offensichtlich P{A^nA2)

= \=

l-\

P{A^nA,)

= i =

i . i =

P{Ai)-P{A3),

P{A2nA^)

= \=

\ . \ =

P{A2)-P{As),

P{AinA2nAz)

=

= P(^)-P(^2),

o^l.l.l=P(Ai)-PiA2)-P{A3).

Die Ereignisse Ai, A2 und As sind demnach nicht unabhdngig. Beispiel 1.27: Drei elektronische Bauelemente sind wie folgt geschaltet: Ai

Wir nehmen an, dass die Elemente unabhdngig voneinander arbeiten. Die Ausfallwahrscheinlichkeiten der Elemente seien bekannt, und zwar jeweils gleich 5%. Wie grofi ist die Wahrscheinlichkeit, dass das Gesamtsystem ausfdllt? Bezeichne Ai das Ereignis, dass das i-te Element ausfdllt. Dann ist

P(^in(^2UA3))

= PiiAinA2)LiiAinA3)) P{Air\A3)-P{AinA2nA3) = P{AinA2) + = 0.05^ + 0.052-0.05^ = 0.0049.

1.3.

BEDINGTE WAHRSCHEINLICHKEIT UND UNABHANGIGKEIT

35

Einen Zufallsvorgang, bei dem lediglich interessiert, ob ein bestimmtes Ereignis (genannt „Erfolg") eintritt oder nicht, nennt man ein BernoulliExperiment^ . Unter einer Bernoulli-Versuchsreihe der Lange n versteht man die unabhangige Wiederholung von n gleichartigen Bernoulli-Experimenten. Genauer: Ein Bernoulli-Experiment werde n-mal durchgefiihrt. Bezeichne Ai das Ereignis, dass bei der i-ten Durchfiihrung des Experiments ein „Erfolg" eintritt. Die Versuchsreihe heifit Bernoulli-Versuchsreihe, wenn (Bl) die Ereignisse Ai,A2,,,.

,An (vollstandig) unabhangig sind und

(B2) alle Ai die gleiche Wahrscheinlichkeit haben. Beispiel 1.28: Ein Schiitze schieflt auf eine Scheibe. Das Ereignis A = Schiitze trifft die Scheibe habe die Wahrscheinlichkeit P {A) = 0.6. Der Schiitze schieflt n-mal. Dies wird als unabhdngige Wiederholung eines Bernoulli-Experimentes aufgefasst: Ai tritt ein, wenn beim i-ten Schuss die Scheibe getroffen wird. Jedes der Ai besitzt die gleiche Wahrscheinlichkeit und die Ereignisse ^ i , A 2 , . . . ,>ln werden als unabhdngig vorausgesetzt. Dies bedeutet insbesondere, dass beim Schiltzen weder Lern- noch Ermildungseffekte auftreten. a) Wie grofl ist die Wahrscheinlichkeit, dass er bei den ersten vier Schilssen nicht trifft? Die Wahrscheinlichkeit betrdgt

=

0.4^ = 0.0256.

b) Wie grofl ist die Wahrscheinlichkeit, dass er bei den ersten drei Schilssen mindestens einmal trifft? Die gesuchte Wahrscheinlichkeit ist

P(AiUA2UA3)

4jacob Bernoulli (1654-1705)

=

p(Ain]42n]43)

=

i - P ( ^

=

1-0.4^ = 0.936.

0^20^3)

36

1. ZUFALLSVORGANGE UND W A H R S C H E I N L I C H K E I T E N

1.4 Erganzungen 1.4.1

AUgemeiner Additions- u n d Multiplikationssatz fiir Wahrscheinlichkeiten

Die Wahrscheinlichkeit einer Vereinigung von endhch vielen Ereignissen berechnet man mit dem folgenden allgemeinen Additionssatz fiir Wahrscheinlichkeiten (Formel von Sylvester)^ Fiir beliebige Ereignisse Ai, A2, ... ^An ^ A gilt

"(.y/*)

=

P{Ai

uA2U...UAn)

•nA,J k=l

{n,.-.,u}C{l,...,n}

= E^(^^) - J2 PiAiHAj) +

E

P(^i ^ ^J ^ ^k)

i,j,k:i)

I0M

=

0,

lAnB{(^)

=

1A{(^) ^IB{(^)

= 1^(0;)-l^M,

IAUBH

=

1A{UJ)W1B{UJ)

=

1A{1A{^)

+ 1BH)

.

wobei das Symbol A das Minimum und das Symbol V das Maximum zweier Zahlen bezeichnet, z.B. - 2 A 17 = - 2 und 1.2 V 0.5 == 1.2. Beispiel 2.2 (Fortsetzung): Den Nettogewinn beim Setzen auf die erste Colonne kann man mit Hilfe einer Indikatorvariablen schreiben, Y{uj)

=

2 . I c , (a;) - 1 • %^ (c.) = 2 • I c , {UJ) - (1 - I c , {co)) 3.1c,M-l.

Viele Zufallsvorgange haben selbst Zahlen als Ergebnisse, dann ist Q C R. Wenn das Ergebnis to selbst als Merkmal interessiert, kann man dies durch die Zufallsvariable X {LJ) = LU,

LO eQ,

also durch die identische Abbildung, zum Ausdruck bringen. Beispiel 2.3 (vgl. Beispiel 1.2): Werfen eines Wilrfels mit Jl = { 1 , 2 , . . . , 6}. Wenn die geworfene Augenzahl als solche von Interesse ist, betrachtet man die Zufallsvariable X {i) = i fur i = 1,2,..., 6. Sehr wichtig ist es, die Zufallsvariable X und ihren Wert x sorgfaltig zu unterscheiden. Formal ist X eine Funktion und x eine Zahl. Inhaltlich besteht der Unterschied darin, dass X die Situation ex ante beschreibt, bevor sich das zufallige Geschehen ereignet, wahrend x sich auf die Situation ex post bezieht, wenn sich das zufallige Geschehen ereignet hat und sein Ergebnis feststeht. Uber X konnen Wahrscheinlichkeitsaussagen getroffen werden, liber x jedoch nicht.

44

2. ZUFALLSVARIABLE UND V E R T E I L U N G E N

2.1.1

Verteilungsfunktion

Eine Zufallsvariable X nimmt ihre Werte mit bestimmten Wahrscheinlichkeiten an. Das grundlegende Hilfsmittel, um mit diesen Wahrscheinlichkeiten zu rechnen, ist die Verteilungsfunktion von X. Dies ist die Funktion

Statt Fx{x) schreibt man auch F(x), wenn keine Verwechslungen zu erwarten sind. Die Verteilungsfunktion der Zufallsvariablen X ordnet also jeder Zahl x die Wahrscheinlichkeit eines Ereignisses zu, namlich des Ereignisses, dass X den Wert x oder einen kleineren Wert annimmt. Flir dieses Ereignis schreibt man auch kiirzer {X < x} = {uj\X {LJ) < x} und fiir seine Wahrscheinlichkeit unter Weglassung der geschweiften Klammern P{X < x) = P{{uj\X (uj) oo gegen Q konvergiert und p{n) = 1 ist.

2.1.

45

GRUNDBEGRIFFE

3. F ist rechtsstetig, d.h. der Punktionswert F{x) ist an jeder Stelle x gleich dem rechtsseitigen Limes, d.h. ^mF{y)

= F{x).

y>x

Auf den Beweis der Rechtsstetigkeit wollen wir verzichten. Man beachte, dass eine Verteilungsfunktion im Allgemeinen nicht stetig ist. Sie kann Sprtinge aufweisen, an denen der linksseitige Limes lim F(x) y—^x y 3 .

In vielen Anwendungen der Wahrscheinlichkeitsrechnung geniigt es, statt einer Zufallsvariablen X lediglich ihre Verteilungsfunktion zu untersuchen. Oft ist es kompliziert oder iiberhaupt nicht moglich, Q. und die Abbildungsvorschrift X : f^ -^ M explizit anzugeben, jedoch lassen sich die Wahrscheinlichkeiten, mit denen eine Zufallsvariable bestimmte Werte annimmt oder der Verlauf ihrer Verteilungsfunktion aus sachlogischen Erwagungen unmittelbar bestimmen. Eine explizite Angabe der Ergebnismenge fi und punktweise Definition einer Zufallsvariablen X als X(cj), a; G fi, ist in der Kegel nicht notig und aus Sicht des Anwenders ohne Belang. Beispiel 2.4' Die Lebensdauer eines elektronischen Bauteils wird durch die Bedingungen seiner Herstellung, die Umstdnde seiner Nutzung und durch zahlreiche weitere Einflilsse bestimmt. Wir fassen die Lebensdauer deshalb als Zufallsvariable auf und bezeichnen sie mit X. Die im konkreten Fall realisierte Dauer X{ijo) hdngt dann vom Ergebnis uj des ihr zugrundeliegenden Zufallsvorgangs ab. Um UJ £ Q und die Zuordnung UJ J—> X{uj) zu beschreiben, milsste man sdmtliche Einflussfaktoren spezifizieren, was praktisch kaum moglich ist. Besser ist es, ganz darauf zu verzichten und sich durch sachbezogene Uberlegungen eine Vorstellung vom Verlauf der Verteilungsfunktion zu verschaffen. Man kann zeigen (siehe unten Abschnitt 2.4-2), dass, wenn das Bauteil in einem bestimmten Sinn nicht „altert'', die folgende Verteilungsfunktion (mit geeignetem Parameter X) angemessen ist: F{x) =

0, 1-e

— Ax

falls X < 0, falls X > 0.

Zahlreiche weitere Beispiele finden sich in den folgenden Abschnitten 2.3 und 2.4 liber spezielle Verteilungen.

2.1.

GRUNDBEGRIFFE

47

Die Verteilungsfunktion F einer Zufallsvariablen gibt die Wahrscheinliclikeit fiir alle Ereignisse der Form {X < x}, a; G R, an. Hieraus kann man die Wahrscheinlichkeiten fiir alle anderen interessierenden Ereignisse ableiten. Die Wahrscheinlichkeit, dass X in ein - beschranktes oder unbeschranktes I n t e r vail ^ fallt, lasst sich in besonders einfacher Weise aus der Verteilungsfunktion berechnen: P{X>x) P{a 0

ftir alle j

sowie

T^^Pj = 1 3

gilt. Die Menge Tx = {xi,a:2,...,a;j}

bzw.

Tx =

{xi,X2,...}

heifit Trager von X. Der Trager einer diskreten Zufallsvariablen ist die Menge aller Werte, die X mit einer positiven Wahrscheinlichkeit annimmt. Es gilt P{X G Tx) = 1. Die Punktion f(T)f^(r)^ ^^' j(x)-jx[X)- 0. Da F fiir alle x y^ 0 differenzierbar ist, erhalten wir die Dichte falls X < 0, falls x>0. In diesem Beispiel ist der Trdger gleich [0, oo[. Die Dichte ist in Abbildung 2.8 dargestellt.

Intervallwahrscheinlichkeiten Zum Schluss dieses Abschnitts fassen wir die Formeln ftir die Wahrscheinlichkeit, dass X in ein Intervall fallt, noch einmal tabellarisch zusammen. Je nach Verteilungstyp gilt Folgendes:

58

2 . ZUFALLSVARIABLE UND V E R T E I L U N G E N

fix)

Abbildung 2.8: Dichte der Lebensdauerverteilung im Beispiel 2.4

allgemein P{a 0 wird durch Y = a + bX eine weitere Zufallsvariable definiert. Dann gilt:

2.1.

59

GRUNDBEGRIFFE

1. Die Verteilungsfunktion Fy von Y ist y-a

Fviy) = Fx

(2.3)

y€

denn fiir 6 > 0 gilt Fy{y)^P{a

bX 0.

(2.6)

Durch Differenzieren von (2.6) folgt f{c -y)

= f{c + y)

fiir alle

y>0.

(2.7)

Umgekehrt kann man leicht durch Integration zeigen, dass aus (2.7) wiederum (2.6) folgt, beide Bedingungen also in aquivalenter Weise die Symmetrie einer stetigen Zufallsvariablen charakterisieren.

2.2.

63

VERTEILUNGSPARAMETER

Beispiel 2.9: Zwei Beispiele filr Dichten von symmetrischen Verteilungen findet man in Abbildung 2.4 und 2.7. Die in Abbildung 2.4 dargestellte Dichte ist offenbar symmetrisch zu c = 0, wdhrend die Dichte in Abbildung 2.7 symmetrisch zu c = 180 ist; vgl. auch Beispiel 2.6. Die erste Dichte gehort zur Klasse der Normalverteilungen, die zweite zur Klasse der Rechteckverteilungen. Beides sind wichtige Klassen von symmetrischen Verteilungen, die wir in den Abschnitten 2.4-1 und 2.4-4 ausfuhrlich behandeln werden.

2.2

Verteilungsparameter

In diesem Abschnitt wollen wir einige Grofien einfiihren, die die Verteilung einer Zufallsvariablen im Hinblick auf ihre Lage, Streuung und Schiefe beschreiben. Sie werden Verteilungsparameter genannt, da sie einerseits von der Verteilung abhangen, andererseits die Verteilung unter bestimmten Aspekten charakterisieren.

2.2.1

Erwart ungswert

Als Erstes soil die allgemeine Lage einer Zufallsvariablen X beschrieben werden. Ist X diskret, so ist die Verteilung von X durch die Gesamtheit der moglichen Werte Xj und ihrer Wahrscheinlichkeiten pj gegeben. Ist X stetig, so ist die Verteilung durch die Dichte f{x) bestimmt. Der Erwart ungswert der Verteilung von X ist folgendermafien definiert^: ( Yl ^jPj '

E[X] = {

f^lls X diskret,

3

oo

/ xf{x)dx,

falls X stetig.

Man schreibt auch E [X] = fix Bei einer diskreten Zufallsvariablen X werden also alle Werte Xj aus dem Trager von X mit den zugehorigen Wahrscheinlichkeiten pj = P{X = Xj) gewichtet und aufsummiert, bei einer stetigen Zufallsvariablen tritt an die Stelle der Summe ein Integral. •^Es gibt Zufallsvariable (mit unendlichem Trager), bei denen die den Erwartungswert definierende Summe bzw. das Integral einen unendlichen Wert ergeben oder uberhaupt nicht konvergieren. Zum Beispiel besitzt die stetige Zufallsvariable mit der Dichte f{x) = (14- ^)^^ ^ ^ ' l^^i^^®^ Erwartungswert, da das uneigentliche Integral J^^x-jY^—^z^dx nicht konvergiert. W^eitere Beispiele liefern die Pareto-Verteilungen in Abschnitt 2,4.3.

64

2. ZUFALLSVARIABLE UND VERTEILUNGEN

Beispiel 2.2 (Fortsetzung): Beim Roulette erhdlt man • den dreifachen Einsatz, wenn man auf Colonne gesetzt hat (und die gesetzte Colonne erscheint), • den 36-fachen Einsatz, wenn man auf Zahl gesetzt hat (und die gesetzte Zahl erscheint). Die Nettoauszahlung ist in beiden Fallen eine diskrete Zufallsvariable, ^Colonne

^^ \

_-t

bzw. Xzahi - 1 - 1 ^

falls die Colonne erscheint, falls nicht, falls die Zahl erscheint, IIU, falls nicht.

Fiir die Erwartungswerte gilt E[Xcolonne]

=

1 ("•'•)• 37 ^ ^ ' 37 ^ ~ 3 7 '

E[Xzahl]

=

(-!)•§ + 35-^

1 = ~37

Offenbar stellt der Erwartungswert einer Zufallsvariablen X nicht immer einen moglichen Wert von X dar. So nimmt im Beispiel die Zufallsvariable ^Colonne ^ur die beiden Werte —1 und 2 an. Ihr Erwartungswert ist jedoch E [XColonne] = -j^', ei gehort nicht zum Trager von XcoionneIst X eine stetige Zufallsvariable, so gilt P{X = x) = 0 fiir alle x G R. Die Berechnung des Erwartungswerts kann deshalb nicht wie bei diskreten Zufallsvariablen erfolgen. Vielmehr wird bei stetigen Zufallsvariablen nach der obigen Formel jeder Wert x aus dem Trager mit der Dichte f{x) gewichtet und dann integriert. Dabei kann man den Integrationsbereich auf den Trager beschranken, da auCerhalb des Tragers die Dichte gleich null ist. Beispiel 2.6 (Fortsetzung): Die Zufallsvariable X hat die Dichte f{x) = 3 ^ , falls 0 < re < 360, / ( x ) = 0 sonst. Ihr Erwartungswert ist 00

360

E[X] = f xf{x)dx = J x^dx

= 180.

E r w a r t u n g s w e r t einer t r a n s f o r m i e r t e n Zufallsvariablen Haufig benotigt man nicht den Erwartungswert von X selbst, sondern den einer transformierten Zufallsvariablen Y = g{X). Die Transformation kann beispielsweise eine affin-lineare Funktion Y = a-{- bX^ eine Potenz wie y — X^ oder

2.2.

65

VERTEILUNGSPARAMETER

Y = X^ oder eine Exponentialfunktion Y = expX sein. Ftir eine beliebige Punktion ^ : R —> M berechnet man den Erwartungswert der transformierten Zufallsvariablen Y = g{X) mit der Formel ( Y^g{xj)pj ,

E[9{X)] = {

falls X diskret,

3 oo

/ 9{^)fx{x)dx

^ falls X stetig.

Beispiel 2.2 (Fortsetzung): Wir betrachten die Zufallsvariablen Xcoionne ^^^ Xzahi sowie die Funktion g{x) — x^, Dann ist ^

l^Colonnej

{-If

l^Zahl]

{-If

^

73 „2 12 1.97, 1-2^ = 37 37 37 1261 1-35^ = 34.08. 37 37 37 25

Beispiel 2.6 (Fortsetzung): a) Fiir die Zufallsvariable X mit Dichte fx[x) = 3^^, falls 0 < x < 360, gilt +00

E[X']=

360

I x'fx{x)dx=

360

Jx'^

1 ax =

360

1 3 X

43200.

360 3

b) Nachdem der Kandidat eine weitere Runde erreicht hat, bietet ihm der Showmaster das folgende Spiel an: Wenn das Gliicksrad in der Stellung x stehen bleibt, erhdlt der Kandidat

1000.exp(3|^)€ ausgezahlt. Wie hoch ist der Erwartungswert der Auszahlung? Der Erwartungswert betrdgt 360

X 1000 • exp 360

/ l««°-^^P(3lo)36o'^ 360

=

1000 3 L 360. exp ( 3 ^ ) lOOOe^-1000 = 1718.28 € .

Rechnen mit dem Erwartungswert Transformiert man die Werte der Zufallsvariablen X mit einer affin-linearen Abbildung x H-» a H- 6 a:, so erhalt

66

2. ZUFALLSVARIABLE UND VERTEILUNGEN

man eine neue Zufallsvariable Y mit den Werten Y{uj) = a-{- 6X(a;), uj e Q,, Der Erwartungswert der transformierten Zufallsvariablen Y = a -{- bX ist dann gleich E[a + bX] =a + bE[X].\ (2.8) Anschaulich besagt die Formel (2.8), dass die Erwartungswertbildung mit der Addition einer Konstanten und der Multiplikation einer Zahl „vertauscht" werden kann. BEWEIS

Im Fall einer stetigen Variablen X mit Dichte / gilt OO

/

PCX)

{a-\-bx)f{x)dx -OO OO

/

=

/•OO

/

af{x)dx-^

/

«/—OO

bxf{x)dx

J — OO

/»00

f{x)dx-^b -OO

xf{x)dx

= a-l + bElX].

J — OO

Falls X diskret ist, ist auch a + bX eine diskrete Zufallsvariable und es gilt E[a-\-bX]

=

^ ( a + 6xj)p^- = ^ 3 3

=

6a;^p^-

ap^-+ ^ 3

3 3

3

a + bE[X].

D

Beispiel 2.10: Die Zufallsvariable X gebe das Bruttomonatsgehalt eines zufdllig ausgewdhlten Angestellten einer Unternehmensholding wieder. Von X sei nur der Erwartungswert fix = 4700 € bekannt. Tarifverhandlungen ergaben eine Lohnsteigerung um einen Sockelbetrag von 300 € und eine zusdtzliche lineare Erhohung von 3%. Das Bruttogehalt nach der Tariferhohung betrdgt Y = 300 -f 1.03X. Sein Erwartungswert betrdgt dann E[Y]

=

E[300 + 1.03X] = 300 +1.03 £'[X]

-

300 + 1.03-4700 = 5141 € .

Es ist hier nicht erforderlich, die Wahrscheinlichkeitsfunktion riablen Y zu kennen.

der Zufallsva-

Zentrierung Zieht man von einer Zufallsvariablen X ihren Erwartungswert ab, so erhalt man die z e n t r i e r t e Zufallsvariable X — fix- Sie hat wegen (2.8) den Erwartungswert E[X -fix]=

fix - l^x

=0.

Wenn X s y m m e t r i s c h zu einem bekannten Wert c verteilt ist und der Erwartungswert existiert, gilt E[X]=:C.

2.2.

VERTEILUNGSPARAMETER

67

BEWEIS Die Symmetrie der Verteilung besagt (s.o. Abschnitt 2.1.7), dass X — c wie —X -he verteilt ist, also auch den gleichen Erwartungswert besitzt. Folglich ist

E[X-c] E[X]-c 2E[X]

= =

El-X + c], -E[X]+c, 2c,

woraus die Behauptung E[X] = c folgt.

D

E r w a r t u n g s w e r t als L a g e p a r a m e t e r Nicht nur fiir symmetrische Verteilungen charakterisiert der Erwartungswert die Lage einer Zufallsvariablen. Wegen (2.8) gilt namlich: Wird die Zufallsvariable X um die Konstante a auf der reellen Achse verschoben, so verschiebt sich der Erwartungswert um die gleiche Konstante, E[a-\-X] = a-\-E[X]. Ein Verteilungsparameter, der diese Eigenschaft besitzt, heifit lageaquivariant. Wird X mit einem Skalenfaktor 6 > 0 multipliziert, so ist E[bX] = bE[X]. Ein Verteilungsparameter, der sich um den gleichen Skalenfaktor andert, wird skalenaquivariant genannt. Einen Verteilungsparameter, der lage- und skalenaquivariant ist, nennt man einen L a g e p a r a m e t e r . Demnach ist der Erwartungswert ein Lageparameter. Wegen Gleichung (2.4) ist auch jedes Quantil Xp von X ein Lageparameter, insbesondere der Median XQ.SErwartungswert und Median sind nicht nur Lageparameter, sie beschreiben auch - in unterschiedlicher Weise - ein „Zentrum" der Verteilung. Wenn die Verteilung symmetrisch zu einem Wert c ist, sind beide gleich diesem Wert c. Im Allgemeinen sind Erwartungswert und Median jedoch verschieden. Weitere Zentralitatseigenschaften des Erwartungswerts hangen mit der Varianz der Zufallsvariablen zusammen. Sie werden im folgenden Abschnitt behandelt.

2.2.2

Varianz

Neben der Lage einer Zufallsvariablen, die durch den Erwartungswert charakterisiert wird, ist ihre Streuung von besonderem Interesse. Sie wird durch die Varianz beschrieben. Die Varianz von X, V[X] = E [{X - ,xxf]

,

ist der Erwartungswert der Zufallsvariablen g{X) = [X — fix) ? also der Erwartungswert der quadrierten Abweichung der Zufallsvariablen X von ihrem

68

2 . ZUFALLSVARIABLE UND VERTEILUNGEN

Erwartungswert /ix- Fiir diskrete bzw. stetige Verteilungen ist die Varianz durch die Formeln ( 12{^j ~ l^x)'^ Pj ,

V[X] = {

falls X diskret,

oo

J {x — yixYfx{x)

dx,

falls X stetig,

gegeben. Offenbar kann die Varianz keinen negativen Wert annehmen."* Die positive Wurzel aus der Varianz, a[X] =

+./V\X],

heifit Standardabweichung. Weitere Notationen fiir Standardabweichung und Varianz sind ax = (J[X],

(j\ = a'^[X] = Var[X] = V[X].

Zur Berechnung der Varianz ist die folgende Formel niitzlich: V{X] =

E[X']-,,%

(2.9)

In (2.9) geniigt es, fix sowie i^fX'^] zu berechnen, was meistens weniger Aufwand als die Berechnung mit Hilfe der obigen Definitionsformel erfordert. Der Beweis von (2.9) folgt aus E[{X-txxf]

=

E[X^]-2E[X-fix]

+ fil

= E[X^]-2E[X]-fix + lJi^x = E[X']-n\. • Beispiel 2.2 (Fortsetzung): Wir betrachten wieder beim Roulette die Zufallsvariablen Xcoionne '^'^id Xzahi' Beide haben den gleichen Erwartungswert — ^ . Fiir die Varianzen ergibt sich V[Xcolonne\

=

^l^Col

onne ]-

(T[Xcolonne]

V[Xzahl]

{E[Xcolonne])

=

g-B) —.

=

1.40,

=

^[^Zahl] - {E[Xzahl]f 1261 / 1 \^ — - [ - - ) =34.0804.

= O'iXzahl] =

5.84.

^Es gibt allerdings Zufallsvariable, bei denen diese Summe bzw. dieses Integral unendlich grofi werden, also keine endliche Varianz existiert. Beispiele sind die i-verteilten Variablen mit ly e, Z{uj) = 0 sonst,

gegeben ist. Offenbar gilt Z{uj) E[Z] E[Z]

<
e).

Also ist P{\X-fix\>e) 1 - 1^ =

25

Setzt man e — Xax (niit einem A > 1), so ergeben sich zwei aquivalente Versionen der Tschebyscheff-Ungleichung, P{\X-,ix\

1 - ^

P{\X-fix\>\(rx)


9). Die gesuchte Wahrscheinlichkeit betrdgt P{X>9)

wobeifiirY wurden.

2.3.2

= = =

P{X = 9)-\-P{X = 10) P{Y = 1) + P{Y = 0) 0.2684 + 0.1074 = 0.3758,

= n—X ~ B{n = 10, TT' = 0.2) die Werte der Tabelle 1 verwendet

Poisson-Vert eilung

Wir gehen wieder von einer Bernoulli-Versuchsreihe aus, treflFen aber spezielle Annahmen iiber die Parameter n und TT. Wir nehmen an, dass das BernoulliExperiment sehr haufig wieder holt wird, n also grofi ist. Andererseits sei die Wahrscheinlichkeit TT = P{A) fiir einen Erfolg sehr klein. A wird deshalb ein „seltenes Ereignis" genannt. Die Anzahl X der Erfolge bei n Versuchen ist dann binomialverteilt, X ~ 5(n,7r), mit P(^X = x)=

M7r^(l-7r)^-^

fiir x = 0 , 1 , 2 , . . . , n .

(2.16)

In diesem Ausdruck lasst man nun • n gegen unendlich und zugleich • TT gegen null gehen, derart, dass nir gegen eine positive Zahl fx konvergiert. Die Binomialwahrscheinlichkeit (2.16) konvergiert bei diesem Grenztibergang, und zwar gegen

lim f''V''(l - ^T'"" = e-^ 4 •

(2.17)

Man kann zeigen, dass der Limes fiir jede nichtnegative ganze Zahl x definiert und groBer als null ist. Fiir die Exponentialfunktion gilt die Reihendarstellung oo

e''= exp(Ai) = ^ k=l

^

Ij-,

M€E.

80

2. ZUFALLSVARIABLE UND V E R T E I L U N G E N

Summiert man die rechte Seite der Gleichung (2.17) iiber alle x = 0 , 1 , 2 , . . . , ergibt sich deshalb (mit Summationsindex x statt k)

x=0

x=0

=

e-^e^ = e^ = I,

Der Limes definiert also eine Wahrscheinlichkeitsfunktion. Eine diskrete Zufallsvariable X mit der Wahrscheinlichkeitsfunktion p(^X = x)=e-^^

x\

flir :r = 0 , 1 , 2 , . . .

heisst Poisson-verteilt^ mit Parameter /i > 0, in Zeichen: X ~ Po{fi). Der Trager von X ist Tx = N U {0} - { 0 , 1 , 2 , . . . } . Tabellen Die Wahrscheinlichkeiten P{X = x) lassen sich leicht berechnen. Flir Werte von /JL zwischen 0.1 und 10 sind sie aufierdem in Tabelle 2 des Anhangs tabelliert. Fiir kleine /i zeigt die Poisson-Verteilung eine starke Asymmetrie (Rechtsschiefe), wahrend die Verteilung fiir grofiere /x fast symmetrisch ist. Abbildung 2.14 illustriert dies anhand zweier Poisson-Verteilungen mit /x = 2 bzw. fi= 12. Viele okonomische und technische Sachverhalte konnen mit Poisson-verteilten Zufallsvariablen beschrieben werden. Beispielsweise lasst sich die Anzahl der in einem bestimmten Zeitraum ankommenden Kunden in einem Bedienungssystem haufig auf diese Weise modellieren; vgl. Abschnitt 3.3.2. Die Poisson-Verteilung Po{fx) kann man wegen der erwahnten Limesbeziehung als Approximation der Binomial verteilung B{n,'K) flir kleines TT und grofies n auffassen. In diesem Fall gilt die Naherung ^ V ' ' ( l - -^T'"" « e-^^ x) x\

mit fi = n7v.

Eine gebrauchliche Faustregel lautet, dass die Approximation im konkreten Fall als zulassig angesehen werden kann, wenn die drei Bedingungen TT < 0.1,

n > 50 und nyr < 9

erflillt sind. Beispiel 2.17: 50 Sduglinge erhalten eine bestimmte Impfung. Die Wahrscheinlichkeit, dass ein Sdugling die Impfung nicht vertrdgt, ist TT = 0.05. ^Simeon Denis Poisson (1781-1840)

2.3.

81

SPEZIELLE DISKRETE VERTEILUNGEN

fix)

0.3 4 Po{2)

0.2

O.H 0.0

—^—.-

0

X

10

fix) 0.3 Po(12)

0.2 O.H 0.0

^ 0

10

llTT|>»»»y, 15 25 20

^

Abbildung 2.14: Wahrscheinlichkeitsfunktion der Poisson-Verteilung Po{ii) mit 11 = 2 bzw. /i = 12

Die Reaktionen der einzelnen Sduglinge auf die Impfung sind unabhdngig voneinander. Sei X = Anzahl der Sduglinge, die die Impfung nicht vertragen. Man berechne P(X = 0),P{X = l ) , P ( X = 2),F(X > 3) exakt und approximativ und vergleiche die Werte der Wahrscheinlichkeiten (^^ Excel/SPSS). Es gilt X ~ B{n = 50, TT = 0.05). Wegen n < 0.1, n > 50 und UTT - 2.5 < 9 konnen wir die Verteilung von X durch die Poisson-Verteilung Po{fi = 2.5) approximieren. Die exakten und gendherten Wahrscheinlichkeiten sind:

P{X P{X P{X P{X

= = = >

0) 1) 2) 3)

S ( n = 50,7r = 0.05) 0.0769 0.2025 0.2611 0.4595

Po(/x = 2.5) 0.0821 0.2052 0.2565 0.4562

E r w a r t u n g s w e r t u n d Varianz einer Zufallsvariablen X ~ Po{ii) sind S[X] = M,

V[X]=ii.

82

2 . ZUFALLSVARIABLE UND V E R T E I L U N G E N

Sowohl der Erwartungswert einer Poisson-Verteilung als auch ihre Varianz sind also gleich dem Parameter /i der Verteilung. Dies macht man sich anschaulich daran klar, dass die Po(^)-Wahrscheinlichkeiten die Grenzwerte von ^(n,7r)-Wahrscheinlichkeiten sind. Erwartungswert und Varianz einer jeden 5 ( n , 7r)-Verteilung betragen nn bzw. n7r(l — TT). Wegen nn -^ fx muss der Erwartungswert im Limes gleich fi sein. Ebenso gilt wegen TT -^ 0 fiir die Varianz die Limesbeziehung n7r(l — TT) —^ /i. Dies lasst sich auch exakt zeigen: BEWEIS

ES

gilt J,

OO

OO

x=0

=

e

x=l

^

X\

-'Y^t^iB^ -= /ie"-''^a:=0 x=l

M-

Die zweite dieser Gleichungen ergibt sich durch Weglassen des ersten Summanden (der gleich null ist), die vierte durch Ubergang vom Summationsindex X (beginnend mit eins) zum Summationsindex x — 1 (beginnend mit null). Um die Varianz von X E[X%

E

E[X'^

Po{fi) zu bestimmen, berechnen wir zunachst

x2e-
n ist. Ftir Erwartungswert und Varianz einer Pareto-Verteilung erhalten wir fx = E[X] =

rye

, a —1

falls a > 1,

102

2. ZUFALLSVARIABLE UND V E R T E I L U N G E N

V[X] = E [X^] - iJ,^

V\X\ =

ac a-1

a-2

ac" (a-2)(a-l)2'

falls a > 2 .

Beispiel 2.25 (Fortsetzung): Erwartungswert und Standardabweichung der Pareto-Verteilung mit a == 2.1 und c — 1500 berechnet man wie folgt: E[X] V[X]

Vvjx]

-

2.1 • 1500

- 2 863.64 € ,

2.1 • 1500^ - 3 9 049 586.78 € 2 , 0.1 1.12 -= 6 248.97 € . -

1st X ~ Par {a, c) und ist c' > c, so gilt fiir x > c' P{X >x\X

>c') =

PiX>x) P(X>c')

(f)" (^)"

V^

Die bedingte Verteilung von X unter der Bedingung X > c' ist also wieder eine Pareto-Verteilung. Sie hat denselben Parameter a wie die nicht bedingte Verteilung; ihr anderer Parameter ist c'. Beispiel 2.26: Die Einkommen (in €) der Mitglieder eines noblen Golfklubs seien Par{a, c)-verteilt mit a = 2.4 und c = 200000. Wie ist das Einkommen derjenigen Teilgesamtheit der Mitglieder verteilt, deren Einkommen mindestens d = 300000 € betragt? Nach obiger Uberlegung ist dieses Einkommen Par {a = 2.4; c' = 300000)verteilt.

2.4.4

Normalverteilung

Eine Zufallsvariable X heiCt normalverteilt oder GauB-verteilt'^ mit Parametern /i G M und a^ > 0, in Zeichen: X ^ N (/i,a-2), wenn ihre Dichte durch /(x) = ^ = e - H ^ r , gegeben ist. •^Carl Priedrich Gaufi (1777-1855)

xGM,

2.4.

103

SPEZIELLE STETIGE VERTEILUNGEN

^ u

Abbildung 2.21: Dichte (f{u) der Standard-Normalverteilung Im Spezialfall fx = 0 und a'^ = 1 heii3t die Verteilung Standard-Normalverteilung. In diesem Buch bezeichnen wir eine standard-normalverteilte Zufallsvariable mit [/, [/ ~ A^(0,1), und ihre Dichte mit ^(u). Es ist

ue Zwischen der Normalverteilungsdichte / mit Parametern /i und cr^ und der Standard-Normalverteilungsdichte (p besteht ofFenbar die folgende Beziehung: f{x)

1 = -(p[

fx-fx -——

X e.

Die Formel entspricht der Formel (2.5) ftir die Dichte einer affin-linear transformierten Variablen. Auf die affin-lineare Transformationsbeziehung zwischen U und X werden wir unten genauer eingehen. Eigenschaften der Dichtefunktion Die Dichtefunktion (^ (u), u G M, der Standard-Normalverteilung hat folgende wesentliche Eigenschaften (vgl. Abbildung 2.21): 1. (f{u) hat sein Maximum an der Stelle u = 0 mit (p{0) = -4= = 0.39894. 2. (f{u) ist symmetrisch zu c = 0, d.h. if {—u) = (p (u) ftir alle li G R. 3. (f{u) ist positiv ftir alle u eR und geht sowohl iui u —^ oo als auch ftir u -^ —00 gegen 0. 4. (p{u) besitzt Wendepunkte an den Stellen u = 1 und u = —1.

104

2. ZUFALLSVARIABLE UND V E R T E I L U N G E N

Insbesondere ist eine standard-normalverteilte Zufallsvariable U ~ iV(0,1) unimodal mit eindeutigem Modus 0 und nimmt Werte auf der ganzen reellen Achse an. Aus den Eigenschaften von (p folgen unmittelbar die Eigenschaften der Dichte f{x) einer beliebigen Normalverteilung N{II^(T'^)^ namlich: 1. f{x) hat sein Maximum an der Stelle x = /i mit / ( / i ) = - . - l = = 1.0.3989. cr v27r CF 2. f{x) ist symmetrisch zu //, d.h. / (// — x) = / (/i + x) fiir alle x G M. 3. / ( x ) ist positiv fiir alle x G M und geht sowohl fiir x —> oo als auch fiir X —> —00 gegen 0 .

4. /(x) besitzt Wendepunkte an den Stellen x = ^-\- a und x = fx — a. Eine normalverteilte Zufallsvariable X ~ N{fx,a^) ist unimodal mit eindeutigem Modus fi und nimmt beliebig grofie und kleine Werte an. Verteilungsfunktion Die zur Standard-Normalverteilung gehorende Verteilungsfunktion wird mit ^ bezeichnet,

vgl. Abbildung 2.23. Dieses Integral lasst sich nicht durch bekannte Funktionen wie Polynome oder Exponentialfunktionen ausdriicken oder sonst auf einfache Weise berechnen. Eine Wertetabelle fiir ^{u) findet man als Tabelle 4 im Tabellenanhang. Manche Taschenrechner geben ebenfalls die Werte von $ {u) aus. Dennoch lassen sich einige Eigenschaften der Verteilungsfunktion ^ direkt ableiten: 1. $ ist streng monoton wachsend, da $ ' {u) =

(f{u)>0.

2. Da die Dichtefunktion cp symmetrisch zu 0 ist, folgt fiir die Verteilungsfunktion $ (u) = 1 - $ {-u) , u G Insbesondere ist ^ (0) = i .

2.4.

105

SPEZIELLE STETIGE VERTEILUNGEN

n

1

r—I

1

\—^n—'^i

-14 -12 -10 - 8 - 6 - 4 - 2

0

— -•

iV(0,l) iV(0,4)

-

iV(2,l)

r"—r^^—i

\

1

1

2

8

10

12

4

6

r^ ^ 14

Abbildung 2.22: Dichten verschiedener Normalverteilungen ^u)

•>- u

Abbildung 2.23: Verteilungsfunktion ^{u) der Standardnormalverteilung Da die Verteilungsfunktion $ streng monoton wachsend ist, besitzt sie eine Umkehrfunktion. Fiir jedes p G]0, 1[ erhalt man deshalb das p-Quantil der Standard-Normalverteilung Up = Q{p) = $ - 1 (p) als eindeutige Losung der Gleichung $ (u) = p. Es gilt hier $ ($~^ (p)) =p ^~^ ($ (u)) — u

fiir 0 < p < 1, fiir—oo 0, so gilt fiir die mit /j. und a transfermierte Zufallsvariable aU -\- fx ^ N [ii.a'^) . BEWEIS Die erste Aussage weist man so nach: Die Verteilungsfunktion der standardisierten Variablen ist

Fx^{u)

= = =

P{^^^^ Excel/SPSS).

2.4.6

Ubersicht liber einige spezielle Verteilungen

Die folgende Ubersicht enthalt Erwartungswert, Varianz und Trager aller bisher eingeftihrten speziellen Verteilungen. Ftir alle aufier der hypergeometrischen Verteilung sind auch die Momentenschiefe und die Wolbung aufgeftihrt.

2.4.

115

SPEZIELLE STETIGE VERTEILUNGEN

«

CO

CO

4-

'^

1

^

II

CO

+ t^

1

T—t

CM

oi 1 CO

CO

CO

Oi | i O

^ +

1

Ci

-H| :i

1

«^

CD

1 CN

1 s^

7 +

+ CO

CO 1

1

CO

1

1^-^

^1 ^

«.

CN

H^

1 1—1

+^

CN

+ I

1

1 o

o

o

cs

rH

rH

1

CO T-H

>

1

^

+A > 1 CN \

VI '^

r^

C

VI

1

O


1). Es gilt P{X > 1) = 1 - P{X = 0). Die Losung ergibt sich flir

120

2. ZUFALLSVARIABLE UND V E R T E I L U N G E N

X ~ 5(3,0.3) aus P{X > 1) = 1 - BINOMVERT(0;3;0,3;falsch) = 0.657. Wegen P{X < 0) = P{X = 0) kann man auch so vorgehen: P{X > 1) = 1 - BINOMVERT(0;3;0,3;wahr) = 0.657 SPSS I In SPSS lasst sich die gesuchte Wahrscheinlichkeit mit den Funktionen CDF.BINOM(q.n,p) oder PDF.BINOM(q,n,p) bestimmen: 1 - PDF.BINOM(0.3,0.3) = 1 - CDF.BINOM(0,3,0.3) = 0.657 Zur Berechnung der Bernoulli-Verteilung, enthalt SPSS auch die Funktionen CDF.BERNOULLI(q,p) bzw. PDF.BERNOULLI(q,p). Excel I Aufierdem gibt es in Excel die Punktion KRITBINOM(Versuche; Erfolgswahrscheinlichkeit;Alpha). Mit dieser Punktion kann das kleinste k bestimmt werden, flir das P{X < k) > Alpha gilt. Im Beispiel ftir Alpha = 0.05 und X ~ B{n = 5,p = 0.5) ist k = KRITBINOM(5;0,5;0,5) = 2 . Zur Poissonverteilung (Beispiel 2.17, Seite 80): Wahrscheinlichkeiten Poisson-verteilter Zufallsvariablen werden in Excel mit der Punktion POISSON(x;Mittelwert;Kumuliert) berechnet. Dabei entspricht X der Anzahl der Falle, wahrend Mittelwert ftir den Erwartungswert ^ steht. Im Beispiel 2.17 ist X ~ Po(2.5). Man erhalt P{X = 1) = P{X > 3) =

POISSON(l;2,5;f alsch) = 0.2052, 1 - P{X < 2) = 1 - POISSON(2;2,5;wahr) = 0.4562.

SPSS I Zur Berechnung von Poisson-Wahrscheinlichkeiten konnen die Funktionen CDF.POISSON(q,mittel) und PDF.POISSON(q,mittel) aufgerufen werden. In SPSS entspricht q der Anzahl x, mittel ist der Mittelwert /J, der Poisson-Verteilung. Fiir die Beispielaufgabe erhalt man P{X = 1) =PDF.POISSON(l,2.5) = 0.2052, P{X > 3) = 1 - P{X 1), wenn X ~ H{n = 2, AT = 10, M = 3). Excel I Die Losung dieser Aufgabe in Excel ergibt sich unter Benutzung der Punktion HYPGEOMVERT(Erfolge_S;Umfang_S;Erfolge_G;Umfang_G) als P{X > 1) = 1 - P{X =r 0) = 1 - HYPGEOMVERT(0;2;3;10) - 0.5333.

2.6.

ANHANG: VERWENDUNG VON EXCEL UND

SPSS

121

SPSS I Zur Losung derselben Aufgabe mit SPSS wird die Funktion PDF.HYPER(q,gesamt,stichpr,treffer) benutzt. Anders als Excel erlaubt es SPSS, kumulierte Wahrscheinlichkeiten der hypergeometrischen Verteilung in der Form P{X < k) direkt zu berechnen. Die Funktion nennt sich CDF.HYPER(q,gesamt,stichpr,treffer). Da P{X = 0) = P{X < 0) gilt, lasst sich die gegebene Aufgabenstellung mit jeder der beiden erwahnten Funktionen losen: P{X>1)

= =

1-P{X = 0) - 1 - PDF.HYPER(0,10.2,3) 1-CDF.HYPER(0,10,2,3) = 0.5333

Zur Exponentialverteilung (Beispiel 2.24, Seite 98): Excel I Das Beispiel 2.24 wird in Excel mit der Funktion EXPONVERT(x;Lambda;Kumuliert) berechnet. Flir die in dem Beispiel unter a) gesuchte Wahrscheinlichkeit erhalt man P{X > 1000) = 1 - EXPONVERT(1000;s^;wahr) = 0.2865. SPSS]SPSS stellt die Funktionengruppe *.EXP zur Verfiigung. Man berechnet P{X > 1000) = 1 - CDF.EXP(1000,-^) = 0.2865. Mit dieser Funktionengruppe kann auch Aufgabenteil b) leicht gelost werden: xo.g = IDF.EXP(0.9,-^) = 1842.0681 oUU

Zur Pareto-Verteilung (Beispiel 2.25, Seite 101): SPSS] In SPSS ist die Funktionenfamilie *.PARETO implementiert. Aufgabenteil a) lasst sich mittels der Quantilfunktion IDF.PARETO(p,schwelle,form) losen: i^(^o.5) = 0.5

=>

XQ,5 = IDF.PARETO(0.5,1500,2.1) - 2086.60.

Fiir Aufgabenteil b) verwendet man die Verteilungsfunktion CDF.PARETO(q,schwelle,form): 1 - F(2500) = 1 - CDF.PARETO(2500.1500,2.1) = 0.3421. Zur Normalverteilung (Beispiele 2.27 und 2.28, Seiten 106 und 109): Excel I Rund um die Normalverteilung stellt Excel mehrere Funktionen zur Verfiigung. Zur Losung der ersten Teilaufgabe aus Beispiel 2.27 a) kann die Verteilungsfunktion STANDNORMVERT(z) eingesetzt werden. Es gilt P{U > 0.5)

= -

1 - $(0.5) 1 - STANDNORMVERT(0,5) = 0.3085.

122

2. ZUFALLSVARIABLE UND VERTEILUNGEN

Zur Ermittlung der Quantile 0:0.2 bzw. 0:0.7 mittels Excel wird auf die Quantilfunktion STANDNORMINV(Wahrsch) zuriickgegriffen: X0.2 = X0.7 =

STANDNORMINV(0,2) - -0.8416, STANDNORMINV(0,7) = 0.5244.

Neben der Verteilungsfunktion und der Quantilfunktion der Standardnormalverteilung bietet Excel auch die entsprechenden Funktionen flir allgemeine Normalverteilungen der Form N{fi,a'^) an. Im Beispiel 2.28 ist X -- N{fi = 2,a'^ = 25). Die Wahrscheinlichkeit P{X > 3) lasst sich mit der Funktion NORMVERT(x;Mittelwert;Standabwn;Kumuliert) berechnen: P{X > 3) = 1 - P{X < 3) = 1 - NORMVERT(3;2;5;wahr) = 0.4207 Die Quantile Xp werden durch die Funktion NORMINV(Wahrsch;Mittelwert; Standabwn) berechnet, -

xo.s

NORMINV(0,8;2;5) = 6.2081,

:co.95 =

NORMINV(0,95;2;5) = 10.2243.

SPSS I Auch mit SPSS lassen sich diese Aufgaben bearbeiten. Die Funktionen sind von der Form *.NORMAL(...). Die Bestimmung von P{X > 3) lasst sich mit der Funktion CDF.NORMAL(q,mittel,stdAbw) von SPSS wie folgt bewerkstelligen: P{X > 3) = =

1 - P{X < 3) l-CDF.NORMAL(3,2,5) = 0.4207

Die Berechnung der Quantile Xp kann mit der Funktion IDF.NORMAL(p,mittel,stdAbw) ahnlich wie in Excel vorgenommen werden: X0.8 = ^0.95 =

IDF.NORMAL(0.8.2,5) = 6.2081 IDF.NORMAL(0.95,2,5) = 10.2243

Zur Lognormalverteilung (Abschnitt 2.4.5): Excel I Excel bietet die Verteilungsfunktion und die Quantilfunktion der Lognormalverteilung LA/"(//,(7^). Haufig wird von Aktienkursen angenommen, dass sie lognormalverteilt sind. Sei St der Kurs einer bestimmten Aktie zur Zeit t und gelte St ln(5t)

= exp(a + ^ ' t + (7-Zt), =

a + P't-\-a'

Zt

d.h.

mit Zt-^

N{0,t),

2.6.

ANHANG: VERWENDUNG VON EXCEL UND

SPSS

123

Dann ist St ~ LN{a-{-0't, cr^). Als Beispiel seia = l,t = 2, p = 0.5 und a = d gewahlt. Gesucht sei P{Si) > 1. In Excel wird die Aufgabe mit der Funktion LOGNORMVERT(x;Mittelwert;Standabwn) gelost. Hier entspricht Mittelwert dem /i und Standabwn dem a in LNdd^a"^), Flir die genannten Parameter erhalten wir /j, = 2 und P{Si > 1) = 1 - P{Si < 1) = 1 - LOGNORMVERT(l;2;5) = 0.6554. Die Quantile Xp der Lognormalverteilung werden mit der Funktion LOGINV(p; Mittelwert;Standabwn) bestimmt. Der Median der Lognormalverteilung XQ.S ist mit den genannten Parametern gleich xo.6 = LOGINV(0,5;2;5) = 7.3890. SPSS I Die Losung der obigen Aufgabe ist auch in SPSS unter Verwendung der Funktionenfamilie *.LNORMAL(q,a,b) moglich. Dabei entspricht (anders als in Excel!) a dem Median e^ der Lognormalverteilung L(/z,(j^), b dem a und q dem Argument der Verteilungsfunktion. Mit den obigen Parametern erhalten wir P(5i>l) xo.5

= =

1-P(5i-{l

Wie man sieht, haben Z und V die gleichen Randverteilungen wie X und Y in Teil a), die gemeinsamen Verteilungen sind jedoch verschieden. Im Gegensatz zu X und Y sind Z und V nicht unabhdngig. Im Allgemeinen wird, wie man an diesem Beispiel sieht, die gemeinsame Verteilungsfunktion durch die Randverteilungsfunktionen nicht eindeutig best immt.

3.1.

GEMEINSAME VERTEILUNG VON ZUFALLSVARIABLEN

129

Unabhangigkeit transformierter Zufallsvariablen Man kann zeigen: Wenn zwei Zufallsvariable X und Y stochastisch unabhangig sind, so sind auch die beiden Zufallsvariablen g{X) und h{Y) stochastisch unabhangig, wobei g und h beliebige reellwertige Funktionen seien. Mit anderen Worten, die Unabhangigkeit wird auf Transformationen der Zufallsvariablen „vererbt". Gemeinsam diskrete Verteilung Zwei Zufallsvariable X und Y heiiSen gemeinsam diskret verteilt, wenn es endlich viele (oder abzahlbar unendlich viele) Werte xi, X2,... und yi, y25 • • • gibt, so dass

j

k

ist. Die Wahrscheinlichkeiten P{X --= Xj) --

- Xj^Y

-=

- Xj^Y

=^Vk).

yk)^

j == 1 , 2 , . . . ,

k

und

p(r =:= yk) =

k^ = 1 , 2 , . . . ,

3

heifien Randwahrscheinlichkeiten von X bzw. Y. Wenn X und Y gemeinsam diskret verteilt sind, sind ihre Randverteilungen ebenfalls diskret. Unter der Voraussetzung P{Y = yk) > 0 konnen wir die bedingte Wahrscheinlichkeit fiir X = Xj unter der Bedingung, dass Y = y^ gilt, definieren. Sie ist gleich P{X = Xj\Y--y^'

P{Y = yk)

'

i = i,2,....

Ebenso definiert man P{Y =

yk\X-=^^^-

P{X = xj,Y = yk) P{X = xj) '

fc = l , 2 , . . . ,

unter der Voraussetzung P{X = Xj) > 0. Auch die bedingten Verteilungen sind diskrete Verteilungen. Sind X und Y gemeinsam diskret verteilt, so sind sie genau dann stochastisch unabhangig, wenn flir alle j und k die Bedingung P{X = Xj, y = y/fc) = P{X = ^j) • Piy = Vk)

(3.1)

erftillt ist. Beispiel 3.2: Wir betrachten eine Urne mit N Kugeln; davon seien M rot und N — M weifl.

130

3. GEMEINSAME VERTEILUNG UND GRENZWERTSATZE

a) Es wird zweimal mit Zurucklegen gezogen. Sei falls die erste gezogene Kugel rot ist, falls die erste gezogene Kugel weii3 ist, Y

falls die zweite gezogene Kugel rot ist, falls die zweite gezogene Kugel weifi ist.

-~{l:

Die gemeinsamen Wahrscheinlichkeiten von X und Y sowie ihre Randwahrscheinlichkeiten sind in der folgenden Tabelle zusammengefasst:

1

y=o

y =1 1 M N-M 'N \ N

N-M N

X =0

X = l\

\

M

N-M

N'

N

m'\

N-M N

M N

M AT

1

Es ist zu priifen, oh die Bedingung (3.1) in den vier Fallen (X^Y) = (0,0), (0,1), (1,0), (1,1) erfullt ist. Das ist offensichtlich der Fall. Demnach sind X und Y stochastisch unabhdngig. b) Es wird zweimal ohne Zurucklegen gezogen. Seien X und Y wie in a) definiert. Nun gilt:

[ X =0

\ X = l\

Y =0 N-M N

Y =l N-l-M N-l

'

M

N-M

¥'

N-l

N-M N

N-M N

M ' N -I

M N '

M-l N-l

M

77

1 \

N-M N

M N

1

3.1.

GEMEINSAME VERTEILUNG VON ZUFALLSVARIABLEN

131

Die Randwahrscheinlichkeiten von X und Y sind beim Ziehen mil Zurilcklegen (Teil a)) und ohne Zurucklegen (Teil b)) dieselben. Beim Ziehen ohne Zuriicklegen sind X und Y jedoch nicht unabhdngig, da die Bedingung (3.1) zum Beispiel fiir die Werte X = 1,Y = 0 verletzt ist; es gilt ndmlich M N-M N ' N

M ^ N

N-M N-1 '

G e m e i n s a m stetige Verteilung Zwei Zufallsvariable X und Y heifien gemeinsam stetig verteilt, wenn es eine Funktion /.XY gibt mit

FxY{oo,y)=^

y

X

/

/ fxY{z,v)dzdv

fur alle x,y G M.

(3.2)

Die Funktion fxY heifit dann gemeinsame Dichte von X und Y. An den Stellen (x,y), an denen FXY partiell nach x und y differenzierbar ist, gilt fxY{x,y)

dxdy

(3.3)

FxY{x,y).

Die gemeinsame Dichte hat die Eigenschaften fxY{x,y) oo

oo

/

/

> 0

fur a:,t/ G M,

fxY{x,y)dxdy

1.

— oo —cx)

Aus der Dichte fxY kann man ftir gegebene ai, 6i, a2,62 ^ I^ die gemeinsame WahrscheinHchkeit 62

P(ai '

f e-^-^ + | e - ^ - ^ (2e-^ - 1) (2e-^ - 1), I 0

falls z,v>0, sonst.

Die folgende Punktion von a: € R, fxY{x,y) fx\Y=y{oo) = { friv) 0,

'

falls / r ( 2 / ) > 0 , falls fY{y) = 0,

nennt man die bedingte Dichte von X unter der Bedingung, dass Y = y zutrifft. Ebenso ist durch

fY\x=x{y)

fxY{x,y) fx{x) 0,

'

falls

fx{x)>^,

falls / x ( x ) = 0 ,

fiir alle y G R die bedingte Dichte von Y unter der Bedingung X = x definiert. Beispiel 3.1 (Fortsetzung): Fiir die Gluhlampen in Teil b) wollen wir die bedingte Dichte von Z unter der Bedingung V = 2 berechnen. Zundchst stellen wir fest, dass wegen fv{2) = e~^ > 0 die bedingte Dichte fz\v^2{^)^^ ^ ^?

3.1.

135

GEMEINSAME VERTEILUNG VON ZUFALLSVARIABLEN

definiert ist. Fiir z 0 gilt fz\V=2{z)

fzv{z,2) /v(2)

=

e-^-2 + ie-^-2(2e-^ - l)(2e-2 - 1) 1 + ^e-^(2e-^ - l)(2e-2 - 1)

=

e

=

e-^ - 0.3647e-^(2e-^ - 1).

Mit der Bedingung V = l.b berechnet man ebenso die bedingte Dichte _ r e-' - 0. 2769e-^(2e-

fz\v=iAz)

1),

" I 0'

falls z > 0, falls z < 0,

Wie wir sehen, hdngt im Teil b) des Beispiels die bedingte Dichte vom Wert der Bedingung ab. Fiir die Gliihlampen im Teil a) hingegen gilt (unter der Voraussetzung y >0) o-x-y

= e

fx\Y=y{x)

fviy)

falls X > 0 , falls X < 0 .

0,

Hier ist unter jeder Bedingung Y = y, y > 0, die bedingte Dichte von X unabhdngig von der Bedingung und gleich der Randdichte vonX. Dies liegt an der stochastischen Unabhdngigkeit der beiden Variablen X und Y, Gleiches gilt fiir die bedingte Dichte von Y unter der Bedingung X — x, x >0. Allgemein gilt: Wenn zwei Zufallsvariable unabhangig sind, sind ihre bedingten Dichten gleich ihren Randdichten. Kovarianz zweier Zufallsvariablen E[Y]. Die Zahl

Bezeichne /ix = ^l^]

axY = Gov [X, Y] = E [{X -fix){Y-

und /dy =

fiy)]

heifit Kovarianz von X und Y. Es ist^

' T,Ili^}-l^x)iyk-IJ'Y)P{X J

= Xj,Y = yk) ,

f^

falls X, Y gemeinsam diskret verteilt sind,

Cou[x,r] = < ^

oo

oo

/

/ {x-f^x){y-fJ^Y)fxY{x,y)

dxdy,

falls X, Y gemeinsam stetig verteilt sind.

^Die Kovarianz ist hier nur dann definiert, wenn die Doppelsumme bzw. das Doppelintegral einen endlichen Wert ergibt.

136

3. GEMEINSAME VERTEILUNG UND GRENZWERTSATZE

Die wichtigsten Eigenschaften der Kovarianz sind: 1. Die Kovarianz ist symmetrisch in X und Y, d.h. Cov[X,Y]

= Cov[Y,X]

.

2. Die Kovarianz ist nicht normiert. Sie kann behebig grofie positive und beUebig kleine negative Werte annehmen. Das Vorzeichen von Cov [X, Y] lasst sich so interpretieren: Eine positive Kovarianz deutet an, dass es einen positiv ausgerichteten hnearen Zusammenhang zwischen X und Y gibt, wobei grofien X-Werten tendenziell grofie F-Werte entsprechen. Eine negative Kovarianz deutet an, dass es einen negativ ausgerichteten hnearen Zusammenhang zwischen X und Y gibt, wobei grofien X-Werten tendenziell kleinere F-Werte entsprechen. Eine Kovarianz nahe null deutet an, dass es keinen derartigen hnearen Zusammenhang gibt. 3. Flir beliebige reelle Zahlen a, 6, c und d gilt Cov [a 4- 6X,c + dy] - 6 • d . Cov [X,Y] . 4. Es gilt die Umformung Cov[X,Y]

=

E\{X-E[X]){Y-E[Y])]

=

E [XY] - E [XE [Y]] -E[E

[X] Y]-\-E[E

[X] E [Y]] ,

also Cov [X, Y]=E

[XY] -E[X]E

[Y] .

Diese Formel erieichtert oft die Berechnung einer Kovarianz. Aufierdem sieht man aus ihr, dass Cov[X,Y]={)

E [XY] = E[X]E

[Y] .

5. Eine hinreichende, aber nicht notwendige Bedingung fiir Cov[X^ "K] = 0 ist, dass X und Y unabhangig sind: X und Y stochastisch unabhangig

Cov[X,Y]=^

BEWEIS Seien X und Y unabhangig. Wenn sie gemeinsam diskret verteilt sind, gilt

3.1.

GEMEINSAME VERTEILUNG VON ZUFALLSVARIABLEN

E[XY]

=

137

^ ^ x , y , P ( X = x,-,y = y,) j

k

= YlYl'^jykP{X j

= xj)P{Y = yk)

k

= YlxjP{X

= Xj)Y,ykP{Y

j

=

= yk)

k

E[X]E[Y],

[Y] = 0. Wenn X und Y stetig Es folgt Cov[X, Y] = E [XY] -E[X]E verteilt sind, verlauft die Rechnung analog. D Ein Beispiel zweier Zufallsvariablen, die Kovarianz null besitzen, aber nicht unabhangig sind, wird in Beispiel 3.3 gegeben. Korrelationskoeffizient zweier Zufallsvariablen Eine positive Kovarianz weist auf eine positive Abhangigkeit von X und Y hin. Die Kovarianz stellt allerdings kein Mafi der Abhangigkeit dar, da sie skalenabhangig ist. Durch Normierung der Kovarianz erhalt man den KorrelationskoefRzient e n nach Bravais-Pearson^ _ .^^, pxY = Corr \X, Y\ =

Cov[X,Y]

./v\x\^/vWV

vorausgesetzt, X und Y besitzen positive, endliche Varianzen. Die wesentlichen Eigenschaften des Korrelationskoeffizienten sind: 1. Der Korrelationskoeffizient hat keine Benennung, er ist dimensionslos. 2. Der Korrelationskoeffizient ist normiert, -l 0, falls bd

X, Y unkorreliert

Die umgekehrte Implikation trifft im Allgemeinen nicht zu, wie das folgende Beispiel zeigt. Beispiel 3.3: Es sei X = [/~A^(0,1)

und

Y = X'^.

Dann ist E[X] = 0, E[Y] = E[X'^] = V[X] = 1 und Cov[X,Y]

=

Cov[X,X'^]

=

E[X^]-E[X]

=

E[{X-0){X'^-1)] = 0,

da (wegen der Symmetrie der Standard-Normalverteilung zu null) E[X^] = 0 ist. Es gilt also pxv = 0. Andererseits folgt wegen der funktionalen Beziehung zwischen X und Y z.B. aus dem Ereignis X >2 das Ereignis y > 4. Daher gilt

P(X>2,y>4) P{X > 2) • P{Y > 4)

= P(X>2),
2),

Demnach sind X und Y stochastisch abhdngig.

aber da P{Y > 4) < 1 ist.

3.1.

GEMEINSAME VERTEILUNG VON ZUFALLSVARIABLEN

139

Trotz exaktem quadratischem Zusammenhang zwischen X und Y ist im Beispiel die Korrelation gleich null. Man erkennt daran, dass pxv zwar die Starke eines etwaigen linearen Zusammenhanges, aber nicht die eines quadratischen Zusammenhanges misst. Beispiel 3.2 (Fortsetzung): Wir betrachten wieder die Urne mit N Kugeln, davon seien M rot und N — M weifi. Es sei „

_ ~

/ 1^ (^ 0

falls die erste gezogene Kugel rot ist, sonst,

^

_ ""

J 1, [ 0

falls die zweite gezogene Kugel rot ist, sonst.

Die gemeinsame Verteilung von X und Y wurde schon hergeleitet unter der Voraussetzung, dass 1. mit Zurilcklegen gezogen wurde, 2. ohne Zurilcklegen gezogen wurde. Im ersten Fall, beim Ziehen mit Zurilcklegen, sind X und Y unabhdngig und folglichCov[X,Y] =0. Im zweiten Fall sind X und Y nicht unabhdngig. Wir berechnen ihre Kovarianz wie folgt: E{X]

=

EIXY]

E{Y] =

f ,

= 0+ 0+ 0+ 1

Cov[X,Y]

=

^(^-^)

N{N-l)

E[XY]~E[X]E[Y] NMjM

=

=

V [X] ^_(M_y

^ ^ ^ ^ ^ - ^ - ^

- 1) - M^jN - 1) _ M{N - M) N'^(N-l) " ~ N'^{N - 1) '

Zur Berechnung des Korrelationskoeffizienten V[Y]

'

benotigen wir noch

E [X^] - E [Xf 2

_ MN-M'^

_

Als Korrelationskoeffizient ergibt sich Cov[X,Y]

] _

M(N-M)

140

3. GEMEINSAME VERTEILUNG UND GRENZWERTSATZE

Man sieht also, dass beim Ziehen ohne Zurilcklegen X und Y negativ korreliert sind. Allerdings ist pxY ^ 0, wenn die Anzahl N der Kugeln in der Ume grofl ist. E r w a r t u n g s w e r t u n d Varianz einer S u m m e Zum Schluss dieses Abschnittes geben wir zwei wichtige Rechenregeln fiir den Erwartungswert und die Varianz einer Summe zweier Zufallsvariablen X und Y an. Der Erwartungswert einer Summe ist gleich der Summe der Erwartungswerte, E[X + Y] = E[X] + E[Y], BEWEIS

E[X + Y]

Fiir gemeinsam diskret verteilte Zufallsvariable X, Y ist =

}_^}_^{xj J

+ yk)PiX

3

= yk)

k

k

i

=

= xj,Y

k

3

k

E[X] + E[Y].

Fiir gemeinsam stetig verteilte Zufallsvariable X,Y analog.

verlauft die Rechnung D

Die Varianz einer Summe ist gleich der Summe der Varianzen plus zweimal die Kovaxianz, V\X + Y] = V[X] + V[Y] + 2 Cov\X, Y]. BEWEIS

Allgemein gilt y [ X + y]

=

E[{X^Y-E[X

=

E[{{X-E[X])

+

=

E[{X - E[X\f]

+ E[{Y -

+2E[{X =

+ Y\f] {Y-E[Y\)y E[Y]f]

- E[X]){Y - E[Y])]

V[X] + V[Y] +

2Cov[X,Y].

a

Die Varianz der Summe wird durch die Kovarianz beeinflusst. Nur wenn die Kovarianz null ist, d.h. die beiden Variablen unkorreliert sind, ist die

3.1.

GEMEINSAME VERTEILUNG VON ZUFALLSVARIABLEN

141

Varianz der Summe gleich der Summe der beiden Varianzen. Ansonsten gilt: Eine positive Kovarianz vergrofiert, eine negative Kovarianz verkleinert die Varianz der Summe. Die beiden Rechenregeln kann man unmittelbar auf L i n e a r k o m b i n a t i o n e n von X und Y iibertragen. Fiir beliebige a, 6 G R gilt E[aX + bY]

=

V[aX + bY]

=

aE[X]-\-bE[Y], a'^V[X] + b'^V[Y] + 2abCov[X, Y].

Wir illustrieren diese wichtigen Formeln an zwei Beispielen aus der Portefeuilleanalyse. Beispiel 3.4- Seien RA und RB die auf ein Jahr bezogenen prozentualen Renditen der Aktien A bzw. B und sei fXA=E [RA] ,

f^B = E [RB] ,

aA = VyWA]^

^B =

PAB = Corr[RA,RB]

VV[RB],

-

Ein Anleger legt den Anteil a seines Vermogens in A-Aktien und den restlichen Anteil 1 — a in B-Aktien an. Driicken Sie die erwartete Gesamtrendite und die Varianz der Gesamtrendite durch die obigen Grofien aus und diskutieren Sie die Formeln. Die Gesamtrendite ist RG =aRA +

{l-a)RB-

Ihr Erwartungswert und ihre Varianz betragen E[RG]

=

V[RG]

=

a^A-\-{'^-o)iiB'> a^al +

{l-afal-i-2a{l-a)aA(TBpAB-

Man sieht: • Die erwartete Gesamtrendite ist ein gewichtetes Mittel der einzelnen Renditen. • Wenn PAB negativ ist, ist die Varianz der Gesamtrendite kleiner als im Falle unkorrelierter Renditen. • Wenn PAB positiv ist, ist die Varianz der Gesamtrendite grofler als im Falle unkorrelierter Renditen.

142

3. GEMEINSAME VERTEILUNG UND GRENZWERTSATZE

Interessant ist der hypothetische Fall PAB = —1- Es gilt dann V

[RG]

=

(a CAf + ((1 - a) asf

=

{aaA-{l-a)aBf

- 2a a A (1 - a) GB

.

In diesem Fall kann man durch geeignete Wahl des Parameters a die Varianz der Gesamtrendite auf null reduzieren, es gilt ndmlich V[RG]=0

3 lauten entsprechend. Auch gemeinsam diskret verteilte Zufallsvariable, ihre gemeinsame Wahrscheinlichkeitsfunktion und ihre Randwahrscheinlichkeiten werden analog definiert. Stochastische Unabhangigkeit Die Zufallsvariablen X^, z = 1 , . . . , n hei6en stochastisch unabhangig (kurz: unabhangig), wenn die gemeinsame Verteilungsfunktion das Produkt der Randverteilungsfunktionen ist, d.h. wenn Fxu...,Xn {xi,...,Xn)

= Fx, (xi) . . . . 'Fx^ (xn)

fur a l l e x i , . . . , X n G

Wenn die Zufallsvariablen X i , . . . , Xn stochastisch unabhangig sind und alle dieselbe Randverteilung besitzen, nennt man sie unabhangig identisch verteilte Zufallsvariable. Im Fall gemeinsam stetig verteilter Zufallsvariablen ist die stochastische Unabhangigkeit aquivalent zur Gtiltigkeit einer entsprechenden Produktformel fiir die Dichten. Im Fall gemeinsam diskret verteilter Zufallsvariablen entspricht dem eine Produktformel fiir die Wahrscheinlichkeiten. Folgerungen aus der Unabhangigkeit Wenn n > 2 Zufallsvariable stochastisch unabhangig sind, dann sind sie jeweils paarweise unabhangig, und deshalb auch paarweise unkorreliert. Ferner folgt aus der stochastischen Unabhangigheit der Zufallsvariablen X i , . . . , X n , dass beliebige Transformationen gi{Xi),.,, ,gn{Xn) ebenfalls stochastisch unabhangig sind, die Unabhangigkeit sich also „vererbt". Zum Beispiel sind, wenn Xi und X2 unabhangig sind, auch Xi und exp(X2) unabhangig. Erwartungswert und Varianz einer Summe Zum Schluss dieses Abschnittes sollen die Rechenregeln fiir den Erwartungswert und die Varianz einer Summe zweier Zufallsvariablen (vgl. Abschnitt 3.1.1) auf n Zufallsvariablen verallgemeinert werden.

3.1.

GEMEINSAME VERTEILUNG VON ZUFALLSVARIABLEN

145

Wir betrachten gemeinsam verteilte Zufallsvariable X i , . . . , Xn und reelle Zahlen ai, . . . , an- Fur den Erwartungswert und die Varianz der Linearkombination Y^^=i ^i^i gilt

Y^aiXi

=

E [aiXi

-f 0 2 ^ 2 + . . . +

anXn]

=

aiE[Xi] + ... + anE[Xn]

i=l

=

Y^aiE[Xi], 2=1

V ^aiXi

-

V [aiXi + . . . + anXn] n

n

i = l j=i

i=i n

=

^

n

n

n

a2 K [Xi] + 2 X I E

«i«i Cov [Xi,Xj

i=l

Bei der letzten Umformung nutzt man die Symmetrie der Kovarianz aus: Wegen Cov [Xi^Xj] = Cov [Xj.Xi] konnen jeweils zwei Summanden zusammengefasst werden. In Matrizenschreibweise lauten die beiden Formeln so: E[X a'] = M a',

F[X a'] = a C o v ( X ) a ' ,

wobei a = ( a i , . . . ,a^) die zum Zeilenvektor zusammengefassten KoefRzienten der Linearkombination darstellt. Falls die Variablen X i , . . . , Xn paarweise unkorreliert sind (dies ist insbesondere dann der Fall, wenn sie stochastisch unabhangig sind), so ergibt sich V y^^ajXi i=l

T.^lV[Xi] i=l

Wir wollen diese Formeln nun an einigen Beispielen illustrieren. Beispiel 3.6: Ein Anleger besitzt 100 A-Aktien (Kurs 50 €), 150 B-Aktien (Kurs 40 €) und 50 C-Aktien (Kurs 20 €). Bezeichnen RA^RB '^'^d Re die einjahrigen Renditen (in %). Uber ihre Erwartungswerte, Standardabweichungen und Korrelationskoeffizienten nimmt er Folgendes an:

146

3. GEMEINSAME VERTEILUNG UND GRENZWERTSATZE

fiA = E[RA] = 10, jdB = E[RB] = 5, lie = E[Rc] = 5 ,

a^ = 25, CTB = 25, o-c = 20,

pAB = 0.5 , = 0.5, PBC = 0.

PAC

Berechnen Sie den Wert (in €) des Portefeuilles zum jetzigen Zeitpunkt sowie den Erwartungswert und die Standardabweichung des Portefeuillewertes nach einem Jahr. Der jetzige Wert des Portefeuilles betrdgt (in €) Po = 100 • 50 + 150 . 40 + 50 • 20 = 12000. Der Portefeuillewert Pi nach einem Jahr ist eine Zufallsvariable,

P. = 100.50(l + ^ ) + 1 5 0 . 4 0 . ( l + ^ ) + 5 0 . 2 0 . ( l +

^

Der Erwartungswert von Pi ist

E[Pi]

=

100.50('l + ^ ^ U l 5 0 . 4 0 . ( ' l + ^ [ ^ ^ l 100

= =

100 • 50 • 1.1 + 150 • 40 • 1.05 + 50 • 20 • 1.05 12 850.

Um die Varianz von Pi zu berechnen, benotigen wir

V[RA]

= O\ =

625,

V\RB\

= O\ =

625,

V\Rc\ = 0% = 400,

und Cm}{RA, RB\

^OA-OB-

PAB = 25 • 25 • 0.5 = 312.5,

COV[RA, RC]

= 0 (3.6) Durch Ubergang zu den Komplementareignissen erhalt man daraus die aquivalente Aussage 1

''

lim P n—»oo

/^ < e

1.

i=l

Die Formel (3.6) ist eine Aussage iiber die Abweichung des arithmetischen Mittels Xn, vom Erwartungswert [x. Die Wahrscheinlichkeit, dass diese Abweichung grofier oder gleich einem vorgegeben Wert e ist, geht fiir grofie n gegen null. Anschaulich bedeutet das Schwache Gesetz, dass sich die Verteilung von Xn niit wachsendem n immer mehr auf den Punkt \x „zusammenzieht".'^ ^Das Schwache Gesetz der grofien Zahlen ist von dem so genannten Star ken G e s e t z der grofien Zahlen zu unterscheiden. Letzteres lautet:

({-|„'i-.i|:/iM=/^})=iDas Starke Gesetz der grofien Zahlen besagt, dass das arithmetische Mittel Xn(}j^) im folgenden Sinne „fast sicher" gegen den Erwartungswert ^ konvergiert: Die Menge der Ergebnisse a;, fiir die die Konvergenz zutrifft, hat die Wahrscheinlichkeit 1.

154

3. GEMEINSAME VERTEILUNG UND GRENZWERTSATZE

BEWEIS Der Beweis des Schwachen Gesetzes ist sehr einfach. Aus der Tschebyscheffschen Ungleichung (siehe Abschnitt 2.2.3), angewandt auf X^, folgt

p(ix„-,i>.)£) = 0 .

lim P(\Xn-\A

D Beispiel 3.11: In einer Abfullanlage wird gemahlener Kaffee in Tiiten gefiillt Der Fertigungsleiter kann den Sollwert jd der Fiillungen einstellen. Die beim individuellen Abfullen realisierte Fullmenge schwankt jedoch in zufdlliger Weise um den Sollwert jd. Bezeichne Xi die Fullmenge beim Abfullen der i-ten Tilte. Xn ist dann die durchschnittliche Fullmenge bei n-maligem Abfullen. Wir nehmen an, dass die Abweichungen vom Sollwert stochastisch unabhangige, identisch verteilte Zufallsvariable mit Erwartungswert null darstellen. Dann sind die Fullmengen ebenfalls unabhdngig identisch verteilte Zufallvariable; sie haben den Erwartungswert /i. Aus dem Schwachen Gesetz der groflen Zahlen folgert man, dass die durchschnittliche Fullmenge von n Packungen nach Wahrscheinlichkeit gegen den Sollwert konvergiert. Mit anderen Worten: Fiir jede noch so kleine „Messgenauigkeit'^ e geht die Wahrscheinlichkeit, dass eine Differenz zwischen der durchschnittlichen Fullmenge und dem Sollwert gemessen werden kann, gegen null. Das heiflt, diese Wahrscheinlichkeit kann beliebig verkleinert werden, wenn man n nur hinreichend grofl wdhlt. Konvergenz nach Wahrscheinlichkeit Das Schwache Gesetz der grofien Zahlen besagt, dass sich eine Folge von Zufallsvariablen, namlich die Folge der arithmetischen Mittel X^, mit wachsendem n einer Zahl, namlich dem Erwartungswert //, nahert. AUgemein sei Yi,Y2^Ys,... eine Folge von Zufallsvariablen und 9 eine Zahl. Man sagt, dass die Folge Yn stochastisch gegen 6 konvergiert, wenn lim Pi\Yn -e\0

(3.7)

gilt. Die stochastische Konvergenz wird auch Konvergenz nach W a h r scheinlichkeit genannt. Man beachte, dass dies keine gewohnliche Konvergenz einer Zahlenfolge ist. Nicht die Werte der Yn konvergieren gegen die Zahl ^, sondern die Wahrscheinlichkeit, dass diese Werte um weniger als einen kleinen Betrag e von 6 abweichen, konvergiert gegen 1. Statt (3.7) schreibt man kurz p lim Yn = 0.

3.2.

G RENZWERTS ATZE

155

Eine einfach zu iiberpriifende hinreichende (aber nicht notwendige) Bedingung ist die folgende: Eine Folge von Zufallsvariablen Yn konvergiert dann nach Wahrscheinlichkeit gegen eine Zahl 6, wenn lim V[Yn] = 0

und

lim E[Yn] = 0.

Das Schwache Gesetz der grofien Zahlen besagt, dass die Folge der arithmetischen Mittel nach Wahrscheinlichkeit gegen den Erwartungswert konvergiert, plimXn

3.2.2

= /i.

Wahrscheinlichkeit und relative Haufigkeit

Der Begriff der relativen Haufigkeit ist mit dem Begriff der Wahrscheinlichkeit eng verbunden. Die relative Haufigkeit eines Ereignisses aus unabhangigen Wiederholungen eines Zufallsexperimentes wird intuitiv als eine Naherung flir die Wahrscheinlichkeit des Ereignisses angesehen. Mit Hilfe des Schwachen Gesetzes der grofien Zahlen ist es nun moglich, die Beziehung zwischen theoretischer Wahrscheinlichkeit und beobachteter relativer Haufigkeit prazise zu formulieren. Betrachten wir eine Bernoulli-Versuchsreihe mit n unabhangigen Versuchen. Bei jedem Versuch trete das Ereignis A mit Wahrscheinlichkeit TT ein. Die Zufallsvariablen Xi seien wie folgt definiert: Xi

1, 0,

falls A beim z-ten Versuch eintritt, falls A beim i-ten Versuch eintritt.

Dann ist hn

2

• Xn = — y

Xi

i=\

die relative Haufigkeit des Eintretens von A, Es gilt fiir alle i Xi - B{1,

TT)

und

// = E[Xi] = E\Xn] =

TT

.

Das Gesetz der grofien Zahlen besagt nun, dass die relative Haufigkeit hn stochastisch gegen die Wahrscheinlichkeit TT konvergiert, p lim hn = 7T. n-^oo

Man beachte, dass die relativen Haufigkeiten Zufallsvariable und keine Zahlen sind. Die Limesbeziehung lasst sich deshalb nicht als gewohnlicher Limes einer Folge von Zahlen beschreiben. Sie ist ein Limes im Sinne der Konvergenz nach Wahrscheinlichkeit.

156

3. GEMEINSAME VERTEILUNG UND GRENZWERTSATZE

Das Schwache Gesetz der grofien Zahlen bildet eine Brlicke zwischen den formalen Konzepten der Wahrscheinlichkeitsrechnung und den beobachtbaren Ergebnissen von konkreten Zufallsvorgangen. Die relative Haufigkeit eines Ereignisses ist eine Naherung fiir die Wahrscheinlichkeit des Ereignisses. Im Sinne der stochastischen Konvergenz ist die Wahrscheinlichkeit des Ereignisses gleich dem Grenzwert der relativen Haufigkeiten bei wiederholter unabhangiger Durchfiihrung des Experiments. Beispiel 3.12: Beim Werfen eines fairen Wiirfels interessiere das Ereignis A = Augenzahl „6^\ Die Erfahrung lehrt, dass bei unabhdngig wiederholten Wiirfen sich die relative Hdufigkeit, eine „6'' zu werfen, in aller Kegel mit wachsender Zahl der Wiirfe dem Wert ^ ndhert. Allerdings ist weder theoretisch noch praktisch auszuschliefien, dass dem nicht so ist, etwa dass in einer noch so langen Folge von Wiirfen niemals eine „6'^ auftritt. (In einem solchen Fall konvergiert die relative Hdufigkeit fiir n —> oo gegen null, und nicht gegen ^.) Das Schwache Gesetz der groflen Zahlen besagt nun, dass man solche Fdlle in bestimmter Weise vernachldssigen darf dass ndmlich fiir grofie n die Wahrscheinlichkeit einer „feststellbaren Abweichung^' der beobachteten Hdufigkeit vom theoretischen Wert | beliebig klein wird.

3.2.3

Konvergenz der empirischen Verteilungsfunktion

Wir gehen in diesem Abschnitt wieder von einer Folge Xi, X 2 , . . . , X ^ , . . . von unabhangigen Zufallsvariablen aus, die identisch verteilt sind mit der Verteilungsfunktion F. Ihre Werte werden mit x i , X 2 , . . . , 0;^, • • • bezeichnet. Zunachst betrachten wir fiir ein festes n und gegebene Werte xi,0:2, •.. ,^n die Funktion^ Fn{x) = — ' (Anzahl Xi < x)

fiir a; G M.

Fn{x) ist eine monoton wachsende Funktion von x mit Werten im Intervall [0,1]. An jeder Stelle Xi macht sie einen Sprung der Hohe ^, i = 1 , . . . ,n. Mit _ J 1, falls Xi < X, erhalt man

^{xix,

1 "" Fn{x) = - ^ ^{xi7%? • Was ist ein geeigneter Schdtzwert fur n ? • Wie genau ist etwa die Schdtzung TT = 0.1 ? • Wdchst die Genauigkeit mit n ? • Wie vertrauenswilrdig ist die Angabe eines Intervalls, z.B. 8 % < 7 r < 1 2 % ? Die erste Prage im Beispiel 4.6 flihrt auf einen Hypothesentest. Solche Tests sind Gegenstand des Kapitels 6. Die zweite Prage zielt auf die Schatzung des unbekannten Parameters durch eine Zahl, die so genannte Punktschatzung. Verfahren zur Punktschatzung von Parametern enthalt das Kapitel 5. Dort werden auch die dritte und die vierte Prage, namlich die nach der Ungenauigkeit (Streuung) des Schatzers und die nach dem Genauigkeitsvergleich von Schatzern, behandelt. In der funften Prage geht es um die Schatzung des Parameters durch ein Intervall, die so genannte Intervallschatzung. Sie ist ebenfalls Gegenstand des Kapitels 5. Beispiel 4-^ (Fortsetzung): Beim Pannenbeispiel ist Q die Menge aller PKW dieses Typs. Spezifizieren kann man die Grundgesamtheit durch sachliche und zeitliche Einschrdnkungen derart, dass lediglich PKW dieses Typs und eines bestimmten Baujahrs betrachtet werden. Fiir jedes uj E Q sei falls LO im zweiten Jahr mindestens eine Panne hat, falls nicht. Verteilungsannahme Sei X eine auf der Grundgesamtheit Q definierte Zufallsvariable. Beim statistischen Schliefien setzt man haufig voraus, dass die Verteilung von X nicht vollig unbekannt ist. Oft kann man aufgrund von inhaltlichen Uberlegungen davon ausgehen, dass X einer bestimmten Verteilungsklasse angehort, wobei der Wert gewisser Verteilungsparameter offen ist. Die Menge ^ der fiir X in Betracht gezogenen Verteilungsfunktionen F bezeichnet man als Verteilungsannahme liber X oder auch als stochastisches Model! der Datenentstehung. Durch die Beobachtung einer Stichprobe aus X werden dann im Rahmen der Verteilungsannahme Informationen iiber die unbekannten Parameter gewonnen.

180

4. STICHPROBEN UND STICHPROBENFUNKTIONEN

Beispiel 4-7: Sei X die Temperatur in Koln morgen Mittag um zwolf Uhr. Die Grundgesamtheit ist hier wiederum hypothetisch und unendlich; sie hesteht aus der Menge aller moglichen Wetterzustdnde morgen Mittag um zwolf Uhr. Aus physikalischen Griinden macht es Sinn, fiir X als Verteilungsannahme eine Normalverteilung ^Temperatur

= {N{fi,

Cr^) | ^ G R , CT^ > 0 } ,

anzusetzen. Im Beispiel 4-6 lautet eine sinnvolle Verteilungsannahme fiir den unhekannten Parameter n: J^Panne

=

{B{l,7r)\0 Excel/SPSS. Fiir grofie m lasst sich die Fn,m-Verteilung durch die x^-Verteilung approximieren. Es gilt namlich (fiir jedes feste n) P(Z x) fm Q ^ Xn^ '^ — Freiheitsgrade berechnet. Beispielsweise gilt fiir Q ^ xl P{Q < 0.5) = 1 - CHIVERT(0,5;1) = 0.5205. Ferner wird mit der „modifizierten Quantilfunktion" CHIINV(Wahrsch; Freiheitsgrade) Wahrsch= p und Freiheitsgrade = n, das (1 — p)-Quantil der X^-Verteilung berechnet, beispielsweise 90.75 = CHIINV(1-0,75;1) = CHIINV(0,25;1) - 1.3233. SPSS I Die Losung der Beispielaufgabe erfolgt in SPSS mit Hilfe der Funktionenfamilie *.CHISQ(q,df): CDF.CHISQ(0.5,1) = 0.5205 IDF.CHISQ(0.75,1) = 1.3233 Zur t-Verteilung (Abschnitt 4.3.2): Excel I Excel bietet sowohl die t-Verteilung als auch die t-Quantile an. Die Namen der Funktionen sind TVERT(x;Freiheitsgrad;Seiten) fiir die Uberlebensfunktion sowie TINV(Wahrsch; Freiheitsgrade) fiir eine „zweiseitige modifizierte Quantilfunktion". Beispiele zur Verwendung dieser Funktionen sind fiir W ^ ts P{W < 1) = 1 - TVERT(1;5;1) = 0,8184, W0.99 = TINV(0,02;5) = 3.3649. Bei Excel 2000 steuert die Option Seiten, welche Wahrscheinlichkeit berechnet wird. Setzt man etwa x=2.3 und Seiten^l wird die Wahrscheinlichkeit P{W > 2.3) berechnet. Mit Seiten=2 erhalt man dagegen die Wahrscheinlichkeit P(|V(^| > 2.3). Diese Wahrscheinlichkeiten sind die p-Werte eines einseitigen bzw. zweiseitigen t-Tests (siehe Anhang zu Kapitel 6). Bei der „Quantilfunktion" TINV gibt es diese Option nicht; es wird immer das „zweiseitige obere" Quantil berechnet. SPSS I Anders als bei Excel wird durch die entsprechenden SPSS-Funktionen die Verteilungsfunktion und die gewohnliche Quantilfunktion berechnet. Zahlenbeispiele fiir W ^ t^ sind CDF.T(1.0,5) = P{W < 1.0) = 0.8184,

IDF.T(0.99,5) = 3.3649.

4.5.

ANHANG: VERWENDUNG VON EXCEL UND

SPSS

193

Zur F-Verteilung (Abschnitt 4.3.3): Excel I Excel stellt auch die Uberlebensfunktion und eine „modifizierte Quantilfunktion" der F-Verteilung bereit, FVERT(X;Freiheitsgradel;Freiheitsgrade2) = Uberlebensfunktion, FINV(Wahrsch;Freiheitsgradel;Freiheitsgrade2) = „mod. Quantilfunktion" . Sei beispielsweise Z ~ F(l;29). Dann ist P ( Z < 1)

=

1 - FVERT(1;1;29) = 0.6744,

P ( Z < 5)

=

1 - FVERT(5;1;29) = 0.9668.

Median ZQ.S und oberes Quartil ^o.75 ergeben sich aus ;^o.5 = ^0 75 =

FINV(0,5;1;29) = 0.4665, FINV(0,25;1;29) = 1.3780,

wobei analog zur x^-Quantilfunktion \—p statt p als Argument eingegeben werden muss. SPSS] SPSS bietet im Rahmen der Punktionenfamilie *.F(q,dfl,df2) sowohl die Verteilungsfunktion als auch die Quantilfunktion der F-Verteilung. Sei Z ~ F ( 1 ; 2 9 ) . Dann ist P ( Z < 1) P[^Z < 5)

= =

CDF.F(1,1,29) = 0.6744, CDF.F(5,1.29) = 0.9668.

Median und xo.75 ergeben sich aus Z0.5 20.75

= =

IDF.F(0.5,1,29) =0.4665, IDF.F(0.75,1.29) = 1.3780.

Kapitel 5

Schatzverfahren fiir Parameter Haufig stellt sich das Problem, unbekannte Grofien aus Daten zu schatzen. Wenn die Daten als Realisation einer Stichprobe aus einer Zufallsvariablen X angesehen werden konnen und die unbekannte GroBe ein Parameter der Verteilung von X ist, fiihrt dies auf das folgende P a r a m e t e r s c h a t z p r o b l e m : Der Wert des unbekannten Verteilungsparameters ist durch einen von den Daten abhangigen Schatzwert anzunahern. Ein solcher Schatzwert ist der Wert einer geeigneten Stichprobenfunktion. Anstatt eines Schatzwerts kann man auch ein Intervall von Schatzwerten so bestimmen, dass es den Parameter nach Moglichkeit einschliefit. Die Angabe eines Schatzwerts wird als Punktschatzung bezeichnet, die eines Intervalls von Schatzwerten als Intervallschatzung. Mit Hilfe der Wahrscheinlichkeitsrechnung lassen sich verschiedene Stichprobenfunktionen im Hinblick auf das Schatzproblem beurteilen und vergleichen. Insbesondere lasst sich prazisieren, inwiefern wirklich ein Riickschluss von der Stichprobe auf den unbekannten Wert des Parameters stattfindet.

5.1

Punktschatzung

In diesem Abschnitt gehen wir von einer Zufallsvariablen X aus, deren Verteilungsfunktion F ganz oder teilweise unbekannt ist. Aufgabe ist die Punktschatzung eines unbekannten Parameters der Verteilung, d.h. seine Schatzung durch Angabe eines Schatzwerts. Der Parameter wird allgemein mit 6 195

196

5. SCHATZVERFAHREN FUR PARAMETER

bezeichnet. Bei speziellen Verteilungen werden jedoch die im Kapitel 2 eingefiihrten Bezeichnungen der Parameter verwendet. Der Parameter 9 kann auch mehrdimensional sein. Einen zweidimensionalen Parameter schreibt man in der Form 0 = (^1,^2)' Beispiele von eindimensionalen Parametern sind /i = E[X], a = y/V[X] und der Median XQ.S- Ein zweidimensionaler Parameter ist zum Beispiel 6 = {E[X],V[X]). Um 0 zu schatzen, wird eine Stichprobe X i , X 2 , . . . , X„ aus X gezogen. Ihre Werte (= Realisierungen) werden mit xi,a:2,... ,Xn bezeichnet. Beispiel 5.1: Ein Journalist interessiert sich fiir die monatlichen Ausgaben (ohne Ausgaben fiir Wohnung) der Studierenden an einer Privatuniversitdt, insbesondere fiir deren durchschnittliche Ausgaben, den Median und die beiden weiteren Quartile der Ausgaben, sowie den Anteil der Studierenden mit monatlichen Ausgaben von mehr als 1000 €. Diese fiinf Grofien mochte er auf der Basis einer Stichprobe aus X schdtzen. Dabei ist X = monatliche Ausgaben (ohne Wohnungsausgaben, in €) eines zufdllig ausgewdhlten Studierenden der Privatuniversitdt. Den interessierenden Grofien entsprechen offenbar die folgenden Parameter der Verteilung: ^1 = l^x, der Erwartungswert von X, ^2 = ^0.5? d^f^ Median von X, ^3 = ^0.25 und 64 = X0.75, das untere und das obere Quartil von X, 65 = TT = P{X > 1000), die Wahrscheinlichkeit, einen Studierenden Ausgaben von mehr als als 1000 € zu Ziehen.

mit

Sie werden zum Parametervektor 6 = (/^x?^0.5^^0.255^0.755TT) zusammengefasst. Eine Stichprobe aus X vom Umfang n = 50 ergab die folgenden Werte (in €): 309 714 398 234 168

661 611 107 561 558

236 1130 1288 1380 761 487 577 310 678 637 694 459 286 458 567 1010 951 1244 442 494 1082 827 727 252 797 1201 225 363 676 805 203 936 336 779 354 150 340 837 237 460

Die Verbindung zwischen der Stichprobe und dem Punktschatzwert fiir 0 bilden Stichprobenfunktionen. Man versucht, dem unbekannten 6 durch den Wert einer Stichprobenfunktion ^ ( X i , X 2 , . . . ,Xn) nahezukommen. Eine solche Stichprobenfunktion heifit Schatzer fiir 0, ihren realisierten Wert 9{xi^X2j..., Xn) nennt man Schatzwert fiir 9.

5.1.

PUNKTSCHATZUNG

197

In der Regel schreibt man 6 fiir den Schatzer ebenso wie fur den Schatzwert. Der Unterschied ergibt sich aus dem Zusammenhang. Man beachte jedoch, dass der Schatzer 6 = 0{Xi^..., Xn) eine Zufallsvariable ist. Er kann mit den Methoden der Wahrscheinhchkeitsrechnung beurteilt werden. Demgegeniiber ist der Schatzwert 9 = 0{xi,..., x„) eine Zahl. Betrachtet man den Schatzer bei verschiedenen Stichprobenumfangen n, schreibt man statt 6 auch 6^,. Es ist klar, dass ein Schatzer 0 den zu schatzenden Parameter 9 in der Regel nicht exakt triflFt. Abhangig von der konkreten Realisation der Stichprobe ist sein Wert grofier oder kleiner als der gesuchte Wert ^. Da ^ eine Zufallsvariable ist, sind jedoch mittels der Wahrscheinlichkeitsrechnung Aussagen dartiber moglich, in welcher Weise 9 um 9 schwankt. Dies wird im Folgenden weiter erlautert.

5.1.1

Unverzerrtheit und Konsistenz

Da grundsatzlich mehrere Stichprobenfunktionen als Schatzer fiir 9 in Frage kommen, braucht man Kriterien, die angeben, was einen „besseren" Schatzer von einem „schlechteren" unterscheidet. In diesem Abschnitt werden wir zwei Qualitatskriterien formulieren, mit deren Hilfe Schatzer beurteilt und verglichen werden konnen. Eine wiinschenswerte Eigenschaft eines Schatzers besteht darin, dass er keinen systematischen Schatzfehler aufweist. Sie lasst sich wie folgt prazisieren: Ein Schatzer 9 — 9{Xi,..., Xn) fiir 9 heiCt unverzerrt (auch: erwartungstreu, englisch: unbiased), wenn sein Erwartungswert in jedem Fall gleich dem unbekannten Parameter ist, d.h., wenn fiir alle moglichen Werte von 9 E[9{Xu,,,,Xn)]

=9

gilt. Die Differenz b{9) = E[9] - 9 heifit Verzerrung (englisch: bias) von 9, Die Grofie MSE{9) = E[{9 - 9f misst das AusmaB der erwarteten quadratischen Abweichung des Schatzers vom Parameter. Sie wird mittlerer quadratischer Fehler genannt (englisch: Mean-Squared-Error). Ist 9 erwartungstreu, so ist wegen E[9] = 9 MSE{9) = E[{9 - 9f] = E[{9 - E[9]f] = V[9].

198

5. SCHATZVERFAHREN FUR PARAMETER

Bei einem erwartungstreuen Schatzer stimmen also mittlerer quadratischer Fehler und Varianz iiberein. Bevor wir zu den speziellen Schatzproblemen kommen, soil eine weitere Eigenschaft angefiihrt werden, die jeder „vernunftige" Schatzer aufweisen sollte. Der Schatzer 9n = 6n{X 1^X2^... ,X^) sei fur jede Stichprobenlange n definiert. Der Schatzer heifit konsistent fur 0, wenn er nach Wahrscheinlichkeit gegen 6 konvergiert, p l i m ^ n ( ^ i , ^ 2 , . . . , ^ n ) = ^, das heifit ausfuhrlicher, wenn ftir ein beliebig vorgegebenes e > 0 lim P{\en{XuX2^...,Xn)-e\ 00 gegen null geht,

lim E\en-0]

= 0,

nennt man asymptotisch unverzerrt oder asymptotisch erwartungstreu. Eine ftir die Konsistenz hinreichende (aber nicht notwendige) Bedingung ist: Ein Schatzer 6n ist dann konsistent, wenn ftir n —> 00 sowohl die Varianz als auch die Verzerrung von 6n gegen null gehen, d.h. lim V On = 0 n-^oo

und

lim E On = 0. n—*oo

Sowohl die Unverzerrtheit als auch die Konsistenz sind wunschenswerte Eigenschaften eines Schatzers. Unverzerrtheit ist eine Eigenschaft von On^ die sich auf einen festen Stichprobenumfang n bezieht. Konsistenz ist dagegen eine so genannte asymptotische Eigenschaft, welche voraussetzt, dass man grundsatzlich beliebig lange Stichproben in Betracht Ziehen kann.

5.1.2

Schatzung von Erwartungswerten

Fiir eine Zufallsvariable X mit unbekannter Verteilung ist der Erwartungswert ji = E[X] zu schatzen. Hierftir stehe eine Stichprobe Xi, ^ 2 , . . . , Xn aus

5.1.

199

PUNKTSCHATZUNG

X zur Verfiigung. Ein geeigneter Schatzer ftir (JL = E[X] ist das Stichprobenmittel 1

X

n

'^

^

i==l

Wir zeigen, dass X unverzerrt ftir /i ist. Es gilt

E[X] = E

n "^

n ^

i=l

n

i=\

d.h. X ist unverzerrt ftir /x. Da X unverzerrt ist, stimmt der mittlere quadratische Fehler von X mit der Varianz uberein. Er ist gleich MSE{X)

= V[X] = V

- E ^ ^ =^J2v[Xi] = -V[X]. i=l

i=l

Wenn V[X] = a^ bekannt ist, kann man daraus V\X\ — ^ berechnen. Zur Schatzung von a^ siehe Abschnitt 5.1.4. Offenbar wird die Varianz von X bei grofierem Stichprobenumfang n kleiner. Mit wachsendem n wird die Schatzung in diesem Sinne genauer. Naheres zum Vergleich der Genauigkeit von Schatzern findet man im Abschnitt 5.5.2. Die Konsistenz von X fiir fx folgt direkt aus dem Schwachen Gesetz der grofien Zahlen; siehe Abschnitt 3.2.1. Dieses besagt gerade, dass p lim X = fi.

Beispiel 5.1 (Fortsetzung): X ist erwartungstreu fiir jix - Aus den Daten ergibt sich der Schdtzwert x = 599.94 € .

5.1.3

Schatzung von Wahrscheinlichkeiten u n d Anteilswerten

In diesem Abschnitt soil der Parameter TT einer jB(l,7r)-verteilten Zufallsvariablen X geschatzt werden. Wiederum stehe eine Stichprobe X i , . . . , X n aus X zur Verfiigung. Wegen E[X] = n ist 1 ""

7r = X i=l

200

5. SCHATZVERFAHREN FUR PARAMETER

ein geeigneter Schatzer flir TT. Dieser ist, wie in Abschnitt 5.1.2 gezeigt wurde, erwartungstreu und konsistent. ft ist gleich dem Anteil der Stichprobenelemente mit Xi = 1. Fiir die Varianz von n gilt

n

n

Fiir die Schatzung von V[k] sei auf Abschnitt 5.1.4 verwiesen. Beispiel 5.2: Bezeichne n den Anteil der Raucherinnen unter den weiblichen Studierenden der Universitdt zu Koln. Fine Studentin wird zufdllig ausgewdhlt. Sei ^ _ J 1, 1^ 0,

falls die Studentin raucht, falls die Studentin nicht raucht.

Dann ist n = P{X = 1). In einer Stichprobe vom Umfang n = 20 befinden sich vier Als Schdtzwert erhalten wir demnach TT = ^ = 0.2.

Raucherinnen.

Beispiel 5.1 (Fortsetzung): Hier bezeichnet Xi die Ausgaben des i-ten Studierenden in der Stichprobe. Urn TT = P{X > 1000) = P{Xi > 1000) zu schdtzen, setzen wir ^ . 1, ' ~ ^ 0,

falls Xi > 1000, falls Xi < 1000.

Aus den Daten des Beispiels 5.1 ergibt sich fiir den Schdtzer it = Y der Wert 0.14' Fbenso schdtzt man etwa die Wahrscheinlichkeiten 7r4oo = P{X

< 400)

und

TTSOO == P{X

< 200)

durch 7r4oo = 0.34 bzw. 7r2oo = 0.06. Wie in Kapitel 4 ausgefiihrt, liefert bei endlicher Grundgesamtheit das Ziehen mit Zuriicklegen eine einfache Zufallsstichprobe Xi, X 2 , . . . , X n aus X. Beim Ziehen ohne Zuriicklegen sind dagegen die X^, i = 1 , . . . , n, abhangig. Schatzt man in diesem Fall TT mit TT, SO ergibt sich als Varianz

n

N -I

'

N —n also ein kleinerer Wert, da — — - < 1 ist, wenn n > 2.

5.1.

201

PUNKTSCH ATZUNG

5.1.4

Schatzung von Varianzen u n d S t a n d a r d a b weichungen

Ftir eine Zufallsvariable X mit unbekannter Verteilung ist die Varianz cr^ = V[X] zu schatzen. Gegeben sei eine Stichprobe X i , X 2 , . . . ^Xn aus X. Ein Schatzer ftir a^ ist die Stichprobenvarianz

i=l

i=l

Sie ist allerdings nicht erwartungstreu. Um dies einzusehen, berechnen wir den Erwartungswert von 5^, £;[52]

=

E

Ih^^-^f i=l

= lJ2^{Xf]-E{x']. 2=1

Zur Bestimmung von E[Xf] verwenden wir die Varianz von X^, a' = V[Xi] =

ElXf]~n\

und erhalten

E{Xf]=a^+n\ Ebenso gilt ftir die Varianz von X ^2

a" = E[X^] - {E[X]f V[X] = — n

= E[X'^] - /i2

und deshalb E[X

+ /i^

Die beiden Ergebnisse werden in die obige Gleichung eingesetzt:

Els'] = i f : „ H , v ( ^ H - . ' ) n-1 n n Um einen erwartungstreuen Schatzer zu konstruieren, korrigiert man die Stichprobenvarianz um den Faktor :^ und erhalt so die korrigierte Stichprobenvarianz

2=1

202

5. SCHATZVERFAHREN FUR PARAMETER

Offenbar ist ^[5*2] = E

=

n-1

a\

also 5*^ ein unverzerrter Schatzer fiir a^. Dagegen ist 5^ ein verzerrter Schatzer fiir a^. Seine Verzerrung betragt b{S^) = E[S^] -a'=

"^^c^ n

-G^^

--a^ n

.

Sie hangt von cr^ ab und geht fiir n —> oo gegen null. Weiter lasst sich zeigen, dass sowohl 5^ als auch 5*^ konsistent fiir a'^ sind; es gilt plim52 = p l i m 5 * 2 = a 2 . n—>oo

n—»oo

Schatzung der Standardabweichung Um a — y/V[X] zu schatzen, bieten sich sowohl \ / 5 ^ wie y/S*^ als Schatzer an. Beide sind nicht erwartungstreu fiir a. Sie sind jedoch konsistent, d.h. es gilt p l i m V ^ = plimV5*2 = c7. n—>oo

n—*oo

Eine konkrete Realisation von 5^ oder S wird mit 5^ bzw. s bezeichnet. Beispiel 5.1 (Fortsetzung): Mit den Daten des Beispiels 5.1 ergibt sich der Schatzwert s = Vs^ = 322.60 € . Speziell wenn X eine Bernoulli-verteilte Zufallsvariable ist, gilt E[X]=7r

und

V[X] = 7r{l - n).

Da Xi nur die Werte 0 und 1 annimmt, gilt immer Xf = Xi und folglich

=

X(l-X)

-

7r(l-7r),

letzteres wegen X = n. Ein erwartungstreuer Schatzer fiir cr^ = 7r(l — TT) ist deshalb durch :»*2 _

^

c2

n—1 gegeben.

^

n—1

5.1.

PUNKTSCHATZUNG

5.1.5

203

Schatzung von Quantilen

Fiir eine Zufallsvariable X sollen der Median XQ.S oder ein anderes Quantil Xp geschatzt werden. Ein geeigneter Schatzer ist der Stichprobenmedian bzw. allgemein das entsprechende Stichprobenquantil, das wir im Folgenden definieren. Sei X i , . . . ,Xn eine Stichprobe aus X. Das kleinste Xi bezeichnet man mit X(i), das zweitkleinste mit X^2) und so weiter bis zum grofiten X(^n)' ^^^ Zufallsvariablen X(i),X(2),... ,X(„) heifien Ordnungsstatistiken. Sie sind aufsteigend geordnet,

Mithilfe der Ordnungsstatistiken definiert man fiir 0 < p < 1 das p-Quantil der Stichprobe als

[np] ist der ganzzahlige Teil von np. Diese Definition des Stichprobenquantils entspricht der des Quantils in der beschreibenden Statistik. Als Schatzer fiir das unbekannte Quantil Xp von X ist Xp konsistent, aber im Allgemeinen nicht unverzerrt. Beispiel 5.1 (Fortsetzung): Aus den gegebenen Daten sollen die drei Quariile von X geschatzt werden. Es ist ^0.25 ^0.5 ^0.75

= =

336, 561, 797.

Gemdfl der Schatzung liegen die Ausgaben, die den „mittleren" 50% der Studierenden entsprechen, zwischen 336 und 797 €.

5.1.6

Schatzung von KorrelationskoefHzienten

Der Korrelationskoeffizient CovlX.Y] PXY

-

,/vmvW]

eines Paars von Zufallsvariablen {X, Y) misst die Starke des linearen Zusammenhangs von X und Y; vgl. Abschnitt 3.1.1. Um pxY zu schatzen, verwenden wir eine einfache Stichprobe (Xi.Yi),..., (X^, Y^) aus (X, Y). Wir

204

5. SCHATZVERFAHREN FUR PARAMETER

setzen also voraus, dass jedes der n Paare (Xi, F i ) , . . . , (X„, Yn) dieselbe gemeinsame bivariate Verteilung besitzt und die Paare (Xi^Yi) fiir verschiedene Indizes i voneinander unabhangig sind. Insbesondere hat dann jedes der Paare den gleichen Korrelationskoeffizienten pxYDen (theoretischen) Korrelationskoeffizienten pxv Stichproben-Korrelationskoeffizienten

schatzt man durch den

l±{Xi-X){Y,-Y) i=l

rxY i=l

V

i=l

Der Schatzer rxv ist zwar im Allgemeinen nicht erwartungstreu, er ist jedoch konsistent und asymptotisch erwartungstreu, d.h. die Verzerrung des Schatzers verschwindet, wenn der Stichprobenumfang n gegen unendlich strebt. Abschnitt 5.4 enthalt ein Beispiel mit Aktienmarktdaten, bei dem u.a. die Korrelationskoeffizienten der Tagesrenditen verschiedener Aktien geschatzt werden.

5.2

Konstruktionsprinzipien fur Punktschatzer

Bei manchen Schatzproblemen ist es besonders einfach, einen geeigneten Schatzer anzugeben. So liegt es nahe, den Erwartungswert einer Zufallsvariablen durch das Stichprobenmittel zu schatzen. Bei anderen Schatzproblemen ist das Auffinden eines geeigneten Schatzers schwieriger. Es gibt jedoch generelle Prinzipien, nach denen man Punktschatzer konstruieren kann. Zwei allgemeine Vorgehensweisen, die ML-Methode und die Momenten-Methode, wollen wir hier darstellen. Weitere vielbenutzte Moglichkeiten zur Konstruktion von Punktschatzern sind die Kleinste-Quadrate-Schatzung (siehe Kapitel 7) und die Bayes-Schatzung (siehe Abschnitt 5.5.4).

5.2.1

M o m e n t enschatzer

Erwartungswert und Varianz bezeichnet man auch als Momente. Weitere Momente sind die Schiefe und die Wolbung. Den Erwartungswert p einer Zufallvariablen X haben wir durch das Stichprobenmittel X, die Varianz cr^ durch die Stichprobenvarianz 5^ oder die korrigierte Stichprobenvarianz 5*^

5.2.

KONSTRUKTIONSPRINZIPIEN FUR PUNKTSCHATZER

205

geschatzt. Die Schiefe 71 und die Wolbung 72 von X schatzt man durch

Die genannten Schatzer heifien Stichprobenmomente oder auch empirische Momente. Bei vielen Schatzproblemen lasst sich der unbekannte Parameter 6 als eine Funktion von Momenten von X darstellen. Dann fallt es leicht, einen Schatzer flir 6 anzugeben. Man ersetzt einfach die in der Funktion vorkommenden Momente durch die entprechenden Stichprobenmomente. Ein so konstruierter Schatzer wird Momentenschatzer genannt. Momentenschatzer sind in alien relevanten Fallen konsistent, jedoch im Allgemeinen nicht erwartungstreu. Beispiel 5.3: Sei X exponentialverteilt mit Parameter X > 0, d.h. X r^ Exp{\). Wir wissen, dass E[X] = j ist Also lasst sich X als Funktion von E[X] darstellen, X = ;^n^; und

X ist ein Momentenschdtzer fiir X. Beispiel 5.4-' Bei einer Pareto-verteilten Zufallsvariablen X ~ Par{a, c) sei c gegeben. Der Parameter a soil geschatzt werden. Wir unterstellen a > 1; dann ist der Erwartungswert endlich und gleich

E[X]

""

a-1

Durch Umformung folgt a = E[X] - c Mit dem Stichprobenmittel X konstruieren wir daraus einen fiir a, a

Momentenschdtzer

X

Ein Beispiel, bei dem zwei Parameter mit der Momentenmethode geschatzt werden, ist das folgende: Beispiel 5.5: Aufgrund einer Stichprobe X i , , . . , Xn aus X ~ R{a, (3), a < (3, sollen die beiden Parameter a und (3 der Rechteckverteilung geschatzt werden. Wegen ElX]==^l,

v{X] =

^{(3-a)'

206

5. SCHATZVERFAHREN FUR PARAMETER

gilt a = E[X] - ^3V[X],

p = E[X] +

V^V[X],

woraus man die Momentenschdtzer

erhdlt.

5.2.2

Maximum-Likelihood-Schatzer

Wir beschreiben die Maximum-Likelihood-Methode (kurz: ML-Methode) zunachst in allgemeiner Form. Voraussetzung flir ihre Anwendung ist eine parametrische Verteilungsannahme, dass namlich die Verteilung von X bis auf einen oder mehrere Parameter festgelegt ist. Die Verteilungsfunktion F von X gehore zu einer Klasse ^ , die die Form j^ =

{Fe\e£e}

hat, wobei 6 einen unbekannten Parameter oder auch einen Parametervektor bezeichnet. © ist die Menge der Werte, die fiir 6 in Betracht gezogen werden; man nennt sie den Parameterraum. Die Annahme besagt: Zur vollstandigen Beschreibung der Verteilung von X fehlt nur die Kenntnis des Parameters 9. Dies ist eine parametrische Verteilungannahme; siehe Abschnitt 4.1.2. Beispiel 5.6: Im Beispiel der Pannenhdufigkeit (vgl. Beispiel 4-6) ^^t das Auftreten einer Panne bei einem zufdllig ausgewdhlten Fahrzeug Bernoulliverteilt mit Parameter n, X ^ B{1^7r), 0 < n < 1. Dies stellt eine parametrische Verteilungsannahme dar. Hier ist 6 = TT und Q =]0,1[. Beispiel 5.3 (Fortsetzung): Hier haben wir als parametrische Verteilungsannahme X ~ Exp{X) vorausgesetzt; die Klasse der moglichen Verteilungen von X lautet explizit T =

{FA

I FA(x) = 1 - e-^^,x > 0, A

G]0,OO[}

mit 6 = X und Q =]0, oo[. Gegeben sei eine Stichprobe X i , X 2 , . . . , X „ aus einer Zufallsvariablen X, die entweder diskret oder stetig verteilt ist. Man betrachtet die gemeinsame Wahrscheinlichkeitsfunktion bzw. Dichte der Stichprobe,

Lie) = f{xu...,xn\\e)

= fix, II e)• fix^ \\e)-...-/(x„

||e),

in Abhangigkeit von 6 bei gegebenen Beobachtungen xi,X2,... ,Xn. L{6) heifit Likelihood-Funktion der Stichprobe. Ihr Logarithmus

m

= HLie)) - E Inifixi II 6)) i=i

5.2.

KONSTRUKTIONSPRINZIPIEN FUR PUNKTSCHATZER

207

ist die Loglikelihood-Funktion. Einen Wert 9, der die Likelihood-Funktion maximiert, Lie) - max L((9), nennt man ML-Schatzwert fiir den Parameter d. Der entsprechende Schatzer heifit ML-Schatzer. Anstatt die Likelihood-Funktion zu maximieren, ist es meist glinstiger, die Loglikelihood-Funktion zu maximieren, da durch die Logarithmierung aus dem Produkt eine Summe wird. Die Stelle des Maximums der Likelihood-Funktion stimmt mit der der Loglikelihood-Funktion liberein, denn der Logarithmus ist eine streng monoton wachsende Funktion. Das Vorgehen der ML-Schatzung sei nun am Beispiel erlautert. Beispiel 5.6 (Fortsetzung): Es ist Xi ~ B{1,TT), Ergebnis von n = 10 Beobachtungen laute

0

Die Loglikelihood-Funktion ist n

1{X) = \nL{X) = n\nX - X^Xi,

A>0.

i=i

Um A zu bestimmen, wird die erste Ableitung berechnet und null gesetzt: n

i'W = j-J2'^i

= o,

x=n E^i

i=l

Da die zweite Ableitung liberall negativ ist, /''(A) tatsachlich ein globales Maximum, und

X ist der ML-Schatzer fiir A.

1 X

-^

< 0, ist dies

210

5. SCHATZVERFAHREN FUR PARAMETER

Normalverteilung Dann ist

2x

_

/(//, (j^)

=

1

Sei Xi ~ A/'(/x,a'^), 0 e Q = {{fi,a'^)\fi

£ R,a^ > 0},

__ /

{Xn-l^f

(^l-/^)^\

1

/

1 '^ In L(^\x^ cr^) = —n In \/27r — n In a — —2 2 J ( ^ * ~ ^^ •

Die beiden partiellen Ableitungen sind

n

Nullsetzen der beiden Ableitungen liefert

[i^x

und

1 "" (j^ = — /^(a^i — /i) 2 ^



-

5^

1

Eine Uberpriifung der zweiten Ableitungen sowie der Rander von © ergibt, dass bei ft = x und a^ = 5^ das globale Maximum vorliegt. Also ist

(A,a2) = (X,52)

der ML-Schatzer fur (/i,(J^). Die folgende Tabelle enthalt Momenten- und ML-Schatzer fiir die Parameter der im Kapitel 2 eingeftihrten speziellen diskreten und stetigen Verteilungen. In jedem Fall liegt eine Stichprobe X i , X 2 , . . . ,Xn aus X zugrunde.

5.2.

211

KONSTRUKTIONSPRINZIPIEN FUR PUNKTSCHATZER

Verteilung

Momentenschatzer

ML-Schatzer

X~S(l,7r)

7r = X

7r = X

X ~ Poifi)

/i = X

/i = X

X ~ Exp{X)

^=#

^=#

^2 = 52

^2 = 52

X^N{fi,a^) CT=V52 X ~ G(7r) X ~

^ = #

^T-

Par{a,c)

a

j X ~ Par{a, c), c bekannt

X

^= *

^R{a,(5)

a =c^ X-1

c = m i n { X i , . . . i^n) ^ ^ -

n

Eln(^) d = min{Xi,... /3 == m a x { X i , . .

Wie aus der Tabelle zu ersehen ist, stimmt in einigen Fallen der Momentenschatzer mit dem ML-Schatzer iiberein. Die ML-Schatzer werden in der Kegel (wie in den obigen Beispielen) durch Differenzieren der entsprechenden Loglikelihood-Funktion hergeleitet. Ausnahmen bilden die Parameter a und /? der Kechteckverteilung sowie der Parameter c der Pareto-Verteilung, deren ML-Schatzer man durch direkte Maximierung der Likelihood-Funktion bestimmt, da diese nicht differenzierbar ist.

5.2.4

Eigenschaften von ML- und Momentenschatzern

Es stellt sich schliefilich die Frage, ob die nach der ML-Methode bzw. nach der Momentenmethode konstruierten Schatzer auch gute Schatzer sind, genauer.

212

5. SCHATZVERFAHREN FUR PARAMETER

welche Glitekriterien sie erfiillen. Wie bereits im Abschnitt 5.2.1 bemerkt wurde, sind Momentenschatzer in der Regel konsistent. Dasselbe gilt flir ML-Schatzer. Momenten- und MLSchatzer sind haufig nicht erwartungstreu, jedoch asymptotisch erwartungstreu. Schliefilich sind ML-Schatzer und auch die meisten Momentenschatzer fiir grofie Stichprobenumfange n approximativ normalverteilt, d.h. es gilt

Hierbei ist ^-~ naherungsweise die Varianz des Schatzers On- Sie hangt zumeist selbst vom unbekannten Parameter 6 ab und muss dann zusatzlich geschatzt werden. ML-Schatzer haben im Vergleich zu anderen Schatzern (etwa Momentenschatzer n) in der Regel eine geringere Varianz, wenn der Stichprobenumfang n grofi ist. In vielen Schatzsituationen lasst sich sogar zeigen, dass der MLSchatzer die kleinstmogliche Varianz besitzt. Einen solchen Schatzer nennt man asymptotisch efRzient: Kein anderer Schatzer 6n fiir 6 hat dann, wenn die Stichprobenlange n gegen unendlich geht, eine kleinere Varianz als On- Zum Begriff der Effizienz eines Schatzers siehe auch Abschnitt 5.5.2. Nachteilig bei der ML-Methode ist jedoch, dass eine parametrische Verteilungsannahme iiber X getroffen werden muss.

5.3

Intervallschatzung

Bei der Punktschatzung wird ein einzelner unbekannter Parameter durch eine Zahl, den Schatzwert, geschatzt, bei der Intervallschatzung hingegen durch ein Intervall. Der folgende Abschnitt behandelt die Grundbegriffe der Intervallschatzung und einige spezielle Methoden, um Intervallschatzer zu bestimmen. Wir beginnen mit einem Beispiel. Beispiel 5.7: Um den unbekannten Erwartungswert einer Zufallsvariablen X zu schdtzen, wird eine Stichprobe Xi, X 2 , . . . , X^ aus X beobachtet. Wir setzen voraus, dass X normalverteilt ist, X ~ N{ix^a'^). Dann ist X ein Punktschdtzer fiir IX. Allerdings trifft dieser Schdtzer praktisch nie den unbekannten Wert /J,, da er selbst normalverteilt ist und daher p(X = /d)=0 gilt. Zur Erganzung ist es sinnvoll, ein von der Stichprobe abhdngiges Intervall zu bestimmen, das /j, mit einer bestimmten Wahrscheinlichkeit einschlieflt.

5.3.

INTERVALLSCHATZUNG

213

Da X symmetrisch zu seinem Erwartungswert ji verteilt ist, liegt es nahe, ein Intervall der Form [X — e^X + e] zu wdhlen; vgl. Abbildung 5.1. Dies ist ein „zufdlliges Intervall'^ der Ldnge 2e; ihm konnen daher Wahrscheinlichkeiten zugeschrieben werden. Wenn etwa die Einschlusswahrscheinlichkeit gleich 95% sein soil, ist die Ldnge des Intervalls so festzulegen, dass P(X - e < fi 40. Ein approximatives Konfidenzintervall wie dieses, das lediglich fiir n —> oo das Niveau 1 — a exakt einhalt, nennt man auch ein asymptotisches Konfidenzintervall. Beispiel 5.9: Speziell sei a = 0.05,cr = 2,x = 7 und n = 100. a) Fiir das Tschebyscheff-Intervall erhalten wir a \/na

2 = 0.89. v'lOO • 0.05

Das Konfidenzintervall zum Niveau von mindestens 0.95 hat demnach den Wert [ 7 - 0 . 8 9 , 7 4-0.89] = [6.11, 7.89]. b) Da n = 100 > 40 hinreichend grofi ist, kann man auch das approximative Konfidenzintervall benutzen. Hierfiir ergibt sich a 2 € = ui-o,-— = 1 . 9 6 — = = 0.39.

' V^

vToo

Das approximative Konfidenzintervall zum Niveau 0.95 hat den Wert [ 7 - 0 . 3 9 , 7 + 0.39] = [6.61, 7.39].

5.3.

INTERVALLSCHATZUNG

217

Allgemein sind die Schranken, die unter Berufung auf den Zentralen Grenzwertsatz berechnet werden, enger als die Schranken, die sich aus der Tschebyscheffschen Ungleichung ergeben. Hier zeigt sich, dass die zusatzliche Information „n ist hinreichend grofi" ein genaueres Konfidenzintervall ermoglicht. In der konkreten Anwendung verwendet man deshalb das TschebyscheffIntervall nur dann, wenn der Stichprobenumfang zu gering ist, um die Anwendung des Zentralen Grenzwertsatzes zu rechtfertigen.

5.3.4

Intervall fiir /i einer Normalverteilung, cr^ unbekannt

Das Konfidenzintervall fiir p, einer Normalverteilung bei unbekannter Varianz wird analog dem bei bekannter Varianz konstruiert, indem man fiir die unbekannte Varianz a^ einen Schatzer, namlich 5^, einsetzt. Das so standardisierte Stichprobenmittel

ist dann allerdings nicht mehr standard-normalverteilt, sondern es besitzt eine ^-Verteilung mit n — 1 Preiheitsgraden (siehe Abschnitt 4.3.2). Das Konfidenzintervall fiir fj, zum Niveau 1 - a bei unbekannter Varianz hat die Grenzen Ou,o = X T ^ n - l , l - f

^v^^r=T

wobei tn-i,i-^ das (1 — ^)-Quantil der t-Verteilung mit n — 1 Freiheitsgraden bezeichnet. Wegen nS'^ = {n - 1)5*^ kann man die Grenzen des Intervalls oflFenbar auch in der Form (5.1) schreiben. Beispiel 5.10: Sei X normalverteilt, p, und o^ unbekannt. Fiir den Erwartungswert p soil ein Konfidenzintervall zum Niveau 1 — a — 0.99 bestimmt werden. Dazu wird aus X eine Stichprobe vom Umfang n = 12 gezogen, die fiir das Stichprobenmittel und die korrigierte Stichprobenvarianz die Werte X = 20 bzw. s*^ = 4 ergibt. Das Konfidenzintervall fiir p wird nach der Formel (5.1) mit Hilfe der t-Verteilung bestimmt (^-^ Excel/SPSS). Fiirn — l — 11 Freiheits grade und l — a = 0.99 lautet das (1 — ^)'Quantil der t-Verteilung ^11,0.995 = 3.1058. Daraus und aus dem Resultat der Stichprobe

218

5. SCHATZVERFAHREN FUR PARAMETER

(x = 20 und s* = 2) berechnet man die Grenzen des konkreten Konfidenzintervalls Ou =

2 0 - 3 . 1 0 5 8 - ^ = 18.2069, VT2

6o =

20 + 3 . 1 0 3 8 ^ = 21.7931. \/l2

Damit erhdlt man das konkrete Konfidenzintervall [18.21, 21.79].

5.3.5

Intervall fiir /i einer beliebigen Verteilung, a^ unbekannt

Nun werde keine Normalverteilungsannahme liber X getroffen. Sei X beliebig verteilt mit Erwartungswert JJ, und Varianz a^; beide Parameter seien unbekannt. Man schatzt wiederum cr^ durch 5^. Wenn n hinreichend grofi ist, gilt nach dem Zentralen Grenzwertsatz Ji. — Jul J— appr

v/^"^^'iV(0,l),

a und, da p lim ^ = 1 ist, auch -A — fJj I— appr

"":V^"??'"iV(o,i).

s

Man erhalt (analog zu Abschnitt 5.3.3) 5 . , ^ P(X-ui_,^ u i _ ^ = 1.96,

250

6. HYPOTHESENTESTS

2. Ho: fi 55, T > ui-a = 1.64,

3. iJo : /i > 55, iJi : /x < 55, T < -ui-a

= -1-64.

Die Testgrofie ist bei alien drei Tests

a

4

Ergeben die Beobachtungen als Stichprobenmittel x = 56.4[/im], so hat die Testgrofie den Wert 56.4-55 r— ^ v / 2 5 = 1.75. 4 1. Beim ersten Testproblem ist dann der Ablehnbereich i i : = ] - o o , - 1 . 9 6 [ U ]1.96,oo[. Da der Wert der Testgrofie nicht im kritischen Bereich liegt, lautet die Testentscheidung, dass Ho : JJ. = bb nicht zugunsten von Hi : fi ^ bb abgelehnt wird. 2. Beim zweiten Testproblem ergibt sich der Ablehnbereich

Da hier die Testgrofie in den kritischen Bereich fdllt, lautet die Testentscheidung: „Ho: // < 55 wird zugunsten von ifi: /i > 55 abgelehnt". Das Ergebnis Hi: fi > bb ist zu einem Signifikanzniveau von b% statistisch gesichert. 3. Der Ablehnbereich ist hier A: =

]-OO,-1.64[,

so dass der Wert der Testgrofie nicht in K liegt. Es ist also keine Ablehnung von Ho zugunsten von Hi moglich. Im Fall 2. wird die Nullhypothese somit abgelehnt, in den Fallen 1. und 3. jedoch nicht. Inhaltlich bedeutet dies, dass - zum Niveau b% - die Hypothese Hi des Fabrikbesitzers durch die Daten statistisch gesichert ist: Im Mittel werden die Folien zu dick hergestellt. Alle iibrigen Hypothesen sind nicht statistisch gesichert. Wir sehen hier ein Beispiel, in dem zu einem gegebenen Niveau a die zweiseitige Alternative aufgrund der gegebenen Daten nicht gesichert werden kann, eine einseitige Alternative aber doch. Bei der einseitigen Alternative wird

6.2.

251

T E S T S FUR ERWARTUNGSWERTE

die Nullhypothese abgelehnt, da der kritische Wert des einseitigen Tests (das Quantil ui-a) kleiner ist als der obere kritische Wert des zweiseitigen Tests (das Quantil ui-^). 2. Tests fiir /j, einer N o r m a l v e r t e i l u n g , wenn a^ u n b e k a n n t ist (t-Tests) Bei vielen praktischen Anwendungen ist die Varianz cr^ nicht bekannt. Es liegt nahe, in der Testgrofie des Gaufi-Tests a^ durch den Schatzer 5^ oder 5*^ zu ersetzen. Dadurch andert sich jedoch deren Verteilung. Es gilt jetzt, wenn fi = fjio ist, {X - Ho) y/n

(X-/io)v^

tn-1 ( n - l ) (T2

Als Testgrofie verwenden wir deshalb {X - iUo) A/TI _ {X - fio)

Vn-l

Die folgenden Tests werden ahnlich wie die drei Gaufi-Tests durchgeflihrt. Jedoch sind die Quantile der N{0,1)-Verteilung nun durch Quantile der tn-iVerteilung zu ersetzen. Diese Tests heifien ^Tests; sie sind in der Testbox ubersichtlich zusammengefasst: X i , . . . , Xn ~ N{jj,, cr^), cr^ unbekannt

Verteilungsannahme Nullhypothese

HQ:

Gegenhypothese

Hi: ix^ ixo

Prlifgrofie Ho ablehnen, falls

fi = fio

-s |r|>tn-l,l-f

Ho'' IJ' < /J'O

Ho' fJ'> fJ'O

Hi: fx> 1^0

Hi: iK^io

- Lin

y/n-l

1

"Y

= —-7;

v^

5* T >

tn-l,l-a

T
l^Y abgelehnt. Die obigen Zweistichproben-Gaufi-Tests konnen auch dann verwendet werden, wenn X und Y nicht exakt normalverteilt sind, aber n und m geniigend grofi und (j\ und Gy bekannt sind. Als Faustregel soil hier wieder n, m > 40 gelt en. Der bisher betrachtete Fall, dass a'x und Gy bekannt sind, ist sehr speziell. In der statistischen Praxis sind die Varianzen in aller Kegel unbekannt. Falls n und m geniigend grofi sind (Faustregel wie oben: n,m> 40) lassen sich die Gaufi-Tests jedoch modifizieren, indem man a'x und ay durch die Schatzer

6.2.

255

T E S T S FUR ERWARTUNGSWERTE

Sx und Sy ersetzt. Die modifizierten Tests, die in der nachfolgenden Testbox zusammengefasst sind, gelten lediglich approximativ und dies wegen des Zentralen Grenzwertsatzes auch, wenn X und Y nicht normalverteilt sind. Verteilungs1 annahme

X i , . . . , X n , Y i , . . . , Km u n a b h a n g i g , 40

|

Nullhypothese

Ho: fix = Mv

^ o : fJ'X < fJ'Y

Ho: fix > fiY

Gegenhypothese

Hi', fix ¥" l^y

Hi: fxx > fJ'Y

Hi: fix < fiY

Priifgrofie

T-

^ - ^

^

Ho ablehnen, falls

|T|>^i_^

y^ + f T>Ui-a

T
IdY

Inmin-i-irn-2)

~V

n +m

HQ:

fdx > IdY

Hi: lix < IJiY

~X-Y ^ ( ^ _ 1)5^2 ^ ( ^ _ 1)5*2

1

1 Ho ablehnen, falls

|T| >

tn+rn-2,l-q

T > tn+m-2,l-a

T
Excel) habe man X = 56.4, y = 54.2, s*x = 13.4,5y? = 10.4 erhalten. Dann betrdgt der Wert der Testgrofie 15 • 10 • (15 + 1 0 - 2 ) 56.4 - 54.2 = 1.54. 15 + 10 ^714 • 13.4 + 9 • 10.4 Filra = 0,01 ^5^^23,0.99 = 2.50 der kritische Wert. Da der Wert der Testgrofie nicht im kritischen Bereich liegt, kann HQ nicht abgelehnt werden. Auf Basis der vorliegenden Daten ist es also nicht statistisch gesichert, dass die mittlere Bestellsumme nach der Werbekampagne gestiegen ist.

6.2.

T E S T S FUR ERWARTUNGSWERTE

6.2.3

257

Vergleich von Erwartungswerten bei verbundener Stichprobe

Wir kehren zum Vergleich zweier Merkmale zurlick, lassen jedoch im Gegensatz zu Abschnitt 6.2.2 nun Abhangigkeiten zwischen den Beobachtungen der beiden Merkmale zu. Viele statistische Probleme sind vom folgenden Typ: Eine Anzahl von Untersuchungseinheiten erfahrt eine bestimmte „Behandlung". X stellt den Wert eines interessierenden Merkmals vor der Behandlung dar, Y den Wert desselben Merkmals nach der Behandlung. Beispielsweise sei X die Arbeitsproduktivitat einer Person vor einem Berufsforderungslehrgang, Y die Arbeitsproduktivitat nach dem Lehrgang. Fiir jede Untersuchungseinheit i beobachtet man das Wertepaar {xi^yi)^ i = 1 , . . . , n. Jeder der Beobachtungswerte (x^, yi) wird als Realisation eines Paars (Xi^Yi) von Zufallsvariablen aufgefasst. Wenn die n Paare untereinander vollstandig unabhangig sind, wird {Xi.Yi),... ,{Xn,Yn) als verbundene Stichprobe (englisch: paired sample oder matched pairs) bezeichnet. Dabei sind in der Regel fiir jedes i die beiden Zufallsvariablen Xi und Yi voneinander abhangig. Die gemeinsame (bivariate) Verteilung von (Xi^Yi) kann fiir jedes Paar verschieden sein. Sei (Xi, Y i ) , . . . , (X^, Yn) eine verbundene Stichprobe. Aufierdem sei (Xi^Yi) fiir jedes i gemeinsam bivariat normalverteilt mit

E[Xi] --= E\Yi] -= Corr\Xi,Yi] --=

V\X,] V[Y^

l^i, i^i, PXY

- 4,

= -



Wir testen die Nullhypothese, dass fiir jede Untersuchungseinheit i die beiden Zufallsvariablen Xi und Yi den gleichen Erwartungswert haben, gegen die Alternative, dass bei mindestens einer Untersuchungseinheit ungleiche Erwartungswerte vorliegen: Ho : l^i = Vi fiir alle i

gegen

Hi : nicht HQ .

Zur Konstruktion einer Testgrofie verwenden wir die Differenzen Di = Xi—Yi. Offenbar ist fiir jedes i die Zufallsvariable Di univariat normalverteilt, Di ~ N{iXi - i^i.a^)

mit

a^ = a ^ 4- cry -

2ax(JYPXY,

und die Di sind stochastisch unabhangig. Unter HQ sind alle Di identisch verteilt mit Di ~ A^(0, cr^)

mit

cr^ = cr^ + (7y — 2axo-YpxY •

258

6. HYPOTHESENTESTS

Unter der Nullhypothese stellt also D i , . . . , Dn eine einfache Stichprobe aus einer Zufallsvariablen D dar. Mit dieser einfachen Stichprobe flihrt man einen gewohnlichen ^Test auf HQ : E[D] = 0 gegen Hi : E[D] 7^ 0 durch. Flir das ursprlingliche Testproblem erhalt man den folgenden Test:

1 Verteilungs1 annahme

(Xi.Yi)

~ N{yLi,Vi,(j'x,GY,pxY)

unabhangig, z = 1,.. , n

Nullhyp.

Ho : fXi = Ui flir alle i

Gegenhyp.

Hi: jjii ^ Vi flir mindestens ein z

PrufgroBe

^ = -^^/^^^:, wobeiS=if;A,5|, = i f ; ( A --W

1 Ho ablehnen, falls

|r|>i„_i,i_»

Ein wichtiger Spezialfall des obigen Testproblems liegt vor, wenn vorausgesetzt werden kann, dass alle Xi den gleichen Erwartungswert fii = /J> besitzen, und alle Yi den gleichen Erwartungswert Ui = y. Dann vereinfacht sich das Testproblem wie folgt, die Testgrofie und der kritische Bereich andern sich jedoch nicht:

1 Verteilungs1 annahme

{Xi.Yi) ~ N{iJL,v,a'x,aY,PxY)

Nullhyp.

Ho : /JL = 1/

Gegenhyp.

Hi:

unabhangig, i = 1,... ,n

fi^u

PrlifgroBe 1 Ho ablehnen, falls

|T|>t„_i,j_ =

Beispiel 6.4- Wie im Beispiel 6.3 soil die Auswirkung einer Werbekampagne untersucht werden (^-^ Excel/SPSS). Hier handelt es sich allerdings um einen festen Kundenstamm, der regelmdfiig Bestellungen aufgibt. Beobachtet wird deshalb das Bestellverhalten von n = 15 Kunden im Monat vor der Werbekampagne und im Monat danach. Es ergeben sich folgende Bestellsummen:

6.2.

259

T E S T S FUR ERWARTUNGSWERTE

Bestellsumme vorher nachher i 1 2 3 4 5 6 7 8 9 10 11 12 13 14 15

Differenz

Xi

Vi

di

51 53 52 56 53 52 55 52 56 59 64 55 60 61 56

54 52 53 55 51 53 58 56 54 58 62 58 60 63 59

-3 1 -1 1 2 -1 -3 -4 2 1 2 -3 0 -2 -3

Man bildet in der Tabelle die Differenzen di und erhdlt d = —0.7333, sj^ 4.3289, SD = 2.0806. Die Prufgrofie hat den Wert

SD

2.0806

-1.3187.

Filr a = 0.05 ist ^ n - i , i - f = ^i4,o.975 = 2.1448 > | - 1.3188|. Die Nullhypothese, dass sich die Werbekampagne nicht auf das mittlere Bestellverhalten ausgewirkt hat, kann also zum Niveau 5% nicht abgelehnt werden. Abbildung 6.4 stellt die wichtigsten Tests fiir Erwartungswerte bei normalverteilten Stichproben in einem Baumdiagramm iibersichthch dar.



(T)

cr

Oi ffi^

C=:

CD

cr

0)

CO

Ofq

I

CO

CD

u cr cr

•-J

o O t3 3:

C/3 CO

^


cr cr

p

Gaufi-Test

a-^ bekannt

t-Test

a'^ unbekannt

Einfax:he NV-Stichprobe X i , . . . ,Xn

Gaufi-Test

Zweistichproben-

^ X ' ^ v bekannt

Tests fur Erwartungswerte

t-Test

Zweistichproben-

^2_ _ ^2_

o^'x^cFy unbekannt

iiber Differenzen

gewohnlicher t-Test

Zweifache NV-Stichprobe X i , . . . , X n , Vi, - • •, ^m

6.3.

T E S T S FUR VARIANZEN

6.3

261

Tests fiir Varianzen

Mit den Tests tiber einen oder mehrere Erwartungswerte wird die Lage von Verteilungen iiberpruft bzw. verglichen. Sie stellen die mit am haufigsten angewandten Signifikanztests dar. Gelegentlich ist auch die Streuung einer Verteilung oder der Vergleich zweier Verteilungen bezuglich ihrer Streuungen von Interesse. Im Folgenden geben wir Tests fiir eine Varianz sowie einen Test zum Vergleich von zwei Varianzen an.

6.3.1

Tests fur eine Varianz

Es sei X ~ -/V(//, cr^) und X i , . . . , X„ eine Stichprobe aus X. Um Hypothesen tiber a'^ zu testen, liegt es nahe, die Stichprobenvarianz oder ein geeignetes Vielfaches von ihr als Testgrofie zu wahlen. Wir wissen aus Abschnitt 4.3.1, dass n

Als Testgrofie fiir das zweiseitige Testproblem Ho'.a'^ = al

gegen

Hi : a'^ ^ a^

wahlt man deshalb T-T(X

y._in-l)S*^_nS^

und lehnt iJo ab, wenn T besonders grofi (T > ^2) oder besonders klein {T (Ty

Ho : (7x ^ cry i Hi

: ax

< CTy

e*2

Priifgrofie Ho ablehnen, falls

^ ~

T < Fn_i,m-i,f Oder T > Fn-i,yn-l,l-f

Hierbei bezeichnet Fn-i^m-i.a m — 1 Freiheitsgraden.

q*2 ^Y

T> J^n—l,m—ljl — a

T
My

gegen Hi \ fix < f^y

getestet werden. Um den Zweistichproben-t-Test anwenden zu konnen, mussen wir zundchst prilfen, ob die beiden Varianzen a\ und ay ubereinstimmen. Wir verwenden dafur einen F-Test zum Niveau 10%. Nullhypothese fiir dieses Testproblem ist G\ = dy, Gegenhypothese (j\ ^ dy . Aus den gegebenen Daten erhalten wir 15

n - 15,

Yl^i

15

= 124.92

und

25

^yi

= 1135.8616,

i=l

i=l

m = 25,

^xl 25

= 270.82

und

i=l

^

yf = 3172.2964,

i=l 15

X = 8.328,

nsj^ = X^C^i - ^f

= 95.5279,

i=l 25

y = 10.8328,

s3^^ = ^^^

ms^ = "^iVi " vf = 238.5575,

2^{xi -xY

=^^ 95.5279 - 6.8234

6.4.

T E S T S FUR WAHRSCHEINLICHKEITEN UND ANTEILSWERTE

265

und S

1

m

1

m 3Y^ J^iVi -y)^ = ^ 238.5575 = 9.9399. 1=1

Somit hat die Testgrofie des F-Tests den Wert 5*v? 5^2

6.8234 9.9399

Der kritische Bereich ist {t\t < Fn-i^rn-i,^ oder t > Fn-i^rn-i,!-^}der F-Tabelle (Tabelle 7) entnimmt man die Quantile i^l4,24,0.05 = T^

= TT^ = 0-43

^24,14,0.95

Und

^"^^

Fi4,24,0.95 = 2.13 .

^-OO

Wegen Fi4,24,o.05 = 0.43 < 0.6865 < 2.13 = ^14,24,0.95 wird die Nullhypothese gleicher Varianzen zum Niveau 10% nicht abgelehnt. Zwar ist damit nicht statistisch gesichert, dass die Varianzen wirklich gleich sind. Es gibt jedoch - auf Basis dieser Stichprobe - keinen Grund, die Nullhypothese gleicher Varianzen zu verwerfen. Also behalten wir sie beim weiteren Vorgehen, dem Zweistichproben-t-Test, bei. Wir testen nun HQ : /dx > fdy gegen Hi : /dx < I^Y- Die Testgrofie T des Zweistichproben-t-Tests hat den Wert nm{n + m — 2)

n+ m

oc — y

V^^'x + ^^Y

15 • 25 • 38 8.328 - 10.8328 — • = = —2.5866 . 40 A/95.5279 + 238.5575 Der kritische Bereich ist {t\t < —tn-fm-2,i-a}- ^y^s der t-Tabelle (Tabelle 6) entnimmt man das Quantil ^38,0.99 = 2.4286. Wegen T — —2.5866 < —2.4286 = ^38,0.99 '^^'^d die Nullhypothese abgelehnt. Es ist also auf Grund der Daten zum Signifikanzniveau a = 0.01 statistisch gesichert, dass die Trainingsmethode B im Mittel zu besseren Ergebnissen fuhrt.

6.4

Tests fiir Wahrscheinlichkeiten und Anteilswerte

Aussagen (iber eine Wahrscheinlichkeit mit Hilfe von Stichproben zu iiberprlifen, gehort zu den wichtigsten Aufgaben der schliefienden Statistik. Untersucht wird die Wahrscheinlichkeit TT, mit der ein bestimmtes Ereignis eintritt.

266

6. HYPOTHESENTESTS

Die Zufallsvariable X zeigt das Eintreten des Ereignisses an, X ~ 5 ( 1 , TT), und die Stichprobe X i , . . . , X^ entspricht den Ergebnissen einer BernouUiVersuchsreihe. Auf die gleiche Weise lassen sich Aussagen iiber einen Anteil in einer endlichen Grundgesamtheit mittels Stichproben uberprufen. In einer endhchen Grundgesamtheit moge ein Teil der Merkmalstrager eine bestimmte Eigenschaft haben. Zieht man mit Zuriicklegen eine Stichprobe X i , . . . ^Xn, so erhalt man eine BernouUi-Versuchsreihe auf das VorUegen dieser Eigenschaft. Jedes Xi ist dann 5(l,7r)-verteilt, und die Wahrscheinhchkeit n ist gleich dem Anteil der Merkmalstrager mit der interessierenden Eigenschaft. In diesem Abschnitt werden zunachst Aussagen iiber eine Wahrscheinlichkeit TT getestet. Es folgen Tests iiber die Gleichheit von zwei Wahrscheinlichkeit en.

6.4.1

Tests fiir eine Wahrscheinlichkeit

Sei X i , . . . , Xn eine Stichprobe aus X ~ 5 ( 1 , TT). Wir wissen, dass nach dem Zentralen Grenzwertsatz fiir TT = ^ IZlLi -^i S^lt appr

V

Zll n

iV(0,l).

Fiir das Testproblem HQ : TT = TTQ

gegen

i ^ i : TT 7^ TTQ

verwenden wir deshalb die Testgrofie ^

rpfv

V \

(TT - TTQ) y/n

1 = i (Ai,...,AnJ ^ - 7 Y^TTo ( 1 - TTo)

und lehnen ifo dann ab, wenn | r | > fc, wobei k aus a = P(\T\ >k\\HQ richtig) « P {\U\ > k) zu bestimmen ist. Als approximativen kritischen Wert erhalt man k =

u._a, ^

2

das ist das (l — §)-Quantil der A''(0,1)-Verteilung. Die beiden anderen approximativen Tests der Testbox lassen sich in ahnlicher Weise begriinden. Eine Faustregel fiir die Verwendung der drei Tests ist n7ro(l -TTo) > 9.

6.4.

267

T E S T S FUR WAHRSCHEINLICHKEITEN UND ANTEILSWERTE

Verteilungsannahme

^1,

...,^n~^(l,7r)

Nullhypothese

HQ

: 7T =

TTQ

HQ

: TT


TTQ TTQ

[

HQ

: TV >

HI

:

TT - TTo

TT


ui_^

-Ui-a

T
Ux-oc

Betrachten wir hierzu ein Zahlenbeispiel. Beispiel 6.7: Sei TTQ = 0.32, n = 120, Yl^^^i ^i = ^S.DannistTr = x = 0.4. Die Nullhypothese HQ : n < TTQ soil gegen Hi : n > TTQ zu uberpriift werden. Der Wert der Testgrofle ergibt sich als 0.4 - 0.32 a 2 0 = 1.88. VO.32 ' 0.68 Das Uberpriifen der Faustregel liefert das Ergebnis n7ro(l — TTQ) = 26.11 > 9. Der kritische Bereich ist dann K = ]ui_a,oo[ = ]1.64, oo[; wenn a = 0.05. Da der Wert der Priifgrofle im kritischen Bereich liegt, kann HQ zugunsten von Hi abgelehnt werden.

6.4.2

Vergleich zweier Wahrscheinlichkeiten

Zwei Wahrscheinlichkeiten (oder Anteilswerte) sollen nun verglichen werden. Formal haben wir zwei Zufallsvariablen X ^ B{l,7rx) und Y ~ ^(l,7ry) zu untersuchen. Das Testproblem lautet HQ

: TTx = TVy

gegen

Hi : TTx ^

TTY

'

Seien X i , . . . , Xn und Y i , . . . , Ym zwei unabhangige Stichproben aus X bzw. aus Y. Aus dem Zentralen Grenzwertsatz folgt TTx - Tty - {TTX - TTy) TTx (1 - TTx)

appr

NiO,l).

TTy (1 - TTy)

n m Allerdings kann dieser Ausdruck nicht als Testgrofie dienen, da im Nenner TTX und TTy vorkommen. Die Normalverteilung trifft jedoch auch dann noch approximativ zu, wenn man im Nenner TTX durch TTX und TTy durch ny ersetzt. Man verwendet T = T{Xi,...

,Xn,Yi,...

TTx ~ T^Y

,y^) —

Ttx (1 - T T x )

TTy (1 - TTy)

n

m

268

6. HYPOTHESENTESTS

als Testgrofie und lehnt HQ ab, wenn | r | > k. Unter HQ : TTX = Try besitzt die PriifgroiSe T eine asymptotische N{0,1)-Verteilung. Aus a = Pi\T\ >k\\Ho ergibt sich approximativ k =

richtig) ^ P{\U\ > k)

u._a. ^

2

Die folgende Testbox enthalt diesen und zwei weitere approximative Tests zum Vergleich der Wahrscheinlichkeiten. Eine Faustregel fiir die Giiltigkeit der drei Tests lautet: nnxil — 7tx) > 9 und myry(1 — Try) > 9.

Verteilungsannahme

X i , . . . , Xn, F i , . . . , Vm unabhangig, X i , . . . ,Xn - B(l,7rx), F i , . . . ,ym - 5(1,Try)

Nullhypothese

HQ

: TTx = TTY

HQ

'- TTx ^ TTy

HQ

: TTx ^ T^Y

Gegenhypothese

-^1 • TTx 7^ T^Y

H\

: TTx > T^Y

Hi

\ TTx < TTY

Priifgrofie

TTx ~ TTY

T =

/TTXCI-TTX)

y

HQ ablehnen, falls

\T\>m..

n

I 7ry(l—Try)

~^

T > Ui-a

m

T
9 sowie 60 • 0.3167 • 0.6833 > 9 erfullt. Der Wert der Testgrofie betrdgt 0.2143 - 0.3167 /

0.2143-0.7857 , 0.3167-0.6833 70 "^ 60

= -1.3207.

Der kritische Bereich ist K = ] — oo,—1.28[; wenn a = 0.10. Da T e K zutrifft, kann HQ abgelehnt werden. Der Interessentenanteil ist in Gruppe 2 hoher als in Gruppe 1.

6.5.

6-5

ANPASSUNGS- UND UNABHANGIGKEITSTESTS

269

Anpassungs- und Unabhangigkeitstests

Viele statistische Verfahren setzen voraus, dass das zu untersuchende Merkmal eine bestimmte Wahrscheinlichkeitsverteilung besitzt. Ob die beobachteten Daten mit einer bestimmten Verteilung der Zufallsvariablen vereinbar sind, lasst sich mit Hilfe eines so genannten Anpassungstests liberpriifen. Ein solcher Test vergleicht die vorliegenden Beobachtungen mit einer hypothetischen Verteilung und entscheidet, ob die Beobachtungsdaten zu dieser Verteilung „passen" oder nicht. Beim x^-Anpassungstest unterteilt man den Wertebereich des Merkmals in endlich viele Klassen. Den Haufigkeiten, mit denen die Daten in diese Klassen fallen, stellt man die sich aus der hypothetischen Verteilung ergebenden erwarteten Haufigkeiten gegeniiber. Weichen diese zu stark von jenen ab, folgert man, dass die Daten nicht mit der unterstellten Verteilung vereinbar sind. Betrachten wir hierzu zwei Beispiele. Beispiel 6.9 (Fairer Wiirfel): Es stellt sich die Frage, ob ein gegebener Wiirfel fair ist, d.h. ob jede Augenzahl gleich wahrscheinlich ist. Wenn die Zufallsvariable X die Augenzahl eines Wurfs bezeichnet, lautet also die Nullhypothese, dass P{X = i) = ^ fiir z = 1 , . . . , 6 ist. Um sie zu iiberpriifen, werden n unabhdngige Wiirfe Xi,...,Xn durchgefiihrt und die relative Hdufigkeit jeder Augenzahl mit | verglichen ('-^ SPSS). Beispiel 6.10 (Zufallszahlengenerator): Unter Zufallszahlen verstehen wir Realisationen von unabhdngigen, identisch verteilten Zufallsvariablen Zi,Z2, ...Zn ~ i?(0,1). Es stellt sich die Frage, ob ein bestimmter Zufallszahlengenerator wirklich Zufallszahlen erzeugt, das heiflt, ob eine konkret von ihm erzeugte Zahlenfolge als Realisation einer unabhdngigen Folge von i?(0,1)Variablen angesehen werden kann. Um diese Hypothese zu iiberpriifen, erzeugen wir zundchst mit dem Zufallszahlengenerator Zahlen (= Beobachtungen) zi, Z2, • • •, -^^looo- Wir zerlegen das Intervall [0,1] in J = 10 gleich grofle Teilintervalle [0,0.1[,[0.1,0.2[,...,[0.9,1.0] und zahlen die Beobachtungen, die in jedes Teilintervall fallen. Wenn die Zi Realisationen unabhdngiger R{0^1)-Variablen sind, ist zu erwarten, dass in jedem Teilintervall ungefdhr 100 Beobachtungen liegen. Der Unterschied zwischen den beobachteten Haufigkeiten und den aufgrund einer Nullhypothese erwarteten Haufigkeiten wird mit Hilfe der so genannten X^-Statistik gemessen.

270

6.5.1

6. HYPOTHESENTESTS

x^-Statistik

Sei X eine Zufallsvariable und Ai,... ,Aj eine Zerlegung des Tragers von X, dann ist die Wahrscheinlichkeit, dass X in Aj liegt, gleich

nj=P{X£Aj),

j =

l,...,J,

(6.1)

insbesondere folgt J2j=i ^j — 1- Wir betrachten eine Stichprobe X i , . . . ,X^ aus X. Sei Nj die absolute Haufigkeit, dass Beobachtungen in die Klasse Aj fallen, Anzahl der i mit Xi G Aj , j = 1 , . . . , J . N, Offenbar ist Nj ~ 5(n,7rj), also ^[A^^]

n TTj

ftir j = 1 , . . . , J .

Um ftir gegebene Werte der Wahrscheinlichkeiten TTJ die Bedingung (6.1) als Nullhypothese zu liberpriifen, vergleicht man nun fiir alle j die beobacht e t e Haufigkeit (englisch: frequency observed) Nj mit der e r w a r t e t e n Haufigkeit (englisch: frequency expected) riTTj. Als Priifgrofie wird die folgende gewichtete Summe der Abweichungsquadrate verwendet,

E

{Nj-nnjy nTVi

T heifit x^-Statistik. Sie misst die Abweichung der beobachteten Haufigkeiten A^^ von den erwarteten Haufigkeiten UTTJ. Durch Umformungen erhalt man

'Nl

+

{n7rjf-2Njnn nTTi

J 3= 1

j^2 -^

J j=l

E

J 3=1

-f UTTj -

2Nj

ThTTi

-^ A^2 •

1 '^^3

Wenn (6.1) zutrifft, lasst sich die Verteilung von T approximativ angeben: Satz von Pearson^ Unter der Voraussetzung (6.1) konvergiert die Verteilungsfunktion von T fiir n —> oo gegen die Verteilungsfunktion einer x^Verteilung mit J — 1 Freiheitsgraden. ^Karl Pearson (1857-1936)

6.5.

ANPASSUNGS- UND UNABHANGIGKEITSTESTS

271

Nach dem Satz von Pearson gilt flir hinreichend grofie n rp appr ^^2

Xj-i.

Man approximiert deshalb die Quantile von T durch die der Xj_i-Verteilung. Als Faustregel verwenden wir: UTTJ > 5 flir alle j .

6.5.2

x^" Anpassungst est s

Sei X ein beliebig skaliertes Merkmal, und sei Xi^,..,Xn eine Stichprobe aus X, X sei stetig oder diskret verteilt. Man betrachtet eine vollstandige Zerlegung A i , . . . , A j des Tragers von X. 1. X -Anpassungstest fiir gegebene Wahrscheinlichkeiten Gegeben seien die Wahrscheinlichkeiten T T I , . . . , TTJ, X^3 ] / == I ^J — 1' ^^^ das Testproblem iJo : P{X € Aj) = TTj flir j = 1,2,..., J

gegen

Hi : nicht HQ .

Der x^-Anpassungstest ist in der folgenden Testbox zusammengefasst:

Verteilungsannahme

Trager von X in J Teilmengen zerlegt

Nullhypothese

HQ:

P{XeAj)

Gegenhypothese

Hi :

nicht HQ

Prufgrofie

^^IS'^J'"

HQ ablehnen, falls

T > x5-l,l-a

= 7rj fur j - 1,2,..., J

|

1

Beispiel 6.9 (Fortsetzung): Bezeichne X das Ergebnis eines Wurfs mit dem zu uberprufenden Wilrfel. Als Zerlegungsmengen fiir den y^-Test wdhlen wir die Mengen A^- = {j}, j = 1 , . . . , 6. Zu testen sind dann die Hypothesen HQ : P{X = j ) = - , j =z 1 , . . . , 6,

gegen Hi : nicht HQ .

Die Priifgrofle lautet

T=y ^ - n =y ^ - 5 0 =

^YN'-50.

272

6. HYPOTHESENTESTS

HQ wird abgelehnt, wenn die Priifgrofie T > xi i - a ^^^- Speziell zum Signifikanzniveau von a = 0.1 wird HQ abgelehnt, wenn T > X5,o.9 — 9-24. Aus einer Stichprobe der Ldnge n = 50 stammen die folgenden Beobachtungen: 3 Nj

1 14

2 7

3 10

4 6

5 8

6 5

EL 23.52 5.88 12.00 4.32 7.68 3.00 niTj Die Summe der letzten Zeile ist Y^j=i :^ = 56.4. Der Wert der Priifgrofie betrdgt also 56.4 — 50 = 6.4. Er ist nicht grofier als das xi^o.g-Q'^o^ntiL Folglich kann HQ nicht abgelehnt werden. Die Hypothese, dass der Wiirfel fair ist, steht nicht im Widerspruch zu den Daten. Bemerkungen 1. Bei der konkreten Anwendung des x^-Anpassungstests mlissen zunachst die Zerlegungsklassen festgelegt werden. Hat das Merkmal nur endlich viele Werte, so liefern seine moglichen Auspragungen eine erste natiirliche Einteilung in Klassen. 2. Der Test gilt nur asymptotisch. Um eine hinreichende Approximation der asymptotischen Testverteilung zu erreichen, diirfen die Klassen nicht zu schwach besetzt sein. Als Faustregel wird liblicherweise m^j > 5 fiir alle j gefordert. Wenn die Faustregel verletzt ist, fasst man die Zerlegungsklassen so lange zusammen, bis die Faustregel fiir die neuen, groi3eren Klassen erfiillt ist. Der Test verliert hierdurch jedoch an „Gute", das heifit, die Wahrscheinlichkeit, eine nicht zutreffende Nullhypothese abzulehnen, wird geringer. 3. Der x^-Anpassungstest ist verteilungsfrei, d.h. die Priifgrofie hat eine asymptotische Verteilung, die nicht von der Verteilung von X abhangt. Betrachten wir nun ein Beispiel fiir die Anpassung an eine stetige Verteilung. Beispiel 6.11 (Verteilung eines Fehlers): Zu untersuchen ist die Abweichung von einem Sollwert, z.B. beim Abfallen eines Getrdnks. Sei X die Abweichung vom Sollwert. Es soil uberpriift werden, ob X normalverteilt mit Erwartungswert 0 und Varianz 25 sein kann. Deshalb lautet die Nullhypothese HQ : X ^ N{0,25) oder gleichbedeutend HQ:\xr.N{^,l). 0

Zundchst werden Intervallunterteilungen vorgenommen. Wir zerlegen den Trdger von X, derTx — M ist, in endlich viele Intervalle Aj = [a^-i, a^f. Speziell seien

6.5.

273

ANPASSUNGS- UND UNABHANGIGKEITSTESTS

Ai =] - oo, -3.5[, A4 = [-1.5, -0.5[, A7 = [1.5, 2.5[,

A2 = [-3.5,-2.5[, ^3 = [-2.5,-1.5[, A5 = 1-0.5, 0.5[, A6 = [0.5, 1.5[, As = [2.5,3.5[, Ag = [3.5, CX)[

gewahlt. Die Wahrscheinlichkeiten nj — Pi^X e Aj) unter der Nullhypothese erhalten wir aus der Tabelle 4 der Standard-Normalverteilung: = = = 7r7 = = ne = -

TTi = TT9

7r2 = 7r8 TTS 7r4 TTS

P ( i X > 3.5) P(2.5 5 fiir alle j,k = 1,2 offenbar erfullt ist. Die Prufgrofle hat den Wert

=

{NuN22-Ni2N2lf Ni,N2.N.iK2 (80 • 60 - 65 • 45)^ 250= 3.695. 145 • 105 • 125 • 125

Fiir a = 0.05 ist der kritische Wert Xi,o.95 — ^'^^- ^^ 9'^^^ ^ < Xi,o.95- ^^^^ wird die Hypothese, dass die Merkmale Bekanntheitsgrad des Kandidaten und Wohnsitz des Wahlberechtigten unabhdngig sind, nicht abgelehnt. Beispiel 6.13 (Lohngruppe und Geschlecht): In einem Industriebetrieb werden 500 Beschdftigte zufdllig ausgewdhlt. Sie verteilen sich wie folgt auf Geschlechter und Lohngruppen:

280

6. HYPOTHESENTESTS

weiblich 7= 1 .. ,. , mannltch 3=2

Geschlecht

Lohngruppe II III k=2 k=3

I k=l

Nok

N.k

^•

190

70

20

280

110

80

30

220

300

150

50

500

Die Behauptung, dass in diesem Betrieb die Lohngruppe unabhdngig vom Geschlecht ist, soil uberpriift werden. Dazu wird ein x^- Unabhdngigkeitstest zum Niveau a — 0.01 durchgefuhrt Als Prufgrofie ist /

2

\j=i

3

-

k=i

^2

Nj.N.k

ZU berechnen. Zundchst stellen voir fest, dass die Faustregel fiir den approximativen Test ^'^ "^ > 5 fiir alle j und k erfullt ist:

1

1 168

k 2 84

3 28

2

132

66

22

n

J

Den Wert der Testgrofie berechnen wir mithilfe der folgenden Arbeitstabelle:

1

1 0.430

k 2 0.117

3 0.029

2

0.183

0.194

0.082

7V2

j

Die Prufgrofie hat den Wert T = 500(1.035-1) = 17.5. Aus J = 2 und K = 3 folgt {J — 1){K — 1) = 2. Zu einem Niveau von a = 1% betrdgt der kritische Wert X2,o.99 — 9.210. DaT = 17.5 im kritischen Bereich liegt, wird die Nullhypothese abgelehnt. Zwischen den Merkmalen Geschlecht und Lohngruppe besteht ein signifikanter Zusammenhang.

6.6.

ERGANZUNGEN

6.6

281

Erganzungen

6.6.1

Vergleich mehrerer Erwartungswerte (einfache Varianzanalyse)

Bei vielen praktischen Fragestellungen mtissen nicht nur zwei, sondern mehrere Mittelwerte miteinander verglichen werden. Wir betrachten hierzu r Zufallsvariable Xi, X 2 , . . . , X^ und testen die Gleichheit ihrer Erwartungswerte. Voraussetzung fiir die Giiltigkeit des folgenden Tests ist, dass diese Zufallsvariablen normalverteilt sind und alle die gleiche Varianz besitzen. Die gemeinsame Varianz a^ ist jedoch ebenso wie die Erwartungswerte / ^ i , . . . , /i^ unbekannt. Unser Testproblem lautet H^ J^i

: fii = fX2 = " ' = l-t'r (d.h. alle Erwartungswerte sind gleich) gegen : nicht HQ (d.h. mindestens zwei Erwartungswerte sind verschieden).

Aus jeder der r Zufallsvariablen liege eine Stichprobe vor, ^n,^i2i. • •»^ini -^21, ^22, •. •, X2n2

Xri,Xr2,

• • •,^rrir

Stichprobe aus Xi der Lange n i , Stichprobe aus X2 der Lange n2 ,

Stichprobc aus Xr der Lange Ur ,

und die r Stichproben seien voneinander unabhangig. Insgesamt sind es also n = ni + 712 + . . . + rir unabhangige Beobachtungen. Es gilt der Streuungszerlegungssatz

SSG = SST + SSE mit den Bezeichnungen

^3

= —IZ^i^'

n^ ^

j = l,...,r,

^

n

282

6. HYPOTHESENTESTS

SST

=

^njiXj-X)' }=i

SSE =

YlJ2(^Ji-^j)' j=l

i=X

^^^ = ED^^'-^)' 3=1

z=l

Dabei ist SST die Quadratsumme der Abweichungen der einzelnen Mittelwerte Xj vom Gesamtmittelwert X, SSE ist die Quadratsumme der Abweichungen der Beobachtungen der einzelnen Stichproben von ihrem jeweiligen Mittelwert, und SSG ist die Quadratsumme der Abweichungen aller Beobachtungen vom Gesamtmittelwert."^ Der Streuungszerlegungssatz erlaubt es, die Streuung der vereinigten (= „gepoolten") Stichprobe in zwei Summanden zu zerlegen, einen Term der Streuung zwischen den Stichproben und einen Term der Streuung innerhalb der Stichproben. Falls HQ richtig ist, gilt SST (72(r-l)

Xr-l

SSE a'^{n — r)

und

Xn—r '>

und diese zwei Zufallsvariablen sind unabhangig. Demnach hat der Quotient aus den beiden eine F-Verteilung mit r — 1 und n — r Freiheitsgraden, T{X

ii5

>

^rur)

SST SSE

n-r r-1

•^r—ljU—r

Wenn HQ zutrifft, steht zu erwarten, dass SST einen relativ kleinen Wert annimmt. Wir verwenden T als TestgroBe und lehnen HQ ab, wenn T einen kritischen Wert k liberschreitet. Zum Signifikanzniveau a wahlt man fiir k das Quantil

Fr-l^n-r.l-a-

Beispiel 6.14 (Einkommen und Studienabschluss): Bei Akademikern mit den Abschlussen Diplom-Kaufmann, Diplom-Volkswirt bzw. Diplom-Mathematiker wurden die Gesamteinkommen in den ersten beiden Jahren der Berufstdtigkeit erhoben (in Tausend €): 86 DipL-Kfm. Dipt. - Volksw. 64 69 Dipl.-Math.

81 82 88

91 70 77

74 83 81 74 67 82 79

^Die Abkiirzungen SST, SSE und SSG kommen aus dem Englischen. Ihnen liegt die Vorstellung zugrunde, dass die r Stichproben die Ergebnisse von r Experimenten darstellen, in denen eine zu untersuchende GroCe verschiedenen Einfliissen („Behandlungen", englisch: treatments) ausgesetzt wird. SST steht dann fiir Sum of Squares for Treatments, SSE fiir Sum. of Squares for Errors, SSG fiir Grand Sum of Squares.

6.6.

ERGANZUNGEN

283

Es bezeichne Xji das Einkommen des i-ten Mitglieds der j-ten Gruppe. Wir nehmen an, dass die Xji Realisationen unabhdngiger N{^j^a'^)-verteilter Zufallsvariablen sind, und testen unter dieser Annahme die Hypothese „Das durchschnittliche Einkommen ist in alien Gruppen gleich". a sei 5%. Filr die Klassenmittel erhalt man xi = -415 = 83, 5

X2 = -438 = 73 6

und

xs = -395 = 79. 5

Das Gesamtmittel ist dann 16

16

16

Damit haben SST und SSE die Werte SST

=

5 • (83 - 78)2 ^ 5 . (73 _ 73)2 ^ 5 . (79 _ 7g)2 ^ 28O,

SSE

=

158 + 272 + 194 = 624,

und der Wert der Testgrofle ist gleich SST SSE

n-r r - 1

280 624

16 - 3

= 2.92.

Aus einer Tabelle der F- Verteilung (Tabelle 7 im Anhang) erhalt man den kritischen Wert F2,13,0.95 = 3.81. Wegen T = 2.92 < 3.81 = F2,i3,o.95 kann die Nullhypothese HQ : fii = 1^2 = Ms nicht abgelehnt werden. Auf der Basis der beobachteten Daten Idsst sich also kein statistisch (zum 5%-Niveau) signifikanter Einkommensunterschied zwischen den drei verschiedenen Studienabschliissen feststellen. Der hier beschriebene Test auf Gleichheit von Erwartungswerten wird auch einfache Varianzanalyse genannt. Diese Bezeichnung bezieht sich auf die Konstruktion der TestgroBe als Quotient der zwei Summanden des Streuungszerlegungssatzes. Flir weitere Verfahren der Varianzanalyse sei auf die Literatur am Kapitelende verwiesen.

6.6.2

Vergleich mehrerer Varianzen

Im Abschnitt 6.3.2 wurden Tests flir den Vergleich zweier Varianzen behandelt. Oft ist es von Interesse, bei mehr als zwei Zufallsvariablen die Hypothese der Varianzhomogenitat, d.h. der Gleichheit aller Varianzen, zu iiberprtifen.

284

6. HYPOTHESENTESTS

Seien Xi,... ,Xr Zufallsvariable mit Xj ~ N{iXj,a'^) flir j = 1 , . . . , r. Wir betrachten das Testproblem HQ : aj = a2 = ... = a'^ gegen

Hi : nicht HQ .

Hi besagt, dass mindestens zwei der Varianzen verschieden sind. Um HQ ZU testen, mogen r unabhangige Stichproben vorliegen, ^11,-^12, • • • 5 Xin^

Stichprobe aus Xi der Lange rii,

^21, ^22? • • • > ^2n2

Stichprobe aus X2 der Lange n2 ,

Xri,Xr2y •. •,^rrir

Stichprobc aus Xr der Lange rir •

Sei n = rii -\-... -{-rir und

3

i=l

•?

i=i

fur j = 1 , . . . , r. Als TestgroBe verwenden wir nach Bartlett^

wobei

Wenn alle geschatzten Varianzen Sj'^ den gleichen Wert annehmen, ist offenbar T = 0. Die Testgrofie T besitzt eine asymptotische x^-Verteilung mit r — 1 Freiheitsgraden,

Uberschreitet T einen kritischen Wert, der der x^-Tabelle (Tabelle 5) zu entnehmen ist, so wird HQ abgelehnt. Beispiel 6.16: Aus drei unabhdngigen Stichproben jeweils der Ldnge 40, die aus drei normalverteilten Zufallsvariablen gezogen wurden, ergab sich Sf

= 14.2,

^Maurice S. Bartlett (1910-2002)

52*2 = 1 2 . 1 ,

Sf

= 16.7.

6.6.

285

ERGANZUNGEN

Fiir die Testgrofie berechnen wir C =

1 3(3 - 1)

V^

L

^ 4 0 - 1

1.0114

+ 1 = 1.0114,

120 -

39 117-In ( —(14.2-1-12.14-16.7)

- 3 9 • (ln(14.2) -h ln(12.1) -f ln(16.7)) =

0.9990.

Als kritischen Wert filr a = 0.05 ergibt sich aus der x^-Tabelle X2,o.95 — 5.991. Die Hypothese gleicher Varianzen kann nicht abgelehnt werden. Sowohl der F-Test zum Vergleich zweier Varianzen als auch der Bartlett-Test diirfen nur dann angewendet werden, wenn die Annahme normalverteilter Zufallsvariablen gerechtfertigt ist. Bestehen hieran Zweifel, sind andere Tests wie der Test von Levene (vgl. etwa Hartung et al. (2002)) vorzuziehen. Der Test von Levene ist auch in SPSS implementiert.

6.6.3

Vergleich mehrerer Wahrscheinlichkeiten

Im Abschnitt 6.4.2 wurde ein Test zum Vergleich zweier Wahrscheinlichkeiten (oder Anteilswerte) nx und ny eingefiihrt. Oft sind aber mehr als zwei Wahrscheinlichkeiten zu vergleichen. Der nachfolgende „Homogenitatstest" dient dem Vergleich von r Wahrscheinlichkeiten. Wir setzen voraus, dass Xi, ^ 2 , . . . , Xr Zufallsvariablen sind und Xi ^ B (1, TT^) fiir i = 1,2,..., r gilt. Zu testen ist das Testproblem TTr gegen

HQ : TTi = 7r2

Hi : nicht HQ .

Aus jeder der r Zufallsvariablen Xj liege eine Stichprobe vom Umfang Uj vor. Die insgesamt n == ni -f . . . n^ Zufallsvariablen seien vollstandig unabhangig. Wir schatzen die TTJ mittels ^3 = —Y^^3i^

j=:l,...,?

i=l

Sind alle Wahrscheinlichkeiten gleich, d.h. gilt TT^ = TT fiir j kann man TT mittels niTTi -f- . . . -}-

* = ^EE^.^ = j=l

i=l

rirltr

l , . . . , r , so

286

6. HYPOTHESENTESTS

aus der vereinigten (= „gepoolten") Stichprobe schatzen. Als TestgroBe verwendet man Z^

idni)

3= 1

Uj

7r(l-7r) ^

'

Bei Giiltigkeit von ifo besitzt T approximativ eine x^-Verteilung mit r — 1 Preiheitsgraden, T ~

Xr-l-

Man lehnt ifo ab, wenn T einen kritischen Wert k iiberschreitet. Dabei ist A: das (1 — a)-Quantil der Xr-i'Verteilung. Beispiel 6.15: Eine Standardoperation (z.B. Blinddarmentfernung) wird an einem Grofiklinikum von drei verschiedenen Operationsteams durchgefuhrt; dabei kann eine Komplikation auftreten. Insgesamt 95 Operationen wurden daraufhin beobachtet. Die Komplikation trat auf bei 9 von 30 Operationen des Teams A, 12 von 25 Operationen des Teams B, 15 von 40 Operationen des Teams C, Man teste (mit a = 0,05^, ob die Wahrscheinlichkeit des Auftretens der Komplikation bei alien drei Operationsteams gleich ist. Welche Annahmen muss man treffen, um den obigen Test anwenden zu konnen? Das Auftreten (bzw. Nichtauftreten) der Komplikation muss bei den 95 betrachteten Operationen stochastisch unabhdngig sein. Als Wert der Testgrofie erhalt man J- =

36/1 _ 36^ 95 V-^ 95/

~ ^'^^ '

Wegen T = 1.88 < X2,o.95 — ^-^^ kann HQ nicht abgelehnt werden.

E r g a n z e n d e L i t e r a t u r zu K a p i t e l 6: Die Grundbegriffe der Testtheorie und ausgewahlte spezielle Tests werden in alien Lehrbiichern der schliefienden Statistik fur Wirtscliafts- und Sozialwissenschaften behandelt. Wir verweisen auf die im Anschluss an Kapitel 1 zitierte Literatur. Einen Uberblick liber sehr viele Testverfahren gibt Sachs (2002). Eine klassische Darstellung der Testtheorie ist Lehmann (1986). Eine Einflihrung in die Varianzanalyse bietet Kapitel XI in Hartung et al. (2002). Ein grundlegendes Werk zur Varianzanalyse ist Scheffe (1959). Empfehlenswert ist auch Fisher und McDonald (1978).

6.6.

ERGANZUNGEN

287

D'Agostino und Stephens (1986) geben einen guten Uberbhck iiber Anpassungstests. x^-Verfahren werden in Greenwood und Nikuhn (1996) behandelt. Ftir die weitere Analyse von Kontingenztabellen sei auf Andrefi et al. (1997) und Agresti (1984) verwiesen.

288

6.7

6. HYPOTHESENTESTS

Anhang: Verwendung von Excel und SPSS

Excel und SPSS geben als Ergebnis eines Tests in der Regel den so genannten p-Wert aus. Der p-Wert stellt eine Wahrscheinlichkeit dar, und zwar das kleinste a, bei dem die Nullhypothese zum Signifikanzniveau a abgelehnt werden kann. Flir die Durchfiihrung eines Tests zum Niveau a bedeutet dies: Die Nullhypothese wird abgelehnt, wenn der berechnete p-Wert nicht groCer als das vorgegebene a ist. Gaufi-Test (Beispiel 6.2, Seite 238): Excel I Die Daten zu diesem Beispiel sind als Datei B e i s p i e l 6 2 . x l s im Internet erhaltlich. Um den Gaufi-Test durchzufiihren, wendet man die ExcelFunktion GTEST(Matrix;x;Sigma) auf die gegebene Datentabelle an: GTEST(A2:A26;55;4) ^ 1 - $ ( ^ ^

•^^)

Excel liefert hier den Wert p = 0.0401, also kann die Nullhypothese zum Niveau a = b% abgelehnt werden. Zweistichproben-t-Test (Beispiel 6.3, Seite 254): Excel I Die Daten des Beispiels 6.3 stehen im Internet unter B e i s p i e l 6 3 . x l s zur Verftigung. Flir den Zweistichproben-t-Test bietet Excel die Funktion TTEST(...). Angewandt auf die Datentabelle erhalt man den p-Wert TTEST(A2:A16;B2:B11;2;2) =0.1369 und kann folglich HQ nicht zum 5%-Niveau ablehnen. SPSS I Der Zweistichproben-t-Test in SPSS verlangt eine bestimmte Strukturierung der Daten; vgl. B e i s p i e l 6 3 . s a v (vgl. Pokropp (2002b)). Dazu muss eine so genannte Gruppenvariable eingefiihrt werden. In diesem Beispiel wurde die Gruppenvariable als gruppe deklariert; sie hat zwei mogliche Auspragungen, im Beispiel 1 fur X und 2 fiir Y. Unter ergebnis sind die urspriinglichen Daten abgelegt. Zur Durchfiihrung des Tests geht man auf ANALYSIEREN/MITTELWERTE V E R G L E I C H E N / T - T E S T BEI UNABHANGIGEN STICHPROBEN. Ist der Test ausgewahlt, erscheint eine Box, in welcher eine

Variable gruppe als Gruppenvariable ausgewahlt werden muss. AnschlieBend klickt man auf Gruppe def , gibt „1" bei Gruppe 1 und „2" bei Gruppe 2 ein und klickt auf Weiter. In der Ausgangsbox muss schliefilich nur noch die Variable ergebnis als Testvariable festgelegt und auf OK geklickt werden, um den Test auszuftihren. SPSS liefert auch den Wert der t-Statistik. Im Beispiel betragt er 1.541. Das Ergebnis ist unter Beispiel63.spo im Internet erhaltlich. V e r b u n d e n e S t i c h p r o b e n (Beispiel 6.4, Seite 258): Excel I Die Daten sind unter B e i s p i e l 6 4 . x l s gespeichert. Dabei findet man

6.7.

ANHANG: VERWENDUNG VON EXCEL UND

SPSS

289

die Ergebnisse der Befragung nach der Werbekampagne (X) in A2:A16 abgelegt, die Ergebnisse vor der Werbekampagne (Y) in B2:B16. Der p-Wert des Tests wird in Excel durch TTEST(B2:B10;C2:C10;2;1) berechnet. SPSS I Der gleiche Datensatz ist unter B e i s p i e l 6 4 . sav im SPSS-Format gespeichert. Uber ANALYSIEREN/MITTELWERTE V E R G L E I C H E N / T - T E S T BEI GEPAARTEN STICHPROBEN. .. wird der Zweistichproben-t-Test bei verbundenen Stichproben ausgewahlt. Daraufhin erscheint eine Box, in der die Variablen X und Y als verbundene Variablen eingetragen und durch OK bestatigt werden, um den Test durchzufiihren. Das Testergebnis ist unter B e i s p i e l 6 4 . spo gespeichert. Chi-Quadrat-Anpassungstest (Beispiel 6.9, Seite 269): Der x^-Anpassungstest ist in SPSS als Option vorhanden. Die Daten des Beispiels 6.9 (Prtifung eines Wiirfels) sind als SPSS-Datei unter B e i s p i e l 6 9 . sav gespeichert. Die Zufallsvariable wird dort als Ergebnis[wurf] bezeichnet. Um den Test durchzufiihren, wahlt man ANALYSIEREN/NICHTPARAMETRISCHE T E S T S / C H I - Q U A D R A T . ... Daraufhin erscheint die CHI-QUADRAT-BOX, in

der ERGEBNISSE[WURF] als Testvariable auszuwahlen und mit OK zu bestatigen ist, um den Test durchzufiihren. Die Ausgabe umfasst zwei Tabellen: Die drei Spalten der ersten Tabelle enthalten die beobachteten und die erwarteten Werte sowie die empirischen Residuen. Die zweite Tabelle liefert das Ergebnis des Tests, in diesem Fall den Wert 6.4 fiir die Testgrofie. Mit der Funktion IDF.CHISQ(0.9,5) = 9.24 wird das 90%-Quantil der asymptotischen xi-Verteilung bestimmt. Wegen 6.4 < 9.24 wird die Nullhypothese nicht abgelehnt. Der Term Asymptotische Signiflkanz in der zweiten Tabelle stellt den entsprechenden p-Wert dar; vgl. die Datei Beispiel69.spo. C h i - Q u a d r a t - U n a b h a n g i g k e i t s t e s t (Beispiel 6.12, Seite 279): Excel I Der x^-Unabhangigkeitstest wird iiber die Funktion CHITEST(Beob_Messwerte;Erwart_Messwerte) durchgefiihrt. Die Daten sind in der Datei B e i s p i e l 6 1 2 . x l s abgespeichert. Der Aufruf ergibt hier CHITEST(B3:C4;B8:C9) = 0.05459. Die Nullhypothese, dass die Merkmale Wohnort und Bekanntheitsgrad der Kandidaten unabhangig sind, kann zum Niveau a = 5% nicht abgelehnt werden. SPSS I In der Datei Beispiel612.sav sind zwei Variablen definiert, wohn fiir Wohnsitz und kand fiir Kandidat. Im Menii wahlt man ANALYSIEREN/ DESKRIPTIVE STATISTIKEN/ KREUZTABELLEN und gibt in der Box K R E U Z TABELLEN bei ZEILEN die Variable wohn und bei SPALTEN die Variable kand ein. Danach ist in STATISTIK der x^-Unabhangigkeitstest anzukreuzen. Nach Anklicken von W E I T E R erscheint erneut die Ausgangsbox KREUZTABELLEN, in der ZELLEN anzuklicken ist. Bei ZELLEN ist unterhalb von BEOBACHTET auch ERWARTET anzukreuzen, damit in der Ausgabe sowohl die beobachteten als auch die erwarteten Werte angezeigt werden. Durch Anklicken von OK

290

6. HYPOTHESENTESTS

in der Ausgangsbox werden die Kontigenztafel sowie die Ergebnisse unterschiedlicher x^-Tests ausgegeben. Das Ergebnis ist unter Beispiel612.spo gespeichert.

Kapitel 7

Lineare Regression In vielen Anwendungen der Statistik stellt sich die Aufgabe, eine Variable durch eine oder mehrere andere Variable zu „erklaren", indem ein - in der Kegel approximativer - funktionaler Zusammenhang zwischen den Variablen nachgewiesen wird. Zu diesem Zweck modelliert man die Werte der „zu erklarenden" Variablen als Funktion der Werte der anderen, so genannten „erklarenden" Variablen und eines Storterms. Der Storterm beschreibt die als unsystematisch oder zufallig angesehenen Abweichungen vom exakten funktionalen Zusammenhang. Die Funktion legt man bis auf gewisse Parameter vorweg fest und schatzt diese Parameter dann aus den Daten. Haufig kann - zumindest in einem eingeschrankten Wertebereich - ein approximativer linearer Zusammenhang der Variablen unterstellt werden. Dies fiihrt auf das besonders einfache Modell einer afhn-linearen Funktion. Die Koeffizienten des linearen Ansatzes sind dabei als Parameter zu schatzen. Im Fall nur einer erklarenden Variablen spricht man von linearer Einfachregression (oder einfacher linearer Regression), im Fall mehrerer erklarender Variablen von linearer Mehrfachregression (oder multipler linearer Regression). In diesem Kapitel behandeln wir ausflihrlich die lineare Einfachregression, insbesondere die Schatz- und Testprobleme, die sich fiir die Parameter ergeben. AuBerdem geben wir einen kurzen Abriss der Mehrfachregression.

7.1

Lineare Einfachregression

Bei der linearen Einfachregression geht man davon aus, dass an n Beobachtungseinheiten die Werte {xi^yi), i = 1 , . . . , n, gemessen wurden. Dabei bezeichnen die yi die Werte einer zu erklarenden Variablen und die Xi die 291

292

7. LiNEARE REGRESSION

Werte einer erklarenden Variablen. Beide Variable werden als metrisch, d.h. mindestens intervallskaliert, vorausgesetzt. Die zu erklarende Variable bezeichnet man auch als abhangige Variable, als erklarte Variable oder als Regressand. Die erklarende Variable wird auch unabhangige Variable oder Regressor genannt.

7.1.1

Das Modell der linearen Einfachregression

Beim Modell der linearen Einfachregression wird unterstellt, dass die yi Werte von Zufalls variablen Yi sind, die der Gleichung yi=Po+

PiXi + Ui,

i = 1,..., n,

(7.1)

und folgenden weiteren Annahmen geniigen: • Die Werte x i , . . . ,0;^ des Regressors sind deterministisch, d.h. fest gegeben. Sie sind nicht alle gleich, d.h. es gilt s'^ = ^ XIILiC^^ — x)^ > 0. • f/i,..., C/n sind Zufallsvariable, die allerdings nicht beobachtet werden konnen. Sie werden als Storterme oder Residuen bezeichnet. Ftir ihre gemeinsame Verteilung gilt die Annahme: E[Ui] = V[Ui] = Covpi, Uj] =

0 a^ 0

ftir alle i, fur alle z, fiir alle i y^ j .

Aus den Annahmen folgt sofort, dass E[Yi\ V[Yi\ Cov[Yi,Yj]

= = =

Po + PiXi fur alle i, a^ ftir alle i , 0 ftir alle i^j.

Das Modell der linearen Einfachregression besitzt drei Parameter: die beiden Regressionskoefflzienten /3o und Pi sowie die Residualvarianz a'^. Zur Schatzung der Parameter stehen die Beobachtungen (xj, y^), z = 1 , . . . , n, zur Verftigung. Beispiel 7.1: Der Zusammenhang zwischen dem verfiigbaren monatlichen Einkommen X von Haushalten und ihren monatlichen Ausgaben Y fiir Nahrungsmittel soil untersucht werden. Wir betrachten dazu einen (fiktiven) Datensatz von n = 10 Haushalten (Angaben jeweils in €): i

1

Vi

1296 3413

x%

2 796 2276

3

4

1753 5374

1344 4410

5 569 1413

6 1257 3862

7 636 1764

8

9

10

1546 4550

1132 3022

1464 3868

7.1.

LiNEARE EiNFACHREGRESSIQN

293

Um den moglichen Zusammenhang abzubilden, unterstellen wir eine lineare Beziehung yi = Po + f3iXi, z = l,...,10. (7.2) Hier gilt fiir jedes i dxi

d.h. der Parameter /?i gibt an, um wie viel Euro sich yi verdndert, wenn Xi um einen Euro erhoht wird. /?i wird als die marginale Ausgabenquote in Bezug auf das Einkommen bezeichnet. Aus okonomischen Griinden ist /3i > 0 zu erwarten. Fur die obigen Daten ist die lineare Beziehung (7.2) jedoch nicht, jedenfalls nicht exakt, erfullt. Fiir Daten von real beobachteten Haushalten gilt dies fast immer, da deren Ausgaben fiir Nahrungsmittel aufier vom Einkommen auch von zahlreichen anderen Bestimmungsgrofien abhdngen. An die Stelle des exakten linearen Ansatzes (7.2) setzt man deshalb den linearen Regressionsansatz (7.1), dessen Storterme Ui die Abweichungen vom exakten linearen Modell bezeichnen. Wir wollen das Beispiel 7.1 weiterfiihren und dabei eine Modifikation des Modells der einfachen linearen Regression, die loglineare Einfachregression darstellen. Beispiel 7.2: Sowohl im Ansatz (7.2) als auch im Regressionsansatz (7.1) ist der Parameter Pi fiir alle Haushalte und damit fiir alle Werte der Einkommen Xi konstant. Der deutsche Statistiker Engel ^ stellte jedoch fest, dass die Ausgaben fiir Nahrungsmittel von Haushalten mit zunehmendem verfiigbaren Einkommen nur unterproportional ansteigen. Diese Feststellung wird hdufig als „Engelsches Gesetz^' bezeichnet. Um das Engelsche Gesetz empirisch zu iiberpriifen, verwenden wir die folgende Variante des linearen Regressionsmodells. Statt der Grofien Xi und yi setzen wir ihre Logarithmen in eine lineare Beziehung, \xiyi=Po^-pi\iiXi, 2 = 1 , . . . , 10. (7.3) Die Parameter /3o und Pi unterscheiden sich natiirlich von den Parametern Po und pi in (7.2) und (7.1). Fiir jedes i gilt - _ dlnyi _ Xj dyi dlnxi yi dxi Pi wird als Elastizitat bezeichnet, genauer, als Einkommenselastizitdt der Nahrungsmittelausgaben; sie gibt an, um wie viel Prozent sich die Nahrungsmittelausgaben dndern, wenn das Einkommen um ein Prozent steigt. Der 1 Ernst Engel (1821-1896)

294

7. LiNEARE REGRESSION

Ansatz unterstellt eine konstante Elastizitdt fiir alle Werte von xi, sieht aber ein Absinken der marginalen Ausgaben fiir Nahrungsmittel mit wachsendem Einkommen vor, wie es dem Engelschen Gesetz entspricht. Da die Daten auch diesem Modell (7.3) nicht exakt folgen, erweitern wir es zum loglinearen Regressions ansatz InYi = ^0 + /3i • \nxi -h [7^,

7.1.2

z = 1,... ,n.

P u n k t s c h a t z u n g der KoefRzienten

Aus den n beobachteten Datenpaaren (xi, y i ) , . . . , (x^, Vn) sollen /3o, Pi und (7^ geschatzt werden. K Q - S c h a t z u n g der RegressionskoefRzienten Nach der Methode der Kleinsten Quadrate (KQ, englisch: LS fiir Least Squares) minimiert man zu diesem Zweck die Funktion

Q{Po.Pi) =

J2{yi-Po-f3iXi)'

i=i

beztiglich /3Q und /3i, d.h. man wahlt /?o = Po und /3i = /3i so, dass die Summe QiPo, Pi) der quadrierten Abstande zwischen den Beobachtungen yi und dem hnearen Ansatz Po+PiXi minimal wird. Um PQ und pi zu bestimmen, werden die partiellen Ableitungen von Q gleich null gesetzt: -^^QiPoJi) 000 d

= - 2 ^ ( y , - / 3 o - / 3 i X , ) = 0,

(7.4)

i=l

QiPoJi) =

-2Y,Xiiyi-0o-PiXi)

Die erste Gleichung (7.4) ist genau dann erfiillt, wenn n

0 = Y.{yi - Po - Pixi) i=l n

=

"^Vi-nPo2=1

d.h. wenn ^0 = y - ^1^

n

piY^Xi, i=l

= O.

(7.5)

7.1.

LiNEARE EiNFACHREGRESSION

295

ist. Die zweite Gleichung (7.5) trifft genau dann zu, wenn n

0

=

^Xiivi

- po - Pi^i) 71

n

n

i=l

i=l

i=l

Setzt man PQ = y — Pix in die letzte Gleichung ein, so folgt n

J^^iVi /3i = ^ 4

nxy —•

Yl^l - ^^^ Der Nenner ist gleich ^17=1^1 — ^^^ = ^ 5 ^ , und dies ist nach Modellvoraussetzung grofier als null. Man priift anhand der zweiten Ableitungen von Q nach, dass bei Po und Pi wirklich ein Minimum vorliegt. Die so erhaltenen Werte PQ und Pi heifien KQ-Schatzwerte. Sie sind gleich den Regressionskoeffizienten der linearen Einfachregression (Regression zweiter Art) in der beschreibenden Statistik. Der KQ-Schatzwert Pi lasst sich offenbar auch durch die Formel n

Pi-- ~

Y,{xi

SXY «2

i=l •~

^X

-x){yi-y)

n

^{Xi-X)'^

beschreiben. Setzt man statt der realisierten Werte yi die Zufallsvariable Yi ein, erhalt man die KQ-Schatzer fiir PQ und Pi

E(x,-x)(y,-y)

Pi

i=i

bzw.

po =

Y-pix.

Der Einfachheit halber werden die KQ-Schatzer mit den gleichen Symbolen Po und Pi wie ihre Werte bezeichnet. Die beiden KQ-Schatzer besitzen einige giinstige Eigenschaften: Erstens sind sie erwartungstreu und konsistent fiir Po bzw. Pi. Zweitens hangen sie in linearer Weise von den Beobachtungen Yi,.,.,Yn ab. Drittens besitzen sie unter alien linearen erwartungstreuen Schatzern die kleinste Varianz. Diese Eigenschaften der KQ-Schatzer werden im Abschnitt 7.5.2 naher erlautert.

296

7. LiNEARE REGRESSION

Beispiel 7.1 (Fortsetzung): Wir schdtzen die Koeffizienten der linearen Regression der Ausgaben fur Nahrungsmittel auf das verfilgbare Einkommen. Aus den obigen Daten ergeben sich die Schdtzwerte /3o = 153.67,

01 = 0 . 3 0 .

Die geschdtzte Regressionsgleichung lautet y= 153.67 + 0.30-x. Den geschdtzten Koeffizienten $\ = 0.30 interpretiert man so: Von einem zusdtzlichen Euro Einkommen werden 30 Cent fur Nahrungsmittel ausgegeben werden. Beispiel 7.2 (Fortsetzung): Die lineare Regression der logarithmierten Ausgaben fur Nahrungsmittel auf das logarithmierte verfilgbare Einkommen ergibt ^ = -0.01,

/§i = 0 . 8 7 .

Die geschdtzte Regressionsgleichung lautet In 2/ = y

- 0 . 0 1 + 0.87-In a;,

= e-^'^'^x'-^'

d.h.

= 0.99.x0•«^

Dabei ist Pi = 0.87 der Schdtzwert fur die Einkommenselastizitdt rungsmittelausgaben.

der Nah-

Schatzung der Residualvarianz Neben den beiden Regressionskoeffizienten PQ und Pi enthalt das Modell der linearen Einfachregression noch einen dritten unbekannten Parameter, namlich die Varianz a^ der Storterme Ui. Man schatzt sie mithilfe der empirischen Residuen t/^, U,=Yi-Yi=Yi-{po + PiXi),

(7.6)

durch

Die Wurzel aus a^ stellt einen Schatzer flir die Standardabweichung a der Yi dar; sie wird als (geschatzter) Standardfehler der Regression bezeichnet. Zur Berechnung von a^ ist es nicht erforderlich, die Werte der Ui zu berechnen. Setzt man (7.6) und die Formel fur Po in a^ ein, erhalt man a

n

^, ^

n

=1

n

n-2

A, 1=1

n

n

'

^ ( y , - yf + Pi ^ ( x , - xf - 2pi ^ ( y , - y){xi - x) i=l

i=l

i=l

;^[4+/5;4-2ft.„] = ; ^ [ 4 - / j ? « ] .

7.1.

297

LiNEARE EiNFACHREGRESSION

da, sxY = Pis'x. Es folgt

(4-/5f4) = ; ^ ( 4 - f ^ ) .

n-2

Man sieht weiterhin, dass die Werte der Schatzer Po^ $1 und a^ nur von den funf GroBen _

1 ^

i n

X = — 2_^ Xi,

ni=i

1 ^

1 '^

^ ^=l

und

1 "" 5xy = - ] ^ (xi - x) {yi - y) i=l

abhangen. Varianzen der KQ-Schatzer Schatzer /3o und $1, Es gilt

Wir bestimmen nun die Varianzen der KQ-

Y,{xi-x){Y,-Y) Pi

1

i=l

^

"" z=l

da Er=i(^* "~ ^y^ ~ ^ Er=i(^^ — x) = O ist. Fiir die Varianz des Schatzers folgt

V[p,

] = {-^)^h^^ ^ - M ^ ^x = ^ — 2 "

n 51

n 5X

also VW]

-

'^'

-

'^^^ " ns\ -

'''

EU^Xj-xy

(7.7)

^net nQan (7.8)

298

7. LiNEARE REGRESSION

Abbildung 7.1: Regressionsgerade bei unterschiedlicher Streuung der erklarenden Variablen Die Genauigkeit beider Schatzer hangt proportional von o^ und umgekehrt proportional von s\ ab. Ist F[f7] = cr^ grofi, so streuen die Punkte stark um die Gerade. Ist V\U\ = cr^ hingegen klein, liegen die Punkte nahe an der Geraden, Der Ordinatenabschnitt /?o wird meist ungenauer geschatzt als die Steigung /?i der Regressionsgeraden. Insbesondere in den Wirtschaftswissenschaften sind die Werte des Regressors in der Regel grofier als eins; dann ist auch der Faktor ^ XliLi ^h ^ ^ ^^^ ^^^^ ^^^ beiden Varianzen unterscheiden, grofier als eins. Abbildung 7.1 zeigt zweierlei Daten (dicke bzw. diinne Punkte). Beide Datenwolken streuen in gleicher Weise in y-Richtung. In x-Richtung streuen die dlinnen Punkte allerdings weniger als die dicken, d.h. ihr s^ ist kleiner und fiihrt deshalb zu einer vergleichsweise grofieren Streuung der Regressionsschatzer $o und $i. Liegen die Abzissen der Punkte nahe x, so ist die Varianz s'x eher klein. Dies hat zur Folge, dass V[Pi] grofi ist. Fur eine verlassliche Schatzung der Steigung der Regressionsgeraden wird eine hinreichend grofie Streuung der erklarenden Variablen benotigt. Schatzung der Varianzen der KQ-Schatzer Setzt man in (7.8) und (7.7) fur den unbekannten Parameter cr^ den Schatzer a^ ein, erhalt man Schatzer fiir die Varianzen von /3o und $i, namlich 2 z2i=i ^i n sX

V0o] = ^'

und

V0i] =

(7.9) n sX

Die Standardabweichungen von PQ und Pi schatzt man durch

'^ffo =" ^\

und

"0^

" \ 1 n Sx

(7.10)

7.2.

299

INTERVALLSCHATZUNG UND T E S T S

BestimmtheitsmaB Als Mafi der Anpassungsgiite einer linearen Einfachregression dient - wie in der beschreibenden Statistik - das Bestimmtheitsmafi i?^

i:n-n[Y R' =

'-^

Y:y?-n{Yy

Sy

E? gibt den Anteil der durch die Regression erklarten Varianz 5? an der Gesamtvarianz Sy der abhangigen Variablen Y an. Es gilt 0 < ii^ < 1 sowie die einfach auszuwertende Formel

K'

SXY SXSY

=

{TXY)

Flir Einzelheiten zum Bestimmtheitsmafi und seiner Interpretation sei auf die Literatur zur beschreibenden Statistik (etwa Kapitel 5 in Mosler und Schmid (2005)) verwiesen. Das Schatzergebnis der Regression schreibt man mit den geschatzten Standardabweichungen der Regressionskoeffizienten und dem Bestimmtheitsmafi in der folgenden Form: R\

Beispiel 7.1 (Fortsetzung): Die geschdtzte lineare Regression der Ausgaben fiir Nahrungsmittel auf die verfiigharen Einkommen lautet mit den Standardabweichungen der Regressionskoeffizienten y

=

153.67 (85.76)

+

0.30-a;, (0.02)

R^ = 0.95, (7 = 91.22.

Beispiel 7.2 (Fortsetzung): Die geschdtzte Regression der logarithmierten Variablen ist Iny

7.2

=

-0.01 (0.43)

+

0.87 • In X, (0.05)

R^ = 0.97, a = 0.07.

Intervallschatzung und Tests

Um Konfidenzintervalle flir /3o, Pi und a^ konstruieren und Hypothesen liber die Parameter testen zu konnen, nimmt man zusatzlich an, dass die Residuen

300

7. LiNEARE R E G R E S S I O N

gemeinsam normalverteilt^ sind. Das Modell der linearen Einfachregression lautet dann ^i = /?o + PiXi + Ui fiir i = 1 , . . . , n , f/i,..., [/n gemeinsam normalverteilt mit Ui ~ Ar(0,a-2) fiir i = l , . . . , n , Cov[Ui,Uj] = 0, falls i 7^ j . Es folgt, dass die Yi gemeinsam normalverteilt sind und

Die Schatzer $0 und $1 sind als Linearkombinationen der normalverteilten Zufallsvariablen Yi ebenfalls normalverteilt (vgl. Abschnitt 3.3.1). Ihre Erwartungswerte und Varianzen kennen wir bereits. Deshalb gilt n 2L,i=l -^i

^^2

1

'^

BEWEIS Wir maximieren die Loglikelihood-Funktion beziiglich /?o, Pi und (7^. Die Dichte von Yi ist

V27rcr

7.5.

311

ERGANZUNGEN

fiir die Loglikelihoodfunktion ergibt sich deshalb n

li/3o,l3iy)

= =

Yl^n{f{yi\\/3o,Pi,a^)) J2\-

I n ( V ^ ) - Ha) - - L ( 2 / , - /3o -

ftx,)'

i=l

- n l n ( V ^ ) - nln(c7) - ^ Q ( / ? o , / ? i ) , wobei

(7.16) i=l

Die Loglikelihood-Punktion 1{PO,PI,(T^) ist an der Stelle /3o = Po und /3i = /3i genau dann maximal, wenn (5(/?o?/?i) £^u dieser Stelle minimal ist, d.h. wenn fiir pQ und /3i die KQ-Schatzer /3o und /3i gewahlt werden. Um den ML-Schatzer fiir a'^ zu bestimmen, berechnen wir

^l0oJua^)

^ -nln{V^)-^Q0oJi)

=

a^2Va^ n 2^

-1 +

' 2a4 jQil3o,l3i) ncr^

Nullsetzen dieser Ableitung und (7.16) liefert den ML-Schatzer fiir a^, namlich

n

i=l

D

7.5.2

Eigenschaften der Schatzer

In diesem Abschnitt betrachten wir einige allgemeine Eigenschaften der Punktschatzer /3o, Pi und a^. 1. Po und pi sind in den Beobachtungen Yi lineare Schatzer, d.h. sie haben n

jeweils die Form Yl WiYi mit geeigneten Koeffizienten Wi. 2. E[Po] = Po und E[Pi] = Pi, d.h. Po und pi sind erwartungtreu.

312

7. LiNEARE REGRESSION

3. Unter alien (in den Beobachtungen Yi^..,^Yn) linearen erwartungstreuen Schatzern fiir /SQ und /?i haben die KQ-Schatzer $o und $i die kleinste Varianz. Kurz: /3o und /3i sind BLUE fiir PQ und /?i. Dies ist das so genannte Gaufi-MarkofF-Theorem; siehe auch Abschnitt 5.5. 4. Es gilt E[a^] = cr^, d.h. a'^ ist erwartungstreu fiir a'^. 5. Der ML-Schatzer a-|^^ ist nicht erwartungstreu, jedoch asymptotisch erwartungstreu. 6. Die Schatzer ^o^ Pi^ ^'^ und a^^^ sind konsistent. BEWEIS

ZU 1.) Mit Wi := T^T—-.

^ - ^ ist

n

n

i=l

i=l

also ein linearer Schatzer. PQ = Y — Pix ist daher ebenfalls linear in den Y^. Zu 2.) Da Er=i(^^ -x)

=0 ist, gilt X;r=i ^^ = 0- Ferner gilt

2

= 1, Dies bedeutet

Pi =

Pi+Yl^i^^^ i=l n i=l

Der Schatzer Pi ist demnach erwartungstreu fiir pi. Fiir den Schatzer /3o zeigt man die Erwartungstreue analog. Zu 3.) Wir beweisen das GauB-Markoff-Theorem fiir Pi. Ein beliebiger linearer Schatzer hat die Form Pi = Y^CiYi, Er ist genau dann erwartungstreu fiir /?!, wenn fiir beliebige Werte der Parameter pi und PQ die Gleichung n

n

313

7.5. ERGANZUNGEN

d.h.

^1 = i^o X ] ^^ + ^1 XI ^^^^ i=i

i=l

erfiillt ist. Aquivalent ist die Gliltigkeit der beiden Bedingungen Y^^:=i Ci = 0 und ^27=1 ^^^* ~ •'•• U ^ unter alien linearen erwartungstreuen Schatzern fiir Pi den mit der kleinsten Varianz zu ermitteln, minimieren wir die Varianz von /3i,

i=l

i=l

unter den beiden Nebenbedingungen. Ein Lagrange-Ansatz liefert die Losung Wi .

^^2

Fiir $0 zeigt man das Theorem analog. Auf den Beweis der Aussagen 4 und 6 wollen wir hier verzichten. Aussage 5 folgt unmittelbar aus Aussage 4. D

7.5.3

Lineare Mehrfachregression in Matrizendarstellung

Unter Verwendung der Matrizenrechnung lasst sich das multiple lineare Regressionsmodell Ubersichtlicher darstellen: Die n Regressionsgleichungen Fi = /3o + PiXii + . . . + Pm^im + Ui,

z - 1,..., n,

kann man in kompakter Form als Y = X/3 + U schreiben. Hierbei ist 1

Yi

Xu

,u=

, X: Yn

1

, /? = _Un .

Xnl

r Pi 1

' Ui '

Xlr

.Pm \

Von der nx {m-\- 1)-Matrix X nehmen wir an, dass sie deterministisch (also fest gegeben) ist und den vollen Rang m + 1 besitzt. Die weiteren Annahmen des Modells lassen sich durch E[V] - 0

314

7. LiNEARE REGRESSION

sowie E[VV'] = aHn zusammenfassen, wobei I^ die (nxn)-Einheitsmatrix bezeichnet. Nimmt man zusatzhch eine gemeinsame Normalverteilung der St5rterme an, so gilt

Der Kleinste-Quadrate Schatzer /? = nimierung der Zielfunktion

,. ,/3m)' fur /? wird durch Mi-

{$Q,$I,.

n i=l

ermittelt, wobei (3 = (/?o,/3i,... ,/3m)' der Vektor der Variablen ist, liber die Q minimiert wird. Nach einigen Umformungen ergibt sich der Schatzer ^ als ^=:(X'X)-iX'Y. Die Kovarianzmatrix von /3 ist Cov[/3] = (72(X'X)-i. Schatzt man cr^ mittels

"^

1 =

7

.

.

—TT y ^ ( ^ i - y^o - ^iXii

n - (m + 1)

- . . . - PmXimf

,

^

SO ist a^ erwartungstreu flir cr^ und C ^ ( / 3 ) = (72(X'X)-i ein erwartungstreuer Schatzer flir die Kovarianzmatrix von /3. Aus der Hauptdiagonalen dieser Matrix entnimmt man die Schatzer flir die Varianzen von $j,j = 1,...,m. Die Wurzeln der Varianzschatzer sind Schatzer der Standardabweichungen. Tests liber die Werte der Regressionsparameter flihrt man ahnlich durch wie in Abschnitt 7.2.2 beschrieben; Konfidenzintervalle flir die einzelnen Parameter werden wie in Abschnitt 7.2.1 konstruiert. Prognose Aus den Daten (x^i,..., Xim^ yi), i = 1 , . . . , n, sei eine multiple lineare Regression geschatzt worden. Der Zeilenvektor ^ n + l ~ \Xn-\-lyl-) • • • •) Xn-\-l,m)

7.5.

ERGANZUNGEN

315

stelle einen zusatzlichen Wert des Vektors der Regressorvariablen dar. Flir den zugehorigen Wert der abhangigen Variablen macht man denselben linearen Ansatz

Dann stellt

eine Punktprognose fiir Yn-{-i dar. Fiir den Prognosefehler Yn-^i — ^n+i gilt E[Yn+l-Yn^l]=0. Im Mittel ist der Prognosefehler null, die Prognose also unverzerrt. Offenbar ist diese Prognose linear in den Beobachtungen V i , . . . , y^. Die Varianz des Prognosefehlers betragt V[Yn^, - Yn^i] = a^l + x , + i ( X ' X ) - i x ; ^ i ) . Man kann zeigen, dass die Prognose Y^+i unter alien linearen, unverzerrten Prognosen fiir Fn+i die kleinste Fehlervarianz besitzt. Die Varianz des Prognosefehlers lasst sich erwartungstreu schatzen, wenn wir (j^ durch den obigen Schatzer a'^ ersetzen. Unter der Annahme gemeinsam normalverteilter Residuen ?7i,..., {/„ gilt fiir die Verteilung des standardisierten Prognosefehlers

V^^(i + x„+,(X'X)-ix;^,) ~ *'^-('"-^^> • Damit lasst sich zum Niveau 1 — a das Prognoseintervall mit den Randpunkten bilden. Mit Wahrscheinlichkeit 1 — a iiberdeckt dieses Intervall die Zufallsvariable 1^71+1 •

Erganzende Literatur zu Kapitel 7: Die einfache lineare Regression wird in einigen Lehrblichern der Statistik fiir Wirtschaftswissenschaftler behandelt, etwa in Fahrmeir et al. (2004), Bamberg und Baur (2002) und Schlittgen (2003). Ausfiihrlichere Darstellungen der einfachen und der multiplen Regression findet man in Lehrbiichern der Okonometrie. Eine elementare Einfiihrung gibt von Auer (2005). Als weiterfiihrende Darstellungen sind unter anderem Hiibler (1989), Verbeek (2004) und Johnston und DiNardo (1997) zu empfehlen.

316

7.6

7. LiNEARE REGRESSION

Anhang: Verwendung von Excel und SPSS

Lineare Einfachregression (Beispiel 7.3, Seite 303): Excel I In der Excel-Arbeitsmappe r e g r e s s i o n . x l s wird eine einfache Regression ( M E N U E : EXTRAS ^

ANALYSE-FUNKTIONEN/REGRESSION)

der

Form yi = PQ -\- PiXi durchgefiihrt. Die Regression ergibt /3i = —5.4756 und 5 ^ = 0.3918. Zu testen ist HQ : Pi = 0 gegen Hi : f3i ^ 0. Die Testgrofie hat den Wert -5.4756 0.3918

-13.9755.

Da es sich um einen zweiseitigen Test handelt, wird der Betrag der Testgrofie, namlich x = 13.9755 = | - 13.9755| in die Funktion TVERT mit Freiheitsgrade=28 und Seiten=2 eingesetzt: Ergebnis ist der p-Wert TVERT(13,9755;28;2) ^ 0. Zum Signifikanzniveau a = 0.001 (und hoher) ist deshalb Hi gesichert. SPSS I Die gleichen Daten sind ftir SPSS in r e g r e s s i o n , sav gespeichert. Die Regression wird iiber das Menii ANALYSIEREN/REGRESSION/LINEAR durchgefiihrt. Die Ergebnisse sind die gleichen wie bei Excel. Lineare Mehrfachregression (Beispiel 7.4, Seite 307): Excel Die zum Beispiel 7.4 gehorenden Daten und Berechnungen sind in der Exceldatei margarine.xls im Internet verfligbar.

Tabellenanhang Dieser Tabellenanhang enthalt Tabellen der 1. Wahrscheinlichkeiten der Binomialverteilung, 2. Wahrscheinlichkeiten der Poisson-Verteilung, 3. Quantile der Standardnormalverteilung, 4. Verteilungsfunktion der Standardnormalverteilung, 5. Quantile der x^-Verteilung, 6. Quantile der ^-Verteilung, 7. Quantile der F-Verteilung. Ausftihrlichere Tabellen und Tabellen weiterer Verteilungen findet man in den folgenden Tabellenwerken: Hald (1952); Fischer und Yates (1957); Pearson und Hartley (1966, 1972); Kokoska und Nevison (1988).

317

318

TABELLENANHANG

Tabelle 1: Wahrscheinlichkeiten der Binomialverteilung Tabelliert sind die Werte P{X = x) ftir X ~ B{n,Tr) mit TT < 0.5 . Fur TT > 0.5 erhalt man die Werte P{X = x) durch die Beziehung P{X = x) = P{Y = n-x), wobei Y ~ B{n, 1 - TT) . TT

11 ^0 X

1 2 0 1 2 3 0 1 2 3 4 0 1 2 3 4 5 0 1 2 3 4 5 6 0 1 2 3 4 5 6 7 0 1 2 3 4 5 6 7

.05

.10

.15

.20

.25

.30

.35

.40

.45

.50

.9500 .0500 .9025 .0950 .0025 .8574 .1354 .0071 .0001 .8145 .1715 .0135 .0005 .0000 .7738 .2036 .0214 .0011 .0000 .0000 .7351 .2321 .0305 .0021 .0001 .0000 .0000 .6983 .2573 .0406 .0036 .0002 .0000 .0000 .0000

.9000 .1000 .8100 .1800 .0100 .7290 .2430 .0270 .0010 .6561 .2916 .0486 .0036 .0001 .5905 .3281 .0729 .0081 .0005 .0000 .5314 .3543 .0984 .0146 .0012 .0001 .0000 .4783 .3720 .1240 .0230 .0026 .0002 .0000 .0000

.8500 .1500 .7225 .2550 .0225 .6141 .3251 .0574 .0034 .5220 .3685 .0975 .0115 .0005 .4437 .3915 .1382 .0244 .0022 .0001 .3771 .3993 .1762 .0415 .0055 .0004 .0000 .3206 .3960 .2097 .0617 .0109 .0012 .0001 .0000

.8000 .2000 .6400 .3200 .0400 .5120 .3840 .0960 .0080 .4096 .4096 .1536 .0256 .0016 .3277 .4096 .2048 .0512 .0064 .0003 .2621 .3932 .2458 .0819 .0154 .0015 .0001 .2097 .3670 .2753 .1147 .0287 .0043 .0004 .0000

.7500 .2500 .5625 .3750 .0625 .4219 .4219 .1406 .0156 .3164 .4219 .2109 .0469 .0039 .2373 .3955 .2637 .0879 .0146 .0010 .1780 .3560 .2966 .1318 .0330 .0044 .0002 .1335 .3115 .3115 .1730 .0577 .0115 .0013 .0001

.7000 .3000 .4900 .4200 .0900 .3430 .4410 .1890 .0270 .2401 .4116 .2646 .0756 .0081 .1681 .3602 .3087 .1323 .0284 .0024 .1176 .3025 .3241 .1852 .0595 .0102 .0007 .0824 .2471 .3177 .2269 .0972 .0250 .0036 .0002

.6500 .3500 .4225 .4550 .1225 .2746 .4436 .2389 .0429 .1785 .3845 .3105 .1115 .0150 .1160 .3124 .3364 .1811 .0488 .0053 .0754 .2437 .3280 .2355 .0951 .0205 .0018 .0490 .1848 .2985 .2679 .1442 .0466 .0084 .0006

.6000 .4000 .3600 .4800 .1600 .2160 .4320 .2880 .0640 .1296 .3456 .3456 .1536 .0256 .0778 .2592 .3456 .2304 .0768 .0102 .0467 .1866 .3110 .2765 .1382 .0369 .0041 .0280 .1306 .2613 .2903 .1935 .0774 .0172 .0016

.5500 .4500 .3025 .4950 .2025 .1664 .4084 .3341 .0911 .0915 .2995 .3675 .2005 .0410 .0503 .2059 .3369 .2757 .1128 .0185 .0277 .1359 .2780 .3032 .1861 .0609 .0083 .0152 .0872 .2140 .2918 .2388 .1172 .0320 .0037

.5000 .5000 .2500 .5000 .2500 .1250 .3750 .3750 .1250 .0625 .2500 .3750 .2500 .0625

.0313 1 .1563 1 .3125 1 .3125 .1563 .0313 .0156 .0938 .2344 .3125 .2344 .0938 .0156 .0078 .0547 .1641 .2734 .2734 .1641 .0547

.0078 1

319

T A B E L L E 1: BiNOMIALVERTEILUNG

TT

1n

X

.05

F T ~o" .6634

1 2 3 4 5 6 7 8 r~9~ 0 1 2 3 4 5 6 7 8 9 0 1 2 3 4 5 6 7 8 9 10 11 0 1 2 3 4 5 6 7 8 9 10 11

v^

.2793 .0515 .0054 .0004 .0000 .0000 .0000 .0000 .6302 .2985 .0629 .0077 .0006 .0000 .0000 .0000 .0000 .0000 .5987 .3151 .0746 .0105 .0010 .0001 .0000 .0000 .0000 .0000 .0000 .5688 .3293 .0867 .0137 .0014 .0001 .0000 .0000 .0000 .0000 .0000 .0000

.10

.15

.4305 .3826 .1488 .0331 .0046 .0004 .0000 .0000 .0000 .3874 .3874 .1722 .0446 .0074 .0008 .0001 .0000 .0000 .0000 .3487 .3874 .1937 .0574 .0112 .0015 .0001 .0000 .0000 .0000 .0000 .3138 .3835 .2131 .0710 .0158 .0025 .0003 .0000 .0000 .0000 .0000 .0000

.2725 .3847 .2376 .0839 .0185 .0026 .0002 .0000 .0000 .2316 .3679 .2597 .1069 .0283 .0050 .0006 .0000 .0000 .0000 .1969 .3474 .2759 .1298 .0401 .0085 .0012 .0001 .0000 .0000 .0000 .1673 .3248 .2866 .1517 .0536 .0132 .0023 .0003 .0000 .0000 .0000 .0000

.20 "~25 .1678 .3355 .2936 .1468 .0459 .0092 .0011 .0001 .0000 .1342 .3020 .3020 .1762 .0661 .0165 .0028 .0003 .0000 .0000 .1074 .2684 .3020 .2013 .0881 .0264 .0055 .0008 .0001 .0000 .0000 .0859 .2362 .2953 .2215 .1107 .0388 .0097 .0017 .0002 .0000 .0000 .0000

.1001 .2670 .3115 .2076 .0865 .0231 .0038 .0004 .0000 .0751 .2253 .3003 .2336 .1168 .0389 .0087 .0012 .0001 .0000 .0563 .1877 .2816 .2503 .1460 .0584 .0162 .0031 .0004 .0000 .0000 .0422 .1549 .2581 .2581 .1721 .0803 .0268 .0064 .0011 .0001 .0000 .0000

.30

.35

.40

.45

.0576 .1977 .2965 .2541 .1361 .0467 .0100 .0012 .0001 .0404 .1556 .2668 .2668 .1715 .0735 .0210 .0039 .0004 .0000 .0282 .1211 .2335 .2668 .2001 .1029 .0368 .0090 .0014 .0001 .0000 .0198 .0932 .1998 .2568 .2201 .1321 .0566 .0173 .0037 .0005 .0000 .0000

.0319 .1373 .2587 .2786 .1875 .0808 .0217 .0033 .0002 .0207 .1004 .2162 .2716 .2194 .1181 .0424 .0098 .0013 .0001 .0135 .0725 .1757 .2522 .2377 .1536 .0689 .0212 .0043 .0005 .0000 .0088 .0518 .1395 .2254 .2428 .1830 .0985 .0379 .0102 .0018 .0002 .0000

.0168 .0896 .2090 .2787 .2322 .1239 .0413 .0079 .0007 .0101 .0605 .1612 .2508 .2508 .1672 .0743 .0212 .0035 .0003 .0060 .0403 .1209 .2150 .2508 .2007 .1115 .0425 .0106 .0016 .0001 .0036 .0266 .0887 .1774 .2365 .2207 .1471 .0701 .0234 .0052 .0007 .0000

.0084 .0548 .1569 .2568 .2627 .1719 .0703 .0164 .0017 .0046 .0339 .1110 .2119 .2600 .2128 .1160 .0407 .0083 .0008 .0025 .0207 .0763 .1665 .2384 .2340 .1596 .0746 .0229 .0042 .0003 .0014 .0125 .0513 .1259 .2060 .2360 .1931 .1128 .0462 .0126 .0021 .0002

.50 .0039 .0313 .1094 .2188 .2734 .2188 .1094 .0313 .0039 .0020 .0176 .0703 .1641 .2461 .2461 .1641 .0703 .0176 .0020 .0010 .0098 .0439 .1172 .2051 .2461 .2051 .1172 .0439 .0098 .0010 ! .0005 ! .0054 ! .0269 .0806 .1611 .2256 .2256 .1611 .0806 .0269 .0054

.0005 1

320

TABELLENANHANG

71

1 n

X

0 1 2 3 4 5 6 7 8 9 10 11 12 Tls" 0 1 2 3 4 5 6 7 8 9 10 11 12 13 lU" 0 1 2 3 4 5 6 7 8 9 10 11 12 13 14

m"

.05

.10

.15

.5404 .3413 .0988 .0173 .0021 .0002 .0000 .0000 .0000 .0000 .0000 .0000 .0000 .5133 .3512 .1109 .0214 .0028 .0003 .0000 .0000 .0000 .0000 .0000 .0000 .0000 .0000 .4877 .3593 .1229 .0259 .0037 .0004 .0000 .0000 .0000 .0000 .0000 .0000 .0000 .0000 .0000

.2824 .3766 .2301 .0852 .0213 .0038 .0005 .0000 .0000 .0000 .0000 .0000 .0000 .2542 .3672 .2448 .0997 .0277 .0055 .0008 .0001 .0000 .0000 .0000 .0000 .0000 .0000 .2288 .3559 .2570 .1142 .0349 .0078 .0013 .0002 .0000 .0000 .0000 .0000 .0000 .0000 .0000

.1422 .3012 .2924 .1720 .0683 .0193 .0040 .0006 .0001 .0000 .0000 .0000 .0000 .1209 .2774 .2937 .1900 .0838 .0266 .0063 .0011 .0001 .0000 .0000 .0000 .0000 .0000 .1028 .2539 .2912 .2056 .0998 .0352 .0093 .0019 .0003 .0000 .0000 .0000 .0000 .0000 .0000

.20 ~T25 .0687 .2062 .2835 .2362 .1329 .0532 .0155 .0033 .0005 .0001 .0000 .0000 .0000 .0550 .1787 .2680 .2457 .1535 .0691 .0230 .0058 .0011 .0001 .0000 .0000 .0000 .0000 .0440 .1539 .2501 .2501 .1720 .0860 .0322 .0092 .0020 .0003 .0000 .0000 .0000 .0000 .0000

.0317 .1267 .2323 .2581 .1936 .1032 .0401 .0115 .0024 .0004 .0000 .0000 .0000 .0238 .1029 .2059 .2517 .2097 .1258 .0559 .0186 .0047 .0009 .0001 .0000 .0000 .0000 .0178 .0832 .1802 .2402 .2202 .1468 .0734 .0280 .0082 .0018 .0003 .0000 .0000 .0000 .0000

.30

.35

.40

.45

.50

.0138 .0712 .1678 .2397 .2311 .1585 .0792 .0291 .0078 .0015 .0002 .0000 .0000 .0097 .0540 .1388 .2181 .2337 .1803 .1030 .0442 .0142 .0034 .0006 .0001 .0000 .0000 .0068 .0407 .1134 .1943 .2290 .1963 .1262 .0618 .0232 .0066 .0014 .0002 .0000 .0000 .0000

.0057 .0368 .1088 .1954 .2367 .2039 .1281 .0591 .0199 .0048 .0008 .0001 .0000 .0037 .0259 .0836 .1651 .2222 .2154 .1546 .0833 .0336 .0101 .0022 .0003 .0000 .0000 .0024 .0181 .0634 .1366 .2022 .2178 .1759 .1082 .0510 .0183 .0049 .0010 .0001 .0000 .0000

.0022 .0174 .0639 .1419 .2128 .2270 .1766 .1009 .0420 .0125 .0025 .0003 .0000 .0013 .0113 .0453 .1107 .1845 .2214 .1968 .1312 .0656 .0243 .0065 .0012 .0001 .0000 .0008 .0073 .0317 .0845 .1549 .2066 .2066 .1574 .0918 .0408 .0136 .0033 .0005 .0001 .0000

.0008 .0075 .0339 .0923 .1700 .2225 .2124 .1489 .0762 .0277 .0068 .0010 .0001 .0004 .0045 .0220 .0660 .1350 .1989 .2169 .1775 .1089 .0495 .0162 .0036 .0005 .0000 .0002 .0027 .0141 .0462 .1040 .1701 .2088 .1952 .1398 .0762 .0312 .0093 .0019 .0002 .0000

.0002 .0029 .0161 .0537 .1208 .1934 .2256 .1934 .1208 .0537 .0161

.0029 1 .0002 .0001 .0016 .0095 .0349 .0873 .1571 .2095 .2095 .1571 .0873 .0349 .0095 .0016 .0001

.0001 1 .0009 .0056 .0222 1 .0611 .1222 .1833 .2095 .1833 .1222 .0611 .0222 .0056 .0009

.0001 1

321

T A B E L L E 1: BiNOMIALVERTEILUNG

TT

1 n X .05 ris""~o" .4633

TW

1 2 3 4 5 6 7 8 9 10 11 12 13 14 15 0 1 2 3 4 5 6 7 8 9 10 11 12 13 14 15 16 17 18 19

.3658 .1348 .0307 .0049 .0006 .0000 .0000 .0000 .0000 .0000 .0000 .0000 .0000 .0000 .0000 .3585 .3774 .1887 .0596 .0133 .0022 .0003 .0000 .0000 .0000 .0000 .0000 .0000 .0000 .0000 .0000 .0000 .0000 .0000 .0000

.10

.15

.2059 .3432 .2669 .1285 .0428 .0105 .0019 .0003 .0000 .0000 .0000 .0000 .0000 .0000 .0000 .0000 .1216 .2702 .2852 .1901 .0898 .0319 .0089 .0020 .0004 .0001 .0000 .0000 .0000 .0000 .0000 .0000 .0000 .0000 .0000 .0000

.0874 .2312 .2856 .2184 .1156 .0449 .0132 .0030 .0005 .0001 .0000 .0000 .0000 .0000 .0000 .0000 .0388 .1368 .2293 .2428 .1821 .1028 .0454 .0160 .0046 .0011 .0002 .0000 .0000 .0000 .0000 .0000 .0000 .0000 .0000 .0000

.20 "~25 .0352 .1319 .2309 .2501 .1876 .1032 .0430 .0138 .0035 .0007 .0001 .0000 .0000 .0000 .0000 .0000 .0115 .0576 .1369 .2054 .2182 .1746 .1091 .0545 .0222 .0074 .0020 .0005 .0001 .0000 .0000 .0000 .0000 .0000 .0000 .0000

.0134 .0668 .1559 .2252 .2252 .1651 .0917 .0393 .0131 .0034 .0007 .0001 .0000 .0000 .0000 .0000 .0032 .0211 .0669 .1339 .1897 .2023 .1686 .1124 .0609 .0271 .0099 .0030 .0008 .0002 .0000 .0000 .0000 .0000 .0000 .0000

.30

.35

.40

.45

.50

.0047 .0305 .0916 .1700 .2186 .2061 .1472 .0811 .0348 .0116 .0030 .0006 .0001 .0000 .0000 .0000 .0008 .0068 .0278 .0716 .1304 .1789 .1916 .1643 .1144 .0654 .0308 .0120 .0039 .0010 .0002 .0000 .0000 .0000 .0000 .0000

.0016 .0126 .0476 .1110 .1792 .2123 .1906 .1319 .0710 .0298 .0096 .0024 .0004 .0001 .0000 .0000 .0002 .0020 .0100 .0323 .0738 .1272 .1712 .1844 .1614 .1158 .0686 .0336 .0136 .0045 .0012 .0003 .0000 .0000 .0000 .0000

.0005 .0047 .0219 .0634 .1268 .1859 .2066 .1771 .1181 .0612 .0245 .0074 .0016 .0003 .0000 .0000 .0000 .0005 .0031 .0123 .0350 .0746 .1244 .1659 .1797 .1597 .1171 .0710 .0355 .0146 .0049 .0013 .0003 .0000 .0000 .0000

.0001 .0016 .0090 .0318 .0780 .1404 .1914 .2013 .1647 .1048 .0515 .0191 .0052 .0010 .0001 .0000 .0000 .0001 .0008 .0040 .0139 .0365 .0746 .1221 .1623 .1771 .1593 .1185 .0727 .0366 .0150 .0049 .0013 .0002 .0000 .0000

.0000 .0005 .0032 .0139

.0417 \ .0916 .1527 .1964 .1964 .1527 .0916 .0417 .0139 .0032 .0005 .0000 .0000 .0000 .0002 .0011 .0046 ! .0148 .0370 .0739 .1201 .1602 .1762 .1602 .1201 .0739 .0370 .0148 .0046 .0011 .0002

.0000 1

322

TABELLENANHANG

TT

1n

tw

X

.05

.10

.15

0 1 2 3 4 5 6 7 8 9 10 11 12 13 14 15 16 17 18 19 20 21 22 23 24 25 26

.2146 .3389 .2586 .1270 .0451 .0124 .0027 .0005 .0001 .0000 .0000 .0000 .0000 .0000 .0000 .0000 .0000 .0000 .0000 .0000 .0000 .0000 .0000 .0000 .0000 .0000 .0000

.0424 .1413 .2277 .2361 .1771 .1023 .0474 .0180 .0058 .0016 .0004 .0001 .0000 .0000 .0000 .0000 .0000 .0000 .0000 .0000 .0000 .0000 .0000 .0000 .0000 .0000 .0000

.0076 .0404 .1034 .1703 .2028 .1861 .1368 .0828 .0420 .0181 .0067 .0022 .0006 .0001 .0000 .0000 .0000 .0000 .0000 .0000 .0000 .0000 .0000 .0000 .0000 .0000 .0000

.20 "~25 .0012 .0093 .0337 .0785 .1325 .1723 .1795 .1538 .1106 .0676 .0355 .0161 .0064 .0022 .0007 .0002 .0000 .0000 .0000 .0000 .0000 .0000 .0000 .0000 .0000 .0000 .0000

.0002 .0018 .0086 .0269 .0604 .1047 .1455 .1662 .1593 .1298 .0909 .0551 .0291 .0134 .0054 .0019 .0006 .0002 .0000 .0000 .0000 .0000 .0000 .0000 .0000 .0000 .0000

.30

.35

.40

.45

.50

.0000 .0003 .0018 .0072 .0208 .0464 .0829 .1219 .1501 .1573 .1416 .1103 .0749 .0444 .0231 .0106 .0042 .0015 .0005 .0001 .0000 .0000 .0000 .0000 .0000 .0000 .0000

.0000 .0000 .0003 .0015 .0056 .0157 .0353 .0652 .1009 .1328 .1502 .1471 .1254 .0935 .0611 .0351 .0177 .0079 .0031 .0010 .0003 .0001 .0000 .0000 .0000 .0000 .0000

.0000 .0000 .0000 .0003 .0012 .0041 .0115 .0263 .0505 .0823 .1152 .1396 .1474 .1360 .1101 .0783 .0489 .0269 .0129 .0054 .0020 .0006 .0002 .0000 .0000 .0000 .0000

.0000 .0000 .0000 .0000 .0002 .0008 .0029 .0081 .0191 .0382 .0656 .0976 .1265 .1433 .1424 .1242 .0953 .0642 .0379 .0196 .0088 .0034 .0012 .0003 .0001 .0000 .0000

.0000 .0000 .0000 .0000 .0000 .0001 .0006 .0019 .0055 .0133 .0280 .0509 .0806 .1115 .1354 .1445 .1354 .1115 .0806 .0509 .0280 .0133 .0055 .0019 .0006 .0001

.0000 1

323

TABELLE 2: POISSON-VERTEILUNG

Tabelle 2: Wahrscheinlichkeiten der PoissonVerteilung Tabelliert sind die Werte P{X = x) fiir X ~ Po{iJ.) . /^ X

0 1 2 3 4 5 6 7

1 8

0.1 .9048 .0905 .0045 .0002 .0000 .0000 .0000 .0000 .0000

0.2 .8187 .1637 .0164 .0011 .0001 .0000 .0000 .0000 .0000

0.3 .7408 .2222 .0333 .0033 .0003 .0000 .0000 .0000 .0000

0.4 .6703 .2681 .0536 .0072 .0007 .0001 .0000 .0000 .0000

0.5 .6065 .3033 .0758 .0126 .0016 .0002 .0000 .0000 .0000

0.6 .5488 .3293 .0988 .0198 .0030 .0004 .0000 .0000 .0000

0.7 .4966 .3476 .1217 .0284 .0050 .0007 .0001 .0000 .0000

0.8 .4493 .3595 .1438 .0383 .0077 .0012 .0002 .0000 .0000

0.9 .4066 .3659 .1647 .0494 .0111 .0020 .0003 .0000 .0000

4.5 .0111 .0500 .1125 .1687 .1898 .1708 .1281 .0824 .0463 .0232 .0104 .0043 .0016 .0006 .0002 .0001 .0000 .0000

5.0 .0067 .0337 .0842 .1404 .1755 .1755 .1462 .1044 .0653 .0363 .0181 .0082 .0034 .0013 .0005 .0002 .0000 .0000

1.0 .3679 .3679 .1839 .0613 .0153 .0031 .0005 .0001

.0000 1

(J-

1 •"' 1.5 0 .2231 1 .3347 2 .2510 3 .1255 4 .0471 ^ .0141 6 .0035 7 .0008 ^ .0001 ^ .0000 10 .0000 11 .0000 12 .0000 13 .0000 14 .0000 15 .0000 16 .0000 [l7 .0000

2.0 .1353 .2707 .2707 .1804 .0902 .0361 .0120 .0034 .0009 .0002 .0000 .0000 .0000 .0000 .0000 .0000 .0000 .0000

2.5 .0821 .2052 .2565 .2138 .1336 .0668 .0278 .0099 .0031 .0009 .0002 .0000 .0000 .0000 .0000 .0000 .0000 .0000

3.0 .0498 .1494 .2240 .2240 .1680 .1008 .0504 .0216 .0081 .0027 .0008 .0002 .0001 .0000 .0000 .0000 .0000 .0000

3.5 .0302 .1057 .1850 .2158 .1888 .1322 .0771 .0385 .0169 .0066 .0023 .0007 .0002 .0001 .0000 .0000 .0000 .0000

4.0 .0183 .0733 .1465 .1954 .1954 .1563 .1042 .0595 .0298 .0132 .0053 .0019 .0006 .0002 .0001 .0000 .0000 .0000

5.5 .0041 .0225 .0618 .1133 .1558 .1714 .1571 .1234 .0849 .0519 .0285 .0143 .0065 .0028 t .0011 .0004 .0001 .0000 [

324

TABELLENANHANG

6.0 10 ^.0025

1 2 3 4 5 6 7 8 9 10 11 12 13 14 15 16 1'^ 18 19 20 21 22 23 24

125

.0149 .0446 .0892 .1339 .1606 .1606 .1377 .1033 .0688 .0413 .0225 .0113 .0052 .0022 .0009 .0003 .0001 .0000 .0000 .0000 .0000 .0000 .0000 .0000 .0000

6.5

7.0

7.5

M 8.0

8.5

9.0

9.5

.0015 .0098 .0318 .0688 .1118 .1454 .1575 .1462 .1188 .0858 .0558 .0330 .0179 .0089 .0041 .0018 .0007 .0003 .0001 .0000 .0000 .0000 .0000 .0000 .0000 .0000

.0009 .0064 .0223 .0521 .0912 .1277 .1490 .1490 .1304 .1014 .0710 .0452 .0263 .0142 .0071 .0033 .0014 .0006 .0002 .0001 .0000 .0000 .0000 .0000 .0000 .0000

.0006 .0041 .0156 .0389 .0729 .1094 .1367 .1465 .1373 .1144 .0858 .0585 .0366 .0211 .0113 .0057 .0026 .0012 .0005 .0002 .0001 .0000 .0000 .0000 .0000 .0000

.0003 .0027 .0107 .0286 .0573 .0916 .1221 .1396 .1396 .1241 .0993 .0722 .0481 .0296 .0169 .0090 .0045 .0021 .0009 .0004 .0002 .0001 .0000 .0000 .0000 .0000

.0002 .0017 .0074 .0208 .0443 .0752 .1066 .1294 .1375 .1299 .1104 .0853 .0604 .0395 .0240 .0136 .0072 .0036 .0017 .0008 .0003 .0001 .0001 .0000 .0000 .0000

.0001 .0011 .0050 .0150 .0337 .0607 .0911 .1171 .1318 .1318 .1186 .0970 .0728 .0504 .0324 .0194 .0109 .0058 .0029 .0014 .0006 .0003 .0001 .0000 .0000 .0000

.0001 .0007 .0034 .0107 .0254 .0483 .0764 .1037 .1232 .1300 .1235 .1067 .0844 .0617 .0419 .0265 .0157 .0088 .0046 .0023 .0011 .0005 .0002 .0001 .0000 .0000

10 .0000 .0005 .0023 .0076 .0189 .0378 .0631 .0901 .1126 .1251 .1251 .1137 .0948 .0729 .0521 .0347 .0217 .0128 i .0071 .0037 .0019 .0009 .0004 .0002 i .0001 [

.0000 1

Tabelle 3: Quant ile der Standardnormalverteilung 1 p 0.800 1 Up

0.850 0.900 0.950 0.975 0.990 0.995 0.999 0.9995 1 0.8416 1.0364 1.2816 1.6449 1.9600 2.3263 2.5758 3.0902 3.2905 |

Weitere Quantile erhalt man aus der Beziehung Up = —ui^p

325

TABELLE 4: STANDARDNORMALVERTEILUNG

Tabelle 4: Verteilungsfunktion der Standardnormalverteilung Tabelliert sind die Werte $(u) = P{U < u) fiir U ~ N{0,1) und u > 0. Flir u