Einführung in Wahrscheinlichkeitsrechnung, Statistik und Stochastische Prozesse [1. Aufl.] 9783658321192, 9783658321208

Dieses Lehrbuch wendet sich an Studierende aller Ingenieurwissenschaften sowie der Wirtschafts- und Sozialwissenschaften

608 72 6MB

German Pages XI, 456 [463] Year 2020

Report DMCA / Copyright

DOWNLOAD FILE

Polecaj historie

Einführung in Wahrscheinlichkeitsrechnung, Statistik und Stochastische Prozesse [1. Aufl.]
 9783658321192, 9783658321208

Table of contents :
Front Matter ....Pages I-XI
Front Matter ....Pages 1-1
Grundlagen der Wahrscheinlichkeitsrechnung (Esra Bas)....Pages 3-25
Zufallsvariablen (Esra Bas)....Pages 26-73
Mehrdimensionale Zufallsvariablen (Esra Bas)....Pages 74-102
Front Matter ....Pages 103-103
Deskriptive Statistik (Esra Bas)....Pages 105-133
Induktive Statistik (Esra Bas)....Pages 134-268
Varianzanalyse (Esra Bas)....Pages 269-295
Regressionsanalyse (Esra Bas)....Pages 296-314
Nichtparametrische Tests (Esra Bas)....Pages 315-334
Front Matter ....Pages 335-335
Punktprozesse, Zӓhlprozesse, Poisson-Prozesse (Esra Bas)....Pages 337-362
Erneuerungszӓhlprozess (Esra Bas)....Pages 363-382
Markov-Ketten (Esra Bas)....Pages 383-419
Mathematische Grundlagen der Zuverlӓssigkeit (Esra Bas)....Pages 420-434
Back Matter ....Pages 435-456

Citation preview

Esra Bas

Einführung in Wahrscheinlichkeitsrechnung, Statistik und Stochastische Prozesse

Einführung in Wahrscheinlichkeitsrechnung, Statistik und Stochastische Prozesse

Esra Bas

Einführung in Wahrscheinlichkeitsrechnung, Statistik und Stochastische Prozesse

Esra Bas Wirtschaftsingenieurwesen Technische Universität Istanbul Istanbul, Türkei

ISBN 978-3-658-32119-2 ISBN 978-3-658-32120-8  (eBook) https://doi.org/10.1007/978-3-658-32120-8 Die Deutsche Nationalbibliothek verzeichnet diese Publikation in der Deutschen Nationalbibliografie; detail­ lierte bibliografische Daten sind im Internet über http://dnb.d-nb.de abrufbar. © Der/die Herausgeber bzw. der/die Autor(en), exklusiv lizenziert durch Springer Fachmedien Wiesbaden GmbH, ein Teil von Springer Nature 2020 Das Werk einschließlich aller seiner Teile ist urheberrechtlich geschützt. Jede Verwertung, die nicht ausdrücklich vom Urheberrechtsgesetz zugelassen ist, bedarf der vorherigen Zustimmung der Verlage. Das gilt insbesondere für Vervielfältigungen, Bearbeitungen, Übersetzungen, Mikroverfilmungen und die Einspeicherung und Verarbeitung in elektronischen Systemen. Die Wiedergabe von allgemein beschreibenden Bezeichnungen, Marken, Unternehmensnamen etc. in diesem Werk bedeutet nicht, dass diese frei durch jedermann benutzt werden dürfen. Die Berechtigung zur Benutzung unterliegt, auch ohne gesonderten Hinweis hierzu, den Regeln des Markenrechts. Die Rechte des jeweiligen Zeicheninhabers sind zu beachten. Der Verlag, die Autoren und die Herausgeber gehen davon aus, dass die Angaben und Informationen in diesem Werk zum Zeitpunkt der Veröffentlichung vollständig und korrekt sind. Weder der Verlag, noch die Autoren oder die Herausgeber übernehmen, ausdrücklich oder implizit, Gewähr für den Inhalt des Werkes, etwaige Fehler oder Äußerungen. Der Verlag bleibt im Hinblick auf geografische Zuordnungen und Gebietsbezeichnungen in veröffentlichten Karten und Institutionsadressen neutral. Lektorat: Thomas Zipsner Springer Vieweg ist ein Imprint der eingetragenen Gesellschaft Springer Fachmedien Wiesbaden GmbH und ist ein Teil von Springer Nature. Die Anschrift der Gesellschaft ist: Abraham-Lincoln-Str. 46, 65189 Wiesbaden, Germany

Inhaltsverzeichnis

VORWORT

Das fundamentale Konzept in Wahrscheinlichkeitsrechnung ist die Zufälligkeit von Zufallsvorgängen, deren Ergebnisse nicht mit Sicherheit vorausgesagt werden können. Statistik ist die Lehre, die sich den Methoden der Erhebung, Aufbereitung, Zusammenfassung, Auswertung und Interpretation von Daten widmet. Ein stochastischer Prozess ist eine Serien der Zufallsvariablen, der die zeitliche oder räumliche Entwicklung eines zufälligen Systems beschreibt und untersucht. Das vorliegende Lehrbuch ist als elementare Einführung sowohl in die Wahrscheinlichkeitsrechnung und Statistik als auch in die stochastischen Prozesse konzipiert und richtet sich insbesondere an Studierende der Ingenieurwissenschaften im Grundstudium. Die Grundlagen wurden eindeutig und einfach erläutert und durch zahlreiche Abbildungen, Beispiele und Aufgaben mit Lösungen verdeutlicht. Die in Kästen vorgelegten Rechenregeln und zahlreichen Bemerkungen ermöglichen die Übersichtlichkeit und hohe Verständlichkeit. Inhaltlich behandelt das Buch die Themenbereiche Wahrscheinlichkeitsrechnung, Statistik und stochastische Prozesse unabhängig voneinander, obwohl die Querverbindungen zwischen diesen Themenbereichen selbstverständlich verdeutlicht werden. Dieses Buch entstand aus zwei Vorlesungen für Studierende der Ingenieurwissenschaften an der Türkisch-Deutschen Universität (TDU). Meine Erfahrung in der Lehre zeigt, dass viele Studierende der Ingenieurwissenschaften im Grundstudium die Lehrinhalte über die Wahrscheinlichkeitsrechnung, Statistik, stochastischen Prozesse erst gut verstehen, wenn sie ohne ausführliche Erklärungen und Herleitungen durch grundsätzliche Begriffe, einfache Beispiele und Abbildungen vermittelt werden. Diesbezüglich sind die Texte des Lehrbuchs knapp gehalten und es verzichtet bewusst auf ausführliche Interpretationen und lange Beispiele und widmet sich stattdessen primär den grundsätzlichen Begriffen und Vorgehensweisen. Dank sagen möchte ich vor allem dem Cheflektor Mechanik/Konstruktion Herrn Thomas Zipsner für die Aufnahme des Manuskripts. Bedanken möchte ich mich ebenso bei den wissenschaftlichen Mitarbeitern und Studierenden der TürkischDeutschen Universität. Istanbul, August 2020

Dr. Esra Bas Technische Universität Istanbul Wirtschaftsingenieurwesen

V

Inhaltsverzeichnis

INHALTSVERZEICHNIS

TEIL 1 WAHRSCHEINLICHKEITSRECHNUNG ........................................... 1 Kapitel 1: Grundlagen der Wahrscheinlichkeitsrechnung 1.1. 1.2. 1.2.1. 1.2.2. 1.3. 1.3.1. 1.3.2.

Grundbegriffe der Wahrscheinlichkeitsrechnung ............................... 3 Eigenschaften der Wahrscheinlichkeitsrechnung ............................. 5 Axiome der Wahrscheinlichkeitsrechnung nach Kolmogorov ......... 5 Sӓtze der Wahrscheinlichkeitsrechnung .......................................... 7 Kombinatorik .................................................................................... 16 Permutation ...................................................................................... 16 Variation und Kombination ............................................................. 17

Aufgaben .............................................................................................................. 17 Kapitel 2: Zufallsvariablen 2.1. 2.1.1. 2.1.2. 2.1.2.1. 2.1.2.2. 2.1.2.3. 2.1.2.4. 2.1.2.5.

Diskrete Zufallsvariablen ................................................................. 26 Kenngrößen der diskreten Zufallsvariablen ...................................... 27 Spezielle diskrete Zufallsvariablen .................................................. 31 Binomialverteilung ............................................................................. 31 Poisson-Verteilung ............................................................................ 34 Negative Binomialverteilung ............................................................. 36 Geometrische Verteilung ................................................................... 38 Hypergeometrische Verteilung ......................................................... 40

Aufgaben 2.1. ....................................................................................................... 41 2.2. 2.2.1. 2.2.2. 2.2.2.1. 2.2.2.2.

Stetige Zufallsvariablen ................................................................... 48 Kenngrößen der stetigen Zufallsvariablen ........................................ 48 Spezielle stetige Zufallsvariablen .................................................... 51 Gleichverteilung (Rechteckverteilung, Uniformverteilung) .............. 51 Exponentialverteilung .................................................................... 54

VII

Inhaltsverzeichnis

2.2.2.3. 2.2.2.3.1 2.2.2.3.2 2.2.2.4.

Normalverteilung (Gauß-Verteilung, Glockenkurve) ......................... 58 Standardnormalverteilung .................................................................. 59 Aus der Normalverteilung abgeleitete Verteilungen .......................... 65 Gamma-Verteilung ............................................................................. 68

Aufgaben 2.2. ....................................................................................................... 68

Kapitel 3: Mehrdimensionale Zufallsvariablen 3.1. 3.2. 3.3. 3.3.1. 3.3.2. 3.4. 3.5.

Zweidimensionale diskrete Zufallsvariablen ................................... 74 Zweidimensionale stetige Zufallsvariablen ...................................... 76 Weitere Eigenschaften der zweidimensionalen Zufallsvariablen .... 78 Parameter für den Zusammenhang zwischen den Zufallsvariablen 𝑋 und 𝑌 ............................................................................................ 78 Erwartungswert und Varianz für zweidimensionale Zufallsvariablen .................................................................................. 80 Summen unabhängiger Zufallsvariablen .......................................... 83 Grenzwertsӓtze der Wahrscheinlichkeitsrechnung .......................... 88

Aufgaben . ............................................................................................................ 92

TEIL 2 STATISTIK ................................................................................................. 103 Kapitel 1: Deskriptive Statistik 1.1. 1.2. 1.2.1. 1.2.2. 1.3. 1.3.1. 1.3.2.

Grundbegriffe der deskriptiven Statistik .......................................... 105 Kenngrößen der deskriptiven Statistik ............................................. 107 Kenngrößen für eine Stichprobe ..................................................... 107 Kenngrößen für zwei Stichproben ................................................. 111 Grafische Darstellungen ................................................................... 113 Grafische Darstellungen für qualitative Merkmale .......................... 113 Grafische Darstellungen für quantitative Merkmale ........................ 115

Aufgaben ............................................................................................................ 126

VIII

Inhaltsverzeichnis

Kapitel 2: Induktive Statistik 2.1. 2.1.1. 2.1.2. 2.1.3.

Punktschӓtzung als Parameterschӓtzungsmethode ......................... 134 Momentenmethode ......................................................................... 134 Maximum-Likelihood-Methode (ML-Methode) .............................. 140 Schӓtzfunktionen durch Mittelwert und verzerrte Varianz ............. 143

Aufgaben 2.1. ..................................................................................................... 144 2.2. 2.2.1. 2.2.2. 2.2.3. 2.2.4.

Konfidenzintervalle als Parameterschӓtzungsmethode .................... 148 Grundbegriffe der Konfidenzintervalle ............................................ 148 100(1 − 𝛼) %-Konfidenzintervalle für eine normalverteilte Grundgesamtheit .............................................................................. 150 100(1 − 𝛼) %-Konfidenzintervalle für die Erfolgswahrscheinlichkeit einer binomialverteilten Grundgesamtheit ......................... 165 100(1 − α) %-Konfidenzintervalle für zwei normalverteilte Grundgesamtheiten .......................................................................... 167

Aufgaben 2.2. ..................................................................................................... 173 2.3. 2.3.1. 2.3.2. 2.3.3. 2.3.3.1. 2.3.3.2.

Hypothesentests ............................................................................... 197 Grundbegriffe der Hypothesentests ................................................. 197 Einstichprobenhypothesentests für eine normalverteilte Grundgesamtheit .............................................................................. 200 Zweistichprobenhypothesentests für normalverteilte Grundgesamtheiten .......................................................................... 224 Zweistichprobenhypothesentests für normalverteilte und unabhängige Grundgesamtheiten ..................................................... 224 Zweistichprobenhypothesentests für abhängige Grundgesamtheiten (gepaarter t-Test) .............................................................................. 238

Aufgaben 2.3. ..................................................................................................... 243

Kapitel 3: Varianzanalyse 3.1. 3.2.

Grundbegriffe und Klassifikation der Varianzanalyse ..................... 269 Einfaktorielle Varianzanalyse .......................................................... 270

Aufgaben . .......................................................................................................... 275

IX

Inhaltsverzeichnis

Kapitel 4: Regressionsanalyse 4.1. 4.2.

Klassifikation der Regressionsanalyse ............................................. 296 Einfache lineare Regressionsanalyse ............................................... 297

Aufgaben . .......................................................................................................... 301 Kapitel 5: Nichtparametrische Tests 5.1. 5.2. 5.3. 5.4.

Grundlegende Klassifikation der nichtparametrischen Tests .......... 315 Der Chi-Quadrat-Anpassungstest .................................................. 316 Der Chi-Quadrat-Unabhӓngigkeitstest ............................................. 319 Vorzeichentest ................................................................................ 323

Aufgaben . .......................................................................................................... 326

TEIL 3 STOCHASTISCHE PROZESSE

........................................................... 335

Kapitel 1: Punktprozesse, Zählprozesse, Poisson-Prozesse 1.1. 1.1.1. 1.1.2. 1.2. 1.2.1. 1.2.1.1. 1.2.1.2. 1.2.1.3. 1.2.1.4. 1.2.2.

Punktprozess, Zӓhlprozess ............................................................. 337 Punktprozess .................................................................................... 337 Zӓhlprozess .................................................................................... 338 Poisson-Prozess .............................................................................. 340 Homogener Poisson-Prozess .......................................................... 340 Verteilungen der Zwischenankunftszeiten bzw. Ankunftszeiten bei einem homogenen Poisson-Prozess ........................................... 341 Spalten bzw. Vereinen der Poisson-Prozesse ................................ 345 Verteilung der bedingten Ankunftszeit ............................................ 347 Zusammengesetzter Poisson-Prozess ............................................. 348 Inhomogener Poisson-Prozess ....................................................... 349

Aufgaben . .......................................................................................................... 352 Kapitel 2: Erneuerungszählprozess 2.1. 2.1.1. 2.1.2. X

Grundlegende Eigenschaften des Erneuerungszӓhlprozesses ........ 363 Wahrscheinlichkeitsfunktion von 𝑁(t) ........................................ 364 Erneuerungsfunktion des Erneuerungszӓhlprozesses .................... 364

Inhaltsverzeichnis

2.1.3. 2.1.4. 2.1.5. 2.2. 2.2.1. 2.2.2. 2.2.3. 2.2.4.

Grenzwertsatz des Erneuerungszӓhlprozesses ............................... 364 Erneuerungsgleichung .................................................................... 367 Renewal-Reward-Theorem .............................................................. 369 Weitere Eigenschaften des Erneuerungszӓhlprozesses .................... 371 Alter, Exzess, Zeitspanne zum Zeitpunkt 𝑡 .................................... 371 Inspektionsparadoxon (Wartezeitparadoxon) ................................ 373 Zentraler Grenzwertsatz für EZP ................................................... 374 Alternierender Erneuerungszӓhlprozess ......................................... 374

Aufgaben ........................................................................................................... 375

Kapitel 3: Markov-Ketten 3.1. 3.1.1. 3.1.2.

Zeit-diskrete Markov-Ketten ............................................................ 383 Grundsätzliche Eigenschaften von zeit-diskreten Markov-Ketten ... 383 Grenzverteilung bzw. stationäre Verteilung .................................... 390

Aufgaben 3.1. ..................................................................................................... 392 3.2. 3.2.1. 3.2.2. 3.2.3. 3.2.4.

Zeit-stetige Markov-Ketten .............................................................. 399 Grundsätzliche Eigenschaften von zeit-stetigen Markov-Ketten ..... 399 Grenzverteilung bzw. stationäre Verteilung .................................... 403 Geburts- und Todesprozess ........................................................... 404 Geburts- und-Todesprozess-Warteschlangenmodelle ...................... 407

Aufgaben 3.2. ..................................................................................................... 411

Kapitel 4: Mathematische Grundlagen der Zuverlässigkeit 4.1. 4.2. 4.3. 4.4.

Grundlegende Eigenschaften der mathematischen Zuverlässigkeit . 420 Wesentliche Systemstrukturen ......................................................... 422 Zuverlӓssigkeitskenngrößen für nichtreparierbare Systeme ............ 425 Zuverlӓssigkeitskenngrößen für reparierbare Systeme ................. 428

Aufgaben . .......................................................................................................... 430 Literaturverzeichnis . .......................................................................................... 435 Anhang: Tabellen . ............................................................................................. 439 Sachwortverzeichnis . ......................................................................................... 447

XI

TEIL 1 WAHRSCHEINLICHKEITSRECHNUNG

1

Teil 1 Kapitel 1 Grundlagen der Wahrscheinlichkeitsrechnung

Kapitel 1 Grundlagen der Wahrscheinlichkeitsrechnung

In diesem Kapitel beschӓftigen wir uns mit den Grundlagen der Wahrscheinlichkeitsrechnung, die die Bausteine sowohl für die nächsten Kapitel zur Wahrscheinlichkeitsrechnung als auch für die Kapitel zur Statistik und zu stochastischen Prozessen bilden. Das fundamentale Konzept in der Wahrscheinlichkeitsrechnung sind der Zufall und Zufallsvorgӓnge, deren Ergebnisse nicht mit Sicherheit vorausgesagt werden können. In diesem Kapitel werden wir zunächst die Grundbegriffe der Wahrscheinlichkeitsrechnung einführen. Dann wenden wir uns den Eigenschaften der Wahrscheinlichkeitsrechnung einschließlich ihrer Axiome und Sätze zu. Anschließend werden wir die Grundlagen der Kombinatorik darstellen. Alle Begriffe und Eigenschaften werden mittels einfacher Beispiele und Aufgaben mit Lösungen veranschaulicht. 1.1.

Grundbegriffe der Wahrscheinlichkeitsrechnung

→ Zufallsvorgang (Zufallsexperiment) Ein Zufallsvorgang ist ein unter genau festgelegten Versuchsbedingungen beliebig oft durchgeführter Vorgang, dessen Ergebnis (Ausgang, Resultat) nicht vorhergesagt werden kann. → Elementarereignis Ein Elementarereignis ist das einzelne mögliche Ergebnis eines Zufallsvorgangs. → Ereignisraum (Ergebnisraum, Ergebnismenge, Grundraum, Merkmalsraum) Ein Ereignisraum mit der Schreibweise 𝑆 ist die Menge aller möglichen Elementarereignisse. → Ereignis Ein Ereignis ist eine beliebige Teilmenge eines Ereignisraums.

© Der/die Herausgeber bzw. der/die Autor(en), exklusiv lizenziert durch Springer Fachmedien Wiesbaden GmbH, ein Teil von Springer Nature 2020 E. Bas, Einführung in Wahrscheinlichkeitsrechnung, Statistik und Stochastische Prozesse, https://doi.org/10.1007/978-3-658-32120-8_1

3

Teil 1 Kapitel 1 Grundlagen der Wahrscheinlichkeitsrechnung

→ Disjunkte Ereignisse (unvereinbare Ereignisse, sich gegenseitig ausschließende Ereignisse) Die Ereignisse 𝐴 , 𝐴 , … , 𝐴 heißen disjunkt, wenn 𝐴 ∩ 𝐴 ∩ … ∩ 𝐴 = ∅ gilt, d. h. ihr gleichzeitiges Eintreten nicht möglich ist. Beispiel 1: Es wird einmal gewürfelt. Dieser Vorgang ist ein Zufallsvorgang, weil dessen Ergebnis nicht vorhergesagt werden kann. 1 , 2 , 3 , 4 , 5 , 6 sind die Elementarereignisse. Dazu heißt 𝑆 = 1,2,3,4,5,6 der Ereignisraum. 𝐴 = 2,4,6 ist ein Ereignis als eine Teilmenge des Ereignisraums mit geraden Zahlen und 𝐵 = 1,3,5 ist ein Ereignis als eine Teilmenge des Ereignisraums mit ungeraden Zahlen. 𝐴 = 2,4,6 und 𝐵 = 1,3,5 heißen disjunkte Ereignisse, weil 𝐴 ∩ 𝐵 = ∅ gilt. → Fundamentalprinzip des Zӓhlens Man führe 𝑘 Zufallsvorgänge gleichzeitig durch. Sei 𝑛 : Anzahl der Elementarereignisse für Zufallsvorgang 𝑖 Dann gilt 𝑛 𝑛 …𝑛 …𝑛 als Anzahl der möglichen Elementarereignisse. Beispiel 2: Eine Münze und ein Würfel werden gleichzeitig geworfen. Tabelle 1.1 gibt die möglichen Ergebnisse und die Anzahl der möglichen Elementarereignisse an. Tabelle 1.1: Münzwurf und Würfelwurf Münzwurf Kopf (𝐾) Zahl (𝑍)

Würfelwurf 1 2 3 4 5 6 Anzahl der Elementarereignisse

4

Münzwurf und Würfelwurf (𝐾, 1), (𝑍, 1) (𝐾, 2), (𝑍, 2) (𝐾, 3), (𝑍, 3) (𝐾, 4), (𝑍, 4) (𝐾, 5), (𝑍, 5) (𝐾, 6), (𝑍, 6) (2)(6) = 12

Teil 1 Kapitel 1 Grundlagen der Wahrscheinlichkeitsrechnung

→ Wahrscheinlichkeit (Laplace-Wahrscheinlichkeit) Gegeben sei ein Zufallsvorgang. Die Wahrscheinlichkeit von Ereignis 𝐴 ist gegeben durch 𝑊(𝐴) = lim →

𝑛(𝐴) 𝑛

wobei 𝑛: Anzahl der Durchführungen des Zufallsvorgangs (eine hinreichend große Zahl) 𝑛(𝐴): Anzahl der für Ereignis 𝐴 günstigen Durchführungen Beispiel 3: Sei 𝐴 = 100000 die Anzahl des Ereignisses „Augenzahl 6“ beim 1000000-fachen Würfelwurf. Dann ist die Wahrscheinlichkeit von 𝐴 gegeben durch 𝑊(𝐴) = 1.2.

100000 1 = 1000000 10

Eigenschaften der Wahrscheinlichkeitsrechnung

In diesem Abschnitt werden drei Axiome und Sätze der Wahrscheinlichkeitsrechnung beschrieben und mittels Beispielen erläutert. 1.2.1.

Axiome der Wahrscheinlichkeitsrechnung nach Kolmogorov

→ Axiom 1 (Nichtnegativitӓt) Für jedes Ereignis 𝐴 gilt 0 ≤ 𝑊(𝐴) ≤ 1 → Axiom 2 (Normierung) Es gilt stets 𝑊(𝑆) = 1 wobei 𝑆: Ereignisraum (das sichere Ereignis)

5

Teil 1 Kapitel 1 Grundlagen der Wahrscheinlichkeitsrechnung

→ Axiom 3 (Additivitӓt) Gegeben seien disjunkte Ereignisse 𝐴 , 𝐴 , … , 𝐴 , d. h. 𝐴 ∩ 𝐴 ∩ … ∩ 𝐴 = ∅ gilt. Axiom 3 besagt, dass die Wahrscheinlichkeit der Vereinigung von 𝐴 , 𝐴 , … , 𝐴 die Summe der einzelnen Wahrscheinlichkeiten von 𝐴 , 𝐴 , … , 𝐴 ist. Mathematisch ausgedrückt: 𝑊

𝐴

=

𝑊(𝐴 )

Bemerkung: Das Ereignis ⋃ 𝐴 tritt genau ein, wenn mindestens eines der Ereignisse 𝐴 , 𝐴 , … , 𝐴 eintritt. Beispiel 4: Ein idealer (fairer, nicht gezinkter) Würfel wird einmal geworfen. Wie groß ist die Wahrscheinlichkeit, eine gerade Zahl zu würfeln? Lösung 4 Weil 2 , 4 , 6 disjunkte Ereignisse sind, folgt 𝑊( 2 ∪ 4 ∪ 6 ) = 𝑊( 2 ) + 𝑊( 4 ) + 𝑊( 6 ) =

1 1 1 3 1 + + = = 6 6 6 6 2

nach Axiom 3. Bemerkung: Jedes Elementarereignis ist gleichwahrscheinlich, wenn der Würfel ideal (fair, nicht gezinkt) ist. Beispiel 5: 𝐴 und 𝐵 seien zwei disjunkte Ereignisse mit den Wahrscheinlichkeiten 𝑊(𝐴) = 0,3 und 𝑊(𝐵) = 0,2. Wie groß ist die Wahrscheinlichkeit dafür, dass a) entweder 𝐴 oder 𝐵 eintritt? b) 𝐴 eintritt, aber 𝐵 nicht? c) 𝐴 und 𝐵 gleichzeitig eintreten? Lösung 5 a) Weil 𝐴 und 𝐵 disjunkt sind, gilt nach Axiom 3 𝑊(𝐴 ∪ 𝐵) = 𝑊(𝐴) + 𝑊(𝐵) = 0,3 + 0,2 = 0,5

6

Teil 1 Kapitel 1 Grundlagen der Wahrscheinlichkeitsrechnung

b) Weil 𝐴 und 𝐵 disjunkt sind, ist die Wahrscheinlichkeit, dass 𝐴 eintritt, aber 𝐵 nicht, gegeben durch 𝑊(𝐴 ∩ 𝐵) = 𝑊(𝐴) = 0,3 c) Weil 𝐴 und 𝐵 disjunkt sind, ergibt sich die Wahrscheinlichkeit, dass 𝐴 und 𝐵 gleichzeitig eintreten, durch 𝑊(𝐴 ∩ 𝐵) = 0 1.2.2. Sӓtze der Wahrscheinlichkeitsrechnung In diesem Abschnitt werden folgende Sӓtze der Wahrscheinlichkeitsrechnung behandelt: Additionssatz, Wahrscheinlichkeit des Komplementӓrereignisses, bedingte Wahrscheinlichkeit, Unabhӓngigkeit von Ereignissen, Multiplikationssatz, totale Wahrscheinlichkeit und Satz von Bayes. → Additionssatz → Additionsatz für zwei Ereignisse Es seien 𝐴, 𝐵 zwei Ereignisse eines Zufallsvorgangs. Dann gilt 𝑊(𝐴 ∪ 𝐵) = 𝑊(𝐴) + 𝑊(𝐵) − 𝑊(𝐴 ∩ 𝐵) Bemerkung: Das Ereignis „𝐴 vereinigt mit 𝐵“ (𝐴 ∪ 𝐵) tritt genau ein, wenn mindestens eines der Ereignisse 𝐴 und 𝐵 eintritt. → Additionsatz für drei Ereignisse Es seien 𝐴, 𝐵, 𝐶 drei Ereignisse eines Zufallsvorgangs. Dann folgt 𝑊(𝐴 ∪ 𝐵 ∪ 𝐶) = 𝑊(𝐴) + 𝑊(𝐵) + 𝑊(𝐶) − 𝑊(𝐴 ∩ 𝐵) − 𝑊(𝐴 ∩ 𝐶) − 𝑊(𝐵 ∩ 𝐶) + 𝑊(𝐴 ∩ 𝐵 ∩ 𝐶) Bemerkung: Das Ereignis „𝐴 vereinigt mit 𝐵 vereinigt mit 𝐶“ (𝐴 ∪ 𝐵 ∪ 𝐶) tritt genau ein, wenn mindestens eines der Ereignisse 𝐴,𝐵,𝐶 eintritt. Beispiel 6: Von den Schülern einer Klasse können 65 Prozent Englisch, 23 Prozent Französisch und 12 Prozent sowohl Englisch als auch Französisch sprechen. Wir wӓhlen zufӓllig einen Schüler aus. Wie groß ist die Wahrscheinlichkeit, dass dieser Schüler mindestens Englisch oder Französisch spricht?

7

Teil 1 Kapitel 1 Grundlagen der Wahrscheinlichkeitsrechnung

Lösung 6 Seien 𝐸: Der zufӓllig ausgewӓhlte Schüler spricht Englisch 𝐹: Der zufӓllig ausgewӓhlte Schüler spricht Französisch Nach dem Additionssatz ist die Wahrscheinlichkeit, dass der zufӓllig ausgewӓhlte Schüler mindestens Englisch oder Französisch spricht, gegeben durch 𝑊(𝐸 ∪ 𝐹) = 𝑊(𝐸) + 𝑊(𝐹) − 𝑊(𝐸 ∩ 𝐹) = 0,65 + 0,23 − 0,12 = 0,76 und auf dem Venn-Diagramm (s. Abbildung 1.1) dargestellt.

Abbildung 1.1: Venn-Diagram für Beispiel 6 → Wahrscheinlichkeit des Komplementӓrereignisses (Gegenereignisses) Sei 𝐴 ein Ereignis eines Zufallsvorgangs. Die Wahrscheinlichkeit des Komplementӓrereignisses 𝐴̅ berechnet sich durch 𝑊(𝐴̅) = 1 − 𝑊(𝐴) Beispiel 7: Einmaliges Werfen eines idealen Würfels wird betrachtet. Wie groß ist die Wahrscheinlichkeit, dass nicht größer als 4 gewürfelt wird?

8

Teil 1 Kapitel 1 Grundlagen der Wahrscheinlichkeitsrechnung

Lösung 7 Sei 𝐴: Es wird größer als 4 gewürfelt Dann gelten 𝐴 = 5,6 𝑊(𝐴) =

2 1 = 6 3

Daraus folgt die Wahrscheinlichkeit, dass nicht größer als 4 gewürfelt wird 𝑊(𝐴̅) = 1 − 𝑊(𝐴) = 1 −

1 2 = 3 3

→ Bedingte Wahrscheinlichkeit Die bedingte Wahrscheinlichkeit für 𝐴, gegeben 𝐵, ist definiert als 𝑊(𝐴|𝐵) =

𝑊(𝐴 ∩ 𝐵) 𝑊(𝐵)

wobei 𝑊(𝐵) > 0 𝑊(𝐴|𝐵): Wahrscheinlichkeit für 𝐴, gegeben 𝐵 (Wahrscheinlichkeit für 𝐴 unter der Bedingung (Voraussetzung, Vorabinformation) 𝐵) Beispiel 8: Einmaliges Werfen eines idealen Würfels wird betrachtet. Wie groß ist die Wahrscheinlichkeit, eine 2 zu würfeln, unter der Bedingung, eine gerade Zahl zu würfeln? Lösung 8 Es seien 𝐴: Augenzahl: 2 𝐵: Gerade Augenzahl 9

Teil 1 Kapitel 1 Grundlagen der Wahrscheinlichkeitsrechnung

Zur Lösung sind zwei Ansätze zu unterscheiden. → Ansatz 1 Es ist offenbar, dass 𝐴= 2 𝐵 = 2,4,6 wobei 𝑊(𝐵) =

3 6

Somit 𝐴∩𝐵 = 2 𝑊(𝐴 ∩ 𝐵) =

1 6

Dabei ergibt sich die gesuchte bedingte Wahrscheinlichkeit aus 1 𝑊(𝐴 ∩ 𝐵) 1 𝑊(𝐴|𝐵) = = 6 = 3 𝑊(𝐵) 3 6 → Ansatz 2 𝑆 = 2,4,6 heißt der reduzierte Ereignisraum mit der Bedingung, dass die Augenzahl gerade ist. Weil gilt 𝐴= 2 lässt sich die gewünschte Wahrscheinlichkeit berechnen aus 𝑊(𝐴) =

10

𝑛(𝐴) 1 = 𝑛(𝑆 ) 3

Teil 1 Kapitel 1 Grundlagen der Wahrscheinlichkeitsrechnung

→ Unabhӓngigkeit von Ereignissen → Unabhӓngigkeit von zwei Ereignissen Seien 𝐴 und 𝐵 zwei Ereignisse eines Zufallsvorgangs. Dann heißen 𝐴 und 𝐵 (stochastisch) unabhӓngig voneinander, falls 𝑊(𝐴|𝐵) = 𝑊(𝐴) 𝑊(𝐵|𝐴) = 𝑊(𝐵) bzw. 𝑊(𝐴 ∩ 𝐵) = 𝑊(𝐴) ∙ 𝑊(𝐵) erfüllt sind. Andernfalls heißen sie (stochastisch) abhӓngig. → Unabhӓngigkeit von drei Ereignissen Seien 𝐴, 𝐵, 𝐶 drei Ereignisse eines Zufallsvorgangs. Dann heißen 𝐴, 𝐵, 𝐶 (stochastisch) unabhӓngig voneinander, wenn sie paarweise unabhӓngig sind, d. h. wenn 𝑊(𝐴 ∩ 𝐵) = 𝑊(𝐴) ∙ 𝑊(𝐵) 𝑊(𝐴 ∩ 𝐶) = 𝑊(𝐴) ∙ 𝑊(𝐶) 𝑊(𝐵 ∩ 𝐶) = 𝑊(𝐵) ∙ 𝑊(𝐶) gelten und wenn 𝐴, 𝐵, 𝐶 zusätzlich 𝑊(𝐴 ∩ 𝐵 ∩ 𝐶) = 𝑊(𝐴) ∙ 𝑊(𝐵) ∙ 𝑊(𝐶) erfüllen. Beispiel 9: Einmaliges Werfen eines idealen Würfels wird betrachtet. Sind die Ereignisse 𝐴= 2 𝐵 = 2,4,6 (stochastisch) unabhӓngig oder abhӓngig voneinander?

11

Teil 1 Kapitel 1 Grundlagen der Wahrscheinlichkeitsrechnung

Lösung 9 Zur Lösung sind die folgenden Ereignisse und Wahrscheinlichkeiten festzulegen: 𝐴∩𝐵 = 2 𝑊(𝐴 ∩ 𝐵) = 𝑊(𝐴) = 𝑊(𝐵) =

1 6

1 6

3 1 = 6 2

Weil gilt 𝑊(𝐴 ∩ 𝐵) =

1 1 ≠ 𝑊(𝐴)𝑊(𝐵) = 6 6

1 1 = 2 12

sind die Ereignisse 𝐴 und 𝐵 (stochastisch) abhӓngig voneinander. Beispiel 10: Ein Parallelsystem bestehe aus 𝑛 Komponenten. Jede Komponente 𝑖 funktioniere (stochastisch) unabhӓngig voneinander mit Wahrscheinlichkeit 𝑤 . Wie groß ist die Wahrscheinlichkeit, dass das System funktioniert? (Anmerkung: Ein Parallelsystem funktioniert, wenn mindestens eine der Komponenten funktioniert.) Lösung 10 Es seien 𝐴: Das Parallelsystem funktioniert 𝐾 : Die Komponente 𝑖 funktioniert, 𝑖 = 1, 2, 3, … . , 𝑛 Nach der Wahrscheinlichkeit des Komplementӓrereignisses gilt 𝑊(𝐴) = 1 − 𝑊(𝐴̅) Ein Parallelsystem fällt aus, wenn keine der Komponenten funktioniert, d. h. 𝑊(𝐴̅) = 𝑊(𝐾 ∩ 𝐾 ∩ … ∩ 𝐾 )

12

Teil 1 Kapitel 1 Grundlagen der Wahrscheinlichkeitsrechnung

Nach der Unabhӓngigkeit der Komponenten und Wahrscheinlichkeit des Komplementӓrereignisses gilt 𝑊(𝐴̅) = 𝑊(𝐾 )𝑊(𝐾 ) … 𝑊(𝐾 ) = 1 − 𝑊(𝐾 ) 1 − 𝑊(𝐾 ) … (1 − 𝑊(𝐾 )) = (1 − 𝑤 )(1 − 𝑤 ) … (1 − 𝑤 ) Dabei ergibt sich die Wahrscheinlichkeit, dass das System funktioniert, aus 𝑊(𝐴) = 1 − 𝑊(𝐴̅) = 1 − (1 − 𝑤 )(1 − 𝑤 ) … (1 − 𝑤 ) =1−

(1 − 𝑤 )

→ Multiplikationssatz Seien 𝐴 , 𝐴 , 𝐴 , … , 𝐴 die Ereignisse eines Zufallsvorgangs. Der Multiplikationssatz ist definiert durch 𝑊(𝐴 ∩ 𝐴 ∩ 𝐴 ∩ … 𝐴 ) = 𝑊(𝐴 )𝑊(𝐴 |𝐴 )𝑊(𝐴 |𝐴 ∩ 𝐴 ) … 𝑊(𝐴 |𝐴 ∩ 𝐴 ∩ … ∩ 𝐴

)

Beispiel 11: In einer Urne befinden sich 3 rote, 2 weiße und 5 schwarze Kugeln. Es wird eine Kugel zufӓllig gezogen, ihre Farbe notiert und sie nicht wieder in die Urne zurückgelegt (Ziehen ohne Zurücklegen). Wie groß ist die Wahrscheinlichkeit, 3 rote Kugeln zu ziehen? Lösung 11 Es seien 𝑅 ∶ Ziehen einer roten Kugel bei der i-ten Ziehung 𝑊 ∶ Ziehen einer weißen Kugel bei der i-ten Ziehung 𝑆 : Ziehen einer schwarzen Kugel bei der i-ten Ziehung Das Baumdiagramm illustriert den entsprechenden Zufallsvorgang (s. Abbildung 1.2).

13

Teil 1 Kapitel 1 Grundlagen der Wahrscheinlichkeitsrechnung

Abbildung 1.2: Baumdiagramm für Beispiel 11 Die Wahrscheinlichkeit, 3 rote Kugeln zu ziehen, ist gegeben durch 𝑊(𝑅 ∩ 𝑅 ∩ 𝑅 ) = 𝑊(𝑅 )𝑊(𝑅 |𝑅 )𝑊(𝑅 |𝑅 ∩ 𝑅 ) =

3 10

2 9

1 1 = 8 120

→ Totale Wahrscheinlichkeit Es seien 𝐵 , 𝐵 , … , 𝐵 die Ereignisse eines Zufallsvorgangs, die ein vollstӓndiges System bilden, d. h. die folgenden Bedingungen erfüllen: 𝐵 ∩ 𝐵 ∩ …∩ 𝐵 = ∅ 𝐵 ∪ 𝐵 ∪ …∪ 𝐵 = 𝑆 Die totale Wahrscheinlichkeit für das Ereignis 𝐴 ist folgendermaßen definiert: 𝑊(𝐴) =

𝑊(𝐴|𝐵 )𝑊(𝐵 )

→ Der Satz von Bayes Es seien 𝐵 , 𝐵 , … , 𝐵 die Ereignisse eines Zufallsvorgangs, die ein vollstӓndiges System bilden. Der Satz von Bayes ist gegeben durch: 14

Teil 1 Kapitel 1 Grundlagen der Wahrscheinlichkeitsrechnung

𝑊(𝐵 |𝐴) =

𝑊(𝐴|𝐵 )𝑊(𝐵 ) 𝑊(𝐵 ∩ 𝐴) = 𝑖 = 1, 2, 3, … , 𝑛 ∑ 𝑊(𝐴|𝐵 )𝑊(𝐵 ) 𝑊(𝐴)

Beispiel 12: Die Wahrscheinlichkeit für mindestens einen Verkehrsunfall in einer Region ist 0,7, wenn es regnet, und diese Wahrscheinlichkeit ist 0,1, wenn es nicht regnet. Man vermutet die Regenwahrscheinlichkeit für morgen als 0,4. a) Wie groß ist die Wahrscheinlichkeit, dass morgen kein Verkehrsunfall in dieser Region passiert? b) Mit welcher Wahrscheinlichkeit regnet es morgen nicht, vorausgesetzt dass morgen kein Verkehrsunfall stattfindet? Lösung 12 Seien 𝑅: Regen für morgen 𝑈: Mindestens ein Verkehrsunfall für morgen a) Die Wahrscheinlichkeit, dass morgen kein Verkehrsunfall in dieser Region passiert, errechnet sich durch 𝑊(𝑈) = 1 − 𝑊(𝑈) Nach totaler Wahrscheinlichkeit gilt 𝑊(𝑈) = 𝑊(𝑈|𝑅)𝑊(𝑅) + 𝑊(𝑈|𝑅 )𝑊(𝑅 ) = (0,7)(0,4) + 0,1(1 − 0,4) = 0,34 Damit ergibt sich die gesuchte Wahrscheinlichkeit aus 𝑊(𝑈) = 1 − 𝑊(𝑈) = 1 − 0,34 = 0,66 b) Die Wahrscheinlichkeit, dass es morgen nicht regnet, vorausgesetzt dass morgen kein Verkehrsunfall stattfindet, ist 𝑊(𝑅 |𝑈) =

𝑊(𝑈|𝑅)𝑊(𝑅 ) (1 − 0,1)(1 − 0,4) 0,54 = = = 0,8182 0,66 0,66 𝑊(𝑈)

15

Teil 1 Kapitel 1 Grundlagen der Wahrscheinlichkeitsrechnung

1.3.

Kombinatorik

Die Kombinatorik beschӓftigt sich mit dem Anordnen oder Auswӓhlen von Elementen. 1.3.1. Permutation Unter einer Permutation versteht man das Anordnen von 𝑛 Elementen. Im Folgenden werden zwei Fälle der Permutation unterstellt: → Die Anzahl der Anordnungen (Reihenfolgen, Permutationen) von 𝑛 Elementen ohne Wiederholung 𝑛! = 𝑛 ∙ (𝑛 − 1) ∙ (𝑛 − 2) ∙ … ∙ 2 ∙ 1 → Die Anzahl der Anordnungen (Reihenfolgen, Permutationen) von 𝑛 Elementen mit Wiederholung 𝑛! 𝑛 !𝑛 !…𝑛 ! wobei 𝑛 + 𝑛 + ⋯+ 𝑛 = 𝑛 𝑛 : Anzahl der Wiederholungen des ausgeprägten Elements 𝑖 für 𝑖 = 1, 2, 3, … , 𝑘 Beispiel 13: Wie viele Permutationen von 𝑎, 𝑏, 𝑐 sind möglich? Wie viele Permutationen von 𝑎, 𝑎, 𝑎, 𝑏, 𝑏, 𝑐 gibt es? Lösung 13 Weil es sich hierbei um keine Wiederholung von Elementen 𝑎, 𝑏, 𝑐 handelt, sind 3! = 3 ∙ 2 ∙ 1 = 6 Permutationen möglich. Weil sich 𝑎 und 𝑏 in den Elementen 𝑎, 𝑎, 𝑎, 𝑏, 𝑏, 𝑐 wiederholen, gibt es 6! = 60 3! 2! 1! Permutationen. 16

Teil 1 Kapitel 1 Grundlagen der Wahrscheinlichkeitsrechnung

1.3.2. Variation und Kombination Unter einer Variation und Kombination versteht man das Auswӓhlen von 𝑘 Elementen aus 𝑛 Elementen. Die Variation und Kombination sind wie folgt zu unterscheiden: → Die Anzahl der Variationen für die Auswahl von 𝑘 aus 𝑛 Elementen (Auswӓhlen ohne Zurücklegen und mit Anordnung) 𝑛! (𝑛 − 𝑘)! → Die Anzahl der Kombinationen für die Auswahl von 𝑘 aus 𝑛 Elementen (Auswӓhlen ohne Zurücklegen und ohne Anordnung) 𝑛! 𝑛 = 𝑘 (𝑛 − 𝑘)! 𝑘! Beispiel 14: Aus den Buchstaben 𝑎, 𝑏, 𝑐, 𝑑, 𝑒 werden zwei Buchstaben ohne Beachtung der Anordnung ausgewӓhlt. Wie viele Kombinationen sind möglich? Im Fall der Beachtung der Anordnung, wie viele Variationen gibt es? Lösung 14 5! 5! 5 = = = 10 (5 2 − 2)! 2! 3! 2! Kombinationen sind möglich. Es gibt 5! 5! = = 20 (5 − 2)! 3! Variationen. Aufgaben 1. Eine ideale Münze und ein idealer Würfel werden gleichzeitig geworfen. Ferner entnimmt man zufӓllig eine Kugel aus einer Urne, in der sich eine rote, eine schwarze und eine blaue Kugel befinden. a) Beschreiben Sie den Ereignisraum. b) Beschreiben Sie die folgenden Ereignisse: 17

Teil 1 Kapitel 1 Grundlagen der Wahrscheinlichkeitsrechnung

Ereignis 𝐴: Ein Kopf kommt, die Augenzahl betrӓgt mindestens 4 und die Farbe der Kugel ist Rot oder Schwarz. Ereignis 𝐵: Eine Zahl kommt, die Augenzahl betrӓgt mindestens 4 und die Farbe der Kugel ist Rot oder Blau. Ereignis 𝐶:Eine Zahl kommt, die Augenzahl betrӓgt eine gerade Zahl und die Farbe der Kugel ist Rot. c) Bestimmen Sie, ob die Ereignisse 𝐵 und 𝐶 disjunkt sind. d) Bestimmen Sie, ob die Ereignisse 𝐵 und 𝐶 (stochastisch) unabhӓngig voneinander sind. e) Berechnen Sie 𝑊(𝐵 ∪ 𝐶). f) Berechnen Sie 𝑊(𝐶|𝐵). Lösung 1 a) Der Ereignisraum des entsprechenden Zufallsvorgangs lautet: 𝑆= (𝐾, 1, 𝑅), (𝐾, 1, 𝑆), (𝐾, 1, 𝐵), (𝐾, 2, 𝑅), (𝐾, 2, 𝑆), (𝐾, 2, 𝐵), (𝐾, 3, 𝑅), (𝐾, 3, 𝑆), (𝐾, 3, 𝐵), (𝐾, 4, 𝑅), (𝐾, 4, 𝑆), (𝐾, 4, 𝐵), (𝐾, 5, 𝑅), (𝐾, 5, 𝑆), (𝐾, 5, 𝐵), (𝐾, 6, 𝑅), (𝐾, 6, 𝑆), (𝐾, 6, 𝐵), (𝑍, 1, 𝑅), (𝑍, 1, 𝑆), (𝑍, 1, 𝐵), (𝑍, 2, 𝑅), (𝑍, 2, 𝑆), (𝑍, 2, 𝐵), (𝑍, 3, 𝑅), (𝑍, 3, 𝑆), (𝑍, 3, 𝐵), (𝑍, 4, 𝑅), (𝑍, 4, 𝑆), (𝑍, 4, 𝐵), (𝑍, 5, 𝑅), (𝑍, 5, 𝑆), (𝑍, 5, 𝐵), (𝑍, 6, 𝑅), (𝑍, 6, 𝑆), (𝑍, 6, 𝐵)

Nach dem Fundamentalprinzip des Zӓhlens bestätigt man, dass die Anzahl der Elementarereignisse (2)(6)(3) = 36 = 𝑛(𝑆) beträgt. b) Man bestimmt die folgenden Ereignisse: 𝐴 = (𝐾, 4, 𝑅), (𝐾, 4, 𝑆), (𝐾, 5, 𝑅), (𝐾, 5, 𝑆), (𝐾, 6, 𝑅), (𝐾, 6, 𝑆) 𝐵 = (𝑍, 4, 𝑅), (𝑍, 4, 𝐵), (𝑍, 5, 𝑅), (𝑍, 5, 𝐵), (𝑍, 6, 𝑅), (𝑍, 6, 𝐵) 𝐶 = (𝑍, 2, 𝑅), (𝑍, 4, 𝑅), (𝑍, 6, 𝑅) c) Aus der Teilaufgabe b) bestimmt man 𝐵 ∩ 𝐶 = (𝑍, 4, 𝑅), (𝑍, 6, 𝑅) Weil 𝐵 ∩ 𝐶 ≠ ∅ gilt, sind 𝐵 und 𝐶 nicht disjunkt. 18

Teil 1 Kapitel 1 Grundlagen der Wahrscheinlichkeitsrechnung

d) Aus den Teilaufgaben b) und c) ermittelt man 𝑊(𝐵) =

6 36

𝑊(𝐶) =

3 36

𝑊(𝐵 ∩ 𝐶) =

2 36

Weil gilt 𝑊(𝐵 ∩ 𝐶) =

2 6 ≠ 𝑊(𝐵)𝑊(𝐶) = 36 36

3 36

sind 𝐵 und 𝐶 (stochastisch) abhӓngig voneinander. e) Nach dem Additionssatz gilt 𝑊(𝐵 ∪ 𝐶) = 𝑊(𝐵) + 𝑊(𝐶) − 𝑊(𝐵 ∩ 𝐶) =

3 2 7 6 + − = 36 36 36 36

f) Nach bedingter Wahrscheinlichkeit folgt 2 𝑊(𝐶 ∩ 𝐵) 2 1 36 𝑊(𝐶|𝐵) = = = = 6 𝑊(𝐵) 6 3 36 2. 4 Mathe-, 3 Geschichts- und 5 Deutschbücher sollten auf einem Regal eingeordnet werden. a) Wie viele mögliche Permutationen gibt es? b) Wenn die Bücher im gleichen Fach eingeordnet werden müssen, wie viele Permutationen sind möglich? c) 3 Bücher müssen ausgewӓhlt werden. Wie viele Kombinationen gibt es? d) 3 Bücher müssen ausgewӓhlt werden. Ein bestimmtes Buch über Mathe (z. B. Mathe 1) und ein bestimmtes Buch über Geschichte (z. B. Geschichte 1) dürfen nicht zusammen auf dem Regal stehen. Wie viele mögliche Kombinationen sind möglich?

19

Teil 1 Kapitel 1 Grundlagen der Wahrscheinlichkeitsrechnung

Lösung 2 a) 4 + 3 + 5 = 12 Bücher sollten auf einem Regal eingordnet werden. Dabei gibt es 12! = 479001600 mögliche Permutationen. b) Wenn die Bücher im gleichen Fach eingeordnet werden müssen, sind 3! (4! 3! 5!) = 103680 Permutationen möglich. c) Wenn 3 Bücher ausgewӓhlt werden müssen, dann ergeben sich

12 = 220 3

Kombinationen. d) Drei Fӓlle sind zu unterscheiden: → Fall 1: Mathe 1 ist im Regal, aber Geschichte 1 nicht. 10 = 45 2 → Fall 2: Geschichte 1 ist im Regal, aber Mathe 1 nicht. 10 = 45 2 → Fall 3: Mathe 1 und Geschichte 1 sind nicht im Regal. 10 = 120 3 → Weil Fall 1, Fall 2, Fall 3 disjunkte Ereignisse sind, gibt es 10 10 10 = 45 + 45 + 120 = 210 + + 3 2 2 Kombinationen. 3. In einer Urne befinden sich 5 blaue, 3 gelbe und 7 rote Kugeln. Sie ziehen 4 Kugeln aus dieser Urne und werfen gleichzeitig einen idealen Würfel. Wie hoch ist die Wahrscheinlichkeit dafür, dass a) entweder 2 rote Kugeln oder eine Augenzahl von mindestens 5 vorkommen? b) 1 gelbe Kugel eintritt, vorausgesetzt dass 3 rote Kugeln vorkommen? c) 2 blaue Kugeln oder 1 rote Kugel auftreten?

20

Teil 1 Kapitel 1 Grundlagen der Wahrscheinlichkeitsrechnung

d) 3 rote Kugeln entnommen werden? (Anmerkung: Betrachten Sie zur Lösung den Satz zur „Totalen Wahrscheinlichkeit“.) Lösung 3 Seien 𝐵 : Ziehen 𝑖 blauer Kugeln 𝐺 : Ziehen 𝑖 gelber Kugeln 𝑅 : Ziehen 𝑖 roter Kugeln 𝐴: Augenzahl a) Nach dem Additionssatz ist die gesuchte Wahrscheinlichkeit 𝑊(𝑅 ∪ (𝐴 ≥ 5)) = 𝑊(𝑅 ) + 𝑊(𝐴 ≥ 5) − 𝑊(𝑅 ∩ (𝐴 ≥ 5)) wobei 5 𝑊(𝑅 ) = 0

3 2

=

7 5 + 2 2

3 7 5 + 0 2 1 15 4

3 1

7 2 = 63 + 210 + 315 1365

588 = 0,431 1365

und 𝑊(𝐴 ≥ 5) = 𝑊(𝐴 = 5) + 𝑊(𝐴 = 6) =

1 1 2 1 + = = = 0,333 6 6 6 3

Weil die Ereignisse 𝑅 und (𝐴 ≥ 5) unabhӓngig sind, gilt 𝑊(𝑅 ∩ (𝐴 ≥ 5)) = 𝑊(𝑅 )𝑊(𝐴 ≥ 5) = (0,431)(0,333) = 0,144 Daraus ergibt sich 𝑊(𝑅 ∪ (𝐴 ≥ 5)) = 𝑊(𝑅 ) + 𝑊(𝐴 ≥ 5) − 𝑊(𝑅 ∩ (𝐴 ≥ 5)) = 0,431 + 0,333 − 0,144 = 0,62

21

Teil 1 Kapitel 1 Grundlagen der Wahrscheinlichkeitsrechnung

b) Nach bedingter Wahrscheinlichkeit ist die gewünschte Wahrscheinlichkeit 𝑊(𝐺 ∩ 𝑅 ) 𝑊(𝐺 |𝑅 ) = = 𝑊(𝑅 ) =

5 3 7 15 / 0 1 3 4 7 7 3 3 5 + 1 3 1 0 3

5 0

/

15 4

=

105 105 + 175

105 = 0,375 280

c) Nach dem Additionssatz ist die Wahrscheinlichkeit, dass 2 blaue Kugeln oder 1 rote Kugel auftreten, gegeben durch 𝑊(𝐵 ∪ 𝑅 ) = 𝑊(𝐵 ) + 𝑊(𝑅 ) − 𝑊(𝐵 ∩ 𝑅 ) wobei 7 5 + 0 2

3 2

5 𝑊(𝐵 ) = 2

= 5 𝑊(𝑅 ) = 0

3 7 5 + 0 2 2 15 4

3 1

7 1 = 30 + 210 + 210 1365

450 = 0,33 1365

7 5 3 7 5 + + 1 1 2 1 2 15 4 7 + 70 + 105 + 210 392 = = = 0,287 1365 1365

3 3

7 5 + 1 3

5 𝑊(𝐵 ∩ 𝑅 ) = 2

3 0

3 1

7 1

3 7 1 1 = 210 = 0,154 15 1365 4

Daher ergibt sich die gesuchte Wahrscheinlichkeit aus 𝑊(𝐵 ∪ 𝑅 ) = 𝑊(𝐵 ) + 𝑊(𝑅 ) − 𝑊(𝐵 ∩ 𝑅 ) = 0,33 + 0,287 − 0,154 = 0,463 d) Nach der totalen Wahrscheinlichkeit errechnet sich die Wahrscheinlichkeit, dass 3 rote Kugeln entnommen werden, durch

22

Teil 1 Kapitel 1 Grundlagen der Wahrscheinlichkeitsrechnung

𝑊(𝑅 ) = 𝑊(𝑅 |𝐵 )𝑊(𝐵 ) + 𝑊(𝑅 |𝐺 )𝑊(𝐺 ) =

𝑊(𝑅 ∩ 𝐵 ) 𝑊(𝑅 ∩ 𝐺 ) 𝑊(𝐵 ) + 𝑊(𝐺 ) ) 𝑊(𝐵 𝑊(𝐺 )

5 = 𝑊(𝑅 ∩ 𝐵 ) + 𝑊(𝑅 ∩ 𝐺 ) = 1 =

280 = 0,205 1365

3 7 5 3 7 0 3 + 0 1 3 = 175 + 105 15 15 1365 1365 4 4

4. Eine Münze mit der Kopf-Wahrscheinlichkeit 0,25 und ein idealer Würfel werden gleichzeitig jeweils 12-mal und 8-mal geworfen. Alle Durchführungen werden als (stochastisch) unabhӓngig voneinander angenommen. Wie groß ist die Wahrscheinlichkeit, dass a) ein Kopf bei den ersten 8 Münzwürfen kommt? b) eine gerade Zahl bei den ersten 3 Würfelwürfen fӓllt? c) eine Zahl beim letzten Münzwurf und eine gerade Zahl beim ersten Würfelwurf erscheinen? d) eine Zahl 5-mal und eine ungerade Augenzahl 4-mal kommen? Lösung 4 Seien 𝐾 : Kopf beim 𝑖-ten Münzwurf 𝑍 : Zahl beim 𝑖-ten Münzwurf 𝐴 : Augenzahl beim 𝑖-ten Würfelwurf a) Nach der Unabhӓngigkeit der Münzwürfe lässt sich die Wahrscheinlichkeit, dass ein Kopf bei den ersten 8 Münzwürfen kommt, berechnen durch 𝑊(𝐾 ∩ 𝐾 ∩ … ∩ 𝐾 ∩ 𝑍 ∩ 𝑍 ∩ 𝑍 ∩ 𝑍 ) = 𝑊(𝐾 )𝑊(𝐾 ) … 𝑊(𝐾 )𝑊(𝑍 ) … 𝑊(𝑍 ) = (0,25) (1 − 0,25) = 0,000005

23

Teil 1 Kapitel 1 Grundlagen der Wahrscheinlichkeitsrechnung

b) Nach der Unabhӓngigkeit der Würfelwürfe ist die Wahrscheinlichkeit, dass eine gerade Zahl bei den ersten 3 Würfelwürfen fӓllt, gegeben durch 𝑊((𝐴 = 2,4,6 ) ∩ (𝐴 = 2,4,6 ) ∩ (𝐴 = 2,4,6 ) ∩ (𝐴 = 1,3,5 ) ∩ … ∩ (𝐴 = 1,3,5 )) = 𝑊(𝐴 = 2,4,6 )𝑊(𝐴 = 2,4,6 )𝑊(𝐴 = 2,4,6 )𝑊(𝐴 = 1,3,5 ) … 𝑊(𝐴 = 1,3,5 ) = (0,5) (1 − 0,5) = (0,5) = 0,0039 c) Nach der Unabhӓngigkeit der Durchführungen gilt die gewünschte Wahrscheinlichkeit 𝑊((𝐾 ∩ 𝐾 ∩ … ∩ 𝐾 ∩ 𝑍 ) ∩ ((𝐴 = 2,4,6 ) ∩ (𝐴 = 1,3,5 ) ∩ … ∩ (𝐴 = 1,3,5 ))) = 𝑊(𝐾 ∩ 𝐾 ∩ … ∩ 𝐾 ∩ 𝑍 )𝑊((𝐴 = 2,4,6 ) ∩ (𝐴 = 1,3,5 ) ∩ … ∩ (𝐴 = 1,3,5 )) = 𝑊(𝐾 )𝑊(𝐾 ) … 𝑊(𝐾 )𝑊(𝑍 )𝑊(𝐴 = 2,4,6 )𝑊(𝐴 = 1,3,5 ) … 𝑊(𝐴 = 1,3,5 ) = (0,25) (1 − 0,25)(0,5)(1 − 0,5) = 7. 10 d) Weil 5 Zahlen bei den beliebigen 12 Münzwürfen und 4 ungerade Zahlen bei den beliebigen 8 Würfelwürfen kommen können, gilt 12 (1 − 0,25) (0,25) 5

8 (1 − 0,5) (0,5) 4

= (0,01)(0,27) = 0,0027

5. Wie groß ist die Wahrscheinlichkeit, dass in einer Klasse von 𝑛 Schülern keine zwei Schüler am selben Tag Geburtstag haben? (Anmerkung: Geburtstagsproblem.) Lösung 5 Sei 𝐴: Keine zwei Schüler haben am selben Tag Geburtstag

24

Teil 1 Kapitel 1 Grundlagen der Wahrscheinlichkeitsrechnung

Dann ermittelt sich die Wahrscheinlichkeit, dass keine zwei Schüler am selben Tag Geburtstag haben, durch 𝑊(𝐴) =

(365)(364)(363) … (365 − (𝑛 − 1)) 365 (365)(364)(363) … 365 − (𝑛 − 1) (365 − 𝑛)! = 365 (365 − 𝑛)! 365! = 365 (365 − 𝑛)!

25

Teil 1 Kapitel 2 Zufallsvariablen

Kapitel 2 Zufallsvariablen In diesem Kapitel werden wir uns mit den Zufallsvariablen (Zufallsgrößen) befassen, die für Teil 2 und Teil 3 dieses Buches von großer Bedeutung sind. Eine Zufallsvariable ist eine Funktion, die jedem Elementarereignis aus dem Ereignisraum eines Zufallsvorgangs eine reelle Zahl zuordnet. Zufallsvariablen unterteilen sich in zwei Typen: diskrete Zufallsvariablen und stetige Zufallsvariablen. Bei den diskreten Zufallsvariablen handelt es sich um einen Zӓhlvorgang, d. h. nur endlich bestimmte Werte oder unendlich abzӓhlbare Werte sind möglich. Bei den stetigen Zufallsvariablen handelt es sich um einen Messvorgang, d. h. unendlich viele beliebige Werte in einem Intervall oder in ℝ sind möglich. Im ersten Abschnitt dieses Kapitels stehen die Kenngrößen der diskreten Zufallsvariablen und die speziellen diskreten Zufallsvariablen im Vordergrund. Wir werden verstehen, welche Querverbindungen zwischen speziellen diskreten Zufallsvariablen bestehen. In zweiten Abschnitt lernen wir die Kenngrößen der stetigen Zufallsvariablen und die speziellen stetigen Zufallsvariablen kennen und verstehen wiederum die Querverbindungen zwischen speziellen stetigen Zufallsvariablen. 2.1.

Diskrete Zufallsvariablen

Eine diskrete Zufallsvariable ist eine diskrete Funktion, die jedem Elementarereignis aus dem Ereignisraum 𝑆 mit abzählbaren Werten eine reelle Zahl 𝑥 als eine Realisation (Ausprӓgung) zuordnet. Beispiel 1: Ein zweifacher Wurf einer idealen Münze wird betrachtet. Der Ereignisraum dieses Zufallsvorgangs lautet 𝑆 = (𝐾, 𝐾), (𝐾, 𝑍), (𝑍, 𝐾), (𝑍, 𝑍) Man kann 𝑋: Anzahl der Köpfe als eine Zufallsvariable definieren. 𝑋 ist eine diskrete Zufallsvariable, weil sie nur die Werte 0, 1, 2 annehmen kann. Das Venn-Diagramm auf der Abbildung 2.1 stellt 𝑋 als eine Funktion dar. © Der/die Herausgeber bzw. der/die Autor(en), exklusiv lizenziert durch Springer Fachmedien Wiesbaden GmbH, ein Teil von Springer Nature 2020 E. Bas, Einführung in Wahrscheinlichkeitsrechnung, Statistik und Stochastische Prozesse, https://doi.org/10.1007/978-3-658-32120-8_2

Teil 1 Kapitel 2 Zufallsvariablen

Abbildung 2.1: Venn-Diagramm für 𝑋 beim zweifachen Münzwurf 2.1.1. Kenngrößen der diskreten Zufallsvariablen Jede diskrete Zufallsvariable ist durch die Wahrscheinlichkeitsfunktion, die Verteilungsfunktion, den Erwartungswert und die Varianz vollstӓndig beschrieben. → Wahrscheinlichkeitsfunktion (Massenfunktion) Die Wahrscheinlichkeitsfunktion 𝑤(𝑥) einer diskreten Zufallsvariable 𝑋 ist eine Funktion, die jeder Realisation 𝑥 von 𝑋 eine Wahrscheinlichkeit zuordnet. Die Wahrscheinlichkeitsfunktion wird kurz geschrieben mit 𝑊(𝑋 = 𝑥 ) = 𝑤(𝑥 ) ∀𝑥 ∈ 𝑋 und ist durch folgende Eigenschaften gekennzeichnet: 0 ≤ 𝑤(𝑥 ) ≤ 1 ∀𝑥 ∈ 𝑋 𝑤(𝑥 ) = 1 ∈

(Die Wahrscheinlichkeiten summieren sich zu 1.) → (Kumulative) Verteilungsfunktion Die (kumulative) Verteilungsfunktion 𝐹(𝑥) einer diskreten Zufallsvariable 𝑋 ist eine monoton steigende Funktion, die die Wahrscheinlichkeit liefert, dass 𝑋 eine Realisation kleiner oder gleich 𝑥 annimmt. Die Verteilungsfunktion 𝐹(𝑥) ist mathematisch definiert als 𝐹(𝑥) = 𝑊(𝑋 ≤ 𝑥) =

𝑊(𝑋 = 𝑥 ) =

𝑤(𝑥 ) 27

Teil 1 Kapitel 2 Zufallsvariablen

und durch folgende Eigenschaften gekennzeichnet (s. Abbildung 2.2): 0 ≤ 𝐹(𝑥) ≤ 1 𝑊(𝑎 ≤ 𝑋 ≤ 𝑏) = 𝐹(𝑏) − 𝐹(𝑎 − 1)

Abbildung 2.2: Darstellung der Verteilungsfunktion → Komplementӓre Verteilungsfunktion Die komplementӓre Verteilungsfunktion ist gegeben durch 𝐹 (𝑥) = 𝑊(𝑋 > 𝑥) =

𝑊(𝑋 = 𝑥 ) =

𝑤(𝑥 )

Die folgende Bedingung wird stets erfüllt: 𝐹(𝑥) + 𝐹 (𝑥) = 1 → Erwartungswert Der Erwartungswert 𝐸(𝑋) einer diskreten Zufallsvariable 𝑋 ist die Summe der mit den Wahrscheinlichkeiten gewichteten möglichen Realisationen 𝑥 von 𝑋. 𝐸(𝑋) ist mathematisch definiert als 𝐸(𝑋) =

𝑥 𝑤(𝑥 ) ∈

Die Linearitӓt vom Erwartungswert wird wie folgt dargelegt: 𝐸(𝑎𝑋 + 𝑏) = 𝑎𝐸(𝑋) + 𝑏 wobei 𝑎, 𝑏 die Konstanten sind. 28

Teil 1 Kapitel 2 Zufallsvariablen

→ Varianz Die Varianz 𝑉𝑎𝑟(𝑋) einer diskreten Zufallsvariable 𝑋 ist die Summe der mit den Wahrscheinlichkeiten gewichteten quadrierten Abweichungen der möglichen Realisationen 𝑥 vom Erwartungswert 𝐸(𝑋). 𝑉𝑎𝑟(𝑋) ist mathematisch definiert als (𝑥 − 𝐸(𝑋)) 𝑤(𝑥 ) = 𝐸(𝑋 ) − (𝐸(𝑋))

𝑉𝑎𝑟(𝑋) = 𝜎 = ∈

Es gilt 𝑉𝑎𝑟(𝑎𝑋 + 𝑏) = 𝑎 𝑉𝑎𝑟(𝑋) wobei 𝑎, 𝑏 die Konstanten sind. → Standardabweichung Die Standardabweichung ergibt sich durch die Quadratwurzel aus der Varianz. 𝜎=

𝑉𝑎𝑟(𝑋)

Beispiel 1 (fortgesetzt): Ein zweifacher Wurf einer idealen Münze wird betrachtet. Es sei 𝑋: Anzahl der Köpfe Das Venn-Diagramm in Abbildung 2.3 zeigt die Zufallsvariable 𝑋 und Wahrscheinlichkeitsfunktion von 𝑋.

Abbildung 2.3: Venn-Diagram für 𝑋 und 𝑤(𝑥) beim zweifachen Münzwurf Berechnen Sie 𝑊(𝑋 = 1), 𝐹(1), 𝐸(𝑋), 𝑉𝑎𝑟(𝑋). 29

Teil 1 Kapitel 2 Zufallsvariablen

Lösung 1 (fortgesetzt) Die gewünschten Berechnungen sind gegeben durch: 𝑊(𝑋 = 1) = 𝑊((𝐾, 𝑍)) + 𝑊((𝑍, 𝐾)) =

1 1 2 1 + = = 4 4 4 2

𝐹(1) = 𝑊(𝑋 ≤ 1) = 𝑊(𝑋 = 0) + 𝑊(𝑋 = 1) = 𝑊((𝑍, 𝑍)) + 𝑊((𝐾, 𝑍)) + 𝑊((𝑍, 𝐾)) = 𝐸(𝑋) = 0 𝐸(𝑋 ) = 0

1 1 1 3 + + = 4 4 4 4

1 1 1 +1 +2 =1 4 2 4 1 +1 4

1 +2 2

𝑉𝑎𝑟(𝑋) = 𝐸(𝑋 ) − 𝐸(𝑋)

=

1 3 = 4 2 3 1 −1 = 2 2

Beispiel 2: Ein idealer Würfel wird einmal geworfen. 𝑋 sei die Augenzahl. Berechnen Sie 𝐹(4), 𝐸(𝑋), 𝑉𝑎𝑟(𝑋). Lösung 2 Es ist offenbar, dass 𝐹(4) = 𝑊(𝑋 ≤ 4) = 𝑊(𝑋 = 1) + 𝑊(𝑋 = 2) + 𝑊(𝑋 = 3) + 𝑊(𝑋 = 4) 1 1 1 1 4 2 = + + + = = 6 6 6 6 6 3 𝐸(𝑋) = 1 𝐸(𝑋 ) = 1

1 1 1 1 1 1 21 +2 +3 +4 +5 +6 = = 3,5 6 6 6 6 6 6 6 1 +2 6

1 +3 6

1 +4 6

𝑉𝑎𝑟(𝑋) = 𝐸(𝑋 ) − 𝐸(𝑋)

=

1 +5 6

91 21 − 6 6

1 +6 6 =

1 91 = 6 6

35 ≅ 2,92 12

Beispiel 3: Berechnen Sie den Erwartungswert und die Varianz der Indikatorvariable 𝐼 für das Ereignis 𝐴, die wie folgt definiert ist: 𝐼 = 30

1 falls 𝐴 eintritt 0 falls 𝐴̅ eintritt

Teil 1 Kapitel 2 Zufallsvariablen

Lösung 3 𝐼 ist eine diskrete Zufallsvariable, weil sie nur die Werte 0 und 1 annehmen kann. Dabei werden der Erwartungswert und die Varianz der Zufallsvariable 𝐼 folgendermaßen festgelegt: 𝐸(𝐼 ) = 1. 𝑊(𝐴) + 0. 𝑊(𝐴̅) = 𝑊(𝐴) 𝐸(𝐼 ) = 1 . 𝑊(𝐴) + 0 . 𝑊(𝐴̅) = 𝑊(𝐴) 𝑉𝑎𝑟(𝐼 ) = 𝐸(𝐼 ) − (𝐸(𝐼 )) = 𝑊(𝐴) − 𝑊(𝐴) = 𝑊(𝐴)𝑊(𝐴̅)

= 𝑊(𝐴) 1 − 𝑊(𝐴)

2.1.2. Spezielle diskrete Zufallsvariablen In diesem Abschnitt werden spezielle diskrete Zufallsvariablen einschließlich Binomialverteilung, Poisson-Verteilung, negative Binomialverteilung, geometrische Verteilung und hypergeometrische Verteilung behandelt. 2.1.2.1. Binomialverteilung Ein Zufallsvorgang weise nur zwei mögliche Ausprӓgungen (mit Wahrscheinlichkeit 𝑤 für Ausprӓgung 1 und Wahrscheinlichkeit 1 − 𝑤 für Ausprӓgung 2) auf. Wenn man diesen Zufallsvorgang 𝑛-mal unabhӓngig voneinander durchführt, so ist 𝑋: Anzahl der Ausprӓgungen 1 (Anzahl der Erfolge) die binomialverteilte Zufallsvariable. Schreibweise: 𝑋~Bin (𝑛, 𝑤) wobei 𝑛 und 𝑤 die Parameter von 𝑋 sind. → Kenngrößen der Binomialverteilung → Wahrscheinlichkeitsfunktion von 𝑋~Bin (𝑛, 𝑤) 𝑊(𝑋 = 𝑖) =

𝑛 𝑤 (1 − 𝑤) 𝑖

𝑖 = 0, 1, 2, … , 𝑛

31

Teil 1 Kapitel 2 Zufallsvariablen

→ Verteilungsfunktion von 𝑋~Bin (𝑛, 𝑤) 𝐹(𝑖) = 𝑊(𝑋 ≤ 𝑖) =

𝑛 𝑤 (1 − 𝑤) 𝑥

𝑖 = 0, 1, 2, … , 𝑛

→ Erwartungswert von 𝑋~Bin (𝑛, 𝑤) 𝐸(𝑋) = 𝑛𝑤 → Varianz und Standardabweichung von 𝑋~Bin (𝑛, 𝑤) 𝑉𝑎𝑟(𝑋) = 𝑛𝑤(1 − 𝑤) 𝜎=

𝑉𝑎𝑟(𝑋) =

𝑛𝑤(1 − 𝑤)

→ Ein Spezialfall der Binomialverteilung: Bernoulli-Verteilung 𝑋~Bin (1, 𝑤) heißt eine Bernoulli-verteilte Zufallsvariable, die folgende Kenngrößen besitzt: 𝑊(𝑋 = 1) = 𝑤 𝑊(𝑋 = 0) = 1 − 𝑤 𝐸(𝑋) = 𝑤 𝑉𝑎𝑟(𝑋) = 𝑤(1 − 𝑤) 𝜎=

𝑤(1 − 𝑤)

Beispiel 4: Eine Münze mit der Kopf-Wahrscheinlichkeit 𝑤 = unabhӓngig voneinander geworfen. Sei 𝑋: Anzahl der Köpfe Berechnen Sie 𝑊(𝑋 = 3), 𝐹(5), 𝐸(𝑋), 𝑉𝑎𝑟(𝑋), 𝜎. Lösung 4 Die Schreibweise von „𝑋: Anzahl der Köpfe“ ist gegeben durch 𝑋~Bin 8, 32

1 3

wird 8-mal

Teil 1 Kapitel 2 Zufallsvariablen

Damit errechnen sich die gesuchten Kenngrößen durch 𝑊(𝑋 = 3) =

8 3

1 3

1−

𝜎=

= 0,2731

1−

1 3

= 0,9803

1 = 2,667 3

𝐸(𝑋) = 8 𝑉𝑎𝑟(𝑋) = 8

1 3

8 𝑥

𝐹(5) = 𝑊(𝑋 ≤ 5) =

1 3

1 3

1−

𝑉𝑎𝑟(𝑋) =

1 = 1,7778 3

1,7778 = 1,3333

Beispiel 5: Ein idealer Würfel wird 10-mal unabhӓngig voneinander geworfen. Sei 𝑋: Anzahl der geraden Augenzahlen Errechnen Sie 𝑊(𝑋 = 5), 𝐹(7), 𝐸(𝑋), 𝑉𝑎𝑟(𝑋), 𝜎. Lösung 5 Die Schreibweise von „𝑋: Anzahl der geraden Augenzahlen“ lautet 𝑋~Bin 10,

1 2

Somit wird berechnet: 𝑊(𝑋 = 5) =

10 5

1 2

𝐹(7) = 𝑊(𝑋 ≤ 7) =

1−

1 2

10 𝑥

𝐸(𝑋) = 10

= 1 2

10 5

1−

1 2

1 2

= 0,2461

= 0,9453

1 =5 2

33

Teil 1 Kapitel 2 Zufallsvariablen

𝑉𝑎𝑟(𝑋) = 10 𝜎=

1 2

𝑉𝑎𝑟(𝑋) =

1−

1 = 2,5 2

2,5 = 1,5811

2.1.2.2. Poisson-Verteilung Ein Zufallsvorgang weise nur zwei mögliche Ausprӓgungen (mit Wahrscheinlichkeit 𝑤 für Ausprӓgung 1 und Wahrscheinlichkeit 1 − 𝑤 für Ausprӓgung 2) auf. Wenn man diesen Zufallsvorgang 𝑛-mal unabhӓngig voneinander durchführt, so ist 𝑋: Anzahl der Ausprӓgungen 1 (Anzahl der Erfolge) die Poisson-verteilte Zufallsvariable. Schreibweise: 𝑋~Poiss (𝜆) wobei 𝜆 = 𝑛𝑤 der Parameter von 𝑋 ist. Bemerkung: Die Poisson-Verteilung lӓsst sich aus der Binomialverteilung herleiten und gilt eine Approximation (Nӓherung) der Binomialverteilung, falls (Bourier, 2018) 𝑛 ≥ 30 𝑤 ≤ 0,1 erfüllt sind. → Kenngrößen der Poisson-Verteilung → Wahrscheinlichkeitsfunktion von 𝑋~Poiss (𝜆) 𝑊(𝑋 = 𝑖) =

𝑒

𝜆 𝑖!

𝑖 = 0, 1, 2, … , 𝑛

→ Verteilungsfunktion von 𝑋~Poiss (𝜆) 𝐹(𝑖) = 𝑊(𝑋 ≤ 𝑖) = → Erwartungswert von 𝑋~Poiss (𝜆) 𝐸(𝑋) = 𝜆 = 𝑛𝑤

34

𝑒

𝜆 𝑥!

Teil 1 Kapitel 2 Zufallsvariablen

→ Varianz und Standardabweichung von 𝑋~Poiss (𝜆) 𝑉𝑎𝑟(𝑋) = 𝜆 = 𝑛𝑤 𝜎=

𝑉𝑎𝑟(𝑋) = √𝜆 = √𝑛𝑤

Beispiel 6: Eine Münze mit der Kopf-Wahrscheinlichkeit 𝑤 = 0,01 wird 1000mal unabhӓngig voneinander geworfen. Sei 𝑋: Anzahl der Köpfe Ermitteln Sie 𝑊(𝑋 = 3), 𝐹(5), 𝐸(𝑋), 𝑉𝑎𝑟(𝑋), 𝜎. Lösung 6 𝑋: Anzahl der Köpfe lässt sich durch 𝑋~Bin(1000; 0,01) beschreiben, aber auch durch 𝑋~Poiss (10) wobei 𝜆 = 1000(0,01) = 10 approximieren. Falls die Approximation betrachtet wird, dann ergeben sich die gewünschten Berechnungen durch 𝑊(𝑋 = 3) =

𝑒

𝐹(5) = 𝑊(𝑋 ≤ 5) =

10 = 0,0076 3! 𝑒

10 = 0,0671 𝑥!

𝐸(𝑋) = 𝑉𝑎𝑟(𝑋) = 𝜆 = 10 𝜎=

𝑉𝑎𝑟(𝑋) = √10 = 3,1623

Beispiel 7: Die Anzahl der Druckfehler pro Seite in einem Buch wird als Poissonverteilt mit dem Parameter 2 angesehen. Wie hoch ist die Wahrscheinlichkeit, dass eine zufӓllig ausgewӓhlte Buchseite höchstens einen Druckfehler enthӓlt? 35

Teil 1 Kapitel 2 Zufallsvariablen

Lösung 7 Die Schreibweise von 𝑋: Anzahl der Druckfehler auf einer zufӓllig ausgewӓhlten Buchseite lautet 𝑋~Poiss(2) Damit errechnet sich die Wahrscheinlichkeit, dass eine zufӓllig ausgewӓhlte Buchseite höchstens einen Druckfehler enthӓlt, durch 𝐹(1) = 𝑊(𝑋 ≤ 1) = 𝑊(𝑋 = 0) + 𝑊(𝑋 = 1) =

𝑒

= 0,406

𝑒 2 2 + = 3𝑒 0! 1!

2.1.2.3. Negative Binomialverteilung Ein Zufallsvorgang weise nur zwei mögliche Ausprӓgungen (mit Wahrscheinlichkeit 𝑤 für Ausprӓgung 1 und Wahrscheinlichkeit 1 − 𝑤 für Ausprӓgung 2) auf. Wenn man diesen Zufallsvorgang unabhӓngig voneinander bis zum 𝑏-ten Mal Eintritt der Ausprӓgung 1 durchführt, so ist 𝑋: Anzahl der Versuche bis zum 𝑏-ten Mal Eintritt der Ausprӓgung 1 (des Erfolgs) die negative binomialverteilte Zufallsvariable. Schreibweise: 𝑋~NegBin (𝑏, 𝑤) wobei 𝑏 und 𝑤 die Parameter von 𝑋 sind. → Kenngrößen der negativen Binomialverteilung → Wahrscheinlichkeitsfunktion von 𝑋~NegBin (𝑏, 𝑤) 𝑊(𝑋 = 𝑖) =

𝑖−1 𝑤 (1 − 𝑤) 𝑏−1

𝑖 = 𝑏, 𝑏 + 1, …

→ Verteilungsfunktion von 𝑋~NegBin (𝑏, 𝑤) 𝐹(𝑖) = 𝑊(𝑋 ≤ 𝑖) = 36

𝑥−1 𝑤 (1 − 𝑤) 𝑏−1

𝑖 = 𝑏, 𝑏 + 1, …

Teil 1 Kapitel 2 Zufallsvariablen

→ Erwartungswert von 𝑋~NegBin (𝑏, 𝑤) 𝐸(𝑋) =

𝑏 𝑤

→ Varianz und Standardabweichung von 𝑋~NegBin (𝑏, 𝑤) 𝑉𝑎𝑟(𝑋) =

𝜎=

𝑏(1 − 𝑤) 𝑤

𝑉𝑎𝑟(𝑋) =

𝑏(1 − 𝑤) 𝑤

Beispiel 8: Eine Münze mit der Kopf-Wahrscheinlichkeit 𝑤 = wird unabhӓngig voneinander bis zum zehnten Eintritt der Realisation „Kopf“ geworfen. Sei 𝑋: Anzahl der Versuche bis zum zehnten Mal Eintritt der Realisation „Kopf“ Bestimmen Sie Sie 𝑊(𝑋 = 15), 𝐹(20), 𝐸(𝑋), 𝑉𝑎𝑟(𝑋), 𝜎. Lösung 8 𝑋: Anzahl der Versuche bis zum zehnten Mal Eintritt der Realisation „Kopf“ kann durch die Schreibweise 𝑋~NegBin 10,

1 3

bezeichnet werden. Dann folgen 𝑊(𝑋 = 15) =

15 − 1 10 − 1

𝐹(20) = 𝑊(𝑋 ≤ 20) =

1 3

1−

𝑥−1 10 − 1 𝐸(𝑋) =

1 3

1 3

= 0,0045

1−

1 3

= 0,0919

10 = 30 1 3

37

Teil 1 Kapitel 2 Zufallsvariablen

𝑉𝑎𝑟(𝑋) =

𝜎=

10 1 − 1 3

1 3 = 60

𝑉𝑎𝑟(𝑋) = √60 = 7,746

2.1.2.4. Geometrische Verteilung Ein Zufallsvorgang weise nur zwei mögliche Ausprӓgungen (mit Wahrscheinlichkeit 𝑤 für Ausprӓgung 1 und Wahrscheinlichkeit 1 − 𝑤 für Ausprӓgung 2) auf. Wenn man diesen Zufallsvorgang unabhӓngig voneinander bis zum ersten Eintritt der Ausprӓgung 1 durchführt, so ist 𝑋: Anzahl der Versuche bis zum ersten Eintritt der Ausprӓgung 1 (des Erfolgs) die geometrisch verteilte Zufallsvariable. Schreibweise: 𝑋~Geom (𝑤) oder 𝑋~NegBin (1, 𝑤) wobei 𝑤 der Parameter von 𝑋 ist. → Kenngrößen der geometrischen Verteilung → Wahrscheinlichkeitsfunktion von 𝑋~Geom (𝑤) 𝑖 = 1, 2, …

𝑊(𝑋 = 𝑖) = 𝑤(1 − 𝑤)

→ Verteilungsfunktion von 𝑋~Geom (𝑤) 𝐹(𝑖) = 𝑊(𝑋 ≤ 𝑖) =

𝑤(1 − 𝑤)

→ Erwartungswert von 𝑋~Geom (𝑤) 𝐸(𝑋) =

38

1 𝑤

𝑖 = 1, 2, …

Teil 1 Kapitel 2 Zufallsvariablen

→ Varianz und Standardabweichung von 𝑋~Geom (𝑤) 𝑉𝑎𝑟(𝑋) =

1−𝑤 𝑤 1−𝑤 𝑤

𝑉𝑎𝑟(𝑋) =

𝜎=

→ Spezielle Eigenschaft der geometrischen Verteilung: Gedӓchtnislosigkeit Eine positive Zufallsvariable 𝑋 besitzt die Gedӓchtnislosigkeit, wenn für alle 𝑥, 𝑦 ≥ 0 gilt: 𝑊((𝑋 > 𝑥 + 𝑦 )|( 𝑋 > 𝑦)) = 𝑊(𝑋 > 𝑥) Bemerkung: Die geometrische Verteilung ist die einzige diskrete Zufallsvariable, die die Gedӓchtnislosigkeit besitzt. Beispiel 9: Eine Münze mit der Kopf-Wahrscheinlichkeit 𝑤 = wird unabhӓngig voneinander bis zum ersten Eintritt der Realisation „Kopf“ geworfen. Sei 𝑋: Anzahl der Versuche bis zum ersten Eintritt der Realisation „Kopf“ Berechnen Sie 𝑊(𝑋 = 7), 𝐹(10), 𝐸(𝑋), 𝑉𝑎𝑟(𝑋), 𝜎. Lösung 9 𝑋: Anzahl der Versuche bis zum ersten Eintritt der Realisation „Kopf“ kann durch die Schreibweise 𝑋~Geom

1 3

beschrieben werden. Daher folgen die gesuchten Berechnungen durch: 𝑊(𝑋 = 7) =

1 1 1− 3 3

𝐹(10) = 𝑊(𝑋 ≤ 10) =

= 0,0293

1 1 1− 3 3

= 0,9827

39

Teil 1 Kapitel 2 Zufallsvariablen

𝐸(𝑋) =

𝑉𝑎𝑟(𝑋) =

𝜎=

1 =3 1 3 1− 1 3

1 3 =6

𝑉𝑎𝑟(𝑋) = √6 = 2,4495

2.1.2.5. Hypergeometrische Verteilung Man betrachte eine Menge mit 𝑁 Elementen, wovon 𝑀 Elemente eine bestimmte Eigenschaft besitzen. Man entnehme 𝑛 Elemente zufӓllig ohne Zurücklegen aus dieser Menge. Sei 𝑋: Anzahl der entnommenen Elemente, die die bestimmte Eigenschaft besitzen Dabei definiert man 𝑋~Hypergeom (𝑛, 𝑁, 𝑀) als die hypergeometrisch verteilte Zufallsvariable. → Kenngrößen der hypergeometrischen Verteilung → Wahrscheinlichkeitsfunktion von 𝑋~Hypergeom (𝑛, 𝑁, 𝑀) 𝑀 𝑊(𝑋 = 𝑖) = 𝑖

𝑁−𝑀 𝑛−𝑖 𝑁 𝑛

𝑖 = 0, 1, 2, … . , 𝑛

→ Erwartungswert von 𝑋~Hypergeom (𝑛, 𝑁, 𝑀) 𝐸(𝑋) =

𝑛𝑀 𝑁

→ Varianz und Standardabweichung von 𝑋~Hypergeom (𝑛, 𝑁, 𝑀) 𝑉𝑎𝑟(𝑋) =

40

𝑀 𝑛𝑀 1− 𝑁 𝑁

𝑁−𝑛 𝑁−1

Teil 1 Kapitel 2 Zufallsvariablen

𝜎=

𝑉𝑎𝑟(𝑋) =

𝑛𝑀 𝑀 1− 𝑁 𝑁

𝑁−𝑛 𝑁−1

Beispiel 10: In einer Urne liegen 30 Kugeln, von denen 5 weiß und 25 blau sind. 8 Kugeln werden zufӓllig ohne Zurücklegen gezogen. Mit welcher Wahrscheinlichkeit entnimmt man genau 4 weiße Kugeln? Was ist der Erwartungswert und die Varianz der Anzahl der entnommenen weißen Kugeln? Lösung 10 Sei 𝑋: Anzahl der entnommenen weißen Kugeln mit der Schreibweise 𝑋~Hypergeom (8, 30, 5) Damit gelten 5 𝑊(𝑋 = 4) = 4

𝐸(𝑋) = 8 𝑉𝑎𝑟(𝑋) = 8

5 30

25 4 = 0,0108 30 8

5 = 1,3333 30

1−

5 30

30 − 8 = 0,8429 30 − 1

Aufgaben 2.1 1. Die Zufallsvariable 𝑋 sei definiert als die Differenz zwischen der Anzahl der Köpfe und Zahlen, wenn eine ideale Münze 𝑛-mal unabhӓngig voneinander geworfen wird. Bestimmen Sie die Wahrscheinlichkeitsfunktion von 𝑋. Lösung 1 Tabelle 2.1 zeigt sowohl die möglichen Anzahl der Köpfe und Zahlen als auch 𝑋.

41

Teil 1 Kapitel 2 Zufallsvariablen

Tabelle 2.1: Mögliche Anzahl der Köpfe, Anzahl der Zahlen und 𝑋 Anzahl der Köpfe 0 1 2 3 4 𝑖 … 𝑛

𝑋 0 − 𝑛 = −𝑛 1 − (𝑛 − 1) = 2 − 𝑛 2 − (𝑛 − 2) = 4 − 𝑛 3 − (𝑛 − 3) = 6 − 𝑛 8−𝑛 2𝑖 − 𝑛 … 𝑛

Anzahl der Zahlen 𝑛 𝑛−1 𝑛−2 𝑛−3 𝑛−4 𝑛−𝑖 … 0

Sei 𝑌: Anzahl der Köpfe mit der Schreibweise 𝑌~Bin 𝑛,

1 2

wobei 𝑊(𝑌 = 𝑖) =

𝑛 𝑖

1 2

1−

1 2

=

1 2

𝑛 𝑖

𝑖 = 0, 1, 2, … . , 𝑛

Damit lässt sich 𝑊(𝑋 = 2𝑖 − 𝑛) = 𝑊(𝑌 = 𝑖) =

1 2

𝑛 𝑖

𝑖 = 0, 1, 2, … . , 𝑛

Ersetzt man 2𝑖 − 𝑛 durch 𝑥, dann gilt 𝑥 = 2𝑖 − 𝑛 und folgt 𝑖=

𝑛+𝑥 2

Daher ergibt sich 𝑊(𝑋 = 𝑥) = 𝑊 𝑌 =

42

𝑛 𝑛+𝑥 = 𝑛+𝑥 2 2

1 2

𝑥 = −𝑛, 2 − 𝑛, 4 − 𝑛, … , 𝑛

Teil 1 Kapitel 2 Zufallsvariablen

2. In einem Kartenspiel mit nummerierten 50 Karten haben Sie sich entschieden, dass Sie beim Ziehen einer Karte mit der Nummer entweder größer als 40 oder zwischen 30 und 45 gewinnen. a) Sie ziehen die Karten 12-mal unabhängig voneinander. Wie groß ist die Wahrscheinlichkeit, dass Sie mindestens 5-mal gewinnen? Approximieren Sie die Wahrscheinlichkeit auch durch die Poisson-Verteilung. b) Wie hoch ist die Wahrscheinlichkeit, dass Sie mindestens 4 Karten bis zum ersten Gewinn ziehen müssen? c) Mit welcher Wahrscheinlichkeit ziehen Sie 8 Karten bis zum dritten Gewinn? Lösung 2 Seien 𝐺: Gewinn bei einer beliebigen Ziehung 𝐾: Kartennummer Nach dem Additionssatz gilt 𝑊(𝐺) = 𝑊((𝐾 > 40) ∪ (30 < 𝐾 < 45)) = 𝑊(𝐾 > 40) + 𝑊(30 < 𝐾 < 45) − 𝑊((𝐾 > 40) ∩ (30 < 𝐾 < 45)) = 𝑊(𝐾 > 40) + 𝑊(30 < 𝐾 < 45) − 𝑊(40 < 𝐾 < 45) =

10 14 4 20 2 + − = = 50 50 50 50 5

a) Ansatz 1: Lösung durch die Binomialverteilung Sei 𝑋: Anzahl der Gewinne Dann ist die Schreibweise von 𝑋 gegeben durch 𝑋~Bin 12,

2 5

Damit errechnet sich die Wahrscheinlichkeit, dass Sie mindestens 5-mal gewinnen, durch 43

Teil 1 Kapitel 2 Zufallsvariablen

𝑊(𝑋 ≥ 5) = 1 − 𝑊(𝑋 < 5) =1−

2 5

12 𝑥

1−

2 5

= 1 − 0,4382 = 0,5618

Ansatz 2: Lösung durch die Poisson-Verteilung-Approximation Es gilt 2 = 4,8 5

𝜆 = 𝑛𝑤 = 12 Dann folgt

𝑋~Poiss(4,8) Daher wird die gesuchte Wahrscheinlichkeit folgendermaßen berechnet: 𝑊(𝑋 ≥ 5) = 1 − 𝑊(𝑋 < 5) = 1 −

,

𝑒

4,8 = 1 − 0,4763 = 0,5237 𝑥!

b) Sei 𝑋: Anzahl der Ziehungen bis zum ersten Gewinn Dann lautet die Schreibweise von 𝑋: 𝑋~Geom

2 5

Damit ergibt sich 𝑊(𝑋 ≥ 4) = 1 − 𝑊(𝑋 < 4) = 1 −

2 2 1− 5 5

= 1 − 0,784 = 0,216

c) Sei 𝑋: Anzahl der Ziehungen bis zum dritten Mal Gewinn Dann ist die Schreibweise von 𝑋 durch 𝑋~NegBin 3,

44

2 5

Teil 1 Kapitel 2 Zufallsvariablen

dargestellt. Sie ziehen 8 Karten bis zum dritten Gewinn mit Wahrscheinlichkeit 𝑊(𝑋 = 8) =

8−1 3−1

2 5

1−

2 5

= 0,1045

3. Beweisen Sie, dass die geometrische Verteilung die Gedӓchtnislosigkeit besitzt. Lösung 3 Zur Erinnerung: Eine positive Zufallsvariable 𝑋 besitzt die Gedӓchtnislosigkeit, wenn für alle 𝑥, 𝑦 ≥ 0 gilt: 𝑊((𝑋 > 𝑥 + 𝑦) | (𝑋 > 𝑦)) = 𝑊(𝑋 > 𝑥) Beweis: Die Wahrscheinlichkeitsfunktion von 𝑋~Geom(𝑤) ist 𝑊(𝑋 = 𝑖) = 𝑤(1 − 𝑤)

𝑖 = 1, 2, …

Nach bedingter Wahrscheinlichkeit folgt 𝑊((𝑋 > 𝑥 + 𝑦) |(𝑋 > 𝑦)) = = =

(1 − 𝑤) (1 − 𝑤)

𝑊((𝑋 > 𝑥 + 𝑦) ∩ (𝑋 > 𝑦)) 𝑊(𝑋 > 𝑦)

𝑊(𝑋 > 𝑥 + 𝑦) 𝑊(𝑋 > 𝑦) = (1 − 𝑤) = 𝑊(𝑋 > 𝑥) qed.

4. Ein System mit 4 Komponenten funktioniert nur dann, wenn mindestens 3 der 4 Komponenten funktionieren. Die Funktionstüchtigkeiten der Komponenten sind (stochastisch) unabhӓngig voneinander mit den Wahrscheinlichkeiten 𝑤 ,𝑤 ,𝑤 ,𝑤 . a) Beschreiben Sie die Anzahl der funktionstüchtigen Komponenten als eine diskrete Zufallsvariable 𝑋. b) Bestimmen Sie die Wahrscheinlichkeitsfunktion von 𝑋. c) Berechnen Sie die Wahrscheinlichkeit dafür, dass die Anzahl der funktionstüchtigen Komponenten kleiner als 2 ist. 45

Teil 1 Kapitel 2 Zufallsvariablen

d) Ermitteln Sie den Erwartungswert von 𝑋. e) Wie groß ist die Wahrscheinlichkeit, dass das System funktioniert? Lösung 4 a) Man definiert (𝑥 , 𝑥 , 𝑥 , 𝑥 ) als ein Elementarereignis, wobei für alle 𝑖 = 1, 2, 3, 4 gilt, dass 𝑥 = 1, falls Komponente 𝑖 funktionstüchtig ist, ansonsten 𝑥 = 0. Man kann die Zufallsvariable 𝑋: Anzahl der funktionstüchtigen Komponenten wie in Tabelle 2.2 definieren. Tabelle 2.2: Ereignisraum und Zufallsvariable 𝑋 für ein System mit 4 Komponenten 𝑆 (0,0,0,0) (1,0,0,0) (0,1,0,0) (0,0,1,0) (0,0,0,1) (1,1,0,0) (1,0,1,0) (1,0,0,1) (0,1,1,0) (0,1,0,1) (0,0,1,1) (1,1,1,0) (1,1,0,1) (1,0,1,1) (0,1,1,1) (1,1,1,1)

𝑋=𝑥 0 1 1 1 1 2 2 2 2 2 2 3 3 3 3 4

Weil 𝑋 nur die bestimmen Werte 0, 1, 2, 3, 4 annehmen kann, ist sie eine diskrete Zufallsvariable. b) Tabelle 2.3 gibt die Wahrscheinlichkeitsfunktion von 𝑋 an.

46

Teil 1 Kapitel 2 Zufallsvariablen

Tabelle 2.3: Wahrscheinlichkeitsfunktion von 𝑋 𝑋=𝑥 0 1

2

3 4

𝑤(𝑥) 𝑤(0) = 𝑤((0,0,0,0)) = (1 − 𝑤 )(1 − 𝑤 )(1 − 𝑤 )(1 − 𝑤 ) 𝑤(1) = 𝑤((1,0,0,0)) + 𝑤((0,1,0,0)) + 𝑤((0,0,1,0)) + 𝑤((0,0,0,1)) = 𝑤 (1 − 𝑤 )(1 − 𝑤 )(1 − 𝑤 ) + (1 − 𝑤 )𝑤 (1 − 𝑤 )(1 − 𝑤 ) + (1 − 𝑤 )(1 − 𝑤 )𝑤 (1 − 𝑤 ) + (1 − 𝑤 )(1 − 𝑤 )(1 − 𝑤 )𝑤 𝑤(2) = 𝑤((1,1,0,0)) + 𝑤((1,0,1,0)) + 𝑤((1,0,0,1)) + 𝑤((0,1,1,0)) + 𝑤((0,1,0,1)) + 𝑤((0,0,1,1)) = 𝑤 𝑤 (1 − 𝑤 )(1 − 𝑤 ) + 𝑤 (1 − 𝑤 )𝑤 (1 − 𝑤 ) + 𝑤 (1 − 𝑤 )(1 − 𝑤 )𝑤 + (1 − 𝑤 )𝑤 𝑤 (1 − 𝑤 ) + (1 − 𝑤 )𝑤 (1 − 𝑤 )𝑤 + (1 − 𝑤 )(1 − 𝑤 )𝑤 𝑤 𝑤(3) = 𝑤((1,1,1,0)) + 𝑤((1,1,0,1)) + 𝑤((1,0,1,1)) + 𝑤((0,1,1,1)) = 𝑤 𝑤 𝑤 (1 − 𝑤 ) + 𝑤 𝑤 (1 − 𝑤 )𝑤 + 𝑤 (1 − 𝑤 )𝑤 𝑤 +(1 − 𝑤 )𝑤 𝑤 𝑤 𝑤(4) = 𝑤((1,1,1,1)) = 𝑤 𝑤 𝑤 𝑤

c) Die Wahrscheinlichkeit dafür, dass die Anzahl der funktionstüchtigen Komponenten kleiner als 2 ist, errechnet sich durch 𝑊(𝑋 < 2) = 𝑊(𝑋 ≤ 1) = 𝐹(1) = 𝑤(0) + 𝑤(1) = 𝑤((0,0,0,0)) + 𝑤((1,0,0,0)) + 𝑤((0,1,0,0)) + 𝑤((0,0,1,0)) + 𝑤((0,0,0,1)) )(1 (1 − 𝑤 )(1 − 𝑤 )(1 − 𝑤 ) + 𝑤 (1 − 𝑤 )(1 − 𝑤 )(1 − 𝑤 ) = −𝑤 + (1 − 𝑤 )𝑤 (1 − 𝑤 )(1 − 𝑤 ) + (1 − 𝑤 )(1 − 𝑤 )𝑤 (1 − 𝑤 ) + (1 − 𝑤 )(1 − 𝑤 )(1 − 𝑤 )𝑤 d) Der Erwartungswert von 𝑋 lautet 𝐸(𝑋) = 0𝑤(0) + 1𝑤(1) + 2𝑤(2) + 3𝑤(3) + 4𝑤(4) = 𝑤(1) + 2𝑤(2) + 3𝑤(3) + 4𝑤(4) = [𝑤 (1 − 𝑤 )(1 − 𝑤 )(1 − 𝑤 ) + (1 − 𝑤 )𝑤 (1 − 𝑤 )(1 − 𝑤 ) + (1 − 𝑤 )(1 − 𝑤 )𝑤 (1 − 𝑤 ) + (1 − 𝑤 )(1 − 𝑤 )(1 − 𝑤 )𝑤 ] + 2[𝑤 𝑤 (1 − 𝑤 )(1 − 𝑤 ) + 𝑤 (1 − 𝑤 )𝑤 (1 − 𝑤 ) + 𝑤 (1 − 𝑤 )(1 − 𝑤 )𝑤 + (1 − 𝑤 )𝑤 𝑤 (1 − 𝑤 ) + (1 − 𝑤 )𝑤 (1 − 𝑤 )𝑤 + (1 − 𝑤 )(1 − 𝑤 )𝑤 𝑤 ] + 3[𝑤 𝑤 𝑤 (1 − 𝑤 ) + 𝑤 𝑤 (1 − 𝑤 )𝑤 + 𝑤 (1 − 𝑤 )𝑤 𝑤 +(1 − 𝑤 )𝑤 𝑤 𝑤 ] + 4[𝑤 𝑤 𝑤 𝑤 ] e) Weil mindestens 3 Komponenten funktionieren müssen, lässt sich die Wahrscheinlichkeit, dass das System funktioniert, errechnen durch 47

Teil 1 Kapitel 2 Zufallsvariablen

𝑊(𝑋 ≥ 3) = 𝑤(3) + 𝑤(4) = 𝑤 𝑤 𝑤 (1 − 𝑤 ) + 𝑤 𝑤 (1 − 𝑤 )𝑤 + 𝑤 (1 − 𝑤 )𝑤 𝑤 +(1 − 𝑤 )𝑤 𝑤 𝑤 + 𝑤 𝑤 𝑤 𝑤 5. Ein Warenposten bestehe aus 80 Teilen, unter denen 20 Teile fehlerhaft seien. Zur Qualitӓtskontrolle entnehme man zufӓllig 10 Teile ohne Zurücklegen aus diesem Warenposten. Der Warenposten wird angenommen, wenn man höchstens 3 fehlerhafte Teile findet. Berechnen Sie die Wahrscheinlichkeit für die Annahme des Warenpostens. Lösung 5 Sei 𝑋: Anzahl der entnommenen fehlerhaften Teile Dann gilt 𝑋~Hypergeom (10,80,20) Damit ergibt sich 𝑊(Annahme) = 𝑊(𝑋 ≤ 3) 20 60 20 60 20 60 20 60 9 8 0 10 1 2 7 = 0,788 + + + 3 = 80 80 80 80 10 10 10 10 2.2.

Stetige Zufallsvariablen

Eine stetige Zufallsvariable ist eine stetige Funktion, die jedem Elementarereignis aus dem Ereignisraum 𝑆 (mit nicht abzählbaren Werten) eine reelle Zahl 𝑥 als eine Realisation (Ausprӓgung) zuordnet. 2.2.1. Kenngrößen der stetigen Zufallsvariablen Analog zu den diskreten Zufallsvariablen ist eine stetige Zufallsvariable durch die Wahrscheinlichkeitsdichte, Verteilungsfunktion, den Erwartungswert und die Varianz vollstӓndig beschrieben. → Wahrscheinlichkeitsdichte (Dichtefunktion) Die Wahrscheinlichkeitsdichte 𝑓(𝑥) ≥ 0 ist eine stetige Funktion, welche der Wahrscheinlichkeit der Realisierungen der stetigen Zufallsvariable 𝑋 in ℝ oder in einem Intervall entspricht. Beispielhaft ist die Wahrscheinlichkeit, dass die stetige Zufallsvariable 𝑋 einen Wert im Intervall (𝑎, 𝑏) annimmt, gegeben durch 48

Teil 1 Kapitel 2 Zufallsvariablen

𝑊(𝑎 ≤ 𝑋 ≤ 𝑏) = 𝑊(𝑎 < 𝑋 ≤ 𝑏) = 𝑊(𝑎 ≤ 𝑋 < 𝑏) = 𝑊(𝑎 < 𝑋 < 𝑏) =

𝑓(𝑥)𝑑𝑥

Es gilt stets 𝑊(𝑥

≤𝑋≤𝑥

)=

𝑓(𝑥)𝑑𝑥 = 1

(Der Flӓcheninhalt unter der Wahrscheinlichkeitsdichte ist genau 1) Bemerkung: Man errechnet die Wahrscheinlichkeit in einem Intervall durch Summation bei diskreten Zufallsvariablen, aber durch Integration bei stetigen Zufallsvariablen. Eine Punktwahrscheinlichkeit ist nicht durchführbar für stetige Zufallsvariablen, bei denen die Wahrscheinlichkeiten nur für Intervalle angegeben werden können. Analog zu den Definitionen für diskrete Zufallsvariablen, kann man die Verteilungsfunktion, die komplementӓre Verteilungsfunktion, den Erwartungswert, die Varianz und die Standardabweichung für stetige Zufallsvariablen folgendermaßen definieren: → (Kumulative) Verteilungsfunktion 𝐹(𝑥) = 𝑊(𝑋 ≤ 𝑥) = 𝑊(𝑋 < 𝑥) =

𝑓(𝑥)𝑑𝑥

0 ≤ 𝐹(𝑥) ≤ 1 Die erste Ableitung der Verteilungsfunktion ergibt die Wahrscheinlichkeitsdichte: 𝑑𝐹(𝑥) = 𝑓(𝑥) 𝑑𝑥 → Komplementӓre Verteilungsfunktion 𝐹 (𝑥) = 𝑊(𝑋 > 𝑥) = 𝑊(𝑋 ≥ 𝑥) =

𝑓(𝑥)𝑑𝑥

Es gilt stets 49

Teil 1 Kapitel 2 Zufallsvariablen

𝐹(𝑥) + 𝐹 (𝑥) = 1 → Erwartungswert 𝐸(𝑋) =

𝑥 𝑓(𝑥)𝑑𝑥

Die Linearitӓt vom Erwartungswert wird wie folgt dargelegt: 𝐸(𝑎𝑋 + 𝑏) = 𝑎𝐸(𝑋) + 𝑏 wobei 𝑎, 𝑏 die Konstanten sind. Bemerkung: Falls 𝑋 eine nichtnegative stetige Zufallsvariable ist, gilt auch 𝐸(𝑋) =

𝐹 (𝑥)𝑑𝑥

→ Varianz 𝑉𝑎𝑟(𝑋) = 𝜎 =

(𝑥 − 𝐸(𝑋)) 𝑓(𝑥)𝑑𝑥 = 𝐸(𝑋 ) − (𝐸(𝑋))

Es gilt 𝑉𝑎𝑟(𝑎𝑋 + 𝑏) = 𝑎 𝑉𝑎𝑟(𝑋) wobei 𝑎, 𝑏 die Konstanten sind. → Standardabweichung 𝜎=

𝑉𝑎𝑟(𝑋)

Beispiel 1: Gegeben ist die Funktion 𝑓(𝑥) =

2𝑥

0≤𝑥≤1 0 sonst

a) Überprüfen Sie, dass 𝑓(𝑥) die Wahrscheinlichkeitsdichte für eine stetige Zufallsvariable 𝑋 ist. b) Berechnen Sie 𝐸(𝑋), 𝑉𝑎𝑟(𝑋), 𝐸(6𝑋 − 5), 𝑉𝑎𝑟(3𝑋 − 2). 50

Teil 1 Kapitel 2 Zufallsvariablen

Lösung 1 a) 𝑓(𝑥) ist eine Wahrscheinlichkeitsdichte für 𝑋, weil sie über die folgenden Eigenschaften verfügt: 𝑓(𝑥) ≥ 0 𝑓(𝑥)𝑑𝑥 =

2𝑥𝑑𝑥 = 1

b) Die gesuchten Erwartungswerte und Varianzen sind gegeben durch: 𝐸(𝑋) =

𝑥𝑓(𝑥)𝑑𝑥 =

𝑥2𝑥𝑑𝑥 =

𝐸(6𝑋 − 5) = 6𝐸(𝑋) − 5 = 6

𝐸(𝑋 ) =

𝑥 𝑓(𝑥)𝑑𝑥 =

𝑉𝑎𝑟(𝑋) = 𝐸(𝑋 ) − 𝐸(𝑋)

2 3

2 − 5 = −1 3

𝑥 2𝑥𝑑𝑥 =

=

2𝑥 𝑑𝑥 =

1 2 − 2 3

2𝑥 𝑑𝑥 =

=

1 2

1 = 0,0555 18

𝑉𝑎𝑟(3𝑋 − 2) = 3 𝑉𝑎𝑟(𝑋) = 9𝑉𝑎𝑟(𝑋) =

9 = 0,5 18

2.2.2. Spezielle stetige Zufallsvariablen In diesem Abschnitt werden spezielle stetige Zufallsvariablen einschließlich der Gleichverteilung, Exponentialverteilung, Normalverteilung und GammaVerteilung beschrieben. 2.2.2.1. Gleichverteilung (Rechteckverteilung, Uniformverteilung) Die Gleichverteilung ist eine stetige Zufallsvariable, die auf einem bestimmten Intervall (𝑎, 𝑏) definiert ist, bei der jede Realisation in diesem Intervall (𝑎, 𝑏) gleich möglich (gleich wahrscheinlich) ist. Schreibweise: 𝑋~Uniform(𝑎, 𝑏) → Kenngrößen der Gleichverteilung 51

Teil 1 Kapitel 2 Zufallsvariablen

→ Wahrscheinlichkeitsdichte von 𝑋~Uniform(𝑎, 𝑏) (s. Abbildung 2.4) 𝑓(𝑥) =

1 𝑏−𝑎

𝑎 𝑥) Bemerkung: Die Exponentialverteilung ist die einzige stetige Zufallsvariable, die die Gedӓchtnislosigkeit besitzt. Beispiel 4 (fortgesetzt): Die Lebenszeit einer Maschine sei exponentialverteilt mit dem Parameter

pro Monat. Mit welcher Wahrscheinlichkeit betrӓgt die

Lebenszeit dieser Maschine mindestens 20 Monate, gegeben dass sie schon 12 Monate überschritten hat? Lösung 4 (fortgesetzt) Aus Beispiel 4 gilt 𝑋: Lebenszeit der Maschine 56

Teil 1 Kapitel 2 Zufallsvariablen

mit 𝑋~exp

1 10

Nach der Gedӓchtnislosigkeit der Exponentialverteilung ergibt sich die gewünschte Wahrscheinlichkeit 𝑊(𝑋 ≥ 20 | 𝑋 > 12) = 𝑊(𝑋 ≥ 8) = 𝑊(𝑋 > 8) = 𝐹 (8) = 𝑒 = 0,4493

.

=𝑒

,

→ Weitere Eigenschaften der Exponentialverteilung Seien 𝑋 ~exp(𝜆 ) 𝑋 ~exp(𝜆 ) zwei unabhӓngige und exponentialverteilte Zufallsvariablen. Die Exponentialverteilung besitzt zwei spezielle Eigenschaften: (1) Man beweist, dass 𝑊(𝑋 < 𝑋 ) =

𝜆 𝜆 +𝜆

𝑊(𝑋 < 𝑋 ) =

𝜆 𝜆 +𝜆

(2) Definiert man 𝑍 = min(𝑋 , 𝑋 ) Dann gilt 𝑍~exp(𝜆 + 𝜆 ) 2.2.2.3. Normalverteilung (Gauß-Verteilung, Glockenkurve) Eine stetige Zufallsvariable 𝑋 heißt normalverteilt, falls ihre Wahrscheinlichkeitsdichte durch sogenannte (Gauß’sche) Glockenkurve beschrieben ist. Schreibweise 𝑋~𝑁(𝜇, 𝜎 ) 57

Teil 1 Kapitel 2 Zufallsvariablen

wobei 𝜇 und 𝜎 die Parameter von 𝑋 sind.

Abbildung 2.7: Wahrscheinlichkeitsdichte von 𝑋~𝑁(𝜇, 𝜎 ) → Kenngrößen der Normalverteilung → Wahrscheinlichkeitsdichte von 𝑋~𝑁(𝜇, 𝜎 ) (s. Abbildung 2.7) 𝑓(𝑥) =

1 𝜎√2𝜋

(

𝑒

) /

−∞ 9) + 𝑊(𝑋 < −1) =𝑊

𝑋−4 √10

>

9−4 √10

+𝑊

=𝑊 𝑍>

𝑋−4 5

√10

√10


1,5811) = 2(1 − 𝑊(𝑍 ≤ 1,5811)) = 2 1 − Φ(1,5811) ≅ 2(1 − 0,9429) = 0,1142 62

Teil 1 Kapitel 2 Zufallsvariablen

→ Approximation (Annӓherung) der Binomialverteilung durch die Standardnormalverteilung Die Wahrscheinlichkeitsfunktion einer Binomialverteilung nӓhert sich mit wachsendem 𝑛 immer der (Gauß’schen) Glockenkurve der Normalverteilung. Sei 𝑋~Bin (𝑛, 𝑤) mit Erwartungswert und Varianz 𝐸(𝑋) = 𝑛𝑤 𝑉𝑎𝑟(𝑋) = 𝑛𝑤(1 − 𝑤) Die Faustregeln für die Zulӓssigkeitsprüfung lassen sich folgendermaßen feststellen (Bourier, 2018): 𝑛 ≥ 30 𝑛𝑤(1 − 𝑤) ≥ 9 0,1 < 𝑤 < 0,9 Die Approximation der Binomialverteilung durch die Standardnormalverteilung ist durch folgende Schritte gekennzeichnet: (1) 𝑊(𝑎 ≤ 𝑋 ≤ 𝑏) ≅ 𝑊(𝑎 − 0,5 ≤ 𝑋 ≤ 𝑏 + 0,5) 𝑎 − 0,5 − 𝑛𝑤 𝑋 − 𝑛𝑤 𝑏 + 0,5 − 𝑛𝑤 =𝑊 ≤ ≤ 𝑛𝑤(1 − 𝑤) 𝑛𝑤(1 − 𝑤) 𝑛𝑤(1 − 𝑤) =𝑊

𝑎 − 0,5 − 𝑛𝑤 𝑛𝑤(1 − 𝑤)

≤𝑍≤

𝑏 + 0,5 − 𝑛𝑤

𝑛𝑤(1 − 𝑤) 𝑎 − 0,5 − 𝑛𝑤 𝑏 + 0,5 − 𝑛𝑤 −Φ =Φ 𝑛𝑤(1 − 𝑤) 𝑛𝑤(1 − 𝑤)

63

Teil 1 Kapitel 2 Zufallsvariablen

(2) 𝑊(𝑋 = 𝑎) ≅ 𝑊(𝑎 − 0,5 ≤ 𝑋 ≤ 𝑎 + 0,5) 𝑎 − 0,5 − 𝑛𝑤 𝑋 − 𝑛𝑤 𝑎 + 0,5 − 𝑛𝑤 =𝑊 ≤ ≤ 𝑛𝑤(1 − 𝑤) 𝑛𝑤(1 − 𝑤) 𝑛𝑤(1 − 𝑤) =𝑊

𝑎 − 0,5 − 𝑛𝑤 𝑛𝑤(1 − 𝑤)

≤𝑍≤

𝑎 + 0,5 − 𝑛𝑤

𝑛𝑤(1 − 𝑤) 𝑎 + 0,5 − 𝑛𝑤 𝑎 − 0,5 − 𝑛𝑤 =Φ −Φ 𝑛𝑤(1 − 𝑤) 𝑛𝑤(1 − 𝑤)

Bemerkung: Bei der Approximation der Binomialverteilung durch die Standardnormalverteilung wird die sogenannte Stetigkeitskorrektur mit dem Einfügen von 0,5 vorgenommen. Beispiel 7: Eine Münze mit der Kopf-Wahrscheinlichkeit 𝑤 = 0,15 wird 1500mal unabhӓngig voneinander geworfen. 𝑋 sei die Anzahl der Köpfe. Berechnen Sie 𝑊(200 ≤ 𝑋 ≤ 300). Lösung 7 Ansatz 1: Lösung durch die Binomialverteilung: 𝑋~Bin (1500; 0,15) 𝑊(200 ≤ 𝑋 ≤ 300) =

1500 (0,15) (1 − 0,15) 𝑥

= 0,9689

Ansatz 2: Lösung durch die Standardnormalverteilung-Approximation: Die Zulӓssigkeitsprüfung für die Approximation durch die Standardnormalverteilung wird wie folgt erfüllt: 1500 > 30 1500(0,15)(1 − 0,15) = 191,25 > 9 0,1 < 𝑤 = 0,15 < 0,9

64

Teil 1 Kapitel 2 Zufallsvariablen

Dabei ist die gesuchte approximierte Wahrscheinlichkeit gegeben durch 𝑊(200 ≤ 𝑋 ≤ 300) ≅ 𝑊(200 − 0,5 ≤ 𝑋 ≤ 300 + 0,5) = 𝑊(199,5 ≤ 𝑋 ≤ 300,5) =𝑊

199,5 − 1500(0,15) 1500(0,15)(0,85)



𝑋 − 1500(0,15) 1500(0,15)(0,85)



300,5 − 1500(0,15) 1500(0,15)(0,85)

= 𝑊(−1,8439 ≤ 𝑍 ≤ 5,4594) = Φ(5,4594) − Φ(−1,8439) = Φ(5,4594) − 1 − Φ(1,8439) = Φ(5,4594) + Φ(1,8439) − 1 ≅ 1 + 0,9671 − 1 = 0,9671 2.2.2.3.2. Aus der Normalverteilung abgeleitete Verteilungen → Chi-Quadrat-Verteilung mit 𝒏 Freiheitsgraden Seien 𝑍 , 𝑍 , … , 𝑍 Dann heißt

unabhӓngige und standardnormalverteilte Zufallsvariablen. 𝜒 = 𝑍 + 𝑍 + ⋯+ 𝑍

Chi-Quadrat-verteilte Zufallsvariable mit 𝑛 Freiheitsgraden. → Erwartungswert von 𝜒 𝐸(𝜒 ) = 𝑛 → Varianz von 𝜒 𝑉𝑎𝑟(𝜒 ) = 2𝑛 Bemerkung: Man definiert einen speziellen Parameter 𝜒 𝑊 𝜒 ≥𝜒 ; =α 0 2,2)) 𝑊(𝑌 > 2,2)

=

(3 − 2,5) 0,5 = = 0,625 (3 − 2,2) 0,8

d) Seien 𝑋 : Lebenszeit der Komponente 1 𝑋 : Lebenszeit der Komponente 2 mit den Schreibweisen 𝑋 ~ exp

1 8

𝑋 ~ exp

1 6

So gilt 𝑋: Lebenszeit der Maschine mit 𝑋 = min(𝑋 , 𝑋 ) 71

Teil 1 Kapitel 2 Zufallsvariablen

wobei 𝑋~ exp

+

bzw. 𝑋~ exp

Dazu lautet der Erwartungswert der Lebenszeit der Maschine 𝐸(𝑋) =

=

= 3,43 Monate

Außerdem ist die Wahrscheinlichkeit, dass die Komponente 1 die erste Komponente ist, die versagt, gegeben durch 1 8

1 3 𝑊(𝑋 < 𝑋 ) = = 8 = 7 1 1 7 + 24 8 6 3. Die Körpergrößen der mӓnnlichen Studierenden an einer Uni seien normalverteilt mit den Parametern 1,75 m und 8. Wie groß ist die Wahrscheinlichkeit, dass ein zufӓllig ausgewӓhlter mӓnnlicher Studierender mindestens 1,80 m groß ist? Lösung 3 Die Schreibweise von 𝑋: Körpergröße eines zufӓllig ausgewӓhlten mӓnnlichen Studierenden ist 𝑋~𝑁(1,75; 8) Durch die 𝑍-Transformation errechnet sich die Wahrscheinlichkeit, dass ein zufӓllig ausgewӓhlter mӓnnlicher Studierender mindestens 1,80 m groß ist, durch 𝑊(𝑋 ≥ 1,80) = 𝑊 =𝑊 𝑍≥

1,80 − 1,75 √8

𝑋 − 1,75 √8



1,80 − 1,75 √8

= 𝑊(𝑍 ≥ 0,0177) = 1 − 𝑊(𝑍 < 0,0177)

= 1 − Φ(0,0177) ≅ 1 − 0,5080 = 0,4920 4. Lösen Sie die Aufgabe 2. 𝑎 aus Kapitel 2.1 mittels der Approximierung der Binomialverteilung durch die Standardnormalverteilung. 72

Teil 1 Kapitel 2 Zufallsvariablen

Lösung 4 Zur Erinnerung: Es gilt 𝑋~Bin 12,

2 5

aus der Aufgabe 2. 𝑎. Durch die Lösung mittels Binomialverteilung hat man ermittelt 𝑊(𝑋 ≥ 5) = 0,5618 Nach der Approximierung der Binomialverteilung durch die Standardnormalverteilung gilt 2 4,5 − 12 5 ≥ 2 3 2 12 ⎝ 12 5 5 5

𝑊(𝑋 ≥ 5) ≅ 𝑊(𝑋 ≥ 4,5) = 𝑊 ⎛

= 𝑊 ⎛𝑍 ≥ ⎝

𝑋 − 12

2 5 ⎞ 3 5 ⎠

2 5 ⎞ = 𝑊(𝑍 ≥ −0,1768) = 𝑊(𝑍 ≤ 0,1768) 2 3 12 5 5 ⎠ = Φ(0,1768) ≅ 0,5714

4,5 − 12

Bemerkung: Obwohl die Zulässigkeitsprüfung für die Approximation durch die Standardnormalverteilung nicht gerechtfertigt ist (𝑛 = 12 < 30), stimmen die beiden Ergebnisse fast überein. Es handelt sich nur um eine 𝑍-Transformation bei der Aufgabe 3, aber um eine Approximation durch die Standardnormalverteilung bei der Aufgabe 4.

73

Teil 1 Kapitel 3 Mehrdimensionale Zufallsvariablen

Kapitel 3 Mehrdimensionale Zufallsvariablen In den meisten Fällen handelt es sich um die gleichzeitige Analyse mehrerer Zufallsvariablen. In diesem Kapitel widmen wir uns den mehrdimensionalen (multivariaten) Zufallsvariablen, mit denen mehrere diskrete bzw. stetige Zufallsvariablen gemeinsam betrachtet werden können. Eine mehrdimensionale Zufallsvariable stellt eine Verallgemeinerung der zugehörigen eindimensionalen Zufallsvariable dar. In den ersten drei Abschnitten dieses Kapitels werden wir uns zunächst auf die grundsätzlichen und weiteren Eigenschaften der zweidimensionalen Zufallsvariablen beschränken. Anschließend werden wir die Summen mehrerer unabhängiger Zufallsvariablen und Grenzwertsätze der Wahrscheinlichkeitsrechnung behandeln. 3.1.

Zweidimensionale diskrete Zufallsvariablen

Ein 𝑛-tupler Vektor (𝑋 , 𝑋 , … , 𝑋 ) heißt 𝑛-dimensionale Zufallsvariable, falls 𝑋 , 𝑋 , … , 𝑋 Zufallsvariablen sind. Es sei nun (𝑋, 𝑌) eine zweidimensionale (bivariate) diskrete Zufallsvariable. Die Eigenschaften der univariaten diskreten Zufallsvariablen gelten analog erweitert auch für die zweidimensionalen diskreten Zufallsvariablen. → Kenngrößen der zweidimensionalen diskreten Zufallsvariablen Die gemeinsame Wahrscheinlichkeitsfunktion für 𝑋 und 𝑌 ist charakterisiert durch 𝑤(𝑥, 𝑦) = 𝑊((𝑋 = 𝑥) ∩ (𝑌 = 𝑦)) wobei für 𝑤(𝑥, 𝑦) gilt 𝑤(𝑥, 𝑦) = 1 © Der/die Herausgeber bzw. der/die Autor(en), exklusiv lizenziert durch Springer Fachmedien Wiesbaden GmbH, ein Teil von Springer Nature 2020 E. Bas, Einführung in Wahrscheinlichkeitsrechnung, Statistik und Stochastische Prozesse, https://doi.org/10.1007/978-3-658-32120-8_3

Teil 1 Kapitel 3 Mehrdimensionale Zufallsvariablen

Die Randwahrscheinlichkeitsfunktion (Marginalwahrscheinlichkeitsfunktion) für 𝑋 bzw. 𝑌 bezeichnet die (eindimensionale) Wahrscheinlichkeitsfunktion für 𝑋 bzw. 𝑌, die durch die Angabe der gemeinsamen Wahrscheinlichkeitsfunktion ermittelt wird: 𝑤 (𝑥) = 𝑊(𝑋 = 𝑥) =

𝑤(𝑥, 𝑦)

𝑤 (𝑦) = 𝑊(𝑌 = 𝑦) =

𝑤(𝑥, 𝑦)

Die gemeinsame Verteilungsfunktion für 𝑋 und 𝑌 folgt aus der gemeinsamen Wahrscheinlichkeitsfunktion: 𝐹(𝑥, 𝑦) = 𝑊((𝑋 ≤ 𝑥) ∩ (𝑌 ≤ 𝑦)) =

𝑤(𝑥, 𝑦)

Bemerkung: Falls für alle 𝑥, 𝑦 gilt, 𝑤(𝑥, 𝑦) = 𝑤 (𝑥)𝑤 (𝑦) dann heißen 𝑋 und 𝑌 (stochastisch) unabhӓngig voneinander. Ansonsten heißen 𝑋 und 𝑌 (stochastisch) abhӓngig voneinander. Beispiel 1: Für eine zweidimensionale diskrete Zufallsvariable (𝑋, 𝑌) sei folgende gemeinsame Wahrscheinlichkeitsfunktion gegeben: 𝑤(1,1) =

1 8

𝑤(1,2) =

1 6

𝑤(2,1) =

5 12

𝑤(2,2) =

7 24

a) Bestimmen Sie die Randwahrscheinlichkeitsfunktion für 𝑋 bzw. 𝑌. b) Sind 𝑋 und 𝑌 (stochastisch) unabhӓngig oder abhӓngig voneinander? Begründen Sie Ihre Antwort. Lösung 1 a) Die Randwahrscheinlichkeitsfunktion für 𝑋 ist gegeben durch 𝑤 (1) = 𝑊(𝑋 = 1) =

7 1 1 𝑤(1, 𝑦) = 𝑤(1,1) + 𝑤(1,2) = + = 8 6 24

75

Teil 1 Kapitel 3 Mehrdimensionale Zufallsvariablen

𝑤 (2) = 𝑊(𝑋 = 2) =

𝑤(2, 𝑦) = 𝑤(2,1) + 𝑤(2,2) =

7 17 5 + = 12 24 24

Analog folgt die Randwahrscheinlichkeitsfunktion für 𝑌 durch 𝑤 (1) = 𝑊(𝑌 = 1) =

13 1 5 𝑤(𝑥, 1) = 𝑤(1,1) + 𝑤(2,1) = + = 8 12 24

𝑤 (2) = 𝑊(𝑌 = 2) =

11 1 7 𝑤(𝑥, 2) = 𝑤(1,2) + 𝑤(2,2) = + = 6 24 24

b) 𝑋 und 𝑌 sind (stochastisch) abhӓngig voneinander, weil beispielsweise gilt 𝑤(1,1) = 3.2.

13 24

7 1 ≠ 𝑤 (1)𝑤 (1) = 24 8

Zweidimensionale stetige Zufallsvariablen

Es sei (𝑋, 𝑌) eine zweidimensionale (bivariate) stetige Zufallsvariable. Wiederum werden die Eigenschaften der univariaten stetigen Zufallsvariablen auf zweidimensionale stetige Zufallsvariablen verallgemeinert. → Kenngrößen der zweidimensionalen stetigen Zufallsvariablen 𝑓(𝑥, 𝑦) ist die gemeinsame Wahrscheinlichkeitsdichte für 𝑋 und 𝑌, falls die folgenden Eigenschaften erfüllt sind: 𝑓(𝑥, 𝑦) ≥ 0 𝑓(𝑥, 𝑦)𝑑𝑥𝑑𝑦 = 1 Durch die gemeinsame Wahrscheinlichkeitsdichte gilt 𝑊 (𝑎 < 𝑋 < 𝑏) ∩ (𝑐 < 𝑌 < 𝑑) =

76

𝑓(𝑥, 𝑦)𝑑𝑥𝑑𝑦

Teil 1 Kapitel 3 Mehrdimensionale Zufallsvariablen

Die Randwahrscheinlichkeitsdichte (Marginalwahrscheinlichkeitsdichte) für 𝑋 bzw. 𝑌 lässt sich aus der gemeinsamen Wahrscheinlichkeitsdichte 𝑓(𝑥, 𝑦) bestimmen: 𝑓 (𝑥) =

𝑓(𝑥, 𝑦)𝑑𝑦

𝑓 (𝑦) =

𝑓(𝑥, 𝑦)𝑑𝑥

Die gemeinsame Verteilungsfunktion für 𝑋 und 𝑌 ergibt sich durch 𝐹(𝑥, 𝑦) = 𝑊((𝑋 ≤ 𝑥) ∩ (𝑌 ≤ 𝑦)) =

𝑓(𝑥, 𝑦)𝑑𝑥𝑑𝑦

Durch die teilweisen (partiellen) Ableitungen der gemeinsamen Verteilungsfunktion nach 𝑥 und 𝑦 ergibt sich die entsprechende gemeinsame Wahrscheinlichkeitsdichte: 𝑓(𝑥, 𝑦) =

𝜕 𝐹(𝑥, 𝑦) 𝜕𝑥𝜕𝑦

Bemerkung: Falls für alle 𝑥, 𝑦 gilt, 𝑓(𝑥, 𝑦) = 𝑓 (𝑥)𝑓 (𝑦) dann heißen 𝑋 und 𝑌 (stochastisch) unabhӓngig voneinander. Ansonsten heißen 𝑋 und 𝑌 (stochastisch) abhӓngig voneinander. Beispiel 2: Gegeben ist 𝑓(𝑥, 𝑦) = 𝑥𝑦𝑒

(

)

0

0 < 𝑥 < ∞, 0 < 𝑦 < ∞ sonst

die gemeinsame Wahrscheinlichkeitsdichte von 𝑋 und 𝑌. Berechnen Sie 𝑊 (𝑋 > 1) ∩ (𝑌 < 1) . Lösung 2 Man ermittelt die gesuchte Wahrscheinlichkeit durch 77

Teil 1 Kapitel 3 Mehrdimensionale Zufallsvariablen

𝑊 (𝑋 > 1) ∩ (𝑌 < 1) = 3.3.

𝑥𝑦𝑒

(

)

𝑑𝑥𝑑𝑦 = 2𝑒

(−2𝑒

+ 1) = 0,1944

Weitere Eigenschaften der zweidimensionalen Zufallsvariablen

3.3.1. Parameter für den Zusammenhang zwischen den Zufallsvariablen 𝑿 und 𝒀 Bei einer zweidimensionalen Zufallsvariable ist die wesentliche Frage die nach dem Zusammenhang zwischen den Zufallsvariablen 𝑋 und 𝑌, der durch die Parameter „Kovarianz“ und „Korrelationskoeffizient“ gekennzeichnet werden kann. → Kovarianz zwischen den Zufallsvariablen 𝑿 und 𝒀 Die Kovarianz ist eine Maßzahl für den stochastischen Zusammenhang zwischen den Zufallsvariablen 𝑋 und 𝑌. Sie ist bestimmt durch 𝐶𝑜𝑣(𝑋, 𝑌) = 𝜎

=𝐸

𝑋 − 𝐸(𝑋) 𝑌 − 𝐸(𝑌)

= 𝐸(𝑋𝑌) − 𝐸(𝑋)𝐸(𝑌)

Damit gelten die folgenden Rechenregeln der Kovarianz: 𝐶𝑜𝑣(𝑋, 𝑌) = 𝐶𝑜𝑣(𝑌, 𝑋) 𝐶𝑜𝑣(𝑎𝑋, 𝑏𝑌) = 𝑎𝑏𝐶𝑜𝑣(𝑋, 𝑌) 𝐶𝑜𝑣(𝑋, 𝑋) = 𝑉𝑎𝑟(𝑋) 𝐶𝑜𝑣

𝑋,

𝑌

=

𝐶𝑜𝑣(𝑋 , 𝑌 )

Sind 𝑋 und 𝑌 (stochastisch) unabhӓngig voneinander, gilt stets 𝐶𝑜𝑣(𝑋, 𝑌) = 0. Bemerkung: Ist 𝐶𝑜𝑣(𝑋, 𝑌) = 0, gilt nicht allgemein, dass 𝑋 und 𝑌 (stochastisch) unabhӓngig voneinander sind. → Korrelationskoeffizient zwischen den Zufallsvariablen 𝑿 und 𝒀 Der Korrelationskoeffizient gibt die Richtung und Stӓrke des stochastischen linearen Zusammenhangs zwischen den Zufallsvariablen 𝑋 und 𝑌 an. Dieser ist bestimmt durch 78

Teil 1 Kapitel 3 Mehrdimensionale Zufallsvariablen

𝐾𝑜𝑟𝑟(𝑋, 𝑌) = 𝜌

=

𝜎 𝜎 𝜎

wobei 𝜎

= 𝐶𝑜𝑣(𝑋, 𝑌)

𝜎 : Standardabweichung von 𝑋 𝜎 : Standardabweichung von 𝑌 Der Korrelationskoeffizient liegt stets zwischen −1 und 1: −1 ≤ 𝜌

≤1

wobei 𝜌

> 0: Positiver (gleichsinniger) linearer Zusammenhang (positive lineare Korrelation)

𝜌

< 0: Negativer (gegensinniger) linearer Zusammenhang (negative lineare Korrelation) 𝜌

= 0: Kein linearer Zusammenhang (keine Korrelation), unkorreliert

bezeichnen. Bemerkung: Je nӓher der Korrelationskoeffizient bei 1 (−1) liegt, umso stӓrker ist der stochastische lineare positive (negative) Zusammenhang zwischen 𝑋 und 𝑌. Beispiel 3: Seien 𝑋 und 𝑌 zwei unabhӓngige diskrete Zufallsvariablen. a) Bestimmen Sie 𝐶𝑜𝑣(𝑋 + 𝑌, 𝑋 − 𝑌). b) Ermitteln Sie 𝐾𝑜𝑟𝑟(𝑋 + 𝑌, 𝑋 − 𝑌). Lösung 3 a) Es gilt 𝐶𝑜𝑣(𝑋 + 𝑌, 𝑋 − 𝑌) = 𝜎 , = 𝐶𝑜𝑣(𝑋, 𝑋) − 𝐶𝑜𝑣(𝑋, 𝑌) + 𝐶𝑜𝑣(𝑌, 𝑋) − 𝐶𝑜𝑣(𝑌, 𝑌) = 𝐶𝑜𝑣(𝑋, 𝑋) − 𝐶𝑜𝑣(𝑌, 𝑌) = 𝑉𝑎𝑟(𝑋) − 𝑉𝑎𝑟(𝑌) 79

Teil 1 Kapitel 3 Mehrdimensionale Zufallsvariablen

b) Der Korrelationskoeffizient zwischen 𝑋 und 𝑌 ist definiert als 𝐾𝑜𝑟𝑟(𝑋 + 𝑌, 𝑋 − 𝑌) = 𝜌

,

=

𝜎 𝜎

,

𝜎

wobei 𝜎

= 𝑉𝑎𝑟(𝑋) − 𝑉𝑎𝑟(𝑌)

,

𝜎

=

𝑉𝑎𝑟(𝑋 + 𝑌) =

𝑉𝑎𝑟(𝑋) + 𝑉𝑎𝑟(𝑌)

𝜎

=

𝑉𝑎𝑟(𝑋 − 𝑌) =

𝑉𝑎𝑟(𝑋) + 𝑉𝑎𝑟(𝑌)

Daraus gilt 𝐾𝑜𝑟𝑟(𝑋 + 𝑌, 𝑋 − 𝑌) = 𝜌 =

,

𝜎 , 𝜎 𝜎 𝑉𝑎𝑟(𝑋) − 𝑉𝑎𝑟(𝑌) =

𝑉𝑎𝑟(𝑋) + 𝑉𝑎𝑟(𝑌) 𝑉𝑎𝑟(𝑋) + 𝑉𝑎𝑟(𝑌) =

𝑉𝑎𝑟(𝑋) − 𝑉𝑎𝑟(𝑌) 𝑉𝑎𝑟(𝑋) + 𝑉𝑎𝑟(𝑌)

3.3.2. Erwartungswert und Varianz für zweidimensionale Zufallsvariablen Im Folgenden werden der Erwartungswert und die Varianz einer Linearkombination von 𝑋 und 𝑌, der bedingte Erwartungswert von 𝑋, die bedingte Varianz von 𝑋, der Erwartungswert von 𝑋 mit Berücksichtigung von 𝑌 und die Varianz von 𝑋 mit Berücksichtigung von 𝑌 dargelegt. → Erwartungswert und Varianz einer Linearkombination von 𝑿 und 𝒀 Man definiert den Erwartungswert und die Varianz einer Linearkombination von Zufallsvariablen 𝑋 und 𝑌 als 𝐸(𝑎𝑋 + 𝑏𝑌) = 𝑎𝐸(𝑋) + 𝑏𝐸(𝑌) 𝑉𝑎𝑟(𝑎𝑋 + 𝑏𝑌) = 𝑎 𝑉𝑎𝑟(𝑋) + 𝑏 𝑉𝑎𝑟(𝑌) + 2𝑎𝑏𝐶𝑜𝑣(𝑋, 𝑌) wobei 𝑎, 𝑏: Konstanten

80

Teil 1 Kapitel 3 Mehrdimensionale Zufallsvariablen

Bemerkung: Falls 𝑋 und 𝑌 unabhӓngig voneinander sind, gilt 𝑉𝑎𝑟(𝑎𝑋 + 𝑏𝑌) = 𝑎 𝑉𝑎𝑟(𝑋) + 𝑏 𝑉𝑎𝑟(𝑌) → Bedingter Erwartungswert von 𝑿 Seien 𝑋 und 𝑌 zwei diskrete Zufallsvariablen. Dann ist der bedingte Erwartungswert von 𝑋, vorausgesetzt dass 𝑌 = 𝑦 gilt, definiert durch 𝐸(𝑋 | 𝑌 = 𝑦) =

𝑥 𝑊(𝑋 = 𝑥|𝑌 = 𝑦) =

𝑥

𝑤(𝑥, 𝑦) 𝑤 (𝑦)

Seien 𝑋 und 𝑌 zwei stetige Zufallsvariablen. Völlig analog gilt 𝐸(𝑋 | 𝑌 = 𝑦) =

𝑥

𝑓(𝑥, 𝑦) 𝑑𝑥 𝑓 (𝑦)

→ Bedingte Varianz von 𝑿 Seien 𝑋 und 𝑌 zwei diskrete bzw. stetige Zufallsvariablen. Dann folgt die bedingte Varianz von 𝑋, vorausgesetzt dass 𝑌 = 𝑦 gilt, durch 𝑉𝑎𝑟(𝑋 | 𝑌 = 𝑦) = 𝐸(𝑋 | 𝑌 = 𝑦) − (𝐸(𝑋 | 𝑌 = 𝑦)) → Erwartungswert von 𝑿 mit Berücksichtigung von 𝒀 Seien 𝑋 und 𝑌 zwei diskrete Zufallsvariablen. Dann definiert man 𝐸(𝑋) auch durch 𝐸(𝑋) =

𝐸(𝑋 | 𝑌 = 𝑦) 𝑤 (𝑦)

Seien 𝑋 und 𝑌 zwei stetige Zufallsvariablen. Analog folgt 𝐸(𝑋) =

𝐸(𝑋 | 𝑌 = 𝑦) 𝑓 (𝑦) 𝑑𝑦

81

Teil 1 Kapitel 3 Mehrdimensionale Zufallsvariablen

Bemerkung: Seien 𝑋 und 𝑌 zwei diskrete bzw. stetige Zufallsvariablen. Dann ist 𝐸(𝑋) = 𝐸(𝐸(𝑋 | 𝑌)) äquivalent. → Varianz von 𝑿 mit Berücksichtigung von 𝒀 Seien 𝑋 und 𝑌 zwei diskrete bzw. stetige Zufallsvariablen. Dann gilt 𝑉𝑎𝑟(𝑋) = 𝐸(𝑉𝑎𝑟(𝑋 | 𝑌)) + 𝑉𝑎𝑟 𝐸(𝑋|𝑌) Beispiel 4: Ein zweifacher Würfelwurf wird betrachtet. a) Was ist der Erwartungswert und die Varianz der Summe der Augenzahlen unter der Bedingung, dass die erste Augenzahl 6 ist? b) Bestimmen Sie den Erwartungswert der Summe der Augenzahlen mit Berücksichtigung der ersten Augenzahl. Lösung 4 Seien 𝑋: Summe der Augenzahlen 𝑌: Erste Augenzahl a) Der bedingte Erwartungswert von 𝑋, gegeben dass 𝑌 = 6 gilt, wird ermittelt durch 𝐸(𝑋|𝑌 = 6) =

𝑥 𝑊(𝑋 = 𝑥|𝑌 = 6) 1 1 1 1 1 1 57 +8 +9 + 10 + 11 + 12 = 6 6 6 6 6 6 6 = 9,5 =7

Die bedingte Varianz von 𝑋, gegeben dass 𝑌 = 6 gilt, errechnet sich durch 𝑉𝑎𝑟(𝑋|𝑌 = 6) = 𝐸(𝑋 |𝑌 = 6) − (𝐸(𝑋|𝑌 = 6))

82

Teil 1 Kapitel 3 Mehrdimensionale Zufallsvariablen

wobei 𝐸(𝑋 |𝑌 = 6) =

=7

1 +8 6

1 +9 6

1 + 10 6

𝑥 𝑊(𝑋 = 𝑥|𝑌 = 6) 1 + 11 6

1 + 12 6

1 559 = = 93,167 6 6

Daraus ergibt sich 𝑉𝑎𝑟(𝑋|𝑌 = 6) = 93,167 − (9,5) = 2,917 b) Der Erwartungswert von 𝑋 mit Berücksichtigung von 𝑌 lautet 𝐸(𝑋) =

𝐸(𝑋 | 𝑌 = 𝑦) 𝑤 (𝑦)

1 1 1 1 1 1 1 1 = 2 ∙ + 3 ∙ + ⋯+ 7 ∙ + 3 ∙ + 4 ∙ + ⋯+ 8 ∙ 6 6 6 6 6 6 6 6 1 1 1 1 1 1 1 1 + 4 ∙ + 5 ∙ + ⋯+ 9 ∙ + 5 ∙ + 6 ∙ + ⋯ + 10 ∙ 6 6 6 6 6 6 6 6 1 1 1 1 1 1 1 1 + 7 ∙ + 8 ∙ + ⋯ + 12 ∙ + 6 ∙ + 7 ∙ + ⋯ + 11 ∙ 6 6 6 6 6 6 6 6 = 3.4.

27 33 39 45 51 57 252 + + + + + = =7 36 36 36 36 36 36 36

Summen unabhӓngiger Zufallsvariablen

Die Summen unabhӓngiger Zufallsvariablen finden zahlreiche Anwendungen in vielen Bereichen der Wahrscheinlichkeitsrechnung und der stochastischen Prozesse. Dabei stellt sich die Frage, welche diskrete bzw. stetige Zufallsvariable eine Summe bestimmter unabhӓngiger Zufallsvariablen ergibt. → Summen unabhӓngiger binomialverteilter Zufallsvariablen Die Summe unabhӓngiger binomialverteilter Zufallsvariablen ist wiederum binomialverteilt mit der Annahme, dass alle einzelnen binomialverteilten Zufallsvariablen die gleiche Erfolgswahrscheinlichkeit besitzen.

83

Teil 1 Kapitel 3 Mehrdimensionale Zufallsvariablen

Seien zunächst 𝑋 ~Bin(𝑛 , 𝑤) 𝑋 ~Bin(𝑛 , 𝑤) … 𝑋 ~Bin(𝑛 , 𝑤) unabhӓngige und binomialverteilte Zufallsvariablen. Dann gilt 𝑋

~Bin

𝑛 ,𝑤

Beispiel 5: Seien 𝑋 ~Bin 7,

1 3

𝑋 ~Bin 8,

1 3

zwei unabhӓngige und binomialverteilte Zufallsvariablen. Ermitteln Sie 𝑊(𝑋 + 𝑋 = 4). Lösung 5 Weil 𝑋 und 𝑋 unabhӓngige und binomialverteilte Zufallsvariablen sind, gilt (𝑋 + 𝑋 )~Bin 15,

1 3

Die gesuchte Wahrscheinlichkeit ist gegeben durch 𝑊(𝑋 + 𝑋 = 4) =

15 4

1 3

1−

1 3

= 0,1948

→ Summen unabhӓngiger Poisson-verteilter Zufallsvariablen Die Summe unabhӓngiger Poisson-verteilter Zufallsvariablen ist wiederum Poisson-verteilt.

84

Teil 1 Kapitel 3 Mehrdimensionale Zufallsvariablen

Seien zunächst 𝑋 ~Poiss(𝜆 ) 𝑋 ~Poiss(𝜆 ) … 𝑋 ~Poiss(𝜆 ) unabhӓngige und Poisson-verteilte Zufallsvariablen. Dann gilt 𝑋

~Poiss

𝜆

Beispiel 6: Die Anzahl der Druckfehler pro Seite in einem Buch sei unabhӓngig voneinander und Poisson-verteilt mit dem Parameter 2. Wenn 3 Buchseiten zufӓllig ausgewӓhlt werden, wie groß ist die Wahrscheinlichkeit, dass man insgesamt 5 Druckfehler auf diesen Buchseiten findet? Lösung 6 Sei 𝑋 : Anzahl der Druckfehler auf der zufӓllig ausgewӓhlten Buchseite 𝑖 mit der Schreibweise 𝑋 ~ Poiss(2)

𝑖 = 1, 2, 3

Dann folgt (𝑋 + 𝑋 + 𝑋 ) ~ Poiss(6) Die Wahrscheinlichkeit, dass man insgesamt 5 Druckfehler auf den zufӓllig ausgewӓhlten 3 Buchseiten findet, ist gegeben durch 𝑊(𝑋 + 𝑋 + 𝑋 = 5) =

𝑒

6 = 0,1606 5!

→ Summen unabhӓngiger exponentialverteilter Zufallsvariablen Die Summe unabhӓngiger exponentialverteilter Zufallsvariablen ist gammaverteilt mit der Annahme, dass alle einzelnen exponentialverteilten Zufallsvariablen den gleichen Parameter besitzen. 85

Teil 1 Kapitel 3 Mehrdimensionale Zufallsvariablen

Seien zunächst 𝑋 ~ exp (𝜆) 𝑋 ~ exp (𝜆) … 𝑋 ~ exp (𝜆) unabhӓngige und exponentialverteilte Zufallsvariablen. Dann gilt ~ gamma (𝑚, 𝜆)

𝑋

Beispiel 7: Die Zeitabstände zwischen dem Eintreffen zweier unmittelbar aufeinander folgender Anrufe seien unabhӓngig voneinander und exponentialverteilt mit dem Parameter 𝜆 =

pro Minute. Was ist der Erwartungswert der

Verweildauer bis zum zehnten Anruf? Lösung 7 Die Schreibweise von 𝑡 : Verweildauer bis zum zehnten Anruf ist 𝑡

~ gamma 10,

1 8

Damit errechnet sich der Erwartungswert der Verweildauer bis zum zehnten Anruf durch 𝐸(𝑡 ) =

10 = 80 Minuten 1 8

→ Summen unabhӓngiger normalverteilter Zufallsvariablen Die Summe unabhӓngiger normalverteilter Zufallsvariablen ist wiederum normalverteilt.

86

Teil 1 Kapitel 3 Mehrdimensionale Zufallsvariablen

Es seien 𝑋 ~𝑁(𝜇 , 𝜎 ) 𝑋 ~𝑁(𝜇 , 𝜎 ) … 𝑋 ~𝑁(𝜇 , 𝜎 ) unabhӓngige und normalverteilte Zufallsvariablen. Dabei gilt 𝑋

~𝑁

𝜇 ,

𝜎

Beispiel 8: Seien 𝑋 ~𝑁 100, 𝑋 ~𝑁 50,

1 2

1 3

zwei unabhӓngige und normalverteilte Zufallsvariablen. Berechnen Sie 𝑊(𝑋 + 𝑋 ≥ 152). Lösung 8 Weil 𝑋 und 𝑋 unabhӓngige und normalverteilte Zufallsvariablen sind, gilt (𝑋 + 𝑋 )~𝑁 150,

5 6

Weiterhin folgt 𝑊(𝑋 + 𝑋 ≥ 152) = 𝑊

=𝑊 𝑍≥

152 − 150 5/6

𝑋 + 𝑋 − 150 5/6



152 − 150 5/6

= 𝑊(𝑍 ≥ 2,191) = 1 − 𝑊(𝑍 < 2,191)

= 1 − Φ(2,191) ≅ 1 − 0,9857 = 0,0143 Beispiel 9: Seien 𝑋 ~ Bin(50; 0,4) und 𝑌 ~ Bin(75; 0,4) unabhӓngige und binomialverteilte Zufallsvariablen. Approximieren Sie die Wahrscheinlichkeit 𝑊(𝑋 + 𝑌 ≥ 30) durch die Standardnormalverteilung. 87

Teil 1 Kapitel 3 Mehrdimensionale Zufallsvariablen

Lösung 9 Durch die Stetigkeitskorrektur und 𝑍-Transformation gilt 𝑊(𝑋 + 𝑌 ≥ 30) ≅ 𝑊(𝑋 + 𝑌 ≥ 29,5) 𝑋 + 𝑌 − 𝐸(𝑋 + 𝑌) 29,5 − 𝐸(𝑋 + 𝑌) =𝑊 ≥ 𝑉𝑎𝑟(𝑋 + 𝑌) 𝑉𝑎𝑟(𝑋 + 𝑌) =𝑊 𝑍≥

29,5 − 𝐸(𝑋 + 𝑌) 𝑉𝑎𝑟(𝑋 + 𝑌)

𝐸(𝑋 + 𝑌) wird ermittelt durch 𝐸(𝑋) = (50)(0,4) = 20 𝐸(𝑌) = (75)(0,4) = 30 𝐸(𝑋 + 𝑌) = 𝐸(𝑋) + 𝐸(𝑌) = 20 + 30 = 50 𝑉𝑎𝑟(𝑋 + 𝑌) errechnet sich durch 𝑉𝑎𝑟(𝑋) = (50)(0,4)(1 − 0,4) = 12 𝑉𝑎𝑟(𝑌) = (75)(0,4)(1 − 0,4) = 18 𝑉𝑎𝑟(𝑋 + 𝑌) = 𝑉𝑎𝑟(𝑋) + 𝑉𝑎𝑟(𝑌) = 12 + 18 = 30 Daraus folgt 𝑊 𝑍≥

29,5 − 𝐸(𝑋 + 𝑌) 𝑉𝑎𝑟(𝑋 + 𝑌)

=𝑊 𝑍≥

29,5 − 50 √30

= 𝑊(𝑍 ≥ −3,743) = 𝑊(𝑍 ≤ 3,743) = Φ(3,743) ≅ 1 3.5.

Grenzwertsӓtze der Wahrscheinlichkeitsrechnung

In diesem Abschnitt werden die Grenzwertsätze, die die Höchstwahrscheinlichkeit einer Zufallsvariable oder das Grenzverhalten einer Reihe von Zufallsvariablen darstellen, betrachtet. Die Grenzwertsätze besitzen eine fundamentale Bedeutung in der Wahrscheinlichkeitsrechnung und in stochastischen Prozessen. → Markov-Ungleichung Sei 𝑋 eine nichtnegative Zufallsvariable. Nach der Markov-Ungleichung gilt für 𝑘>0 88

Teil 1 Kapitel 3 Mehrdimensionale Zufallsvariablen

𝑊(𝑋 ≥ 𝑘) ≤

𝜇 𝑘

wobei 𝐸(𝑋) = 𝜇 𝑘: Konstante Beispiel 10: Sie nehmen an, dass die Durchmesser der Kugeln in einer Fabrik unabhӓngig- und identisch-verteilt (u.i.v.) sind. Der Erwartungswert und die Standardabweichung vom Durchmesser einer zufällig ausgewählten Kugel werden jeweils als 4 mm und 0,5 mm angenommen. Wie groß ist die Höchstwahrscheinlichkeit, dass der Durchmesser einer entnommenen Kugel mindestens 5 mm beträgt? Lösung 10 Sei 𝑋: Durchmesser einer entnommenen Kugel Die Höchstwahrscheinlichkeit, dass der Durchmesser einer entnommenen Kugel mindestens 5 mm beträgt, errechnet sich durch 𝑊(𝑋 ≥ 5) ≤

𝜇 4 = = 0,8 5 5

nach der Markov-Ungleichung. → Chebyshev-Ungleichung Sei 𝑋 eine Zufallsvariable mit (endlichem) Erwartungswert 𝜇 und (endlicher) Varianz 𝜎 . Nach der Chebyshev-Ungleichung gilt für 𝑘 > 0 𝑊(|𝑋 − 𝜇| ≥ 𝑘) ≤

𝜎 𝑘

wobei 𝐸(𝑋) = 𝜇 𝑉𝑎𝑟(𝑋) = 𝜎 𝑘: Konstante 89

Teil 1 Kapitel 3 Mehrdimensionale Zufallsvariablen

Bemerkung: Die Chebyshev-Ungleichung bestimmt die Höchstwahrscheinlichkeit, dass eine Zufallsvariable 𝑋 mindestens in einer 𝑘-Umgebung vom Erwartungswert 𝜇 liegt. Beispiel 10 (fortgesetzt 1): Der Erwartungswert und die Standardabweichung vom Durchmesser einer zufällig ausgewählten Kugel werden jeweils als 4 mm und 0,5 mm angenommen. Berechnen Sie die Höchstwahrscheinlichkeit, dass der Durchmesser einer entnommenen Kugel mindestens 3 mm vom Erwartungswert abweicht. Lösung 10 (fortgesetzt 1) Sei 𝑋: Durchmesser einer entnommenen Kugel Nach der Chebyshev-Ungleichung folgt die gewünschte Höchstwahrscheinlichkeit 𝑊(|𝑋 − 4| ≥ 3) ≤

𝜎 0,5 1 = = 3 3 36

→ Zentraler Grenzwertsatz (ZGS) der Wahrscheinlichkeitsrechnung 𝑋 , 𝑋 , … , 𝑋 seien u.i.v. Zufallsvariablen mit (endlichem) Erwartungswert 𝜇 und (endlicher) Varianz 𝜎 . Dann gilt für 𝑛 → ∞ 𝑋 +𝑋 + ⋯ + 𝑋 − 𝑛𝜇 𝜎√𝑛

→ 𝑍 ~ 𝑁(0,1)

wobei 𝐸(𝑋 ) = 𝐸(𝑋 ) = ⋯ = 𝐸(𝑋 ) = 𝜇 𝑉𝑎𝑟(𝑋 ) = 𝑉𝑎𝑟(𝑋 ) = ⋯ = 𝑉𝑎𝑟(𝑋 ) = 𝜎 Bemerkung: Der zentrale Grenzwertsatz der Wahrscheinlichkeitsrechnung besagt, dass eine Summe von vielen u.i.v. Zufallsvariablen mit endlichem Erwartungswert und endlicher Varianz annähernd (approximativ) normalverteilt ist. Beispiel 10 (fortgesetzt 2): Der Erwartungswert und die Standardabweichung vom Durchmesser einer zufällig ausgewählten Kugel werden jeweils als 4 mm und 0,5 mm angenommen. Wie hoch ist die Wahrscheinlichkeit, dass die Summe der Durchmesser der entnommenen 1000 Kugeln mindestens 4010 mm betrӓgt? 90

Teil 1 Kapitel 3 Mehrdimensionale Zufallsvariablen

Lösung 10 (fortgesetzt 2 ) Nach dem zentralen Grenzwertsatz der Wahrscheinlichkeitsrechnung gilt 𝑋 +𝑋 + ⋯ + 𝑋

− (1000)4

0,5√1000

→ 𝑍 ~ 𝑁(0,1)

Daraus folgt 𝑊(𝑋 +𝑋 + ⋯ + 𝑋 =𝑊

=𝑊 𝑍≥

≥ 4010) 𝑋 +𝑋 + ⋯ + 𝑋

− (1000)4

0,5√1000



4010 − (1000)4 0,5√1000

4010 − (1000)4

= 𝑊(𝑍 ≥ 0,6325) = 1 − 𝑊(𝑍 < 0,6325) 0,5√1000 = 1 − Φ(0,6325) ≅ 1 − 0,7357 = 0,2643

→ Starkes Gesetz der Großen Zahlen 𝑋 , 𝑋 , … , 𝑋 seien u.i.v. Zufallsvariablen mit (endlichem) Erwartungswert 𝜇 und (endlicher) Varianz 𝜎 . Dann gilt für 𝑛 → ∞ 𝑋 +𝑋 + ⋯ + 𝑋 → 𝜇 𝑛 wobei 𝐸(𝑋 ) = 𝐸(𝑋 ) = ⋯ = 𝐸(𝑋 ) = 𝜇 Bemerkung: Nach dem starken Gesetz der großen Zahlen konvergiert der Durchschnitt einer Reihe von u.i.v. Zufallsvariablen stochastisch mit der Wahrscheinlichkeit 1 zum Erwartungswert dieser Zufallsvariablen. Beispiel 10 (fortgesetzt 3): Der Erwartungswert und die Standardabweichung vom Durchmesser einer zufällig ausgewählten Kugel sind jeweils als 4 mm und 0,5 mm angenommen. Nach dem starken Gesetz der großen Zahlen gilt 𝑋 +𝑋 + ⋯ + 𝑋 1000

→ 4

→ Schwaches Gesetz der Großen Zahlen 𝑋 , 𝑋 , … , 𝑋 seien u.i.v. Zufallsvariablen mit (endlichem) Erwartungswert 𝜇 und (endlicher) Varianz 𝜎 . Dann gilt für alle 𝜀 > 0 und 𝑛 → ∞ 91

Teil 1 Kapitel 3 Mehrdimensionale Zufallsvariablen

𝑊

𝑋 +𝑋 + ⋯ + 𝑋 − 𝜇 ≥𝜀 →0 𝑛

wobei 𝐸(𝑋 ) = 𝐸(𝑋 ) = ⋯ = 𝐸(𝑋 ) = 𝜇 Aufgaben 1. In einer Urne befinden sich 3 rote, 4 blaue und 2 schwarze Kugeln. Man greift zufӓllig 2 Kugeln ohne Zurücklegen heraus. Seien 𝑋: Anzahl der roten Kugeln 𝑌: Anzahl der schwarzen Kugeln a) Berechnen Sie die gemeinsame Wahrscheinlichkeitsfunktion von 𝑋 und 𝑌. b) Bestimmen Sie die Randwahrscheinlichkeitsfunktion von 𝑋 bzw. 𝑌. c) Sind 𝑋 und 𝑌 (stochastisch) unabhӓngig oder abhӓngig voneinander? Begründen Sie Ihre Antwort. Lösung 1 a) Die gemeinsame Wahrscheinlichkeitsfunktion von 𝑋 und 𝑌 lautet:

92

3 𝑤(0,0) = 0

4 2 9 2

2 0 = 6 36

3 𝑤(0,1) = 0

4 1 9 2

2 1 = 8 36

3 𝑤(1,0) = 1

4 1 9 2

2 0 = 12 36

3 𝑤(1,1) = 1

4 0 9 2

2 1 = 6 36

Teil 1 Kapitel 3 Mehrdimensionale Zufallsvariablen

3 𝑤(0,2) = 0

4 0 9 2

2 2 = 1 36

3 𝑤(2,0) = 2

4 0 9 2

2 0 = 3 36

wobei gilt: 𝑤(0,0) + 𝑤(0,1) + 𝑤(1,0) + 𝑤(1,1) + 𝑤(0,2) + 𝑤(2,0) = 1 b) Die Randwahrscheinlichkeitsfunktion von 𝑋 ist gegeben durch 𝑤 (0) = 𝑤(0,0) + 𝑤(0,1) + 𝑤(0,2) = 𝑤 (1) = 𝑤(1,0) + 𝑤(1,1) =

8 1 15 6 + + = 36 36 36 36

18 12 6 + = 36 36 36

𝑤 (2) = 𝑤(2,0) =

3 36

wobei gilt: 𝑤 (0) + 𝑤 (1) + 𝑤 (2) = 1 Die Randwahrscheinlichkeitsfunktion von 𝑌 ergibt sich durch 𝑤 (0) = 𝑤(0,0) + 𝑤(1,0) + 𝑤(2,0) = 𝑤 (1) = 𝑤(0,1) + 𝑤(1,1) =

21 6 12 3 + + = 36 36 36 36

6 14 8 + = 36 36 36

𝑤 (2) = 𝑤(0,2) =

1 36

wobei gilt: 𝑤 (0) + 𝑤 (1) + 𝑤 (2) = 1 c) 𝑋 und 𝑌 sind (stochastisch) abhӓngig voneinander, weil beispielsweise gilt: 𝑤(0,0) =

6 15 ≠ 𝑤 (0)𝑤 (0) = 36 36

21 36 93

Teil 1 Kapitel 3 Mehrdimensionale Zufallsvariablen

2. Überprüfen Sie, ob 𝑓(𝑥, 𝑦) = 𝑥 + 𝑦 ; 0 < 𝑥 < 1, 0 < 𝑦 < 1 eine gemeinsame Wahrscheinlichkeitsdichte für die stetigen Zufallsvariablen 𝑋 und 𝑌 sein kann. Ermitteln Sie auch a) 𝑊

𝑋>

∩ 𝑌
∩ 𝑌< 2 2

/

/

(𝑥 + 𝑦)𝑑𝑥𝑑𝑦 =

= /

1 3 1 𝑦 + 𝑑𝑦 = 2 8 4

b) Die Randwahrscheinlichkeitsdichte von 𝑋 bzw. 𝑌 lautet 𝑓 (𝑥) =

(𝑥 + 𝑦)𝑑𝑦 = 𝑥 +

1 2

𝑓 (𝑦) =

(𝑥 + 𝑦)𝑑𝑥 = 𝑦 +

1 2

c) Die gemeinsame Verteilungsfunktion für 𝑋 und 𝑌 folgt 𝐹(𝑥, 𝑦) =

94

(𝑥 + 𝑦)𝑑𝑥𝑑𝑦 =

𝑥 𝑥 𝑦 𝑦 𝑥 𝑥𝑦(𝑥 + 𝑦) + 𝑦𝑥 𝑑𝑦 = + = 2 2 2 2

Teil 1 Kapitel 3 Mehrdimensionale Zufallsvariablen

d) Der bedingte Erwartungswert von 𝑋, mit der Bedingung dass 𝑌 = 𝑦 gilt, ist gegeben durch 𝐸(𝑋 | 𝑌 = 𝑦) =

𝑥 =

𝑓(𝑥, 𝑦) 𝑑𝑥 = 𝑓 (𝑦)

𝑥

2 + 3𝑦 6𝑦 + 3

𝑥+𝑦 𝑑𝑥 = 1 𝑦+ 2

2𝑥(𝑥 + 𝑦) 𝑑𝑥 2𝑦 + 1

Daraus folgt 1 2+3 1 3 =3 = 𝐸 𝑋 𝑌= 1 3 +3 5 6 3 3. Betrachten Sie das Beispiel 1 in diesem Kapitel mit folgender gemeinsamen Wahrscheinlichkeitsfunktion für die diskreten Zufallsvariablen 𝑋 und 𝑌: 𝑤(1,1) =

1 8

𝑤(1,2) =

1 6

𝑤(2,1) =

5 12

𝑤(2,2) =

7 24

und mit folgenden Randwahrscheinlichkeitsfunktionen: 𝑤 (1) =

7 17 , 𝑤 (2) = 24 24

𝑤 (1) =

13 11 , 𝑤 (2) = 24 24

a) Berechnen Sie 𝐶𝑜𝑣(𝑋, 𝑌) und 𝜌

zwischen den Zufallsvariablen 𝑋 und 𝑌.

b) Ermitteln Sie 𝐸(𝑋|𝑌 = 1) und 𝑉𝑎𝑟(𝑋|𝑌 = 1). Lösung 3 a) 𝐸(𝑋𝑌), 𝐸(𝑋) und 𝐸(𝑌) sind bestimmt durch 𝐸(𝑋𝑌) = (1)(1)

1 1 5 7 59 + (1)(2) + (2)(1) + (2)(2) = 8 6 12 24 24 𝐸(𝑋) = 1

7 17 41 +2 = 24 24 24

𝐸(𝑌) = 1

13 11 35 +2 = 24 24 24 95

Teil 1 Kapitel 3 Mehrdimensionale Zufallsvariablen

Damit ergibt sich 𝐶𝑜𝑣(𝑋, 𝑌) = 𝜎

= 𝐸(𝑋𝑌) − 𝐸(𝑋)𝐸(𝑌) =

59 41 − 24 24

35 19 =− = −0,033 24 576

𝜎 errechnet sich durch 7 +2 24

𝐸(𝑋 ) = 1

𝑉𝑎𝑟(𝑋) = 𝐸(𝑋 ) − 𝐸(𝑋)

=

17 75 = 24 24 75 41 − 24 24

=

119 576

=

143 576

119 576

𝜎 = Völlig analog folgen

13 +2 24

𝐸(𝑌 ) = 1

𝑉𝑎𝑟(𝑌) = 𝐸(𝑌 ) − 𝐸(𝑌)

=

11 57 = 24 24 57 35 − 24 24

143 576

𝜎 = Folglich erhält man 𝜌

𝜎 = = 𝜎 𝜎

19 576 = −0,1457 119 143 576 576 −

b) Der bedingte Erwartungswert von 𝑋, gegeben dass 𝑌 = 1 gilt, ist gegeben durch 𝐸(𝑋|𝑌 = 1) = 1𝑊(𝑋 = 1|𝑌 = 1) + 2𝑊(𝑋 = 2|𝑌 = 1) 𝑤(1,1) 𝑤(2,1) = +2 = 𝑤 (1) 𝑤 (1)

96

1 5 8 + 2 12 13 13 24 24

=

23 = 1,7692 13

Teil 1 Kapitel 3 Mehrdimensionale Zufallsvariablen

Die bedingte Varianz von 𝑋, mit der Bedingung dass 𝑌 = 1 gilt, ergibt sich durch 43 23 − 13 13

=

30 169

1 5 8 + 4 12 13 13 24 24

=

43 13

𝑉𝑎𝑟(𝑋 | 𝑌 = 1) = 𝐸(𝑋 | 𝑌 = 1) − 𝐸(𝑋 | 𝑌 = 1)

=

= 0,1775 wobei gilt: 𝐸(𝑋 | 𝑌 = 1) = 1

𝑤(1,1) +2 𝑤 (1)

𝑤(2,1) = 𝑤 (1)

4. Eine Münze mit der Kopf-Wahrscheinlichkeit 𝑤 =

und ein idealer Würfel

werden jeweils 20-mal und 30-mal unabhӓngig voneinander geworfen. Seien 𝑋 die Anzahl der Köpfe und 𝑌 die Anzahl der Augenzahlen höchstens gleich 2. Berechnen Sie die Wahrscheinlichkeit, dass 𝑋 + 𝑌 mindestens 10 betrӓgt. Lösung 4 → Lösung durch die Binomialverteilung 𝑋 und 𝑌 sind durch die Schreibweisen 𝑋 ~ Bin 20,

1 3

𝑌 ~ Bin 30,

1 3

gekennzeichnet, wobei die Wahrscheinlichkeit der Augenzahl höchstens gleich 2 = ist. Weil 𝑋 und 𝑌 unabhängig voneinander sind, folgt (𝑋 + 𝑌) ~ Bin 50,

1 3

und die gesuchte Wahrscheinlichkeit ist folgendermaßen festzulegen: 𝑊(𝑋 + 𝑌 ≥ 10) =

50 𝑥

1 3

1−

1 3

= 0,9873

97

Teil 1 Kapitel 3 Mehrdimensionale Zufallsvariablen

→ Approximation durch die Poisson-Verteilung Aus der Zufallsvariable (𝑋 + 𝑌) ~ Bin 50,

1 3

wird 𝜆 = 50

1 50 = 3 3

als Parameter der Poisson-Verteilung bestimmt. Dadurch folgt 50 3

(𝑋 + 𝑌) ~ Poiss

und die approximierte Wahrscheinlichkeit ist gegeben durch 50 3 𝑥!

𝑒

𝑊(𝑋 + 𝑌 ≥ 10) =

= 0,969

→ Approximation durch die Standardnormalverteilung Die Zulässigkeitsprüfung ist gerechtfertigt, weil 𝑛 = 50 > 30 𝑛𝑤(1 − 𝑤) = 50

1 3

0,1 < 𝑤 =

1−

1 = 11,11 > 9 3

1 < 0,9 3

Durch die Stetigkeitskorrektur und 𝑍-Transformation ergibt sich 1 9,5 − 50 𝑋 + 𝑌 − 50 3 ≥ 𝑊(𝑋 + 𝑌 ≥ 10) ≅ 𝑊(𝑋 + 𝑌 ≥ 9,5) = 𝑊 ⎛ 1 2 1 50 ⎝ 50 3 3 3

98

1 3 ⎞ 2 3 ⎠

Teil 1 Kapitel 3 Mehrdimensionale Zufallsvariablen

= 𝑊 ⎛𝑍 ≥ ⎝

1 3 ⎞ = 𝑊(𝑍 ≥ −2,15) = 𝑊(𝑍 ≤ 2,15) = Φ(2,15) 1 2 50 3 3 ⎠ = 0,9842

9,5 − 50

5. Die Anzahl der Druckfehler pro Seite in drei Büchern sei unabhӓngig voneinander und Poisson-verteilt mit den jeweiligen Parametern 2, 3, 4. Sie wӓhlen zufӓllig eine Seite aus jedem Buch. Mit welcher Wahrscheinlichkeit finden Sie mindestens 4 Druckfehler auf diesen Seiten? Lösung 5 Sei 𝑋 : Anzahl der Druckfehler auf der zufӓllig ausgewӓhlten Seite des 𝑖-ten Buches Dabei gelten 𝑋 ~ Poiss(2) 𝑋 ~ Poiss(3) 𝑋 ~ Poiss(4) Daraus folgt (𝑋 + 𝑋 + 𝑋 ) ~ Poiss(9) Dadurch ergibt sich die Wahrscheinlichkeit, dass Sie mindestens 4 Druckfehler auf diesen Seiten finden 𝑊(𝑋 + 𝑋 + 𝑋 ≥ 4) = 1 − 𝑊(𝑋 + 𝑋 + 𝑋 < 4) =1−

𝑒

9 = 0,9788 𝑥!

6. Die Körpergewichte der Studierenden an einer Uni seien unabhӓngig voneinander und normalverteilt mit den Parametern 70 und 4 für die mӓnnlichen Studierenden und mit den Parametern 65 und 3 für die weiblichen Studierenden. Ein mӓnnlicher Studierender und eine weibliche Studierende werden zufӓllig ausgewӓhlt. Wie hoch ist die Wahrscheinlichkeit, dass die Summe der Körpergewichte dieser Studierenden 140 kg überschreitet? 99

Teil 1 Kapitel 3 Mehrdimensionale Zufallsvariablen

Lösung 6 Seien 𝑋: Das Körpergewicht des zufӓllig ausgewӓhlten mӓnnlichen Studierenden mit der Schreibweise 𝑋 ~ 𝑁(70, 4) 𝑌: Das Körpergewicht der zufӓllig ausgewӓhlten weiblichen Studierenden mit der Schreibweise 𝑌 ~ 𝑁(65, 3) Weil 𝑋 und 𝑌 unabhängig voneinander sind, gilt für die Summe (𝑋 + 𝑌) ~ 𝑁(135, 7) Die Wahrscheinlichkeit, dass die Summe der Körpergewichte der Studierenden 140 kg überschreitet, errechnet sich durch 𝑊(𝑋 + 𝑌 > 140) = 𝑊 =𝑊 𝑍>

𝑋 + 𝑌 − 135 √7

>

140 − 135 √7

140 − 135

= 𝑊(𝑍 > 1,8898) = 1 − 𝑊(𝑍 ≤ 1,8898) √7 = 1 − Φ(1,8898) ≅ 1 − 0,9706 = 0,0294

7. Die Lebenszeiten zweier Maschinen werden als unabhӓngig voneinander und exponentialverteilt mit dem Parameter

pro Jahr angesehen. Was ist der

Erwartungswert und die Varianz der Summe der Lebenszeiten dieser Maschinen? Lösung 7 Seien 𝑋 : Lebenszeit der Maschine 1 𝑋 : Lebenszeit der Maschine 2

100

Teil 1 Kapitel 3 Mehrdimensionale Zufallsvariablen

mit den Schreibweisen 𝑋 ~exp

1 8

𝑋 ~exp

1 8

Dadurch ist die Summe von 𝑋 und 𝑋 gammaverteilt: (𝑋 + 𝑋 )~gamma 2,

1 8

Der Erwartungswert der Summe der Lebenszeiten ist gegeben durch 𝐸(𝑋 + 𝑋 ) =

2 = 16 Jahre 1 8

Die Varianz der Summe der Lebenszeiten ist bestimmt durch 𝑉𝑎𝑟(𝑋 + 𝑋 ) =

2 1 8

= 128

8. Die Zeiten zwischen den Ankünften zweier aufeinanderfolgender Kunden seien unabhӓngig und identischverteilt mit den Parametern 𝜇 = 8 Minuten und 𝜎 = 2. Wie hoch ist die Wahrscheinlichkeit, dass es bis zur Ankunft des 55-ten Kunden mindestens 7,5 Stunden dauert? Lösung 8 Seien 𝑋 : Zeitabstand (Zwischenankunftszeit) zwischen dem (𝑖 − 1)-ten und 𝑖-ten Kunden 𝑡 : 𝑖-te Ankunftszeit Wie in Abbildung 3.1 dargestellt gilt für 𝑖 ≥ 1 𝑡 = 𝑋 + 𝑋 + ⋯+ 𝑋

101

Teil 1 Kapitel 3 Mehrdimensionale Zufallsvariablen

Abbildung 3.1: Darstellung der Zwischenankunftszeiten für Aufgabe 8 Daraus folgt die Ankunftszeit des 55-ten Kunden als 𝑡

= 𝑋 + 𝑋 + ⋯+ 𝑋

Nach dem zentralen Grenzwertsatz der Wahrscheinlichkeitsrechnung gilt für 𝑖→∞ 𝑋 + 𝑋 + ⋯ + 𝑋 − 8𝑖 2√𝑖

→ 𝑍~𝑁(0,1)

Die Wahrscheinlichkeit, dass es bis zur Ankunft des 55-ten Kunden mindestens 7,5 Stunden = 450 Minuten dauert, ergibt sich aus 𝑊(𝑡 =𝑊 =𝑊 𝑍≥

102

≥ 450) = 𝑊(𝑋 + 𝑋 + ⋯ + 𝑋 𝑋 + 𝑋 + ⋯+ 𝑋 2√55

450 − 8(55)

− 8(55)



≥ 450)

450 − 8(55) 2√55

= 𝑊(𝑍 ≥ 0,6742) = 1 − 𝑊(𝑍 < 0,6742) 2√55 = 1 − Φ(0,6742) ≅ 1 − 0,7486 = 0,2514

TEIL 2 STATISTIK

103

Teil 2 Kapitel 1 Deskriptive Statistik

Kapitel 1 Deskriptive Statistik

Statistik ist die Lehre, die sich den Methoden der Erhebung, Aufbereitung, Zusammenfassung, Auswertung und Interpretation von Daten widmet. Die Statistik unterteilt sich in zwei Teilgebiete: deskriptive (beschreibende) Statistik und induktive (schließende) Statistik bzw. Inferenzstatistik. Im Gegensatz zur induktiven Statistik, bei der die Analyse durch die Auswertung und Interpretation der Daten zentral ist, befasst sich die deskriptive Statistik mit der Erhebung, Aufbereitung und Zusammenfassung der Daten. Die quantitative Beschreibung mittels Kenngrößen und die grafische Darstellung von Daten gehören zu den Aufgaben der deskriptiven Statistik. In diesem Kapitel werden wir zunächst die Grundbegriffe und Kenngrößen der deskriptiven Statistik kennenlernen. Anschließend werden wir die grafischen Darstellungen qualitativer bzw. quantitativer Merkmale beschreiben. 1.1.

Grundbegriffe der deskriptiven Statistik

In diesem Abschnitt werden die Grundbegriffe der deskriptiven Statistik vorgestellt. → Grundgesamtheit (Grundpopulation, Population, Kollektiv) Die Grundgesamtheit (Merkmalstrӓger).

ist

die

Gesamtheit

aller

Untersuchungseinheiten

→ Stichprobe (Teilgesamtheit) Eine Stichprobe ist eine nach dem Zufallsprinzip ausgewählte Teilmenge der Grundgesamtheit. Bemerkung: Die Auswahl nach dem Zufallsprinzip heißt, dass jede Untersuchungseinheit der Grundgesamtheit die gleiche Wahrscheinlichkeit hat, ausgewählt zu werden. → Merkmal Ein Merkmal ist eine charakteristische Eigenschaft von Untersuchungseinheiten. © Der/die Herausgeber bzw. der/die Autor(en), exklusiv lizenziert durch Springer Fachmedien Wiesbaden GmbH, ein Teil von Springer Nature 2020 E. Bas, Einführung in Wahrscheinlichkeitsrechnung, Statistik und Stochastische Prozesse, https://doi.org/10.1007/978-3-658-32120-8_4

105

Teil 2 Kapitel 1 Deskriptive Statistik

Bemerkung: Jede Untersuchungseinheit kann ein oder mehrere Merkmale besitzen. → Merkmalswert (Merkmalsbetrag, Stichprobendaten, Stichprobenwert, Beobachtung) Ein Merkmalswert ist der Wert eines Merkmals für eine Untersuchungseinheit. → Stichprobengröße (Stichprobenumfang) Die Stichprobengröße bzw. der Stichprobenumfang ist die Anzahl der Merkmalswerte einer Stichprobe. → Merkmalsausprӓgungen Die Merkmalsausprӓgungen sind alle möglichen Merkmalswerte eines Merkmals. → Qualitative (kategoriale) bzw. quantitative (metrische) Merkmale Qualitative (kategoriale) Merkmale sind Merkmale, die eine qualitative Beschreibung darstellen. Sie werden durch Wörter bezeichnet und können nominal oder ordinal sein. Es handelt sich um eine eindeutige Beschreibung bei einem Nominalmerkmal, aber eine Rangordnung bei einem Ordinalmerkmal. Quantitative (metrische) Merkmale sind Merkmale, die ein Ausmaß darstellen. Sie werden durch Zahlen bezeichnet und können diskret oder stetig sein. Beispiel 1: Tabelle 1.1 gibt Beispiele für die Grundbegriffe der deskriptiven Statistik. Tabelle 1.1: Beispiele für die Grundbegriffe der deskriptiven Statistik Grundbegriffe Grundgesamtheit Stichprobe Merkmalstrӓger Merkmal Merkmalsausprӓgungen

Merkmalswert

106

Beispiele Alle Studierenden an einer Uni Nach dem Zufallsprinzip ausgewählte 100 Studierende der Uni Studierende Geschlecht (qualitativ, nominal), Noten (qualitativ, ordinal) Körpergröße (quantitativ), Körpergewicht (quantitativ) (weiblich/mӓnnlich), (sehr gut (1), gut (2), befriedigend (3), ausreichend (4), mangelhaft (5), ungenügend (6)), (1,50 m–1,90 m), (45 kg–85 kg) weiblich, ausreichend, 1,67 m, 58 kg

Teil 2 Kapitel 1 Deskriptive Statistik

1.2.

Kenngrößen der deskriptiven Statistik

Man unterscheidet zwei Klassen für die Kenngrößen der deskriptiven Statistik: Kenngrößen für eine Stichprobe und Kenngrößen für zwei Stichproben. 1.2.1.

Kenngrößen für eine Stichprobe

Seien 𝑥 , 𝑥 , … , 𝑥 : Stichprobe mit 𝑛 Merkmalswerten 𝑥(

)

≤ 𝑥(

)

≤ ⋯ ≤ 𝑥( ) : Geordnete Stichprobe mit 𝑛 Merkmalswerten

wobei 𝑥( ) : 𝑗-kleinster Merkmalswert (𝑗-te Ordnungsgröße) 𝑛: Stichprobengröße Dann definiert man folgende Kenngrößen für eine Stichprobe: → Arithmetisches Mittel (Durchschnitt, Mittelwert, Stichprobenmittel) Das arithmetische Mittel ist eine Kennzahl für die Lage der Merkmalswerte und bezeichnet die Summe der Merkmalswerte dividiert durch die Stichprobengröße. Jeder Merkmalswert der Stichprobe hat das gleiche Gewicht. Schreibweise: 𝑥̅ = wobei

1 (𝑥 + 𝑥 + ⋯ + 𝑥 ) 𝑛

𝑥̅ : Arithmetisches Mittel

→ Geometrisches Mittel Das geometrische Mittel bezeichnet die 𝑛-te Wurzel aus dem Produkt der Merkmalswerte. Schreibweise: 𝑥̅ = wobei

𝑥 𝑥 …𝑥

𝑥̅ : Geometrisches Mittel 107

Teil 2 Kapitel 1 Deskriptive Statistik

→ Empirische Varianz (Stichprobenvarianz) und empirische Standardabweichung Die empirische Varianz ist eine Kennzahl für die Streuung der Merkmalswerte und bezeichnet die durchschnittliche quadrierte Abweichung der Merkmalswerte vom arithmetischen Mittel. Jeder Merkmalswert der Stichprobe hat wiederum das gleiche Gewicht. Schreibweise: 𝑠 =

1 𝑛−1

(𝑥 − 𝑥̅ )

wobei 𝑠 : Empirische Varianz 𝑠: Empirische Standardabweichung → Spannweite Die Spannweite ist eine andere Kennzahl für die Streuung der Merkmalswerte und bezeichnet den Abstand zwischen dem größten und kleinsten Merkmalswert. Schreibweise: 𝑅 = 𝑥(

)

− 𝑥(

)

→ Empirisches 𝛂-Quantil, 𝒒𝛂 (𝟏𝟎𝟎𝛂-Perzentil) Das empirische α-Quantil ist derjenige Merkmalswert 𝑞 mit 0 < α < 1, für den gilt, dass höchstens (100α) % der Merkmalswerte kleiner oder gleich und höchstens (100(1 − α )) % der Merkmalswerte größer oder gleich als 𝑞 sind. 𝑞 muss nicht mit einem Merkmalswert übereinstimmen. Das empirische α-Quantil q errechnet sich durch die folgende Formel: 1 𝑥 𝑞 = 2 (

)

+ 𝑥( 𝑥(⌈

) ⌉)

falls α𝑛 eine ganze Zahl ist sonst

wobei ⌈α𝑛⌉: Die kleinste ganze Zahl, die größer als α𝑛 ist. 108

Teil 2 Kapitel 1 Deskriptive Statistik

→ Unteres Quartil, 𝐪𝟎,𝟐𝟓 Das untere Quartil bezeichnet das empirische 0,25-Quantil q

.

,

→ Oberes Quartil, 𝐪𝟎,𝟕𝟓 Das obere Quartil bezeichnet das empirische 0,75-Quantil q

,

.

→ Quartilsdifferenz (Interquartilsabstand – IQR) Die Quartilsdifferenz bezeichnet die Differenz zwischen dem oberen und unteren Quartil, d. h. 𝐼𝑄𝑅 = 𝑞

,

−𝑞

,

→ Empirischer Median (Zentralwert), 𝒒𝟎,𝟓 Der empirische Median bezeichnet das empirische 0,5-Quantil q , und steht in der Mitte der geordneten Stichprobe. Eine alternative Formel zur Berechnung von 𝑞 , ist gegeben durch

𝑞

,

=

1 𝑥 2 𝑥

+𝑥

falls 𝑛 gerade ist falls 𝑛 ungerade ist

→ Der Modalwert (Modus) Der Modalwert ist der Merkmalswert mit größter vorkommender Hӓufigkeit. Eine Stichprobe kann auch keinen oder mehrere Modalwerte besitzen. Beispiel 2: Gegeben seien die Merkmalswerte 5, 3, 10, 7, 5, 2, 8, 8, 3, 1, 4, 6 einer Stichprobe. Ermitteln Sie die Kenngrößen für diese Stichprobe. Lösung 2 Die Stichprobengröße ist 𝑛 = 12. Dann ermittelt man folgende Kenngrößen für diese Stichprobe: → Arithmetisches Mittel 𝑥̅ =

5 + 3 + 10 + ⋯ + 6 62 = = 5,167 12 12

109

Teil 2 Kapitel 1 Deskriptive Statistik

→ Geometrisches Mittel 𝑥̅ = √5 ∙ 3 ∙ 10 ∙ … ∙ 6 = 4,369 → Empirische Varianz und Standardabweichung 𝑠 =

1 ((5 − 5,167) + (3 − 5,167) + (10 − 5,167) + ⋯ 12 − 1 + (6 − 5,167) ) = 7,424 𝑠 = 2,725

→ Geordnete Stichprobe (s. Tabelle 1.2) Tabelle 1.2: Geordnete Stichprobe für Beispiel 2 𝑥( ) 1

𝑥( ) 2

𝑥( ) 3

𝑥( ) 3

𝑥( ) 4

𝑥( ) 5

𝑥( ) 5

𝑥( ) 6

𝑥( ) 7

𝑥( 8

→ Spannweite 𝑅 = 𝑥(

)

− 𝑥(

)

= 10 − 1 = 9

→ Unteres Quartil, Oberes Quartil, Quartilsdifferenz, Median → Unteres Quartil, 𝑞

,

Weil α𝑛 = (0,25)12 = 3 eine ganze Zahl ist, gilt 𝑞

,

=

→ Oberes Quartil, 𝑞

1 𝑥 + 𝑥( 2 ( )

)

1 = (3 + 3) = 3 2

,

Weil α𝑛 = (0,75)12 = 9 eine ganze Zahl ist, gilt 𝑞

,

=

1 𝑥 + 𝑥( 2 ( )

)

1 = (7 + 8) = 7,5 2

→ Quartilsdifferenz, 𝐼𝑄𝑅 𝐼𝑄𝑅 = 𝑞

110

,

−𝑞

,

= 7,5 − 3 = 4,5

)

𝑥( 8

)

𝑥( ) 10

Teil 2 Kapitel 1 Deskriptive Statistik

→ Empirischer Median (Zentralwert), 𝑞

,

Weil 𝑛 = 12 eine gerade Zahl ist, gilt 𝑞

=

,

1 𝑥 + 𝑥( 2 ( )

)

=

5+5 =5 2

→ Modalwert (Modus) 3, 5, 8 sind die Modalwerte dieser Stichprobe, weil sie am hӓufigsten (zweimal) vorkommen. 1.2.2. Kenngrößen für zwei Stichproben Seien 𝑥 , 𝑥 , … , 𝑥 : Erste Stichprobe mit 𝑛 Merkmalswerten 𝑦 , 𝑦 , … , 𝑦 : Zweite Stichprobe mit 𝑛 Merkmalswerten Dann definiert man folgende Kenngrößen für zwei Stichproben: → Empirische Kovarianz Die empirische Kovarianz zwischen 𝑥 und 𝑦 ist durch die folgende Formel dargestellt: 𝑠

=

1 𝑛−1

(𝑥 − 𝑥̅ ) (𝑦 − 𝑦) =

1 𝑛−1

𝑥 𝑦 − 𝑛𝑥̅ 𝑦

→ Empirischer Korrelationskoeffizient Der empirische Korrelationskoeffizient zwischen 𝑥 und 𝑦 ist bestimmt durch 𝑟

=

𝑠 𝑠 𝑠

wobei 𝑟 : Empirischer Korrelationskoeffizient zwischen 𝑥 und 𝑦 𝑠 : Empirische Kovarianz zwischen 𝑥 und 𝑦 𝑠 : Empirische Standardabweichung von 𝑥 𝑠 : Empirische Standardabweichung von 𝑦 111

Teil 2 Kapitel 1 Deskriptive Statistik

Der empirische Korrelationskoeffizient liegt stets zwischen −1 und 1: −1 ≤ 𝑟

≤1

wobei 𝑟

> 0: Positiver (gleichsinniger) linearer Zusammenhang (positive lineare Korrelation) (𝑟 = +1: Idealer positiver linearer Zusammenhang zwischen 𝑥 und 𝑦)

𝑟

< 0: Negativer (gegensinniger) linearer Zusammenhang (negative lineare Korrelation) (𝑟 = −1: Idealer negativer linearer Zusammenhang zwischen 𝑥 und 𝑦) 𝑟

= 0: Kein linearer Zusammenhang (keine Korrelation), unkorreliert

bezeichnen. Beispiel 3: Betrachten Sie die Datenpaare in Tabelle 1.3. Tabelle 1.3: Datenpaare für Beispiel 3 𝑥 4 6 5 3 4

𝑦 2,1 3,2 2,4 3,5 4,2

Berechnen Sie die empirische Kovarianz und den empirischen Korrelationskoeffizient zwischen 𝑥 und 𝑦. Lösung 3 Die empirische Kovarianz zwischen 𝑥 und 𝑦 errechnet sich durch 𝑥̅ = 𝑦=

112

4+6+5+3+4 = 4,4 5

2,1 + 3,2 + 2,4 + 3,5 + 4,2 = 3,08 5

Teil 2 Kapitel 1 Deskriptive Statistik

𝑠

=

1 5−1

(𝑥 − 𝑥̅ ) (𝑦 − 𝑦) =

1 (4 − 4,4)(2,1 − 3,08) + ⋯ + (4 − 4,4)(4,2 − 3,08) 4 = −0,215

Für den empirischen Korrelationskoeffizient ermittelt man zunächst die folgenden Standardabweichungen: 𝑠 =

𝑠 =

1 ((4 − 4,4) + ⋯ + (4 − 4,4) ) = 1,14 4

1 ((2,1 − 3,08) + ⋯ + (4,2 − 3,08) ) = 0,847 4

Dabei ergibt sich der empirische Korrelationskoeffizient zwischen 𝑥 und y aus 𝑟 1.3.

=

𝑠 −0,215 = = −0,223 𝑠 𝑠 (1,14)(0,847)

Grafische Darstellungen

Man erstellt grafische Darstellungen für qualitative und quantitative Merkmale. 1.3.1. Grafische Darstellungen für qualitative Merkmale → Sӓulen- bzw. Stabdiagramm Ein Sӓulendiagramm ist ein senkrecht stehendes (vertikales) Diagramm, das für qualitative Merkmale geeignet ist. Bei sehr schmalen Sӓulen ist ein Sӓulendiagramm als Stabdiagramm benannt. Die Säulen und Stӓbe spiegeln durch ihre Höhe die absoluten bzw. relativen Häufigkeiten wider. → Balkendiagramm Ein Balkendiagramm ist ein waagerecht liegendes (horizontales) Diagramm, das für qualitative Merkmale geeignet ist. Die Balken spiegeln durch ihre Länge die absoluten bzw. relativen Häufigkeiten wider.

113

Teil 2 Kapitel 1 Deskriptive Statistik

→ Kreisdiagramm Ein Kreisdiagramm ist ein kreisförmiges Diagramm, auf dem die einzelnen Flächen proportional zu den absoluten bzw. relativen Häufigkeiten sind. Auf einem Kreisdiagramm sind zumeist relative Häufigkeiten mit Prozentwerten visualisiert. Beispiel 4: Erstellen Sie ein Sӓulendiagramm, Balkendiagramm und Kreisdiagramm für die in Tabelle 1.4 angegebenen Daten mit Betrachtung der relativen Häufigkeiten. Tabelle 1.4: Daten für Beispiel 4 Studienfach

BWL VWL Wi-Ing Soziologie Insgesamt

Anzahl der Studierenden (Absolute Häufigkeiten) 300 250 250 200 1000

Relative Häufigkeiten

300/1000 = 0,30 250/1000 = 0,25 250/1000 = 0,25 200/1000 = 0,20 1,00

Lösung 4 → Sӓulendiagramm (s. Abbildung 1.1)

Abbildung 1.1: Sӓulendiagramm für Beispiel 4

114

Teil 2 Kapitel 1 Deskriptive Statistik

→ Balkendiagramm (s. Abbildung 1.2)

Abbildung 1.2: Balkendiagramm für Beispiel 4 → Kreisdiagramm (s. Abbildung 1.3)

Abbildung 1.3: Kreisdiagramm für Beispiel 4 1.3.2. Grafische Darstellungen für quantitative Merkmale → Histogramm Ein Histogramm ist ein Sӓulendiagramm, das für quantitative Merkmale geeignet ist. Bei einem Histogramm liegen die Sӓulen ohne Abstand aneinander. Nachfolgend wird die Vorgehensweise, um ein Histogramm zu erstellen, beschrieben. 115

Teil 2 Kapitel 1 Deskriptive Statistik

→ Schritt 1 Die Merkmalswerte der Stichprobe mit Stichprobengröße 𝑛 werden zunächst in Wertegruppen (Klassen, Intervalle) mit äquidistanten oder nicht-äquidistanten Klassenbreiten (Intervallbreiten) wie folgt aufgeteilt: [𝑘 , 𝑘 ), [𝑘 , 𝑘 ), [𝑘 , 𝑘 ), … , [𝑘

, 𝑘 ), … 𝑡 = 1, 2, 3, ..

wobei [𝑘

, 𝑘 ): 𝑡-te Klasse für 𝑡 = 1, 2, 3, ..

Jede Klasse hat eine untere und obere Grenze. Bei der 𝑡-ten Klasse, ist 𝑘 die untere Grenze und 𝑘 die obere Grenze. 𝑘 − 𝑘 beschreibt die Klassenbreite der 𝑡-ten Klasse. Jede Klasse ist auch durch ihre Klassenmitte gekennzeichnet. Die Klassenmitte der 𝑡-ten Klasse ist durch den Mittelwert der unteren und oberen + 𝑘 )/2 bestimmt. Grenze, d. h. durch (𝑘 Bemerkung: In der Literatur sind verschiedene Ansätze für die Bestimmung der Klassenbreiten vorhanden. → Schritt 2 Für jede 𝑡-te Klasse ist die absolute Häufigkeit 𝐻 oder relative Häufigkeit ℎ = 𝐻 /𝑛 festzustellen. Für den Fall, dass ein Merkmalswert auf der oberen Grenze einer Klasse liegt, kann man sich entscheiden, welcher Gruppe dieser Merkmalswert zugeordnet werden kann. Bemerkung: In der Praxis kann der Merkmalswert, der auf der oberen Grenze einer Klasse liegt, der nӓchsten Klasse zugeordnet werden. → Schritt 3 Man unterscheidet zwei Ansätze zum Erstellen eines Histogramms:

116

Teil 2 Kapitel 1 Deskriptive Statistik

Ansatz 1 Über die entsprechenden Klassen können entweder absolute Häufigkeiten oder relative Häufigkeiten wiedergegeben werden. Bei äquidistanten Klassenbreiten wird dieser Ansatz häufig angewendet. Es gilt (s. Abbildung 1.4): Höhe einer Sӓule = absolute (oder relative) Häufigkeit

Abbildung 1.4: Ansatz 1 zum Erstellen des Histogramms (mit absoluten Häufigkeiten) Ansatz 2 Das Prinzip der Flächentreue ist zu berücksichtigen. Dieses bezeichnet, dass die dargestellten Flächen direkt den absoluten oder relativen Häufigkeiten entsprechen. Es gilt: Höhe einer Sӓule = absolute (oder relative) Häufigkeit / Klassenbreite (s. Abbildung 1.5)

117

Teil 2 Kapitel 1 Deskriptive Statistik

Abbildung 1.5: Ansatz 2 zum Erstellen des Histogramms (mit absoluten Häufigkeiten) Bemerkung: Bei nicht-äquidistanten Klassenbreiten ist das Prinzip der Flӓchentreue insbesondere zu beachten, aber auch bei äquidistanten Klassenbreiten ist dieses Prinzip durchführbar. Beispiel 2 (fortgesetzt 1): Gegeben seien die Merkmalswerte 5, 3, 10, 7, 5, 2, 8, 8, 3, 1, 4, 6 einer Stichprobe. Erstellen Sie das Histogramm für diese Stichprobe mit Betrachtung der absoluten Hӓufigkeiten. Lösung 2 (fortgesetzt 1) Zur Erinnerung (aus Beispiel 2): Tabelle 1.2: Geordnete Stichprobe für Beispiel 2 𝑥( ) 1

𝑥( ) 2

𝑥( ) 3

𝑥( ) 3

𝑥( ) 4

𝑥( ) 5

𝑥( ) 5

𝑥( ) 6

𝑥( ) 7

𝑥( 8

)

𝑥( 8

)

Ansatz 1 (ohne Beachtung der Flächentreue) Tabelle 1.5 zeigt die Klassen und absoluten Häufigkeiten für jede Klasse. Tabelle 1.5: Ansatz 1 für Beispiel 2 (fortgesetzt 1) Klassen [1,6) [6 − 11) 118

Höhe der Sӓule = Absolute Häufigkeit (𝐻 ) 7 5

𝑥( ) 10

Teil 2 Kapitel 1 Deskriptive Statistik

Die Abbildung 1.6 zeigt das entsprechende Histogramm. Ansatz 2 (mit Beachtung der Flächentreue) Tabelle 1.6 zeigt, wie die Höhe jeder Säule mit Beachtung der Flächentreue bestimmt wird. Das Histogramm ist in Abbildung 1.7 aufgeführt.

Abbildung 1.6: Histogramm mit Ansatz 1 Tabelle 1.6: Ansatz 2 für Beispiel 2 (fortgesetzt 1) Absolute Häufigkeit (𝐻 )

Klassenbreite (𝑘 − 𝑘 )

[1,3)

2

2

2/2 = 1

[3 − 6)

5

3

5/3 ≅ 1,67

[6 − 10)

5

4

5/4 = 1,25

Klassen

Höhe der Sӓule = 𝐻 /(𝑘 − 𝑘 )

119

Teil 2 Kapitel 1 Deskriptive Statistik

Abbildung 1.7: Histogramm mit Ansatz 2 → Boxplot-Diagramm (Box-Whisker-Plot, Kastengrafik) Ein Boxplot ist ein Diagramm, das die wichtigsten Lage- und Streuungsmaße übersichtlich zusammenfasst (s. Abbildung 1.8).

Abbildung 1.8: Boxplot-Diagramm → Der untere Whisker bezeichnet den minimalen Merkmalswert, für den gilt: ≥𝑞 120

,

– 1,5𝐼𝑄𝑅

Teil 2 Kapitel 1 Deskriptive Statistik

→ Der obere Whisker bezeichnet den maximalen Merkmalswert, für den gilt: ≤𝑞

+ 1,5𝐼𝑄𝑅

,

→ Ausreißer bezeichnen alle Merkmalswerte, für die gilt: 𝑞

,

+ 1,5𝐼𝑄𝑅

oder

Beispiel 2 (fortgesetzt 2): Gegeben seien die Merkmalswerte 5, 3, 10, 7, 5, 2, 8, 8, 3, 1, 4, 6 einer Stichprobe. Erstellen Sie das Boxplot-Diagramm für diese Stichprobe.

Lösung 2 (fortgesetz 2) Zur Erinnerung (aus Beispiel 2): → Unteres Quartil 𝑞

=3

,

→ Oberes Quartil 𝑞

= 7,5

,

→ Quartilsdifferenz (𝐼𝑄𝑅) 𝐼𝑄𝑅 = 𝑞

,

−𝑞

,

= 7,5 − 3 = 4,5

→ Empirischer Median 𝑞

,

=5

Dazu bestimmt man folgendermaßen unteren Whisker, oberen Whisker und Ausreißer: → Der untere Whisker ist 1, weil 1 der minimale Wert ist, für den gilt: ≥𝑞

,

– 1,5𝐼𝑄𝑅 = 3 − 1,5(4,5) = −3,75

121

Teil 2 Kapitel 1 Deskriptive Statistik

→ Der obere Whisker ist 10, weil 10 der maximale Wert ist, für den gilt: ≤𝑞

,

+ 1,5𝐼𝑄𝑅 = 7,5 + 1,5(4,5) = 14,25

→ Alle Merkmalswerte, die kleiner als −3,75 und größer als 14,25 sind, heißen Ausreißer. Diese Stichprobe besitzt keine Ausreißer. Alle Parameter sind in Abbildung 1.9 zusammengefasst.

Abbildung 1.9: Boxplot-Diagramm für Beispiel 2 (fortgesetzt 2) → Empirische Verteilungsfunktion Die empirische Verteilungsfunktion ist eine monoton wachsende Treppenfunktion, die die kumulativen Häufigkeiten darstellt. Seien 𝑥 , 𝑥 , … , 𝑥 : Stichprobe mit 𝑛 Merkmalswerten 𝑎 < 𝑎 < ⋯ < 𝑎 : Merkmalsausprӓgungen

122

Teil 2 Kapitel 1 Deskriptive Statistik

Dann definiert man folgende Parameter zum Erstellen der empirischen Verteilungsfunktion: → Absolute Hӓufigkeiten 𝐻(𝑎 ): Anzahl der Merkmalstrӓger mit dem Merkmalswert 𝑎 𝐻(𝑎 ) + 𝐻(𝑎 ) + ⋯ 𝐻(𝑎 ) + ⋯ + 𝐻(𝑎 ) = 𝑛 → Relative Hӓufigkeiten ℎ(𝑎 ) =

1 𝐻(𝑎 ) 𝑛

𝑖 = 1, 2, 3, … . , 𝑚

wobei gilt: 0 ≤ ℎ(𝑎 ) ≤ 1

𝑖 = 1, 2, 3, … . , 𝑚

ℎ(𝑎 ) + ℎ(𝑎 ) + ⋯ + ℎ(𝑎 ) = 1 → Absolute Summenhӓufigkeiten 𝑆(𝑎 ) = 𝐻(𝑎 ) + 𝐻(𝑎 ) + ⋯ + 𝐻(𝑎 ) → Relative Summenhӓufigkeiten 𝑠(𝑎 ) = ℎ(𝑎 ) + ℎ(𝑎 ) + ⋯ + ℎ(𝑎 ) → Empirische Verteilungsfunktion 𝐹(𝑥) =

ℎ(𝑎 )

Beispiel 2 (fortgesetzt 3): Gegeben seien die Merkmalswerte 5, 3, 10, 7, 5, 2, 8, 8, 3, 1, 4, 6 einer Stichprobe. Erstellen Sie die empirische Verteilungsfunktion für diese Stichprobe.

123

Teil 2 Kapitel 1 Deskriptive Statistik

Lösung 2 (fortgesetzt 3) Zur Erinnerung (aus Beispiel 2): Tabelle 1.2: Geordnete Stichprobe für Beispiel 2 𝑥( ) 1

𝑥( ) 2

𝑥( ) 3

𝑥( ) 3

𝑥( ) 4

𝑥( ) 5

𝑥( ) 5

𝑥( ) 6

𝑥( ) 7

𝑥( 8

)

𝑥( 8

)

𝑥( ) 10

Die Merkmalsausprӓgungen in [1,10] werden betrachtet. Daher erstellt man folgendermaßen absolute bzw. relative Hӓufigkeiten und absolute bzw. relative Summenhӓufigkeiten, um die empirische Verteilungsfunktion zu erstellen (s. Abbildung 1.10): → Absolute Hӓufigkeiten 𝐻(1) = 1, 𝐻(2) = 1, 𝐻(3) = 2, 𝐻(4) = 1, 𝐻(5) = 2, 𝐻(6) = 1, 𝐻(7) = 1, 𝐻(8) = 2, 𝐻(9) = 0, 𝐻(10) = 1 → Relative Hӓufigkeiten ℎ(1) =

1 1 2 1 2 1 , ℎ(2) = , ℎ(3) = , ℎ(4) = , ℎ(5) = , ℎ(6) = , 12 12 12 12 12 12 1 2 1 ℎ(7) = , ℎ(8) = , ℎ(9) = 0, ℎ(10) = 12 12 12

→ Absolute Summenhӓufigkeiten 𝑆(1) = 1, 𝑆(2) = 2, 𝑆(3) = 4, 𝑆(4) = 5, 𝑆(5) = 7, 𝑆(6) = 8, 𝑆(7) = 9, 𝑆(8) = 11, 𝑆(9) = 11, 𝑆(10) = 12 → Relative Summenhӓufigkeiten 𝑠(1) =

124

1 2 4 5 7 8 , 𝑠(2) = , 𝑠(3) = , 𝑠(4) = , 𝑠(5) = , 𝑠(6) = , 12 12 12 12 12 12 9 11 11 12 𝑠(7) = , 𝑠(8) = , 𝑠(9) = , 𝑠(10) = =1 12 12 12 12

Teil 2 Kapitel 1 Deskriptive Statistik

Abbildung 1.10: Empirische Verteilungsfunktion für Beispiel 2 (fortgesetzt 3) → Stamm-und-Blatt-Diagramm (Stӓngel-und-Blatt-Diagramm, Zweig-undBlӓtter-Diagramm) Ein Stamm-und-Blatt-Diagramm besteht aus zwei Spalten, von denen die erste Spalte die Stammwerte und die zweite Spalte die Blattwerte enthält. Die Hunderter- oder Zehnerstellen der Merkmalswerte (die ersten zwei Ziffern oder die erste Ziffer) werden beispielsweise als Stammwerte in der ersten Spalte eingetragen, die vom kleinsten bis zum größten Wert geordnet werden. Die Einerstellen können beispielsweise als Blattwerte in der zweiten Spalte eingetragen werden, die wiederum vom kleinsten bis zum größten Wert geordnet werden können. Beispiel 5: Gegeben sei die Urliste der Merkmalswerte 21, 32, 35, 46, 58, 47, 75, 79, 11, 14, 10, 64, 69 einer Stichprobe. Erstellen Sie das Stamm-und-BlattDiagramm für diese Stichprobe. Lösung 5 Das Stamm-und-Blatt-Diagramm ist in Tabelle 1.7 aufgeführt.

125

Teil 2 Kapitel 1 Deskriptive Statistik

Tabelle 1.7: Stamm-und-Blatt-Diagramm für Beispiel 5 Stamm 1 2 3 4 5 6 7

Blatt 014 1 25 67 8 49 59

Beispiel 6: Tabelle 1.8 zeigt die systolischen Blutdruckwerte eines Patienten in mmHg, die in einer Woche gemessen wurden. Erstellen Sie das Stamm-und-BlattDiagramm mit diesen systolischen Blutdruckwerten. Tabelle 1.8: Daten für Beispiel 6 124 118 132 121 143

120 125 153 120 145

127 138 133 144 161

120 115 133 127 121

Lösung 6 Tabelle 1.9 zeigt das entsprechende Stamm-und-Blatt-Diagramm. Tabelle 1.9: Stamm-und-Blatt-Diagramm für Beispiel 6 Stamm 11 12 13 14 15 16

Blatt 58 000114577 2338 345 3 1

Aufgaben 1. Gegeben seien die Körpergewichte von 10 zufӓllig ausgewӓhlten weiblichen Studierenden als 65, 54, 51, 82, 53, 57, 68, 64, 57, 64 in kg. Berechnen Sie die Kenngrößen für diese Stichprobe. Erstellen Sie das Boxplot-Diagramm und Stamm-und-Blatt-Diagramm. Konstruieren Sie das Histogramm durch das Prinzip der Flächentreue und die empirische Verteilungsfunktion. 126

Teil 2 Kapitel 1 Deskriptive Statistik

Lösung 1 Die Stichprobengröße ist 𝑛 = 10. Daher ermittelt man folgende Kenngrößen für diese Stichprobe: → Kenngrößen der Stichprobe → Arithmetisches Mittel 𝑥̅ =

65 + 54 + 51 + ⋯ + 64 = 61,5 10

→ Empirische Varianz und Standardabweichung 𝑠 =

1 ((65 − 61,5) + (54 − 61,5) + ⋯ + (64 − 61,5) ) = 85,167 10 − 1 𝑠 = 9,229 → Geordnete Stichprobe (s. Tabelle 1.10)

Tabelle 1.10: Geordnete Stichprobe für Aufgabe 1 𝑥( ) 51

𝑥( ) 53

𝑥( ) 54

𝑥( ) 57

𝑥( ) 57

𝑥( ) 64

𝑥( ) 64

𝑥( ) 65

𝑥( ) 68

𝑥( ) 82

→ Spannweite 𝑅 = 𝑥( → Unteres Quartil (q

)

− 𝑥(

)

= 82 − 51 = 31

)

,

α𝑛 = (0,25)10 = 2,5 ist keine ganze Zahl. Dazu gilt 𝑞

= 𝑥(⌈

,

→ Oberes Quartil (q

, ⌉)

= 𝑥(

)

= 54

)

,

α𝑛 = (0,75)10 = 7,5 ist keine ganze Zahl. Daher gilt 𝑞

= 𝑥(⌈

,

, ⌉)

= 𝑥(

)

= 65

→ Quartilsdifferenz (𝐼𝑄𝑅) 𝐼𝑄𝑅 = 𝑞

,

−𝑞

,

= 65 − 54 = 11 127

Teil 2 Kapitel 1 Deskriptive Statistik

→ Empirischer Median (Zentralwert) (q

,

)

𝑛 = 10 ist eine gerade Zahl. Dabei ergibt sich 𝑞

,

=

1 𝑥 + 𝑥( 2 ( )

)

=

57 + 64 = 60,5 2

→ Modalwert (Modus) 57 und 64 sind die Modalwerte, weil sie am hӓufigsten (zweimal) vorkommen. → Boxplot-Diagramm (s. Abbildung 1.11) → Der untere Whisker ist 51, weil 51 der minimale Wert ist, für den gilt: ≥𝑞

,

− 1,5𝐼𝑄𝑅 = 54 − 1,5(11) = 37,5

→ Der obere Whisker ist 68, weil 68 der maximale Wert ist, für den gilt: ≤𝑞

,

+ 1,5𝐼𝑄𝑅 = 65 + 1,5(11) = 81,5

Weil 82 > 81,5 gilt, ist 82 Ausreißer.

Abbildung 1.11: Boxplot-Diagramm für Aufgabe 1 128

Teil 2 Kapitel 1 Deskriptive Statistik

→ Stamm-und-Blatt-Diagramm (s. Tabelle 1.11) Tabelle 1.11: Stamm-und-Blatt-Diagramm für Aufgabe 1 Stamm 5 6 8

Blatt 13477 4458 2

→ Histogramm Zur Erinnerung: Tabelle 1.10: Geordnete Stichprobe für Aufgabe 1 𝑥( ) 51

𝑥( ) 53

𝑥( ) 54

𝑥( ) 57

𝑥( ) 57

𝑥( ) 64

𝑥( ) 64

𝑥( ) 65

𝑥( ) 68

𝑥( ) 82

Wir betrachten beispielsweise das Intervall (50,90] und die Klassen in Tabelle 1.12. Nach dem Prinzip der Flächentreue erstellt man das Histogramm in Abbildung 1.12. Tabelle 1.12: Parameter für das Erstellen des Histogramms nach dem Prinzip der Flächentreue Klassen [50,60) [60,80) [80,90)

Absolute Häufigkeit (𝐻 ) 5 4 1

Klassenbreite (𝑘 − 𝑘 ) 10 20 10

Höhe der Sӓule = 𝐻 /(𝑘 − 𝑘 ) 5/10 = 0,5 4/20 = 0,2 1/10 = 0,1

Abbildung 1.12: Histogramm nach dem Prinzip der Flächentreue für Aufgabe 1 129

Teil 2 Kapitel 1 Deskriptive Statistik

→ Empirische Verteilungsfunktion (s. Abbildung 1.13) Man betrachtet Tabelle 1.10 und ermittelt: → Absolute Hӓufigkeiten 𝐻(50) = 0, 𝐻(51) = 1, 𝐻(52) = 0, 𝐻(53) = 1, 𝐻(54) = 1, 𝐻(55) = 0, 𝐻(56) = 0, 𝐻(57) = 2, 𝐻(58) = 0, 𝐻(59) = 0, … , 𝐻(63) = 0, 𝐻(64) = 2, 𝐻(65) = 1, 𝐻(66) = 0, 𝐻(67) = 0, 𝐻(68) = 1, 𝐻(69) = 0, 𝐻(70) = 0, … , 𝐻(81) = 0, 𝐻(82) = 1, 𝐻(83) = 0, … , 𝐻(90) = 0 → Relative Hӓufigkeiten 1 1 1 , ℎ(52) = 0, ℎ(53) = , ℎ(54) = , ℎ(55) = 0, 10 10 10 2 , ℎ(58) = 0, ℎ(59) = 0, … , ℎ(63) = 0, ℎ(56) = 0, ℎ(57) = 10 2 1 1 ℎ(64) = , ℎ(65) = , ℎ(66) = 0, ℎ(67) = 0, ℎ(68) = , 10 10 10 1 , ℎ(69) = 0, ℎ(70) = 0, … , ℎ(81) = 0, ℎ(82) = 10 ℎ(83) = 0, … , ℎ(90) = 0

ℎ(50) = 0, ℎ(51) =

→ Absolute Summenhӓufigkeiten 𝑆(50) = 0, 𝑆(51) = 1, 𝑆(52) = 1, 𝑆(53) = 2, 𝑆(54) = 3, 𝑆(55) = 3, 𝑆(56) = 3, 𝑆(57) = 5, 𝑆(58) = 5, 𝑆(59) = 5, … , 𝑆(63) = 5, 𝑆(64) = 7, 𝑆(65) = 8, 𝑆(66) = 8, 𝑆(67) = 8, 𝑆(68) = 9, 𝑆(69) = 9, 𝑆(70) = 9, … , 𝑆(81) = 9, 𝑆(82) = 10, 𝑆(83) = 10, … , 𝑆(90) = 10 → Relative Summenhӓufigkeiten 1 2 3 3 1 , 𝑠(52) = , 𝑠(53) = , 𝑠(54) = , 𝑠(55) = , 10 10 10 10 10 3 5 5 5 𝑠(56) = , 𝑠(57) = , 𝑠(58) = , 𝑠(59) = ,… , 10 10 10 10 5 7 8 8 𝑠(63) = , 𝑠(64) = , 𝑠(65) = , 𝑠(66) = , 10 10 10 10 9 9 9 8 , 𝑠(68) = , 𝑠(69) = , 𝑠(70) = ,… , 𝑠(67) = 10 10 10 10 9 , 𝑠(82) = 1, 𝑠(83) = 1, … , 𝑠(90) = 1 𝑠(81) = 10

𝑠(50) = 0, 𝑠(51) =

130

Teil 2 Kapitel 1 Deskriptive Statistik

Abbildung 1.13: Empirische Verteilungsfunktion für Aufgabe 1 2. Die Körpergrößen und Körpergewichte von zufӓllig ausgewӓhlten 10 mӓnnlichen Studierenden an einer Uni sind Tabelle 1.13 zu entnehmen: Tabelle 1.13: Körpergrößen und Körpergewichte Körpergröße (m) 1,80 1,75 1,83 1,65 1,77 1,73 1,79 1,69 1,90 1,81

Körpergewicht (kg) 84 70 95 72 65 82 72 68 95 80

Berechnen Sie den empirischen Korrelationskoeffizient zwischen den Körpergrößen und Körpergewichten der Studierenden. 131

Teil 2 Kapitel 1 Deskriptive Statistik

Lösung 2 Die Mittelwerte bzw. empirischen Standardabweichungen der Körpergrößen und Körpergewichte sind gegeben durch 𝑥̅ =

1,80 + 1,75 + 1,83 + ⋯ + 1,81 = 1,77 10

𝑦=

84 + 70 + 95 + ⋯ + 80 = 78,3 10

1 ((1,80 − 1,77) + (1,75 − 1,77) + ⋯ + (1,81 − 1,77) ) = 0,0717 9

𝑠 =

𝑠 =

1 ((84 − 78,3) + (70 − 78,3) + ⋯ + (80 − 78,3) ) = 10,7399 9

Die empirische Kovarianz zwischen den Körpergrößen und Körpergewichten errechnet sich aus 𝑠

=

1 10 − 1

𝑥 𝑦 − 10𝑥̅ 𝑦 1 (1,80)(84) + (1,75)(70) + ⋯ + (1,81)(80) 9 − 10(1,77)(78,3) = 0,5427

=

Folglich ermittelt man den empirischen Korrelationskoeffizient durch 𝑟

=

𝑠 0,5427 = = 0,7048 𝑠 𝑠 (0,0717)(10,7399)

Das Streudiagramm für die Körpergrößen und Körpergewichte ist in Abbildung 1.14 angegeben.

132

Teil 2 Kapitel 1 Deskriptive Statistik

Körpergewicht (kg)

Körpergrößen vs. Körpergewichte 100 90 80 70 60 50 40 30 20 10 0 1,6

1,65

1,7

1,75

1,8

1,85

1,9

1,95

Körpergröße (m) Abbildung 1.14: Streudiagramm für Aufgabe 3 3. Gegeben seien die Durchmesser der Kugeln einer Stichprobe (in mm): 25,2 18,4 18,8 27,3 30,5 33,3 24,9 24,7 31,4 31,5 23,6 24,4 Erstellen Sie das Stamm-und-Blatt-Diagramm für diese Stichprobe. Lösung 3 Das Stamm-und-Blatt-Diagramm für die Durchmesser der Kugeln ist in Tabelle 1.14 ersichtlich. Tabelle 1.14: Stamm-und-Blatt-Diagramm für Aufgabe 3 Stamm 1 2 3

Blatt 8,4; 8,8 3,6; 4,4; 4,7; 4,9; 5,2; 7,3 0,5; 1,4; 1,5; 3,3

133

Teil 2 Kapitel 2 Induktive Statistik

Kapitel 2 Induktive Statistik Die induktive bzw. schließende Statistik (Inferenzstatistik) beschӓftigt sich mit der Datenanalyse. Sie hat zwei wesentliche Aufgaben: (1) die Ableitung der Punktschӓtzung bzw. Intervallschӓtzung für die Parameter der Grundgesamtheit und (2) die Durchführung der Hypothesentests, um eine Behauptung (Hypothese) anhand von Stichprobendaten zu testen. In diesem Kapitel werden wir uns zunächst mit den drei Methoden der Punktschätzung als Parameterschӓtzungsmethode befassen. Anschließend werden wir die Typen der Konfidenzintervalle, die in diesem Kapitel behandelt werden, klassifizieren und mittels eindeutiger Vorgehensweisen erklären. Dabei werden wir auch eine Klassifikation für die Hypothesentests durchführen, die Zusammenhänge zwischen verschiedenen Fällen der Hypothesentests erkennen und jeden Hypothesentest anhand zweier Ansätze nachvollziehen. 2.1.

Punktschӓtzung als Parameterschӓtzungsmethode

Man geht davon aus, dass basierend auf einer Stichprobe mit den Merkmalswerten 𝑥 , 𝑥 , … , 𝑥 die Verteilungsfunktionen für die u.i.v. Zufallsvariablen 𝑋 , 𝑋 , … , 𝑋 gewӓhlt worden sind. Nun müssen die Parameter der 𝑋 , 𝑋 , … , 𝑋 punktweise mit einem Zahlenwert geschӓtzt werden. Seien 𝜃 = (𝜃 , 𝜃 , … , 𝜃 ): Parametervektor 𝜃 = (𝜃 , 𝜃 , … , 𝜃 ): Parameterschӓtzervektor Der Parameterschӓtzervektor 𝜃 entspricht in der Regel nicht dem wahren Parametervektor 𝜃. In den nӓchsten drei Abschnitten werden drei Methoden zur Punktschӓtzung dargelegt: Momentenmethode, Maximum-Likelihood-Methode, Schӓtzfunktionen durch Mittelwert und verzerrte Varianz. 2.1.1. Momentenmethode Seien 𝑋 , 𝑋 , … , 𝑋 : u.i.v. Zufallsvariablen 𝑥 , 𝑥 , … , 𝑥 : Stichprobe mit 𝑛 Merkmalswerten © Der/die Herausgeber bzw. der/die Autor(en), exklusiv lizenziert durch Springer Fachmedien Wiesbaden GmbH, ein Teil von Springer Nature 2020 E. Bas, Einführung in Wahrscheinlichkeitsrechnung, Statistik und Stochastische Prozesse, https://doi.org/10.1007/978-3-658-32120-8_5

Teil 2 Kapitel 2 Induktive Statistik

𝜃 = (𝜃 , 𝜃 , … , 𝜃 ): Momentenschӓtzervektor Man definiert wie folgt das k-te theoretische Moment und k-te empirische Moment: → Das k-te theoretische Moment von 𝑿 Man definiert das k-te theoretische Moment von 𝑋 als den Erwartungswert der kten Potenz von 𝑋, d. h. 𝜇 (𝜃) = 𝐸 𝑋 𝜃 = 𝐸 𝑋 𝜃 = ⋯ = 𝐸 𝑋 𝜃 = 𝐸 𝑋 𝜃

𝑘 = 1, 2, … , 𝑟

wobei gilt 𝜇 (𝜃) = 𝐸(𝑋 |𝜃) = 𝐸(𝑋 |𝜃) = ⋯ = 𝐸(𝑋 |𝜃) = 𝐸(𝑋|𝜃) → Das k-te empirische Moment Das k-te empirische Moment ist definiert aus den Merkmalswerten durch 𝑚 =

1 𝑛

𝑥

𝑚 =

1 𝑛

𝑥

wobei

das arithmetische Mittel ist. Gemäß der Momentenmethode wӓhlt man den Momentenschӓtzervektor 𝜃 = (𝜃 , 𝜃 , … , 𝜃 ) für den Parametervektor 𝜃 = (𝜃 , 𝜃 , … , 𝜃 ) so, dass die theoretischen und empirischen Momente übereinstimmen, d. h. 𝜇 𝜃 =𝑚 𝜇 𝜃 =𝑚 … 𝜇 𝜃 =𝑚 Dabei erhӓlt man den Momentenschӓtzervektor durch das Auflösen des obigen Gleichungssystems. 135

Teil 2 Kapitel 2 Induktive Statistik

Beispiel 1: Es liegt eine Stichprobe aus einer normalverteilten Zufallsvariable mit folgenden Merkmalswerten vor: 2, 5, 3, 12, 7, 6, 4, 8 Schӓtzen Sie die Parameter der normalverteilten Zufallsvariable durch die Momentenmethode. Lösung 1 Es seien 𝑋~𝑁(𝜇, 𝜎 ) 𝑥 , 𝑥 , … , 𝑥 : Stichprobe mit 𝑛 Merkmalswerten 𝜃 = (𝜇, 𝜎 ) 𝜃 = (𝜇̂ , 𝜎 ) → Momentenschätzer für 𝑿~𝑵(𝝁, 𝝈𝟐 ) → Das erste theoretische Moment von 𝑋~𝑁(𝜇, 𝜎 ) 𝜇 = 𝐸(𝑋) = 𝜇 → Das zweite theoretische Moment von 𝑋~𝑁(𝜇, 𝜎 ) 𝜇 = 𝐸(𝑋 ) = 𝑉𝑎𝑟(𝑋) + (𝐸(𝑋)) = 𝜎 + 𝜇 → Das erste empirische Moment 𝑚 =

1 𝑛

𝑥

→ Das zweite empirische Moment 𝑚 =

1 𝑛

𝑥

Man setzt die empirischen Momente mit den theoretischen Momenten gleich und ermittelt folgendermaßen die Momentenschätzer:

136

Teil 2 Kapitel 2 Induktive Statistik

𝜇 = 𝜇̂ = 𝑚 =

1 𝑛

𝜇 = 𝜎 + 𝜇̂ = 𝑚 =

𝜎 = 𝑚 − 𝜇̂ = 𝑚 − 𝑚 =

1 𝑛

𝑥 1 𝑛

𝑥

𝑥 −

1 𝑛

𝑥

→ Momentenschätzer für die gegebene Stichprobe: 𝜇̂ = 𝑚 = 𝑚 =

2 + 5 + 3 + ⋯+ 8 = 5,875 8

2 + 5 + 3 + ⋯+ 8 = 43,375 8

𝜎 = 𝑚 − 𝑚 = 43,375 − (5,875) = 8,8594 Daraus lautet die Schreibweise von 𝑋: 𝑋~𝑁(5,875; 8,8594) Beispiel 2: Die Merkmalswerte einer Stichprobe aus einer Poisson-Verteilung sind gegeben durch 3, 6, 4, 2, 3 Schӓtzen Sie den Parameter der Poisson-Verteilung durch die Momentenmethode. Lösung 2 Seien 𝑋~Poiss(𝜆) 𝑥 , 𝑥 , … , 𝑥 : Stichprobe mit 𝑛 Merkmalswerten 𝜃 = (𝜆) 𝜃 = (𝜆)

137

Teil 2 Kapitel 2 Induktive Statistik

→ Momentenschätzer für 𝑿~𝐏𝐨𝐢𝐬𝐬(𝝀) → Das erste theoretische Moment von 𝑋~Poiss(𝜆) 𝜇 = 𝐸(𝑋) = 𝜆 → Das erste empirische Moment 𝑚 =

1 𝑛

𝑥

Man setzt das empirische Moment mit dem theoretischen Moment gleich und ermittelt 𝜇 =𝜆=𝑚 =

1 𝑛

𝑥

→ Momentenschätzer für die gegebene Stichprobe 𝜆=𝑚 =

3+6+4+2+3 = 3,6 5

Damit ist die Schreibweise von 𝑋 gegeben durch 𝑋~Poiss(3,6) Beispiel 3: Sie vermuten, dass die Wartezeiten in einer Warteschlange exponentialverteilt sind. Es liegt folgende Stichprobe von 8 beobachteten Wartezeiten in Minuten vor: 32, 45, 40, 56, 55, 90, 75, 70 a) Schӓtzen Sie den Parameter der Exponentialverteilung durch die Momentenmethode. b) Bestimmen Sie die Wahrscheinlichkeit, mindestens 75 Minuten warten zu müssen, vorausgesetzt dass die Wartezeit schon 25 Minuten gedauert hat. Lösung 3 Sei 𝑋: Eine zufӓllige Wartezeit 138

Teil 2 Kapitel 2 Induktive Statistik

mit der Schreibweise 𝑋~exp(𝜆) Es seien auch 𝑥 , 𝑥 , … , 𝑥 : Stichprobe mit 𝑛 Merkmalswerten 𝜃 = (𝜆) 𝜃 = (𝜆) → Momentenschätzer für 𝑿~𝐞𝐱𝐩(𝝀) → Das erste theoretische Moment von 𝑋~exp(𝜆) 𝜇 = 𝐸(𝑋) =

1 𝜆

→ Das erste empirische Moment 𝑚 =

1 𝑛

𝑥

Man setzt wie immer das empirische Moment mit dem theoretischen Moment gleich und erhält 𝜇 =

1 𝜆

=𝑚 =

1 𝑛

𝑥

Daraus folgt 𝜆=

1 𝑛 = ∑ 𝑥 𝑚

a) Momentenschätzer für die gegebene Stichprobe 𝜆=

8 1 = = 0,0173 32 + 45 + 40 + ⋯ + 70 𝑚

Daher gilt 𝑋~exp(0,0173) 139

Teil 2 Kapitel 2 Induktive Statistik

b) Die Wahrscheinlichkeit, mindestens 75 Minuten warten zu müssen, vorausgesetzt dass die Wartezeit schon 25 Minuten gedauert hat, ist gegeben durch 𝑊(𝑋 ≥ 75 | 𝑋 > 25) = 𝑊(𝑋 ≥ 50) = 𝑒

,

(

)

= 0,4211

nach der Gedächtnislosigkeit der Exponentialverteilung. 2.1.2. Maximum-Likelihood-Methode (ML-Methode) Seien 𝑋 , 𝑋 , … , 𝑋 : u.i.v. Zufallsvariablen 𝑥 , 𝑥 , … , 𝑥 : Stichprobe mit 𝑛 Merkmalswerten 𝜃 = (𝜃 , 𝜃 , … , 𝜃 ): Maximum-Likelihood-Schӓtzer-Vektor Man definiert zunächst die sogenannte Likelihoodfunktion für 𝑋 , 𝑋 , … , 𝑋 als 𝐿(𝜃) = 𝑓

,

,…,

(𝑥 , 𝑥 , … , 𝑥 |𝜃) =

𝑓 (𝑥 |𝜃)

wobei 𝑓

,

(𝑥 , 𝑥 , … , 𝑥 |𝜃): Gemeinsame Wahrscheinlichkeitsfunktion bzw. gemeinsame Wahrscheinlichkeitsdichte für 𝑋 , 𝑋 , … , 𝑋 gegeben 𝜃 ,…,

Gemäß der ML-Methode ist der Maximum-Likelihood-Schӓtzer-Vektor 𝜃 = (𝜃 , 𝜃 , … , 𝜃 ) so gewӓhlt, dass 𝐿(𝜃) bzw. 𝑙𝑛(𝐿(𝜃)) maximal wird. Zu diesem Zweck leitet man 𝑙𝑛(𝐿(𝜃)) jeweils nach 𝜃 , 𝜃 , . . , 𝜃 ab, setzt diejenigen Ableitungen gleich 0 und löst simultan nach 𝜃 , 𝜃 , . . , 𝜃 auf, d. h. man führt 𝜕𝑙𝑛(𝐿(𝜃)) =0 𝜕𝜃 𝜕𝑙𝑛(𝐿(𝜃)) =0 𝜕𝜃 … 𝜕𝑙𝑛(𝐿(𝜃)) =0 𝜕𝜃

140

Teil 2 Kapitel 2 Induktive Statistik

durch und erhält nach dem Auflösen den Maximum-Likelihood-Schӓtzer-Vektor 𝜃 = 𝜃 ,𝜃 ,…,𝜃 . Beispiel 4: Bestimmen Sie den Maximum-Likelihood-Schӓtzer-Vektor 𝜃 = (𝜇̂ , 𝜎 ) für den unbekannten Parametervektor 𝜃 = (𝜇, 𝜎 ) der Normalverteilung. Lösung 4 Zur Erinnerung: Die Wahrscheinlichkeitsdichte von 𝑋~𝑁(𝜇, 𝜎 ) ist 𝑓(𝑥) =

1 𝜎√2𝜋

𝑒

(

) /

−∞ 5)) = 𝑊((𝑋 ≥ 4) |(𝑋 > 1)) = 𝑊(𝑋 ≥ 3) = 𝑒 , ( ) = 0,5488 2.2.

Konfidenzintervalle als Parameterschӓtzungsmethode

Man geht davon aus, dass basierend auf einer Stichprobe mit den Merkmalswerten 𝑥 , 𝑥 , … , 𝑥 die Verteilungsfunktionen für die u.i.v. Zufallsvariablen 𝑋 , 𝑋 , … , 𝑋 gewӓhlt worden sind. Nun müssen die Parameter der 𝑋 , 𝑋 , … , 𝑋 intervallweise mit Intervallschӓtzung geschӓtzt werden. Die Intervallschӓtzung gibt ein bestimmtes Intervall an, das basierend auf der Stichprobe den unbekannten Parameter der Grundgesamtheit mit einer bestimmten Wahrscheinlichkeit überdeckt. 2.2.1. Grundbegriffe der Konfidenzintervalle → Statistik Die Statistik ist eine Zufallsvariable, die aus den Zufallsvariablen 𝑋 , 𝑋 , … , 𝑋 berechnet wird. → Konfidenzniveau (Sicherheitsniveau, Vertrauenswahrscheinlichkeit, Überdeckungswahrscheinlichkeit) (𝟏 − 𝛂) Das Konfidenzniveau (1 − α) ist die Wahrscheinlichkeit, dass das sogenannte (1 − α) %-Konfidenzintervall den unbekannten Parameter der Grundgesamtheit überdeckt, wobei α: Signifikanzniveau (Irrtumswahrscheinlichkeit) für 0 < α < 1 festzulegen ist. 148

Teil 2 Kapitel 2 Induktive Statistik

Die typischen Werte des Signifikanzniveaus sind α = 0,01, α = 0,05 und α = 0,10. → 𝟏𝟎𝟎(𝟏 − 𝛂) %-Konfidenzintervall (Vertrauensintervall, Konfidenzbereich, Vertrauensbereich) Ein 100(1 − α) %-Konfidenzintervall gibt ein Intervall (einen Bereich) an, innerhalb dessen bei wiederholter Durchführung eines Zufallsvorgangs der wahre Wert des Parameters der Grundgesamtheit mit dem Konfidenzniveau (1 − α) zu erwarten ist. Weil sich die Stichprobenergebnisse von Stichprobe zu Stichprobe unterscheiden, kann die Intervallschӓtzung vorteilhafter als die Punktschӓtzung sein. Ein Konfidenzintervall kann in ein einseitiges und ein zweiseitiges Konfidenzintervall unterteilt werden. Tabelle 2.2 zeigt eine Klassifikation der 100(1 − α) % -Konfidenzintervalle, die in diesem Kapitel behandelt werden. Tabelle 2.2: Klassifikation der 100(1 − α) %-Konfidenzintervalle 100(1 − α) % Konfidenzintervalle für eine normalverteilte Grundgesamtheit Fall 1: 100(1 − α) %Konfidenzintervalle für den Erwartungswert, bekannte Varianz → Zweiseitiges Konfidenzintervall → Einseitiges Konfidenzintervall → Einseitiges, unteres Konfidenzintervall → Einseitiges, oberes Konfidenzintervall Fall 2: 100(1 − α) %Konfidenzintervalle für den Erwartungswert, unbekannte Varianz → Zweiseitiges Konfidenzintervall

100(1 − α) %Konfidenzintervalle für eine binomialverteilte Grundgesamtheit →100(1 − α) %approximiertes zweiseitiges Konfidenzintervall für die Erfolgswahrscheinlichkeit

100(1 − α) %Konfidenzintervalle für zwei normalverteilte Grundgesamtheiten Fall 1: 100(1 − α) %Konfidenzintervalle für die Differenz der Erwartungswerte, bekannte Varianzen → Zweiseitiges Konfidenzintervall → Einseitiges Konfidenzintervall → Einseitiges, unteres Konfidenzintervall → Einseitiges, oberes Konfidenzintervall Fall 2: 100(1 − α) % Konfidenzintervalle für die Differenz der Erwartungswerte, unbekannte und gleiche Varianzen → Zweiseitiges Konfidenzintervall 149

Teil 2 Kapitel 2 Induktive Statistik

100(1 − α) % Konfidenzintervalle für eine normalverteilte Grundgesamtheit

100(1 − α) %Konfidenzintervalle für eine binomialverteilte Grundgesamtheit

100(1 − α) %Konfidenzintervalle für zwei normalverteilte Grundgesamtheiten → Einseitiges Konfidenzintervall → Einseitiges, unteres Konfidenzintervall → Einseitiges, oberes Konfidenzintervall

→ Einseitiges Konfidenzintervall → Einseitiges, unteres Konfidenzintervall →Einseitiges, oberes Konfidenzintervall Fall 3: 100(1 − α) %Konfidenzintervalle für die Varianz → Zweiseitiges Konfidenzintervall → Einseitiges Konfidenzintervall → Einseitiges, unteres Konfidenzintervall → Einseitiges, oberes Konfidenzintervall

2.2.2. 𝟏𝟎𝟎(𝟏 − 𝛂) %-Konfidenzintervalle für eine normalverteilte Grundgesamtheit 𝑋 ~ 𝑁(𝜇, 𝜎 ) für 𝑖 = 1, 2, … , 𝑛 seien unabhängige und normalverteilte Zufallsvariablen. Fall 1: 𝟏𝟎𝟎(𝟏 − 𝛂) %-Konfidenzintervalle für den Erwartungswert einer normalverteilten Grundgesamtheit bei bekannter Varianz 𝑋 ~ 𝑁(𝜇, 𝜎 ) für 𝑖 = 1, 2, … , 𝑛 seien unabhängige und normalverteilte Zufallsvariablen mit unbekanntem 𝜇 und bekannter 𝜎 . Das arithmetische Mittel von 𝑋 ~ 𝑁(𝜇, 𝜎 ) für 𝑖 = 1, 2, … , 𝑛 ergibt sich nach der Formel 𝑋=

𝑋 + 𝑋 + ⋯+ 𝑋 𝑛

Daher ist 𝑋 eine normalverteilte Zufallsvariable und man ermittelt die Zufallsvariable 𝑍 mit

150

Teil 2 Kapitel 2 Induktive Statistik

𝑋 − 𝐸(𝑋)

𝑍=

𝑉𝑎𝑟(𝑋)

=

𝑋−𝜇 𝜎/√𝑛

als die standardnormalverteilte Statistik. Bemerkung: Man errechnet 𝐸(𝑋) und 𝑉𝑎𝑟(𝑋) durch 𝑋 + 𝑋 + ⋯+ 𝑋 1 1 = 𝐸(𝑋 ) + 𝐸(𝑋 ) + ⋯ + 𝐸(𝑋 ) = 𝑛𝜇 𝑛 𝑛 𝑛 =𝜇 𝑋 + 𝑋 + ⋯+ 𝑋 𝑉𝑎𝑟(𝑋) = 𝑉𝑎𝑟 𝑛 1 1 𝜎 = 𝑉𝑎𝑟(𝑋 ) + 𝑉𝑎𝑟(𝑋 ) + ⋯ + 𝑉𝑎𝑟(𝑋 ) = 𝑛𝜎 = 𝑛 𝑛 𝑛 𝐸(𝑋) = 𝐸

→ 𝟏𝟎𝟎(𝟏 − 𝛂) %-zweiseitiges Konfidenzintervall für den Erwartungswert 𝝁 Bei einem 100(1 − α) %-zweiseitigen Konfidenzintervall ist die Irrtumswahrscheinlichkeit auf beiden Seiten der (Gauß’schen) Glockenkurve festgelegt (s. Abbildung 2.1).

Abbildung 2.1: 100(1 − α) %-zweiseitiges Konfidenzintervall bei der 𝑧-Verteilung Zunӓchst ist das Signifikanzniveau α festzustellen. Daher gilt 𝑊(−𝑧 𝑊 −𝑧

/

/


𝑡

/ ;

+𝑊 𝑇

>𝑡

/ ;

+𝑊

𝑊

√𝑛 |𝑋 − 𝜇 | > 𝑡 𝑆

< −𝑡

𝑋−𝜇 𝑆/√𝑛 / ;



/ ;

< −𝑡

/ ;





Eine Realisierung der Zufallsvariablen 𝑋 und 𝑆 wird aus den Stichprobendaten ermittelt. Man unterscheidet, wie bei dem Fall 1, zwei Ansӓtze als Entscheidungsregeln: 210

Teil 2 Kapitel 2 Induktive Statistik

Ansatz 1

Ansatz 2 𝑝-Wert = 𝑊

𝐻 ist zu verwerfen, wenn gilt √𝑛 |𝑥̅ − 𝜇 | > 𝑡 / ; 𝑠 𝐻 ist zu akzeptieren, wenn gilt √𝑛 |𝑥̅ − 𝜇 | ≤ 𝑡 / ; 𝑠 √𝑛 √𝑛 |𝑋 − 𝜇 | ≥ |𝑥̅ − 𝜇 | = 𝑊 |𝑇 𝑆 𝑠

|≥

√𝑛 |𝑥̅ − 𝜇 | 𝑠

𝐻 ist zu verwerfen, wenn gilt α ≥ 𝑝-Wert 𝐻 ist zu akzeptieren, wenn gilt α < 𝑝-Wert → Einseitiger Hypothesentest (1) (linksseitiger Hypothesentest) Der linksseitige Hypothesentest lautet 𝐻 :𝜇 ≥𝜇 𝐻 :𝜇 < 𝜇

Abbildung 2.32: Linksseitiger Hypothesentest zum Signifikanzniveau von α bei der 𝑡-Verteilung Wenn 𝜇 = 𝜇 gilt, dann ist 𝑇

mit 𝑇

=

𝑋−𝜇 𝑆/√𝑛 211

Teil 2 Kapitel 2 Induktive Statistik

wiederum die 𝑡-verteilte Teststatistik (Prüfgröße) mit 𝑛 − 1 Freiheitsgraden. Eine Realisierung der Zufallsvariablen 𝑋 und 𝑆 wird aus den Stichprobendaten ermittelt. Man unterscheidet wiederum zwei Ansӓtze als Entscheidungsregeln (s. Abbildung 2.32): Ansatz 1

Ansatz 2 𝑝-Wert = 𝑊

𝐻 ist zu verwerfen, wenn gilt √𝑛 (𝑥̅ − 𝜇 ) < −𝑡 ; 𝑠 𝐻 ist zu akzeptieren, wenn gilt √𝑛 (𝑥̅ − 𝜇 ) ≥ −𝑡 ; 𝑠 √𝑛 √𝑛 (𝑋 − 𝜇 ) ≤ (𝑥̅ − 𝜇 ) = 𝑊 𝑇 𝑆 𝑠



√𝑛 (𝑥̅ − 𝜇 ) 𝑠

𝐻 ist zu verwerfen, wenn gilt α ≥ 𝑝-Wert 𝐻 ist zu akzeptieren, wenn gilt α < 𝑝-Wert → Einseitiger Hypothesentest (2) (rechtsseitiger Hypothesentest) Der rechtsseitige Hypothesentest lautet 𝐻 :𝜇 ≤𝜇 𝐻 :𝜇 > 𝜇

Abbildung 2.33: Rechtsseitiger Hypothesentest zum Signifikanzniveau von α bei der 𝑡-Verteilung 212

Teil 2 Kapitel 2 Induktive Statistik

Wenn 𝜇 = 𝜇 gilt, dann ist 𝑇

mit 𝑇

=

𝑋−𝜇 𝑆/√𝑛

wiederum die 𝑡-verteilte Teststatistik (Prüfgröße) mit 𝑛 − 1 Freiheitsgraden. Eine Realisierung der Zufallsvariablen 𝑋 und 𝑆 wird aus den Stichprobendaten ermittelt. Man unterscheidet wie immer zwei Ansӓtze als Entscheidungsregeln (s. Abbildung 2.33): Ansatz 1 𝐻 ist zu verwerfen, wenn gilt √𝑛 (𝑥̅ − 𝜇 ) > 𝑡 ; 𝑠 𝐻 ist zu akzeptieren, wenn gilt √𝑛 (𝑥̅ − 𝜇 ) ≤ 𝑡 ; 𝑠

Ansatz 2 𝑝-Wert = 𝑊

√𝑛 √𝑛 (𝑋 − 𝜇 ) ≥ (𝑥̅ − 𝜇 ) = 𝑊 𝑇 𝑆 𝑠



√𝑛 (𝑥̅ − 𝜇 ) 𝑠

𝐻 ist zu verwerfen, wenn gilt α ≥ 𝑝-Wert 𝐻 ist zu akzeptieren, wenn gilt α < 𝑝-Wert Beispiel 2: Die Körpergrößen von zufӓllig ausgewӓhlten 12 Studierenden wurden ermittelt als (in m) 1,67 1,53 1,57 1,72 1,70 1,59 1,61 1,74 1,65 1,63 1,60 1,58 Unter der Annahme, dass die Körpergrößen normalverteilt Erwartungswert 𝜇 sind, beantworten Sie folgende Fragen:

mit

dem

a) Testen Sie zum Signifikanzniveau von α = 0,01, ob 𝜇 = 1,60 gilt. b) Testen Sie zum Signifikanzniveau von α = 0,01, ob 𝜇 ≥ 1,60 gilt. c) Testen Sie zum Signifikanzniveau von α = 0,01, ob 𝜇 ≤ 1,60 gilt.

213

Teil 2 Kapitel 2 Induktive Statistik

Lösung 2 a) Zweiseitiger Hypothesentest Der zweiseitige Hypothesentest lautet 𝐻 : 𝜇 = 1,60 𝐻 : 𝜇 ≠ 1,60 Ansatz 1 Aus den Stichprobendaten berechnet man den Mittelwert und die empirische Standardabweichung durch 𝑥̅ = 𝑠 =

1,67 + 1,53 + 1,57 + ⋯ + 1,58 = 1,63 12

1 ((1,67 − 1,63) + (1,53 − 1,63) + ⋯ + (1,58 − 1,63) ) = 0,004 11

Somit 𝑠 = 0,063 Man bestimmt auch α = 0,01 𝑛 = 12 𝑡

/ ;

=𝑡

,

;

= 3,106

Abbildung 2.34: Zweiseitiger Hypothesentest zum Signifikanzniveau von α = 0,01 bei der 𝑡-Verteilung für Beispiel 2 214

Teil 2 Kapitel 2 Induktive Statistik

Damit erhält man √12 √𝑛 |𝑥̅ − 𝜇 | = |1,63 − 1,60| = 1,65 < 3,106 𝑠 0,063 (s. Abbildung 2.34) 𝐻 ist daher zu akzeptieren. Ansatz 2 𝑝-Wert = 𝑊(|𝑇 | ≥ 1,65) = 2𝑊(𝑇

≥ 1,65) > 2(0,05) = 0,1 > 0,01

weil 𝑡

,

;

= 1,796 → 𝑊(𝑇

> 1,796) = 0,05

nach dem Ablesen aus der 𝑡-Tabelle gilt. 𝐻 ist daher zu akzeptieren. b) Einseitiger Hypothesentest (1) (linksseitiger Hypothesentest) Der linksseitige Hypothesentest lautet 𝐻 : 𝜇 ≥ 1,60 𝐻 : 𝜇 < 1,60 Ansatz 1 Zur Erinnerung aus Teilaufgabe a): 𝑥̅ = 1,63 𝑠 = 0,063 Man benötigt auch α = 0,01 𝑛 = 12 𝑡

;

=𝑡

,

;

= 2,718

215

Teil 2 Kapitel 2 Induktive Statistik

Abbildung 2.35: Linksseitiger Hypothesentest zum Signifikanzniveau von α = 0,01 bei der 𝑡-Verteilung für Beispiel 2 Die aus den Stichprobendaten berechnete Realisierung der Teststatistik: √12 √𝑛 (𝑥̅ − 𝜇 ) = (1,63 − 1,60) = 1,65 > −2,718 𝑠 0,063 (s. Abbildung 2.35) 𝐻 ist daher zu akzeptieren. Ansatz 2 𝑝-Wert = 𝑊(𝑇

≤ 1,65) < 1 − 0,05 = 0,95 > 0,01

weil 𝑡

,

;

= 1,796 → 𝑊(𝑇 𝑊(𝑇

> 1,796) = 0,05

> 1,65) > 0,05

nach dem Ablesen aus der 𝑡 −Tabelle gelten. 𝐻 ist daher zu akzeptieren. c) Einseitiger Hypothesentest (2) (rechtsseitiger Hypothesentest) Der rechtsseitige Hypothesentest lautet 𝐻 : 𝜇 ≤ 1,60 𝐻 : 𝜇 > 1,60 216

Teil 2 Kapitel 2 Induktive Statistik

Ansatz 1 Zur Erinnerung aus Teilaufgaben a) und b): 𝑥̅ = 1,63 𝑠 = 0,063 α = 0,01 𝑛 = 12 𝑡

,

;

= 2,718

Abbildung 2.36: Rechtsseitiger Hypothesentest zum Signifikanzniveau von α = 0,01 bei der 𝑡-Verteilung für Beispiel 2 Dadurch wiederum gilt √12 √𝑛 (𝑥̅ − 𝜇 ) = (1,63 − 1,60) = 1,65 < 2,718 𝑠 0,063 (s. Abbildung 2.36) 𝐻 ist daher zu akzeptieren. Ansatz 2 𝑝-Wert = 𝑊(𝑇

≥ 1,65) > 0,05 > 0,01

weil 𝑡

,

;

= 1,796 → 𝑊(𝑇

> 1,796) = 0,05 217

Teil 2 Kapitel 2 Induktive Statistik

nach dem Ablesen aus der 𝑡-Tabelle gilt. 𝐻 ist daher zu akzeptieren. Fall 3: Einstichprobenhypothesentests für die Schӓtzung der Varianz 𝝈𝟐 𝑋 ~ 𝑁(𝜇, 𝜎 ) für 𝑖 = 1, 2, … , 𝑛 seien unabhängige und normalverteilte Zufallsvariablen mit unbekanntem 𝜇 und unbekannter 𝜎 . Sei 𝜎 ein bestimmter Wert. → Zweiseitiger Hypothesentest Der zweiseitige Hypothesentest lautet 𝐻 :𝜎 = 𝜎 𝐻 :𝜎 ≠ 𝜎

Abbildung 2.37: Zweiseitiger Hypothesentest zum Signifikanzniveau von α bei der Chi-Quadrat-Verteilung Wenn 𝜎 = 𝜎 gilt, dann ist 𝜒

mit 𝜒

= (𝑛 − 1)

𝑆 𝜎

die Chi-Quadrat-verteilte Teststatistik (Prüfgröße) mit 𝑛 − 1 Freiheitsgraden.

218

Teil 2 Kapitel 2 Induktive Statistik

Die Wahrscheinlichkeit, die Nullhypothese 𝐻 zu verwerfen, ist gegeben durch (s. Abbildung 2.37): 𝑊 (𝑛 − 1)

𝑆 >𝜒 𝜎

/ ;

+ 𝑊 (𝑛 − 1)

𝑆 𝜒 ; 𝜎 𝐻 ist zu akzeptieren, wenn gilt (𝑛 − 1)

≤𝜒

;

Ansatz 2 𝑝-Wert = 𝑊 (𝑛 − 1)

𝑆 𝑠 ≥ (𝑛 − 1) 𝜎 𝜎

=𝑊 𝜒

≥ (𝑛 − 1)

𝑠 𝜎

𝐻 ist zu verwerfen, wenn gilt α ≥ 𝑝-Wert 𝐻 ist zu akzeptieren, wenn gilt α < 𝑝-Wert Beispiel 3: Betrachten Sie den folgenden Hypothesentest: 𝐻 : 𝜎 = 0,01 𝐻 : 𝜎 ≠ 0,01 Testen Sie zum Signifikanzniveau von 0,05 die Nullhypothese 𝐻 gegen die Alternativhypothese 𝐻 mit einer Stichprobe von 20 Daten. (Nehmen Sie an, dass 𝑠 = 0,027.) Lösung 3 → Zweiseitiger Hypothesentest Der zweiseitige Hypothesentest lautet 𝐻 : 𝜎 = 0,01 𝐻 : 𝜎 ≠ 0,01 222

Teil 2 Kapitel 2 Induktive Statistik

Ansatz 1 Nach der Bestimmung der folgenden Parameter α = 0,05 𝑛 = 20 𝜒 𝜒

=𝜒

/ ; / ;

=𝜒

,

,

= 8,907

; ;

= 32,852

wird die folgende Realisierung der Teststatistik ermittelt: (𝑛 − 1)

0,027 𝑠 = 19 = 51,3 > 32,852 0,01 𝜎 (s. Abbildung 2.40) 𝐻 ist daher zu verwerfen.

Ansatz 2 𝑊(𝜒

> 51,3) < 0,005 (nach dem Ablesen aus der Chi-Quadrat-Tabelle)

Somit gelten 𝑊(𝜒

≤ 51,3) > 1 − 0,005 = 0,995

1 − 𝑊(𝜒

≤ 51,3) < 0,005

Daher folgt 𝑝-Wert = 2min 𝑊(𝜒

≤ 51,3); 1 − 𝑊(𝜒

≤ 51,3) < 2(0,005) = 0,01

< 0,05 𝐻 ist daher zu verwerfen.

223

Teil 2 Kapitel 2 Induktive Statistik

Abbildung 2.40: Zweiseitiger Hypothesentest zum Signifikanzniveau von α = 0,05 bei der Chi-Quadrat-Verteilung für Beispiel 3 2.3.3. Zweistichprobenhypothesentests für normalverteilte Grundgesamtheiten In diesem Abschnitt werden Zweistichprobenhypothesentests für normalverteilte und unabhängige Grundgesamtheiten bzw. für abhängige Grundgesamtheiten betrachtet. 2.3.3.1. Zweistichprobenhypothesentests für normalverteilte und unabhängige Grundgesamtheiten Völlig analog zu den Schritten der Einstichprobenhypothesentests für eine normalverteilte Grundgesamtheit folgen die Schritte der Zweistichprobenhypothesentests für zwei normalverteilte unabhängige Grundgesamtheiten. Fall 1: Zweistichprobenhypothesentests für die Schӓtzung der Gleichung/ Ungleichung der Erwartungswerte 𝝁𝑿 und 𝝁𝒀 bei bekannten Varianzen Seien 𝑋 , 𝑋 , … , 𝑋 ~ 𝑁(𝜇 , 𝜎 ) 𝑌 , 𝑌 , … , 𝑌 ~ 𝑁(𝜇 , 𝜎 ) zwei unabhӓngige und normalverteilte Stichproben mit unbekannten 𝜇 , 𝜇 und bekannten 𝜎 , 𝜎 .

224

Teil 2 Kapitel 2 Induktive Statistik

→ Zweiseitiger Hypothesentest Der zweiseitige Hypothesentest lautet 𝐻 :𝜇 = 𝜇 𝐻 :𝜇 ≠ 𝜇 Wenn 𝜇 = 𝜇 gilt, dann ist 𝑍 mit 𝑍=

𝑋 − 𝑌 − (𝜇 − 𝜇 ) 𝜎 𝜎 + 𝑛 𝑚

𝑋−𝑌

=

𝜎 𝜎 + 𝑛 𝑚

die standardnormalverteilte Teststatistik (Prüfgröße). Die Wahrscheinlichkeit, die Nullhypothese 𝐻 zu verwerfen, ist gegeben durch 𝑊 𝑍>𝑧 𝑊⎛

𝑋−𝑌

𝜎 𝜎 ⎝ 𝑛 +𝑚

>𝑧

+ 𝑊 𝑍 < −𝑧

/

/

⎞+𝑊⎛ ⎠

𝑊⎛ ⎝

𝑋−𝑌 𝜎 𝜎 + 𝑛 𝑚

/

𝑋−𝑌

𝜎 𝜎 ⎝ 𝑛 +𝑚 >𝑧

=α < −𝑧

/

⎞=α ⎠

⎞=α

/



Eine Realisierung der Zufallsvariablen 𝑋 und 𝑌 wird aus den Stichprobendaten ermittelt. Ansatz 1 𝐻 ist zu verwerfen, wenn gilt 𝑥̅ − 𝑦

>𝑧 / 𝜎 𝜎 + 𝑛 𝑚 𝐻 ist zu akzeptieren, wenn gilt 𝑥̅ − 𝑦 𝜎 𝜎 + 𝑛 𝑚

≤𝑧

/

225

Teil 2 Kapitel 2 Induktive Statistik

Ansatz 2

𝑝-Wert = 𝑊 ⎛ ⎝

𝑋−𝑌 𝜎 𝜎 + 𝑛 𝑚

𝑥̅ − 𝑦



⎞ = 𝑊 ⎛|𝑍| ≥

𝜎 𝜎 + 𝑛 𝑚 ⎠



𝑥̅ − 𝑦

⎞ 𝜎 𝜎 + 𝑛 𝑚 ⎠

𝐻 ist zu verwerfen, wenn gilt α ≥ 𝑝-Wert 𝐻 ist zu akzeptieren, wenn gilt α < 𝑝-Wert → Einseitiger Hypothesentest (1) (linksseitiger Hypothesentest) Der linksseitige Hypothesentest lautet 𝐻 :𝜇 ≥ 𝜇 𝐻 :𝜇 < 𝜇 Eine Realisierung der Zufallsvariablen 𝑋 und 𝑌 wird aus den Stichprobendaten ermittelt. Man unterscheidet wiederum zwei Ansӓtze als Entscheidungsregeln: Ansatz 1 𝐻 ist zu verwerfen, wenn gilt 𝑥̅ − 𝑦 < −𝑧 𝜎 𝜎 + 𝑛 𝑚 𝐻 ist zu akzeptieren, wenn gilt 𝑥̅ − 𝑦 ≥ −𝑧 𝜎 𝜎 + 𝑛 𝑚

Ansatz 2

𝑝-Wert = 𝑊 ⎛

𝑋−𝑌

𝜎 𝜎 ⎝ 𝑛 +𝑚

226



𝑥̅ − 𝑦

⎞ = 𝑊 ⎛𝑍 ≤

𝜎 𝜎 + ⎠ 𝑛 𝑚



𝑥̅ − 𝑦

⎞ 𝜎 𝜎 + ⎠ 𝑛 𝑚

Teil 2 Kapitel 2 Induktive Statistik

𝐻 ist zu verwerfen, wenn gilt α ≥ 𝑝-Wert 𝐻 ist zu akzeptieren, wenn gilt α < 𝑝-Wert → Einseitiger Hypothesentest (2) (rechtsseitiger Hypothesentest) Der rechtsseitige Hypothesentest lautet 𝐻 :𝜇 ≤ 𝜇 𝐻 :𝜇 > 𝜇 Eine Realisierung der Zufallsvariablen 𝑋 und 𝑌 wird aus den Stichprobendaten ermittelt. Man unterscheidet wieder zwei Ansӓtze als Entscheidungsregeln: Ansatz 1 𝐻 ist zu verwerfen, wenn gilt 𝑥̅ − 𝑦 >𝑧 𝜎 𝜎 + 𝑛 𝑚 𝐻 ist zu akzeptieren, wenn gilt 𝑥̅ − 𝑦 ≤𝑧 𝜎 𝜎 + 𝑛 𝑚 Ansatz 2

𝑝-Wert = 𝑊 ⎛

𝑋−𝑌

𝜎 𝜎 ⎝ 𝑛 +𝑚



𝑥̅ − 𝑦

⎞ = 𝑊 ⎛𝑍 ≥

𝜎 𝜎 + ⎠ 𝑛 𝑚



𝑥̅ − 𝑦

⎞ 𝜎 𝜎 + ⎠ 𝑛 𝑚

𝐻 ist zu verwerfen, wenn gilt α ≥ 𝑝-Wert 𝐻 ist zu akzeptieren, wenn gilt α < 𝑝-Wert Beispiel 4: Es soll die durchschnittlichen Lebenszeiten von Reifen, die durch zwei verschiedene Fertigungsverfahren hergestellt werden, verglichen werden. Zu diesem Zweck hat man die in Tabelle 2.16 angegebenen Daten aus zwei Stichproben gesammelt: 227

Teil 2 Kapitel 2 Induktive Statistik

Tabelle 2.16: Lebenszeiten von Reifen Lebenszeiten von Reifen (km) (Fertigungsverfahren A) 30200 28300 31250 29500 29000 28750 30100 30200 29750 29500

Lebenszeiten von Reifen (km) (Fertigungsverfahren B) 29100 31000 30850 30050 27500 29450 30000 27500

Man behauptet, dass die Lebenszeiten der Reifen unabhängig voneinander und normalverteilt mit 𝜇 und 𝜎 = 5000 bzw. 𝜇 und 𝜎 = 4000 seien. a) Testen Sie zum Signifikanzniveau von α = 0,05, ob 𝐻 : 𝜇 = 𝜇 gilt. b) Testen Sie zum Signifikanzniveau von α = 0,05, ob 𝐻 : 𝜇 ≥ 𝜇 gilt. c) Testen Sie zum Signifikanzniveau von α = 0,05, ob 𝐻 : 𝜇 ≤ 𝜇 gilt. Lösung 4 a) Zweiseitiger Hypothesentest Der zweiseitige Hypothesentest lautet 𝐻 :𝜇 = 𝜇 𝐻 :𝜇 ≠ 𝜇 Ansatz 1 Zunächst sind die folgenden Parameter festzustellen:

228

𝑥̅ =

30200 + 28300 + ⋯ + 29500 = 29655 10

𝑥̅ =

29100 + 31000 + ⋯ + 27500 = 29431 8

Teil 2 Kapitel 2 Induktive Statistik

𝜎 = 5000 = 25000000 𝜎 = 4000 = 16000000 𝑛 = 10, 𝑚 = 8 α = 0,05 𝑧

=𝑧

/

,

= 1,96

Aus der Stichprobendaten ermittelte Realisierung der Teststatistik ist gegeben durch 𝑥̅ − 𝑥̅ 𝜎 𝜎 + 𝑛 𝑚

=

29655 − 29431

= 0,1056 < 1,96 25000000 16000000 + 8 10 𝐻 ist daher zu akzeptieren.

Ansatz 2 𝑝-Wert = 𝑊(|𝑍| ≥ 0,1056) = 2𝑊(𝑍 ≥ 0,1056) = 2 1 − Φ(0,1056) ≅ 2(1 − 0,5438) = 0,9124 > 0,05 𝐻 ist daher zu akzeptieren. b) Einseitiger Hypothesentest (1) (linksseitiger Hypothesentest) Der linksseitige Hypothesentest lautet 𝐻 :𝜇 ≥ 𝜇 𝐻 :𝜇 < 𝜇 Ansatz 1 Zur Erinnerung aus Teilaufgabe a): 𝑥̅ = 29655 𝑥̅ = 29431 𝜎 = 25000000 𝜎 = 16000000

229

Teil 2 Kapitel 2 Induktive Statistik

Weil 𝑧

,

= 1,645

gilt, daher folgt 𝑥̅ − 𝑥̅ 𝜎 𝜎 + 𝑛 𝑚

=

29655 − 29431 25000000 16000000 + 8 10

= 0,1056 > −1,645

𝐻 ist daher zu akzeptieren. Ansatz 2 𝑊(𝑍 ≤ 0,1056) = Φ(0,1056) ≅ 0,5438 > 0,05 𝐻 ist daher zu akzeptieren. c) Einseitiger Hypothesentest (2) (rechtsseitiger Hypothesentest) Der rechtsseitige Hypothesentest lautet 𝐻 :𝜇 ≤ 𝜇 𝐻 :𝜇 > 𝜇 Ansatz 1 Zur Erinnerung aus Teilaufgaben a) und b): 𝑥̅ = 29655 𝑥̅ = 29431 𝜎 = 25000000 𝜎 = 16000000 𝑧

,

= 1,645

Analog zur Teilaufgabe b) wird errechnet: 𝑥̅ − 𝑥̅ 𝜎 𝜎 + 𝑛 𝑚

230

=

29655 − 29431

= 0,1056 < 1,645 25000000 16000000 + 8 10 𝐻 ist daher zu akzeptieren.

Teil 2 Kapitel 2 Induktive Statistik

Ansatz 2 𝑝-Wert = 𝑊(𝑍 ≥ 0,1056) = 1 − Φ(0,1056) ≅ 1 − 0,5438 = 0,4562 > 0,05 𝐻 ist daher zu akzeptieren. Fall 2: Zweistichprobenhypothesentests für die Schӓtzung der Gleichung/ Ungleichung der Erwartungswerte 𝝁𝐗 und 𝝁𝐘 bei unbekannten Varianzen Seien 𝑋 , 𝑋 , … , 𝑋 ~ 𝑁(𝜇 , 𝜎 ) 𝑌 , 𝑌 , … , 𝑌 ~ 𝑁(𝜇 , 𝜎 ) zwei unabhӓngige und normalverteilte Stichproben mit den unbekannten 𝜇 , 𝜇 und unbekannten 𝜎 , 𝜎 . Analog zum Fall 2 für die Konfidenzintervalle der zwei normalverteilten Grundgesamtheiten, wird die Beschrӓnkung von 𝜎 = 𝜎 angenommen. → Zweiseitiger Hypothesentest Der zweiseitige Hypothesentest lautet 𝐻 :𝜇 = 𝜇 𝐻 :𝜇 ≠ 𝜇 Wenn 𝜇 = 𝜇 gilt, dann ist 𝑇 𝑇

=

mit

𝑋 − 𝑌 − (𝜇 − 𝜇 ) 𝑆

1 1 + 𝑛 𝑚

𝑋−𝑌

= 𝑆

1 1 + 𝑛 𝑚

die 𝑡-verteilte Teststatistik (Prüfgröße) mit 𝑛 + 𝑚 − 2 Freiheitsgraden, wobei 𝑆 =

(𝑛 − 1)𝑆 + (𝑚 − 1)𝑆 𝑛+𝑚−2

Eine Realisierung der Zufallsvariablen 𝑋, 𝑌, 𝑆 wird aus den Stichprobendaten ermittelt. Man unterscheidet wie immer zwei Ansӓtze als Entscheidungsregeln:

231

Teil 2 Kapitel 2 Induktive Statistik

Ansatz 1 𝐻 ist zu verwerfen, wenn gilt 𝑥̅ − 𝑦 1 1 + 𝑛 𝑚

𝑠

>𝑡

/ ;

𝐻 ist zu akzeptieren, wenn gilt 𝑥̅ − 𝑦 1 1 + 𝑛 𝑚

𝑠 𝑠 =

≤𝑡

/ ;

(𝑛 − 1)𝑠 + (𝑚 − 1)𝑠 𝑛+𝑚−2

Ansatz 2 𝑋−𝑌

𝑝-Wert = 𝑊 ⎛ ⎝

𝑆

1 1 + 𝑛 𝑚

= 𝑊 ⎛|𝑇 ⎝

𝑥̅ − 𝑦



⎞ 1 1 + 𝑛 𝑚 ⎠

𝑠

𝑥̅ − 𝑦

|≥ 𝑠

⎞ 1 1 + 𝑛 𝑚 ⎠

𝐻 ist zu verwerfen, wenn gilt α ≥ 𝑝-Wert 𝐻 ist zu akzeptieren, wenn gilt α < 𝑝-Wert → Einseitiger Hypothesentest (1) (linksseitiger Hypothesentest) Der linksseitige Hypothesentest lautet 𝐻 :𝜇 ≥ 𝜇 𝐻 :𝜇 < 𝜇 Eine Realisierung der Zufallsvariablen 𝑋, 𝑌, 𝑆 wird aus den Stichprobendaten ermittelt. Man unterscheidet folgende zwei Ansӓtze als Entscheidungsregeln: 232

Teil 2 Kapitel 2 Induktive Statistik

Ansatz 1 𝐻 ist zu verwerfen, wenn gilt 𝑥̅ − 𝑦 < −𝑡 ; 1 1 + 𝑠 𝑛 𝑚 𝐻 ist zu akzeptieren, wenn gilt 𝑥̅ − 𝑦 ≥ −𝑡 ; 1 1 + 𝑠 𝑛 𝑚 (𝑛 − 1)𝑠 + (𝑚 − 1)𝑠 𝑠 = 𝑛+𝑚−2 Ansatz 2 𝑋−𝑌

𝑝-Wert = 𝑊 ⎛ ⎝ 𝑆

1 1 + 𝑛 𝑚

𝑥̅ − 𝑦



= 𝑊 ⎛𝑇 ⎝

⎞ 1 1 + 𝑛 𝑚 ⎠

𝑠

𝑥̅ − 𝑦

≤ 𝑠

⎞ 1 1 + 𝑛 𝑚 ⎠

𝐻 ist zu verwerfen, wenn gilt α ≥ 𝑝-Wert 𝐻 ist zu akzeptieren, wenn gilt α < 𝑝-Wert → Einseitiger Hypothesentest (2) (rechtsseitiger Hypothesentest) Der rechtsseitige Hypothesentest lautet 𝐻 :𝜇 ≤ 𝜇 𝐻 :𝜇 > 𝜇 Eine Realisierung der Zufallsvariablen 𝑋, 𝑌, 𝑆 wird aus den Stichprobendaten ermittelt. Man unterscheidet folgende zwei Ansӓtze als Entscheidungsregeln:

233

Teil 2 Kapitel 2 Induktive Statistik

Ansatz 1 𝐻 ist zu verwerfen, wenn gilt 𝑥̅ − 𝑦 >𝑡 ; 1 1 + 𝑠 𝑛 𝑚 𝐻 ist zu akzeptieren, wenn gilt 𝑥̅ − 𝑦 ≤𝑡 ; 1 1 + 𝑠 𝑛 𝑚 (𝑛 − 1)𝑠 + (𝑚 − 1)𝑠 𝑠 = 𝑛+𝑚−2 Ansatz 2 𝑋−𝑌

𝑝-Wert = 𝑊 ⎛ ⎝ 𝑆

1 1 + 𝑛 𝑚

= 𝑊 ⎛𝑇

𝑥̅ − 𝑦



⎞ 1 1 + 𝑛 𝑚 ⎠

𝑠

𝑥̅ − 𝑦





𝑠

⎞ 1 1 + 𝑛 𝑚 ⎠

𝐻 ist zu verwerfen, wenn gilt α ≥ 𝑝-Wert 𝐻 ist zu akzeptieren, wenn gilt α < 𝑝-Wert Beispiel 4 (fortgesetzt): 𝜎 , 𝜎 : nicht vorgegeben. a) Testen Sie zum Signifikanzniveau von α = 0,05, ob 𝐻 : 𝜇 = 𝜇 gilt. b) Testen Sie zum Signifikanzniveau von α = 0,05, ob 𝐻 : 𝜇 ≥ 𝜇 gilt. c) Testen Sie zum Signifikanzniveau von α = 0,05, ob 𝐻 : 𝜇 ≤ 𝜇 gilt.

234

Teil 2 Kapitel 2 Induktive Statistik

Lösung 4 (fortgesetzt) a) Zweiseitiger Hypothesentest Der zweiseitige Hypothesentest lautet 𝐻 :𝜇 = 𝜇 𝐻 :𝜇 ≠ 𝜇 Ansatz 1 Zur Erinnerung aus Beispiel 4, Teilaufgabe a): 𝑥̅ = 6138 𝑥̅ = 6107 Man berechnet die empirischen Standardabweichungen durch 1 𝑠 = ((5734 − 6138) + (5845 − 6138) + ⋯ + (6355 − 6138) ) 9 = 126964 1 𝑠 = ((6225 − 6107) + (5667 − 6107) + ⋯ + (6700 − 6107) ) 7 = 245248 Somit 𝑠 =

(𝑛 − 1)𝑠 + (𝑚 − 1)𝑠 (10 − 1)126964 + (8 − 1)245248 = = 178713 𝑛+𝑚−2 10 + 8 − 2

Man bestimmt α = 0,05 𝑛 = 10, 𝑚 = 8 𝑡

/ ;

=𝑡

,

;

= 2,120

Dazu folgt eine aus der Stichprobendaten errechnete Realisierung der Teststatistik:

235

Teil 2 Kapitel 2 Induktive Statistik

𝑥̅ − 𝑥̅ 𝑠

=

1 1 + 𝑛 𝑚

6138 − 6107 1 1 + 178713 10 8

= 0,155 < 2,120

𝐻 ist daher zu akzeptieren. Ansatz 2 Nach dem Ablesen der 𝑡-Tabelle gilt 𝑊(𝑇

> 0,155) > 0,10

Damit folgt 𝑝-Wert = 𝑊(|𝑇 | ≥ 0,155) = 2𝑊(𝑇

≥ 0,155) > 2(0,10) = 0,20 > 0,05

𝐻 ist daher zu akzeptieren. b) Einseitiger Hypothesentest (1) (linkssseitiger Hypothesentest) Der linksseitige Hypothesentest lautet 𝐻 :𝜇 ≥ 𝜇 𝐻 :𝜇 < 𝜇 Ansatz 1 Zur Erinnerung aus Teilaufgabe a): 𝑥̅ = 6138 𝑥̅ = 6107 𝑠 = 178713 Nach der Bestimmung von α = 0,05 𝑛 = 10, 𝑚 = 8 𝑡

236

;

=𝑡

,

;

= 1,746

Teil 2 Kapitel 2 Induktive Statistik

folgt 𝑥̅ − 𝑥̅ 1 1 + 𝑛 𝑚

𝑠

=

6138 − 6107 1 1 + 178713 10 8

= 0,155 > −1,746

𝐻 ist daher zu akzeptieren. Ansatz 2 Nach dem Ablesen der 𝑡-Tabelle gilt 𝑊(𝑇

> 0,155) > 0,10

Dadurch folgt 𝑝-Wert = 𝑊(𝑇

≤ 0,155) < 1 − 0,10 = 0,90 > 0,05

𝐻 ist daher zu akzeptieren. c) Einseitiger Hypothesentest (2) (rechtsseitiger Hypothesentest) Der rechtsseitige Hypothesentest lautet 𝐻 :𝜇 ≤ 𝜇 𝐻 :𝜇 > 𝜇 Ansatz 1 Zur Erinnerung aus Teilaufgaben a) und b): 𝑥̅ = 6138 𝑥̅ = 6107 𝑠 = 178713 𝑡

,

;

= 1,746

Wiederum erhält man 𝑥̅ − 𝑥̅ 𝑠

1 1 + 𝑛 𝑚

=

6138 − 6107 1 1 + 178713 10 8

= 0,155 < 1,746

𝐻 ist daher zu akzeptieren. 237

Teil 2 Kapitel 2 Induktive Statistik

Ansatz 2 𝑝-Wert = 𝑊(𝑇

≥ 0,155) > 0,10 > 0,05

𝐻 ist daher zu akzeptieren. 2.3.3.2. Zweistichprobenhypothesentests für abhängige Grundgesamtheiten (gepaarter 𝒕-Test) Seien 𝑋 ,𝑋 ,…,𝑋 𝑌 ,𝑌 ,…,𝑌 zwei paarweise abhӓngige Stichproben, d. h. jedes Paar (𝑋 , 𝑌 ) für 𝑖 = 1, 2, … , 𝑛 sei verbunden. Man geht davon aus, dass für unbekannte 𝜇 ,𝜎 𝑊 , 𝑊 , … , 𝑊 ~𝑁(𝜇 , 𝜎 ) unabhӓngige und normalverteilte Zufallsvariablen seien, wobei 𝑊 = 𝑋 − 𝑌 , 𝑖 = 1, 2, … , 𝑛 bezeichnet. → Zweiseitiger Hypothesentest Der zweiseitige Hypothesentest lautet

Dann gilt 𝑇

𝐻 :𝜇

=0

𝐻 :𝜇

≠0

mit 𝑇

=

𝑊 𝑆 /√𝑛

= √𝑛

𝑊 𝑆

als 𝑡-verteilte Teststatistik (Prüfgröße) mit 𝑛 − 1 Freiheitsgraden. Eine Realisierung der Zufallsvariablen 𝑊 und 𝑆 wird aus den Stichprobendaten ermittelt. Man unterscheidet wie immer zwei Ansӓtze als Entscheidungsregeln:

238

Teil 2 Kapitel 2 Induktive Statistik

Ansatz 1 𝐻 ist zu verwerfen, wenn gilt 𝑤 >𝑡 / ; √𝑛 𝑠 𝐻 ist zu akzeptieren, wenn gilt 𝑤 ≤𝑡 / ; √𝑛 𝑠 Ansatz 2 𝑝-Wert = 𝑊

√𝑛

𝑊 𝑤 ≥ √𝑛 𝑆 𝑠

= 𝑊 |𝑇

| ≥ √𝑛

𝑤 𝑠

𝐻 ist zu verwerfen, wenn gilt α ≥ 𝑝-Wert 𝐻 ist zu akzeptieren, wenn gilt α < 𝑝-Wert → Einseitiger Hypothesentest (1) (linksseitiger Hypothesentest) Der linksseitige Hypothesentest lautet 𝐻 :𝜇

≥0

𝐻 :𝜇

0

Eine Realisierung der Zufallsvariablen 𝑊 und 𝑆 wird aus den Stichprobendaten ermittelt. Man unterscheidet wieder zwei Ansӓtze als Entscheidungsregeln: Ansatz 1 𝐻 ist zu verwerfen, wenn gilt 𝑤 >𝑡 ; √𝑛 𝑠 𝐻 ist zu akzeptieren, wenn gilt 𝑤 ≤𝑡 ; √𝑛 𝑠 Ansatz 2 𝑝-Wert = 𝑊 √𝑛

𝑊 𝑤 ≥ √𝑛 𝑆 𝑠

=𝑊 𝑇

≥ √𝑛

𝑤 𝑠

𝐻 ist zu verwerfen, wenn gilt α ≥ 𝑝-Wert 𝐻 ist zu akzeptieren, wenn gilt α < 𝑝-Wert Beispiel 5: 10 Studierende haben vor und nach einem Trainingsprogramm an einem bestimmten Test teilgenommen. Die Testergebnisse sind in Tabelle 2.17 ersichtlich: 240

Teil 2 Kapitel 2 Induktive Statistik

Tabelle 2.17: Testergebnisse Person Nummer Vor dem Trainingsprogramm Nach dem Trainingsprogramm

1 45

2 67

3 89

4 44

5 77

6 75

7 68

8 89

9 55

10 100

64

71

80

67

83

72

75

83

70

96

Die Differenzen der Testergebnisse vor und nach dem Programm können als normalverteilt angenommen werden. Testen Sie zum Signifikanzniveau α = 0,05, ob die Nullhypothese 𝐻 : Die durchschnittlichen Leistungen weichen vor und nach dem Trainingsprogramm nicht systematisch voneinander ab gilt. Lösung 5 Man definiert für 𝑖 = 1, 2, … ,10 𝑊 =𝑊

,

−𝑊

,

Dann lautet der zweiseitige Hypothesentest 𝐻 :𝜇

=0

𝐻 :𝜇

≠0

Die Realisierungen der Zufallsvariablen 𝑊 für 𝑖 = 1, 2, … ,10 werden aus den Stichprobendaten errechnet (s. Tabelle 2.18): Tabelle 2.18: Differenzen der Testergebnisse Person Nummer 𝑤

1

2

3

4

5

6

7

8

9

10

−19

−4

9

−23

−6

3

−7

6

−15

4

241

Teil 2 Kapitel 2 Induktive Statistik

Ansatz 1 Die erforderlichen Parameter sind folgendermaßen ermittelt: 𝑤=

−19 − 4 + 9 − ⋯ + 4 = −5,2 10

1 𝑠 = ((−19 + 5,2) + (−4 + 5,2) + (9 + 5,2) + ⋯ + (4 + 5,2) ) 9 = 120,84 𝑠 = 10,99 α = 0,05 𝑛 = 10 𝑡

/ ;

=𝑡

,

;

= 2,262

Daher errechnet man √𝑛

𝑤 −5,2 = √10 = 1,496 < 2,262 𝑠 10,99 𝐻 ist daher zu akzeptieren.

Ansatz 2 𝑝-Wert = 𝑊(|𝑇 | ≥ 1,496) = 2𝑊(𝑇 ≥ 1,496) Man liest 𝑊(𝑇 > 1,833) = 0,05 𝑊(𝑇 > 1,383) = 0,10 aus der 𝑡-Tabelle ab. Nach der linearen Interpolation berechnet man 1,833 − 1,496 1,833 − 1,383 = 𝑊(𝑇 > 1,496) − 0,05 0,10 − 0,05 𝑊(𝑇 > 1,496) = 0,087 Damit gilt 𝑝-Wert = 2𝑊(𝑇 ≥ 1,496) = 2(0,087) = 0,174 > 0,05 𝐻 ist daher zu akzeptieren. 242

Teil 2 Kapitel 2 Induktive Statistik

Aufgaben 2.3 1. In einer Stichprobe wurden die IQ-Werte von zufӓllig ausgewӓhlten 15 Studierenden ermittelt (s. Tabelle 2.19). Tabelle 2.19: IQ-Werte für Aufgabe 1 125 138 124 140 117

IQ-Werte 124 150 131 129 133

151 127 133 130 119

Man nimmt an, dass die IQ-Werte der Studierenden mit den Parametern 𝜇 and 𝜎 = 0,5 einer Normalverteilung genügen. Überprüfen Sie zum Signifikanzniveau von α = 0,05, ob die Nullhypothese 𝜇 ≥ 130 gilt. Lösung 1 Fall 1: Einstichprobenhypothesentests für die Schӓtzung des Erwartungswerts 𝝁 bei bekannter Varianz → Einseitiger Hypothesentest (1) (linksseitiger Hypothesentest) 𝐻 : 𝜇 ≥ 130 𝐻 : 𝜇 < 130 Ansatz 1 Zur Erinnerung: 𝐻 ist zu verwerfen, wenn gilt √𝑛 (𝑥̅ − 𝜇 ) < −𝑧 𝜎 𝐻 ist zu akzeptieren, wenn gilt √𝑛 (𝑥̅ − 𝜇 ) ≥ −𝑧 𝜎 Es sollen folgende Parameter berechnet bzw. bestimmt werden: 𝑥̅ =

125 + 138 + 124 + ⋯ + 119 = 131,4 15 243

Teil 2 Kapitel 2 Induktive Statistik

𝜎=

0,5 = 0,7071 𝑛 = 15

𝑧 =𝑧

,

= 1,645

Dazu gilt √15 √𝑛 (𝑥̅ − 𝜇 ) = (131,4 − 130) = 7,668 > −1,645 𝜎 0,7071 (s. Abbildung 2.41) 𝐻 ist daher zu akzeptieren.

Abbildung 2.41: Linksseitiger Hypothesentest zum Signifikanzniveau von α = 0,05 bei der 𝑧-Verteilung für Aufgabe 1 Ansatz 2 Zur Erinnerung: √𝑛 (𝑥̅ − 𝜇 ) 𝜎 𝐻 ist zu verwerfen, wenn gilt α ≥ 𝑝-Wert 𝐻 ist zu akzeptieren, wenn gilt α < 𝑝-Wert

𝑝-Wert = 𝑊 𝑍 ≤

𝑝-Wert = 𝑊(𝑍 ≤ 7,668) = Φ(7,668) = 1 > 0,05 𝐻 ist daher zu akzeptieren. 244

Teil 2 Kapitel 2 Induktive Statistik

2. Die Körpergewichte von zufӓllig ausgewӓhlten 20 weiblichen Studierenden wurden gemessen. Dabei ergaben sich folgende Werte (Tabelle 2.20): Tabelle 2.20: Körpergewichte für Aufgabe 2 Körpergewichte (kg) 45 53 54 60 61 47 57 57 50 48 49 55 52 70 52 53 49 63 62 58 Es wird vorausgesetzt, dass die Körpergewichte der weiblichen Studierenden normalverteilt mit den Parametern 𝜇 und 𝜎 = 50 sind. Führen Sie den Hypothesentest mit 𝐻 : 𝜇 = 55 gegen 𝐻 : 𝜇 ≠ 55 durch (α = 0,10). Lösung 2 Fall 1: Einstichprobenhypothesentests für die Schӓtzung des Erwartungswerts 𝝁 bei bekannter Varianz → Zweiseitiger Hypothesentest 𝐻 : 𝜇 = 55 𝐻 : 𝜇 ≠ 55 Ansatz 1 Zur Erinnerung: 𝐻 ist zu verwerfen, wenn gilt √𝑛 |𝑥̅ − 𝜇 | > 𝑧 / 𝜎 𝐻 ist zu akzeptieren, wenn gilt √𝑛 |𝑥̅ − 𝜇 | ≤ 𝑧 / 𝜎 Für die Entscheidung werden die folgenden Parameter benötigt: 𝑥̅ =

45 + 61 + 50 + ⋯ + 58 = 54,75 20 𝜎 = √50 = 7,0711 245

Teil 2 Kapitel 2 Induktive Statistik

𝑛 = 20 α = 0,10 𝑧

/

=𝑧

,

= 1,645

Dadurch wird folgende Realisierung der Teststatistik ermittelt: √20 √𝑛 |𝑥̅ − 𝜇 | = |54,75 − 55| = 0,1581 < 1,645 𝜎 7,0711 (s. Abbildung 2.42) 𝐻 ist daher zu akzeptieren.

Abbildung 2.42: Zweiseitiger Hypothesentest zum Signifikanzniveau von α = 0,10 bei der 𝑧-Verteilung für Aufgabe 2 Ansatz 2 Zur Erinnerung: 𝑝-Wert = 𝑊 |𝑍| ≥

√𝑛 |𝑥̅ − 𝜇 | 𝜎

𝐻 ist zu verwerfen, wenn gilt α ≥ 𝑝-Wert 𝐻 ist zu akzeptieren, wenn gilt α < 𝑝-Wert

246

Teil 2 Kapitel 2 Induktive Statistik

𝑝-Wert = 𝑊(|𝑍| ≥ 0,1581) = 2𝑊(𝑍 ≥ 0,1581) = 2 1 − Φ(0,1581) ≅ 2(1 − 0,5636) = 0,8728 > 0,10 𝐻 ist daher zu akzeptieren. 3. Die Körpergrößen von mӓnnlichen Studierenden werden als normalverteilt mit den Parametern 𝜇 und 𝜎 angesehen. Es soll überprüft werden, ob die Nullhypothese 𝐻 : 𝜇 = 1,75 gegen die Alternativhypothese 𝐻 : 𝜇 ≠ 1,75 gilt. Dazu wurden die Körpergrößen von zufӓllig ausgewӓhlten 20 mӓnnlichen Studierenden aufgenommen (s. Tabelle 2.21). Tabelle 2.21: Körpergrößen für Aufgabe 3 1,79 1,77 1,81 1,65 1,77

Körpergrößen (m) 1,73 1,75 1,74 1,82 1,75 1,69 1,90 1,90 1,82 1,75

1,75 1,81 1,69 1,71 1,64

Testen Sie die Hypothese zum Signifikanzniveau von α = 0,05. Lösung 3 Fall 2: Einstichprobenhypothesentests für die Schӓtzung des Erwartungswerts 𝝁 bei unbekannter Varianz → Zweiseitiger Hypothesentest 𝐻 : 𝜇 = 1,75 𝐻 : 𝜇 ≠ 1,75 Ansatz 1 Zur Erinnerung: 𝐻 ist zu verwerfen, wenn gilt √𝑛 |𝑥̅ − 𝜇 | > 𝑡 / ; 𝑠 𝐻 ist zu akzeptieren, wenn gilt √𝑛 |𝑥̅ − 𝜇 | ≤ 𝑡 / ; 𝑠 247

Teil 2 Kapitel 2 Induktive Statistik

Die folgenden Berechnungen bzw. Bestimmungen müssen durchgeführt werden: 𝑥̅ = 𝑠 =

1,79 + 1,77 + 1,81 + ⋯ + 1,64 = 1,76 20

1 ((1,79 − 1,76) + (1,77 − 1,76) + ⋯ + (1,64 − 1,76) ) = 0,005 19 𝑠 = 0,0707 α = 0,05 𝑛 = 20 𝑡

/ ;

=𝑡

,

;

= 2,093

Die aus der Stichprobendaten errechnete Realisierung der Teststatistik ergibt sich √20 √𝑛 |𝑥̅ − 𝜇 | = |1,76 − 1,75| = 0,633 < 2,093 𝑠 0,0707 (s. Abbildung 2.43) 𝐻 ist daher zu akzeptieren.

Abbildung 2.43: Zweiseitiger Hypothesentest zum Signifikanzniveau von α = 0,05 bei der 𝑡-Verteilung für Aufgabe 3

248

Teil 2 Kapitel 2 Induktive Statistik

Ansatz 2 Zur Erinnerung: 𝑝-Wert = 𝑊 |𝑇

|≥

√𝑛 |𝑥̅ − 𝜇 | 𝑠

𝐻 ist zu verwerfen, wenn gilt α ≥ 𝑝-Wert 𝐻 ist zu akzeptieren, wenn gilt α < 𝑝-Wert 𝑝-Wert = 𝑊(|𝑇 | ≥ 0,633) = 2𝑊(𝑇

≥ 0,633) > 2(0,10) = 0,20 > 0,05

𝐻 ist daher zu akzeptieren. 4. Man betrachte die Lebensdauer der Menschen in einer Bevölkerung als normalverteilt mit den Parametern 𝜇 und 𝜎 . Um die Nullhypothese 𝐻 : 𝜇 ≥ 70 zu testen, wurde eine Stichprobe mit zufӓllig ausgewӓhlten 1000 Menschen entnommen. Dabei ergaben sich 72 und 2 als der Durchschnittswert und die Standardabweichung der Lebensdauer dieser Menschen. Führen Sie den Hypothesentest zum Signifikanzniveau von α = 0,05 durch. Lösung 4 Fall 2: Einstichprobenhypothesentests für die Schӓtzung des Erwartungswerts 𝝁 bei unbekannter Varianz → Einseitiger Hypothesentest (1) (linksseitiger Hypothesentest) 𝐻 : 𝜇 ≥ 70 𝐻 : 𝜇 < 70 Ansatz 1 Zur Erinnerung: 𝐻 ist zu verwerfen, wenn gilt √𝑛 (𝑥̅ − 𝜇 ) < −𝑡 ; 𝑠 𝐻 ist zu akzeptieren, wenn gilt √𝑛 (𝑥̅ − 𝜇 ) ≥ −𝑡 ; 𝑠 249

Teil 2 Kapitel 2 Induktive Statistik

Gegeben sind 𝑥̅ = 72 𝑠=2 Bestimmt werden α = 0,05 𝑛 = 1000 𝑡

;

=𝑡

,

;

≅ 1,645

Dabei ergibt sich √1000 √𝑛 (𝑥̅ − 𝜇 ) = (72 − 70) = 31,623 > −1,645 𝑠 2 (s. Abbildung 2.44) 𝐻 ist daher zu akzeptieren.

Abbildung 2.44: Linksseitiger Hypothesentest zum Signifikanzniveau von α = 0,05 bei der 𝑡-Verteilung für Aufgabe 4

250

Teil 2 Kapitel 2 Induktive Statistik

Ansatz 2 Zur Erinnerung: 𝑝-Wert = 𝑊 𝑇



√𝑛 (𝑥̅ − 𝜇 ) 𝑠

𝐻 ist zu verwerfen, wenn gilt α ≥ 𝑝-Wert 𝐻 ist zu akzeptieren, wenn gilt α < 𝑝-Wert 𝑝-Wert = 𝑊(𝑇

≤ 31,623)

Aus der 𝑡-Tabelle liest man 𝑊(𝑇 > 3,291) = 0,0005 ab. Dabei gilt 𝑊(𝑇

> 31,623) < 0,0005

Somit 𝑝-Wert = 𝑊(𝑇

≤ 31,623) > 1 − 0,0005 = 0,9995 > 0,05 𝐻 ist daher zu akzeptieren.

5. Man hat eine Stichprobe mit zufӓllig ausgewӓhlten 30 Produkten entnommen und die Lӓngen dieser Produkte abgemessen. Es ergab sich ein Mittelwert von 67 cm und eine Standardabweichung von 2 cm. Testen Sie zum Signifikanzniveau von α = 0,10 die Nullhypothese 𝐻 : 𝜎 = 5 gegen die Alternativhypothese 𝐻 : 𝜎 ≠ 5, mit der Annahme, dass die Lӓngen der Produkte normalverteilt angenommen werden können. Lösung 5 Fall 3: Einstichprobenhypothesentests für die Schӓtzung der Varianz 𝝈𝟐 → Zweiseitiger Hypothesentest 𝐻 :𝜎 = 5 𝐻 :𝜎 ≠ 5 251

Teil 2 Kapitel 2 Induktive Statistik

Ansatz 1 Zur Erinnerung 𝐻 ist zu akzeptieren, wenn gilt 𝑠 𝜒 / ; ≤ (𝑛 − 1) ≤𝜒 / ; 𝜎 𝐻 ist zu verwerfen, wenn sonst Es handelt sich um die folgenden Parameter: α = 0,10 𝑛 = 30 𝜒

/ ;

𝜒

=𝜒 =𝜒

/ ;

,

,

; ;

= 17,708 = 42,557

𝑠 =2 =4 𝜎 =5 Dabei errechnet man (𝑛 − 1)

4 𝑠 = 29 = 23,2 5 𝜎

wobei 17,708 < 23,2 < 42,557 (s. Abbildung 2.45) 𝐻 ist daher zu akzeptieren.

252

Teil 2 Kapitel 2 Induktive Statistik

Abbildung 2.45: Zweiseitiger Hypothesentest zum Signifikanzniveau von α = 0,10 bei der Chi-Quadrat-Verteilung für Aufgabe 5 Ansatz 2 Zur Erinnerung: ≤ (𝑛 − 1)

𝑝-Wert = 2min 𝑊 𝜒

𝑠 𝜎

;1 − 𝑊 𝜒

≤ (𝑛 − 1)

𝑠 𝜎

𝐻 ist zu verwerfen, wenn gilt α ≥ 𝑝-Wert 𝐻 ist zu akzeptieren, wenn gilt α < 𝑝-Wert 𝑝-Wert = 2min 𝑊(𝜒

≤ 23,2); 1 − 𝑊(𝜒

≤ 23,2)

Aus der Chi-Quadrat Tabelle liest man 𝑊(𝜒

> 17,708) = 0,95

ab. Dann 𝑊(𝜒

> 23,2) < 0,95

Damit folgen 𝑊(𝜒 und

≤ 23,2) > 1 − 0,95 = 0,05

𝑝-Wert > 2(0,05) = 0,10 𝐻 ist daher zu akzeptieren. 253

Teil 2 Kapitel 2 Induktive Statistik

6. Einige Leute behaupten, dass die durchschnittlichen IQ-Werte der Studierenden an Uni 1 und Uni 2 übereinstimmen. Um diese Aussage zu testen, wurden 12 Studierende jeweils an Uni 1 bzw. Uni 2 zufӓllig ausgewӓhlt und dem Intelligenzstrukturtest (IST) unterzogen. Die Ergebnisse der IQ-Werte sind in Tabelle 2.22 ersichtlich. Tabelle 2.22: IQ-Werte der Studierenden der Uni 1 bzw. Uni 2 für Aufgabe 6 IQ-Werte (Uni 1) 132 124 132 128 134 129 125 145 118 138 153 147

IQ-Werte (Uni 2) 123 128 132 124 151 145 143 150 151 144 121 133

Die IQ-Werte der Studierenden seien als unabhängig und normalverteilt mit den Parametern 𝜇 und 𝜎 = 5 bzw. 𝜇 und 𝜎 = 3 angesehen. Testen Sie zum Signifikanzniveau von α = 0,01, ob 𝜇 = 𝜇 gegen 𝜇 ≠ 𝜇 gilt. Lösung 6 Fall 1: Zweistichprobenhypothesentests für die Schӓtzung der Gleichung/ Ungleichung der Erwartungswerte 𝝁𝐗 und 𝝁𝐘 bei bekannten Varianzen → Zweiseitiger Hypothesentest 𝐻 :𝜇 = 𝜇 𝐻 :𝜇 ≠ 𝜇 Ansatz 1 Zur Erinnerung: 𝐻 ist zu verwerfen, wenn gilt 𝑥̅ − 𝑥̅

>𝑧 / 𝜎 𝜎 + 𝑛 𝑚 𝐻 ist zu akzeptieren, wenn gilt 𝑥̅ − 𝑥̅ 𝜎 𝜎 + 𝑛 𝑚 254

≤𝑧

/

Teil 2 Kapitel 2 Induktive Statistik

Nach der Bestimmung der folgenden Parameter 𝑥̅ =

132 + 128 + 125 + ⋯ + 147 = 133,75 12

𝑥̅ =

123 + 124 + 143 + ⋯ + 133 = 137,08 12 𝜎 =5

𝜎 =3

𝑛 = 𝑚 = 12 α = 0,01 𝑧

/

=𝑧

,

= 2,575

wird erreicht: 𝑥̅ − 𝑥̅ 𝜎 𝜎 + 𝑛 𝑚

=

133,75 − 137,08 5 3 + 12 12

= 4,0784 > 2,575

𝐻 ist daher zu verwerfen. Ansatz 2 Zur Erinnerung:

𝑝-Wert = 𝑊 ⎛|𝑍| ≥ ⎝

𝑥̅ − 𝑥̅

⎞ 𝜎 𝜎 + 𝑛 𝑚 ⎠

𝐻 ist zu verwerfen, wenn gilt α ≥ 𝑝-Wert 𝐻 ist zu akzeptieren, wenn gilt α < 𝑝-Wert 𝑝-Wert = 𝑊(|𝑍| ≥ 4,0784) = 2𝑊(𝑍 ≥ 4,0784) = 2 1 − 𝑊(𝑍 < 4,0784) = 2 1 − Φ(4,0784) = 2(1 − 1) = 0 < 0,01 𝐻 ist daher zu verwerfen.

255

Teil 2 Kapitel 2 Induktive Statistik

7. Seien die Körpergrößen von männlichen bzw. weiblichen Studierenden unabhӓngig voneinander und normalverteilt mit den Parametern 𝜇 und 𝜎 bzw. 𝜇 und 𝜎 . Es soll auf Basis der zwei Stichproben getestet werden, ob die Nullhypothese 𝜇 ≥ 𝜇 gilt. Diesbezüglich hat man die Daten über die Körpergrößen von zufӓllig ausgewӓhlten 10 mӓnnlichen bzw. 15 weiblichen Studierenden ermittelt (s. Tabelle 2.23). Tabelle 2.23: Körpergrößen von männlichen bzw. weiblichen Studierenden für Aufgabe 7 Körpergrößen (m) (männliche Studierende) 1,78 1,80 1,75 1,79 1,77 1,75 1,65 1,90 1,72 1,81

Körpergrößen (m) (weibliche Studierende) 1,65 1,70 1,55 1,58 1,62

1,63 1,71 1,53 1,62 1,64

1,75 1,72 1,65 1,71 1,73

Führen Sie den Test zum Signifikanzniveau von α = 0,05 durch, mit der Behaptung, dass 𝜎 = 𝜎 gilt. Lösung 7 Fall 2: Zweistichprobenhypothesentests für die Schӓtzung der Gleichung/ Ungleichung der Erwartungswerte 𝝁𝐗 und 𝝁𝐘 bei unbekannten Varianzen → Einseitiger Hypothesentest (1) (linksseitiger Hypothesentest) 𝐻 :𝜇 ≥ 𝜇 𝐻 :𝜇 < 𝜇 Behauptung: 𝜎 = 𝜎 = 𝜎

256

Teil 2 Kapitel 2 Induktive Statistik

Ansatz 1 Zur Erinnerung: 𝐻 ist zu verwerfen, wenn gilt 𝑥̅ − 𝑥̅ < −𝑡 ; 1 1 + 𝑠 𝑛 𝑚 𝐻 ist zu akzeptieren, wenn gilt 𝑥̅ − 𝑥̅ ≥ −𝑡 ; 1 1 + 𝑠 𝑛 𝑚 (𝑛 − 1)𝑠 + (𝑚 − 1)𝑠 𝑠 = 𝑛+𝑚−2 Die aus der Stichprobendaten ermittelten Standardabweichungen sind gegeben durch 𝑥̅ =

Durchschnittswerte

und

1,78 + 1,75 + 1,77 + ⋯ + 1,81 = 1,77 10

1 𝑠 = ((1,78 − 1,77) + (1,75 − 1,77) + ⋯ + (1,81 − 1,77) ) = 0,004 9 𝑥̅ = 𝑠 =

1,65 + 1,70 + 1,55 + ⋯ + 1,73 = 1,65 15

1 ((1,65 − 1,65) + (1,70 − 1,65) + ⋯ + (1,73 − 1,65) ) = 0,005 14

Dabei ergibt sich 𝑠 =

(10 − 1)0,004 + (15 − 1)0,005 = 0,005 10 + 15 − 2

Zusätzlich bestimmt man α = 0,05 𝑛 = 10, 𝑚 = 15 𝑡

;

=𝑡

,

;

= 1,714

257

Teil 2 Kapitel 2 Induktive Statistik

Dazu gilt 𝑥̅ − 𝑥̅

=

1 1 + 𝑛 𝑚

𝑠

1,77 − 1,65 1 1 + 0,005 10 15

= 4,1569 > −1,714

𝐻 ist daher zu akzeptieren. Ansatz 2 Zur Erinnerung:

𝑝-Wert = 𝑊 ⎛𝑇 ⎝



𝑥̅ − 𝑥̅ 𝑠

⎞ 1 1 + 𝑛 𝑚 ⎠

𝐻 ist zu verwerfen, wenn gilt α ≥ 𝑝-Wert 𝐻 ist zu akzeptieren, wenn gilt α < 𝑝-Wert 𝑝-Wert = 𝑊(𝑇

≤ 4,1569)

Man liest aus der 𝑡-Tabelle 𝑡

,

;

= 3,767 → 𝑊(𝑇

> 3,767) = 0,0005

ab. Daher schätzt man 𝑊(𝑇

> 4,1569) < 0,0005

Dabei ergibt sich 𝑝-Wert = 𝑊(𝑇

≤ 4,1569) > 1 − 0,0005 = 0,9995 > 0,05 𝐻 ist daher zu akzeptieren.

8. Um herauszufinden, ob eine Behandlung auf die systolischen Blutdruckwerte keine Wirkung hat, wurde mit 10 Patienten ein Experiment durchgeführt. Diesbezüglich wurden die systolischen Blutdruckwerte der 10 Patienten vor und nach der Behandlung gemessen (s. Tabelle 2.24).

258

Teil 2 Kapitel 2 Induktive Statistik

Tabelle 2.24: Systolische Blutdruckwerte vor und nach der Behandlung für Aufgabe 8 Patient Nummer

Systolische Blutdruckwerte vor der Behandlung (mmHg) 145 152 137 161 142 145 175 138 155 152

1 2 3 4 5 6 7 8 9 10

Systolische Blutdruckwerte nach der Behandlung (mmHg) 135 155 122 148 143 121 165 129 135 137

Man behauptet, dass die Differenzen der systolischen Blutdruckwerte vor und nach der Behandlung unabhӓngig voneinander und normalverteilt sind. Überprüfen Sie zum Signifikanzniveau von α = 0,05, ob sich die systolischen Blutdruckwerte vor und nach der Behandlung nicht unterscheiden. Lösung 8 Geepaarter 𝒕-Test 𝑊 =𝑊

,

−𝑊

,

für 𝑖 = 1, 2, … , 10

𝐻 :𝜇

=0

𝐻 :𝜇

≠0

In Tabelle 2.25 sind die aus den Stichprobendaten errechneten Differenzen der systolischen Blutdruckwerte vor und nach der Behandlung zu sehen. Tabelle 2.25: Differenzen der systolischen Blutdruckwerte vor und nach der Behandlung Patient Nummer 𝑤

1

2

3

4

5

6

7

8

9

10

10

−3

15

13

−1

24

10

9

20

15

259

Teil 2 Kapitel 2 Induktive Statistik

Ansatz 1 Zur Erinnerung: 𝐻 ist zu verwerfen, wenn gilt 𝑤 >𝑡 / ; √𝑛 𝑠 𝐻 ist zu akzeptieren, wenn gilt 𝑤 ≤𝑡 / ; √𝑛 𝑠 Um den gepaarten 𝑡-Test durchzuführen, werden folgende Parameter benötigt: 𝑤=

10 − 3 + 15 + ⋯ + 15 112 = = 11,2 10 10

1 𝑠 = ((10 − 11,2) + (−3 − 11,2) + ⋯ + (15 − 11,2) ) = 70,178 9 𝑠 = 8,377 α = 0,05 𝑛 = 10 𝑡

/ ;

=𝑡

,

;

= 2,262

Dadurch wird berechnet: √𝑛

𝑤 11,2 = √10 = 4,228 > 2,262 𝑠 8,377 𝐻 ist daher zu verwerfen.

Ansatz 2 Zur Erinnerung: 𝑝-Wert = 𝑊 |𝑇

| ≥ √𝑛

𝑤 𝑠

𝐻 ist zu verwerfen, wenn gilt α ≥ 𝑝-Wert 𝐻 ist zu akzeptieren, wenn gilt α < 𝑝-Wert 260

Teil 2 Kapitel 2 Induktive Statistik

𝑝-Wert = 𝑊(|𝑇 | ≥ 4,228) = 2𝑊(𝑇 ≥ 4,228) Aus der 𝑡-Tabelle liest man 𝑡

,

;

= 4,297 → 𝑊(𝑇 > 4,297) = 0,001

ab. Dann wird geschätzt: 𝑊(𝑇 > 4,228) ≅ 0,001 Letztendlich folgt 𝑝-Wert = 2𝑊(𝑇 ≥ 4,228) ≅ 2(0,001) = 0,002 < 0,05 𝐻 ist daher zu verwerfen. 9. Sie nehmen an, dass die Klausurergebnisse der Statistikvorlesung einer Normalverteilung mit den Parametern 𝜇 und 𝜎 folgen. Es sollen zwei Hypothesentests über die Klausurergebnisse durchgeführt werden. Dazu wurde eine Stichprobe mit den Klausurergebnissen von 20 Studierenden entnommen (s. Tabelle 2.26). Tabelle 2.26: Klausurergebnisse der Statistikvorlesung für Aufgabe 9 Klausurergebnisse 100 62 95 37 60 72 54 55 80 75 78 83 72 49 51

74 39 57 55 69

a) Testen Sie zum Signifikanzniveau von α = 0,10, ob die Nullhypothese 𝜇 ≥ 70 gilt. b) Testen Sie zum Signifikanzniveau von α = 0,10, ob die Nullhypothese 𝜎 ≤ 250 gilt.

261

Teil 2 Kapitel 2 Induktive Statistik

Lösung 9 a) Fall 2: Einstichprobenhypothesentests für die Schӓtzung des Erwartungswerts 𝝁 bei unbekannter Varianz → Einseitiger Hypothesentest (1) (linksseitiger Hypothesentest) 𝐻 : 𝜇 ≥ 70 𝐻 : 𝜇 < 70 Ansatz 1 Zur Erinnerung: 𝐻 ist zu verwerfen, wenn gilt √𝑛 (𝑥̅ − 𝜇 ) < −𝑡 ; 𝑠 𝐻 ist zu akzeptieren, wenn gilt √𝑛 (𝑥̅ − 𝜇 ) ≥ −𝑡 ; 𝑠 Zunächst sind die folgenden Parameter zu berechnen bzw. zu bestimmen: 𝑥̅ = 𝑠 =

100 + 37 + 54 + ⋯ + 69 = 65,85 20

1 ((100 − 65,85) + (37 − 65,85) + ⋯ + (69 − 65,85) ) = 287,08 19 𝑠 = 16,943 α = 0,10 𝑛 = 20 𝑡

;

=𝑡

,

;

= 1,328

Dadurch wird ermittelt: √20 √𝑛 (𝑥̅ − 𝜇 ) = (65,85 − 70) = −1,0954 > −1,328 𝑠 16,943 (s. Abbildung 2.46) 262

Teil 2 Kapitel 2 Induktive Statistik

𝐻 ist daher zu akzeptieren.

Abbildung 2.46: Linksseitiger Hypothesentest zum Signifikanzniveau von α = 0,10 bei der 𝑡-Verteilung für Aufgabe 9 Ansatz 2 Zur Erinnerung: 𝑝-Wert = 𝑊 𝑇



√𝑛 (𝑥̅ − 𝜇 ) 𝑠

𝐻 ist zu verwerfen, wenn gilt α ≥ 𝑝-Wert 𝐻 ist zu akzeptieren, wenn gilt α < 𝑝-Wert 𝑝-Wert = 𝑊(𝑇

≤ −1,0954) = 𝑊(𝑇

≥ 1,0954)

Aus der 𝑡-Tabelle liest man 𝑊(𝑇

> 1,328) = 0,10

Daher gilt 𝑝-Wert = 𝑊(𝑇

≤ −1,0954) = 𝑊(𝑇

≥ 1,0954) > 0,10

𝐻 ist daher zu akzeptieren.

263

Teil 2 Kapitel 2 Induktive Statistik

b) Fall 3: Einstichprobenhypothesentests für die Schӓtzung der Varianz 𝝈𝟐 → Einseitiger Hypothesentest (2) (rechtsseitiger Hypothesentest) 𝐻 : 𝜎 ≤ 250 𝐻 : 𝜎 > 250 Ansatz 1 Zur Erinnerung: 𝐻 ist zu verwerfen, wenn gilt (𝑛 − 1)

>𝜒

;

𝐻 ist zu akzeptieren, wenn gilt (𝑛 − 1)

≤𝜒

;

Zur Erinnerung aus Teilaufgabe a): 𝑠 = 287,08 Gegeben ist 𝜎 = 250 Es gelten α = 0,10 𝑛 = 20 𝜒

;

=𝜒

,

;

= 27,204

Dabei ergibt sich (𝑛 − 1)

287,08 𝑠 = 19 = 21,818 < 27,204 250 𝜎 (s. Abbildung 2.47) 𝐻 ist daher zu akzeptieren.

264

Teil 2 Kapitel 2 Induktive Statistik

Ansatz 2 Zur Erinnerung: ≥ (𝑛 − 1)

𝑝-Wert = 𝑊 𝜒

𝑠 𝜎

𝐻 ist zu verwerfen, wenn gilt α ≥ 𝑝-Wert 𝐻 ist zu akzeptieren, wenn gilt α < 𝑝-Wert 𝑝-Wert = 𝑊(𝜒

≥ 21,818)

Aus der Chi-Quadrat-Tabelle liest man 𝑊(𝜒

> 27,204) = 0,10

ab. Dann gilt 𝑝-Wert = 𝑊(𝜒

≥ 21,818) > 0,10

𝐻 ist daher zu akzeptieren.

Abbildung 2.47: Rechtsseitiger Hypothesentest zum Signifikanzniveau von α = 0,10 bei der Chi-Quadrat-Verteilung für Aufgabe 9

265

Teil 2 Kapitel 2 Induktive Statistik

10. Die Anzahl der Arbeitsunfӓlle bei 15 Fabriken eines Unternehmens wurde vor und nach einem Betriebssicherheitstrainingsprogramm gezӓhlt. Die Ergebnisse sind in Tabelle 2.27 angegeben. Testen Sie zum Signifikanzniveau von α = 0,01 die Nullhypothese, dass das Betriebssicherheitstrainingsprogramm keine Wirkung auf die Anzahl der Arbeitsunfӓlle hat. Tabelle 2.27: Anzahl der Arbeitsunfӓlle vor und nach dem Betriebssicherheitstrainingsprogramm für Aufgabe 10 Fabrik Nummer 1 2 3 4 5 6 7 8 9 10 11 12 13 14 15

Anzahl der Arbeitsunfӓlle vor dem Programm 0 7 3 4 1 9 5 2 4 5 6 2 0 2 10

Anzahl der Arbeitsunfӓlle nach dem Programm 1 5 4 2 0 6 2 1 2 2 3 5 0 0 8

Lösung 10 Gepaarter 𝒕-Test 𝑊 =𝑊

,

−𝑊

,

für 𝑖 = 1, 2, 3, … , 15

𝐻 :𝜇

=0

𝐻 :𝜇

≠0

Die Differenzen der Arbeitsunfӓlle vor und nach dem Programm sind in Tabelle 2.28 ersichtlich.

266

Teil 2 Kapitel 2 Induktive Statistik

Tabelle 2.28: Differenzen der Arbeitsunfӓlle vor und nach dem Betriebssicherheitstrainingsprogramm Fabrik Nummer 𝑤

1

2

3

4

5

6

7

8

9

10

11

12

13

14

15

−1

2

−1

2

1

3

3

1

2

3

3

−3

0

2

2

Ansatz 1 Zur Erinnerung: 𝐻 ist zu verwerfen, wenn gilt 𝑤 >𝑡 / ; √𝑛 𝑠 𝐻 ist zu akzeptieren, wenn gilt 𝑤 ≤𝑡 / ; √𝑛 𝑠 Zur Entscheidung errechnet bzw. bestimmt man 𝑤= 𝑠 =

−1 + 2 − 1 + ⋯ + 2 19 = = 1,267 15 15

1 ((−1 − 1,267) + (2 − 1,267) + ⋯ + (2 − 1,267) ) = 3,2095 14 𝑠 = 1,7915 α = 0,01 𝑛 = 15 𝑡

/ ;

=𝑡

,

;

= 2,977

Dann gilt √𝑛

𝑤 1,267 = √15 = 2,739 < 2,977 𝑠 1,7915 𝐻 ist daher zu akzeptieren.

267

Teil 2 Kapitel 2 Induktive Statistik

Ansatz 2 Zur Erinnerung: 𝑝-Wert = 𝑊 |𝑇

| ≥ √𝑛

𝑤 𝑠

𝐻 ist zu verwerfen, wenn gilt α ≥ 𝑝-Wert 𝐻 ist zu akzeptieren, wenn gilt α < 𝑝-Wert 𝑝-Wert = 𝑊(|𝑇 | ≥ 2,739) = 2𝑊(𝑇

≥ 2,739)

Aus der 𝑡-Tabelle liest man 𝑡

,

;

= 2,624 → 𝑊(𝑇

> 2,624) = 0,01

ab. Dann gilt 𝑝-Wert = 2𝑊(𝑇

≥ 2,739) ≅ 2(0,01) = 0,02 > 0,01

𝐻 ist daher zu akzeptieren.

268

Teil 2 Kapitel 3 Varianzanalyse

Kapitel 3 Varianzanalyse

Hypothesentests, die in Kapitel 2 behandelt worden sind, orientieren sich am Testen der Aussagen hinsichlich der Parameter der normalverteilten Grundgesamtheiten. Wir haben schon in Kapitel 2 gesehen, dass es sich dabei um einen Einstichproben- oder Zweistichprobenhypothesentest handelt. Demgegenüber ist die Varianzanalyse ein spezieller Hypothesentest und findet in solchen Fӓllen Anwendung, in denen die Erwartungswerte nicht zweier, sondern dreier oder mehrerer unabhängiger und normalverteilter Grundgesamtheiten miteinander verglichen werden sollen. In diesem Kapitel werden wir zunächst eine Klassifikation der Typen der Varianzanalyse vorlegen. Anschließend konzentrieren wir uns lediglich auf die einfaktorielle Varianzanalyse, die durch eine unabhängige Variable und eine abhängige Variable geprägt ist. 3.1.

Grundbegriffe und Klassifikation der Varianzanalyse

Drei wesentliche Grundbegriffe der Varianzanalyse sind folgendermaßen definiert: → Faktor (Treatment) Der Faktor (unabhӓngige Variable – 𝑈𝑉) ist das qualitative Merkmal, das die Grundgesamtheiten bzw. Stichproben definiert. → Faktorstufen Die Faktorstufen sind die Ausprägungen des Faktors. → Zielgröße (Zielvariable) Die Zielgröße (abhӓngige Variable – 𝐴𝑉) ist das quantitative Merkmal, durch das drei oder mehr Stichproben verglichen werden sollen. Eine Klassifikation der Varianzanalyse ist in Tabelle 3.1 zu sehen.

© Der/die Herausgeber bzw. der/die Autor(en), exklusiv lizenziert durch Springer Fachmedien Wiesbaden GmbH, ein Teil von Springer Nature 2020 E. Bas, Einführung in Wahrscheinlichkeitsrechnung, Statistik und Stochastische Prozesse, https://doi.org/10.1007/978-3-658-32120-8_6

269

Teil 2 Kapitel 3 Varianzanalyse

Tabelle 3.1: Klassifikation der Typen der Varianzanalyse Typen der Zahl der 𝑈𝑉 Varianzanalyse Einfaktorielle 1 Varianzanalyse Zweifaktorielle 2 Varianzanalyse Dreifaktorielle 3 Varianzanalyse Mehrfaktorielle ≥3 Varianzanalyse Einfaktorielle 1 Varianzanalyse Zweifaktorielle 2 Varianzanalyse Dreifaktorielle 3 Varianzanalyse Mehrfaktorielle ≥3 Varianzanalyse

ANOVA/MANOVA ANOVA (Univariate Varianzanalyse)

MANOVA (Multivariate Varianzanalyse)

3.2.

Zahl der 𝐴𝑉 1 1 1 1 ≥2 ≥2 ≥2 ≥2

Einfaktorielle Varianzanalyse

Die einfaktorielle Varianzanalyse ist eine Methode, mit welcher der Einfluss einer 𝑈𝑉 auf eine 𝐴𝑉 hinsichtlich der Erwartungswerte dreier oder mehr unabhängiger normalverteilter Grundgesamtheiten untersucht werden kann. Seien 𝑋 , 𝑋 , … , 𝑋 ~𝑁(𝜇 , 𝜎 ) 𝑋 , 𝑋 , … , 𝑋 ~𝑁(𝜇 , 𝜎 ) … 𝑋 , 𝑋 , … 𝑋 , . . , 𝑋 ~𝑁(𝜇 , 𝜎 ) … 𝑋

,𝑋

,…,𝑋

~𝑁(𝜇 , 𝜎 )

𝑚 unabhӓngige und normalverteilte Stichproben (Gruppen) mit gleichen Stichprobengrößen 𝑛 und gleichen Varianzen 𝜎 .

270

Teil 2 Kapitel 3 Varianzanalyse

Der Hypothesentest für die einfaktorielle Varianzanalyse lautet: 𝐻 :𝜇 = 𝜇 = ⋯ = 𝜇 𝐻 : nicht alle Erwartungswerte sind gleich Hierzu sind zunächst die folgenden Parameter zu ermitteln: → Stichprobenmittelwert für Stichprobe 𝑖 𝑋 =

1 𝑛

𝑋





𝑖 = 1, 2, … , 𝑚

→ Gesamtmittelwert 𝑋=

𝑋

𝑛𝑚

=



𝑋 𝑚

→ Quadratsumme zwischen den Stichproben 𝑄𝑆

=𝑛

(𝑋 − 𝑋)

wobei 𝑋 − 𝑋 die Abweichung des 𝑖-ten Stichprobenmittelwerts vom Gesamtmittelwert darlegt. → Quadratsumme innerhalb der Stichproben 𝑄𝑆

=

(𝑋 − 𝑋 )

wobei 𝑋 − 𝑋 die Abweichung des 𝑗-ten Stichprobenwerts der 𝑖-ten Stichprobe vom Stichprobenmittelwert der 𝑖-ten Stichprobe beschreibt. Dadurch lässt sich 𝐹

;

=

𝑄𝑆 /(𝑚 − 1) 𝑄𝑆 /(𝑛𝑚 − 𝑚)

als 𝐹-verteilte Teststatistik mit Freiheitsgraden 𝑚 − 1 und 𝑛𝑚 − 𝑚 berechnen. Bemerkung: Die 𝐹-verteilte Teststatistik dient zur Messung der Variabilität zwischen den Gruppen im Vergleich zur Variabilität innerhalb der Gruppen. 271

Teil 2 Kapitel 3 Varianzanalyse

Eine Realisierung der Zufallsvariablen 𝑄𝑆 und 𝑄𝑆 wird aus den Stichprobendaten errechnet. Man unterscheidet wie immer zwei Ansätze als Entscheidungsregeln: Ansatz 1 𝐻 ist zu verwerfen, wenn gilt 𝑞𝑠 /(𝑚 − 1) >𝐹 ; ; 𝑞𝑠 /(𝑛𝑚 − 𝑚) 𝐻 ist zu akzeptieren, wenn gilt 𝑞𝑠 /(𝑚 − 1) ≤𝐹 𝑞𝑠 /(𝑛𝑚 − 𝑚)

;

;

Ansatz 2 𝑝-Wert = 𝑊

𝑞𝑠 /(𝑚 − 1) 𝑄𝑆 /(𝑚 − 1) ≥ 𝑄𝑆 /(𝑛𝑚 − 𝑚) 𝑞𝑠 /(𝑛𝑚 − 𝑚) 𝑞𝑠 /(𝑚 − 1) =𝑊 𝐹 ≥ ; 𝑞𝑠 /(𝑛𝑚 − 𝑚)

𝐻 ist zu verwerfen, wenn gilt α ≥ 𝑝-Wert 𝐻 ist zu akzeptieren, wenn gilt α < 𝑝-Wert → Post-hoc-Analyse der Varianzanalyse Falls die Nullhypothese 𝐻 verworfen wird, kann die sogenannte 𝑇-Methode durchgeführt werden, um die Differenzen der Erwartungswerte paarweise und intervallweise zu schätzen. → 𝑻-Methode für die Konfidenzintervalle von 𝝁𝒊 − 𝝁𝒋 , 𝒊 < 𝒋; 𝒊, 𝒋 = 𝟏, 𝟐, … . , 𝒎 Die Wahrscheinlichkeit, dass die Differenz der Erwartungswerte der 𝑖-ten und 𝑗ten Stichproben in einem 100(1 − α) %-Konfidenzintervall liegt, ist gegeben durch 𝑊 𝑋 −𝑋 −𝑌 0,10 > 0,05

𝐻 ist daher zu akzeptieren. → Fazit: Die durchschnittlichen Durchmesser der Spindeln unterscheiden sich nicht hinsichtlich der Methoden zum Signifikanzniveau von 0,05. Aufgaben 1. 10 Studierende aus drei Universitӓten wurden nach einem speziellen Trainingsprogramm einem Test unterzogen. Tabelle 3.3 zeigt die Testergebnisse auf.

275

Teil 2 Kapitel 3 Varianzanalyse

Tabelle 3.3: Testergebnisse für Aufgabe 1 Studierende Nummer 1 2 3 4 5 6 7 8 9 10

Uni 1

Uni 2

Uni 3

100 78 64 58 53 95 90 77 70 70

94 98 75 42 66 93 81 72 44 61

63 71 95 59 67 88 80 66 43 34

Die Testergebnisse seien unabhängig voneinander und normalverteilt mit den Erwartungswerten 𝜇 , 𝜇 , 𝜇 und gleichen Varianzen. Testen Sie zum Signifikanzniveau von α = 0,10 die Nullhypothese, dass die Universitӓt keine Wirkung auf die durchschnittlichen Testergebnisse hat. Lösung 1 Man charakterisiert diese einfaktorielle Varianzanalyse durch Faktor (𝑈𝑉): Uni Faktorstufen: Uni 1, Uni 2, Uni 3 Zielgröße (𝐴𝑉): Testergebnis Der gewünschte Hypothesentest lautet 𝐻 :𝜇 = 𝜇 = 𝜇 𝐻 : nicht alle Erwartungswerte sind gleich Ansatz 1 Die wesentlichen Kenngrößen errechnen sich wie folgt: → Stichprobenmittelwerte 𝑥̅ = 276

100 + 78 + ⋯ + 70 = 75,5 10

Teil 2 Kapitel 3 Varianzanalyse

𝑥̅ =

94 + 98 + ⋯ + 61 = 72,6 10

𝑥̅ =

63 + 71 + ⋯ + 34 = 66,6 10

→ Gesamtmittelwert 𝑥̅ =

75,5 + 72,6 + 66,6 = 71,6 3

→ Quadratsumme zwischen den Stichproben 𝑞𝑠 = 10 ∑ (𝑥̅ − 𝑥̅ ) = 10((75,5 − 71,6) + (72,6 − 71,6) + (66,6 − 71,6) ) = 412,1 → Quadratsumme innerhalb der Stichproben 𝑞𝑠

=∑



= ((100 − 75,5) + (78 − 75,5)

𝑥 − 𝑥̅

+ ⋯ + (70 − 75,5) ) +((94 − 72,6) + (98 − 72,6) + ⋯ + (61 − 72,6) ) +((63 − 66,6) + (71 − 66,6) + ⋯ + (34 − 66,6) ) = 8887,3 Man bestimmt die Freiheitsgrade und 𝐹

;

durch

;

𝑚=3 𝑛 = 10 𝑚−1=2 𝑛𝑚 − 𝑚 = 27 α = 0,10 𝐹

;

;

=𝐹

,

; ;

= 2,51

Damit ergibt sich die aus der Stichprobe ermittelte Realisierung der Teststatistik als 412,1/2 𝑞𝑠 /(𝑚 − 1) = = 0,626 < 2,51 𝑞𝑠 /(𝑛𝑚 − 𝑚) 8887,3/27 𝐻 ist daher zu akzeptieren. 277

Teil 2 Kapitel 3 Varianzanalyse

Ansatz 2 Weil 𝐹

,

= 2,51 → 𝑊 𝐹

; ;

;

> 2,51 = 0,10

gilt 𝑝-Wert = 𝑊 𝐹

;

≥ 0,626 > 0,10

𝐻 ist daher zu akzeptieren. → Fazit: Die Universitӓt hat zum Signifikanzniveau von 0,10 keine Wirkung auf die durchschnittlichen Testergebnisse. 2. Die nachfolgende Tabelle 3.4 zeigt die Körpergrößen von zufӓllig ausgewӓhlten 5 Frauen aus 4 verschiedenen Lӓndern. Tabelle 3.4: Körpergrößen für Aufgabe 2 Land 1 1,79 1,62 1,73 1,59 1,65

Körpergrößen (m) Land 2 Land 3 1,63 1,78 1,71 1,71 1,56 1,64 1,82 1,70 1,73 1,66

Land 4 1,59 1,65 1,75 1,71 1,73

Unter der Annahme der Unabhängigkeit und Normalverteilung der Körpergrößen mit den Erwartungswerten 𝜇 , 𝜇 , 𝜇 , 𝜇 und Varianzen 𝜎 testen Sie die Nullhypothese, dass die durchschnittlichen weiblichen Körpergrößen von den Ländern unabhängig sind (α = 0,01). Lösung 2 Beschreibt man Faktor (𝑈𝑉): Land Faktorstufen: Land 1, Land 2, Land 3, Land 4 Zielgröße (𝐴𝑉): Körpergröße

278

Teil 2 Kapitel 3 Varianzanalyse

daher lautet der geforderte Hypothesentest: 𝐻 :𝜇 = 𝜇 = 𝜇 = 𝜇 𝐻 : nicht alle Erwartungswerte sind gleich Ansatz 1 Die erforderlichen Kenngrößen sind gegeben durch: → Stichprobenmittelwerte 𝑥̅ =

1,79 + 1,62 + ⋯ + 1,65 = 1,68 5

𝑥̅ =

1,63 + 1,71 + ⋯ + 1,73 = 1,69 5

𝑥̅ =

1,78 + 1,71 + ⋯ + 1,66 = 1,70 5

𝑥̅ =

1,59 + 1,65 + ⋯ + 1,73 = 1,69 5

→ Gesamtmittelwert 𝑥̅ =

1,68 + 1,69 + 1,70 + 1,69 = 1,69 4

→ Quadratsumme zwischen den Stichproben 𝑞𝑠

=5

(𝑥̅ − 𝑥̅ ) = 5((1,68 − 1,69) + (1,69 − 1,69) + (1,70 − 1,69) + (1,69 − 1,69) ) = 0,001

→ Quadratsumme innerhalb der Stichproben 𝑞𝑠

=

(𝑥 − 𝑥̅ ) = ((1,79 − 1,68) + ⋯ + (1,65 − 1,68) ) +((1,63 − 1,69) + ⋯ + (1,73 − 1,69) ) +((1,78 − 1,70) + ⋯ + (1,66 − 1,70) ) +((1,59 − 1,69) + ⋯ + (1,73 − 1,69) ) = 0,0955 279

Teil 2 Kapitel 3 Varianzanalyse

Die Freiheitsgrade und der Parameter 𝐹

;

lassen sich durch

;

𝑚=4 𝑛=5 𝑚−1=3 𝑛𝑚 − 𝑚 = 16 α = 0,01 𝐹

;

=𝐹

;

,

; ;

= 5,29

berechnen. Folglich ergibt sich die durch die Stichprobendaten ermittelte Teststatistik 0,001/3 𝑞𝑠 /(𝑚 − 1) = = 0,0559 < 5,29 𝑞𝑠 /(𝑛𝑚 − 𝑚) 0,0955/16 𝐻 ist daher zu akzeptieren. Ansatz 2 Weil 𝐹

,

; ;

= 2,46 → 𝑊 𝐹

;

> 2,46 = 0,10

gilt 𝑝-Wert = 𝑊 𝐹

;

≥ 0,0559 > 0,10 > 0,01

𝐻 ist daher zu akzeptieren. → Fazit: Die durchschnittlichen weiblichen Körpergrößen sind zum Signifikanzniveau von 0,01 von den Lӓndern unabhängig. 3. Betrachten Sie Tabelle 3.5, die die monatlichen Berufseinstiegsgehӓlter von zufӓllig ausgewӓhlten 5 Ingenieuren aus drei verschiedenen Ingenieurwissenschaften zeigt. Die Berufseinstiegsgehӓlter werden als unabhängig voneinander und normalverteilt mit Erwartungswerten 𝜇 , 𝜇 , 𝜇 und gemeinsamer Varianz angenommen. Testen Sie die Nullhypothese, dass es keine signifikanten Unterschiede zwischen den Ingenieurwissenschaften hinsichtlich der Berufseinstiegsgehälter gibt (α = 0,05). 280

Teil 2 Kapitel 3 Varianzanalyse

Tabelle 3.5: Berufseinstiegsgehälter für Aufgabe 3 Berufseinstiegsgehälter (Euro) Maschinenbauingenieur Bauingenieur Wirtschaftsingenieur 3500 3000 5000 2500 3000 4500 4000 3500 4000 3000 4500 3000 4000 4000 3000 Lösung 3 Der Faktor, die Faktorstufen und Zielgröße werden ermittelt wie folgt: Faktor (𝑈𝑉): Ingenieurwissenschaft Faktorstufen: Maschinenbauingenieur, Bauingenieur, Wirtschaftsingenieur Zielgröße (𝐴𝑉): Berufseinstiegsgehalt Dann gilt 𝐻 :𝜇 = 𝜇 = 𝜇 𝐻 : nicht alle Erwartungswerte sind gleich Ansatz 1 Die folgenden Kenngrößen dienen zur Berechnung einer Realisierung der Teststatistik: → Stichprobenmittelwerte 𝑥̅ =

3500 + 2500 + ⋯ + 4000 = 3400 5

𝑥̅ =

3000 + 3000 + ⋯ + 4000 = 3600 5

𝑥̅ =

5000 + 4500 + ⋯ + 3000 = 3900 5

281

Teil 2 Kapitel 3 Varianzanalyse

→ Gesamtmittelwert 𝑥̅ =

3400 + 3600 + 3900 = 3633 3

→ Quadratsumme zwischen den Stichproben 𝑞𝑠 = 5 ∑ (𝑥̅ − 𝑥̅ ) = 5((3400 − 3633) + (3600 − 3633) + (3900 − 3633) ) = 633335 → Quadratsumme innerhalb der Stichproben 𝑞𝑠

=

(𝑥 − 𝑥̅ ) = ((3500 − 3400) + ⋯ + (4000 − 3400) ) +((3000 − 3600) + ⋯ + (4000 − 3600) ) +((5000 − 3900) + ⋯ + (3000 − 3900) ) = 6600000

𝐹

;

;

mit Freiheitsgraden 𝑚 − 1 und 𝑛𝑚 − 𝑚 lässt sich durch 𝑚=3 𝑛=5 𝑚−1=2 𝑛𝑚 − 𝑚 = 12 α = 0,05 𝐹

;

;

=𝐹

,

; ;

= 3,89

errechnen. Daraufhin ergibt sich 𝑞𝑠 /(𝑚 − 1) 633335/2 = = 0,5758 < 3,89 𝑞𝑠 /(𝑛𝑚 − 𝑚) 6600000/12 𝐻 ist daher zu akzeptieren.

282

Teil 2 Kapitel 3 Varianzanalyse

Ansatz 2 Weil 𝐹

,

; ;

= 2,81 → 𝑊 𝐹

;

> 2,81 = 0,10

gilt 𝑝-Wert = 𝑊 𝐹

;

≥ 0,5758 > 0,10 > 0,05

𝐻 ist daher zu akzeptieren. → Fazit: Es gibt zum Signifikanzniveau von 0,05 keine signifikanten Unterschiede zwischen den Ingenieurwissenschaften hinsichtlich der durchschnittlichen Berufseinstiegsgehälter. 4. Es ist vorausgesetzt, dass die Noten der Statistikvorlesung an drei Universitäten unabhängig voneinander und normalverteilt mit den Erwartungswerten 𝜇 , 𝜇 , 𝜇 und Varianzen 𝜎 sind. 4 Studierende von jeder Universität wurden zufӓllig ausgewӓhlt. Die nachfolgende Tabelle 3.6 zeigt ihre Noten. Tabelle 3.6: Noten der Statistikvorlesung für Aufgabe 4 Uni 1 3,1 2,9 3,2 3,4

Uni 2 3,5 3,3 3,7 3,2

Uni 3 3,0 2,8 3,0 2,5

Dabei soll zum Signifikanzniveau von α = 0,05 getestet werden, ob die Universitӓten keinen Effekt auf die durchschnittlichen Noten der Statistikvorlesung haben. Führen Sie die entsprechende einfaktorielle Varianzanalyse durch. Lösung 4 Nach der Bestimmung von Faktor (𝑈𝑉): Uni Faktorstufen: Uni 1, Uni 2, Uni 3 Zielgröße (𝐴𝑉): Noten der Statistikvorlesung definiert man den zu testenden Hypothesentest als 𝐻 :𝜇 = 𝜇 = 𝜇 𝐻 : mindestens zwei Erwartungswerte sind nicht gleich 283

Teil 2 Kapitel 3 Varianzanalyse

Ansatz 1 Hierzu zunächst sind die folgenden Kenngrößen zu ermitteln: → Stichprobenmittelwerte 𝑥̅ =

3,1 + 2,9 + 3,2 + 3,4 = 3,2 4

𝑥̅ =

3,5 + 3,3 + 3,7 + 3,2 = 3,4 4

𝑥̅ =

3,0 + 2,8 + 3,0 + 2,5 = 2,8 4

→ Gesamtmittelwert 𝑥̅ =

3,2 + 3,4 + 2,8 = 3,1 3

→ Quadratsumme zwischen den Stichproben 𝑞𝑠

= 4∑

(𝑥̅ − 𝑥̅ ) = 4((3,2 − 3,1) + (3,4 − 3,1) + (2,8 − 3,1) ) = 0,76

→ Quadratsumme innerhalb der Stichproben 𝑞𝑠

=

(𝑥 − 𝑥̅ ) = ((3,1 − 3,2) + ⋯ + (3,4 − 3,2) ) +((3,5 − 3,4) + ⋯ + (3,2 − 3,4) ) +((3,0 − 2,8) + ⋯ + (2,5 − 2,8) ) = 0,46

𝐹

;

;

mit Freiheitsgraden 𝑚 − 1 und 𝑛𝑚 − 𝑚 ist gegeben als 𝑚=3 𝑛=4 𝑚−1=2 𝑛𝑚 − 𝑚 = 9 α = 0,05 𝐹

284

;

;

=𝐹

,

; ;

= 4,26

Teil 2 Kapitel 3 Varianzanalyse

Daher ergibt sich die aus den Stichprobendaten festgelegte Realisierung der Teststatistik 𝑞𝑠 /(𝑚 − 1) 0,76/2 = = 7,4348 > 4,26 𝑞𝑠 /(𝑛𝑚 − 𝑚) 0,46/9 𝐻 ist daher zu verwerfen. Ansatz 2 Weil 𝐹

,

; ;

= 8,02 → 𝑊 𝐹

;

> 8,02 = 0,01

gilt 𝑝-Wert = 𝑊 𝐹

;

≥ 7,4348 ≅ 0,01 < 0,05

𝐻 ist daher zu verwerfen. → Fazit: Man verwirft zum Signifikanzniveau von 0,05 die Nullhypothese, dass die Universitӓten keinen Effekt auf die durchschnittlichen Noten der Statistikvorlesung haben. Weil die Nullhypothese 𝐻 verworfen ist, kann man beispielsweise 95 %-Konfidenzintervalle für 𝜇 − 𝜇 , 𝑖 < 𝑗; 𝑖, 𝑗 = 1 ,2, 3 bestimmen. Im Allgemeinen gilt → 𝟗𝟓 %-Konfidenzintervalle für 𝝁𝒊 − 𝝁𝒋 (𝑥̅ − 𝑥̅ − 𝑦; 𝑥̅ − 𝑥̅ + 𝑦) wobei 𝑦=

1 √𝑛

𝐶(α; 𝑚; 𝑛𝑚 − 𝑚) 𝑞𝑠

/(𝑛𝑚 − 𝑚)

bzw. 𝑦=

1 √4

𝐶(0,05; 3; 9)

1 0,46 0,46 = 3,95 = 0,447 9 9 √4

bei dem man 𝐶(0,05; 3; 9) = 3,95 aus der 𝐶-Tabelle abliest.

285

Teil 2 Kapitel 3 Varianzanalyse

Daher ergeben sich paarweise 95 %-Konfidenzintervalle für 𝜇 − 𝜇 , 𝑖 < 𝑗; 𝑖, 𝑗 = 1 ,2, 3 wie folgt: → 95 %-Konfidenzintervall für 𝜇 − 𝜇 (𝑥̅ − 𝑥̅ − 𝑦; 𝑥̅ − 𝑥̅ + 𝑦) = (3,2 − 3,4 − 0,447; 3,2 − 3,4 + 0,447) = (−0,647; 0,247) → 95 %-Konfidenzintervall für 𝜇 − 𝜇 (𝑥̅ − 𝑥̅ − 𝑦; 𝑥̅ − 𝑥̅ + 𝑦) = (3,2 − 2,8 − 0,447; 3,2 − 2,8 + 0,447) = (−0,047; 0,847) → 95 %-Konfidenzintervall für 𝜇 − 𝜇 (𝑥̅ − 𝑥̅ − 𝑦; 𝑥̅ − 𝑥̅ + 𝑦) = (3,4 − 2,8 − 0,447; 3,4 − 2,8 + 0,447) = (0,153; 1,047) 5. Man behauptet, dass die durchschnittlichen monatlichen Ausgaben der Menschen hinsichtlich der Altersgruppen nicht systematisch voneinander abweichen. Zu diesem Zweck wurden fünf Verbraucher aus vier verschiedenen Altersgruppen entnommen. Ihre monatlichen Ausgaben sind in Tabelle 3.7 angegeben. Tabelle 3.7: Monatliche Ausgaben für Aufgabe 5 Altersgruppe 1: 15 − 25 750 500 550 600 325

Monatliche Ausgaben (Euro) Altersgruppe 2: Altersgruppe 3: 26 − 35 36 − 50 800 1000 1000 1200 550 2000 525 500 350 750

Altersgruppe 4: 51 − 65 650 2500 1200 1000 550

Die monatlichen Ausgaben der Altersgruppen können als unabhängig voneinander und normalverteilt mit den Erwartungswerten 𝜇 , 𝜇 , 𝜇 , 𝜇 und gemeinsamer Varianz 𝜎 unterstellt werden. Testen Sie zum Signifikanzniveau von α = 0,05 die Aussage, dass die Altersgruppen auf die monatlichen Ausgaben keinen Effekt haben.

286

Teil 2 Kapitel 3 Varianzanalyse

Lösung 5 Im Folgenden definiert man den Faktor, die Faktorstufen und die Zielgröße: Faktor (𝑈𝑉): Altersgruppe Faktorstufen: Altersgruppe 1: 15 − 25, Altersgruppe 2: 26 − 35, Altersgruppe 3: 36 − 50, Altersgruppe 4: 51 − 65 Zielgröße (𝐴𝑉): Monatliche Ausgaben Diesbezüglich lautet der Hypothesentest 𝐻 :𝜇 = 𝜇 = 𝜇 = 𝜇 𝐻 : 𝜇 ≠ 𝜇 für mindestens ein 𝑖 ≠ 𝑗; 𝑖, 𝑗 = 1, 2, 3, 4 Ansatz 1 Zunächst werden folgende Kenngrößen benötigt: → Stichprobenmittelwerte 𝑥̅ =

750 + 500 + ⋯ + 325 = 545 5

𝑥̅ =

800 + 1000 + ⋯ + 350 = 645 5

𝑥̅ =

1000 + 1200 + ⋯ + 750 = 1090 5

𝑥̅ =

650 + 2500 + ⋯ + 550 = 1180 5

→ Gesamtmittelwert 𝑥̅ =

545 + 645 + 1090 + 1180 = 865 4

→ Quadratsumme zwischen den Stichproben 𝑞𝑠 = 5 ∑ (𝑥̅ − 𝑥̅ ) = 5((545 − 865) + (645 − 865) + (1090 − 865) + (1180 − 865) ) = 1503250

287

Teil 2 Kapitel 3 Varianzanalyse

→ Quadratsumme innerhalb der Stichproben 𝑞𝑠

=

𝑥 − 𝑥̅ = ((750 − 545) + ⋯ + (325 − 545) ) + ((800 − 645) + ⋯ + (350 − 645) ) + ((1000 − 1090) + ⋯ + (750 − 1090) ) + ((650 − 1180) + ⋯ + (550 − 1180) ) = 4121000

Man ermittelt die Freiheitsgrade und 𝐹

;

als

;

𝑚=4 𝑛=5 𝑚−1=3 𝑛𝑚 − 𝑚 = 16 α = 0,05 𝐹

;

=𝐹

;

,

; ;

= 3,24

Daher erhält man 𝑞𝑠 /(𝑚 − 1) 1503250/3 = = 1,9455 < 3,24 𝑞𝑠 /(𝑛𝑚 − 𝑚) 4121000/16 𝐻 ist daher zu akzeptieren. Ansatz 2 Weil 𝐹

,

; ;

= 2,46 → 𝑊 𝐹

;

> 2,46 = 0,10

gilt 𝑝-Wert = 𝑊 𝐹

;

≥ 1,9455 > 0,10 > 0,05

𝐻 ist daher zu akzeptieren.

288

Teil 2 Kapitel 3 Varianzanalyse

→ Fazit: Man akzeptiert zum Signifikanzniveau von 0,05 die Nullhypothese, dass die Altersgruppen keinen Effekt auf die durchschnittlichen monatlichen Ausgaben haben. 6. Es soll getestet werden, ob es signifikante Unterschiede zwischen drei Universitäten hinsichtlich der durchschnittlichen IQ-Werte der Studierenden gibt. Hierzu wurden jeweils 9 Studierende der Universitӓten ausgewählt. Tabelle 3.8 zeigt ihre IQ-Werte. Tabelle 3.8: IQ-Werte der Studierenden für Aufgabe 6 IQ-Werte (Uni 1) 132 124 132 128 134 129 125 145 118

IQ-Werte (Uni 2) 123 128 132 124 151 145 143 150 151

IQ-Werte (Uni 3) 118 120 135 132 135 124 143 117 140

Mit der Voraussetzung, dass die IQ-Werte unabhängig voneinander und normalverteilt mit den Parametern 𝜇 , 𝜇 , 𝜇 , 𝜎 sind, testen Sie zum Signifikanzniveau von α = 0,05 die Nullhypothese, dass die durchschnittlichen IQ-Werte der Studierenden der drei Universitäten nicht systematisch voneinander abweichen. Lösung 6 Der Faktor, die Faktorstufen und Zielgröße sind wie folgt bestimmt: Faktor (𝑈𝑉): Uni Faktorstufen: Uni 1, Uni 2, Uni 3 Zielgröße (𝐴𝑉): IQ-Wert Damit lautet der Hypothesentest 𝐻 :𝜇 = 𝜇 = 𝜇 𝐻 : 𝜇 ≠ 𝜇 für mindestens ein 𝑖 ≠ 𝑗; 𝑖, 𝑗 = 1, 2, 3 Ansatz 1 Man erfasst die benötigten Kenngrößen durch die folgenden Berechnungen:

289

Teil 2 Kapitel 3 Varianzanalyse

→ Stichprobenmittelwerte 𝑥̅ =

132 + 128 + ⋯ + 118 = 129,67 9

𝑥̅ =

123 + 124 + ⋯ + 151 = 138,56 9

𝑥̅ =

118 + 132 + ⋯ + 140 = 129,33 9

→ Gesamtmittelwert 𝑥̅ =

129,67 + 138,56 + 129,33 = 132,52 3

→ Quadratsumme zwischen den Stichproben 𝑞𝑠 = 9 ∑ (𝑥̅ − 𝑥̅ ) = 9((129,67 − 132,52) + (138,56 − 132,52) + (129,33 − 132,52) ) = 493,02 → Quadratsumme innerhalb der Stichproben 𝑞𝑠

=

𝑥 − 𝑥̅ = ((132 − 129,67) + ⋯ + (118 − 129,67) ) + ((123 − 138,56) + ⋯ + (151 − 138,56) ) +((118 − 129,33) + ⋯ + (140 − 129,33) ) = 2336,22

Nach der Bestimmung von 𝐹

;

;

durch 𝑚=3 𝑛=9 𝑚−1=2

𝑛𝑚 − 𝑚 = 24 α = 0,05 𝐹

290

;

;

=𝐹

,

; ;

= 3,40

Teil 2 Kapitel 3 Varianzanalyse

erhält man die aus der Stichprobe bestimmte Teststatistik als 𝑞𝑠 /(𝑚 − 1) 493,02/2 = = 2,5324 < 3,40 𝑞𝑠 /(𝑛𝑚 − 𝑚) 2336,22/24 𝐻 ist daher zu akzeptieren. Ansatz 2 Weil 𝐹

,

; ;

= 2,54 → 𝑊 𝐹

;

> 2,54 = 0,10

gilt 𝑝-Wert = 𝑊 𝐹

;

≥ 2,5324 ≅ 0,10 > 0,05

𝐻 ist daher zu akzeptieren. → Fazit: Man akzeptiert zum Signifikanzniveau von 0,05 die Nullhypothese, dass die durchschnittlichen IQ-Werte der Studierenden an den drei Universitäten nicht systematisch voneinander abweichen. 7. Die Anzahl der Betriebsunfӓlle in 5 Fabriken in den letzten drei Jahren ist in Tabelle 3.9 zusammengestellt worden. Tabelle 3.9: Anzahl der Betriebsunfӓlle für Aufgabe 7 Fabrik 1 5 5 5

Jahr 1 Jahr 2 Jahr 3

Fabrik 2 3 2 1

Fabrik 3 4 5 2

Fabrik 4 3 5 2

Fabrik 5 2 2 2

Es wird davon ausgegangen, dass die jӓhrliche Anzahl der Betriebsunfӓlle in den 5 Fabriken unabhängig und normalverteilt mit 𝜇 , 𝜇 , 𝜇 , 𝜇 , 𝜇 und 𝜎 sei. Testen Sie zum Signifikanzniveau von α = 0,05, dass 𝜇 = 𝜇 = 𝜇 = 𝜇 = 𝜇 gerechtfertigt ist. Lösung 7 Bestimmt sind Faktor (𝑈𝑉): Fabrik Faktorstufen: Fabrik 1, Fabrik 2, Fabrik 3, Fabrik 4, Fabrik 5 Zielgröße (𝐴𝑉): Jӓhrliche Anzahl der Betriebsunfӓlle 291

Teil 2 Kapitel 3 Varianzanalyse

Der Hypothesentest lautet 𝐻 :𝜇 = 𝜇 = 𝜇 = 𝜇 = 𝜇 𝐻 : mindestens zwei Erwartungswerte sind nicht gleich Ansatz 1 Ermittelt werden die folgenden Kenngrößen: → Stichprobenmittelwerte 𝑥̅ =

5+5+5 =5 3

𝑥̅ =

3+2+1 =2 3

𝑥̅ =

4+5+2 = 3,67 3

𝑥̅ =

3+5+2 = 3,33 3

𝑥̅ =

2+2+2 =2 3

→ Gesamtmittelwert 𝑥̅ =

5 + 2 + 3,67 + 3,33 + 2 = 3,2 5

→ Quadratsumme zwischen den Stichproben 𝑞𝑠 = 3 ∑ (𝑥̅ − 𝑥̅ ) = 3((5 − 3,2) + (2 − 3,2) + (3,67 − 3,2) + (3,33 − 3,2) + (2 − 3,2) ) = 19,073 → Quadratsumme innerhalb der Stichproben 𝑞𝑠

292

=

𝑥 − 𝑥̅

Teil 2 Kapitel 3 Varianzanalyse

= ((5 − 5) + (5 − 5) + (5 − 5) ) + ((3 − 2) + (2 − 2) + (1 − 2) ) + ((4 − 3,67) + (5 − 3,67) + (2 − 3,67) ) + ((3 − 3,33) + (5 − 3,33) + (2 − 3,33) ) + ((2 − 2) + (2 − 2) + (2 − 2) ) = 11,333 Die Schritte für die Bestimmung von 𝐹

;

sind gegeben durch

;

𝑚=5 𝑛=3 𝑚−1=4 𝑛𝑚 − 𝑚 = 10 α = 0,05 𝐹

;

;

=𝐹

,

; ;

= 3,48

Eine Realisierung der Teststatistik lautet 𝑞𝑠 /(𝑚 − 1) 19,073/4 = = 4,2074 > 3,48 𝑞𝑠 /(𝑛𝑚 − 𝑚) 11,333/10 𝐻 ist daher zu verwerfen. Ansatz 2 Aus der 𝐹-Tabelle liest man 𝑊 𝐹;

> 5,99 = 0,01

𝑊 𝐹;

> 3,48 = 0,05

ab. Nach der linearen Interpolation gilt 0,05 − 0,01 𝑊 𝐹 ; > 4,2074 − 0,01 = 5,99 − 4,2074 5,99 − 3,48 Somit 𝑝-Wert = 𝑊 𝐹 ;

≥ 4,2074 ≅ 0,038 < 0,05

𝐻 ist daher zu verwerfen. 293

Teil 2 Kapitel 3 Varianzanalyse

→ Fazit: Man verwirft zum Signifikanzniveau von 0,05 die Aussage, dass 𝜇 = 𝜇 = 𝜇 = 𝜇 = 𝜇 gerechtfertigt ist. → 𝟗𝟓 %-Konfidenzintervalle für 𝝁𝒊 − 𝝁𝒋 Im Allgemeinen gilt (𝑥̅ − 𝑥̅ − 𝑦, 𝑥̅ − 𝑥̅ + 𝑦) wobei 𝑦=

1 √𝑛

𝐶(α; 𝑚; 𝑛𝑚 − 𝑚) 𝑞𝑠

/(𝑛𝑚 − 𝑚)

Liest man 𝐶(0,05; 5; 10) = 4,65 aus der 𝐶-Tabelle ab, dabei ergibt sich 𝑦=

1 √3

(4,65)

11,333 = 2,858 10

→ 95 %-Konfidenzintervall für 𝜇 − 𝜇 (𝑥̅ − 𝑥̅ − 𝑦; 𝑥̅ − 𝑥̅ + 𝑦) = (5 − 2 − 2,858; 5 − 2 + 2,858) = (0,142; 5,858) → 95 %-Konfidenzintervall für 𝜇 − 𝜇 (𝑥̅ − 𝑥̅ − 𝑦; 𝑥̅ − 𝑥̅ + 𝑦) = (5 − 3,67 − 2,858; 5 − 3,67 + 2,858) = (−1,528; 4,188) → 95 %-Konfidenzintervall für 𝜇 − 𝜇 (𝑥̅ − 𝑥̅ − 𝑦; 𝑥̅ − 𝑥̅ + 𝑦) = (5 − 3,33 − 2,858; 5 − 3,33 + 2,858) = (−1,188; 4,528) → 95 %-Konfidenzintervall für 𝜇 − 𝜇 (𝑥̅ − 𝑥̅ − 𝑦; 𝑥̅ − 𝑥̅ + 𝑦) = (5 − 2 − 2,858; 5 − 2 + 2,858) = (0,142; 5,858)

294

Teil 2 Kapitel 3 Varianzanalyse

→ 95 %-Konfidenzintervall für 𝜇 − 𝜇 (𝑥̅ − 𝑥̅ − 𝑦; 𝑥̅ − 𝑥̅ + 𝑦) = (2 − 3,67 − 2,858; 2 − 3,67 + 2,858) = (−4,528; 1,188) → 95 %-Konfidenzintervall für 𝜇 − 𝜇 (𝑥̅ − 𝑥̅ − 𝑦; 𝑥̅ − 𝑥̅ + 𝑦) = (2 − 3,33 − 2,858; 2 − 3,33 + 2,858) = (−4,188; 1,528) → 95 %-Konfidenzintervall für 𝜇 − 𝜇 (𝑥̅ − 𝑥̅ − 𝑦; 𝑥̅ − 𝑥̅ + 𝑦) = (2 − 2 − 2,858; 2 − 2 + 2,858) = (−2,858; 2,858) → 95 %-Konfidenzintervall für 𝜇 − 𝜇 (𝑥̅ − 𝑥̅ − 𝑦; 𝑥̅ − 𝑥̅ + 𝑦) = (3,67 − 3,33 − 2,858; 3,67 − 3,33 + 2,858) = (−2,518; 3,198) → 95 %-Konfidenzintervall für 𝜇 − 𝜇 (𝑥̅ − 𝑥̅ − 𝑦; 𝑥̅ − 𝑥̅ + 𝑦) = (3,67 − 2 − 2,858; 3,67 − 2 + 2,858) = (−1,188; 4,528) → 95 %-Konfidenzintervall für 𝜇 − 𝜇 (𝑥̅ − 𝑥̅ − 𝑦; 𝑥̅ − 𝑥̅ + 𝑦) = (3,33 − 2 − 2,858; 3,33 − 2 + 2,858) = (−1,528; 4,188)

295

Teil 2 Kapitel 4 Regressionsanalyse

Kapitel 4 Regressionsanalyse Die Regressionsanalyse dient der Analyse von Beziehungen zwischen einer oder mehreren unabhängigen (exogenen, erklӓrenden) Variablen (Regressoren) und einer oder mehreren abhängigen (endogenen, erklӓrten) Variablen (Regressanden). Eine geschӓtzte Regressionsfunktion ist eine mathematische Funktion, die diese Zusammenhänge auf der Basis von quantitativen Merkmalswerten (Stichprobendaten) durch eine Annӓherung darstellt. In diesem Kapitel werden wir zunächst eine Klassifikation der Typen der Regressionsanalyse darstellen. Im zweiten Abschnitt dieses Kapitels beschränken wir uns auf die einfachste Regressionsanalyse, die einfache lineare Regressionsanalyse, die durch verschiedene Aufgaben illustriert wird. 4.1.

Klassifikation der Regressionsanalyse

Eine Klassifikation der Regressionsanalyse wird in Tabelle 4.1 gezeigt. Tabelle 4.1: Klassifikation der Regressionsanalyse Typen der Regressionsanalyse Einfache Regressionsanalyse

Einfache lineare Regressionsanalyse Multiple Regressionsanalyse

Multiple lineare Regressionsanalyse

Anzahl der unabhӓngigen Variablen 1

Anzahl der abhӓngigen Variablen 1

1

1

≥2

1

≥2

1

Klassifikation der Regressionsfunktionen Linear, nichtlinear (Beispiele: Polynomfunktion, Exponentialfunktion, Logarithmusfunktion, Sigmoide Funktion) Linear Linear, nichtlinear (Beispiele: Polynome, Exponentialfunktion, Logarithmusfunktion, Sigmoide Funktion) Linear

© Der/die Herausgeber bzw. der/die Autor(en), exklusiv lizenziert durch Springer Fachmedien Wiesbaden GmbH, ein Teil von Springer Nature 2020 E. Bas, Einführung in Wahrscheinlichkeitsrechnung, Statistik und Stochastische Prozesse, https://doi.org/10.1007/978-3-658-32120-8_7

Teil 2 Kapitel 4 Regressionsanalyse

Typen der Regressionsanalyse

Anzahl der unabhӓngigen Variablen Multivariate multiple ≥2 Regressionsanalyse

Multivariate multiple lineare Regressionsanalyse Multivariate (einfache) Regressionsanalyse Multivariate (einfache) lineare Regressionsanalyse 4.2.

Anzahl der abhӓngigen Variablen ≥2

≥2

≥2

1

≥2

1

≥2

Klassifikation der Regressionsfunktionen Linear, nichtlinear (Beispiele: Polynome, Exponentialfunktion, Logarithmusfunktion, Sigmoide Funktion) Linear Linear, nichtlinear (Beispiele: Polynome, Exponentialfunktion, Logarithmusfunktion, Sigmoide Funktion) Linear

Einfache lineare Regressionsanalyse

Das Ziel der einfachen linearen Regressionsanalyse ist es, den Zusammenhang zwischen einer unabhängigen Variable und einer abhängigen Variable anhand einer linearen Funktion (Gerade) anzunähern (s. Abbildung 4.1). Gesucht ist die folgende lineare Funktion, die diesen Zusammenhang beschreibt: 𝑦 =𝛽 +𝛽 𝑥 wobei

𝑦: Abhӓngige Variable 𝑦: Schӓtzer für die abhӓngige Variable 𝑦 𝛽 , 𝛽 : Regressionskoeffizienten 𝛽 , 𝛽 : Schӓtzer für die Regressionskoeffizienten

bezeichnen. Bemerkung: Falls man glaubwürdige Schӓtzer 𝛽 und 𝛽 der beiden Regressionskoeffizienten 𝛽 und 𝛽 findet, kann ein neues 𝑦 an einem neuen 𝑥 mittels der geschätzten linearen Regressionsfunktion vorhergesagt werden.

297

Teil 2 Kapitel 4 Regressionsanalyse

Abbildung 4.1: Einfache lineare Regressionsanalyse → Kleinste-Quadrate-Methode für die Schӓtzung der Regressionskoeffizienten Die Kleinste-Quadrate-Methode ist eine Methode für die Schӓtzung der Regressionskoeffizienten, bei der die Summe der quadrierten senkrechten (vertikalen) Abstände zwischen den geschätzten 𝑦-Werten und den wahren 𝑦-Werten der Datenpaare minimiert wird. Seien (𝑥 , 𝑦 ): 𝑖-tes Datenpaar für 𝑖 = 1, 2, 3, … , 𝑛 Dabei definiert man 𝑆𝑆𝐸 =

(𝑦 − 𝑦 ) =

(𝑦 − (𝛽 + 𝛽 𝑥 ))

wobei 𝑆𝑆𝐸 ( engl. Sum of Squared Errors) die Summe aller quadrierten senkrechten Abstände zwischen den geschätzten 𝑦-Werten und den wahren 𝑦-Werten der Datenpaare beschreibt. Die Funktion 𝑆𝑆𝐸 ist zu minimieren, sodass die optimalen Schӓtzer 𝛽 ∗ , 𝛽∗ für 𝛽 , 𝛽 bestimmt werden können. Zu diesem Zweck wird 𝑆𝑆𝐸 nach 𝛽 und 𝛽 folgendermaßen abgeleitet: 298

Teil 2 Kapitel 4 Regressionsanalyse

𝜕𝑆𝑆𝐸 𝜕𝛽

𝜕𝑆𝑆𝐸

= 0,

𝜕𝛽

=0

Nach der Lösung ergeben sich die optimalen Schӓtzer 𝛽∗ , 𝛽∗ als 𝛽∗ = 𝑦 − 𝛽∗ 𝑥̅ 𝛽∗ =



(𝑥 − 𝑥̅ )(𝑦 − 𝑦) ∑ = ∑ (𝑥 − 𝑥̅ ) ∑

𝑥 𝑦 − 𝑛𝑥̅ 𝑦 𝑥 − 𝑛𝑥̅

Folglich wird die geschӓtzte einfache lineare Regressionsfunktion ermittelt: 𝑦 = 𝛽∗ + 𝛽∗ 𝑥 Weil eine geschӓtzte einfache lineare Regressionsfunktion den Zusammenhang zwischen den Variablen 𝑥 und 𝑦 nicht exakt liefert, definiert man dazu wie folgt die Restgröße (Residuum) 𝑟 für das 𝑖-te Datenpaar bzw. die Residualvarianz 𝑠 für die Stichprobe: 𝑟 =𝑦 −𝑦 𝑠 =

𝑖 = 1, 2, 3, … , 𝑛

1 𝑛−2

(𝑦 − 𝑦 )

Beispiel 1: 6 Datenpaare (𝑥 , 𝑦 ) einer Stichprobe sind in Tabelle 4.2 zu sehen. Tabelle 4.2: Datenpaare für Beispiel 1 1 2 3 4 5 6

𝑥 55 74 77 85 110 150

𝑦 6,4 7,6 6,8 7,9 9,3 10,8

Zeichnen Sie das Streudiagramm für die Datenpaare (𝑥 , 𝑦 ), 𝑖 = 1, 2, 3, . . , 6. Bestimmen Sie die geschӓtzte einfache lineare Regressionsfunktion. Berechnen Sie die Restgrößen und Residualvarianz. Schätzen Sie den 𝑦-Wert für 𝑥 = 100.

299

Teil 2 Kapitel 4 Regressionsanalyse

Lösung 1 Man zeichnet das Streudiagramm durch die gegebenen Stichprobendaten (s. Abbildung 4.2). 12 10 8

y 6 4 2 0 0

50

100

150

200

x Abbildung 4.2: Streudiagramm für Beispiel 1 Die Mittelwerte der Stichprobendaten sind gegeben durch 𝑥̅ =

55 + 74 + ⋯ + 150 = 91,83 6

𝑦=

6,4 + 7,6 + ⋯ + 10,8 = 8,13 6

Der empirische Korrelationskoeffizient zwischen 𝑥 und 𝑦 ist bestimmt durch 𝑟

=

𝑠 54,21 = = 0,977 𝑠 𝑠 (33,63)(1,65)

wobei 𝑠

=

1 (55 − 91,83)(6,4 − 8,13) + ⋯ + (150 − 91,83)(10,8 − 8,13) 5 = 54,21 𝑠 =

300

1 ((55 − 91,83) + ⋯ + (150 − 91,83) ) = 33,63 5

Teil 2 Kapitel 4 Regressionsanalyse

𝑠 =

1 ((6,4 − 8,13) + ⋯ + (10,8 − 8,13) ) = 1,65 5

Folglich schätzt man die Regressionskoeffizienten als ∑

(𝑥 − 𝑥̅ )(𝑦 − 𝑦) ∑ (𝑥 − 𝑥̅ ) (55 − 91,83)(6,4 − 8,13) + ⋯ + (150 − 91,83)(10,8 − 8,13) = (55 − 91,83) + ⋯ + (150 − 91,83) 𝛽∗ =

= 0,048 𝛽 ∗ = 𝑦 − 𝛽∗ 𝑥̅ = 8,13 − (0,048)(91,83) = 3,722 → Die geschӓtzte einfache lineare Regressionsfunktion lautet 𝑦 = 𝛽 ∗ + 𝛽 ∗ 𝑥 = 3,722 + 0,048𝑥 Für 𝑥 = 100 schätzt man 𝑦 = 3,722 + 0,048(100) = 8,522 → Die Restgrößen und Residualvarianz (s. Tabelle 4.3) Tabelle 4.3: Restgrößen und Residualvarianz für Beispiel 1 1 2 3 4 5 6

𝑥 𝑦 𝑦 55 6,4 6,362 74 7,6 7,274 77 6,8 7,418 85 7,9 7,802 110 9,3 9,002 150 10,8 10,922 Residualvarianz

𝑟 =𝑦−𝑦 0,038 0,326 −0,618 0,098 0,298 −0,122 0,1507

Aufgaben 1. Man vermutet eine Korrelation zwischen den wöchentlichen Arbeitsstunden und den Noten der Statistikvorlesung. Die wöchentlichen Arbeitsstunden und die Noten der Statistikvorlesung von 10 zufӓllig ausgewӓhlten Studierenden sind in Tabelle 4.4 angegeben.

301

Teil 2 Kapitel 4 Regressionsanalyse

Tabelle 4.4: Wöchentliche Arbeitsstunden vs. Noten der Statistikvorlesung für Aufgabe 1 Wöchentliche Arbeitsstunden 8 4 5 4 3 6 9 5 5 4

Noten der Statistikvorlesung 95 70 75 80 65 84 88 72 80 73

Zeichnen Sie das Streudiagramm. Bestimmen Sie die geschӓtzte einfache lineare Regressionsfunktion für den Zusammenhang zwischen den wöchentlichen Arbeitsstunden und den Noten der Statistikvorlesung. Berechnen Sie die Restgrößen und Residualvarianz. Sagen Sie die Note der Statistikvorlesung für die wöchentliche Arbeitsstundenzahl von 10 vorher. Lösung 1

Noten der StatistikVorlesung

Die Datenpaare mit den wöchentlichen Arbeitsstunden und den Noten der Statistikvorlesung sind in Abbildung 4.3 eingezeichnet. 100 95 90 85 80 75 70 65 60 55 50 0

2

4

6

8

Wöchentliche Arbeitsstunden Abbildung 4.3: Streudiagramm für Aufgabe 1 302

10

Teil 2 Kapitel 4 Regressionsanalyse

Der empirische Korrelationskoeffizient zwischen 𝑥 und 𝑦 ist gegeben als 𝑟

=

𝑠 14,82 = = 0,8674 𝑠 𝑠 (1,89)(9,04)

Die Mittelwerte errechnen sich durch 𝑥̅ = 𝑦=

8 + 4 + 5 + ⋯+ 4 = 5,3 10

95 + 70 + 75 + ⋯ + 73 = 78,2 10

→ Die geschätzten Regressionskoeffizienten: ∑

(𝑥 − 𝑥̅ )(𝑦 − 𝑦) ∑ (𝑥 − 𝑥̅ ) (8 − 5,3)(95 − 78,2) + (4 − 5,3)(70 − 78,2) + ⋯ + (4 − 5,3)(73 − 78,2) = (8 − 5,3) + (4 − 5,3) + ⋯ + (4 − 5,3) = 4,156 𝛽∗ =

𝛽∗ = 𝑦 − 𝛽∗ 𝑥̅ = 78,2 − (4,156)(5,3) = 56,173 → Die geschӓtzte einfache lineare Regressionsfunktion: 𝑦 = 𝛽∗ + 𝛽∗ 𝑥 = 56,173 + 4,156𝑥 Für 𝑥 = 10 gilt der geschätzte Wert von 𝑦 = 56,173 + 4,156(10) ≅ 98. → Die Restgrößen und Residualvarianz (s. Tabelle 4.5) Tabelle 4.5: Restgrößen und Residualvarianz für Aufgabe 1 1 2 3 4 5 6 7 8 9 10

𝑥 𝑦 8 95 4 70 5 75 4 80 3 65 6 84 9 88 5 72 5 80 4 73 Residualvarianz

𝑦 89 73 77 73 69 81 94 77 77 73

𝑟 =𝑦−𝑦 6 −3 −2 7 −4 3 −6 −5 3 0 24,125 303

Teil 2 Kapitel 4 Regressionsanalyse

2. Man geht davon aus, dass die Körpergewichte von weiblichen Studierenden von ihren Körpergrößen abhӓngig sind. Um diesen Zusammenhang zu bestimmen, wurden 10 weibliche Studierende zufӓllig ausgewӓhlt. Tabelle 4.6 zeigt die Körpergrößen bzw. Körpergewichte dieser Studierenden. Tabelle 4.6: Körpergrößen bzw. Körpergewichte für Aufgabe 2 Körpergrößen (m) 1,53 1,65 1,72 1,59 1,71 1,67 1,74 1,67 1,67 1,56

Körpergewichte (kg) 55 77 82 65 78 75 80 69 77 60

Zeichnen Sie das Streudiagramm. Bestimmen Sie die geschӓtzte einfache lineare Regressionsfunktion für die Korrelation zwischen den Körpergrößen und Körpergewichten. Berechnen Sie die Restgrößen und Residualvarianz. Schätzen Sie das Körpergewicht einer weiblichen Studierenden, die 1,70 m groß ist. Lösung 2

Körpergewichte (kg)

Abbildung 4.4 zeigt das Streudiagramm. 85 80 75 70 65 60 55 50 45 40 1,5

1,55

1,6

1,65

1,7

1,75

Körpergrößen (m) Abbildung 4.4: Streudiagramm für Aufgabe 2 304

1,8

Teil 2 Kapitel 4 Regressionsanalyse

Der empirische Korrelationskoeffizient zwischen 𝑥 und 𝑦 lautet 𝑟

=

𝑠 0,6 = = 0,94 𝑠 𝑠 (0,07)(9,13)

Die Mittelwerte sind gegeben durch 𝑥̅ =

1,53 + 1,65 + 1,72 + ⋯ + 1,56 = 1,65 10

𝑦=

55 + 77 + 82 + ⋯ + 60 = 71,8 10

→ Die geschätzten Regressionskoeffizienten: 𝛽∗ =



(𝑥 − 𝑥̅ )(𝑦 − 𝑦) ∑ (𝑥 − 𝑥̅ ) (1,53 − 1,65)(55 − 71,8) + ⋯ + (1,56 − 1,65)(60 − 71,8) = (1,53 − 1,65) + ⋯ + (1,56 − 1,65) = 123,508 𝛽∗ = 𝑦 − 𝛽∗ 𝑥̅ = 71,8 − (123,508)(1,65) = −131,988

→ Die geschӓtzte einfache lineare Regressionsfunktion: 𝑦 = 𝛽 ∗ + 𝛽 ∗ 𝑥 = −131,988 + 123,508𝑥 Für die weibliche Studierende, die 1,70 m groß ist, beträgt das geschätzte Körpergewicht −131,988 + 123,508(1,70) ≅ 78 kg. → Die Restgrößen und Residualvarianz (s. Tabelle 4.7) Tabelle 4.7: Restgrößen und Residualvarianz für Aufgabe 2 1 2 3 4 5 6 7 8 9 10

𝑥 𝑦 1,53 55 1,65 77 1,72 82 1,59 65 1,71 78 1,67 75 1,74 80 1,67 69 1,67 77 1,56 60 Residualvarianz

𝑦 57 72 80 64 79 74 83 74 74 61

𝑟 =𝑦−𝑦 −2 5 2 1 −1 1 −3 −5 3 −1 10 305

Teil 2 Kapitel 4 Regressionsanalyse

3. Tabelle 4.8 gibt die täglichen Temperaturen und die Anzahl der Unfӓlle für 7 Tage in einem Gebiet an. Tabelle 4.8: Tägliche Temperaturen bzw. Anzahl der Unfӓlle für Aufgabe 3 Tag

Tägliche Temperaturen (in ℃) 30 25 28 35 37 25 33

1 2 3 4 5 6 7

Anzahl der Unfӓlle 2 1 1 3 3 0 2

Zeichnen Sie das Streudiagramm. Bestimmen Sie die geschӓtzte einfache lineare Regressionsfunktion für den Zusammenhang zwischen den täglichen Temperaturen und der Anzahl der Unfӓlle. Berechnen Sie die Restgrößen und die Residualvarianz. Schätzen Sie die Anzahl der Unfӓlle für die tägliche Temperatur 40 ℃. Lösung 3 Das Streudiagramm ist in Abbildung 4.5 zu sehen.

Anzahl der Unfӓlle

3,5 3 2,5 2 1,5 1 0,5 0 20

25

30

35

Temperaturen (℃)

Abbildung 4.5: Streudiagramm für Aufgabe 3

306

40

Teil 2 Kapitel 4 Regressionsanalyse

Der empirische Korrelationskoeffizient zwischen 𝑥 und 𝑦 ergibt sich als 𝑟

=

𝑠 4,98 = = 0,94 𝑠 𝑠 (4,76)(1,11)

Man bestimmt die Mittelwerte als 𝑥̅ =

30 + 25 + 28 + ⋯ + 33 = 30,43 7

𝑦=

2 + 1 + 1 + ⋯+ 2 = 1,71 7

→ Die geschätzten Regressionskoeffizienten: 𝛽∗ =



(𝑥 − 𝑥̅ )(𝑦 − 𝑦) ∑ (𝑥 − 𝑥̅ ) (30 − 30,43)(2 − 1,71) + ⋯ + (33 − 30,43)(2 − 1,71) = (30 − 30,43) + ⋯ + (33 − 30,43) = 0,22 𝛽 ∗ = 𝑦 − 𝛽∗ 𝑥̅ = 1,71 − (0,22)(30,43) = −4,98

→ Die geschӓtzte einfache lineare Regressionsfunktion: 𝑦 = 𝛽 ∗ + 𝛽∗ 𝑥 = −4,98 + 0,22𝑥 Für die Temperatur 𝑥 = 40 ℃, ist die geschätzte Anzahl der Unfӓlle −4,98 + 0,22(40) ≅ 4. → Die Restgrößen und Residualvarianz (s. Tabelle 4.9) Tabelle 4.9: Restgrößen und Residualvarianz für Aufgabe 3 1 2 3 4 5 6 7

𝑥 𝑦 30 2 25 1 28 1 35 3 37 3 25 0 33 2 Residualvarianz

𝑦 2 1 1 3 3 1 2

𝑟 =𝑦−𝑦 0 0 0 0 0 −1 0 0,2 307

Teil 2 Kapitel 4 Regressionsanalyse

4. Die IQ-Werte und monatlichen Gehӓlter von zufӓllig ausgewӓhlten 10 Menschen sind der Tabelle 4.10 zu entnehmen. Tabelle 4.10: IQ-Wert bzw. monatliches Gehalt für Aufgabe 4 IQ-Wert 141 135 125 140 133 127 118 120 120 121

Monatliches Gehalt (Euro) 5000 5500 4750 6000 5000 4500 4000 3750 3500 4000

Zeichnen Sie das Streudiagramm. Man vermutet eine Korrelation zwischen zwei Variablen. Bestimmen Sie die geschӓtzte einfache lineare Regressionsfunktion, um die Beziehung zwischen den IQ-Werten und den monatlichen Gehältern darzustellen. Berechnen Sie die Restgrößen und Residualvarianz. Schätzen Sie das monatliche Gehalt für einen Mensch mit dem IQ-Wert 130. Lösung 4

Monatliches Gehalt (Euro)

Die gegebenen Datenpaaren sind im Streudiagramm ersichtlich (s. Abbildung 4.6). 6500 6000 5500 5000 4500 4000 3500 3000 2500 2000 115

120

125

130

135

IQ-Wert

Abbildung 4.6: Streudiagramm für Aufgabe 4 308

140

145

Teil 2 Kapitel 4 Regressionsanalyse

Der empirische Korrelationskoeffizient zwischen 𝑥 und 𝑦 errechnet sich durch 𝑟

=

𝑠 6194 = = 0,89 𝑠 𝑠 (8,65)(801)

Die Mittelwerte sind gegeben durch 𝑥̅ = 𝑦=

141 + 135 + 125 + ⋯ + 121 = 128 10

5000 + 5500 + 4750 + ⋯ + 4000 = 4600 10

→ Die geschätzten Regressionskoeffizienten: ∑

(𝑥 − 𝑥̅ )(𝑦 − 𝑦) ∑ (𝑥 − 𝑥̅ ) (141 − 128)(5000 − 4600) + ⋯ + (121 − 128)(4000 − 4600) = = 82,715 (141 − 128) + ⋯ + (121 − 128)

𝛽∗ =

𝛽∗ = 𝑦 − 𝛽 ∗ 𝑥̅ = 4600 − (82,715)(128) = −5987,52 → Die geschӓtzte einfache lineare Regressionsfunktion: 𝑦 = 𝛽∗ + 𝛽∗ 𝑥 = −5987,52 + 82,715𝑥 Daher beträgt für einen Mensch mit dem IQ-Wert 130 das geschätzte monatliche Gehalt −5987,52 + 82,715(130) ≅ 4765 Euro. → Die Restgrößen und Residualvarianz (s. Tabelle 4.11) Tabelle 4.11: Restgrößen und Residualvarianz für Aufgabe 4 1 2 3 4 5 6 7 8 9 10

𝑥 𝑦 𝑦 141 5000 5675 135 5500 5179 125 4750 4352 140 6000 5593 133 5000 5014 127 4500 4517 118 4000 3773 120 3750 3938 120 3500 3938 121 4000 4021 Residualvarianz

𝑟 =𝑦−𝑦 −675 321 398 407 −14 −17 227 −188 −438 −21 145295 309

Teil 2 Kapitel 4 Regressionsanalyse

5. Es wird angenommen, dass es einen kausalen Zusammenhang zwischen Blutzuckerwerten und systolischen Blutdruckwerten gebe. Um diesen Zusammenhang für einen Patient zu untersuchen, hat man 10 verschiedene Blutzucker- und Blutdruckwerte für diesen Patient gemessen. Die Ergebnisse sind in Tabelle 4.12 verfügbar. Tabelle 4.12: Blutzucker- bzw. systolische Blutdruckwerte für Aufgabe 5 Messgröße Blutzuckerwerte (mg/dl) 1 2 3 4 5 6 7 8 9 10

135 145 160 120 110 125 165 100 120 125

Systolische Blutdruckwerte (mmHg) 145 155 160 135 125 130 140 120 125 132

Zeichnen Sie das Streudiagramm. Bestimmen Sie die geschӓtzte einfache lineare Regressionsfunktion. Berechnen Sie die Restgrößen und Residualvarianz. Vermuten Sie den systolischen Blutdruckwert für diesen Patient, wenn sein Blutzuckerwert 140 mg/dl beträgt. Lösung 5 Es ist offenbar, dass es sich um eine recht hohe Korrelation zwischen den gegebenen Blutzucker- und systolischen Blutdruckwerten handelt (s. Abbildung 4.7). Die hohe Korrelation ist durch den folgenden empirischen Korrelationskoeffiezient bestätigt: 𝑟

310

=

𝑠 228,5 = = 0,83 𝑠 𝑠 (20,88)(13,25)

Systolischer Blutdruckwert (mmHg)

Teil 2 Kapitel 4 Regressionsanalyse

180 160 140 120 100 80 80

100

120

140

160

180

Blutzuckerwert (mg/dl)

Abbildung 4.7: Streudiagramm für Aufgabe 5 Als Mittelwerte der Stichprobendaten gelten 𝑥̅ =

135 + 145 + 160 + ⋯ + 125 = 130,5 10

𝑦=

145 + 155 + 160 + ⋯ + 132 = 136,7 10

→ Die geschätzten Regressionskoeffizienten: ∑

(𝑥 − 𝑥̅ )(𝑦 − 𝑦) ∑ (𝑥 − 𝑥̅ ) (135 − 130,5)(145 − 136,7) + ⋯ + (125 − 130,5)(132 − 136,7) = = 0,5243 (135 − 130,5) + ⋯ + (125 − 130,5)

𝛽∗ =

𝛽∗ = 𝑦 − 𝛽∗ 𝑥̅ = 136,7 − (0,5243)(130,5) = 68,279 → Die geschӓtzte einfache lineare Regressionsfunktion: 𝑦 = 𝛽 ∗ + 𝛽 ∗ 𝑥 = 68,279 + 0,5243𝑥 Dazu schätzt man den systolischen Blutdruckwert von 68,279 + 0,5243(140) ≅ 142 mmHg für diesen Patient, wenn sein Blutzuckerwert 140 mg/dl beträgt.

311

Teil 2 Kapitel 4 Regressionsanalyse

→ Die Restgrößen und Residualvarianz (s. Tabelle 4.13) Tabelle 4.13: Restgrößen und Residualvarianz für Aufgabe 5 1 2 3 4 5 6 7 8 9 10

𝑥 𝑦 135 145 145 155 160 160 120 135 110 125 125 130 165 140 100 120 120 125 125 132 Residualvarianz

𝑦 139 144 152 131 126 134 155 121 131 134

𝑟 =𝑦−𝑦 6 11 8 4 −1 −4 −15 −1 −6 −2 65

6. Es wird angenommen, dass die Lebensdauer von rauchenden Menschen mit den Packungsjahren korreliert. Um diese Korrelation zu untersuchen, wurden die Daten über 15 Raucher entnommen. Die Ergebnisse sind in Tabelle 4.14 angegeben. Tabelle 4.14: Packungsjahre bzw. Lebensdauer für Aufgabe 6 Patient Nummer 1 2 3 4 5 6 7 8 9 10 11 12 13 14 15 312

Packungsjahre (Zahl der pro Tag gerauchten Zigarettenpackungen x Zahl der Raucherjahre) 8 10 15 20 40 25 12 8 9 15 10 12 18 3 8

Lebensdauer

65 70 70 54 45 55 60 55 57 60 60 65 52 80 72

Teil 2 Kapitel 4 Regressionsanalyse

Zeichnen Sie das Streudiagramm. Bestimmen Sie die geschӓtzte einfache lineare Regressionsfunktion. Berechnen Sie die Restgrößen und Residualvarianz. Schätzen Sie die Lebensdauer einer Person mit 30 Packungsjahren. Lösung 6

Lebensdauer

Der negative Zusammenhang zwischen den Packungsjahren und Lebensdauer ist in Abbildung 4.8 ersichtlich. 85 80 75 70 65 60 55 50 45 40 0

10

20

30

40

50

Packungsjahre

Abbildung 4.8: Streudiagramm für Aufgabe 6 Der empirische Korrelationskoeffizient ergibt sich als 𝑟

=

𝑠 −59,57 = = −0,73 𝑠 𝑠 (9,04)(9,07)

Man ermittelt folgende Mittelwerte, um die Regressionskoeffizienten zu schätzen: 𝑥̅ = 𝑦=

8 + 10 + 15 + ⋯ + 8 = 14,2 15

65 + 70 + 70 + ⋯ + 72 = 61,33 15

313

Teil 2 Kapitel 4 Regressionsanalyse

→ Die geschätzten Regressionskoeffizienten: 𝛽∗ =



(𝑥 − 𝑥̅ )(𝑦 − 𝑦) ∑ (𝑥 − 𝑥̅ ) (8 − 14,2)(65 − 61,33) + ⋯ + (8 − 14,2)(72 − 61,33) = (8 − 14,2) + ⋯ + (8 − 14,2) = −0,729 𝛽∗ = 𝑦 − 𝛽∗ 𝑥̅ = 61,33 − (−0,729)(14,2) = 71,682

→ Die geschӓtzte einfache lineare Regressionsfunktion: 𝑦 = 𝛽∗ + 𝛽∗ 𝑥 = 71,682 − 0,729𝑥 Die geschätzte Lebensdauer ist 71,682 − 0,729(30) ≅ 50 für eine Person mit 30 Packungsjahren. → Die Restgrößen und Residualvarianz (s. Tabelle 4.15) Tabelle 4.15: Restgrößen und Residualvarianz für Aufgabe 6 1 2 3 4 5 6 7 8 9 10 11 12 13 14 15

314

𝑥 𝑦 8 65 10 70 15 70 20 54 40 45 25 55 12 60 8 55 9 57 15 60 10 60 12 65 18 52 3 80 8 72 Residualvarianz

𝑦 66 64 61 57 43 53 63 66 65 61 64 63 59 69 66

𝑟 =𝑦−𝑦 −1 6 9 −3 2 2 −3 −11 −8 −1 −4 2 −7 11 6 42,769

Teil 2 Kapitel 5 Nichtparametrische Tests

Kapitel 5 Nichtparametrische Tests

Die nichtparametrischen (nonparametrischen, verteilungsfreien, parameterfreien) Tests sind eine Familie der Hypothesentests, die keine Annahmen über zugrunde liegende Verteilungen der Zufallsvariablen machen. Diese Tests beziehen sich nicht auf bestimmte Parameter und sind insbesondere geeignet, wenn die Annahme der Normalverteilung nicht gerechtfertigt ist. Im ersten Teil dieses Kapitels wird zunächst eine Klassifikation der nichtparametrischen Tests vorgelegt. Anschließend werden wir uns den ausgewählten nichtparametrischen Tests widmen. Diesbezüglich werden wir uns mit den Vorgehensweisen zur Durchführung von Chi-Quadrat-Anpassungstest, Chi-Quadrat-Unabhӓngigkeitstest und Vorzeichentest befassen. 5.1.

Grundlegende Klassifikation der nichtparametrischen Tests

In Tabelle 5.1 wird eine Klassifikation der nichtparametrischen Tests dargelegt. Tabelle 5.1: Klassifikation der nichtparametrischen Tests Test

Kurze Erklӓrung

Ausgewählte Tests für diskrete Zufallsvariablen Anpassungstests Hypothesentests Chi-Quadrat(engl. Goodness of auf Vorliegen einer Anpassungstest fit tests) bestimmten Verteilung

Unabhӓngigkeits- Hypothesentests Chi-Quadrattests auf Unabhӓngigkeit Unabhӓngigkeitsvon zwei tests Zufallsvariablen

© Der/die Herausgeber bzw. der/die Autor(en), exklusiv lizenziert durch Springer Fachmedien Wiesbaden GmbH, ein Teil von Springer Nature 2020 E. Bas, Einführung in Wahrscheinlichkeitsrechnung, Statistik und Stochastische Prozesse, https://doi.org/10.1007/978-3-658-32120-8_8

Ausgewählte Tests für stetige Zufallsvariablen KolmogorovSmirnov-Anpassungstest (KSA), AndersonDarling-Test, Tests insbesondere auf die Normalverteilung: Shapiro-Wilk-Test, Lillierfors-Test Hoeffding-Test

315

Teil 2 Kapitel 5 Nichtparametrische Tests

Test

Ausgewählte Tests für diskrete Zufallsvariablen Tests für die Über- Hypothesentests auf Mann-Whitney-Ueinstimmung die Gleichung (der Test, Wilcoxonzweier unabhӓn- Mediane) zweier Rangsummentest giger Zufallsunabhӓngiger variablen Zufallsvariablen Tests für die Über- Hypothesentests auf einstimmung die Gleichung (der zweier abhӓngiger Mediane) zweier (verbundener) abhӓngiger Zufallsvariablen Zufallsvariablen Tests für die Hypothesentests auf Übereinstimmung die Gleichung der dreier oder Verteilungen dreier mehrerer oder mehrerer unabhӓngiger unabhӓngiger Zufallsvariablen Zufallsvariablen Tests für die Über- Hypothesentests auf einstimmung dreier die Gleichung der oder mehrerer Verteilungen dreier abhӓngiger oder mehrerer (verbundener) abhӓngiger Zufallsvariablen Zufallsvariablen Tests für den Hypothesentests auf Median den Median einer nichtsymmetrischverteilten Zufallsvariable 5.2.

Kurze Erklӓrung

Ausgewählte Tests für stetige Zufallsvariablen Mann-Whitney-UTest, WilcoxonRangsummentest WilcoxonVorzeichen-RangTest Kruskal-WallisTest

Friedman-Test

Vorzeichen-Test

Der Chi-Quadrat-Anpassungstest

Mit einem Chi-Quadrat-Anpassungstest kann überprüft werden, ob die behauptete Verteilung der Stichprobe mit der theoretischen Verteilung der Grundgesamtheit übereinstimmt. Gegeben seien 𝑌 , 𝑌 , … , 𝑌 , … , 𝑌 als unabhӓngige und identischverteilte diskrete Zufallsvariablen, die nur die Werte 1, 2, … 𝑖, … , 𝑘 annehmen können. Sei 𝑤 , 𝑖 = 1, 2, … , 𝑘 die hypothetische Wahrscheinlichkeitsfunktion von 𝑌. Daher lautet der Hypothesentest 𝐻 : 𝑊(𝑌 = 𝑖) = 𝑤 für alle 𝑖 = 1, 2, … , 𝑘 𝐻 : 𝑊(𝑌 = 𝑖) ≠ 𝑤 für einige 𝑖 = 1, 2, … , 𝑘 316

Teil 2 Kapitel 5 Nichtparametrische Tests

Es sei 𝑋 : Anzahl der 𝑌 𝑠, die den Wert 𝑖 annehmen, 𝑖 = 1, 2, … , 𝑘 Dann gilt 𝑋 ~Bin(𝑛, 𝑤 ) mit 𝐸(𝑋 ) = 𝑛𝑤 Daher für großes 𝑛 ist 𝜒

=

(𝑋 − 𝑛𝑤 ) 𝑛𝑤

die Chi-Quadrat-verteilte Teststatistik mit 𝑘 − 1 Freiheitsgraden. Eine Realisierung der Zufallsvariablen 𝑋 für 𝑖 = 1, 2, 3, … , 𝑘 wird aus den Stichprobendaten errechnet. Man unterscheidet wie immer zwei Ansätze als Entscheidungsregeln: Ansatz 1 𝐻 ist zu verwerfen, wenn gilt (𝑥 − 𝑛𝑤 ) >𝜒 𝑛𝑤

;

𝐻 ist zu akzeptieren, wenn gilt (𝑥 − 𝑛𝑤 ) ≤𝜒 𝑛𝑤

;

Ansatz 2 𝑝-Wert = 𝑊

(𝑋 − 𝑛𝑤 ) ≥ 𝑛𝑤 =𝑊 𝜒



(𝑥 − 𝑛𝑤 ) 𝑛𝑤 (𝑥 − 𝑛𝑤 ) 𝑛𝑤

317

Teil 2 Kapitel 5 Nichtparametrische Tests

𝐻 ist zu verwerfen, wenn gilt α ≥ 𝑝-Wert 𝐻 ist zu akzeptieren, wenn gilt α < 𝑝-Wert Beispiel 1: Insgesamt 5 Qualitӓtsklassen für eine Ware sind definiert worden. Man behauptet die in Tabelle 5.2 angegebenen Klassenwahrscheinlichkeiten. Tabelle 5.2: Klassenwahrscheinlichkeiten für Beispiel 1 Klasse 1 0,1

Klasse 2 0,3

Klasse 3 0,25

Klasse 4 0,1

Klasse 5 0,25

Es wurde eine Stichprobe mit 250 Stücken angenommen und die Anzahl der Stücke in jeder Klasse festgelegt (s. Tabelle 5.3). Tabelle 5.3: Anzahl der Stücke für Beispiel 1 Klasse 1 50

Klasse 2 40

Klasse 3 30

Klasse 4 70

Klasse 5 60

Testen Sie die Nullhypothese, dass die hypothetischen Klassenwahrscheinlichkeiten zum Signifikanzniveau von α = 0,05 gelten. Lösung 1 Sei 𝑌: Qualitӓtsklasse eines zufӓllig ausgewӓhlten Stücks Damit beschreibt man den zu untersuchenden Hypothesentest: 𝐻 : 𝑊(𝑌 = 1) = 𝑤 = 0,1; 𝑊(𝑌 = 2) = 𝑤 = 0,3; 𝑊(𝑌 = 3) = 𝑤 = 0,25; 𝑊(𝑌 = 4) = 𝑤 = 0,1; 𝑊(𝑌 = 5) = 𝑤 = 0,25 𝐻 : Mindestens eine Wahrscheinlichkeit gilt nicht Ansatz 1 Sei 𝑥 : Anzahl der Stücke, die in die 𝑖-te Klasse fallen, 𝑖 = 1, 2, 3, 4, 5

318

Teil 2 Kapitel 5 Nichtparametrische Tests

Damit ist die aus der Stichprobe berechnete Realisierung der Chi-Quadrat-verteilten Teststatistik gegeben durch: (𝑥 − 𝑛𝑤 ) = 𝑛𝑤

(𝑥 − 250𝑤 ) 250𝑤

(50 − (250)(0,1)) (40 − (250)(0,3)) (30 − (250)(0,25)) + + 250(0,1) 250(0,3) 250(0,25) (70 − (250)(0,1)) (60 − (250)(0,25)) + + = 139,33 250(0,1) 250(0,25) > 𝜒 , ; = 9,488

=

𝐻 ist daher zu verwerfen. Ansatz 2 𝑝-Wert = 𝑊(𝜒 ≥ 139,33) < 0,005 < 0,05 𝐻 ist daher zu verwerfen. 5.3.

Der Chi-Quadrat-Unabhӓngigkeitstest

Mit dem Chi-Quadrat-Unabhӓngigkeitstest kann geprüft werden, ob zwei diskrete Zufallsvariablen (stochastisch) unabhängig voneinander sind. Es sei (𝑋, 𝑌): Zweidimensionale diskrete Zufallsvariable mit der gemeinsamen Wahrscheinlichkeitsfunktion 𝑊 (𝑋 = 𝑥) ∩ (𝑌 = 𝑦) = 𝑤(𝑥, 𝑦) für 𝑥 = 1, 2, … , 𝑟; 𝑦 = 1, 2, … . , 𝑠 und mit den Randwahrscheinlichkeitsfunktionen 𝑤 (𝑥) = 𝑊(𝑋 = 𝑥) =

𝑤(𝑥, 𝑦) für 𝑥 = 1, 2, … , 𝑟

𝑤 (𝑦) = 𝑊(𝑌 = 𝑦) =

𝑤(𝑥, 𝑦) für 𝑦 = 1, 2, … . , 𝑠

319

Teil 2 Kapitel 5 Nichtparametrische Tests

Dazu lautet der Hypothesentest für die Unabhӓngigkeit der Zufallsvariablen 𝑋 und 𝑌 𝐻 : 𝑤(𝑥, 𝑦) = 𝑤 (𝑥)𝑤 (𝑦) ∀𝑥, 𝑦 𝐻 : 𝑤(𝑥, 𝑦) ≠ 𝑤 (𝑥)𝑤 (𝑦) für einige 𝑥, 𝑦 Daher ist 𝜒(

)(

)

(𝑁

=

− 𝑛𝑤 (𝑥)𝑤 (𝑦)) 𝑛𝑤 (𝑥)𝑤 (𝑦)

die Chi-Quadrat-verteilte Teststatistik mit (𝑟 − 1)(𝑠 − 1) Freiheitsgraden, wobei 𝑁 : Anzahl der Merkmalswerte mit den Werten 𝑥 und 𝑦 𝑁 : Anzahl der Merkmalswerte mit dem Wert 𝑥 𝑁 : Anzahl der Merkmalswerte mit dem Wert 𝑦 𝑛: Stichprobengröße Eine Realisierung der Zufallsvariablen 𝑁 , 𝑁 und 𝑁 wird aus den Stichprobendaten errechnet. Dadurch gilt eine Realisierung der Randwahrscheinlichkeitsfunktionen 𝑤 (𝑥) =

𝑛 𝑛

𝑤 (𝑦) =

𝑛 𝑦 = 1, 2, … . , 𝑠 𝑛

𝑥 = 1, 2, … , 𝑟

Die folgenden zwei Ansӓtze sind zu unterscheiden: Ansatz 1 𝐻 ist zu verwerfen, wenn gilt (𝑛 − 𝑛𝑤 (𝑥)𝑤 (𝑦)) > 𝜒 ;( 𝑛𝑤 (𝑥)𝑤 (𝑦) 𝐻 ist zu akzeptieren, wenn gilt (𝑛 − 𝑛𝑤 (𝑥)𝑤 (𝑦)) ≤ 𝜒 ;( 𝑛𝑤 (𝑥)𝑤 (𝑦) 320

)(

)

)(

)

Teil 2 Kapitel 5 Nichtparametrische Tests

Ansatz 2 (𝑁

𝑝-Wert = 𝑊

− 𝑛𝑤 (𝑥)𝑤 (𝑦)) 𝑛𝑤 (𝑥)𝑤 (𝑦) (𝑛



= 𝑊 𝜒(

− 𝑛𝑤 (𝑥)𝑤 (𝑦)) 𝑛𝑤 (𝑥)𝑤 (𝑦)

)(

)



(𝑛

− 𝑛𝑤 (𝑥)𝑤 (𝑦)) 𝑛𝑤 (𝑥)𝑤 (𝑦)

𝐻 ist zu verwerfen, wenn gilt α ≥ 𝑝-Wert 𝐻 ist zu akzeptieren, wenn gilt α < 𝑝-Wert Beispiel 2: Tabelle 5.4 zeigt die IQ-Werte und Noten der Statistikvorlesung von zufӓllig ausgewӓhlten 50 Studierenden. Tabelle 5.4: IQ-Werte bzw. Noten der Statistikvorlesung für Beispiel 2 IQ-Werte 110 − 120 121 − 130 131 − Insgesamt

Noten der Statistikvorlesung 45 − 60 61 − 75 76 − 90 91 − 100 10 3 3 1 2 1 2 10 2 8 0 8 14 12 5 19

Insgesamt 17 15 18 50

Testen Sie zum Signifikanzniveau von α = 0,05 die Nullhypothese, dass die IQWerte und Noten der Statistikvorlesung unabhӓngig voneinander sind. Lösung 2 Es bezeichnen für IQ-Werte (𝑋) 110 − 120 → 1 121 − 130 → 2 131− → 3

321

Teil 2 Kapitel 5 Nichtparametrische Tests

und für Noten in Stastistik (𝑌) 45 − 60 → 1 61 − 75 → 2 76 − 90 → 3 91 − 100 → 4 Um die Unabhängigkeit der IQ-Werte und Noten der Statistikvorlesung zu untersuchen, wird der folgende Hypothesentest definiert: 𝐻 : 𝑤(𝑥, 𝑦) = 𝑤 (𝑥)𝑤 (𝑦) für alle 𝑥 = 1, 2, 3; 𝑦 = 1, 2, 3, 4 𝐻 : 𝑤(𝑥, 𝑦) ≠ 𝑤 (𝑥)𝑤 (𝑦) für einige 𝑥 = 1, 2, 3; 𝑦 = 1, 2, 3, 4 Tabelle 5.5 gibt die aus der Stichprobe ermittelten Realisierungen der Parameter an. Tabelle 5.5: Parameter für Beispiel 2 𝑛

𝑛 𝑤 (𝑥) 𝑛 𝑤 (𝑦)

𝑛 = 10 𝑛 =2 𝑛 =2 𝑛 = 17 𝑤 (1) = 17/50 𝑛 = 14 𝑤 (1) = 14/50

𝑛 =3 𝑛 =1 𝑛 =8 𝑛 = 15 𝑤 (2) = 15/50 𝑛 = 12 𝑤 (2) = 12/50

𝑛 =3 𝑛 =2 𝑛 =0 𝑛 = 18 𝑤 (3) = 18/50 𝑛 =5 𝑤 (3) = 5/50

𝑛 =1 𝑛 = 10 𝑛 =8

𝑛 = 19 𝑤 (4) = 19/50

Ansatz 1 (𝑛

− 𝑛𝑤 (𝑥)𝑤 (𝑦)) 𝑛𝑤 (𝑥)𝑤 (𝑦) 17 14 50 50 17 14 50 50 50

10 − 50 =

17 5 50 50 17 5 50 50 50

+

3 − 50 +

322

17 12 50 50 17 12 50 50 50

3 − 50

17 19 50 50 17 19 50 50 50

1 − 50 +

Teil 2 Kapitel 5 Nichtparametrische Tests

15 14 50 50 15 14 50 50 50

15 12 50 50 15 12 50 50 50

1 − 50

2 − 50 +

+

15 19 50 50 15 19 50 50 50

10 − 50 +

+

18 14 50 50 18 14 50 50 50

2 − 50 +

18 12 50 50 18 12 50 50 50

+

18 19 50 50 18 19 50 50 50

= 25,069 > 𝜒

8 − 50 +

15 5 50 50 15 5 50 50 50

2 − 50

18 5 50 50 18 5 50 50 50

0 − 50

8 − 50 +

,

;

= 12,592

𝐻 ist daher zu verwerfen. Ansatz 2 𝑝-Wert = 𝑊(𝜒 ≥ 25,069) < 0,005 < 0,05 𝐻 ist daher zu verwerfen. 5.4. Vorzeichentest Bei dem Vorzeichentest wird der Hypothesentest über den Median einer nicht symmetrischverteilten (und nicht bestimmten) stetigen Zufallsvariable durchgeführt. Im Folgenden wird der Ansatz nun mit 𝑝-Wert erläutert. Seien 𝑚 : Hypothetischer Median 𝑛: Stichprobengröße 𝑣: Anzahl der Merkmalswerte, die kleiner als der hypothetische Median 𝑚 sind

323

Teil 2 Kapitel 5 Nichtparametrische Tests

→ Zweiseitiger Vorzeichentest 𝐻 :𝑚 = 𝑚 𝐻 :𝑚 ≠ 𝑚

𝑝-Wert =

2𝑊 Bin 𝑛, 2𝑊 Bin 𝑛,

𝑛 1 ≤ 𝑣 wenn 𝑣 ≤ 2 2

1 𝑛 ≤ 𝑛 − 𝑣 wenn 𝑣 ≥ 2 2

𝐻 ist zu verwerfen, wenn gilt α ≥ 𝑝-Wert 𝐻 ist zu akzeptieren, wenn gilt α < 𝑝-Wert → Einseitiger Vorzeichentest (1) (linksseitiger Vorzeichentest) 𝐻 :𝑚 ≥ 𝑚 𝐻 :𝑚 < 𝑚 𝑝-Wert = 𝑊 Bin 𝑛,

1 ≥𝑣 2

𝐻 ist zu verwerfen, wenn gilt α ≥ 𝑝-Wert 𝐻 ist zu akzeptieren, wenn gilt α < 𝑝-Wert → Einseitiger Vorzeichentest (2) (rechtsseitiger Vorzeichentest) 𝐻 :𝑚 ≤ 𝑚 𝐻 :𝑚 > 𝑚 𝑝-Wert = 𝑊 Bin 𝑛,

1 ≤𝑣 2

𝐻 ist zu verwerfen, wenn gilt α ≥ 𝑝-Wert 𝐻 ist zu akzeptieren, wenn gilt α < 𝑝-Wert

324

Teil 2 Kapitel 5 Nichtparametrische Tests

Beispiel 3: Man behauptet, dass der Median der monatlichen Gehälter von Wirtschaftsingenieuren 4000 Euro beträgt. Einige Kollegen vermuten, dass der Median höher ist. Dazu wurde eine Stichprobe mit den Werten 2250, 5000, 4500, 3000, 2500, 7000, 3000, 4000, 5000, 6000 Euro gezogen. Testen Sie zum Signifikanzniveau von α = 0,05 die Nullhypothese, dass der Median des monatlichen Gehalts von Wirtschaftsingenieuren 4000 Euro ist. Lösung 3 Einseitiger Vorzeichentest (2) (rechtsseitiger Vorzeichentest) 𝐻 : 𝑚 = 4000 𝐻 : 𝑚 > 4000 Tabelle 5.6 zeigt die Ergebnisse des Vergleichs der Stichprobendaten mit dem hypothetischen Median. Tabelle 5.6: Vergleich der Stichprobendaten mit dem hypothetischen Median für Beispiel 3 Vergleich 𝟐𝟐𝟓𝟎 < 𝟒𝟎𝟎𝟎 5000 > 4000 4500 > 4000 𝟑𝟎𝟎𝟎 < 𝟒𝟎𝟎𝟎 𝟐𝟓𝟎𝟎 < 𝟒𝟎𝟎𝟎 7000 > 4000 𝟑𝟎𝟎𝟎 < 𝟒𝟎𝟎𝟎 4000 = 4000 5000 > 4000 6000 > 4000 Damit gilt 𝑣 = 4 und 𝑝-Wert = 𝑊 Bin 𝑛, =

1 1 ≤ 𝑣 = 𝑊 Bin 10, ≤ 4 2 2 10 𝑖

1 2

1−

1 2

= 0,377 > 0,05

𝐻 ist daher zu akzeptieren.

325

Teil 2 Kapitel 5 Nichtparametrische Tests

Aufgaben 1. Es wird 1000-mal gewürfelt. Betrachten Sie Tabelle 5.7 für die Ergebnisse und überprüfen Sie zum Signifikanzniveau von α = 0,05, ob der Würfel ein idealer Würfel ist. Tabelle 5.7: Ergebnisse des 1000-mal Würfelns für Aufgabe 1 Augenzahl 1 2 3 4 5 6 Insgesamt

Anzahl 175 165 157 150 165 188 1000

Lösung 1 Sei 𝑌: Augenzahl Dann beschreibt man den folgenden Hypothesentest (Anpassungstest): 𝐻 : 𝑊(𝑌 = 1) = 𝑤 = 𝑊(𝑌 = 2) = 𝑤 = 𝑊(𝑌 = 3) = 𝑤 = 𝑊(𝑌 = 4) = 𝑤 1 = 𝑊(𝑌 = 5) = 𝑤 = 𝑊(𝑌 = 6) = 𝑤 = 6 𝐻 : Mindestens eine Wahrscheinlichkeit gilt nicht Ansatz 1 Sei 𝑥 : Anzahl der Augenzahl 𝑖 für 𝑖 = 1, 2, 3, 4, 5, 6 Daraufhin folgt die aus den Stichprobendaten ermittelte Realisierung der Teststatistik

(𝑥 − 𝑛𝑤 ) = 𝑛𝑤

326

𝑥 − 1000 1000

1 6

1 6

Teil 2 Kapitel 5 Nichtparametrische Tests

175 − 1000 =

1000

165 − 1000 +

1 1000 6

157 − 1000 +

1 6

1 6

1000

150 − 1000 +

1 6

1000 1 6

188 − 1000 +

1 6

1000 0,10 > 0,05 𝐻 ist daher zu akzeptieren. → Fazit: Man akzeptiert zum Signifikanzniveau von 0,05 die Nullhypothese, dass der Würfel ein idealer Würfel ist. 2. Die Anzahl der Betriebsunfӓlle eines Betriebs, die im letzten Jahr stattgefunden haben, sind in Tabelle 5.8 täglich aufgeführt. Tabelle 5.8: Anzahl der Betriebsunfӓlle für Aufgabe 2 Tag Montag (1) Dienstag (2) Mittwoch (3) Donnerstag (4) Freitag (5) Samstag (6) Insgesamt

Anzahl der Betriebsunfӓlle 25 10 9 17 27 12 100

327

Teil 2 Kapitel 5 Nichtparametrische Tests

Testen Sie zum Signifikanzniveau von α = 0,10 die Nullhypothese, dass die Anzahl der Betriebsunfӓlle vom Tag unabhängig ist. Lösung 2 Sei 𝑌: Tag eines zufälligen Betriebsunfalls Dann ist der Hypothesentest gegeben durch 𝐻 : 𝑊(𝑌 = 1) = 𝑤 = 𝑊(𝑌 = 2) = 𝑤 = 𝑊(𝑌 = 3) = 𝑤 = 𝑊(𝑌 = 4) = 𝑤 1 = 𝑊(𝑌 = 5) = 𝑤 = 𝑊(𝑌 = 6) = 𝑤 = 6 𝐻 : Nicht alle Wahrscheinlichkeiten sind gleich Ansatz 1 Sei 𝑥 : Anzahl der Betriebsunfӓlle, die am Tag 𝑖 = 1, 2, 3, 4, 5, 6 stattfinden Eine Realisierung der aus der Stichprobendaten berechneten Teststatistik lautet

(𝑥 − 𝑛𝑤 ) = 𝑛𝑤

𝑥 − 100

1 6

100

100

= 18,08

10 − 100 +

1 6 1 6

17 − 100 +

1 6

100 25 − 100

=

1 6

1 6

27 − 100 +

1 6 >𝜒

100

,

;

100

1 6

= 9,236

𝐻 ist daher zu verwerfen.

328

1 6

1 6

1 6

9 − 100 +

100

1 6

12 − 100 +

100

1 6

1 6

Teil 2 Kapitel 5 Nichtparametrische Tests

Ansatz 2 𝑝-Wert = 𝑊 𝜒 ≥ 18,08 < 0,005 < 0,10 𝐻 ist daher zu verwerfen. → Fazit: Man verwirft zum Signifikanzniveau von α = 0,10 die Nullhypothese, dass die Anzahl der Betriebsunfӓlle vom Tag unabhängig ist. 3. Man betrachte die IQ-Werte von zufӓllig ausgewӓhlten 10 Studierenden (s. Tabelle 5.9). Tabelle 5.9: IQ-Werte für Aufgabe 3 IQ-Werte 140 121 125 137 132 123 128 129 117 120 Man behaupte, dass die Verteilung der IQ-Werte nicht symmetrisch sei. Testen Sie zum Signifikanzniveau von α = 0,10 die Nullhypothese, dass der Median der IQ-Werte 125 beträgt. Lösung 3 → Zweiseitiger Vorzeichentest 𝐻 : 𝑚 = 125 𝐻 : 𝑚 ≠ 125 Zur Erinnerung:

𝑝-Wert =

2𝑊 Bin 𝑛, 2𝑊 Bin 𝑛,

1 𝑛 ≤ 𝑣 wenn 𝑣 ≤ 2 2

1 𝑛 ≤ 𝑛 − 𝑣 wenn 𝑣 ≥ 2 2 329

Teil 2 Kapitel 5 Nichtparametrische Tests

Man vergleicht die Stichprobendaten mit dem hypothetischen Median (s. Tabelle 5.10). Tabelle 5.10: Vergleich der Stichprobendaten mit dem hypothetischen Median für Aufgabe 3 Vergleich 140 > 125 𝟏𝟐𝟏 < 𝟏𝟐𝟓 125 = 125 137 > 125 132 > 125 𝟏𝟐𝟑 < 𝟏𝟐𝟓 128 > 125 129 > 125 𝟏𝟏𝟕 < 𝟏𝟐𝟓 𝟏𝟐𝟎 < 𝟏𝟐𝟓 Daher gilt 𝑣=4
0,10

𝐻 ist daher zu akzeptieren. → Fazit: Man akzeptiert zum Signifikanzniveau von α = 0,10 die Nullhypothese, dass der Median der IQ-Werte 125 beträgt. 4. Es wird angenommen, dass die Anzahl der monatlichen Systemfehler nicht symmetrischverteilt ist und behauptet, dass der Median der Anzahl der monatlichen Systemfehler mindestens 20 beträgt. Betrachten Sie die monatlichen Anzahl der Systemfehler für letztes Jahr, um diese Behauptung zu testen (s. Tabelle 5.11) (α = 0,05).

330

Teil 2 Kapitel 5 Nichtparametrische Tests

Tabelle 5.11: Monatliche Anzahl der Systemfehler für Aufgabe 4 Monat 1 2 3 4 5 6

Anzahl der Systemfehler 15 21 25 32 10 23

Monat 7 8 9 10 11 12

Anzahl der Systemfehler 12 40 8 17 13 5

Lösung 4 → Einseitiger Vorzeichentest (1) (linksseitiger Vorzeichentest) 𝐻 : 𝑚 ≥ 20 𝐻 : 𝑚 < 20 Zur Erinnerung: 𝑝-Wert = 𝑊 Bin 𝑛,

1 ≥𝑣 2

Die Ergebnisse des Vergleichs der Stichprobendaten mit dem hypothetischen Median sind in Tabelle 5.12 ersichtlich. Tabelle 5.12: Vergleich der Stichprobendaten mit dem hypothetischen Median für Aufgabe 4 Vergleich 𝟏𝟓 < 𝟐𝟎 𝟏𝟐 < 𝟐𝟎 21 > 20 40 > 20 25 > 20 𝟖 < 𝟐𝟎 32 > 20 𝟏𝟕 < 𝟐𝟎 𝟏𝟎 < 𝟐𝟎 𝟏𝟑 < 𝟐𝟎 23 > 20 𝟓 < 𝟐𝟎 Dazu gilt 𝑣=7

331

Teil 2 Kapitel 5 Nichtparametrische Tests

𝑝-Wert = 𝑊 Bin 12, =1−

1 1 ≥ 7 = 1 − 𝑊 Bin 12, ≤ 6 2 2 12 𝑖

1 2

1−

1 2

= 1 − 0,6128 = 0,3872

> 0,05 𝐻 ist daher zu akzeptieren. → Fazit: Man akzeptiert zum Signifikanzniveau von α = 0,05 die Nullhypothese, dass der Median der Anzahl der monatlichen Systemfehler mindestens 20 beträgt. 5. Betrachten Sie Tabelle 5.13 über die Geschlechterverteilung der Studierenden in drei Studienfӓchern. Tabelle 5.13: Geschlechterverteilung der Studierenden für Aufgabe 5

Weiblich Mӓnnlich Insgesamt

Maschinenbauingenieurwissenschaft 5 25 30

Bauingenieurwissenschaft 3 27 30

Wirtschaftsingenieurwissenschaft 25 5 30

Insgesamt 33 57 90

Testen Sie zum Signifikanzniveau von α = 0,10 die Nullhypothese, dass die Anzahl der Studierenden in den drei Studienfächern vom Geschlecht unabhӓngig ist. Lösung 5 Für das Geschlecht (𝑋) bezeichnen Weiblich → 1 Mӓnnlich → 2 und für das Studienfach (𝑌) bezeichnen Maschinenbauingenieurwissenschaft → 1 Bauingenieurwissenschaft → 2 Wirtschaftsingenieurwissenschaft → 3

332

Teil 2 Kapitel 5 Nichtparametrische Tests

Es soll der folgende Hypothesentest definiert werden, um die Unabhängigkeit von Geschlecht und Studienfach zu untersuchen: 𝐻 : 𝑤(𝑥, 𝑦) = 𝑤 (𝑥)𝑤 (𝑦) für alle 𝑥 = 1, 2; 𝑦 = 1, 2, 3 𝐻 : 𝑤(𝑥, 𝑦) ≠ 𝑤 (𝑥)𝑤 (𝑦) für einige 𝑥 = 1, 2; 𝑦 = 1, 2, 3 Man findet in Tabelle 5.14 die aus den Stichprobendaten bestimmten Realisierungen der Parameter. Tabelle 5.14: Parameter für Beispiel 5 𝑛 𝑛 𝑤 (𝑥) 𝑛 𝑤 (𝑦)

𝑛 =5 𝑛 = 25 𝑛 = 33 𝑤 (1) = 33/90 𝑛 = 30 𝑤 (1) = 30/90

𝑛 =3 𝑛 = 27 𝑛 = 57 𝑤 (2) = 57/90 𝑛 = 30 𝑤 (2) = 30/90

𝑛 = 25 𝑛 =5 𝑛 = 30 𝑤 (3) = 30/90

Ansatz 1 Eine Realisierung der Teststatistik ergibt sich durch (𝑛

− 𝑛𝑤 (𝑥)𝑤 (𝑦)) 𝑛𝑤 (𝑥)𝑤 (𝑦) (5 − 90(33/90)(30/90)) (3 − 90(33/90)(30/90)) + 90(33/90)(30/90) 90(33/90)(30/90) (25 − 90(33/90)(30/90)) (25 − 90(57/90)(30/90)) + + 90(33/90)(30/90) 90(57/90)(30/90) (27 − 90(57/90)(30/90)) (5 − 90(57/90)(30/90)) + + 90(57/90)(30/90) 90(57/90)(30/90) = 42,488 =

>𝜒

;(

)(

)

=𝜒

,

;

= 4,605

𝐻 ist daher zu verwerfen.

333

Teil 2 Kapitel 5 Nichtparametrische Tests

Ansatz 2 𝑝-Wert = 𝑊(𝜒 ≥ 42,488) < 0,005 < 0,10 𝐻 ist daher zu verwerfen. → Fazit: Man verwirft zum Signifikanzniveau von 0,10 die Nullhypothese, dass die Anzahl der Studierenden in den drei Studienfächern vom Geschlecht unabhӓngig ist.

334

TEIL 3 STOCHASTISCHE PROZESSE

335

Teil 3 Kapitel 1 Punktprozesse, Zählprozesse, Poisson-Prozesse

Kapitel 1 Punktprozesse, Zӓhlprozesse, Poisson-Prozesse Ein stochastischer Prozess ist eine Serie (Familie, Folge) von Zufallsvariablen, der die zeitliche oder rӓumliche Entwicklung eines zufӓlligen Systems beschreibt und untersucht. Stochastische Prozesse bedeuten mehr als mehrdimensionale Zufallsvariablen, bei denen die zeitliche oder rӓumliche Entwicklung nicht betrachtet werden kann. Stochastische Prozesse werden üblicherweise in zeitdiskrete und zeitstetige stochastiche Prozesse unterteilt. In diesem Kapitel werden wir uns zunächst mit den grundsätzlichen Eigenschaften der Punktprozesse und Zӓhlprozesse befassen, die die Grundlagen für die Poisson-Prozesse bilden. Anschließend werden wir uns den grundsätzlichen und weiteren Eigenschaften der Poisson-Prozesse widmen. 1.1.

Punktprozess, Zӓhlprozess

1.1.1. Punktprozess Ein Punktprozess 𝑡 ; 𝑛 ≥ 0 ist ein wachsender stochastischer Prozess mit den Ankunftszeiten 𝑡 eines zufälligen Ereignisses, wobei 𝑡 : 𝑛-te Ankunftszeit (𝑛-ter Ereigniszeitpunkt, 𝑛-ter Eintrittszeitpunkt) mit

𝑡 =0

2 1 2 𝑋 ≥ =𝑊 𝑋 > =𝑒 60 60 60

(

)( /

)

= 0,189

e) Sei 𝑡 : Zeit bis zur Ankunft des 𝑛-ten Fahrzeugs Dann folgt 𝑡 : Zeit bis zur Ankunft des 8. Fahrzeugs mit dem Erwartungswert und der Varianz 8 = 0,16 Stunde = 9,6 Minuten 50 8 8 = = 0,0032 𝑉𝑎𝑟(𝑡 ) = 2500 50

𝐸(𝑡 ) =

Beispiel 2: Die Zeit bis zum ersten Typ-1-Fehler bzw. Typ-2-Fehler eines Systems sei unabhängig voneinander und exponentialverteilt mit dem Parameter 2 bzw. 3 pro Stunde. a) Bestimmen Sie den Erwartungswert der Zeit bis zum ersten Typ-1-oder Typ-2Fehler des Systems. b) Wie hoch ist die Wahrscheinlichkeit, dass ein Typ-1-Fehler früher als ein Typ2-Fehler erscheint? Lösung 2 a) Seien 𝑋 : Zeit bis zum ersten Typ-1-Fehler mit

𝑋 ~exp(2) 𝑋 : Zeit bis zum ersten Typ-2-Fehler

mit 344

𝑋 ~exp(3)

Teil 3 Kapitel 1 Punktprozesse, Zählprozesse, Poisson-Prozesse

Somit gilt 𝑍: Zeit bis zum ersten Typ-1- oder Typ-2-Fehler wobei 𝑍 = min(𝑋 , 𝑋 ) mit 𝑍~ exp(2 + 3) bzw. 𝑍~exp(5) Daher ergibt sich der Erwartungswert der Zeit bis zum ersten Typ-1-oder Typ-2Fehler des Systems 𝐸(𝑍) =

1 = 0,2 Stunde = 12 Minuten 5

b) Die Wahrscheinlichkeit, dass ein Typ-1-Fehler früher als ein Typ-2-Fehler erscheint, ist gegeben durch 𝑊(𝑋 < 𝑋 ) =

2 5

1.2.1.2. Spalten bzw. Vereinen der Poisson-Prozesse → Spalten der Poisson-Prozesse (Zerlegung der Poisson-Prozesse, Aufteilung der Poisson-Prozesse) Es sei 𝑁(𝑡); 𝑡 ≥ 0 ein homogener Poisson-Prozess mit der Rate 𝜆, bei dem jedes Ereignis dem Typ-1 mit der Wahrscheinlichkeit 𝑤 oder dem Typ-2 mit der Wahrscheinlichkeit 1 − 𝑤 unabhängig voneinander zugeordnet werden kann. Dann ergeben sich folgendermaßen zwei Poisson-Prozesse: Typ-1-Ereignisse bilden einen homogenen Poisson-Prozess 𝑁 (𝑡); 𝑡 ≥ 0 mit der Rate 𝜆 = 𝜆𝑤 Typ-2-Ereignisse bilden einen homogenen Poisson-Prozess 𝑁 (𝑡); 𝑡 ≥ 0 mit der Rate 𝜆 = 𝜆(1 − 𝑤) wobei 𝜆 =𝜆 +𝜆 345

Teil 3 Kapitel 1 Punktprozesse, Zählprozesse, Poisson-Prozesse

Außerdem sind 𝑁 (𝑡); 𝑡 ≥ 0 und 𝑁 (𝑡); 𝑡 ≥ 0 unabhӓngig voneinander. → Vereinen der Poisson-Prozesse (Überlagerung der Poisson-Prozesse, Zusammenführung der Poisson-Prozesse) Es seien folgende zwei unabhӓngige Poisson-Prozesse: 𝑁 (𝑡); 𝑡 ≥ 0 ist ein homogener Poisson-Prozess mit der Rate 𝜆 𝑁 (𝑡); 𝑡 ≥ 0 ist ein homogener Poisson-Prozess mit der Rate 𝜆 Dann ist 𝑁 (𝑡) + 𝑁 (𝑡); 𝑡 ≥ 0 ein homogener Poisson-Prozess mit der Rate 𝜆 + 𝜆 Bemerkung: Das Spalten bzw. Vereinen der Poisson-Prozesse kann für 𝑘 ≥ 2 unabhӓngige Poisson-Prozesse mit jeweiligen Parametern 𝜆 , 𝜆 , … , 𝜆 verallgemeinert werden, wobei 𝜆 = 𝜆 + 𝜆 + ⋯ + 𝜆 gilt. Beispiel 3: Die Anzahl der Systemfehler bildet einen Poisson-Prozess mit der Rate 5 pro Stunde. Es werden zwei Fehlertypen unabhängig voneinander bei diesem System beobachtet, d. h. Typ-1- und Typ-2-Fehler mit einer Typ-1-FehlerWahrscheinlichkeit von 0,3. Wie groß ist die Wahrscheinlichkeit, dass 4 Typ-2Fehler zwischen 13: 00 und 13: 30 Uhr passieren werden, gegeben dass ein Typ1-Fehler zwischen 12: 30 und 13: 15 Uhr erscheint? Lösung 3 Es seien 𝑁 (𝑡); 𝑡 ≥ 0 : Poisson-Prozess für die Anzahl der Typ-1-Fehler mit der Rate 𝜆 = 5(0,3) = 1,5 𝑁 (𝑡); 𝑡 ≥ 0 : Poisson-Prozess für die Anzahl der Typ-2-Fehler mit der Rate 𝜆 = 5(0,7) = 3,5 Nach der Unabhӓngigkeit der Poisson-Prozesse 𝑁 (𝑡); 𝑡 ≥ 0 und 𝑁 (𝑡); 𝑡 ≥ 0 und nach den stationӓren Zuwӓchsen der homogenen Poisson-Prozesse gilt 𝑊((𝑁 (13,5) − 𝑁 (13) = 4)|(𝑁 (13,25) − 𝑁 (12,5) = 1)) = 𝑊(𝑁 (13,5) − 𝑁 (13) = 4)

346

Teil 3 Kapitel 1 Punktprozesse, Zählprozesse, Poisson-Prozesse

= 𝑊(𝑁 (0,5) = 4) =

𝑒

( , )( , )

((3,5)(0,5)) = 0,0679 4!

Beispiel 3 (verändert): Man beobachtet zwei Fehlertypen bei einem System, d. h. Typ-1- und Typ-2-Fehler. Die Anzahl der Typ-1-Fehler und Typ-2-Fehler bildet unabhӓngige Poisson-Prozesse mit den jeweiligen Raten 3 und 4 pro Stunde. Wie hoch ist die Wahrscheinlichkeit, dass insgesamt 5 Fehler zwischen 14: 00 und 15: 15 Uhr passieren werden? Lösung 3 (verändert) Es seien 𝑁 (𝑡); 𝑡 ≥ 0 : Poisson-Prozess für die Anzahl der Typ-1-Fehler mit der Rate 𝜆 =3 𝑁 (𝑡); 𝑡 ≥ 0 : Poisson-Prozess für die Anzahl der Typ-2-Fehler mit der Rate 𝜆 =4 Daher gilt 𝑁 (𝑡) + 𝑁 (𝑡); 𝑡 ≥ 0 : Poisson-Prozess für Typ-1- oder Typ-2-Fehler (für alle Fehler) mit der Rate 𝜆 = 𝜆 + 𝜆 = 7 Dabei ist die Wahrscheinlichkeit, dass insgesamt 5 Fehler zwischen 14: 00 und 15: 15 Uhr passieren werden, gegeben durch 𝑊(𝑁 (15,25) − 𝑁 (14) + 𝑁 (15,25) − 𝑁 (14) = 5) = 𝑊(𝑁 (1,25) 𝑒 ( )( , ) ((7)(1,25)) + 𝑁 (1,25) = 5) = = 0,0677 5! 1.2.1.3. Verteilung der bedingten Ankunftszeit Gegeben sei 𝑁(𝑡); 𝑡 ≥ 0 als homogener Poisson-Prozess mit der Rate 𝜆. Dann wird die folgende bedingte Wahrscheinlichkeit 𝑊(𝑡 < 𝑠 | 𝑁(𝑡) = 1) =

𝑠 𝑡

als die Verteilung der bedingten Ankunftszeit benannt. Anders ausgedrückt: Gegeben dass nur ein Ereignis in einem Zeitintervall (0, 𝑡] eintritt, ist der Zeit347

Teil 3 Kapitel 1 Punktprozesse, Zählprozesse, Poisson-Prozesse

punkt dieses einzigen Ereignisses im Zeitintervall (0, 𝑡] gleichverteilt und unabunabhängig von der Rate 𝜆. Beispiel 1 (fortgesetzt): Die Ankünfte der Fahrzeuge an einer Straßenkreuzung werden durch einen homogenen Poisson-Prozess mit der Rate 𝜆 = 50 pro Stunde modelliert. Wie groß ist die Wahrscheinlichkeit, dass das Fahrzeug früher als 9: 15 Uhr auftritt, unter der Bedingung, dass nur ein Fahrzeug zwischen 9: 00 Uhr und 11: 00 Uhr beobachtet wird? (Nehmen Sie 9: 00 Uhr als 𝑡 = 0 an.) Lösung 1 (fortgesetzt) Nach der Verteilung der bedingten Ankunftszeit ermittelt man die gesuchte Wahrscheinlichkeit durch 𝑊(𝑡 < 0,25 | 𝑁(2) = 1) =

0,25 = 0,125 2

1.2.1.4. Zusammengesetzter Poisson-Prozess Es sei ( )

𝑋(𝑡) =

𝑋

eine Zufallsvariable, wobei 𝑁(𝑡); 𝑡 ≥ 0 : homogener Poisson-Prozess mit der Rate 𝜆 𝑋 ,𝑋 ,…,𝑋

( ):

𝑢. 𝑖. 𝑣. Zufallsvariablen

mit 𝐸(𝑋 ) = 𝐸(𝑋), 𝑉𝑎𝑟(𝑋 ) = 𝑉𝑎𝑟(𝑋) für 𝑖 = 1, 2, 3, … , 𝑁(𝑡) Außerdem sind 𝑁(𝑡) und 𝑋 , 𝑋 , … , 𝑋

( )

für 𝑡 ≥ 0 unabhängig voneinander.

Dabei heißt der zeit-stetige stochastische Prozess 𝑋(𝑡); 𝑡 ≥ 0 ein zusammengesetzter Poisson-Prozess mit 𝐸 𝑋(𝑡) = 𝜆𝑡 𝐸(𝑋) 𝑉𝑎𝑟 𝑋(𝑡) = 𝜆𝑡 𝐸(𝑋 ) 348

Teil 3 Kapitel 1 Punktprozesse, Zählprozesse, Poisson-Prozesse

Beispiel 4: Kunden kommen an einem Geschӓft gemäß einem homogenen Poisson-Prozess 𝑁(𝑡); 𝑡 ≥ 0 mit dem Parameter 𝜆 = 3 pro Stunde an. Es wird vermutet, dass die Ausgaben der Kunden unabhӓngig voneinander und gleichverteilt in $ auf dem Intervall (50,150) sind. Was ist der Erwartungswert und die Varianz der Ausgaben der Kunden, die zwischen 14: 00 und 14: 30 Uhr eintreten werden? Lösung 4 Sei 𝑋 : Ausgabe vom Kunde 𝑖 für 𝑖 = 1, 2, 3, … Dann gilt 𝑋 ~ Uniform(50,150) für 𝑖 = 1, 2, 3, … mit 𝐸(𝑋 ) = 𝐸(𝑋) =

50 + 150 = 100 2

𝑉𝑎𝑟(𝑋 ) = 𝑉𝑎𝑟(𝑋) =

(150 − 50) = 833 12

Somit 𝐸(𝑋 ) = 𝑉𝑎𝑟(𝑋) + (𝐸(𝑋)) = 833 + 100 = 10833 Falls 𝑋(𝑡): Ausgaben der Kunden, die im Zeitintervall (0, 𝑡] eintreten definiert ist, damit folgen 𝐸 𝑋(14,5) − 𝑋(14) = 𝐸 𝑋(0,5) = 3(0,5)𝐸(𝑋) = (1,5)100 = 150$ 𝑉𝑎𝑟 𝑋(14,5) − 𝑋(14) = 𝑉𝑎𝑟 𝑋(0,5) = 3(0,5)𝐸(𝑋 ) = (1,5)10833 = 16250 1.2.2. Inhomogener Poisson-Prozess Ein Poisson-Prozess 𝑁(𝑡); 𝑡 ≥ 0 heißt ein inhomogener (nichtstationärer) Poisson-Prozess mit zeitabhӓngiger Intensitӓtsfunktion 𝜆(𝑡), wenn die folgenden Eigenschaften erfüllt sind: 349

Teil 3 Kapitel 1 Punktprozesse, Zählprozesse, Poisson-Prozesse

→ 𝑁(0) = 0 → 𝑁(𝑡); 𝑡 ≥ 0 besitzt unabhӓngige Zuwӓchse. → 𝑁(𝑡); 𝑡 ≥ 0 besitzt nichtstationӓre Zuwӓchse. → Der Zuwachs 𝑁(𝑡) − 𝑁(𝑠) ist Poisson-verteilt für alle 𝑠 < 𝑡, d. h. 𝑊(𝑁(𝑡) − 𝑁(𝑠) = 𝑘) =

𝑒

( )

(

𝜆(𝑦)𝑑𝑦)

𝑘!

𝑘 = 0, 1, 2, 3, ..

Der Erwartungswert und die Varianz von 𝑁(𝑡) − 𝑁(𝑠) sind dementsprechend 𝐸 𝑁(𝑡) − 𝑁(𝑠) =

𝑉𝑎𝑟 𝑁(𝑡) − 𝑁(𝑠) =

𝜆(𝑦)𝑑𝑦

𝜆(𝑦)𝑑𝑦

Beispiel 5: Die Ankünfte der Autos bei einem Knotenpunkt bilden einen inhomogenen Poisson-Prozess mit folgender Intensitӓtsfunktion (s. Abbildung 1.5): 𝜆(𝑡) =

5𝑡 + 5 0 ≤ 𝑡 ≤ 3 20 3≤𝑡≤5

Abbildung 1.5: Intensitätsfunktion für Beispiel 5 350

Teil 3 Kapitel 1 Punktprozesse, Zählprozesse, Poisson-Prozesse

Mit welcher Wahrscheinlichkeit trifft kein Auto zwischen 11: 00 Uhr und 13: 00 Uhr ein? Was ist der Erwartungswert der Autos, die zwischen 11: 00 Uhr und 13: 00 Uhr eintreffen werden? (Nehmen Sie 9: 00 Uhr als 𝑡 = 0 an.) Lösung 5 Ansatz 1: Lösung durch die Integralberechnung Die Wahrscheinlichkeit, dass kein Auto zwischen 11: 00 Uhr und 13: 00 Uhr eintrifft, ist gegeben durch 𝑊(𝑁(4) − 𝑁(2) = 0) = =𝑒

(

(

𝑒

)

(

(5𝑡 + 5)𝑑𝑡 +

20𝑑𝑡)

0! )

=𝑒

,

= 5. 10

Dementsprechend ist 𝐸 𝑁(4) − 𝑁(2) =

(5𝑡 + 5)𝑑𝑡 +

20𝑑𝑡 = 37,5

Ansatz 2: Lösung durch den Graphen der Intensitӓtsfunktion

Abbildung 1.6: Intensitätsfunktion mit Flächeninhalt 351

Teil 3 Kapitel 1 Punktprozesse, Zählprozesse, Poisson-Prozesse

Der Flächeninhalt unter dem Graphen der Intensitätsfunktion 𝜆(𝑡) für das Intervall (2,4] gibt den Erwartungswert der Anzahl der Autos in diesem Intervall an (s. Abbildung 1.6), d. h. 𝐸 𝑁(4) − 𝑁(2) = 37,5 Daher folgt die gesuchte Wahrscheinlichkeit 𝑊(𝑁(4) − 𝑁(2) = 0) =

𝑒

,

(37,5) = 5. 10 0!

Aufgaben 1. Sei 𝑁(𝑡); 𝑡 ≥ 0 ein homogener Poisson-Prozess mit der Rate pro Minute. a) 𝑊

𝑁(7) > 𝑁(6) (𝑁(3) − 𝑁(2) = 1) =?

b) 𝑊((𝑁(2) = 1) ∩ (𝑁(4) = 1)) =? c) 𝐸(𝑡 | (𝑁(2) = 1)) =? Lösung 1 a) Nach den unabhӓngigen und stationӓren Zuwӓchsen gilt 𝑊

𝑁(7) > 𝑁(6) (𝑁(3) − 𝑁(2) = 1) = 𝑊 𝑁(7) > 𝑁(6) = 𝑊(𝑁(7) − 𝑁(6) > 0) = 𝑊(𝑁(1) > 0)

= 1 − 𝑊(𝑁(1) = 0) = 1 −

𝑒

.

1 .1 2 0!

=1−𝑒

,

= 1 − 0,6065 = 0,3935

b) Abbildung 1.7 bezeichnet (𝑁(2) = 1) ∩ (𝑁(4) = 1).

Abbildung 1.7: Darstellung für Aufgabe 1.b

352

Teil 3 Kapitel 1 Punktprozesse, Zählprozesse, Poisson-Prozesse

Nach den stationӓren und unabhӓngigen Zuwӓchsen folgt 𝑊((𝑁(2) = 1) ∩ (𝑁(4) = 1)) = 𝑊 (𝑁(2) = 1) ∩ (𝑁(2) = 0) = 𝑊(𝑁(2) = 1)𝑊(𝑁(2) = 0)

=

𝑒

1 2 2 1!

𝑒

1 2 2 0!

=𝑒

= 0,1353

c) (𝑡 | (𝑁(2) = 1)) ist durch Abbildung 1.8 dargestellt.

Abbildung 1.8: Darstellung für Aufgabe 1.c Nach den stationӓren Zuwӓchsen folgt 𝐸(𝑡 |(𝑁(2) = 1)) = 2 + 𝐸(𝑡 ) = 2 +

3 =8 1 2

2. Die Anzahl der Verkehrsunfӓlle in zwei Gebieten bildet unabhӓngige homogene Poisson-Prozesse mit den jeweiligen Parametern 2 und 3 pro Stunde. a) Was ist die Wahrscheinlichkeit, dass mindestens 2 Verkehrsunfӓlle in diesen zwei Gebieten zwischen 15: 15 und 16: 00 passieren werden? b) Was ist der Erwartungswert und die Varianz der Anzahl der Verkehrsunfӓlle, die zwischen 12: 00 und 12: 30 stattfinden? Lösung 2 Seien 𝑁 (𝑡); 𝑡 ≥ 0 : Poisson-Prozess für die Anzahl der Verkehrsunfӓlle im Gebiet 1 mit der Rate 𝜆 = 2 𝑁 (𝑡); 𝑡 ≥ 0 : Poisson-Prozess für die Anzahl der Verkehrsunfӓlle im Gebiet 2 mit der Rate 𝜆 = 3 353

Teil 3 Kapitel 1 Punktprozesse, Zählprozesse, Poisson-Prozesse

Dann ist 𝑁(𝑡); 𝑡 ≥ 0 : Poisson-Prozess für die Anzahl der Verkehrsunfӓlle in zwei Gebieten mit dem Parameter 𝜆 = 𝜆 + 𝜆 = 5 a) Die Wahrscheinlichkeit, dass mindestens 2 Verkehrsunfӓlle in diesen zwei Gebieten zwischen 15: 15 und 16: 00 passieren werden, errechnet sich durch 𝑊(𝑁(16) − 𝑁(15,25) ≥ 2) = 𝑊(𝑁(0,75) ≥ 2) = 1 − 𝑊(𝑁(0,75) = 0) + 𝑊(𝑁(0,75) = 1) =1−

𝑒

( )( ,

=1−𝑒

,

)

𝑒 ((5)(0,75)) + 0!

− 3,75𝑒

,

( )( ,

)

((5)(0,75)) 1!

= 0,8883

b) Der Erwartungswert und die Varianz der Anzahl der Verkehrsunfӓlle, die zwischen 12: 00 und 12: 30 stattfinden, werden gegeben durch 𝐸 𝑁(12,5) − 𝑁(12) = 𝐸 𝑁(0,5) = (5)(0,5) = 2,5 𝑉𝑎𝑟 𝑁(12,5) − 𝑁(12) = 𝑉𝑎𝑟 𝑁(0,5) = (5)(0,5) = 2,5 3. Die Anzahl der Systemfehler bildet einen homogenen Poisson-Prozess 𝑁(𝑡); 𝑡 ≥ 0 mit der Rate 3 pro Monat. Drei unabhӓngige Typen der Systemfehler sind möglich. Man vermutet die Typ-1- und Typ-2-Fehler-Wahrscheinlichkeiten als 0,2 und 0,5. a) Wie groß ist die Wahrscheinlichkeit, mindestens einen Systemfehler zwischen 9: 30 und 11: 15 zu beobachten? b) Wie hoch ist die Wahrscheinlichkeit, dass 2 Typ-3-Systemfehler zwischen 16: 30 und 16: 45 passieren werden, unter der Bedingung, dass ein Typ-1- und 2 Typ-2-Systemfehler zwischen 16: 00 und 16: 30 stattfinden? c) Was sind der Erwartungswert und die Varianz der Anzahl der Typ-2-Systemfehler, die zwischen 9: 00 und 12: 00 stattfinden?

354

Teil 3 Kapitel 1 Punktprozesse, Zählprozesse, Poisson-Prozesse

Lösung 3 Seien 𝑁 (𝑡); 𝑡 ≥ 0 : Poisson-Prozess für die Anzahl der Typ-1-Systemfehler mit der Rate 𝜆 = 3(0,2) = 0,6 𝑁 (𝑡); 𝑡 ≥ 0 : Poisson-Prozess für die Anzahl der Typ-2-Systemfehler mit der Rate 𝜆 = 3(0,5) = 1,5 𝑁 (𝑡); 𝑡 ≥ 0 : Poisson-Prozess für die Anzahl der Typ-3-Systemfehler mit der Rate 𝜆 = 3(1 − (0,2 + 0,5)) = 0,9 Dann ergibt sich 𝑁(𝑡); 𝑡 ≥ 0 : Poisson-Prozess für die Anzahl der Systemfehler mit der Rate 𝜆 = 3, wobei 𝑁(𝑡) = 𝑁 (𝑡) + 𝑁 (𝑡) + 𝑁 (𝑡) 𝑡 ≥ 0 a) Die Wahrscheinlichkeit, mindestens einen Systemfehler zwischen 9: 30 und 11: 15 zu beobachten, ist gegeben durch 𝑊(𝑁(11,25) − 𝑁(9,5) ≥ 1) = 𝑊(𝑁(1,75) ≥ 1) = 1 − 𝑊(𝑁(1,75) = 0) =1−

𝑒

( )( ,

)

(3)(1,75) 0!

=1−𝑒

,

= 1 − 0,0053 = 0,9947

b) Nach der Unabhӓngigkeit der 𝑁 (𝑡); 𝑡 ≥ 0 , 𝑁 (𝑡); 𝑡 ≥ 0 und 𝑁 (𝑡); 𝑡 ≥ 0 und nach den stationӓren Zuwӓchsen der homogenen Poisson-Prozesse folgt 𝑊 (𝑁 (16,75) − 𝑁 (16,5) = 2) (𝑁 (16,5) − 𝑁 (16) = 1) ∩ (𝑁 (16,5) − 𝑁 (16) = 2)

= 𝑊(𝑁 (16,75) − 𝑁 (16,5) = 2) = 𝑊(𝑁 (0,25) = 2) 𝑒 ( , )( , ) ((0,9)(0,25)) = 0,0202 = 2! c) Nach den stationӓren Zuwӓchsen der homogenen Poisson-Prozesse gilt 𝐸 𝑁 (12) − 𝑁 (9) = 𝐸 𝑁 (3) = 1,5(3) = 4,5 𝑉𝑎𝑟 𝑁 (12) − 𝑁 (9) = 𝑉𝑎𝑟 𝑁 (3) = 1,5(3) = 4,5 355

Teil 3 Kapitel 1 Punktprozesse, Zählprozesse, Poisson-Prozesse

4. Die Anzahl der Anrufe bei einem Call-Center bildet einen homogenen PoissonProzess mit der Rate 10 pro Stunde. Wie hoch ist die Wahrscheinlichkeit, dass die Zwischenankunftszeit zwischen dem 3. und 5. Anruf 25 Minuten überschreitet? Lösung 4 Ansatz 1 Sei 𝑋 : Zwischenankunftszeit zwischen dem (𝑛 − 1)-ten und 𝑛-ten Anruf mit 𝑋 ~ exp(10) 𝑛 = 1, 2, 3, … Dann definiert man 𝑋 : Zwischenankunftszeit zwischen dem 3. und 4. Anruf 𝑋 : Zwischenankunftszeit zwischen dem 4. und 5. Anruf Nach den stationӓren Zuwӓchsen der homogenen Poisson-Prozesse folgt (s. Abbildung 1.9): 𝑊 𝑋 +𝑋 >

25 25 =𝑊 𝑡 > 60 60

Abbildung 1.9: Darstellung für Aufgabe 4 Gemäß dem speziellen Fall 2 𝑡 ≤ 𝑡 ↔ 𝑁(𝑡) ≥ 𝑛 gilt 𝑊 𝑡 >

356

25 25 =𝑊 𝑁

60 60

𝑊 𝑋 +𝑋 >

=𝑊

𝑡 >

25 60

𝑡 < +𝑊

=

25

25

𝑡 >

25 60

25 25 ∩ 𝑡 > 60 60

𝑊 𝑡 >

+𝑊

𝑡 >

𝑊 𝑡 >

25 60

25 60

𝑊 𝑡 >

25 60

25 25 ∩ 𝑡 > 60 60

25 25 25 25 =1 +𝑊 𝑡 > =𝑊 𝑁 =1 +𝑊 𝑋 > 60 60 60 60 10 1!

25 60

+𝑒

= 5,1667𝑒

= 4,1667𝑒 ,

,

+𝑒

,

= 0,08

5. Kunden treffen an einem Geschӓft, das um 9: 00 Uhr geöffnet ist, gemäß einem inhomogenen Poisson-Prozess ein. Die Intensitӓtsfunktion ist eine steigende lineare Funktion zwischen 9: 00 Uhr und 11: 00 Uhr. Die Rate ist 𝜆 = 2 um 9: 00 Uhr und 𝜆 = 5 um 11: 00 Uhr und bleibt konstant zwischen 11: 00 und 13: 00 Uhr. Die Intensitӓtsfunktion steigt zwischen 13: 00 und 16: 30 Uhr ab. Die Rate ist 𝜆 = 3 um 16: 30 Uhr und bleibt wieder konstant bis 17: 00 Uhr.

357

Teil 3 Kapitel 1 Punktprozesse, Zählprozesse, Poisson-Prozesse

a) Erstellen Sie die Intensitӓtsfunktion und ihren Graphen. b) Mit welcher Wahrscheinlichkeit ist die Anzahl der Kunden, die zwischen 11: 30 und 14: 30 Uhr eintreffen mindestens 2, gegeben dass kein Kunde zwischen 10: 00 und 11: 00 Uhr ankommt? c) Was ist der Erwartungswert der Kunden, die zwischen 9: 00 und 17: 00 Uhr eintreten? Lösung 5 a) Die Intensitӓtsfunktion ist gegeben durch 1,5𝑡 + 2 0 ≤ 𝑡 ≤ 2 ⎧ 2≤𝑡≤4 ⎪ 5 51 4 𝜆(𝑡) = ⎨− 7 𝑡 + 7 4 ≤ 𝑡 ≤ 7,5 ⎪ 7,5 ≤ 𝑡 ≤ 8 ⎩3 mit dem Graphen in Abbildung 1.10.

Abbildung 1.10: Intensitӓtsfunktion für Aufgabe 5 b) Nach den unabhӓngigen Zuwӓchsen der inhomogenen Poisson-Prozesse gilt 𝑊((𝑁(5,5) − 𝑁(2,5) ≥ 2) | (𝑁(2) − 𝑁(1) = 0)) = 𝑊(𝑁(5,5) − 𝑁(2,5) ≥ 2) = 1 − (𝑊(𝑁(5,5) − 𝑁(2,5) = 0) + 𝑊(𝑁(5,5) − 𝑁(2,5) = 1)) 358

Teil 3 Kapitel 1 Punktprozesse, Zählprozesse, Poisson-Prozesse

=1−

𝑒

, ,

4 51 − 𝑡+ 𝑑𝑡 7 7

,

5𝑑𝑡 +

,

0!

+

=1−

𝑒

,

𝑒

,

,

4 51 − 𝑡+ 𝑑𝑡 7 7

,

5𝑑𝑡 +

1! ,

,

𝑒 14,357 + 0! = 1 − (𝑒 ,

14,357 1! + 14,357𝑒

,

) = 0,9999

c) Weil der Flӓcheninhalt unter der Intensitӓtsfunktion 32,5 betrӓgt, gilt 𝐸 𝑁(8) − 𝑁(0) = 𝐸 𝑁(8) = 32,5 6. Die Anzahl der Kunden, die ein Geschӓft betreten, bildet einen homogenen Poisson-Prozess mit der Rate

pro Minute. Man vermutet die in Tabelle 1.1

angegebenen Verteilungen für die Altersgruppen der Kunden. Tabelle 1.1: Verteilungen der Altersgruppen der Kunden Altersgruppen (1) 15 − 30 (2) 31 − 50 (3) 51 − 70

Wahrscheinlichkeiten (Unabhӓngig voneinander) 0,25 0,35 0,40

Das Geschӓft ist um 9: 00 Uhr geöffnet. a) Wie groß ist die Wahrscheinlichkeit, dass mindestens 3 Kunden von 10: 30 − 11: 45 ankommen werden, gegeben dass höchstens ein Kunde von 9: 15 − 9: 45 ankommt? b) Wie hoch ist die Wahrscheinlichkeit, dass 3 Kunden der Altersgruppe 1 das Geschäft von 14: 00 − 15: 00 betreten werden, unter der Bedingung, dass kein Kunde der Altersgruppe 2 von 13: 00 − 14: 30 ankommt? c) Mit welcher Wahrscheinlichkeit überschreitet die Zwischenankunftszeit zwischen der Ankunft des 7. und 10. Kunden 30 Minuten? 359

Teil 3 Kapitel 1 Punktprozesse, Zählprozesse, Poisson-Prozesse

d) Was sind der Erwartungswert und die Varianz der Ankunftszeit des 35. Kunden? e) Wie groß ist die Wahrscheinlichkeit, dass die Zwischenankunftszeit zwischen der Ankunft des 11. und 12. Kunden mindestens 10 Minuten beträgt? Lösung 6 Seien 𝑁 (𝑡); 𝑡 ≥ 0 : Poisson-Prozess für die Anzahl der Kunden der Altersgruppe 1 mit der Rate 𝜆 =

(0,25) =

pro Stunde

𝑁 (𝑡); 𝑡 ≥ 0 : Poisson-Prozess für die Anzahl der Kunden der Altersgruppe 2 mit der Rate 𝜆 =

(0,35) =

= 3 pro Stunde

𝑁 (𝑡); 𝑡 ≥ 0 : Poisson-Prozess für die Anzahl der Kunden der Altersgruppe 3 mit der Rate 𝜆 =

(0,40) =

pro Stunde

Außerdem sind 𝑁 (𝑡); 𝑡 ≥ 0 , 𝑁 (𝑡); 𝑡 ≥ 0 und 𝑁 (𝑡); 𝑡 ≥ 0 unabhängig voneinander. Dann ist 𝑁(𝑡); 𝑡 ≥ 0 : Poisson-Prozess für die Anzahl der Kunden mit der Rate 𝜆 = wobei 𝑁(𝑡) = 𝑁 (𝑡) + 𝑁 (𝑡) + 𝑁 (𝑡) 𝑡 ≥ 0 a) Nach den unabhӓngigen und stationӓren Zuwӓchsen gilt 𝑊 (𝑁(11,75) − 𝑁(10,5) ≥ 3) (𝑁(9,75) − 𝑁(9,25) ≤ 1) = 𝑊(𝑁(11,75) − 𝑁(10,5) ≥ 3) = 𝑊(𝑁(1,25) ≥ 3) = 1 − (𝑊(𝑁(1,25) = 0) + 𝑊(𝑁(1,25) = 1) + 𝑊(𝑁(1,25) = 2))

360

Teil 3 Kapitel 1 Punktprozesse, Zählprozesse, Poisson-Prozesse

𝑒 ⎛ =1−⎜

( ,

60 (1,25) 7

)

( ,

𝑒

)

+

0!

60 (1,25) 7 1!

⎝ ( ,

𝑒

)

+

60 (1,25) 7 2!

⎞ ⎟ = 0,9985 ⎠

b) Nach der Unabhӓngigkeit der Poisson-Prozesse 𝑁 (𝑡); 𝑡 ≥ 0 und 𝑁 (𝑡); 𝑡 ≥ 0 und den stationӓren Zuwӓchsen gilt 𝑊 (𝑁 (15) − 𝑁 (14) = 3) (𝑁 (14,5) − 𝑁 (13) = 0) = 𝑊(𝑁 (15) − 𝑁 (14) = 3) 𝑒

( )

= 𝑊(𝑁 (1) = 3) =

15 (1) 7 3!

= 0,1924

c) Seien 𝑋 : Zwischenankunftszeit zwischen der Ankunft des 7. und 8. Kunden 𝑋 : Zwischenankunftszeit zwischen der Ankunft des 8. und 9. Kunden 𝑋 : Zwischenankunftszeit zwischen der Ankunft des 9. und 10. Kunden Dann ermittelt man die Wahrscheinlichkeit, dass die Zwischenankuftszeit zwischen der Ankunft des 7. und 10. Kunden 30 Minuten überschreitet, durch 𝑊 𝑋 +𝑋 +𝑋 =𝑊 𝑁

𝑒 =

60 1 7 2 0!

>

1 1 1 =𝑊 𝑡 > =𝑊 𝑁 𝑥) wobei 𝑆(𝑡): Zwischenankunftszeit zwischen diejenigen aufeinanderfolgenden Störzeitpunkten, indem die Inspektion liegt. 𝑋: Zwischenankunftszeit zwischen zwei beliebigen aufeinanderfolgenden Störzeitpunkten. 373

Teil 3 Kapitel 2 Erneuerungszählprozess

2.2.3. Zentraler Grenzwertsatz für EZP Sei 𝑁(𝑡); 𝑡 ≥ 0 ein EZP, dann gilt für 𝑡 → ∞ 𝑁(𝑡) − 𝐸(𝑁(𝑡)) 𝑉𝑎𝑟(𝑁(𝑡))

=

𝑁(𝑡) − 𝑡/𝜇 𝑡𝜎 /𝜇

→ 𝑍 ~ 𝑁(0,1)

wobei 𝜇 = 𝐸(𝑋) 𝜎 = 𝑉𝑎𝑟(𝑋) 2.2.4. Alternierender Erneuerungszӓhlprozess Seien 𝑍 ; 𝑛 ≥ 1 und 𝑌 ; 𝑛 ≥ 1 zwei 𝑢. 𝑖. 𝑣. stochastische Prozesse mit 𝐸(𝑍 ) = 𝐸(𝑍) und 𝐸(𝑌 ) = 𝐸(𝑌) , wobei für 𝑛 = 1, 2, 3, … 𝑍 : Up-Zeit (On-Zeit) am 𝑛-ten Erneuerungszyklus 𝑌 : Down-Zeit (Off-Zeit) am 𝑛-ten Erneuerungszyklus beschreiben. Die stationӓre Verteilung der Up-Zeiten bzw. Down-Zeiten sind wie folgt definiert: → Die stationӓre Verteilung der Up-Zeiten (Anteil der Up-Zeiten an der Gesamtzeit) lim 𝑊 →

=

𝐸(𝑍) 𝐸(𝑍) + 𝐸(𝑌)

→ Die stationӓre Verteilung der Down-Zeiten (Anteil der Down-Zeiten an der Gesamtzeit) lim 𝑊 →

=

𝐸(𝑌) 𝐸(𝑍) + 𝐸(𝑌)

Beispiel 5: Die Lebensdauer einer Maschine ist exponentialverteilt mit dem Parameter 3 pro Jahr. Im Fehlerfall fängt die Reparatur sofort an. Die gesamte Reparaturzeit ist gleichverteilt in Wochen auf (1,3) und nach der Reparatur wird die Maschine wieder als neu angesehen. Dieser Prozess dauert unendlich lang mit 𝑢. 𝑖. 𝑣. Verteilungen. Was ist die stationӓre Verteilung der Up-Zeiten? Was ist die stationӓre Verteilung der Down-Zeiten? (Nehmen Sie an, dass 1 Monat = 4 Wochen gilt.) 374

Teil 3 Kapitel 2 Erneuerungszählprozess

Lösung 5 Der Erwartungswert der Up-Zeit bzw. Down-Zeit an einem beliebigen Erneuerungszyklus lautet 𝐸(𝑍) =

1 12 Jahr = = 4 Monate = 4(4) = 16 Wochen 3 3 𝐸(𝑌) =

(1 + 3) = 2 Wochen 2

Dabei ist die stationӓre Verteilung der Up-Zeiten bzw. Down-Zeiten gegeben durch lim 𝑊 →

lim 𝑊 →

=

𝐸(𝑍) 16 16 = = = 0,8889 𝐸(𝑍) + 𝐸(𝑌) 16 + 2 18

=

𝐸(𝑌) 2 2 = = = 0,1111 𝐸(𝑍) + 𝐸(𝑌) 16 + 2 18

Aufgaben 1. Ein Seriensystem funktioniert mit drei Komponenten. Die Lebenszeiten der Komponenten sind unabhӓngig voneinander und exponentialverteilt mit den Parametern

, ,

pro Monat. Im Störungsfall einer Komponente wird diese

Komponente sofort (ohne Zeitverlust) durch eine neue ersetzt. Die Erwartungswerte der Ersatzkosten für die Komponenten werden jeweils als $ 100, $ 75, $ 125 vermutet. Dieser Prozess dauert unendlich lang mit 𝑢. 𝑖. 𝑣. Verteilungen. a) Was ist die stationӓre Ersetzungsrate für dieses System? b) Was ist die stationӓre Kostenrate für dieses System? Lösung 1 a) Seien 𝑋 : Lebenszeit der Komponente 1 am 𝑛-ten Erneuerungszyklus mit 𝑋

~ exp

1 2

𝑛 = 1, 2, 3, …

𝑋 : Lebenszeit der Komponente 2 am 𝑛-ten Erneuerungszyklus 375

Teil 3 Kapitel 2 Erneuerungszählprozess

mit 𝑋

~ exp

1 3

𝑛 = 1, 2, 3, …

𝑋 : Lebenszeit der Komponente 3 am 𝑛-ten Erneuerungszyklus mit 𝑋

~ exp

1 4

𝑛 = 1, 2, 3, …

Dann ergibt sich 𝑍 = min(𝑋 , 𝑋 , 𝑋 ) wobei 𝑍 : Lebenszeit des Seriensystems bzw. Lӓnge des 𝑛-ten Erneuerungszyklus mit 1 1 1 13 + + bzw. 𝑍 ~ exp 2 3 4 12

𝑍 ~ exp

𝑛 = 1, 2, 3, …

Somit gilt 𝜇 = 𝐸(𝑍 ) = 𝐸(𝑍) =

12 1 = Monat 13 13 12

→ Die stationӓre Ersetzungsrate für dieses System lim →

1 1 13 𝑁(𝑡) 1 = = = = pro Monat 𝜇 𝐸(𝑍) 12 12 𝑡 13

b) Sei 𝐾 : Kosten am 𝑛-ten Erneuerungszyklus Nach den weiteren Eigenschaften der Exponentialverteilung folgt für 𝑛 = 1, 2, 3, …. 𝐸(𝐾 ) = 𝐸(𝐾) = 100 𝑊(𝑋 = min(𝑋 , 𝑋 , 𝑋 )) + 75 𝑊(𝑋 = min(𝑋 , 𝑋 , 𝑋 )) +125 𝑊(𝑋 = min(𝑋 , 𝑋 , 𝑋 )) 376

Teil 3 Kapitel 2 Erneuerungszählprozess

1 2 = 100 1 1 1 + + 2 3 4

1 3 + 75 1 1 1 + + 2 3 4

1 1 1 3 2 + 75 + 125 4 = 100 13 13 13 12 12 12 1275 = $98 = 13

1 4 + 125 1 1 1 + + 2 3 4

= 100

6 4 3 + 75 + 125 13 13 13

→ Die stationӓre Kostenrate für dieses System lim →

𝐾(𝑡) 𝐸(𝐾) 98 = = = $106 pro Monat 𝐸(𝑍) 12 𝑡 13

2. Sei 𝑁(𝑡); 𝑡 ≥ 0 ein EZP, der die Abfahrten der Busse von einer Haltestelle modelliert. Es wird angenommen, dass der Bus-Service um 9: 00 Uhr anfӓngt. Die Zwischenankunftszeiten zwischen den Abfahrten der Busse sind gleichverteilt in Minuten auf (10,20). Ein Kunde kommt an der Haltestelle um 11: 00 Uhr an. a) Wie viele Minuten wartet der Kunde im Durchschnitt bis zur nӓchsten Abfahrt? b) Wie viele Minuten liegen im Durchschnitt zwischen der letzten Abfahrt und der nӓchsten Abfahrt? Lösung 2 a) Der Exzess um 11: 00 Uhr lautet 𝐵(2) = 𝑡

( )

−2

Sei 𝑋: Zwischenankunftszeit (Lӓnge eines Erneuerungszyklus) Dann gilt 𝑋 ~ Uniform(10,20) wobei 𝐸(𝑋) =

10 + 20 = 15 Minuten 2 377

Teil 3 Kapitel 2 Erneuerungszählprozess

𝑉𝑎𝑟(𝑋) =

(20 − 10) 100 = = 8,3 12 12

𝐸(𝑋 ) = 𝑉𝑎𝑟(𝑋) + (𝐸(𝑋)) = 8,3 + 15 = 233,3 Damit errechnet sich der durchschnittliche Exzess durch 𝐸(𝑋 ) 233,3 = = 7,8 Minuten 2𝐸(𝑋) 2(15) b) Die Zeitspanne um 11: 00 Uhr ist definiert als 𝑆(2) = 𝑡

( )

−𝑡

( )

Die durchschnittliche Zeitspanne wird ermittelt durch 𝐸(𝑋 ) 233,3 = = 15,6 Minuten 15 𝐸(𝑋) 3. Betrachten Sie die Aufgabe 1. Im Störungsfall einer Komponente,wird diese Komponente repariert. Die Reparaturzeiten sind unabhӓngig voneinander und gleichverteilt in Wochen auf den Intervallen (1,3), (1,2) und (2,4). Was ist die stationӓre Verteilung der Up-Zeiten? Was ist die stationӓre Verteilung der DownZeiten? (Behauptung: 1 Monat = 4 Wochen) Lösung 3 Seien für 𝑛 = 1, 2, 3, … 𝑍 : Up-Zeit (On-Zeit) am 𝑛-ten Erneuerungszyklus mit 𝐸(𝑍 ) = 𝐸(𝑍) 𝑌 : Down-Zeit (Off-Zeit) am 𝑛-ten Erneuerungszyklus mit 𝐸(𝑌 ) = 𝐸(𝑌) Zur Erinnerung aus Aufgabe 1: 𝐸(𝑍) =

12 48 Monat = Wochen 13 13

Der Erwartungswert der Down-Zeit an einem beliebigen Erneuerungszyklus lässt sich ermitteln durch

378

Teil 3 Kapitel 2 Erneuerungszählprozess

1+3 𝑊(𝑋 = min(𝑋 , 𝑋 , 𝑋 )) 2 1+2 + 𝑊(𝑋 = min(𝑋 , 𝑋 , 𝑋 )) 2 2+4 + 𝑊(𝑋 = min(𝑋 , 𝑋 , 𝑋 )) 2

𝐸(𝑌 ) = 𝐸(𝑌) =

1 2 =2 1 1 1 + + 2 3 4

1 3 + 1,5 1 1 1 + + 2 3 4

1 1 1 3 2 + 1,5 +3 4 =2 13 13 13 12 12 12 27 = Wochen 13

=2

1 4 +3 1 1 1 + + 2 3 4

6 4 3 + 1,5 +3 13 13 13

Folglich, lautet die stationӓre Verteilung der Up-Zeiten bzw. Down-Zeiten

lim 𝑊 →

lim 𝑊 →

48 𝐸(𝑍) 48 13 = = = = 0,64 48 27 𝐸(𝑍) + 𝐸(𝑌) 75 + 13 13 27 𝐸(𝑌) 27 13 = = = = 0,36 48 27 𝐸(𝑍) + 𝐸(𝑌) 75 + 13 13

4. Betrachten Sie die Aufgabe 1. Wie groß ist die Wahrscheinlichkeit für mindestens 120 Ersetzungen in 100 Monaten? Lösung 4 Zur Erinnerung aus Aufgabe 1: 𝑍 ~ exp

13 12

𝑛 = 1, 2, 3, …

Nach dem zentralen Grenzwertsatz für EZP, gilt für 𝑡 → ∞ 𝑁(𝑡) − 𝐸 𝑁(𝑡) 𝑉𝑎𝑟 𝑁(𝑡)

=

𝑁(𝑡) − 𝑡/𝜇 𝑡𝜎 /𝜇

→ 𝑍 ~ 𝑁(0,1)

379

Teil 3 Kapitel 2 Erneuerungszählprozess

wobei 𝜇 = 𝐸(𝑍 ) = 𝐸(𝑍) =

12 1 = 13 13 12

𝜎 = 𝑉𝑎𝑟(𝑍 ) = 𝑉𝑎𝑟(𝑍) =

1 13 12

=

144 169

Die Wahrscheinlichkeit für mindestens 120 Ersetzungen in 100 Monaten ist gegeben durch 𝑊(𝑁(100) ≥ 120) =𝑊 ≥

=𝑊 𝑍≥

𝑁(100) − 100/(12/13) 100(144/169)/(12/13) 120 − 100/(12/13)

100(144/169)/(12/13)

120 − 100/(12/13)

= 𝑊(𝑍 ≥ 1,1209) 100(144/169)/(12/13) = 1 − 𝑊(𝑍 < 1,1209) = 1 − Φ(1,1209) ≅ 1 − 0,8686 = 0,1314

5. Die Lebenszeit einer Maschine ist exponentialverteilt mit dem Parameter

pro

Monat. Die Reparaturzeit dieser Maschine wird als normalverteilt mit dem Erwartungswert 2 Wochen angenommen. Nach der Reparaturdauer gibt es auch die Wiederherstellungszeit dieser Maschine, die gleichverteilt in Wochen auf (0,1) ist. Außerdem sind die Reparaturkosten in $ binomialverteilt mit den Parametern 1000 und . Nach der Reparatur ist diese Maschine wieder neu. Dieser Prozess dauert unendlich lang mit 𝑢. 𝑖. 𝑣. Verteilungen (Behauptung: 1 Monat = 4 Wochen). a) Was ist die stationӓre Erneuerungsrate für diese Maschine? b) Was ist die stationӓre Kostenrate für diese Maschine? c) Beschreiben Sie diesen stochastischen Prozess als einen alternierenden Erneuerungszӓhlprozess. d) Berechnen Sie den stationӓren Anteil der Lebenszeiten an der Gesamtzeit. 380

Teil 3 Kapitel 2 Erneuerungszählprozess

Lösung 5 Es wird angenommen, dass die Zeiteinheit Monat ist. Dann definiert man die folgenden Zufallsvariablen: 𝑋 : Lebenszeit der Maschine am 𝑛-ten Erneuerungszyklus mit 𝑋 ~exp

1 8

𝑛 = 1, 2, 3, …

𝑌 : Reparaturzeit der Maschine am 𝑛-ten Erneuerungszyklus mit 𝑌 ~𝑁

1 ,𝜎 2

𝑛 = 1, 2, 3, …

𝑍 : Wiederherstellungszeit der Maschine am 𝑛-ten Erneuerungszyklus mit 𝑍 ~Uniform 0,

1 4

𝑛 = 1, 2, 3, …

𝐾 : Reparaturkosten der Maschine am 𝑛-ten Erneuerungszyklus mit 𝐾 ~Bin 1000,

1 2

𝑛 = 1, 2, 3, …

Dann lautet die Länge eines Erneuerungszyklus für 𝑛 = 1, 2, 3, … 𝑇 =𝑋 +𝑌 +𝑍 a) Der Erwartungswert der Länge eines Erneuerungszyklus für 𝑛 = 1, 2, 3, … ist gegeben durch 𝜇 = 𝐸(𝑇 ) = 𝐸(𝑇) = 𝐸(𝑋 + 𝑌 + 𝑍 ) = 𝐸(𝑋 ) + 𝐸(𝑌 ) + 𝐸(𝑍 ) 1 0+ 1 1 4 = 8,625 Monate = 𝐸(𝑋) + 𝐸(𝑌) + 𝐸(𝑍) = + + 1 2 2 8 381

Teil 3 Kapitel 2 Erneuerungszählprozess

Dann lautet die stationӓre Erneuerungsrate für diese Maschine lim →

1 𝑁(𝑡) 1 = = = 0,12 pro Monat 𝜇 8,625 𝑡

b) Der Erwartungswert der Reparaturkosten der Maschine an einem beliebigen Erneuerungszyklus ist gegeben als 𝐸(𝐾 ) = 𝐸(𝐾) = 1000

1 = $ 500 𝑛 = 1, 2, 3, … 2

Dann ergibt sich die stationӓre Kostenrate für diese Maschine lim →

500 𝐾(𝑡) 𝐸(𝐾) = = = $58 pro Monat 𝐸(𝑇) 8,625 𝑡

c) Seien 𝑋 ; 𝑛 ≥ 1 und 𝑌 + 𝑍 ; 𝑛 ≥ 1 zwei 𝑢. 𝑖. 𝑣. stochastische Prozesse, wobei für 𝑛 = 1, 2, 3, … 𝑋 : Up-Zeit am 𝑛-ten Erneuerungszyklus mit 𝐸(𝑋 ) = 𝐸(𝑋) 𝑌 + 𝑍 : Down-Zeit am 𝑛-ten Erneuerungszyklus mit 𝐸(𝑌 + 𝑍 ) = 𝐸(𝑌) + 𝐸(𝑍) bezeichnen. Weil dieser Prozess unendlich lang mit 𝑢. 𝑖. 𝑣. Verteilungen dauert, kann er als alternierender Erneuerungszählprozess beschrieben werden. d) Nach dem alternierenden Erneuerungszӓhlprozess ist der stationӓre Anteil der Lebenszeiten an der Gesamtzeit gegeben durch lim 𝑊 →

382

=

𝐸(𝑋) 8 = = 0,9275 𝐸(𝑋) + 𝐸(𝑌) + 𝐸(𝑍) 8,625

Teil 3 Kapitel 3 Markov-Ketten

Kapitel 3 Markov-Ketten Eine Markov-Kette ist ein spezieller stochastischer Prozess mit Gedӓchtnislosigkeit, bei dem die Vergangenheit keine Rolle für die Wahrscheinlichkeit der zukünftigen Zustände spielt. Bei Markov-Ketten wird angenommen, dass der zukünftige Zustand nur vom aktuellen Zustand abhängig ist. Markov-Ketten unterteilen sich in zwei Typen: zeit-diskrete bzw. zeit-stetige Markov-Ketten. Insbesondere die zeit-stetigen Markov-Ketten sind von großer Bedeutung, bei denen der stochastische Prozess in einem Zustand unabhängig voneinander und für eine exponentialverteilte Zeit verweilt. Im ersten Abschnitt dieses Kapitels werden wir zunächst die grundsӓtzlichen Eigenschaften von zeit-diskreten Markov-Ketten liefern und mittels Beispielen verdeutlichen. Im zweiten Abschnitt werden wir uns mit den grundsӓtzlichen Eigenschaften von zeit-stetigen Markov-Ketten befassen. Anschließend werden wir die Geburts- und Todesprozesse und Geburts- und-Todes-Warteschlangenmodelle einschließlich der 𝑀/𝑀/1-Warteschlangenmodelle beschreiben. 3.1.

Zeit-diskrete Markov-Ketten

Ein zeit-diskreter stochastischer Prozess 𝑋 ; 𝑛 ≥ 0 mit diskretem (endlichem, abzählbarem) Zustandsraum 𝑆 = 0,1, 2, … , 𝑟 und mit diskreter Zeit heißt eine zeit-diskrete Markov-Kette genau dann, wenn folgende grundsӓtzliche Eigenschaften erfüllt sind: 3.1.1. Grundsӓtzliche Eigenschaften von zeit-diskreten Markov-Ketten → Markov-Eigenschaft (Gedächtnislosigkeit) für zeit-diskrete MarkovKetten Eine zeit-diskrete Markov-Kette 𝑋 ; 𝑛 ≥ 0 mit diskretem Zustandsraum 𝑆 besitzt die Markov-Eigenschaft, falls für alle 𝑖, 𝑗 ∈ 𝑆; 𝑛 ≥ 0 gilt: 𝑊(𝑋

= 𝑗 | ((𝑋 = 𝑥 ) ∩ (𝑋 = 𝑥 ) ∩ (𝑋 = 𝑥 ) ∩ … ∩ (𝑋 = 𝑖)) = 𝑗 | 𝑋 = 𝑖) = 𝑤 = 𝑊(𝑋

wobei 𝑋 ,𝑋 ,𝑋 ,…,𝑋

: Zustӓnde der Vergangenheit

© Der/die Herausgeber bzw. der/die Autor(en), exklusiv lizenziert durch Springer Fachmedien Wiesbaden GmbH, ein Teil von Springer Nature 2020 E. Bas, Einführung in Wahrscheinlichkeitsrechnung, Statistik und Stochastische Prozesse, https://doi.org/10.1007/978-3-658-32120-8_11

383

Teil 3 Kapitel 3 Markov-Ketten

𝑋 : Zustand der Gegenwart (aktueller Zustand, jetziger Zustand, Zustand am jetzigen Zeitschritt) 𝑋

: Folgezustand (Zustand der Zukunft, Zustand am nӓchsten Zeitschritt) 𝑤 : Übergangswahrscheinlichkeit für den Übergang aus dem Zustand 𝑖 in den Zustand 𝑗

bezeichnen. Bemerkung: Gemäß der Markoveigenshaft hӓngt der Folgezustand des stochastischen Prozesses nur von seinem aktuellen Zustand ab, nicht von der Vergangenheit, d. h. die Vergangenheit spielt keine Rolle. Die Übergangswahrscheinlichkeit 𝑤 beschreibt die bedingte Wahrscheinlichkeit, sich zum Zeitschritt 𝑛 + 1 im Zustand 𝑗 zu befinden, gegeben dass der stochastische Prozess zum Zeitschritt 𝑛 im Zustand 𝑖 ist. → Stationaritӓt (Zeithomogenitӓt) Falls eine zeit-diskrete Markov-Kette die Stationaritӓt besitzt, dann gilt für alle 𝑖, 𝑗 ∈ 𝑆; 𝑛 ≥ 0 = 𝑗 | 𝑋 = 𝑖) = 𝑤

𝑊(𝑋

Anders ausgedrückt: Die Übergangswahrscheinlichkeiten zwischen den Zuständen sind vom Zeitschritt 𝑛 unabhängig. → Übergangsmatrix mit Übergangswahrscheinlichkeiten Es sei eine zeit-diskrete Markov-Kette 𝑋 ; 𝑛 ≥ 0 mit diskretem Zustandsraum 𝑆 = 0,1, 2, … , 𝑟 . Die Übergangsmatrix (stochastische Matrix) 𝑊 mit 𝑊=

𝑤 ⋮ 𝑤

⋯ 𝑤 ⋯

𝑤 ⋮ 𝑤

ist eine quadratische (𝑟 + 1) x (𝑟 + 1)-Matrix mit Übergangswahrscheinlichkeiten 𝑤 als Einträgen, wobei folgende Bedingungen erfüllt sind: 𝑤 ≥ 0 ∀𝑖, 𝑗 ∈ 𝑆 𝑤 = 1 ∀𝑖 ∈ 𝑆 ∈

384

Teil 3 Kapitel 3 Markov-Ketten

Bemerkung: Die Übergangsmatrix bezeichnet die 1-Schritt-Übergangsmatrix. Die Einträge jeder Zeile summieren sich genau zu 1 auf. → Übergangsdiagramm (Zustandsübergangsdiagramm, Zustandsdiagramm, Zustandsgraph, Übergangsgraph) Das Übergangsdiagramm ist ein Diagramm, das Zustӓnde durch Knoten (Ecken) und Übergӓnge zwischen Zustӓnden durch gerichtete Kanten (Pfeile) darstellt. Jede Kante kann mit der zugehörigen Übergangswahrscheinlichkeit beschriftet werden. → Absorbierender Zustand Ein Zustand 𝑖 heißt ein absorbierender Zustand, falls gilt: 𝑤 =1 Beispiel 1: Es liege eine zeit-diskrete Markov-Kette 𝑋 ; 𝑛 ≥ 0 mit Zustandsraum 𝑆 = 0, 1, 2 und Übergangsmatrix 0,2 0,7 0,1 1 0 𝑊= 0 0 0,5 0,5 vor. Zustand 1 heißt ein absorbierender Zustand, weil 𝑤

= 1 gilt.

Das Übergangsdiagramm für diese Markov-Kette sieht wie in Abbildung 3.1 aus:

Abbildung 3.1: Übergangsdiagramm für Beispiel 1 385

Teil 3 Kapitel 3 Markov-Ketten

→ Chapman-Kolmogorov-Gleichungen und 𝒎-Schritt-Übergangsmatrix Gegeben sei eine zeit-diskrete Markov-Kette 𝑋 ; 𝑛 ≥ 0 mit diskretem Zustandsraum 𝑆 = 0,1, 2, … , 𝑟 und Übergangsmatrix 𝑊. Chapman-Kolmogorov-Gleichungen und 𝑚-Schritt-Übergangsmatrix können folgendermaßen definiert werden: → Chapman-Kolmogorov-Gleichungen 𝑤

=

𝑤 𝑤

für alle 𝑖, 𝑗 ∈ 𝑆; 𝑛, 𝑚 ≥ 0

→ 𝒎-Schritt-Übergangsmatrix Die 𝑚-Schritt-Übergangsmatrix 𝑊 ( 𝑊, d. h. 𝑊

( )

=𝑊

)

ist eine 𝑚-te Potenz der Übergangsmatrix

𝑤 = ⋮ 𝑤

⋯ 𝑤 ⋯

𝑤 ⋮ 𝑤

wobei folgende Bedingungen für alle 𝑖, 𝑗 ∈ 𝑆; 𝑛, 𝑚 ≥ 0 erfüllt sind: 𝑤 𝑤

= 𝑊(𝑋 𝑤

≥0 = 𝑗|𝑋 = 𝑖) = 1 ∀𝑖 ∈ 𝑆



Bemerkung: Bei einer 𝑚-Schritt-Übergangsmatrix sind die Zeilensummen wiederum 1. Beispiel 1 (fortgesetzt 1): Es liege eine zeit-diskrete Markov-Kette 𝑋 ; 𝑛 ≥ 0 mit Zustandsraum 𝑆 = 0, 1, 2 und Übergangsmatrix 0,2 0,7 0,1 1 0 𝑊= 0 0 0,5 0,5 386

Teil 3 Kapitel 3 Markov-Ketten

vor. Beispielsweise ist die 2-Schritt-Übergangsmatrix gegeben durch 𝑊(

)

=𝑊 =

0,2 0,7 0,1 0,2 0,7 0,1 0,04 0,89 0,07 0 1 0 0 1 0 = 0 1 0 0 0,5 0,5 0 0,5 0,5 0 0,75 0,25

Beispielhaft kann aus 𝑊 (

)

abgelesen werden: 𝑤

= 0,89.

→ Erreichbarkeit, Kommunikation, Kommunikationsklassen, Irreduzible Markov-Kette Es sei eine zeit-diskrete Markov-Kette 𝑋 ; 𝑛 ≥ 0 mit diskretem Zustandsraum 𝑆 = 0,1, 2, … , 𝑟 und Übergangsmatrix 𝑊. → Erreichbarkeit Der Zustand 𝑗 ist von Zustand 𝑖 aus erreichbar, wenn für 𝑚 > 0 gilt 𝑤

>0

Schreibweise: 𝑖→𝑗 Bemerkung: Falls 𝑖 → 𝑗 gilt, ist es also möglich, zu jedem Zustand 𝑗 nach endlich vielen Schritten (mit einer strikt positiven Wahrscheinlichkleit) von Zustand 𝑖 zu gelangen. → Kommunikation Die Zustӓnde 𝑖 und 𝑗 kommunizieren miteinander (sind verbunden) genau dann, wenn 𝑖 → 𝑗 und 𝑗 → 𝑖. Schreibweise: 𝑖 ←→ 𝑗 → Kommunikationsklassen Der Zustandsraum 𝑆 wird in die Kommunikationsklassen 𝐶 , 𝐶 , … , 𝐶 so zerlegt, dass alle in 𝐶 , 𝑖 = 1, 2, 3, … , 𝑘 befindlichen Zustӓnde miteinander, aber mit keinem Zustand außerhalb von 𝐶 kommunizieren.

387

Teil 3 Kapitel 3 Markov-Ketten

Anders ausgedrückt: Seien 𝐶 , 𝐶 , … , 𝐶 : Kommunikationsklassen Dann müssen folgende Bedingugen erfüllt werden: 𝑆 = 𝐶 ∪ 𝐶 ∪ …∪ 𝐶 𝐶 ∩ 𝐶 ∩ …∩ 𝐶 = ∅ → Irreduzible Markov-Kette Wenn alle Zustӓnde miteinander kommunizieren, d. h. wenn 𝑆=𝐶 gilt, heißt die zeit-diskrete Markov-Kette irreduzibel. Ansonsten heißt die zeitdiskrete Markov-Kette reduzibel. → Rekurrente bzw. transiente Zustӓnde Ein Zustand 𝑖 heißt ein rekurrenter Zustand, wenn die Wahrscheinlichkeit 1 ist, dass der stochastische Prozess, startend in Zustand 𝑖, jemals wieder nach Zustand 𝑖 zurückkehrt. Wenn diese Wahrscheinlichkeit kleiner als 1 ist, heißt dieser Zustand ein transienter Zustand. Beispiel 1 (fortgesetzt 2): Es liege eine zeit-diskrete Markov-Kette 𝑋 ; 𝑛 ≥ 0 mit Zustandsraum 𝑆 = 0, 1, 2 und Übergangsmatrix 𝑊= vor.

388

0,2 0,7 0,1 0 1 0 0 0,5 0,5

Teil 3 Kapitel 3 Markov-Ketten

Zur Erinnerung aus Beispiel 1 (s. Abbildung 3.1):

Abbildung 3.1: Übergangsdiagramm für Beispiel 1 Die Erreichbarkeiten zwischen den Zuständen sind in Tabelle 3.1 ersichtlich. Tabelle 3.1: Erreichbarkeiten für Beispiel 1 (fortgesetzt 2) 0 →1 0 →2

1← 2

Dadurch ergeben sich die folgenden Kommunikationsklassen: 𝐶 = 0 𝐶 = 1 𝐶 = 2 Diese Markov-Kette ist also reduzibel, weil gilt: 𝑆 =𝐶 ∪𝐶 ∪𝐶 Der Zustand 1 (mit Übergangswahrscheinlichkeit 𝑤 = 1) ist ein absorbierender und rekurrenter Zustand, aber die Zustӓnde 0 und 2 sind transiente Zustӓnde. → Periode eines Zustands Für einen Zustand 𝑖 ist die Periode 𝑑(𝑖) definiert durch 𝑑(𝑖) = 𝑔𝑔𝑇 𝑚 ∈ ℤ |𝑤

>0

wobei 𝑔𝑔𝑇 für „größter gemeinsamer Teiler“ steht.

389

Teil 3 Kapitel 3 Markov-Ketten

Ein Zustand 𝑖 mit Periode 𝑑(𝑖) = 1 heißt aperiodisch. Wenn alle Zustände einer zeit-diskreten Markov-Kette aperiodisch sind, heißt diese zeit-diskrete MarkovKette aperiodisch. → Ergodische Markov-Kette Falls eine zeit-diskrete Markov-Kette irreduzibel und aperiodisch ist, heißt diese zeit-diskrete Markov-Kette ergodisch. Beispiel 1 (fortgesetzt 3): Es liege eine zeit-diskrete Markov-Kette 𝑋 ; 𝑛 ≥ 0 mit Zustandsraum 𝑆 = 0, 1, 2 und Übergangsmatrix 𝑊=

0,2 0,7 0,1 0 1 0 0 0,5 0,5

vor. Diese zeit-diskrete Markov-Kette ist aperiodisch, weil für alle Zustände gelten: 𝑑(0) = 𝑔𝑔𝑇 1, 2, 3, . . = 1 𝑑(1) = 𝑔𝑔𝑇 1, 2, 3, . . = 1 𝑑(2) = 𝑔𝑔𝑇 1, 2, 3, . . = 1 Zur Erinnerung aus Beispiel 1 (fortgesetzt 2): Diese Markov-Kette ist reduzibel, weil gilt: 𝑆 =𝐶 ∪𝐶 ∪𝐶 Daraus folgt, dass diese zeit-diskrete Markov-Kette nicht ergodisch ist. 3.1.2. Grenzverteilung bzw. stationӓre Verteilung Gegeben sei eine ergodische zeit-diskrete Markov-Kette 𝑋 ; 𝑛 ≥ 0 mit diskretem Zustandsraum 𝑆 = 0,1, 2, … , 𝑟 und Übergangsmatrix 𝑊. Dann sind die Grenzverteilung und stationӓre Verteilung folgendermaßen definiert:

390

Teil 3 Kapitel 3 Markov-Ketten

→ Grenzverteilung Sei 𝑊(𝑋 = 𝑖) = 𝑤

𝑖∈𝑆

die Anfangswahrscheinlichkeit (Anfangsverteilung) für Zustand 𝑖. Die zeitdiskrete Markov-Kette besitzt eine Grenzverteilung 𝜋 = (𝜋 , 𝜋 , 𝜋 , … , 𝜋 ), falls für alle 𝑗 ∈ 𝑆 gilt lim 𝑊(𝑋 = 𝑗 | 𝑋 = 𝑖) = lim 𝑤 →



=𝜋

wobei 𝜋 ≥0 𝜋 =1 ∈

Bemerkung: Mit wachsendem 𝑚, mehr und mehr egal ist, in welchem Zustand 𝑋 gestartet wird und die bedingten Wahrscheinlichkeiten konvergieren gegen die Grenzverteilung. → Stationӓre Verteilung Falls die zeit-diskrete Markov-Kette ergodisch ist, eine Grenzverteilung 𝜋 = (𝜋 , 𝜋 , 𝜋 , … , 𝜋 ) hat und die Gleichgewichtsgleichungen 𝜋 = 𝜋𝑊 erfüllt, d. h. für alle 𝑗 ∈ 𝑆 𝜋 =

𝜋 𝑤 ∈

gilt, dann heißt die Grenzverteilung 𝜋 = (𝜋 , 𝜋 , 𝜋 , … , 𝜋 ) die stationӓre Verteilung. Beispiel 2: Es handelt sich um eine zeit-diskrete Markov-Kette 𝑋 ; 𝑛 ≥ 0 mit Zustandsraum 𝑆 = 1, 2 und Übergangsmatrix 𝑊=

0,5 0,5 0,1 0,9

Bestimmen Sie die stationäre Verteilung für diese zeit-diskrete Markov-Kette. 391

Teil 3 Kapitel 3 Markov-Ketten

Lösung 2 Diese zeit-diskrete Markov-Kette ist irreduzibel, aperiodisch und besitzt die Grenzverteilung 𝜋 = (𝜋 , 𝜋 ) als stationӓre Verteilung, wobei 𝜋 +𝜋 =1

(1)

Die Gleichgewichtsgleichungen sind gegeben durch 𝜋 = 0,5𝜋 + 0,1𝜋

(2)

𝜋 = 0,5𝜋 + 0,9𝜋

(3)

Nach der Lösung durch die Gleichung (1) und (2) (oder (3)) ermittelt man 𝜋 =

1 6

𝜋 =

5 6

Aufgaben 3.1 1. Ratte im Labyrinth Eine Ratte befindet sich in einem Labyrinth mit 4 Rӓumen (s. Abbildung 3.2). Die Ratte wechselt mit jedem Zeitschritt den jetzigen Raum. Sie hat kein Gedӓchtnis und die Auswahl des Raumes im nӓchsten Zeitschritt hӓngt nur vom jetzigen Raum ab. Es ist möglich mit gleichen Wahrscheinlichkeiten zu direkt benachbarten Rӓume zu wechseln. Die Freiheit ist nur vom Raum 4 erreichbar. Wenn die Ratte in die Freiheit übergeht, bleibt sie immer in Freiheit.

Abbildung 3.2: Ratte im Labyrinth

392

Teil 3 Kapitel 3 Markov-Ketten

a) Beschreiben Sie diesen stochastischen Prozess als eine zeit-diskrete MarkovKette. b) Bestimmen Sie die Kommunikationsklassen, die rekurrenten und transienten Zustӓnde und die stationӓre Verteilung. c) Wie groß ist die Wahrscheinlichkeit, dass sich die Ratte nach drei Zeitschritten im Raum 4 befindet, gegeben dass sie jetzt im Raum 1 ist? Lösung 1 a) Es handelt sich um eine zeit-diskrete Markov-Kette 𝑋 ; 𝑛 ≥ 0 , da sie einen diskreten Zustandsraum 𝑆 = 0, 1, 2, 3, 4 besitzt, wobei 0 für Freiheit steht, und für alle 𝑛 ≥ 0 𝑋

: Zustand (Raumnummer oder Freiheit) der Ratte nach dem (𝑛 + 1)-ten Wechsel

nur von 𝑋 : Zustand (Raumnummer oder Freiheit) der Ratte nach dem 𝑛-ten Wechsel abhängt. Diese Markov-Kette ist charakterisiert durch die folgende Übergangsmatrix: 1 0 0 0 0 ⎡ 0 0 1/2 1/2 0 ⎤ ⎢ ⎥ 1/2 0 0 1/2⎥ 𝑊=⎢ 0 1/2 0 0 1/2⎥ ⎢ 0 0 1/3 1/3 0 ⎦ ⎣1/3 und durch das Übergangsdiagramm in Abbildung 3.3.

393

Teil 3 Kapitel 3 Markov-Ketten

Abbildung 3.3: Übergangsdiagramm für Aufgabe 1 b) Die Erreichbarkeiten der Zustände sind in Tabelle 3.2 angegeben. Tabelle 3.2: Erreichbarkeiten für Aufgabe 1 0← 0← 0← 0←

1 2 3 4

1 ←→ 2 1 ←→ 3 1 ←→ 4

2 ←→ 3 2 ←→ 4

3 ←→ 4

Wegen der folgenden Bedingungen ist diese zeit-diskrete Markovkette reduzibel: 𝐶 = 0 𝐶 = 1, 2, 3, 4 𝑆 =𝐶 ∪𝐶 Der Zustand 0 (mit der Übergangswahrscheinlichkeit 𝑤 = 1) ist ein absorbierender und rekurrenter Zustand, aber die Zustӓnde 1, 2, 3, 4 sind transiente Zustӓnde. Diese zeit-diskrete Markovkette besitzt keine stationӓre Verteilung, weil sie nicht irreduzibel ist.

394

Teil 3 Kapitel 3 Markov-Ketten

c) Um diese Frage zu beantworten, wird die folgende 3-Schritt-Übergangsmatrix benötigt: 𝑊(

)

=𝑊 1 0 ⎡ 0 0 ⎢ 1/2 =⎢ 0 1/2 ⎢ 0 0 ⎣1/3 1 0 ⎡0,16 0 ⎢ = ⎢0,16 0,42 ⎢0,16 0,42 ⎣0,44 0

0 0 0 1 1/2 1/2 0 ⎤⎡ 0 ⎥⎢ 0 0 1/2⎥ ⎢ 0 0 0 1/2⎥ ⎢ 0 1/3 1/3 0 ⎦ ⎣1/3 0 0 0 0,42 0,42 0 ⎤ ⎥ 0 0 0,42⎥ 0 0 0,42⎥ 0,28 0,28 0 ⎦

0 0 1/2 1/2 0

0 1/2 0 0 1/3

0 1/2 0 0 1/3

0 1 0 ⎤⎡ 0 ⎥⎢ 1/2⎥ ⎢ 0 1/2⎥ ⎢ 0 0 ⎦ ⎣1/3

0 0 1/2 1/2 0

0 1/2 0 0 1/3

0 1/2 0 0 1/3

Diesbezüglich lautet die Wahrscheinlichkeit, dass sich die Ratte nach drei Zeitschritten im Raum 4 befindet, gegeben dass sie jetzt im Raum 1 ist 𝑤

=0

2. Eine zeit-diskrete Markov-Kette 𝑋 ; 𝑛 ≥ 0 mit dem Zustandsraum 𝑆 = 0, 1, 2 und der Übergangsmatrix 0,2 0,7 0,1 𝑊 = 0,4 0,3 0,3 0 0,5 0,5 wird betrachtet. a) Erstellen Sie das Übergangsdiagramm für diese zeit-diskrete Markov-Kette. b) Bestimmen Sie die Kommunikationsklassen, die rekurrenten und transienten Zustӓnde und die stationӓre Verteilung. Lösung 2 a) Das Übergangsdiagramm in Abbildung 3.4 stellt diese zeit-diskrete MarkovKette dar:

395

0 0 ⎤ ⎥ 1/2⎥ 1/2⎥ 0 ⎦

Teil 3 Kapitel 3 Markov-Ketten

Abbildung 3.4: Übergangsdiagramm für Aufgabe 2 b) Tabelle 3.3 zeigt die Erreichbarkeiten. Tabelle 3.3: Erreichbarkeiten für Aufgabe 2 0 ←→ 1 0 ←→ 2

1 ←→ 2

Diese zeit-diskrete Markov-Kette ist irreduzibel, weil gilt: 𝐶 = 𝑆 = 0, 1, 2 Alle Zustӓnde 0,1,2 sind rekurrent. Die stationӓre Verteilung ist durch den Vektor 𝜋 = (𝜋 , 𝜋 , 𝜋 ) bezeichnet, wobei 𝜋 + 𝜋 + 𝜋 = 1 (1) gilt. Durch die Übergangsmatrix folgen 𝜋 = 0,2𝜋 + 0,4𝜋 + 0𝜋

(2)

𝜋 = 0,7𝜋 + 0,3𝜋 + 0,5𝜋 (3) 𝜋 = 0,1𝜋 + 0,3𝜋 + 0,5𝜋 (4) Die Gleichung (1) muss unbedingt beachtet werden. Betrachtet man beispielhaft auch die Gleichungen (2) und (3), dann folgen

396

Teil 3 Kapitel 3 Markov-Ketten

𝜋 = 0,5𝜋 (2) 0,7𝜋 = 0,7𝜋 + 0,5𝜋 (3) → 𝜋 = 0,7𝜋 Setzt man 𝜋 = 0,5𝜋 und 𝜋 = 0,7𝜋 in der Gleichung (1) zusammen, gilt 0,5𝜋 + 𝜋 + 0,7𝜋 = 1 Nach der Lösung ermittelt werden 𝜋 = 0,2273 𝜋 = 0,4545 𝜋 = 0,3182 wobei 𝜋 +𝜋 +𝜋 =1 gewährleistet wird. 3. Ruin des Spielers. Ein Spieler verfügt über Kapital 𝑖. In jeder Spielrunde gewinnt er mit der Wahrscheinlichkeit 𝑤 einen Euro oder verliert mit der Wahrscheinlichkeit 1 − 𝑤 einen Euro. Der Spieler spielt, bis er pleite ist oder das Kapital 𝑁 akkumuliert hat. a) Beschreiben Sie diesen stochastischen Prozess als eine zeit-diskrete MarkovKette. b) Bestimmen Sie die Kommunikationsklassen, die rekurrenten und transienten Zustӓnde und die stationӓre Verteilung. Lösung 3 a) Betrachtet man 𝑉 : Vermögen des Spielers nach der 𝑛-ten Spielrunde so wird 𝑉 ;𝑛 ≥ 0

397

Teil 3 Kapitel 3 Markov-Ketten

eine zeit-diskrete Markov-Kette mit diskretem Zustandsraum 𝑆 = 0, 1, 2, 3, … , 𝑁 weil für alle 𝑛 ≥ 0, 𝑉

nur von 𝑉 abhängig ist. Außerdem gilt 0 0

durch 𝑤 (𝑡) > 0, 𝑡 > 0 3.2.2. Grenzverteilung bzw. stationӓre Verteilung Gegeben sei eine zeit-stetige Markov-Kette 𝑋(𝑡); 𝑡 ≥ 0 mit diskretem Zustandsraum 𝑆 = 0,1, 2, … , 𝑟 und Übergangsmatrix 𝑊(𝑡). Dann sind die Grenzverteilung und stationӓre Verteilung folgendermaßen definiert: → Grenzverteilung Sei 𝑊(𝑋(0) = 𝑖) die Anfangswahrscheinlichkeit (Anfangsverteilung) für Zustand 𝑖 ∈ 𝑆. Es existiert eine Grenzverteilung 𝑤 = (𝑤 , 𝑤 , … , 𝑤 ) für diese zeit-stetige Markov-Kette, falls für ∀𝑗 ∈ 𝑆 gilt lim 𝑊(𝑋(𝑡) = 𝑗|𝑋(0) = 𝑖) = lim 𝑤 (𝑡) = 𝑤 →



wobei 𝑤 ≥0 𝑤 =1 ∈

→ Stationӓre Verteilung Falls die zeit-stetige Markov-Kette mit einer Grenzverteilung ergodisch ist und für ∀𝑗 ∈ 𝑆 die folgenden Gleichgewichtsgleichungen 403

Teil 3 Kapitel 3 Markov-Ketten

𝑣𝑤 =

𝑞 𝑤 , ∈

gelten, wobei 𝑞

=𝑣 𝑤

ist, heißt die Grenzverteilung 𝑤 = (𝑤 , 𝑤 , … , 𝑤 ) stationӓre Verteilung. 3.2.3. Geburts-und Todesprozess Eine zeit-stetige Markov-Kette mit Zustandsraum 𝑆 = 0,1, 2, … heißt Geburtsund Todesprozess, falls jeder Zustand 𝑖 > 0 beim nächsten Übergang entweder nach Zustand 𝑖 + 1 (Geburt) oder nach Zustand 𝑖 − 1 (Tod) springen kann. Man definiert für Zustand 𝑖 > 0 die folgenden Zufallsvariablen hinsichtlich der Zeit bis zur nächsten Geburt oder zum nächsten Tod: 𝑋 : Zeit bis zur nӓchsten Geburt im Zustand 𝑖 wobei 𝑋 ~exp(𝜆 ) 𝜆 : Geburtsrate im Zustand 𝑖 bzw. 𝑌 : Zeit bis zum nӓchsten Tod im Zustand 𝑖 wobei 𝑌 ~exp(𝜇 ) 𝜇 : Todesrate im Zustand 𝑖 Daher folgt 𝑍 : Zeit bis zur nächsten Geburt oder zum nächsten Tod im Zustand 𝑖 wobei 𝑍 ~exp(𝑣 ) 𝑣 =𝜆 +𝜇

404

Teil 3 Kapitel 3 Markov-Ketten

Nach den weiteren Eigenschaften der Exponentialverteilung folgen 𝑊(𝑋 < 𝑌 ) = 𝑤 ,

=

𝜆 𝜆 +𝜇

𝑊(𝑌 < 𝑋 ) = 𝑤 ,

=

𝜇 𝜆 +𝜇

Das Übergangsdiagramm für einen Geburts-und Todesprozess mit unendlichem Zustandsraum 𝑆 = 0,1,2, … ist in Abbildung 3.7 ersichtlich. Bei einem Übergangsdiagramm für den Geburts- und Todesprozess kann jede Kante mit der zugehörigen Geburtsrate bzw. Todesrate beschriftet werden.

Abbildung 3.7: Übergangsdiagramm für den Geburts- und Todesprozess Die 𝑄-Matrix für den Geburts- und Todesprozess mit 𝑆 = 0,1, 2, … lässt sich darstellen als −𝜆 ⎡ 𝜇 ⎢ 𝑄=⎢ 0 ⎢ … ⎣ …

𝜆 … 0 −(𝜆 + 𝜇 ) 𝜆 0 𝜇 −(𝜆 + 𝜇 ) 𝜆 … … … … … …

… ⎤ … ⎥ …⎥ …⎥ …⎦

Bemerkung: Ein Geburts-und Todesprozess heißt ein reiner Geburtsprozess, falls für alle 𝑖 ∈ 𝑆, 𝜇 = 0 gilt. Analog heißt ein Geburts-und Todesprozess ein reiner Todesprozess, falls für alle 𝑖 ∈ 𝑆, 𝜆 = 0 gilt. Beispiel 1: Ermitteln Sie Kolmogorovs Rückwӓrts-Differentialgleichungen für den Geburts- und Todesprozess.

405

Teil 3 Kapitel 3 Markov-Ketten

Lösung 1 Für 𝑖 > 0; 𝑡 ≥ 0 gilt 𝑤 (𝑡) = =𝑞, =𝜆 𝑤

𝑤 ,

𝑞 𝑤 (𝑡) − 𝑣 𝑤 (𝑡) ∀𝑖, 𝑗 ∈ 𝑆

,

(𝑡) + 𝑞 ,

(𝑡) + 𝜇 𝑤

𝑤 ,

,

(𝑡) − 𝑣 𝑤 (𝑡)

(𝑡) − (𝜆 + 𝜇 ) 𝑤 (𝑡)

Für 𝑖 = 0; 𝑡 ≥ 0 gilt 𝑤 (𝑡) = 𝜆 𝑤 (𝑡) − 𝜆 𝑤 (𝑡) = 𝜆 ( 𝑤 (𝑡) − 𝑤 (𝑡)) Bemerkung: Weil für alle 𝑖 ≥ 0 gilt 𝑣 =𝜆 +𝜇 folgen für 𝑖 > 0: 𝜆 𝑞, =𝑣 𝑤, = (𝜆 + 𝜇 ) =𝜆 𝜆 +𝜇 𝜇 𝑞, =𝑣 𝑤, = (𝜆 + 𝜇 ) =𝜇 𝜆 +𝜇 und für 𝑖 = 0: 𝑣 =𝜆 +𝜇 =𝜆 𝑞 =𝑣 𝑤 =𝜆 𝑤 =𝜆 𝑞 =0 𝑗≠1 Beispiel 2: Beschreiben Sie einen homogenen Poisson-Prozess als einen reinen Geburtsprozess. Lösung 2 Ein homogener Poisson-Prozess 𝑁(𝑡); 𝑡 ≥ 0 mit der Rate 𝜆 kann als reiner Geburtsprozess 𝑋(𝑡); 𝑡 ≥ 0 mit dem Zustandsraum 𝑆 = 0, 1, 2, 3, … bezeichnet werden, wobei 𝑋(𝑡) die (kumulierte) Anzahl der Ereignisse zum Zeitpunkt 𝑡 beschreibt. Die Haltezeit für den Zustand 𝑖 ist gegeben durch 𝑍 ~exp(𝑣 ) wobei für alle 𝑖 ≥ 0 𝑣 =𝜆 +𝜇 =𝜆 +0=𝜆 =𝜆 die konstante Geburtsrate (Ankunftsrate) ist. 406

Teil 3 Kapitel 3 Markov-Ketten

Es gilt stets 𝑤,

=1

𝑤, =0

𝑖≥0

𝑗 ≠𝑖+1

Das Übergangsdiagramm für den homogenen Poisson-Prozess 𝑁(𝑡); 𝑡 ≥ 0 mit der Rate 𝜆 kann wie in Abbildung 3.8 dargestellt werden.

Abbildung 3.8: Übergangsdiagramm für den Poisson-Prozess als reiner Geburtsprozess Die zugehörige 𝑄-Matrix ist gegeben durch −𝜆 ⎡0 ⎢ 𝑄=⎢ 0 ⎢… ⎣…

𝜆 −𝜆 0 … …

… 𝜆 −𝜆 … …

0 0 𝜆 … …

… …⎤ ⎥ …⎥ …⎥ …⎦

3.2.4. Geburts-und-Todesprozess-Warteschlangenmodelle Geburts-und-Todesprozess-Warteschlangenmodelle sind spezielle Warteschlangenmodelle, die als Geburts- und Todesprozesse modelliert sind. Die Geburt beschreibt die Ankuft eines Kunden im Warteschlangensystem und der Tod beschreibt das Verlassen eines Kunden nach der Bedienung (Abfertigung). Im Folgenden werden 𝑀/𝑀/1-Warteschlangenmodelle betrachtet, bei denen 𝑀 für die Markov-Eigenschaft steht. → 𝑴/𝑴/𝟏-Warteschlangenmodelle mit unendlicher Warteschlange 𝑀/𝑀/1-Warteschlangenmodelle sind die Warteschlangensysteme mit einem einzigen Bediener, bei denen die Ankünfte durch homogenen Poisson-Prozess mit der Ankunftsrate 𝜆 und die Bedienzeit durch die Exponentialverteilung mit der Bedienrate 𝜇 modelliert sind. Ein 𝑀/𝑀/1-Warteschlangenmodell mit unendlicher Warteschlange ist durch das in Abbildung 3.9 bebilderte Übergangsdiagramm charakterisiert. 407

Teil 3 Kapitel 3 Markov-Ketten

Abbildung 3.9: Übergangsdiagramm für das 𝑀/𝑀/1-Warteschlangenmodell mit unendlicher Warteschlange Tabelle 3.5 gibt die Gleichgewichtsgleichungen des 𝑀/𝑀/1-Warteschlangenmodells mit unendlicher Warteschlange an. Tabelle 3.5: Gleichgewichtsgleichungen des 𝑀/𝑀/1-Warteschlangenmodells mit unendlicher Warteschlange Zustand 0 1 2 𝑖≥1

Gleichgewichtsgleichungen 𝜆𝑤 = 𝜇𝑤 (𝜆 + 𝜇)𝑤 = 𝜆𝑤 + 𝜇𝑤 (𝜆 + 𝜇)𝑤 = 𝜆𝑤 + 𝜇𝑤 (𝜆 + 𝜇)𝑤 = 𝜆𝑤 + 𝜇𝑤

Aus den Gleichgewichtsgleichungen folgen 𝑤 =

𝜆 𝑤 𝜇

𝑤 =

𝜆 𝜇

𝑤

… 𝑤 =

𝜆 𝜇

𝑤

für 𝑖 ≥ 0

Weil die Warteschlange unendlich ist, gilt 𝑤 =1

408

Teil 3 Kapitel 3 Markov-Ketten

Weiterhin folgt 𝜆 𝜇

𝑤 =1

und 𝜆 𝜇

𝑤

=1

Wegen der Summe der unendlichen geometrischen Reihe gilt 1

𝑤

1−

𝜆 𝜇

=1

Daher ist die stationäre Wahrscheinlichkeit, dass sich kein Kunde im System befindet, gegeben durch 𝜆 𝜆 𝑤 = 1 − für < 1 𝜇 𝜇 Außerdem ist die stationäre Wahrscheinlichkeit, dass sich 𝑖 Kunden im System befinden 𝑤 =

𝜆 𝜇

𝑤 =

𝜆 𝜇

1−

𝜆 𝜇

für 𝑖 ≥ 0 ,

𝜆