Lexikon der Statistik: Nachschlagewerk für Anwender [Reprint 2018 ed.] 9783486793161, 9783486241792

Das Lexikon der Statistik ist ein ideales Nachschlagewerk für jeden Anwender der Statistik. Übrigens ist der Verfasser e

199 61 26MB

German Pages 363 [372] Year 1997

Report DMCA / Copyright

DOWNLOAD FILE

Polecaj historie

Lexikon der Statistik: Nachschlagewerk für Anwender [Reprint 2018 ed.]
 9783486793161, 9783486241792

Table of contents :
Vorwort zur zweiten Auflage
A
B
C
D
E
F
G
H
I
K
L
M
N
O
P
Q
R
S
T
U
V
W
X
Y
Z
Literaturverzeichnis
Tab. 1 : Verteilungsfunktion der Standard - Normalverteilung
Tab. 2: Quantile der Standard - Normalverteilung
Tab. 3: Quantile der t - Verteilung mit n Freiheitsgraden
Tab. 4: Quantile der Chi - Quadrat - Verteilung mit n Freiheitsgraden
Tab. 5: Quantile der F - Verteilung (n1 = Zähler-; n2 = Nennergrad)
Tab. 6: Quantile beim Kolmogorow – Smirnow – Einstichprobentest
Tab. 7: Quantile beim Kolmogorow – Smirnow – Zweistichproben - Test
Tab. 8: Quantile für den Wilcoxon – Vorzeichen – Rangtest
Tab. 9: Quantile für den Wilcoxon – Rangsummen – Test
Tab. 10: Quantile der Studentisierten Spannweite (Tukey-Test)
Tab. 11: Kritische Grenzen cm n – 1 ; 1 – a für den Cochran-Test

Citation preview

Werke von Prof. Dr. Karl Bosch im Oldenbourg Verlag: Bosch, Mathematik für Wirtschaftswissenschaftler, 11. Auflage Bosch, Übungs- und Arbeitsbuch - Mathematik für Ökonomen, 5. Auflage Bosch, Brückenkurs Mathematik, 6. Auflage Bosch, Finanzmathematik, 4. Auflage Bosch, Mathematik-Taschenbuch, 4. Auflage Bosch • Jensen, Großes Lehrbuch Mathematik für Ökonomen Bosch • Jensen, Klausurtraining Mathematik für Ökonomen, 2. Auflage Bosch, Großes Lehrbuch der Statistik Bosch, Grundzüge der Statistik - Einführung mit Übungen Bosch, Statistik für Nichtstatistiker, 2. Auflage Bosch, Klausurtraining Statistik, 2. Auflage Bosch, Lexikon der Statistik, 2. Auflage Bosch, Statistik-Taschenbuch, 2. Auflage

Lexikon der Statistik Nachschlagewerk für Anwender

Von

Dr. Karl Bosch o. Professor für angewandte Mathematik und Statistik

2., gründlich überarbeitete und stark erweiterte Auflage

R. Oldenbourg Verlag München Wien

Die 1. Auflage ist unter dem Titel "Formelsammlung Statistik" erschienen.

Die Deutsche Bibliothek - CIP-Einheitsaufnahme Bosch, Karl: Lexikon der Statistik / von Karl Bosch. - 2., gänzl. Überarb. und stark erw. Aufl. - Mümchen ; Wien : Oldenbourg, 1997 ISBN 3-486-24179-6 NE: HST

© 1997 R. Oldenbourg Verlag Rosenheimer Straße 145, D-81671 München Telefon: (089) 45051-0, Internet: http://www.oldenbourg.de Das Werk einschließlich aller Abbildungen ist urheberrechtlich geschützt. Jede Verwertung außerhalb der Grenzen des Urheberrechtsgesetzes ist ohne Zustimmung des Verlages unzulässig und strafbar. Das gilt insbesondere für Vervielfältigungen, Übersetzungen, Mikroverfilmungen und die Einspeicherung und Bearbeitung in elektronischen Systemen. Gedruckt auf säure- und chlorfreiem Papier Gesamtherstellung: R. Oldenbourg Graphische Betriebe GmbH, München ISBN 3-486-24179-6

Vorwort zur zweiten Auflage Die zweite Auflage dieses Buches wurde in einer leserfreundlicheren Textverarbeitung dargestellt. Dabei wurde eine gründliche Überarbeitung und eine starke Erweiterung der ersten Auflage vorgenommen. Beispiele dafür sind die Korrelations- und Regressionsrechnung sowie die Varianzanalyse. Wie in der ersten Auflage sind die einzelnen Begriffe alphabetisch angeordnet. Neben den einzelnen Definitionen der Begriffe sind Eigenschaften und Formeln angegeben, die von den Benutzerinnen und Benutzern sofort angewandt werden können. Bei den einzelnen Tests werden zunächst die dazu benötigten Voraussetzungen angeben, danach die Testgröße und deren Verteilung. Anschließend sind meistens die Ablehnungsbereiche für den zweiseitigen und die beiden einseitigen Tests in einer Tabelle aufgef ü h r t . Oft sind auch Querverweise zu finden. Die Stoffauswahl wurde so vorgenommen, daß dem Anwender wertvolle Formeln für die statistischen Entscheidungen bereitgestellt werden. Auf theoretische Darstellungen aus der Maßtheorie wurde weitestgehend verzichtet. Damit dürfte das Buch ein wertvolles Nachschlagewerk für die Praxis und eine nützliche Formels a m m l u n g für Studierende aller Fachrichtungen sein. Für die sorgfältige Durchsicht des Manuskripts möchte ich mich bei Herrn Dr. Martin Bohner recht herzlich bedanken. Für Hinweise und Verbesserungsvorschläge bin ich jeder Leserin und jedem Leser dankbar.

S t u t t g a r t - H o h e n h e i m , im J a n u a r 1997

Karl Bosch

A Abhängigkeit: keit), n e n n t m a n

Größen, welche n i c h t u n a b h ä n g i g sind (s. U n a b h ä n g i g abhängig.

Abhängigkeitsmaß s. Korrelationskoeffizienten, Rangkorrelationskoeffizienten sowie B e s t i m m t h e i t s m a ß Ablehnungsbereich (kritischer Bereich): Beim Test der N u l l h y p o t h e se II 0 gegen die A l t e r n a t i v e I I j heißt K Ablehnungsbereich (kritischer Bereich) , w e n n m i t der T e s t g r ö ß e T folgende T e s t e n t s c h e i d u n g getroffen wird: T e K =>• H 0 ablehnen (s. P a r a m e t e r t e s t (4.) sowie S i g n i f i k a n z t e s t ) . absolute Häufigkeit:

Ein Z u f a l l s e x p e r i m e n t werde n - m a l d u r c h g e f ü h r t . Die A n z a h l derjenigen Versuche, bei denen ein Ereignis A e i n t r i t t , heißt absolute Häufigkeit von A; sie wird m i t h n ( A ) bezeichnet.

additive Lageparameter (Lokationsparameter)

s. Skalierungspro-

b l e m e (1. L o k a t i o n s m o d e l l e )

äquidistante Klasseneinteilung: äquidisiant,

Eine Klasseneinteilung n e n n t wenn alle Klassen gleich breit sind.

Alternative

man

s. P a r a m e t e r t e s t (2.)

Ambiversionen Anfangsmoment

s. R a n g k o r r e l a t i o n s k o e f f i z i e n t von Kendall (2.) s. M o m e n t e

Anordnungsmöglichkeiten Anpassungstest

s. K o m b i n a t o r i k (2.)

s. C h i - Q u a d r a t - T e s t s (2.) sowie K o l m o g o r o w - S m i r -

n o w - T e s t s (1.)

Ansari-Bradley-Test

s. S k a l i e r u n g s p r o b l e m e (2.2.2.3.)

Arcussinus- Verteilung

2

A r c u s s i n u s - V e r t e i l u n g : Eine stetige Zufallsvariable X heißt -verteilt, wenn sie folgende Dichte besitzt:

f(x) =

^x(l-x) 0

arcussmus-

für 0 < x < 1; sonst.

Die Verteilungsfunktion lautet F ( x ) = |aresin -flC für 0 < x < 1; F ( x ) = 0 für x < 0 ; Erwartungswert: E ( X ) = i ;

Varianz:

F(x) = 1 für x > 1.

Var(X)=^.

a r i t h m e t i s c h e s Mittel einer Stichprobe x = ( x j , x 2 , . . •, x n ) : _ x

i n = n Exi i= l

heißt das arithmetische Mittel (oder der Mittelwert) der Stichprobe x (s. Mittelwerte einer Stichprobe 2.). Typische Eigenschaft: n E xi = n x • i—1 a s y m p t o t i s c h e E i g e n s c h a f t : Eine Folge X n , n = l , 2 , . . . besitzt eine asymptotische Eigenschaft, wenn diese Eigenschaft für den Grenzwert n—>oo erfüllt ist. a s y m p t o t i s c h e r w a x t u n g s t r e u : Eine Folge von Testfunktionen T n , n = 1 , 2 , . . . heißt asymptotisch erwartungstreu für den Parameter d, wenn für die Erwartungswerte gilt lim E ( T n ) = -d n—>oo (s. Schätzfunktionen 3.)

a s y m p t o t i s c h n o r m a l verteilt: Eine Folge X n , n = 1, 2 , . . . von Zufallsvariablen heißt asymptotisch normalvertcilt, wenn die Folge der Verteilungsfunktionen der standardisierten Zufallsvariablen gegen die Verteilungsfunktion $ der Standard-Normalverteilung konvergiert, falls also gilt lim P ( ^


0 linksschief. Viertes zentrales Moment: — E ( ( X — /¿) 4 ) = 3 n 2 p 2 (1 — p ) 2 + np(l — p ) ( l —6p + 6 p 2 ) ; Exzeß:

E((X—/i)4) „ " ' - 3 = 4 a

1 - 6p(l — p) ¿p r^ np(l-p)

0 für n-+oo .

2. Approximation der Binomialverteilung durch andere Verteilungen: 2.1. Approximation durch die Poisson - Verteilung: Für große n und kleine p gilt die Näherung ( £ ) p

k

( l - p )

n

-

k

« - ^ - e -

n

P für k = 0 , 1 , 2 , 3 , . . . , n .

Diese Näherung ist für n > 50 und p < 0,1 recht brauchbar. 2.2 Approximation durch die Normalverteilung: 2.2.1. Globale Approximation nach Moivre - Laplace: X — np Für die Standardisierungen X n = . = binomialverteilter Zufallsvariabler mit 0 < p < 1 gilt -J np(l - P) b 2 1 f - — 2 lim P ( a < X * < b) = e dx für jedes a < b. n—»oo

"N 2tt J a

Für große n (Faustregel: np(l — p) > 9) ist folgende Näherung recht brauchbar b 2 e

X

2

dx

für a < b .

14

Binomialverteilung

Im Falle n p ( l — p) > 9 ist für beliebige k l t k 2 mit 0 < k j < k 2 < n mit der Stetigkeitskorrektur folgende Näherung recht brauchbar: • np + 0,5

P(ki < X n < k 2 )

n

P(l



p)

' k j - np — 0,5 ^np(l-p)

}

k j = k 2 = k ergibt:

2.2.2. Lokale Approximation: Für n p ( l — p) > 9 ist folgende Näherung recht brauchbar: (k — np)

(£)pk(i-p)r

-k

i \ 27rnp(l - p )

2np(l - p )

für k = 0 , 1 , . . . , n.

3. Darstellung der Verteilungsfunktion einer Binomialverteilung durch die Verteilungsfunktion einer F - Verteilung: Die Zufallsvariable X sei binomialverteilt mit den Parametern n und p. Dann besitzt die Verteilungsfunktion von X für jedes r = 0 , 1 , . . . , n die Darstellung P(X < r) = ±

( J ) • p" • ( l - p ) » " "< = 1 -

F ( a ( r + 1}, 2(n

_ r)) ( f f i •

.

Dabei ist F die Verteilungsfunktion der F-Verteilung mit den Freiheitsgraden (2(r + 1), 2(n - r)) (s. F-Verteilung). 4. Test auf Binomialverteilung: Der Wertevorrat der Zufallsvariablen X sei W(X) = {0 , 1 , . . . , n}. Die Nullhypothese H 0 : X ist binomialverteilt mit einem (evtl. unbekannten) Parameter p kann mit dem C h i - Q u a d r a t - A n p a s s u n g s t e s t (s. Qhi - Quadrat - Tests 2.) getestet werden. Zur Testdurchführung werden N Versuchsserien vom jeweiligen Umfang n benutzt, wobei jeweils die absolute Häufigkeit des Ereignisses A in jeder der N Serien vom Umfang n als Realisierung von X festgestellt wird: Werte von X

0

1

2

n

abs. Häufigkeit

h0

hl

h2

hn

Summe = N

Falls der Parameter p nicht vorgegeben ist, wird er als Maximum - Likelihood - Schätzung durch die relative Häufigkeit des Ereignisses A in der gesamten Serie geschätzt durch Ei-Hi P = i—1 n-N

(alle N Serien bestehen aus n - N Einzelversuchen).

Binomialverteilungen

15

Mit diesem geschätzten W e r t berechnet m a n die hypothetischen scheinlichkeiten p

k

=g)p

k

(l-p)

n

"

k

Wahr-

für k = 0 , 1 , . . . , n.

Falls der hypothetische P a r a m e t e r p vorgegeben ist, wird hier p = p gesetzt. I m Falle n p k < 5 bei m e h r als 20 % der W e r t e müssen Klassen zus a m m e n g e f a ß t werden. Falls r die Anzahl dieser neuen z u s a m m e n g e f a ß t e n Klassen ist, besitzt die C h i - Q u a d r a t - verteilte Testgröße r —2 Freiheitsgrade, w e n n p geschätzt wurde. Bei vorgegebenem (nicht geschätztem) W e r t p sind es r — 1 Freiheitsgrade.

Binomialverteilungen — Test auf Gleichheit der Wahrscheinlichkeiten (Parameter) mehrerer Binomialverteilungen: Gegeben seien m u n a b h ä n g i g e Binomialverteilungen mit den Wahrscheinl i c h k e i t s p a r a m e t e r n pj für j = 1 , 2 , . . . , m . Zum T e s t der Nullhypothese HQ : p j = p 2 = . . . = p m

(Gleichheit der m P a r a m e t e r )

gegen die Alternative H j : pj ^ p k f ü r m i n d e s t e n s ein P a a r j ^ k k a n n d e r C h i - Q u a d r a t - H o m o g e n i t ä t s t e s t (s. Chi - Q u a d r a t - T e s t s 3.) ben u t z t werden. Bezüglich der Zufallsvariablen Xj wird das Zufallsexperim e n t n — m a l d u r c h g e f ü h r t . Das interessierende Ereignis A sei J A - m a l eingetreten u n d (nj — JA) - m a l nicht. Xj ist d a m i t b ( n j , pj) - verteilt. Der U n a b hängigkeitstest k a n n u n m i t t e l b a r m i t h j j = u- u n d h j 2 = n j ~ F j durchgef ü h r t werden. Die T e s t g r ö ß e ist Chi - Q u a d r a t - v e r t e i l t m i t m — 1 Freiheitsgraden.

bi - partieller Korrelationskoeffizient

s. Korrelationskoeffizienten

(1.5. u n d 2.5.) Bradley-Test

s. Skalierungsprobleme (2.2.2.3. Ansari - Bradley - T e s t )

Bravais, Korrelationskoeffizient nach Pearson - Bravais s. Korrelationskoeffizienten bei Stichproben (1.1.) B u f f o n s c h e s N a d e l p r o b l e m : Mit d e m Nadelproblem von Buffon k a n n ein Näherungswert f ü r die Zahl 7T b e s t i m m t werden. In einer Ebene seien parallele Geraden gezogen, die voneinander den k o n s t a n t e n A b s t a n d d h a b e n . Auf diese E b e n e werde "zufällig" eine Nadel der Länge / < d geworfen. Die Wahrscheinlichkeit, d a ß die geworfene Nadel eine der parallelen G e r a d e n schneidet, ist

p=

&

F ü h r t m a n das E x p e r i m e n t n - m a l durch (n groß), so gilt f ü r die relative

Cauchy - Schwarzsche Ungleichung

16

Häufigkeit r n derjenigen Versuche, bei denen die Nadel eine der Geraden schneidet, nach dem Bernoullischen Gesetz der großen Zahlen die Näherung 2/ P ~ 7rd' 2/ Hieraus erhält man den Näherungsert 7r « g y •

Camp - Meidell -Gaußsche Ungleichungen s. Ungleichungen (2.4.) Cantellische Ungleichung s. Ungleichungen (2.3.) Cauchy - Schwaxzsche Ungleichung: 1. Cauchy - Schwarzsche Ungleichung bei Summen: Für beliebige reelle Zahlen aj, bi e IR für i = 1, 2 , . . . , n gilt /

n

(£ai v i=l

n „o n n \,2 ) < Eaf-Eb?; ' i=l i=l J

b l

n

n

< E I ajl-lbil < E a f i—1 i—1

i=l

EK

\ i—1

2

2. Cauchy - Schwarzsche Ungleichung bei Integralen: Für beliebige integrierbare Funktionen f und g gilt Jf(x)g(x)dx

< J | f(x) I • I g(x) I dx 00

e

1 t X

V0, h > 0 An den Stetigkeitsstellen von F stimmt F(x) mit dem Funktionswert F(x) überein. An einer Sprungstelle x ist F(x) das arithmetische Mittel zwischen dem Funktionswert F(x) und dem Funktionswert der Treppenstufe links

Chi - Quadrat (%2 ) - Tests: Als C h i - Q u a d r a t - T e s t kann prinzipiell jeder Test bezeichnet werden, dessen Testgröße wenigstens näherungsweise (asymptotisch) Chi-Quadrat-verteilt ist. Beim Test der Varianz (s. Varianz 5.1. und 5.2.) handelt es sich im G r u n d e genommen u m einen solchen Test. Üblicherweise bezeichnet m a n diesen Test jedoch nicht als x 2 - T e s t . Es sollen hier einige typische C h i - Q u a d r a t - T e s t s zusammengestellt werden. 1. Chi - Quadrat - Test der Wahrscheinlichkeiten einer vollständigen Ereignisdisjunktion: Es sei A 1 , A 2 , . . . , A r eine vollständige Ereignisdisjunktion, also paarweise unvereinbare Ereignisse, von denen bei jeder Versuchsdurchführung genau eines eintreten muß. Mit hypothetisch vorgegebenen Wahrscheinlichkeiten Pl,P2.---)Pr m i t r P; > 0 für alle i und Pi = 1 i—1 soll folgende Nullhypothese getestet werden: H0:

P(A1) =

Pl

;

P ( A 2 ) = p 2 ; . . . ; P (A r ) = p r .

Als Alternative erhält m a n H j : P(Aj) pj für mindestens ein j e { 1 ,2 , . . . , r}. r Wegen J ^ P ; = 1 sind tatsächlich nur r — 1 Wahrscheinlichkeiten zu testen. i=l Zum Test werden in einer unabhängigen Versuchsserie vom Umfang n die absoluten Häufigkeiten h; = h n (A ; ) der Ereignisse A ; bestimmt. _ ^ ( h i - n P i ) 2 _ i ^ h 2 *ber np: n Z-i Pi i=l i=l ist nach Pearson Realisierung einer Testfunktion, die unter der Nullhypothese H 0 asymptotisch C h i - Q u a d r a t - v e r t e i l t ist mit r — 1 Freiheitsgraden. Die Approximation durch die asymptotische C h i - Q u a d r a t - Verteilung darf höchstens 20% kleiner als 5, aber alle mindestens gleich 1 sind. Sollte diese Bedingung nicht erfüllt sein, so müssen von den Ereignissen Aj manche

Chi-Quadrat-Tests

21

zusammengefaßt werden, bis die Approximationsbedingung für die zusammengefaßte Ereignisdisjunktion erfüllt ist. Andernfalls muß der Stichprobenumfang n vergrößert werden. Mit dem (1 — a ) - Q u a n t i l - i — Q der C h i - Q u a d r a t - V e r t e i l u n g mit r — 1 Freiheitsgraden erhält man zum Signifikanzniveau a die Testentscheidung: Im Falle Xb er > - l • l - a w i r d die Nullhypothese H 0 abgelehnt. Stetigkeitskorrektur nach Yates: Beim C h i - Q u a d r a t - T e s t wird eine diskrete Verteilung durch eine stetige approximiert. Daher wird im allgemeinen das Quantil der exakten Verteilung der Testfunktion von dem der ChiQuadrat-Verteilung abweichen. Falls man beim Test der diskreten Verteilung die Testgröße aus der stetigen Verteilung ohne Korrektur berechnet, besteht die Tendenz, die Nullhypothese zu oft abzulehnen. Aus diesem Grund sollte die Testgröße ähnlich wie bei der Approximation der Binomialverteilung durch eine Normalverteilung korrigiert werden. Nach Yates wird bei der korrigierten Testgröße Ohi-"Pii-D2 Xber / v np: i—1 die C h i - Q u a d r a t - A p p r o x i m a t i o n verbessert. Diese Korrektur muß nur bei einem Freiheitsgrad, also für r = 2 benutzt werden. Bei mehr als einem Freiheitsgrad kann auf die Korrektur verzichtet werden. 2. Chi - Quadrat - Anpassungstest für eine beliebige Verteilung: Es sei F die unbekannte Verteilungsfunktion einer Zufallsvariablen X. Mit dem Chi - Quadrat - Anpassungstest können zwei Arten von Hypothesen getestet werden: a) H 0 : F(x) = F 0 (x) für alle x 6 R ; H 1 : F(x) F 0 (X) für mindestens ein x e IR ; dabei ist F 0 eine vorgegebene Verteilungsfunktion. b) H 0 :

F gehört zu einer Klasse von Verteilungsfunktionen, die durch m (unbekannte) Parameter ö j , 0 2 , . . . , 0 m eindeutig bestimmt ist. H j : F gehört nicht zu dieser Klasse.

In a) muß die Verteilungsfunktion F 0 (x) vollständig vorgegeben sein, z. B. daß die Zufallsvariable X normalverteilt ist mit dem Erwartungswert fj, = 100 und der Varianz er2 = 5, also N(100; 5)-verteilt ist. In b) kann z.B. getestet werden, ob eine Zufallsvariable Poisson - verteilt, binomialverteilt, exponentialverteilt oder normal verteilt ist. Dabei müssen die Parameter nicht vorgegeben werden. Sie werden aus der Stichprobe geschätzt. Testdurchführung: 1.) Die x-Achse (Wertemenge) wird in r > 2 disjunkte Intervalle eingeteilt: A j = ( — oo; Zj ]; A 2 = (z 1 ; z 2 ]; . . . ; A r _ x = (z r _ 2 ; z r _ 1 ]; A r = (z r _ j ; + oo) mit zx < z 2 < . . . < z r _ x .

22

Chi - Q u a d r a t - T e s t s

2.) Aus einer Stichprobe vom Umfang n werden die Klassenhäufigkeiten h j , also die Anzahl der Stichprobenwerte, die in der Klasse A ; liegen, bes t i m m t f ü r i = 1, 2 , . . . , r. 3.) F ü r die Zufallsvariable X mit der Verteilungsfunktion F 0 werden die hypothetischen Klassenwahrscheinlichkeiten P (X e A ; ) = pj berechnet. Im Fall b) hängen diese Klassenwahrscheinlichkeiten von den m unbekannten P a r a m e t e r n ab, also p ; 0 2 , . . . , $ m ) . D a m i t berechnet m a n die Pearsonsche T e s t f u n k t i o n _^(hi-np

2

*ber —

np:

i=i

1

)

2

_

~

n

i=i

Pi

4.) Parameterschätzung: Im Falle b) hängt die Pearsonsche Testfunktion 2 Xber

=

f kl

[hi-npi(g1,fl2,...,gj]2 np^,^,...,^)

! r n ^

H

hf 0ve2,...,ej

n

von den m unbekannten Parametern ab. Für die Schätzung gibt es zwei Möglichkeiten: a ) Die P a r a m e t e r werden nach dem Maximum- Likelihood- Prinzip so geschätzt, daß die Wahrscheinlichkeit für die beobachteten Klassenhäufigkeiten m a x i m a l ist. ß) Nach der Minimum - Chi - Quadrat - Methode werden die Parameter so b e s t i m m t , daß die von den Parametern abhängige Testgröße minimal ist. Die geschätzten Parameterwerte werden in die Pearsonsche Testfunktion eingesetzt. Die Klasseneinteilung m u ß so vorgenommen werden, daß für mindestens 80% der Klassen die erwarteten Klassenhäufigkeiten np ; mindestens gleich 5 und die restlichen mindestens gleich 1 sind. Andernfalls unt müssen Klassen zusammengefaßt werden. Die Testgröße Xb er e r der Nullhypothese H 0 Realisierung einer Zufallsvariablen, die näherungsweise Chi - Q u a d r a t - verteilt ist mit r — 1 — m Freiheitsgraden. Dabei ist m die Anzahl der geschätzten Parameter. Falls kein Parameter geschätzt wurde, m u ß m = 0 gesetzt werden. 5.) Mit d e m (1 — a ) - Quantil X r _ m _ i - i _ a der Chi - Q u a d r a t - Verteilung mit r - m - 1 Freiheitsgraden erhält m a n zum Signifikanzniveau a die Testentscheidung: Im Falle x l e T > X r -

m

-l;i-a

w i r d d i e Nu

l l h y p o t h e s e H 0 abgelehnt.

Hinweis zur Testentscheidung: Durch die Klasseneinteilung wird in Wirklichkeit nur getestet, ob die Zufallsvariable X die mit Hilfe der hypothetischen Verteilungsfunktion F 0 berechneten Klassenwahrscheinlichkeiten besitzt. Falls m a n zu einer Ablehnung dieser Klassenwahrscheinlichkeiten k o m m t , kann gleichzeitig die Nullhypothese H 0 abgelehnt werden. Wäre nämlich die Nullhypothese richtig, so müßten auch die daraus berechneten Klassenwahrscheinlichkeiten korrekt sein. Falls die Nullhypothese nicht abgelehnt werden kann, t r i t t neben der Irrtumswahrscheinlichkeit 2. Art ein

Chi-Quadrat-Tests

23

zusätzliches Problem auf. Falls die berechneten Klassenwahrscheinlichkeiten richtig wären, müßte die Nullhypothese noch keineswegs erfüllt sein. Die tatsächliche Verteilungsfunktion könnte j a von F 0 abweichen und trotzdem diese Klassenwahrscheinlichkeiten besitzen. Dieses zusätzliche Problem kann vernachlässigt werden, wenn die Klasseneinteilung sehr fein gewählt wird. Dazu benötigt man allerdings einen sehr großen Stichprobenumfang n. Geeignete Wahl der Anzahl der Klassen: Wegen der Klassenbesetzung sollte m a n nicht zu viele Klassen wählen. Andererseits ist bei einer kleinen Klassenzahl der Informationsverlust, der durch die Klasseneinteilung entsteht, groß. Es hat sich als brauchbar erwiesen, die Klassenanzahl ungefähr •^rT zu wählen. 3. Chi - Quadrat - Unabhängigkeitstest: Im Unabhängigkeitstest wird folgende Nullhypothese H 0 gegen die Alternative Hj^ getestet: H 0 : die beiden Zufallsvariablen X und Y sind unabhängig; H j : die beiden Zufallsvariablen X und Y sind nicht unabhängig. Zur Testdurchführung wird der Wertebereich der Zufallsvariablen X in m disjunkte Klassen S j , S 2 , . . . , S m und der Wertevorrat von Y in r disjunkte Klassen G j , G 2 , • • •, G r eingeteilt. Aus einer zweidimensionalen Stichprobe ( x , y) = ( ( x j , y : ) , (x 2 , y 2 ) , . . . , (x n , y n ) ) vom Umfang n wird für alle Klassenpaare (Sj, G k ) die Anzahl der Stichprobenpaare bestimmt, welche in dieser Klasse liegen. Diese absolute Häufigkeit bezeichnen wir mit h j k . Die absoluten Häufigkeiten werden in einer m x r-Kontingenztafel übersichtlich dargestellt. Y X

Gi

G2

.

.

Gk

Si

hn

h



.

hlk h

S2

h

21

Sj

h

il

Sm

Kl

hm2 •



h

h-i

h. 2

.

h. k

Summe

h

12 22

"



hj2

.

• h j k



2k

mk

.. • •

• "•

..



Gr lr

hr

h2r

h2.

h



h



h

.. •

Summe

ir

h

mr

K

K

i-

h.. = n

Die Klasseneinteilung muß so vorgenommen werden, daß von den Klassenhäufigkeiten höchstens 20% kleiner als 5, aber alle mindestens gleich 1

24

Chi - Quadrat - Tests

sind. Andernfalls müssen Klassen zusammengefaßt oder der Stichprobenumfang n vergrößert werden. r m hj- = £ h j k ; h . k = £ h j k k=l j=i sind die Randhäufigkeiten. Unter der Nullhypothese H 0 ist

j = i k=i

J

k

k=i

J

k

/

Realisierung einer Zufallsvariablen, die näherungsweise Chi - Quadrat - verteilt ist mit (m — l ) ( r - l ) Freiheitsgraden. Mit dem (1 — a ) - Quantil dieser C h i - Q u a d r a t - V e r t e i l u n g erhält man zum Signifikanzniveau c* die Testentscheidung: Im Falle Xber > X( m - i)(r - 1) • l - a Nullhypothese H 0 der Unabhängigkeit der beiden Zufallsvariablen X und Y abgelehnt. Vierfeldertafel (Test auf Unabhängigkeit zweier Ereignisse): Für m = r = 2 gibt es insgesamt vier gemeinsame Häufigkeiten, die in einer Vierfeldertafel eingetragen werden. Mit einer solchen Vierfeldertafel kann z. B. getestet werden, ob die beiden Ereignisse A und B unabhängig sind. A B B

h

Spaltensummen

21

h-i

A

Zeilensummen

h

12

hi-

h

22

h2.

h. 2

h.. = n

Dann läßt sich die Testgröße darstellen in der einfacheren Form 2 _ *ber-

n

(hnh22 ~ hi2h2i)2 h^.h.jh^

Da die Testgröße der Chi - Quadrat - Verteilung nur einen Freiheitsgrad besitzt, sollte die Stetigkeitskorrektur nach Yates berücksichtigt werden. n < 2 0 : Hier sollte der C h i - Q u a d r a t - T e s t mit Hilfe der Vierfeldertafel nicht benutzt werden. In diesem Fall kann der Fisher - Y a t e s - T e s t (s. F i s h e r - Y a t e s - T e s t ) benutzt werden. 20 < n < 200: In diesem Bereich eignet sich die nach Yates korrigierte Teststatistik 2 2 Xbcr =

n

(| hllh22 -

P

h

Ä

12h2lht)

'

n > 200: Hier kann auf die Yates-Korrektur verzichtet werden.

Chi-Quadrat-Tests

25

4. Chi - Quadrat - Homogenitätstest — Test auf Gleichheit mehrerer Verteilungen: Gegeben sind m Zufallsvariablen X j , X 2 , . . . , X m mit identischem Wertebereich W . Dann soll folgende Nullhypothese getestet werden: H 0 : die m Zufallsvariablen besitzen die gleiche Verteilung . Die Alternative H j lautet: Mindestens zwei dieser m Zufallsvariablen haben verschiedene Verteilungen. Der gemeinsame Wertebereich W wird in r disjunkte Klassen G j , G 2 , • • •, G r eingeteilt. Mit dieser Klasseneinteilung wird getestet, ob alle m Zufallsvariablen die gleichen Klassenwahrscheinlichkeiten besitzen, also die Nullhypothese H* : p j k = P(Xj e G k ) =

Pk

für j = 1, 2 , . . . , m ; k = 1 , 2 , . . . , r.

Aus H 0 folgt HQ , mit HQ kann also auch H 0 abgelehnt werden. Zur Testd u r c h f ü h r u n g wird bezüglich jeder der m Zufallsvariablen eine einfache Stichprobe gezogen. Dabei können die Stichprobenumfänge nj verschieden sein. Die Anzahl der Werte der j-ten Stichprobe, welche in der Klasse G k liegen, bezeichnen wir mit h j k . Von den Klassenhäufigkeiten hj k dürfen höchstens 20 % kleiner als 5 sein, alle müssen aber mindestens 1 sein. Andernfalls sind Klassen zusammenzufassen oder Stichprobenumfänge zu vergrößern. Daraus erhält m a n die Randhäufigkeiten r h;. = h j k = nj (Stichprobenumfang) für j = l , 2 , . . . , m ; k=i m h . k = £ h j k für k = 1 , 2 , . . . , r . j=l

Unter der Nullhypothese II 0 ist mit hj. = nj n h

1

Xber =

V^ V P

j=l

k=l

h: V jk

j 'k " J i T h ^k

=

n

J

Realisierung einer Zufallsvariablen, die näherungsweise Chi - Quadrat - verteilt ist mit (r — 1) • (m — 1) Freiheitsgraden. Mit dem (1 — a) - Quantil dieser C h i - Q u a d r a t - V e r t e i l u n g erhält m a n zum Signifikanzniveau a die Testentscheidung: Im Falle Xber > x 2(m L _—i U r -- i 1) W; -1 a- , wird die Nullhypo l)(r these H 0 abgelehnt. Bei diesem Test wird die gleiche Testfunktion wie beim Unabhängigkeitstest aus 3. benutzt. Im G r u n d e genommen handelt es sich jeweils u m den gleichen Test. Test auf Gleichheit zweier Wahrscheinlichkeiten (Vierfeldertafel): Es soll getestet werden, ob in zwei verschiedenen Grundgesamtheiten das Ereignis A die gleiche Wahrscheinlichkeit besitzt. Zu diesem Test benutzt m a n die Vierfeldertafel

26

Chi - Quadrat - Verteilung

A

A

1. G r u n d g e s a m t h e i t

hu

h

12

n

l

2. G r u n d g e s a m t h e i t

h

h

22

n

2

Spaltensummen

h-i

21

Zeilensummen

h.2

n = h..

Der Test wird d a n n wie in 3. (Vierfeldertafel) d u r c h g e f ü h r t .

Chi - Quadrat ( x 2 ) - Verteilung: Es seien Z1, Z2 ,..., Z m unabhängige, identisch N ( 0 ; 1 ) - v e r t e i l t e Zufallsvariablen. D a n n heißt die Zufallsvariable

xl=

zl + zl + ... + z2m

Chi-Quadrat-verteilt, die Dichte Sm( x ) =

kurz y?-verteilt 0 l

{ 2

2

r

m_j s

2

_x e

2

mit m Freiheitsgraden.

Sie besitzt

für x < 0 , für x > 0 .

m

D a b e i ist T die G a m m a - F u n k t i o n (s. G a m m a - F u n k t i o n ) . Die Dichte g m ist schief. q - Q u a n t i l e der C h i - Q u a d r a t - V e r t e i l u n g m i t m Freiheitsgraden bezeichnet m a n m i t xL-q

mit

P(X™ = m —2 Schiefe:

. ^

;

Exzeß:

1;

Var^-j^p

2

fürm>2;

n

2

Mit

=

m

erhält m a n

aus

der Tschebyschewschen

Ungleichung (s. Ungleichungen 2.2.) für jedes e > 0 2

2

P ( l w " l | >£) 30 ist folgende Näherung recht brauchbar: 2 p/v2 < \ _ p / X m ~ m < x - m \ frfx-irA . damit erhält man Näherungswerte für die q - Q u a n t i l e X2

m ;q

~ m + •>] 2m • z ; z ist das q - Quantil der N(0 ; 1) - Verteilung.

Clopper: s. Konfidenzintervalle (2. nach Copper-Pearson) C o c h r a n - T e s t : Der Cochran-Test ist ein Test auf Gleichheit der Varianzen von m unabhängigen Normalverteilungen. Zur Testdurchführung benötigt man die Balanciertheit, d. h. alle m Stichprobenumfänge müssen gleich sein (s. Varianzen 2.2.).

D D a t e n m a t r i x s. Stichprobe (4. p-dimensionale)

David-Hardley-Pearson-Ausreißertest

s. Ausreißertests (2.)

deduktive Statistik s. beschreibende Statistik

deterministische Zufallsvariable: Bei einer deterministischen Zufallsvariablen besteht der Wertebereich nur aus einen einzigen Wert c mit P(X = c) = 1. Dann gilt E(X) = c; Var(X) = 0 .

Dichte s. stetige Zufallsvariablen Dichteschätzung (Kernschätzung): Es sei X eine stetige Zufallsvariable mit der Dichte f. Zur Schätzung von f benutzt man die Kernschätzung. Es sei k eine beschränkte symmetrische Dichte mit k( — x) = k(x) für alle x und

lim | x | • k(x) = 0 .

Ferner sei a n , n = 1, 2 , . . . eine Nullfolge mit lim a n = 0 ;

n—*oo

lim n • a n = oo.

n—»oo

Aus einer einfachen Stichprobe den Schätzwert

( x j , x 2 , . . . , x n ) bezüglich X erhält man

f n ( x ) ist Realisierung einer Schätzfunktion. Diese konvergiert für n—»oo mit Wahrscheinlichkeit Eins gegen f(x), falls f an der Stelle x stetig ist und gegen i(f(x + 0 ) - f ( x - 0 ) ) , wenn der rechtsseitige Grenzwert f(x + 0) und der linksseitige Grenzwert f(x — 0) existieren.

Differenz zweier Ereignisse: Die Differenz A \ B = A n B der beiden Ereignisse A und B tritt ein, wenn A, aber nicht B eintritt. Differenz zweier Zufallsvariabler: Die durch Z(w) = X(w) - Y(w) definierte Zufallsvariable Z = X — Y der Differenz Falle der Existenz die Kenngrößen:

von X und Y besitzt im

disjunkte Ereignisse

29

E(Z) = E(X) - E ( Y ) ; Var(X - Y) = Var(X) + Var(Y) - 2 Cov(X , Y) (Kovarianz). Falls ( X , Y ) stetig ist mit der gemeinsamen Dichte f ( x , y ) , besitzt die Differenz Z = X — Y die Dichte oo h(z) = J f(x, x — z ) d x . — oo d i s j u n k t e E r e i g n i s s e : Zwei Ereignisse A und B heißen disjunkt (unvereinbar), wenn sie beide nicht gleichzeitig eintreten können. Dann muß A fl B = 0 (unmögliches Ereignis) sein.

diskrete ZufaUsvariablen: 1. Eindimensionale diskrete Zufallsvariablen: Eine Zufallsvariable X heißt diskret, wenn ihr Wertevorrat entweder endlich oder abzählbar unendlich ist. Wertevorrat: Der Wertevorrat von X sei W(X) = {xj, i = 1 , 2 , . . . } . Falls W nur aus m W e r t e n besteht (endlicher Wertevorrat), läuft in X; der Index i von 1 bis m, sonst von 1 bis oo. Wahrscheinlichkeiten: p i = P(X = x i ) = P ( { ^ 6 f i | X ( W ) = x i } ) , i = l , 2 1 . . . m i t P; > 0 für alle i und E

= 1.

{(x ; , pj = P(X = x ; )), Xj e W } nennt m a n die ( Wahrscheinlichkeits-) lung von X.

Vertei-

Funktion einer diskreten Zufallsvariablen: Eine beliebige reellwertige Funktion y = g (x) bilde den Wertebereich W der Zufallsvariablen X ab auf W = {y-p y 2 ,•••}• Dann ensteht mit p ( y = yj) = die Verteilung Y = g(X).

£ P ( x = x;) 1: g(x5) = yj {(yj ,P(Y = y j ) ) , j = 1, 2 , . . . } der diskreten Zufallsvariablen

Lineare Transformation: g(x) = a + bx, a , b e R , b ^ 0 ergibt die lineare Transformation Y = a + bX mit der Verteilung {(a + b x ; ; P(X = X;))}. b = 0 ergibt die entartete Zufallsvariable Y = a. 2. Zweidimensionale diskrete Zufallsvariablen (Zufallsvektoren): Jedes Versuchsergebnis u i f i werde durch zwei diskrete Zufallsvariablen X und Y abgebildet auf X(w) und Y(w). Jedem ui wird somit ein reelles Zahlenpaar (X(w), Y ( u ) ) e R 2 zugeordnet. Die Wertebereiche der beiden Zufallsvariablen seien

30

diskrete Zufallsvariablen

w

= { X 1 . x 2 . x3 > • • •};

x

W

A u f das W e r t e p a a r ( x ; , y j ) , x ; e W

= { y x , y 2 , y 3 > • • •}•

Y

, yj e W

x

wird das Ereignis

Y

A y = {w I X ( w ) = X;, Y ( w ) = y j } = {cu I X ( W ) = x j n {u, I Y(u>) =

Yj}

abgebildet. M i t Pij

= P ( X = x i , Y = yj) =

P(Aij)

erhält man Wahrscheinlichkeiten für die Paare ( x ; , y j ) m i t £ i

£ j

Pij =

£ i

£ j

P(X = x;.Y =

y j

)=l.

G e m e i n s a m e V e r t e i l u n g und Randverteilungen: {((xit yj),

= P ( X = X;, Y =

Pij

heißt die gemeinsame Verteilung

Yj

)) ,

¥

w

x

, y

von ( X , Y ) .

Verteilung

j £

W

Y

}

Stellt man die gemeinsame

in einer Kontingenztafel dar, so erhält man über die Zeilen-

bzw. Spaltensummen die Verteilungen der beiden einzelnen Zufallsvariablen X und Y , die sogenannten Randverteilungen P(X = x ; ) =

£ P ( X j

= x;,Y =

P(Y = y j ) = £ P ( X = x

i

, Y

yj

) =

= yj) =

yi

y2



X1

Pn

P12

• • •Pij

X2

P21

P22



.

P2j

X;

Pil

Pi2







Summe

P-i

P-2

" ..



EPij

P.j

=

Pj.;

=

P-j.

Summe •••

Pl-

...

p2.

Pi-

... Zwei

p.. = 1 diskrete Zufallsvariablen

X

wenn für alle möglichen W e r t e p a a r e ( x j , y j ) gilt

Py = P ( X = X j , Y = Bei unabhängigen

P i j

^

Unabhängige diskrete Zufallsvariablen: und Y sind unabhängig,

£ j

mit

yj

) = P ( X = X ; ) • P ( Y = y j ) = Pi- • P -j .

Zufallsvariablen

ist die gemeinsame Verteilung

durch

die beiden Randverteilungen über die P r o d u k t b i l d u n g b e s t i m m t . Funktion einer zweidimensionalen diskreten Zufallsvariablen: Die Zufallsvariable X b z w . Y besitze den W e r t e v o r r a t W beliebige

reellwertige

Dann wird auf W

x

Funktion

x W

Y

durch

in den

x

bzw. W Y - Es sei g ( x , y ) eine

beiden

Veränderlichen

x und

y.

Dreieckverteilung

31

Z( W ) = g ( X ( W ) , Y ( o O ) eine eindimensionale diskrete Zufallsvariable Z = g(X, Y) erklärt. Ihr Wertebereich W(Z) = {z 1 , z 2 , z 3 , . . . } besteht aus allen möglichen Funktionswerten z k = g(x;, yj) mit den Wahrscheinlichkeiten P(Z = z k ) =

£

P(X = X;, Y = yj)

I.j:g(xi,yj) = zk

(s. Erwartungswert l b ) sowie 2b)). 3. Mehrdimensionale diskrete Zufallsvariablen (Zufallsvektoren): Jedes Versuchsergebnis ui wird abgebildet auf ( X j ( w ) , . . . , X n (w)) e R n . Der Wertevorrat ist dabei endlich oder höchstens abzählbar unendlich. Für alle möglichen Realisierungen gilt dabei = x 1 , X 2 = x 2 , . . . , X n = x n ) = p ( n { w e i 2 | X( W ) =

Xi}).

Durch alle möglichen Wertekombinationen ist die gemeinsame Verteilung der n Zufallsvariablen bestimmt.

Dreiecksprüfung s. Triangel - Test Dreieckverteilung (Simpson-Verteilung): Die Zufallsvariable X besitzt in [ a ; b ] ,

a < b e i n e Dreieckverteilung

(Simpson-

Verteilung),

wenn

sie folgende Dichte hat: 4(x - a) (b-a)2 f(x) =

4(x — b) (b-a) 0

2

für für

a -< x -< Ä

a + b

a + b 2

< x < b;

sonst.

Charakteristische Funktion: it b

-4 (b — a) t

p 2

0

—,

i t a. 2

)

für t ^ 0; für t = 0.

a + b Die Symmetriestelle s = —^— gleichzeitig Erwartungswert, Median und Modus. Die Varianz lautet (b~a)2 Var(X) 24 Falls die Zufallsvariablen X und Y unabhängig und in [ a ; b ] gleichmäßig verteilt sind (s. gleichmäßige Verteilung 2.), so besitzt die Summe X + Y eine Dreieckverteilung in [ 2 a ; 2b].

32

Duo-Test

Duo-Test (paarweise Unterschiedsprüfung): Bei einem sensorischen Test (s. sensorische Tests) werden einem oder mehreren Prüfern n Probenpaare vorgelegt. Jedes einzelne Paar kann aus einer Kontroll- und einer Analyseprobe bestehen. Dabei unterscheidet sich die Analyseprobe bezüglich des zu bestimmenden Merkmals von der Kontrollprobe. Beide Proben können aber auch von demselben Gut in unterschiedlicher Konzentration sein. Der Prüfer soll bei jedem Probenpaar sensorisch den Unterschied feststellen, d. h. er muß sich für eine der beiden Proben entscheiden. Es sei p die Wahrscheinlichkeit, mit der ein Prüfer die richtige Entscheidung trifft. Falls nur geraten wird, ist p = Im Falle p > | überwiegt auf Dauer die richtige Identifikation. Getestet werden soll folgende Nullhypothese H 0 gegen die Alternative H j : H0:p = i ;

H

i :

p>i.

Als Testgröße benutzt man die Anzahl X derjenigen von den n Proben, die richtig identifiziert werden. Unter der Nullhypothese H 0 ist X binomialverteilt mit den Parametern n und p = Dann gilt P(X=k|H0)=(j)-^ E(X|H0)=|;

für

k = 0,l

n ;

Var(X|H0)=J.

H 0 kann höchstens dann zugunsten von H j abgelehnt werden, wenn mehr als Tj der Proben richtig identifiziert werden. Die Verteilung von X ist symmetrisch zu s = 0. Daher gilt P ( X > n - k J H 0 ) = P(X 36 kann folgende Näherung benutzt werden: P(X n — k Q wird H 0 abgelehnt, H j also angenommen.

Durchschnitt: Der Durchschnitt A fl B der beiden Ereignisse A und B tritt genau dann ein, wenn A und B gleichzeitig eintreten.

E effiziente (wirksamste) Schätzfunktion: Eine für den P a r a m e t e r d erwartungstreue Schätzfunktion heißt effizient (wirksamst), wenn es keine andere erwartungstreue Schätzfunktion mit einer kleineren Varianz gibt (s. Schätzfunktionen 6.).

Effizienz s. Schätzfunktionen (6.)

einfache Stichprobe: Eine Zufallsstichprobe ( x x , x 2 , . . . , x n ) heißt einfach, wenn die entsprechenden Zufallsvariablen X 1 , X 2 , . . . , X unabhängig sind und die gleiche Verteilung besitzen, also identisch verteilt sind (s. Stichproben 2.). eingipflige Verteilung s. unimodale Verteilung Einpunktverteilung s. entartete Verteilung Einseitiger Test: Unter einem einseitigen Test versteht m a n einen Test der Gestalt Nullhypothese H 0 Alternative H j

Elementarereigms: Unter einem Elementarereignis

(Atom) E versteht m a n ein Ereignis, das nicht mehr in zwei vom unmöglichen Ereignis 0 verschiedene Ereignisse zerlegt werden kann. Im allgemeinen enthält ein Elementarereignis nur ein einziges Element (s. Ereignisse).

empirische Größen: Werte und Funktionen, die aus Stichproben berechnet werden, erhalten oft den Zusatz empirisch, um Verwechslungen m i t den entsprechenden Begriffen der Zufallsvariablen auszuschließen.

entartete Verteilung (Einpunktverteilung): Falls der Wertebereich einer Zufallsvariablen X nur aus einem einzigen Werte x 0 besteht, nennt m a n die Verteilung entartet X ist eine deterministische (konstante) Zufallsvariable m i t P(X = x 0 ) = 1; E(X) = XQ ; Var(X) = 0 .

34

Ereignisdisjunktion

Ereignisdisjunktion (vollständige, totale): n

{ A j , A 2 , . . . , A n } mit

ü = _U A j ;

Aj n A k = 0 für i ^ k und P ( A j ) > 0 für i = 1, 2 , . . . , n

heißt eine vollständige

(totale)

Ereignisdisjunktion.

Ereignisse: Ein ( z u f ä l l i g e s ) Ereignis ist eine Z u s a m m e n f a s s u n g von bes t i m m t e n Versuchsergebnissen, also eine Teilmenge der Ergebnismenge Q. M a n sagt: Bei einer V e r s u c h s d u r c h f ü h r u n g tritt das Ereignis A ein (oder ist d a s Ereignis A eingetreten), wenn d a s Ergebnis u> des Zufallsexperim e n t s ein E l e m e n t von A ist, also f ü r w e A. I m Falle ui £ A ist d a s Ereignis A nicht eingetreten. Spezielle Ereignisse: Ein Elementarereignis (Atom) E = {w 0 } e n t h ä l t n u r ein einziges E l e m e n t . Das sichere Ereignis Cl e n t h ä l t alle möglichen Versuchsergebnisse u n d t r i t t daher i m m e r ein. Die leere Menge 0 e n t h ä l t kein Versuchsergebnis u n d k a n n somit nie eintreten. Aus diesem G r u n d n e n n t m a n 0 das unmögliche Ereignis. D a s Ereignis A fl B = A B ( A und B ; der Durchschnitt) t r i t t ein, wenn sowohl A als a u c h B, also beide gleichzeitig eintreten. Das Ereignis A U B (A oder B, die Vereinigung) tritt ein, wenn mindestens eines der beiden Ereignisse A u n d B e i n t r i t t . Das Ereignis A (A nicht oder das Komplement von A) t r i t t ein, wenn A nicht eintritt. Das Ereignis A \ B (A, aber nicht B, die Differenz von A und B) t r i t t ein, wenn A, aber nicht B e i n t r i t t . D a m i t gilt A \ B = A H B . Zwei Ereignisse A u n d B heißen unvereinbar (disjunkt oder elementfremd), wenn sie beide nicht gleichzeitig eintreten k ö n n e n . D a n n m u ß A PI B = 0 sein. Für unvereinbare Ereignisse schreibt m a n a u c h A + B anstelle von A U B, also A + B = A U B, falls A n B = 0 . I m Falle A C B t r i t t m i t d e m Ereignis A auch d a s Ereignis B ein. D a n n sagt m a n das Ereignis A zieht das Ereignis B nach sich. A C B ist genau d a n n erfüllt, wenn A fl B = A und A U B = B ist.

Erlang - Verteilung: Die Zufallsvariablen X j , X 2 , . . . , X n seien u n a b h ä n gig u n d alle m i t d e m gleichen P a r a m e t e r A exponentialverteilt (s. ExponentialVerteilung). D a n n heißt die S u m m e

X= £xk k=i

Erlang-verteilt mit den Parametern n und A. Die Zufallsvariablen X k besitzen die charakteristischen Funktionen ^k(t)=X3Tt

für k =

1

'2'---'n-

W e g e n der U n a b h ä n g i g k e i t ist die charakteristische Funktion der S u m m e X gleich d e m P r o d u k t der einzelnen charakteristischen F u n k t i o n e n

erwartungstreue Schätzfunktion

35

«'HÄH'-iP Dies ist die charakteristische Funktion der G a m m a - V e r t e i l u n g mit ganzzahligem n (s. G a m m a - V e r t e i l u n g ) . Mit T(n) = (n — 1)! erhält m a n die Dichte der Erlang-Verteilung ( = Gamma-Verteilung) für x < 0 ;

0 n

'

A

. ,,, x ° - i e ~ ( n - 1)!

A x

für x > 0 ; A , n > 0 .

Die Verteilungsfunktion lautet 0

für x < 0 ,

F„(x) = +

+

für x > 0 .

+

Aus den Kennngrößen der Exponentialverteilung erhält m a n wegen der Unabhängigkeit der S u m m a n d e n die Kenngrößen der Erlang-Verteilung: Erwartungswert:

E(X) = ^ ;

Varianz: Var(X) = ^

.

Für A = | ist die E r l a n g - V e r t e i l u n g eine C h i - Q u a d r a t - V e r t e i l u n g mit 2n Freiheitsgraden (s. C h i - Q u a d r a t - V e r t e i l u n g ) .

erwartungstreue Schätzfunktion: Eine Schätzfunktion T heißt

erwar-

tungstreu für den P a r a m e t e r ii>, wenn ihr Erwartungswert gleich d ist, also für E ( T ) = d.

Erwart ungswert 1. Erwartungswert einer diskreten Zufallsvariablen: Eine diskrete Zufallsvariable X mit der Verteilung {(x ; , p ; = P(X = x ; ) ) , i = 1, 2 ,...} besitzt den Erwartungswert E(X) = / i = E x j P ( X = x;), i

falls E | x i | P ( X = Xj) < o o . i

Die Bedingung der absoluten Konvergenz

E | X j | P ( X = Xj) < oo ist bei i Zufallsvariablen mit endlichem Wertevorrat immer erfüllt. Bei Zufallsvariablen mit abzählbar unendlich vielen Werten gewährleistet diese Bedingung, daß in 5 3 x j P ( X = x ; ) bei jeder beliebigen Summationsreiheni folge immer der gleiche S u m m e n w e r t entsteht. Bei einfachen Zufallsstichproben liegt für große n das Stichprobenmittel x meistens in der Nähe des Erwartungswertes fi, es gilt also x « E(X).

Erwartungswert

36

Funktionssätze: a) Erwartungswert einer Funktion einer diskreten Zufallsvariablen: Es sei Y = g(X) eine Funktion der diskreten Zufallsvariablen X mit der Verteilung {((x;, P(X = X;)), i = 1 , 2 , . . . } (s. diskrete Zufallsvariablen). Dann besitzt g(X) den Erwartungswert E(g(X)) = £ g( X i ) P(X = X;), falls £ I g( Xi ) I P(X = X;) < oo. i i b) Erwartungswert einer Funktion zweier diskreter Zufallsvariabler: Die zweidimensionale diskrete Zufallsvariable (X, Y) besitze die Verteilung { ( ( x i , y j ) , p i j = P(X = x i , Y = y j )), i = l , 2 . . . ; j = 1 , 2 . . . } . Dann besitzt die Zufallsvariable g ( X , Y) den Erwartungswert E ( g ( x , Y)) = E g(*i. yj) Pij. falls l.j

£ I g(*i, yj) I p^ < ° ° • l.j

2. Erwartungswert einer stetigen Zufalls variablen: Der Erwartungswert einer stetigen Zufallsvariablen X mit der Dichte f lautet +oo +oo /z = E(X) = J x f ( x ) dx, falls J | x | f(x) dx < oo. — oo — oo +oo Die Bedingung der absoluten Konvergenz J | x | f(x) dx < oo hat zur Fol+oo - oo ge, daß in J x f ( x ) d x bei jeder beliebigen Integrationsreihenfolge immer — oo der gleiche Wert entsteht. Funktionssätze: a) Erwartungswert einer Funktion einer stetigen Zufallsvariablen: Es sei Y = g(X) eine Funktion der stetigen Zufallsvariablen X mit der Dichte f(x) (s. stetige Zufallsvariablen). Dann besitzt g(X) den Erwartungswert oo oo E ( g ( X ) ) = J g ( x ) f ( x ) d x , falls J | g ( x ) | f ( x ) d x < 0 0 . — oo — oo b) Erwartungswert einer Funktion zweier stetiger Zufallsvariabler: Die zweidimensionale stetige Zufallsvariable ( X , Y) besitze die gemeinsame Dichte f ( x , y ) . Ferner sei g ( X , Y ) eine Zufallsvariable (s. stetige Zufallsvariablen 2.). Dann besitzt g ( X , Y ) den Erwartungswert E(g(X,Y))= falls

oo oo J J g(x,y)f(x,y)dxdy, — oo — OO

oo oo J J | g ( x , y ) | f ( x , y ) d x d y < oo. — oo — oo

c) Erwartungswert einer Funktion einer n-dimensionalen stetigen Zufallsvariablen. Die n-dimensionale stetige Zufallsvariable ( X j , X 2 , . . . , X n ) besitze die gemeinsame Dichte f(x x , x 2 , . . . , x n ). Ferner sei g ( X j , X 2 , . . . , X n ) eine Zufallsvariable (s. stetige Zufallsvariablen 3.). Dann besitzt die Zufallsvariable g ( X j , X 2 , . . . , X n ) den Erwartungswert

Erwartungswert

37

OO OO E ( g ( X 1 , . . . , X n ) ) = J ...J g ( x 1 , . . . , x n ) f ( x 1 , . . . , x n ) d x 1 . . . d x n — OO — OO OO falls

OO

J ••• J

|g(xx , . . . , Xn) I f ( x j , . . . , Xn) d x x . . . d x n < o o .

- OO — OO

d) Erwartungswert einer Funktion einer n-dimensionalen diskreten Zufallsv a r i a b l e n . Die n-dimensionale diskrete Zufallsvariable ( X j , X 2 , . . . , X n ) besitze die gemeinsamen Wahrscheinlichkeiten P ( X j = X j , X2 = x2 , . . . , X n = x n ) . g ( X j , X 2 , . . . , X n ) ist eine diskrete Zufallsvariable. Sie besitzt den Erwartungswert E(g(X1,...,Xn))= E - - - E g(X:,...,X; ) P ( X 1 = X ¡ in 1 1 falls

: 'l

|g(x¡

; 'n

1

Xn =

Xi

),

x¡ ) | P ( X j = X: , . . . , X n = Xj ) < oo. n 1 n

3. Erwartungswert einer beliebigen Zufallsvariablen: Bei einer beliebigen Zufallsvariablen X m i t der Verteilungsfunktion F wird im Falle der Existenz der E r w a r t u n g s w e r t mit Hilfe des Lebesgue- StieltjesIntegrals berechnet durch °° OO E(X)= lim Y ^ k h • [ F ( k h ) — F((k — l ) h ) ] = J x d F ( x ) , h—• 0 , h > 0 k = — oo falls oo °° J|x|dF(x)= lim Y l I k h | - [F(k h) - F((k - 1) h)] < 0 0 . - °°

h—• 0 , h > 0

k = — 00

F u n k t i o n s s a t z : Es sei g ( X ) eine Zufallsvariable. Sie besitzt den Erwartungswert

00 E(g(X)) = J g(x) dF(x), — 00

00 J | g(x) | d F ( x ) < 00.

falls

— 00

4. Allgemeine Eigenschaften des Erwartungswertes: Bei einer s y m m e t r i s c h verteilten Zufallsvariablen m i t existierendem Erwartungswert gilt E(X) = s ;

s = Symmetriestelle.

Ferner gilt E(a + bX) = a + bE(X)

füra,beR

(Linearität);

E(Xx + X2 + ... + Xn) = E(Xj) + E(X2) + ... + E(Xn) ( A d d i t i v i t ä t ) , falls die E r w a r t u n g s w e r t e existieren; E(Xx • X2 • . . . • Xn) = E(Xj) • E ( X 2 ) . . . . . E(Xn), falls die E r w a r t u n g s w e r t e existieren und die Zufallsvariablen X j , . . . , X n paarweise unkorreliert ( u n a b h ä n g i g ) sind.

Erwartungswert

38

5. Schätzung eines Erwartungswertes p: Es sei (X x , X 2 , . . . , X n ) eine einfache (unabhängige) Zufallsstichprobe mit E(Xj) = fi und Var(Xj) = er2 für i = 1, 2 , . . . , n. Dann besitzt die Zufallsvariable des Stichprobenmittels X die Kenngrößen j n ¡=1 E(X) = //;



Var(X)=^-;

lim Var(X) = 0. n—>oo X ist also eine erwartungstreue und konsistente Schätzfunktion für ß. 6. Konfidenzintervalle und Tests für einen Erwartungswert: Voraussetzung: Entweder ist X normalverteilt oder der Stichprobenumfang n so groß, daß X nach dem zentralen Grenzwertsatz näherungsweise normalverteilt ist (Faustregel: n > 30). 6.1. Verfahren bei bekannter Varianz Var(X) = Bei bekannter Varianz Var(X) = ctq ist die Standardisierung des Mittelwertes X einer einfachen Zufallsstichprobe vom Umfang n X — /j •>nr Standard - normalverteilt, wenn fi der tatsächliche Erwartungswert von X ist. Mit den Quantilen der Standard - Normalverteilung erhält man Konfidenzintervalle zum Niveau 7 = 1 — a : zweiseitige:

einseitige:

1

_—' I 2 in

x — z.

' ^

— QL ' I 2 P

1

\

ao

« ' T T ' '

+ 0 0

)

(

an

;

+

Die Länge des zweiseitigen Konfidenzintervalls Mo

c)

M > Mo

M < Mo

Ablehnungsbereich von H 0 l*-M0l 0

* - Mo C0

1 ^ • N n >z 1 -N n

^ >

* - f*0 1— ^ (Tq ' n
ßo

s

c)

/i > Vq

V < Po

X-/in

->ln >



tn-l;!-!

> tn - 1 ; 1 - o |

Erwartungswerte: 1. Konfidenzintervalle und Tests der Differenz zweier Erwartungswerte: Es seien X und Y zwei Zufallsvariablen mit den Erwartungswerten und fj,y. Dann besitzt die Differenz X — Y den Erwartungswert

40

Erwartungswerte

Entweder müssen beide Zufallsvariablen normalverteilt oder die Stichprobenumfänge so groß sein (Faustregel: mindestens 30), daß die Approximation durch die Normalverteilung benutzt werden darf. Im ersten Fall erhält m a n exakte, im zweiten Fall asymptotisch richtige Aussagen. 1.1. Verfahren bei verbundenen Stichproben (zweidimensionalen Zufallsvariablen): In der zweidimensionalen (verbundenen) Stichprobe (x,y) = ( ( x 1 , y 1 ) , (x2,y2),..., (xn,yn)) seien die Stichprobenpaare ( x j , yj) unabhängige Realisierungen der zweidimensionalen Zufallsvariablen ( X , Y ) . Benutzt werden die Kenngrößen der Stichprobe d = ( d j , d 2 d n ) der Differenzen d ; = x ; — y ; : —





i

Mittelwert : d = x — y ;

1

t^-v

Varianz s^ = —^-p ¿2 (^i n _ 1 i=l Dann ist die Stichprobenfunktion |

\ n

X-Y

— (fly^ ö

~

_



9

d) •

f l y )

d

(wenigstens näherungsweise) t-verteilt mit n —1 Freiheitsgraden, falls — ^y tatsächliche Differenz der Erwartungswerte ist. Mit den Quantilen der t - V e r t e i l u n g mit n — 1 Freiheitsgraden erhält m a n Konfidenzintervalle zum Niveau 7 = 1 — a : zweiseitige:

einseitige: Zum Signifikanzniveau a erhält m a n für den sogenannten t -Test die Testentscheidungen (dabei sei c eine vorgegebene Konstante): Nullhypothese H 0 a

)

Px ~

b

)

A

» Y

-

c

c

c

Alternative H j

+

Mx -

>

c

Mx ~ ^Y


c

MX - ^Y
t „

c

\

x +

„y_2;l_|

t

ber > t n vx+ n y - 2 ; 1 - a

t

ber < ~~ ^nx + ny - 2 ; 1 - a

nxn

( n x + n - 2)

1.2.3. Unbekannte und verschiedene Varianzen (Behrens-Fisher-Problem): Falls die Varianzen cr\ und Oy der beiden Zufallsvariablen X und Y nicht bekannt und auch nicht gleich sind, ist auch bei normalverteilten Zufallsvariablen das Intervallschätzproblem für die Differenz der beiden Erwartungswerte nur näherungsweise lösbar. Die Stichprobenfunktion

Erwartungswerte

s2 x

43

s^ y

,

A ist näherungsweise t - v e r t e i l t , falls /i x — d i e

tatsächliche Differenz der

Erwartungswerte ist. Die Anzahl v der Freiheitsgrade beträgt ungefähr

"x 1 n - 1

+

+

ny

n

,

y

1 - l \

n

y

(dieser W e r t muß ganzzahlig abgerundet werden). M i t den Quantilen der t - V e r t e i l u n g mit v (s. o . ) Freiheitsgraden erhält man näherungsweise Konfidenzintervalle

zum Niveau j = 1 — a:

zweiseitige:

x - y - t

" ü - f ^

— — n^ +' n„

x - y

+ t

v ; 1 . 2- A \



+

-

einseitige:

'y -

oo; x — y + t „ .

;1 - a•^

t *

c2

s2

nx +

ny

Zum Signifikanzniveau a lauten für den sogenannten t - T e s t die Testentscheidungen (c ist eine vorgegebene Konstante): Nullhypothese H 0 a)

Hx-Py

=

c

b

)

A'x



^Y — c

c

)

^x



Vy — c

mit

Alternative H j ^X ~ ^ Y ^

c

Ablehnungsbereich von H 0 Itberl >

l ber

A'X - ^ Y


^ber
0,

x > 0 ; A > 0.

für x < 0 ; x

für

x > 0.

Charakteristische Funktion: V )

(

t ) =

_ A _

k-tes Moment:

E(Xk) = ^ k!

Erwartungswert: Varianz:

mit

V(k)(0)=

^ = i A*

k

- E ( X

k

) ;

— 1, 1 •2 , 3 , . . . ; für lk=

E ( X ) = j^; Median: p = ^ ^

Var(X) =

; Modalwert: i> = 0 ;

; Schiefe = 2 ; Exzeß = 6. A Die Exponentialverteilung ist die einzige stetige Verteilung mit der Eigenschaft P ( X < x + h | X > x ) = P ( X < h)

46

Exponentialverteilung

für alle x , h > 0. Falls die Zufallsvariable X die Lebensdauer eines Geräts oder eines Maschinenteils beschreibt, besagt diese Eigenschaft folgendes: Beim Erreichen eines jeden Alters x ist die bedingte Verteilung der weiteren Lebensdauer gleich der Verteilung der Lebensdauer eines neuen Geräts. Die bedingte Verteilung der weiteren Lebensdauer ist dann unabhängig vom erreichten Alter. Bei solchen Geräten findet somit keine Alterung s t a t t . Man sagt auch, die Exponentialverteilung besitzt kein Gedächtnis. 2. Summen unabhängiger mit dem gleichen Parameter A exponentialverteilter Zufallsvariabler: n

S u m m e n E Xj unabhängiger mit dem gleichen P a r a m e t e r A exponentiali=l verteilter Zufallsvariabler sind Erlang-verteilt (s. Erlang-Verteilung). Für A = ^ ist die S u m m e Chi - Quadrat - verteilt mit 2n Freiheitsgraden. Daher n

ist bei beliebigem A die Zufallsvariable 2 A ^ X j C h i - Q u a d r a t - v e r t e i l t mit i=l

2n Freiheitsgraden (s. C h i - Q u a d r a t - V e r t e i l u n g ) . 3. Konfidenzintervalle und Tests für den Parameter A: Die aus einer einfachen Stichprobe vom Umfang n berechnete Testfunktion 2A E X; = 2A n X i=l ist nach 2. Chi - Q u a d r a t - verteilt mit 2n Freiheitsgraden, falls A der t a t sächliche P a r a m e t e r ist. Mit den Quantilen der Chi - Q u a d r a t - Verteilung mit 2n Freiheitsgraden erhält m a n Konfidenzintervalle für A zum Niveau l - a : X

zweiseitige:

2 n ;

f

2£Xi i=l

X2 a 2n ; 1 2 n i—1

x2 einseitige:

5

2£x,

2n ; a n

2Ex;

X

2 2n ; 1 -

a

2Exi i= l

Zum Signifikanzniveau a lauten die Testentscheidungen: Nullhypothese H 0

Alternative H-j

Ablehnungsbereich von H 0

a)

A = A0

A^A0

b)

A < A0

A>A0

2A0 E ^ i=l

c)

A > A0

A < A0

2^o

2A0£xi \ 2 i=l 2n;| 2 n ; l - |

E i= l

x


a

i > X2

,

2n ; 1 — a

47

Exzeß

4. Test auf Exponentialverteilung: Beim Test auf eine bestimmte Exponentialverteilung mit fest vorgegebenem Parameter A0 kann der Kolmogorow- Smirnow-Test (s. Kolmogorow- Smirnow- Tests 1.) oder der Chi-Quadrat- Anpassungstest (s. ChiQ u a d r a t - Tests 2.) benutzt werden. Mit der Verteilungsfunktion P(T0

kann die Klasseneinteilung so vorgenommen werden, daß alle r Klassenwahrscheinlichkeiten gleich i sind. Dabei ist r so zu wählen, daß die erwarteten Klassenhäufigkeiten n • ^ mindestens gleich 5 sind. Aus " > 5 folgt Die r — 1 Grenzpunkte a-p a 2 , . . . , a r _ j berechnet man folgendermaßen: ! = P(T x

mit

Korrelationskoeffizienten

- 1 < r F < 1.

y ; > y, so ist r F = 1.

Fehler 1. Art: Bei einem Test wird ein Fehler erster Art gemacht, wenn die Nullhypothese H 0 zugunsten der Alternativen H j abgelehnt wird, obwohl H 0 richtig ist. Die Wahrscheinlichkeit für einen Fehler 1. Art ist die Irrtumswahrscheinlichkeit 1. Art a (s. Parametertest 7.). Fehler 2. Art: Bei einem Test wird ein Fehler zweiter Art begangen, wenn die Nullhypothese H 0 nicht abgelehnt wird, obwohl H 0 falsch ist. Die Wahrscheinlichkeit für einen Fehler 2. Art ist die Irrtumswahrscheinlichkeit 2. Art ß (s. Parametertest 7.).

Fehlerwahrscheinlichkeit s. Irrtumswahrscheinlichkeit sowie Fehler 1. Art und Fehler 2. Art.

Feiler: Lindeberg - Feiler - Bedingung s. zentraler Grenzwertsatz (1.) Fisher - Behrens - Problem s. Erwartungswerte (1.2.3.) Fisher - Information s. Schätzfunktionen (7. Ungleichung von R a o - C r a mer)

Fisher - Transformation s. Korrelationskoeffizienten bei Normalverteilungen (4.)

Fisher - Verteilung s. F- Verteilung

50

Fisher-Yates-Test

F i s h e r - Y a t e s - T e s t : Bei einem kleinen Stichprobenumfang n < 20 ist weder der Chi-Quadrat-Unabhängigkeitstest noch der C h i - Q u a d r a t - H o mogenitätstest (s. Chi - Quadrat - Tests 3. und 4.) auch nicht mit der Y a t e s - Korrektur zulässig. Für beide Tests kann in diesen Fall der Test von F i s h e r - Y a t e s benutzt werden. Dazu werden in der Vierfeldertafel die Häufigkeiten hj k dargestellt. A

A

1. Grundgesamtheit (B)

hn

h12

V

2. Grundgesamtheit (B)

h

22

h2.

Spaltensummen

21

h

Zeilensummen

h. 2

h-!

n = h..

Als Testgröße wird die absolute Häufigkeit (Besetzungszahl) der ersten Klasse h n benutzt. Man betrachtet sämtliche möglichen Vierfeldertafeln, welche die gleichen Randsummen wie die beobachtete Vierfeldertafel besitzen. Durch die Besetzungszahl h n ist jede dieser Vierfeldertafeln mit fest vorgegebenen Randsummen eindeutig bestimmt. Es handelt sich also um einen bedingten Test. Die absolute Häufigkeit h n ist Realisierung der Zufallsvariablen V. Diese Testgröße V ist unter den vorgegebenen Randsummen hypergeometrisch verteilt. Zur Berechnung der Wahrscheinlichkeiten geht man von den beobachteten Randsummen h . j j h . ^ h j . und h 2 aus, wobei die Gültigkeit der Nullhypothese der Unabhängigkeit vorausgesetzt wird. Dabei gilt h.A ( P ( V = k) = -

'

^

v

h. 2 1

'

-

1

2

1

2

n! • k! • ( h ^ - k)! • ( h r - k)! • (h. 2 - h r + k)!

für k < h ^ und h ^ — k < h . 2 . Im Zähler dieses Bruchs steht bei jeder möglichen Kontingenztafel das Produkt der Fakultäten aller vier Randhäufigkeiten. Der Nenner ist das Produkt der Fakultät von n und der Fakultäten der vier Besetzungszahlen. Mit Hilfe der Wahrscheinlichkeiten P(V = k) berechnet man die Ablehnungsgrenzen aus cu(a1)

maximal mit

>

= k) = a * ; k

cQ ( a 2 ) minimal mit

a2 >

c — o

= k) = a 2 .

Der Test von F i s h e r - Y a t e s hat den Vorteil, daß mit ihm im Gegensatz zu den C h i - Q u a d r a t - T e s t s auch einseitige Hypothesen getestet werden können (vgl. nachfolgende Tabelle). Dabei sind P(A | B) und P(A | B ) bedingte Wahrscheinlichkeiten. Mit der Häufigkeit h n und den obigen Quantilen gelangt man mit dem Signifikanzniveau a * = a * + a 2 zu den Testentscheidungen:

51

Freiheitsgrad Alternative Hj

Nullhypothese H 0

a) P ( A | B) = P ( A | B ) P ( A | B ) ^ P ( A | B ) Pi / P 2 Pi = P 2 b) P(A | B) < P(A | B) P(A | B) > P ( A | B ) Pi > P 2 Pi < P 2

Ablehnungsbereich von H0 hn co(a2); hll

oder Qi

+a2

=

01

>Co(Q)

mit fij = 0 ; a 2 = a

c) P(A | B) > P(A | B) P(A | B) < P(A | B) Pi < P 2 Pi > P 2

hll

t - oder F-Verteilung) gibt die Anzahl der Freiheitsgrade an, aus wie vielen unabhängigen Zufallsvariablen die entsprechende Testgröße zusammengesetzt ist.

Friedman-Test: Die Zufallsvariablen Xj sollen stetige (unbekannte) Verteilungsfunktionen Fj besitzen für i = 1, 2 , . . . m. Getestet wird folgende Nullhypothese H 0 gegen die Alternative H^ H0:F1

=

F 2 = ... = F m ;

Hj^: Fj ^ F k für mindestens ein Paar j ^ k. Zur Testdurchführung wird bezüglich jeder Zufallsvariablen X ; eine einfache Stichprobe ( x i l ' x i2 ' • • •' x in)

vom

gleichen Umfang n

gezogen für i = 1, 2 , . . . , m (balancierter Fall) und in die nachfolgende Tabelle eingetragen: 1

x

ll

x12

.. •

Xlj

•• •

xln

2

X 21

X22

• ••

X 2j

•• •

x 2n

i

xil

x i2

X ij

•• •

x in

m

xml

x m2

X mj

••

x mn

• -

••

Für jedes j werden die in der j-ten Spalte (nicht Zeile) stehenden m Stichprobenwerte Xj-, x 2 j , . . . , x m j der Größe nach geordnet und ihnen die

52

Friedman - Test

Rangzahlen r a j = R ^ ) , r 2 j = R ( x 2 j ) , . . . , r m j = R ^ ) Spaltete zugeordnet für j = 1, 2 , . . . , n. 1

r

li

r

12

••

i

r

ii

r

i2

•• •

r

ü

m

r

ml

r

m2

''•

r

mj



r

ln

r

•• •

r

in

r

r

mn

bezüglich der j-ten

i-

i-

Tj.

In jeder Spalte steht damit die gleiche Rangsumme

m(m + 1)

Von diesen Rängen werden die Zeilensummen Tj. = E r ; j j=l

für i = 1, 2 , . . . , m

gebildet. Nach Friedman benutzt m a n die Testgröße f„ =

12 £ > ? . — 3n(m + 1). n m (m -f 1) A f

Die entsprechende Zufallsvariable F m besitzt unter der Nullhypothese H 0 die Kenngrößen E ( F m | H0) = m — 1 ; V a r ( F m | H0) = ^ m - l H n - l ) . Die Verteilungen der Testgrößen F m können unter der Nullhypothese H 0 durch kombinatorische Überlegungen berechnet werden. Unter der Nullhypothese sind in jeder Spalte alle m! Permutationen der Ränge l , 2 , . . . , m gleichwahrscheinlich. Wegen der Unabhängigkeit der Rangtupel der n Spalten gibt es insgesamt (m!) n Rangaufteilungen, von denen jede unter H 0 die gleiche Wahrscheinlichkeit , besitzt. (m!) n Die Realisierungen der Testgröße F m müssen dann für alle (m!) n Aufteilungen der Ränge auf die n Spalten berechnet werden. Ist u(k) die Anzahl der für (F = k) günstigen Fälle, so erhält man die Wahrscheinlichkeit P(Fm =

k

u(k) ) = (m!)n

Bindungen: Bindungen spielen nur dann eine Rolle, wenn sie innerhalb der gleichen Spalte auftreten. Falls Bindungen vorhanden sind, wird die Testgröße f ersetzt durch n ( m + 1) 12 r r j=i e =

E

n - m - C m + D - ^ E

( E

b* ) -

53

F-Test

gj = Anzahl der Gruppen mit Bindungen im i-ten Block für i = l , 2 , . . . , n ; bjj = Anzahl der Bindungen in der j-ten Bindungsgruppe des i-ten Blocks für j = 1 , 2 , . . . , g ; . Asymptotische Verteilung der Testgröße: Die Testgröße F m bzw. F ^ ist unter der Nullhypothese H 0 asymptotisch Chi-Quadrat-verteilt mit m —1 Freiheitsgraden. Zum Signifikanzniveau a * < a erhält man die Testentscheidung: Im Falle f m > fi _ a wird die Nullhypothese H 0 abgelehnt. F - T e s t : Mit dem F - T e s t werden die Quotienten der Varianzen zweier Normalverteilungen getestet (s. Varianzen 1.).

Funktionen von Zufallsvariablen

variablen sowie Erwartungswert

s. diskrete sowie stetige Zufalls-

F - Verteilung (Fisher-Verteilung): Es seien

Xn z w e ' unabhängige Chi - Quadrat-verteilte Zufallsvariablen mit m bzw. n Freiheitsgraden. Dann heißt die Zufallsvariable m

F- verteilt

o d e r Fisher-

m i t ( m , n ) Freiheitsgraden.

verteilt

Sie besitzt die

Dichte 0

für x < 0 ,

Dabei ist T die Gamma-Funktion (s. Gamma-Funktion). g5 -oM 0.5

o

0

x

2

3

4

Bild: Dichte der F-Verteilung mit (5, 10) Freiheitsgraden

5

G a m m a - Funktion

54

Modalwert: v — 0 f ü r m < 2 ;

v —^ ^ — ^

~

für m > 3 .

m(n + 2)



Nur für n > 2 existiert der Erwartungswert und für n > 4 die Varianz mit E(X) = n für n > 2 ; 2 2 n ( m + n — 2) „ • Var(X) = ^ — fur n > 4. V ; m(n — 2) (n — 4)

Erwartungswert: Varianz:

q - Q u a n t i l e der F - V e r t e i l u n g mit ( m , n) Freiheitsgraden bezeichnet man mit fm,n;q

P ( F m , n < f m , n ; q ) = q-

Dabei ist m der Zähler- und n der Nennerfreiheitsgrad. Wegen der Umrechnungsformel f.n , m ; q "

1

f m,n;1 —q

genügt die Vertafelung der rechtsseitigen Quantile (Tabelle 5 im Anhang). Für große n gilt: f m

n

.q~

für große m gilt: f m

n

.q ~

^

q

(Gleichheitszeichen für n—oo). 2 " -^n ; 1 — q

Darstellung der F-Verteilung durch die t-Verteilung für m = 1: Für die Quantile der F-Verteilung mit ( l , n ) Freiheitsgraden gilt mit den Quantilen der t-Verteilung mit n Freiheitsgraden f h.njl-o, -

t2 n;l-§ "

G Gamma-Funktion: Für jedes x > 0 ist die Gamma - Funktion definiert durch oo T(x) = J e _ t t x _ 1 d t , t > 0 . o Es gilt r ( x + i) = x - r ( x ) ; T(n) = (n — 1)! für jede natürliche Zahl n ;

=

Gammaverteilung

55

Gammaverteilung: Eine Zufallsvariable X mit der zweiparametrigen Dichte

{

für x < 0 ;

0

b i . - " ^ für x > 0 ; a , b > 0 r ( bx) ^ e heißt gammaverteilt. Dabei ist T die G a m m a - F u n k t i o n (s. G a m m a - F u n k tion). Charakteristische Funktion:

;

_ E(Xk) =

k-tes M o m e n t : Erwartungswert: Schiefe:

i/)(t)=^l— ^

-tL; >fb

b-(b+l)-...-(b + k-l) —V i für k = 1, 2 , 3 , . . . ak E ( X ) = gb ;. Varianz: V a r ( X ) = b ; a

Exzeß:

Modalwert:

b

v -

für b > 1. -

a

Gaußsche Ungleichung: Camp - Meidell - Gaußsche Ungleichung s. Ungleichungen ( 2 . 4 . )

Gaußsches Prinzip

s. K l e i n s t e - Q u a d r a t e - S c h ä t z u n g

gemeinsame Wahrscheinlichkeitsverteilung:

Es seien X t , X 2 , . . . , X n auf der gleichen Ergebnismenge Q eines Zufallsexperiments definierte Zufallsvariablen. Dann wird durch F ( x j , x 2 , . . . , x n ) = P ( X x < Xi , X 2 < x 2 , . . . , X n < x n ) = P ( n W I X;(u;) < x j ) i=l die gemeinsame Verteilungsfunktion definiert. Falls die Zufallsvariablen unabhängig sind, ist die gemeinsame Verteilungsfunktion gleich dem Produkt der n Randverteilungsfunktionen, also F ( X l , x2 , . . . , x j = P ( X j
e ) = 0 für jedes £ > 0 . n—»00 V )



Gesetze der großen Zahlen

58

1.4. Schwaches Gesetz der großen Zahlen für die empirische Verteilungsfunktion: Die Werte der Stichprobe (x x , x 2 , . . . , x n ) seien unabhängige Realisierungen der Zufallsvariablen X, welche die Verteilungsfunktion F(x) besitzt. Die empirische Verteilungsfunktion F n ( x ) ist damit Realisierung einer Zufallsvariablen Y n (x). Dann gilt für jedes x 6 R und jedes e > 0 p ( | Y n ( x ) - F ( x ) | > e ) < - i - j ; lim P ( | Y n (x) - F (x) | \ / 4n£ n—*oo ^

>e)=0. /

Aufgrund dieses Gesetzes kann der Wert F n (x) der empirischen Verteilungsfunktion an jeder Stelle x als Schätzwert für den unbekannten Funktionswert F(x) benutzt werden. 2. Starke Gesetze der großen Zahlen: In den starken Gesetzen der großen Zahlen wird die fast sichere Konvergenz (s. fast sichere Konvergenz) untersucht. 2.1. Starkes Gesetz der großen Zahlen für einen Erwartungswert: Es seien X j , X 2 , X 3 , . . . unabhängige Zufallsvariablen, die alle die gleiche Verteilung und den gleichen Erwartungswert E(X k ) = ¡i besitzen. _ i n Dann konvergiert die Folge X = jjX; fast sicher gegen fi, es gilt also i=l p ( lim i ¿ X ; = n) = p ( L 6 n I lim I t X j M = /A) = 1^ n—>oo j = i ' n—>oo j=i Nach dem starken Gesetz der großen Zahlen gilt für jedes £ > 0 lim P( sup n—>oo >n

m S k=l

X

0

k

Zu jedem beliebigen e > 0 und jedem beliebigen 6 > 0 existiert dann ein Index n 0 mit 1

sup £ Xk - m > I!q m k=l Gleichwertig damit ist 1

sup £ > m > nQ m k=l

X

k

> e

-H < £

< 6

> 1- 6

Das starke Gesetz der großen Zahlen besagt folgendes: Aus einer einfachen Stichprobe kann mit Wahrscheinlichkeit Eins (fast sicher) der unbekannte Erwartungswert fi einer Zufallsvariablen X beliebig genau geschätzt werden, wenn der Stichprobenumfang n nur groß genug ist. 2.2. Starkes Gesetz der großen Zahlen für eine Wahrscheinlichkeit p: Das Ereignis A besitze die Wahrscheinlichkeit p. In einer unabhängigen Versuchsserie vom Umfang n sei R n ( A ) die Zufallsvariable der relativen Häufigkeit des Ereignisses A. Dann konvergiert die Folge der Zufallsvariablen R n ( A ) fast sicher gegen p, d.h. für jedes £ > 0 gilt p f lim R n ( A ) = p) = lim ? ( sup I R m ( A ) - p I > e) = 0 . >oo ' n—>oo ^ m > n '

gestutzte Verteilungen stetiger Zufallsvariabler

59

D a m i t kann mit Wahrscheinlichkeit E i n s die unbekannte Wahrscheinlichkeit p = P ( A ) eines beliebigen Ereignisses A durch die relative Häufigkeit r n ( A ) in einer genügend langen unabhängigen Versuchsserie beliebig genau geschätzt werden.

2.3. Satz von Gliwenko-Cantelli; Hauptsatz der mathematischen Statistik: Die Werte der Stichprobe ( x j , x 2 , . . . , X j J seien unabhängige Realisierungen der Zufallsvariablen X , welche die Verteilungsfunktion F ( x ) besitzt. Die empirische Verteilungsfunktion F n ( x ) sei Realisierung der Zufallsvariablen Y n ( x ) . D a n n gilt

A u f g r u n d des Hauptsatzes einer einfachen Stichprobe scheinlichkeit Eins beliebig teilungsfunktion F an jeder

der m a t h e m a t i s c h e n Statistik erhält m a n aus von genügend großem U m f a n g n mit Wahrgute Informationen über eine unbekannte VerStelle x e R.

2.4. Starkes Gesetz der großen Zahlen von Kolmogorow: Die Zufallsvariablen X j , X 2 , X 3 , . . . seien u n a b h ä n g i g und besitzen die Varianzen V a r ( X ; ) für i = 1 , 2 , . . . . Dabei konvergiere die Reihe oo gVar(Xi) r—7 l

< 0 0

_

D a n n g

iit

P

(

n 1 £ ( x i - E ( X i ) ) = 0 ) = 1. ^ n—too ;—i ' ü m

Die hier angegebene B e d i n g u n g ist z. B . erfüllt, wenn alle Varianzen durch die gleiche K o n s t a n t e c beschränkt sind, also für V a r ( X j ) < c für alle i. Dann gilt

gestutzte Verteilungen stetiger Zufallsvariabler: 1. Beidseitig gestutzte Verteilungen: Die stetige Zufallsvariable X besitze die Dichte f(x) und die Verteilungsfunktion F ( x ) . Von den Realisierungen der Zufallsvariablen X sollen nur noch diejenigen betrachtet werden, die im Intervall [ L ; R ] , L < R liegen mit P ( L < X < R ) = F ( R ) - F ( L ) > 0. D a m i t findet eine Einschränkung (Restriktion) auf d a s Intervall [ L ; R ] s t a t t . Unter dieser Bedingung lautet die bedingte Verteilungsfunktion der stetigen Zufallsvariablen X

G

l

0

für x < L ;

1

für x > R .

_ R ( x ) = P ( X < x| L < X < R ) =

60

gleichmäßige Verteilungen

G l r ist eine Verteilungsfunktion mit G L r ( L ) = 0 und G L r ( R ) = 1Man nennt sie eine beidseitig gestutzte Verteilungsfunktion. Die Zufallsvariable X, welche die Verteilungsfunktion F besitzt, heißt beidseitig gestutzte Zufallsvariable.

S i e b e s i t z t d i e beidseitig

/ X i Fm|(X>Fin S l . R W H F(R)"F(L) I

gestutzte

Dichte

für L < x < R ;

0

sonst.

Erwartungswert und Varianz lauten: = F(R)iF(L)[xf(X>dx; Var(X) =

p ( R )

i

F ( L )

J [ x - E ( X ) ] 2 f ( x ) d x = E(X 2 ) - [E(X)] 2 .

2. Einseitig gestutzte Verteilungen: Mit L = — oo und F( — oo) = 0 bzw. R = + oo und F( + oo) = 1 erhält man die beiden einseitig gestutzten Dichten:

linksseitig

rechtsseitig

gestutzte

Dichte-,

gestutzte

g^x)

Dichte:

=

0

für x < L ;

f(x) l-F(L)

für x > L ;

gj^(x) =

f(x) F(R)

für x < R ;

0

für x > R .

gewichtetes (gewogenes) Mittel s. Mittelwerte einer Stichprobe Gini - Koeffizient s. Konzentrationsmaße (2.) gleichmäßig besserer Test s. Parametertest (11.) gleichmäßige Verteilungen: 1. Gleichmäßige diskrete Verteilung: Die Zufallsvariable X heißt gleichmäßig gilt P(X = k) = ^ Erwartungswert:

verteilt auf {1, 2 , . . . , m}, wenn

für k = 1, 2 , . . . , m.

E(X) =

m

^;

Varianz:

Var(X) =

m

^.

2. Gleichmäßige stetige Verteilung: Die Zufallsvariable X heißt gleichmäßig verteilt (rechteckverteilt) vall [ a ; b ] , a < b , wenn sie folgende Dichte besitzt:

im Inter-

61

gleichmäßige Verteilungen

^— b - a 0

für a < x < b ; sonst.

Verteilungsfunktion: 0 F(x)=
b .

Charakteristische Funktion: e itb

V'(t) — E ( e

itX

) =

_ e ita

i (b - a ) t 1

Erwartungswert:

Varianz:

E(X) =

für t = 0 . ^;

a

für t / 0 ;

Median:

ß =

a

^ ^;

(b = — ^ — ;

Var(X)

zentrale Momente:

E^(X-/i)kj = < ^

+i

für

0

serades

k

;

für ungerades k .

M a x i m u m - Likelihood-Schätzung der Parameter a und b: Aus einer einfachen Stichprobe ( x x , x 2 , . . . , x n ) erhält man die M a x i m u m Likelihood-Schätzungen ä

= x min = min { X l , x 2 , . . . , x n } ; b = x m a x = max { X j , x 2 , . . . , x n } .

Für die zugehörigen Schätzfunkionen gilt dabei für a < x < b: P ( X m a x < x) = E(X

m i n

)=

E(X

m a x

i r

)=

^

i r

f

P(Xmin -a +

T

T

-b +

i r

i r

^ ^

r

T

- a - b

< x) = 1 für

;

n—>oo;

für n—>oo.

Da der Variationsbereich der Dichte f ( W e r t e , für die f positiv ist) von den Parametern abhängt und an den Randstellen x = a und x = b Sprungstellen vorliegen, sind die Regularitätsbedingungen für die Ungleichung von Rao-Cramer

nicht erfüllt (s. Schätzfunktionen 7.). Die Varianzen dieser

beiden asymptotischen Schätzfunktionen sind kleiner als die in der Ungleichung von R a o - C r a m e r angegebenen unteren Schranken.

Gleichverteilung

s. gleichmäßige Verteilungen

62

Glockenkurve

gleitende Durchschnitte (Mittel) Gliwenko - Cantelli, Satz von

s. Gesetze der großen Zahlen (2.3.)

globale statistische Verfahren Glockenkurve, Gaußsche:

s. Zeitreihen (3.)

s. s i m u l t a n e statistische V e r f a h r e n

Als Gaußsche

1 den G r a p h e n der D i c h t e ip(z) = .-i—e (s. N o r m a l v e r t e i l u n g e n 1.1.) ""

2

Glockenkurve

bezeichnet m a n

der S t a n d a r d - N o r m a l v e r t e i l u n g

Grenzwertsätze von de Moivre-Laplace

s. B i n o m i a l v e r t e i l u n g , 2.2.

A p p r o x i m a t i o n d u r c h die N o r m a l v e r t e i l u n g

Grenzwertsatz, zentraler Grubbs-Test

s. z e n t r a l e r G r e n z w e r t s a t z

s. Ausreißertests bei N o r m a l v e r t e i l u n g e n (1.)

Grundgesamtheit:

U n t e r einer Grundgesamtheit versteht m a n die M e n g e aller möglichen Realisierungen ( W e r t e ) einer Zufallsvariablen X.

Gütefunktion

s. P a r a m e t e r t e s t (8.)

H Häufigkeit eines Ereignisses:

Ein Zufallsexperiment werde n - m a l d u r c h g e f ü h r t . Die A n z a h l der Versuche, bei denen A e i n t r i t t , bezeichnet m a n m i t h n ( A ) . Dieser Zahlenwert heißt die absolute Häufigkeit und rn(A) =

^ die relative

Häufigkeit

des Ereignisses A.

Eigenschaften: 0)

0 £ rn(A) < 1

für jedes Ereignis A

(ii)

rn(fi) = 1

f ü r d a s sichere Ereignis

(iii)

r n ( A + B) = r n ( A ) + r n ( B ) , falls A n B = 0

(Nichtnegativität); fi

(Normierung); (Additivität).

Häufigkeitspolygon: I m S t a b d i a g r a m m werden die E n d p u n k t e der einzelnen S t ä b e geradlinig m i t e i n a n d e r v e r b u n d e n . Der so e n t s t e h e n d e S t r e k k e n z u g heißt Häufigkeitspolygon.

harmonisches Mittel

Häufigkeitstabelle

63 s. Kontingenztafel (Vierfeldertafel)

Hardley: David - Hardley - Peaxson - Ausreißertest

s. Ausreißertests

bei N o r m a l v e r t e i l u n g e n (2.)

h a r m o n i s c h e s Mittel: In einer Stichprobe (x } , x 2 , . . . , x n ) sei x; ^ 0 für alle i. D a n n heißt 1

"

i E i=l

das harmonisches

1 1

Mittel von x (s. M i t t e l w e r t e einer Stichprobe 4.).

Hauptsatz der mathematischen Statistik (Satz von. GliwenkoCantelli) s. Gesetze der großen Zahlen (2.3) Helmert - Peaxson - Verteilung

s. Chi - Q u a d r a t - Verteilung

Herfindahl - Index s. Konzentrationsmaße (3.) Histogramm: I m Histogramm werden die absoluten bzw. relativen Klassenhäufigkeiten durch Rechtecksflächen dargestellt. In einem flächenproportionalen Histogramm werden die F l ä c h e n i n h a l t e proportional zu den Häufigkeiten gewählt. Bis auf den M a ß s t a b erhält m a n Rechteckshöhe =

Häufigkeit Rechtecksbreite

Hodges - Lehmann

s. Skalierungsprobleme (1.3.4.)

Homogenitätstest

s. Chi-Quadrat-Tests (4.)

Hypergeometrische Verteilung:

Eine Urne e n t h a l t e N Kugeln, von denen g e n a u M schwarz sind. D a r a u s werden ohne zwischenzeitliches Zurücklegen n Kugeln gezogen. Die Zufallsvariable X, welche die Anzahl der schwarzen Kugeln unter den n gezogenen beschreibt, heißt hypergeometrich verteilt m i t den P a r a m e t e r n N, M und n. Wahrscheinlichkeiten: / M W N - M \ p k = P ( X = k) = ^

k

' ( n ) ~

k

für

00 oo \ '

lim V a r f ^ ) = 4 A 2 ( l - A ) 2 . n—»oo Hn ^ W a l d , A . und W o l f o w i t z , J . [1940] haben gezeigt, daß unter der Nullhypothese H 0 die Zufallsvariable R — 2A(1 — A) n ¡==^

. mit

n = n1+n0;

2A(1-A)^T

1

, n, A = -rr

2

n

a s y m p t o t i s c h n o r m a l verteilt ist. F ü r n j , n 2 > 20 kann die Verteilung von n, • n0 n, n 9 |— 5 n = 2L — N " n • —-ATii n

n

l+

n2

recht gut durch eine Normalverteilung a p p r o x i m i e r t werden. Mit der Anzahl r der Iterationen erhält man zum Signifikanzniveau a l a2 —a T e s t die Ablehnungsbereiche von H 0 : a)

r
P ( R < r Q ) = a*

erhält m a n zum Signifikanzniveau a* < a die Testentscheidung: Im Falle r < r Q wird die Nullhypothese H 0 der Gleichheit der beiden Verteilungsfunktionen abgelehnt. 2. Bindungen: Falls zwischen den x- und y-Werten Bindungen (Übereinstimmungen) bestehen, berechnet m a n sämtliche Iterationen für alle möglichen kombinierten geordneten Stichproben der Bindungen. Alle diese Iterationen werden dann mitgezählt. Für einen konservativen Test wird jeweils der größte Wert r benutzt.

J Jensensche Ungleichung s. Ungleichungen (1.3.)

K kanonischer Korrelationskoeffizient

s. Korrelationskoeffizienten

(1.3.

sowie 2.3.)

Kardinalskala

s. S k a l i e r u n g (3.)

Kendalls

R a n g k o r r e l a t i o n s k o e f f i z i e n t von Kendali

T

S.

Kernschätzung

s. D i c h t e s c h ä t z u n g

Klassenbreite:

U n t e r der Klassenbreite versteht m a n die L ä n g e des Teili n t e r v a l l s , welches bei der Klasseneinteilung (s. Klasseneinteilung) diese Klasse darstellt.

Klasseneinteilung:

Ein Intervall, d a s alle n S t i c h p r o b e n werte eines q u a n t i t a t i v e n M e r k m a l s e n t h ä l t , wird in m d i s j u n k t e Klassen ( I n t e r v a l l e ) K j , K 2 , . . . , K m eingeteilt m i t den Breiten b j , b 2 , . . . , b m .

Klassenhäufigkeit:

Die Anzahl hj der S t i c h p r o b e n w e r t e , die in der j - t e n K l a s s e liegen, heißt absolute Klassenhäufigkeit u n d rj = h j / n relative Klassenhäufigkeit.

Klassenmitte:

Falls bei einer Klasseneinteilung eine Klasse ein b e s c h r ä n k t e s I n t e r v a l l ist, ist die Klassenmitte der M i t t e l p u n k t dieses Intervalls.

klassische Definition der Wahrscheinlichkeit (Laplace-Wahrscheinlichkeit): Die E r g e b n i s m e n g e fi sei endlich. Q bestehe a u s m vers c h i e d e n e n E l e m e n t e n , also | Q | = m . F ü r ein beliebiges Ereignis A c i i m i t | A | = r E l e m e n t e n wird die klassische Wahrscheinlichkeit (LaplaceWahrscheinlichkeit) b e r e c h n e t nach der F o r m e l , , _ ^ ' —

|A| _ | Q | ~~

r m

_ Anzahl der f ü r A g ü n s t i g e n Fälle Anzahl aller möglichen Fälle



(s. W a h r s c h e i n l i c h k e i t e n 2.).

Kleinste-Quadrate-Schätzung:

U n b e k a n n t e P a r a m e t e r werden n a c h G a u ß so g e s c h ä t z t , d a ß bei S t i c h p r o b e n die S u m m e der vertikalen Abs t a n d s q u a d r a t e u n d bei Zufallsvariablen der E r w a r t u n g s w e r t der q u a d r a t i schen A b w e i c h u n g e n m i n i m a l ist.

Kolmogorow - Smirnow - Tests

Klotz-Test

71

s. Skalierungsprobleme (2.2.2.4.)

Kolmogorow, Axiome einer Wahrscheinlichkeit nach Kolmogorow

s. Wahrscheinlichkeiten (1.)

Kolmogorowsches starkes Gesetz der großen Zahlen

s. Gesetze

der großen Zahlen (2.4.)

Kolmogorow - Smirnow - Tests: Bei den Tests von Kolmogorow-Smirnow müssen alle Zufallsvariablen stetig sein. Ferner dürfen bei diesen Tests im Gegensatz zu den C h i - Q u a d r a t Tests keine u n b e k a n n t e Parameter geschätzt werden. 1. Kolmogorow - Smirnow - Einstichproben - Test: Eine Zufallsvariable X besitze eine unbekannte Verteilungsfunktion F(x), die stetig sei. Mit einer vorgegebenen (hypothetischen) Verteilungsfunktion F 0 kann ohne weitere Voraussetzung der folgende zweiseitige Test durchgef ü h r t werden: a)

H 0 : F(x) = F 0 (x)

für alle x ;

Hj:

für mindestens ein x

F(x)^F0(x)

(zweiseitig).

Falls bis auf die Stetigkeit keine weiteren Voraussetzungen gemacht werden, besteht die Gefahr, daß bei den beiden einseitigen Tests die Alternativen zu selten erkannt werden, auch wenn sie richtig sind. Obwohl die vorgegebene Irrtumswahrscheinlichkeit 1. Art a eingehalten wird, kann die Irrtumswahrscheinlichkeit 2. Art unter Umständen sehr groß werden. Dann wird die G ü t e sehr schlecht. Dies ist besonders dann der Fall, wenn sich die u n b e k a n n t e Verteilungsfunktion F und die hypothetische Verteilungsf u n k t i o n F 0 durchdringen und der Stichprobenumfang n nicht sehr groß ist. Bei vielen praktischen Problemen (s. Skalierungsprobleme 1.) ist jedoch b e k a n n t , daß eine solche Durchdringung gar nicht möglich ist. Daher betrachtet m a n das Modell für die beiden einseitigen Tests: Die beiden stetigen Verteilungsfunktionen F und F 0 können sich nicht schneiden, wobei Berührungen möglich sind. Dadurch werden bei den einseitigen Tests die Alternativen eingeschränkt. b)

H 0 : F(x) < F 0 (X)

für alle x ;

Hx:

für alle x

F(x) > F 0 (x)

und F(x) > FQ (X) für mindestens ein x c)

H 0 : F(x) > F 0 (X)

für alle x ;

Hj:

F(x) < F 0 (x)

für alle x

und F(x) < FQ (x)

für mindestens ein x

(einseitig);

(einseitig).

Kolmogorow - Smirnow - Tests

72

Zur Testdurchführung wird aus einer einfachen Stichprobe ( x l t x 2 , . . . , x n ) v o m U m f a n g n die empirische Verteilungsfunktion berechnet mit , . _ Anzahl der Stichprobenwerte, die kleiner oder gleich x sind * n(X) — ñ • Für die einzelnen Tests benutzt man die Testgrößen a)

dn

=

b)

d+

=

sufe

x

|Fn(x)-F0(x)|;

Su^(Fn(x)-F0(x));

^ (

C)

F

o W "

F

n W ) -

d n ist der m a x i m a l e Abstand der empirischen Verteilungsfunktion F

(x)

der Stichprobe von der hypothetischen Verteilungsfunktion F 0 ( x ) der Zufallsvariablen X . Unter der Bedingung F = F 0 sind im Stetigkeitsfall die Verteilungen der Testgrößen D n , D ^ ,

nur v o m Stichprobenumfang n

und nicht von der speziellen Verteilungsfunktion F 0 abhängig. Es handelt sich

somit

um

verteilungsfreie

(verieilungsunabhängige)

Aus Symmetrie-Gründen sind die Verteilungen von D ~

Teststatistiken. und D + gleich.

Die Quantile der Testgrößen können für kleine n mit Hilfe kombinatorischer Überlegungen berechnet werden. Allerdings ist die Herleitung nicht elementar (Quantile s. Tabelle 6 im A n h a n g ) . Asymptotisch lassen sich die Verteilungen wesentlich einfacher bestimmen. Es gilt nämlich der Satz von Kolmogorow - Smirnow: Falls FQ ( x ) die tatsächliche Verteilungsfunktion ist, gilt für jedes A > 0 lim P ( D n-»oo

n

< ¿ ) = Q N|U

Hm P ( D + < ^ ) N n—>oo

1

( A ) = l - 2 E k=l

=Q

2

(_i)k-ie-2k2A2.

(A+)=

l-

P(D+
0,80.

Für n > 40 eignet sich die Näherung: d

n;l-a

d

n;l

=

dn

;1- ,

-R-lnf

\

In a ' 2n für

a F 0 ( x ) u n d F (x) > F 0 (x) für mindestens ein x

c) F ( x ) > F 0 (X)

F ( x ) < F 0 ( x ) u n d F (x) < F 0 (x) für mindestens ein x

Ablehnungsbereich von H 0 d

n >

d

i>

d

d

d

n~ >

n ; l - c

n;l-2a

d

n ;1 -

2a

Eigenschaften des Kolmogorow - Smirnow - Einstichproben - Tests: 1. Der K o l m o g o r o w - S m i r n o w - T e s t ist konsistent, aber nicht unverfälscht. 2. Für n—>oo wird durch diesen T e s t jede Abweichung der Verteilung der G r u n d g e s a m t h e i t von der hypothetischen Verteilung festgestellt. 3. Voraussetzung f ü r den Test ist die Stetigkeit der hypothetischen Verteil u n g s f u n k t i o n F 0 ( x ) , weil in diesem Fall die Verteilung der Testgröße von der F u n k t i o n F 0 (x) u n a b h ä n g i g ist. Wendet m a n den Test zusammen m i t den aus der stetigen Verteilung b e s t i m m t e n Quantilen auf die Verteilung einer diskreten Zufallsvariablen an, so ist er konservativ. Die Irrtumswahrscheinlichkeit 1. Art ist höchstens kleiner als a . 4. Im Gegensatz z u m C h i - Q u a d r a t - T e s t dürfen keine u n b e k a n n t e P a r a m e t e r geschätzt werden. Doch a u c h gegenüber solchen Schätzungen ist der T e s t konservativ, falls stetige Q u a n t i l e b e n u t z t werden. 2. Kolmogorow - Smirnow - Zweistichproben - Test (Test auf Gleichheit von zwei stetigen Verteilungsfunktionen): Zwei Zufallsvariablen X und Y sollen die u n b e k a n n t e n stetigen Verteilungsf u n k t i o n e n F (x) = P ( X < x) und G (y) = P ( Y < y) besitzen. F ü r den zweiseitigen Test a)

H0:

F(x)=G(x)

für alle x ;

Hj:

F ( x ) ^ G(x)

für mindestens ein x

(zweiseitig);

m u ß außer der Stetigkeit keine weitere Voraussetzung erfüllt sein. F ü r die beiden einseitigen Tests sollte aus Gründen, die beim Einstichprob e n - T e s t angegeben sind, vorausgesetzt werden, d a ß sich die beiden Verteil u n g s f u n k t i o n e n F und G nicht durchdringen. Dadurch wird der mögliche Alternativenbereich einschränkt.

Kolmogorow - Smirnow - Tests

74

F(x) < G(x) für alle x ist gleichwertig mit P(X > Y ) = 1. Dann ist X stochastisch größer oder gleich Y, also stochastisch nicht kleiner als Y. Man beschränkt sich auf die einseitigen Tests: b)

H 0 : F(x) < G(x)

für alle x ;

Hi:

für alle x

F(x) > G(x)

und F(x) > G(x) für mindestens ein x ; IIj bedeutet: X ist stochastisch kleiner als Y ; c)

H 0 : F(x) > G(x)

für alle x ;

Hj:

für alle x

F(x) < G(x)

und F(x) < G(x) für mindestens ein x ; Hj bedeutet: X ist stochastisch größer als Y . Bei additiven Lokationsmodellen (s. Skalierungsprobleme 1.3.3.) sind bei den einseitigen Tests in Hj alle möglichen Alternativen von H 0 enthalten. Daher werden die beiden einseitigen Tests oft nur bei additiven Lokationsmodellen angewandt. Zur Testdurchführung bestimmt man aus zwei unabhängigen Stichproben bezüglich der beiden Zufallsvariablen X bzw. Y (x^xj,...^)

und

(y1,y2)---.yn2)

vom Umfang n x bzw. n 2 die empirischen Verteilungsfunktionen (z) = G„ 2 (z) =

Anzahl der x-Werte, die kleiner oder gleich z sind ui Anzahl der y-Werte, die kleiner oder gleich z sind

Als Testgröße benutzt man die maximale Abweichung *)

dni

,„. =

sup K » - ' G zei

n

2 (z)|;

b) ^

=

Bsuß

(Fni(z)-Gn2(z));

c)

=

SUP zei

(Gn2(z)-Fni(z)).

d-

Unter der Bedingung F = G sind im Stetigkeitsfall die Verteilungen der Testgrößen D„ „ , D+ 1 „ und D von F und G unabhängig. Daher 1' 2 l 2 1' 2 können ihre Quantile mit Hilfe kombinatorischer Überlegungen bestimmt werden. Falls beide Verteilungsfunktionen F und G gleich sind (unter der Nullhypothese H 0 aus a)), sind alle n j + n 2 Werte der beiden Stichproben Realisierungen der gleichen Zufallsvariablen. Asymptotisch lassen sich die Verteilungen wesentlich einfacher berechnen. Es gilt nämlich der

75

Kolmogorow - Smirnow - Tests Satz von Kolmogorow-Smiraow: Im Falle F = G gilt für jedes A > 0 lim

n l ' n 2~*°°

/ n, + n 0 \ P D„ „ < A \ — ^ ) ^ 1' 2 M 1 2 ) = Q 1 (A) = l - 2

n

l'

Hm

n

P ( D ; , 2

n



2

g k=l < A

(_l)k-le+

I

i

^ )

2 k 2 A 2

= Q # )

!

;

= l

,-2(A+)2

Die Approximationen P' f ü n n V 1' 2 sind bereits für + n 2 > 40 recht brauchbar. Dann können folgende Näherungen benutzt werden: rij , Ü2 ; 1 — a

N

rij , Ü2 ; 1 —

h

oi

-

a



na , n 2 ; 1 - a ~ \ - ¿ I n f Für F = G besitzen D+ d

nj,n2;l-2a

~ ^

n

\

l

n

In a

n

+ l

n, + n 4-rnf nl

-N

und D n

nl

n

n n

2

2

mit

+ n2 ' n2

Q ^

_

a

) = 1- a ;

für 1 - a > 0,80.

die gleiche Verteilung. Es gilt

, n 2 ; 1 - a = dn~ , n2 ; 1 - a

für a < 0,2.

Daher genügt die Vertafelung einer einzigenTestgröße (s. Tabelle 7 im Anhang). Zum Signifikanzniveau < a lauten die Testentscheidungen: Nullhypothese H 0 a) F ( x ) = G(x)

Alternative Hj F ( x ) ± G(x)

Ablehnungsbereich von H 0 ^nj , n 2 — ^rij , n 2 ; 1 —

b) F ( x ) < G(x)

F ( x ) > G ( x ) und F ( x ) > G(x) für mindestens ein x

d+ > d+ n l ' n 2 ~~ n l ' n 2 ' ~ Q

c) F ( x ) > G ( x )

F ( x ) < G ( x ) und F ( x ) < G(x) für mindestens ein x

d" > d~ n l ' n 2 — n l ' n 2 ' ~~ Q

Weitere Anwendung: Test des Lageparameters d bei additiven Lokationsmodellen (s. Skalierungsprobleme, 1. Lokationsmodelle).

a

76

Kolmogorow - Verteilung

Kolmogorow - Verteilung: Eine stetige Zufallsvariable heißt row- verteilt,

Kolmogo-

wenn sie folgende Verteilungsfunktion besitzt: g

K(x) =

(_l)ke-2k2x2

f ü r x > 0 ;

k = — oo

0 Dabei gilt g (_l)ke-2kV

für x < 0 .

= 1

k = - oo

_

2

g(_1}k-le-2k2A2 k=l

Die Zufallsvariable X besitzt die Kenngrößen: Erwartungswert: E(X) = ^

• In 2 ;

Varianz: Var(X) = ^ - 1 • In2 2 .

Bei den Kolmogorow-Smirnow-Tests (s. Kolmogorow-Smirnow-Tests) besitzt die Testgröße die Kolmogorow - Verteilung.

Kombination: Unter einer Kombination von n Elementen zur k-ten Klasse ( d e r Ordnung k) versteht man eine Zusammenstellung ohne Berücksichtigung der Reihenfolge von k dieser Elemente (s. Kombinatorik 4.) Kombinatorik: Zur Berechnung der klassischen Wahrscheinlichkeit ist die Anzahl der günstigen und die der möglichen Fälle zu bestimmen. Dabei muß gewährleistet sein, daß es nur endlich viele verschiedene Versuchsergebnisse gibt und daß alle gleichwahrscheinlich sind. Zur Berechnung der Anzahl solcher Fälle werden in der Kombinatorik Formeln bereitgestellt. 1. Produktregel der Kombinatorik: Bei einem m-stufigen Zufallsexperiment sei n k die Anzahl der möglichen Versuchsergebnisse bei der k-ten Stufe. Dann besitzt das m-stufige Gesamtexperiment n = n j • n 2 • . . . • n m verschiedene Ergebnisse (m-Tupel). 2. Permutationen (Anordnungsmöglichkeiten): Eine Permutation von Elementen ist eine Anordnung dieser Elemente. a ) n verschiedene folge) auf

Dinge lassen sich (unter Berücksichtigung der Reihen-

n! = l - 2 - . . . - n verschiedene Arten anordnen (Anzahl der Permutationen). b) Von n Dingen seien jeweils n x , n 2 , . . . , n r gleich. Dann gibt es für diese n Dinge unter Berücksichtigung der Reihenfolge ni

!-n2!-...-nr!

mlt

" = n2 + n2 + . . . + n r

verschiedene Anordnungsmöglichkeiten (Permutationen).

Kombinatorik

77

3. Variationen (Auswahlmöglichkeiten unter Berüchsichtigung der Reihenfolge): Unter einer Variation von n Elementen zur k-ten Klasse (der Ordnung k) versteht man eine Zusammenstellung von k dieser Elemente in einer bes t i m m t e n Reihenfolge. Aus n verschiedenen Dingen werden k Stück unter Berücksichtigung der Reihenfolge ausgewählt. Dann beträgt die Anzahl der verschiedenen Auswahlmöglichkeiten (Variationen) a) beim Ziehen ohne Zurücklegen (ohne Wiederholung) n • (n — 1) • (n — 2) • . . . • (n — k + 1) ( Variationen

ohne

Wiederholung)-,

b) beim Ziehen mit Zurücklegen (mit Wiederholung) n^

( Variationen

mit

Wiederholung).

4. Kombinationen: Unter einer Kombination von n Elementen zur k-ten Klasse (der Ordnung k) versteht man eine Zusammenstellung von k dieser Elemente. Dabei spielt die Reihenfolge keine Rolle. Aus n verschiedenen Elementen werden k Stück ohne Berücksichtigung der Reihenfolge ausgewählt. Dann gibt es a) ohne Wiederholung / n \ _ n • (n — 1) • (n — 2) • . . . • (n — k + 1) _ n! l^k,/1 • 2 • 3 •... • k k! • (n — k)! (Kombinationen

ohne

Wiederholung);

b) mit Wiederholung f ^ -

1

)

(Kombinationen

mit

Wiederholung)

verschiedene Auswahlmöglichkeiten. 5. Urnenmodelle: Eine Urne enthalte N Kugeln, von denen M schwarz und die restlichen N —M weiß sind. Dabei gelte 1 < M < N. Daraus werden n Kugeln zufällig ausgewählt. p k sei die Wahrscheinlichkeit dafür, daß sich unter den n ausgewählten Kugeln genau k schwarze befinden. Dann gilt a) beim Ziehen ohne

Zurücklegen

( M \ ( N - M \ l k A n-k ) Pk

b) beim Ziehen mit p

0 < k < min(n , M) f

( ! )

"

0