Kleines Lehrbuch der Statistik: Für Naturwissenschaft und Technik, Psychologie, Sozialforschung und Wirtschaft [Reprint 2018 ed.] 9783111456508, 9783111089072

152 78 24MB

German Pages 331 [336] Year 1968

Report DMCA / Copyright

DOWNLOAD FILE

Polecaj historie

Kleines Lehrbuch der Statistik: Für Naturwissenschaft und Technik, Psychologie, Sozialforschung und Wirtschaft [Reprint 2018 ed.]
 9783111456508, 9783111089072

Table of contents :
Aus dem Vorwort zur ersten Auflage
Aus dem Vorwort zur zweiten Auflage
Vorwort zur dritten Auflage
Inhaltsübersicht
Einführung: Weltdeutung, Statistik und Selbstverständnis
I. Teil: Statistische Aufbereitung
Kapitel 1: Statistisches Zählen und Messen
Kapitel 2: Skalierung
Kapitel 3: Tabulierung
II. Teil: Statistische Beschreibung
Kapitel 4: Mittelwerte
Kapitel 5: Streuungsmaße
Kapitel 6: Vorteile provisorischer Skalen
Kapitel 7: Verteilungen
Kapitel 8: Einführung in die korrelationsstatistische Analyse
III. Teil: Statistische Schätzungs- und Prüfverfahren
Kapitel 9: Stichproben
Kapitel 10: Mutungsbereiche
Kapitel 11: Hypothesenprüfung
Kapitel 12: Entscheidungsstatistik
Kapitel 13: Prüfverteilungen
Kapitel 14: Übereinstimmung empirischer und theoretischer Verteilungen (Chi-Quadrat-Test)
IV. Teil: Stichproben und ihr Umfang
Kapitel 15: Stichprobenauswahl
Kapitel 16: Stichprobenumfang
V. Teil: Statistische Analyse
Kapitel 17: Tendenzmaße
Kapitel 18: Varianzanalyse
Kapitel 19: Faktorenanalyse
Kapitel 20: Zeitreihen
VI. Teil: Anhang
Kapitel 21: Arbeitstabellen
Kapitel 22 : Übungsaufgaben
Kapitel 23: Lösungen der Übungsaufgaben
Literatur
Sachregister

Citation preview

HASELOFF — HOFFMANN K L E I N E S L E H R B U C H DER

STATISTIK

KLEINES L E H R B U C H D E R STATISTIK FÜR NATURWISSENSCHAFT UND TECHNIK, PSYCHOLOGIE, SOZIALFORSCHÜNG UND WIRTSCHAFT VON

PROF. D R . MED. 0 . W . HASELOFF

DEPL.-PSYOH. H . - J . HOFFMANN

BERLIN

BERLIN

3., neubearbeitete und erweiterte Auflage, mit 59 Figuren, 93 Tabellen, einem Anhang statistischer Arbeitstabellen und Übungsaufgaben und I Ausschlagtafel

W A L T E R

D E

G R U Y T E R

& C 0 .

VORMALS G. J. GÖSCHEN'SCHE VERLAGSHANDLUNG — J. GÜTTENTAG VERLA GSBÜCHHANDLTJNG — GEORG REIMER — KARL J. T R Ü B N E R VEIT & COMP. B E R L I N

1968

© Copyright 1967 by Walter de Gruyter & Co., vormals G. J. Göschen'sche Verlagshandlung, J. Guttentag, Verlagsbuchhandlung, Georg Beimer, Karl J. Trübner, Veit ft

5

6

7

8

9 W X [wöchentlich gelesene Illustriertenonzahl)

Fig. 11

Noch deutlicher wird die unterschiedliche Lage der drei Mittelwerte, wenn wir die Verteilung der Illustriertenleser auf die Stufen der Leseaktivitäten (gemessen an der Anzahl der wöchentlich gelesenen Illustrierten) in einem Häufigkeitspolygon darstellen (Figur 12):

Die hier diskutierten Mittelwerte werden häufig in der Literatur unter der abkürzenden Bezeichnung „Statistika" zusammengefaßt.

KAPITEL 5

Streuungsmaße Vergleichen wir zwei Schulklasseii hinsichtlich ihrer Schulerfolge in einem bestimmten Fach. Dabei können sich trotz ungefähr gleicher Durchschnittszensur die Zensurenverteilungen in den beiden Gruppen dennoch stark unterscheiden. I n der einen Klasse h a t beispielsweise die Mehrzahl der Schüler die gleiche Note erzielt, während in der Vergleichsklasse sehr unterschiedliche Zensuren gegeben wurden. Die Zensuren konzentrieren sich also in der einen Klasse stärker um den Mittelwert als in der anderen. I n diesem Falle befriedigt es uns nicht, wenn wir nur den Mittelwert des vorliegenden Materials kennen. In unserem Beispiel würde es sich darum handeln, zu besehreiben, in welcher Dichte in den beiden Klassen die Zensuren in dem fraglichen Fach um das arithmetische Mittel streuen: Wir wollen die Streuung der verschiedenen Beobachtungen u m den Mittelwert feststellen 1 ). Um diesen Sachverhalt zahlenmäßig beschreiben zu können, benötigt man ein Streuungsmaß. Das einfachste Maß für die Streuung ist die Variationsbreite (engl.: ränge). Diese gibt an, wie groß der Abstand zwischen dem höchsten und dem niedrigsten Wert der Verteilung ist. Im Beispiel der Tabelle 2 war der höchste Wert 10 und der niedrigste 5. Die Variationsbreite ist also 10 — 5 = 5. Sicher läßt sich die Variationsbreite auf diese Weise leicht berechnen; nachteilig ist dabei jedoch, daß das so ermittelte Maß allzusehr von den extremen Werten der Verteilung abhängt. Ein Streuungsmaß, das diese Schwäche nicht aufweist, ist der halbe Quartilabstand Q (engl.: semiinterquartile ränge) 2 ). Q ist definiert x ) D. h. wir wollen etwas darüber erfahren, wie unterschiedlich dicht sich die beobachteten Werte um den aus ihnen berechneten Mittelwert gruppieren. 2 ) Die Fälle jeder Beobachtungsreihe lassen sich der Größe nach ordnen. Teilen wir die so gewonnene Reihe in vier gleiche Abschnitte auf, so enthält jeder Abschnitt 25% der Fälle. Ein so definierter Abschnitt wird ein Quartil genannt. Er ist der praktisch wichtigste Sonderfall der sogenannten Quantile. Quantile zerlegen die Gesamtzahl der Fälle in eine gegebene Anzahl gleicher Teile. Bei Oiiintilen sind es 5, bei Dezilen 10 und bei Perzentilen 100 gleiche Teile.

56

Statistische Beschreibung. Streuungsmaße

als die Hälfte desjenigen Bereiches einer Verteilung, innerhalb dessen die mittelsten 50% der Beobachtungen liegen. Dabei wird der halbe Quartilabstand auf folgende Weise berechnet : Zuerst bestimmt man die Lage des oberen Quartiis, das oft auch 75. Perzentil (P7B) genannt wird. Es gibt an, wo die Grenze zwischen denjenigen 25% der Beobachtungen mit den höchsten Meßwerten und den restlichen 75% Beobachtungen mit den niedrigeren Meßwerten liegt. Danach wird die Lage des unteren Quartiis in umgekehrter Weise bestimmt (P 2B ). Dieses 25. Perzentil bezeichnet die Grenze zwischen den oberen 75% und den niedrigsten 25% der Beobachtungen. Der halbe Quartilabstand ist dann die Hälfte der Differenz zwischen diesen beiden Werten oder — in einer Formel ausgedrückt —

Im Beispiel der Tabelle 11 ist das obere Quartil gleich 8,70 und das untere gleich 6,64. Wenn die Anzahl der Fälle N nicht durch 4 teilbar ist, also die Perzentile nicht genau zwischen zwei Fällen liegen, ist es notwendig, ihre Lage auf die gleiche Weise zu berechnen wie den Zentralwert. In unserem Beispiel der Tabelle 11 trennt das obere Quartil die 28 Beobachtungen zwischen der 21. und der 22. Diese Grenze ist gleich 8,5 +

= 8,7. Die Grenze des unteren

Quartiis liegt dann zwischen der 7. und 8. Beobachtung. Diese Grenze ist gleich 6,5 +

= 6,64. Der halbe Quartilabstand ist also

Ein früher häufig verwendetes Streuungsmaß ist die durchschnittliche Abweichung DA (engl.: average deviation) vom Mittelwert. Dieses Maß errechnet sich als das arithmetische Mittel aller Abstände der einzelnen Fälle von ihrem arithmetischen Mittel. Bei dieser Berechnung ergibt sich die Schwierigkeit, daß etwa die Hälfte aller Abweichungen negativ sind. Dies kann durch Zeichenänderung 8 ) korrigiert werden. Die Formel lautet deshalb:

8 ) Die zwei lotrechten Striche in | X — M bedeuten, daß das Ergebnis der Subtraktion ohne Rücksicht auf das Vorzeichen weiter verwandt werden soll. In unserem Falle müssen also die Subtraktionsergebnisse ohne Rücksicht auf ihre Vorzeichen addiert und dann durch N dividiert werden.

Varianz

57

Varianz

Der Wert der durchschnittlichen Abweichung für die statistische Arbeit wird dadurch eingeschränkt, daß eine Formel mit Absolutzeichen (durch die Beseitigung der Vorzeichen) in weiterreichenden statistischen Berechnungen nicht verwendbar bleibt. Deshalb ist es vorteilhafter als ein Maß für die Streuung die mittlere quadratische Abweichung zu verwenden. Diese mittlere quadratische Abweichung wird in der Statistik Varianz (,s2) genannt. Dabei handelt es sich genauer um das arithmetische Mittel der quadratischen Abweichungen der Fälle von ihrem arithmetischen Mittel. Die Varianz berechnet sich nach der Formel: 2 .

— M)2 N

bzw. bei einer größeren Zahl von Fällen

„2 _

— M)2 N '

{

... . '

Da besonders in der Sozialstatistik (zum Beispiel der Vergleich der Einkommens Verhältnisse zweier Gruppen) oder in der Biologie (z. B . Vergleich der Wirkung von Medikamenten bei mehreren Gruppen von Versuchstieren) sehr häufig Streuungen verglichen werden müssen, ist als ein wichtiger Zweig der Statistik die Varianz analyse (vgl. Kap. 18) entstanden. Beispiel: I n einem Experiment zur Intensitätsanalyse von Vorurteilen wurde u. a. Studenten unterschiedlicher Fachrichtungen eine Reihe von 20 häufig anzutreffenden Vorurteilen in Gestalt von Sprichwörtern vorgelegt. Die Vpn wurden aufgefordert, jedes dieser Sprichwörter entweder als richtig oder als falsch zu beurteilen. In der untenstehenden Tabelle 13 wurden in die .X-Spalte die Anzahl der jeweils akzeptierten Vorurteile sowie in die /-Spalte die Häufigkeit der auf sie jeweils entfallenden Vpn eingetragen. In den nachfolgenden vier Spalten folgt die Berechnung der Varianz gemäß der Formel (10). Tabelle 13 (1)

(2)

X

(3)

/

6 7 8 9 10 11 12 13 14 15

1 3 3 8 17 26 18 11 5 1

6 21 24 72 170 286 216 143 70 15

N = 93

1023

f-X

(4)

(X—M) —5 —4 —3 —2 —1 0 1 2 3 4

(5)

(X—M)2 25 16 9 4 1 0 1 4 9 16

(6)

f(X—M)2 25 48 27 32 17 0 18 44 45 16 272

58

Statistische Beschreibung. Streuungsmaße

Zf(X — Mf N Die Varianz beträgt in unserem Beispiel also 2,93. Diese Zahl besagt für sich allein noch, nichts. Vielmehr ist die Varianz vor allem für Vergleiche wertvoll. I n unserem Beispiel könnte es etwa um die Klärung der Frage gehen, ob die Tendenzen zur Akzeptierung von Vorurteilen bei Studenten naturwissenschaftlicher Fächer ihrem Ausprägungsgrad nach einheitlicher sind, als bei Studenten geisteswissenschaftlicher Fächer. Wollen wir dagegen über die Streuung allein in dieser speziellen Untersuchung genaueres wissen, so müssen wir uns eines anderen Streuungsmaßes bedienen: der Standardabweichung. Standardabweichung Die Varianz ist, ohne daß sie mit anderen Varianzen verglichen wird, kein geeignetes Maß zur direkten Schätzung der Streuung, da sie nicht die einfachen Abweichungen vom Mittelwert verarbeitet, sondern deren Quadrate. Dies müssen wir jetzt rückgängig machen, indem wir die Wurzel aus sz ziehen. Wir gelangen auf diesem Wege zu dem heute gebräuchlichsten Streuungsmaß, der Standardabweichung (s): (H) Die Standardabweichung ist also gleich der Wurzel aus dem Mittelwert der quadrierten Abweichungen vom arithmetischen Mittel. Tabelle 14 zeigt die Berechnung der Standardabweichung (an einem Teilergebnis). Die Testleistungen der Vpn A bis G wurden nach Punkten X bewertet: Tabelle 14

Vp

X

A B

15 14

D E F G

10

c

Summe:

N= 7

11

9 7 4

70 t

SX

X — M(X — My|2 + 5 + 4

25 16

—3 —6

9 36

±0

88

+ 1 + 0 —1

1 0 1

t S(X — Mf

Standardabweichung

N

59

7

Zuerst berechnet man die Summe der erzielten Testergebnisse: E X = 70. Danach bestimmt man das arithmetische Mittel, hier M = 10. Dies ermöglicht die Berechnung der Abweichungen vom Mittelwert, d . h . X—M 4 ). Diese Abweichungen werden quadriert, wodurch die negativen Vorzeichen verschwinden. Die Summe der Quadrate der Abweichung, E (X — M)2 = 88, wird dann durch die Anzahl der Personen, N = 7, dividiert. Das Resultat lautet 12,57. Die positive Quadratwurzel aus diesem Wert ergibt dann die Standardabweichung s — 3,55. Bei einem größeren Material wird die Berechnung dadurch erleichtert, daß man eine Häufigkeitstabelle benutzt. Die Tabelle 15 bietet hierzu ein Beispiel. Es handelt sich hier um die weitergeführte Darstellung der Ergebnisse der Rechenprobe (s. Tab. 2). Tabelle 15

(1) X

(2)

/

(3) X—M

10 9 8 7 6 5

3 5 7 7 4 2

2,36 1,36 0,36 —0,64 —1,64 —2,64

28

N = 28

(4) {X—M)2 5,57 1,85 0,13 0,41 2,69 6,97

(5) j-(X—MY 16,71 9,25 0,91 2,87 10,76 13,94 54,44

M = 7,64

f Zf(X — Mf

Das arithmetische Mittel in diesem Beispiel wurde bereits auf S. 48 berechnet und beträgt 7,64. Die Spalte 3 enthält die Abweichungen der X-Werte von diesem Mittelwert. In Spalte 4 sind die Quadrate dieser Abweichungen aufgeführt. Die negativen Vorzeichen sind durch die Quadrierung weggefallen. Es muß darauf Rücksicht genommen werden, wie viele Abweichungen im Material vorkommen. Deshalb werden die quadrierten Abweichungen mit den zugehörigen Häufigkeiten multipliziert. Die Resultate dieser Operation finden sich dann in Spalte 5. 4 ) Dabei muß die Summe der Abweichungen stets = 0 sein. Hierin liegt zugleich die Möglichkeit, die vorangegangene Rechnung zu überprüfen.

60

Statistische Beschreibung. Streuungsmaße

Die Summe der Werte in Spalte 5, d . h . E / • (X - Mf = 54,44, ist die gesuchte Summe der quadrierten Abweichungen. Diese Summe entspricht dem Zähler in der unten stehenden Formel 12 für die Standardabweichung. Nach der Division durch N und anschließendem Wurzelziehen erhält m a n s = 1,39. Die Berechnung erfolgt also nach der Formel: (12)

Wenn die Zahl der Fälle hundert u n d mehr beträgt und die graphische Darstellung ihrer Verteilung im Häufigkeitspolygon 2 sich der Glockenform annähert, fallen ungefähr aller Beobachte tungen in denjenigen Bereich der Skala, der zwischen einem P u n k t mit dem Abstand der Standardabweichung links vom Mittelwert und einem anderen P u n k t , der genauso weit rechts von ihm liegt. Variabilitätskoeffizient Bestimmte Fragestellungen fordern zu ihrer Lösung, daß m a n Streuungen miteinander vergleicht. Wenn aber zwei Verteilungen sehr unterschiedliche Mittelwerte aufweisen, ist es nicht immer ratsam, die Streuungsmaße einfach einander gegenüberzustellen. Selbst wenn sie aus der gleichen Skala hervorgehen, ist dies unzweckmäßig. Die Streuung der Körperlänge bei Neugeborenen zum Beispiel ist, in absoluten Maßen gemessen natürlich kleiner als diejenige bei Erwachsenen. E s k a n n jedoch beispielsweise f ü r einen Wirtschaftspolitiker von Interesse sein, die Streuung der Höhe der Sparguthaben bei einer Stadtbevölkerung zu vergleichen mit der entsprechenden Streuung der Sparguthaben bei einer Landbevölkerung. Ein anderes Beispiel wäre die unterschiedliche Streuung der Krankheitsdauer (in Tagen) wie es sich bei zwei Gruppen von Patienten ergeben kann, die mit unterschiedlichen Medikamenten behandelt wurden. I n jedem Falle müssen bei dem Vergleich von Streuungen empirische Normen berücksichtigt werden, da bei einem in einer Gruppe zufällig hohem Mittelwert die Wahrscheinlichkeit einer großen Streuung unangemessen erhöht ist. Aus diesem Grunde m u ß die Streuung in Beziehung zum Mittelwert gesetzt werden. Will m a n also Vergleiche der oben geschilderten Art durchführen, so berechnet m a n am vorteilhaftesten den Variabilitätskoeffizienten (V), der das Hundertfache der Standardabweichung, dividiert durch den zugehörigen Mittelwert darstellt. Die Multiplikation mit 100 erfolgt, u m die Dezimalen zu vermeiden. Die Formel f ü r den Variabilitätskoeffizienten lautet also:

Variabilitätskoeffizient

r -

61 dB)

Der Variabilitätskoeffizient kann nur verwendet werden, wenn die folgenden beiden Voraussetzungen erfüllt sind: 1. Die zur Quantifizierung der Beobachtungen dienende Skala muß einen absoluten Nullpunkt haben. 2. Diese Skala muß konstante Klassengrößen aufweisen. In psychologischen Untersuchungen sowie in den methodisch und thematisch verwandten Forschungsgebieten sind diese beiden Bedingungen verhältnismäßig selten erfüllt6). Beispiel: In Untersuchungen zur „social perception" bedient man sich gern des Tachistoskops, eines Gerätes mit einer Vorrichtung zur sehr kurzen Darbietung von Wörtern und Bildern. Im vorliegenden Falle waren zwei Gruppen von Studierenden untersucht worden: die Eltern der ersten Gruppe blieben mit ihrem monatlichen Einkommen unter 500,— DM, die Eltern der 2. Gruppe lagen über 1000,— DM. Beiden Studentengruppen wurde im Rahmen einer Reihe neutraler Wörter u. a. das Wort „Sparsamkeit" im Tachistoskop angeboten. Für die durchschnittlich erforderliche Zeit zum Erkennen des Wortes ergaben sich folgende Werte: Gruppe 1: M 1 = 5,4 msee 6 ) Gruppe 2 : M t = 3,1 msee

«j = 2,9 msee .s2 = 1,6 msee

Die Gruppe 1 benötigt also eine durchschnittlich längere Auffassungszeit. Außerdem scheint der Vergleich beider Streuungen zu zeigen, daß die Vpn der Gruppe 1 in ihren Auffassungen weniger einheitlich waren. Doch zeigt die Verwendung des Variabilitätskoeffizienten, daß die Streuungen der Lesezeiten für das Testwort bei beiden Gruppen nahezu identisch sind:

Ob der geringe Unterschied beider Werte mit hinreichender Sicherheit eine Aussagefunktion hat oder aber zufällig ist, kann hier zunächst nicht entschieden werden. Wir werden später Probleme solcher Art ausführlich behandeln. 5 ) Während die Forderung nach konstanten Klassengrößen meist aus methodischer Sorglosigkeit unbeachtet bleibt, ist das Fehlen eines absoluten Nullpunktes oft im untersuchten Gegenstandsbereich begründet. THÜRSTONE hat eine Methode zur Bestimmung eines „künstlichen" absoluten Nullpunktes entwickelt, und zwar für den Bereich der Intelligenzforschung, die jedoch auf inhaltlich andersartige Skalen und ihre Meßwerte anwendbar ist. L . L. THUBSTONE, The Absolute Zero of Intelligence Measurement, Psychol. E e v . 35 (1928). 6 ) 1 msee (Millisekunde) ist der tausendste Teil einer Sekunde. 3,1 msee sind also 0,0031 sec oder etwas weniger als eine dreihundertstel Sekunde.

KAPITÜL 6

Vorteile provisorischer Skalen Wenn die Beobachtungen aus vielen hohen stark gebrochenen und/oder stark variierenden Werten bestehen, kann die Berechnung von Mittelwert und Standardabweichung bei Verwendung der bisher besprochenen Formeln sehr langwierig werden. Die notwendige Rechenarbeit kann dann gegebenenfalls mit Hilfe der hier angegebenen Methoden abgekürzt werden. Alle diese Rechenverfahren beruhen auf dem Grundgedanken, die ursprünglich der Variable X zugeordnete Skala zwischenzeitlich durch eine x-Skala zu ersetzen. Zu dieser «-Skala gelangen wir, indem wir den erwarteten Mittelwert m provisorisch = 0 setzen. Dies gelingt, indem wir von den X-Werten den provisorischen Mittelwert abziehen: x = X — TO. Durch diese Transformation werden die Werte in der «-Spalte unterhalb des provisorischen Mittelwertes (m) negativ. Die oberhalb des Mittelwertes Hegenden Werte bleiben positiv. Die so aus der .X-Skala hervorgegangene «-Skala muß in ihren Meßwerten dann am Ende des Rechenganges wieder in die ursprüngliche X-Skala überführt werden. Dabei ist sorgfältig darauf zu achten, daß bei der Aufstellung der Tabelle für die Umrechnung auf eine provisorische Skala die Spalte (1) die Variablewerte so enthält, daß der höchste Wert am Anfang der Tabelle zu stehen kommt 1 ). Die Anwendungsweise dieser Methode soll an der Bearbeitung des Beispiels in Tabelle 16 gezeigt werden. Beispiel: Die Studenten einer Hochschule für Leibesübungen wurden von einem Arzt untersucht. Dabei wurde auch ihre Körperlänge gemessen. Die Meßergebnisse sind in der folgenden Tabelle zusammengestellt : Möglich wäre auch die entgegengesetzte Reihenfolge der Variablewerte. Dann ist allerdings in Formel (14) das Pluszeichen durch ein Minus zu ersetzen.

Provisorisohe Skalen

63

Tabelle 16 (1)

(2)

(3)

(4)

(5)

(6)

X

/

X

fx

z2

/

191 188 187 185 183 182 180 179 178 177 176 175 174 173 172 171 170 169 168 167 166 164 163 161 159 158

1 1 1 2 3 11 5 12 29 36 52 49 78 83 64 62 45 31 33 22 8 12 4 1 1 1

324 225 196 144 100 81 49 36 25 16 9 4 1 0 1 4 9 16 25 36 49 81 100 144 196 225

324 225 196 288 300 891 245 432 725 576 468 196 78 0 64 248 405 496 825 792 392 972 400 144 196 225

18 15 14 12 10 9 7 6 5 4 3 2 1 0 — 1 — 2 — 3 — 4 — 5 — 6 — 7 — 9 —10 —12 —14 —15

18 15 14 24 30 99 35 72 145 144 156 98 78 0 — 64 —124 —135 —124 —165 —132 — 56 —108 — 40 — 12 — 14 — 15 —

647 m =

173

M

=

•\/Zt-(xY

61

10103

t 2 fx

t N

N

+

m

IEf-x\* ( t )

X2

t Zfx2 = 172,91 cm.

=

=

1/10103 |/"647

/—61 \a ( w )

= 3

„Q. '95

c m

Wir wählen zunächst den provisorischen Mittelwert. Dabei sollte derjenige Variablewert als provisorischer Mittelwert gewählt werden, dem allgemein die größte Häufigkeit entspricht, also der Gipfelwert. Dieser Wert wird als provisorischer Mittelwert m zum Nullpunkt der neuen «-Skala. In unserem Fall der Tabelle 16 wählen wir demgemäß versuchsweise m = 173. Die «-Skala entsteht nun dadurch, daß wir m von jedem X-Wert abziehen: x = X — m. Die so entstandenen z-Werte der Spalte (3) werden mit den jeweiligen Häufigkeiten / multipliziert (Spalte 4). Die Spaltensumme beträgt in unserem Beispiel — 61.

Statistische Beschreibung

64

Der Mittelwert — ausgedrückt in den neuen Skalenwerten wird dann Zfx —61 N

—0,094.

647

Danach muß der Mittelwert der «-Skala wieder in die ursprüngliche Skala überführt werden, deren Nullpunkt ja tiefer liegt. Dies geschieht einfach durch Addition des provisorischen Mittelwertes zu dem in der ce-Skala errechneten Mittelwert: M =

+

(14)

Für das Beispiel der Tabelle 16 ergibt sich dann M =

+ 173 = 172,91 cm.

Die Standardabweichung der in Tabelle 16 erfaßten Meßwerte wird auf analoge Weise berechnet. Nach Formel (12) ist « = j / ^f(x~MJ2

. Für M wird auch hier

m in die Formel eingesetzt. In der gleichen Weise wie bei der üblichen Berechnung von s sind die provisorischen x-Werte zu quadrieren. In Tabelle 16 finden wir diese quadrierten Werte in Spalte (5). Danach werden in Spalte (6) die entsprechenden Werte / • x2 gebildet, deren Summe = E f x2 = 10103 beträgt. Zur weiteren Berechnung der Standardabweichung muß diese Summe durch N dividiert werden: £f(x)' N

10103 647

~

-

j / 1 5 , 6 1 5 ist noch nicht die gesuchte Standardabweichung. Dieser Wert ist zu hoch, da die Abweichungen von m und nicht vom wahren Mittelwert M berechnet wurden. Deshalb subtrahieren wir E f • x2

S f•x

— ^ — von {M — w) 2 . Da aber M = — ^

h m ist, beträgt die

Differenz zwischen M und m S f•x

M — m =—~—oder

auch, nun quadriert, (M—m)2

/27f • x\2

= I — j

.

Die Formel für die Standardabweichung nach dieser Kurzmethode lautet also

In unserem Beispiel der Tabelle 16 beträgt die abweichung nach der Formel (15) '10103 647

(öJr)2

=

Kl^ 5 » 615 —0,009

Standard-

= 3,95 cm.

Provisorische Skalen

65

Ist das Material in Klassen eingeteilt, muß das statistische Vorgehen jedoch etwas modifiziert werden: Man wird am besten diese Klassen so betrachten, als repräsentierten sie einzelne Variablewerte. Dadurch wird es möglich, die gesamte, am häufigsten besetzte Klasse provisorisch = 0 zu setzen. Tabelle 17 soll das Gesagte anschaulich machen. Tabelle 17 (1)

(2)

(3)

X

/

X

126—130 121—125 116—120 111—115 106—110 101—105 96—100 91—95 86—90 81—85 76—80 71—75

2 3 5 5 7 11 12 9 7 8 4 3

Summa:

76

m = 98 i = 5

N

6 5 4 3 2 1 0 —1 —2 —3 —4 —5

(6)

X2

/•x2

12 15 20 15 14 11 0 — 9 —14 —24 —16 —14

36 25 16 9 4 1 0 1 4 9 16 25

72 75 80 45 28 11 0 9 28 72 64 75

(4)

+9

t

M = i •

(5)

t-x

559

t

t

Z f x2

Z f x

JS

+

=

7b

98 = 98,6

In der Tabelle 17 ist wieder die Verteilung der Intelligenzquotienten von 76 Probanden erfaßt. Dabei sind immer fünf Skaleneinheiten des Intelligenzquotienten zu einer Klasse zusammengestellt. Die Klassenbreite i beträgt also — wie auch Spalte (1) der Tabelle zeigt —5. Die Klassenmitte wird in der Klasse 96—100 zum provisorischen Mittelwert gewählt. Da 98 der mittelste der fünf Werte dieser Klasse ist, schreiben wir m = 98. Dieser Wert wird der Nullpunkt in der neuen x-Skala. Die Berechnung von Mittelwert und Standardabweichung geschieht dann auf gleiche Weise, wie im vorangegangenen Beispiel, nur daß man bei der endgültigen Korrektur außerdem auf die 2 fx N

Klassenbreite Rücksicht nehmen muß. Der Ausdruck — - - in Formel (14) gibt zwar an, wieviel zu m hinzugezählt werden muß, 5

Haseloff, Statistik,

3. Auil.

66

Statistische Beschreibung

um zu M zu gelangen. Jedoch ist dieser Wert in einer z-Skala ausgedrückt, die wesentlich weniger differenziert ist als die eigentliche Skala (Klassenbreite i = 5). 2 f • x

Der Ausdruck — ~ — muß daher mit der Klassenbreite i multiN

pliziert werden. Damit erhält man eine allgemeinere Berechnungsformel für den Mittelwert eines in Klassen eingeteilten Materials: M = i-

+ m.

(16)

Die Formel zur Berechnung des Mittelwertes mit Hilfe einer provisorischen Skala (14) erweist sich als ein Sonderfall der Formel (16) bei der die Klassenbreite i = 1 beträgt. Wie die Berechnung vorzunehmen ist, geht aus den Spalten 4—6 der Tabelle 17 hervor. Die Summe der fx-Werte in Spalte (4) gibt E f x = 9. Danach berechnet man M = 5 •

+ 98 = 98,6.

Die Berechnung der Standardabweichung bei in Klassen zusammengefaßtem Material geschieht nach Formel (15), nur daß der Wurzelausdruck mit der jeweiligen Klassenbreite multipliziert werden muß. Die generelle Berechnungsformel für s lautet also

Da der Ausdruck unter dem Wurzelzeichen nur in provisorischen «-Einheiten ausgedrückte Werte enthält, die infolge ihrer Zusammenfassimg zu Klassen fünfmal gröber als die Werte der ursprünglichen -X-Skala sind, muß der so berechnete s-Wert um das i-fache zu klein ausfallen. Die Korrektur geschieht einfach dadurch, daß man den Wurzelausdruck mit der jeweiligen Klassenbreite multipliziert. Die näheren Einzelheiten gehen aus den Spalten (5) und (6) der Tabelle 17 hervor. Die Spalte (5) enthält die quadratischen Abweichungen vom provisorischen Mittelwert, gemessen in «-Einheiten, und die Spalte (6) das Produkt aus diesen Werten und den zugehörigen Häufigkeiten. Die Summe der Spalte (6) gibt dann das gesuchte 2 f z2 = 559.

Die Standardabweichung beträgt nun nach Formel (17)

— r ^ F - w ^ Das Rechnen mit provisorischen Mittelwerten und provisorischen Skalen ist besonders vorteilhaft, wenn die Variable werte Dezimalbrüche sind. Hierzu das folgende

67

Provisorische Skalen

Beispiel: In einem Werk wurden die Höchstgeschwindigkeiten einer Serie von 193 Kraftfahrzeugen eines neuen Typs gemessen. Zu berechnen ist hier die mittlere Höchstgeschwindigkeit der getesteten Fahrzeuge sowie die Streuungen der erreichten Geschwindigkeiten : Tabelle 18

(1)

(2)

X

/

146,9—149,0 144,7—146,8 142,5—144,6 140,3—142,4 138,1—140,2 135,9—138,0 133,7—135,8 131,5—133,6 129,3—131,4 127,1—129,2

to =

1 5 12 29 48 45 33 14 4 2

(3)

(4)

(5)

X

fx

x2

fx2

(6)

4 3 2 1 0 —1 —2 —3 —4 —5

4 15 24 29 0 —45 —66 —42 —16 —10

16 9 4 1 0 1 4 9 16 25

16 45 48 29 0 45 132 126 64 50

193

—107

555

h

s)x

zfl*

139,15

i = 2,2

M = 2,2

+ 139,15 = 137,93 km/h

. - « y s - i ^ - r - " » » *

Die Klassenbreite war in unserem Beispiel recht ungewöhnlich gewählt, ohne provisorische Skala würde die Rechnung zusätzlich erschwert sein. Sie beträgt i = 2,2. Als provisorischer Mittelwert wurde wieder die Klassenmitte desjenigen Intervalls gewählt, das die meisten Fälle enthält: m = 139,15. Die Rechnung nach den Formeln (16) und (17) führt dann zu einem niedrigeren Mittelwert M = 137,93 km/h sowie einer relativ kleinen Streuung s = 3,53 km/h.

5'

KAPITEL

7

Verteilungen Empirische Verteilungen Wir waren davon ausgegangen, daß in Gestalt von Zahlen oder Meinungsäußerungen vorliegende Untersuchungsergebnisse statistisch aufbereitet und ausgewertet werden können, wenn diese Fälle oder Beobachtungen über mehrere Variablewerte oder Klassen verteilt sind. Betrachten wir noch einmal die Verteilungen, die uns in den Beispielen begegnet sind, so hatten sie meist annähernd eine Glockenform. Dieser Form sind auch sonst die in Untersuchungen meist anfallenden Verteilungen ähnlich. Doch gibt es hiervon auch mehr oder weniger grobe Abweichungen. Die wichtigsten Abweichungen sind : 1. Schiefe Verteilungen: Die Fälle verteilen sich hier also asymmetrisch um den Mittelwert. Der Gipfel der Verteilung liegt dann weiter rechts oder auch links von der Mitte. Wir sagen, die Verteilung sei ,,schief". Bei solchen Verteilungen liegt der größere Teil der Werte auf der einen Seite vom Mittelwert, während eine geringere Anzahl von Werten über den anderen Teil der Skala breit streut. Dabei unterscheidet man zwischen positiver und negativer Schiefe. Einer Verteilung, deren Hauptanteil auf der linken Seite der Skala konzentriert ist, spricht man eine positive Schiefe zu, sofern links auf der Skala die kleineren Variablewerte angeordnet sind. Siehe Verteilung A in Figur 13. Die Verteilung C der gleichen Figur ist /!

B

Fig. 13

C

Empirische Verteilungen

69

dagegen negativ schief, da sich das Beobachtungsmaterial auf der rechten Seite, bei den höheren Variablewerten häuft. Die Schiefe wirkt sich dahingehend aus, daß das arithmetische Mittel und der Zentralwert unterschiedliche Werte ergeben. J e größer der Unterschied zwischen ihnen ist, um so größer ist auch die Schiefe. Diese Tatsache kann zur Erstellung eines Maßes f ü r die Verlagerung einer Verteilung verwendet werden 1 ). 2. Flache und steile Verteilungen: Die Glockenform kann sehr flach, aber auch sehr steil ausfallen. Diese Abflachung oder „Übertreibung" der Glockenform wird als Exzeß bezeichnet. Der Exzeß gibt darüber Aufschluß, ob sich das Material spitz um die Mitte der Verteilung sammelt oder ob die Verteilung vergleichsweise abgeflacht ist. Dabei verwendet man die Normalverteilung als Vergleichsmaßstab. Eine Verteilung, die spitzer als die Normalverteilung ist, zeigt einen positiven Exzeß. Ist sie dagegen abgeflachter als die Normalverteilung, so spricht man von einem negativen Exzeß. 3. Mehrgipflige Verteilungen: Eine empirische Verteilung muß keineswegs nur einen Gipfel haben. Sie kann, wie man sagt, auch „zweigipflig" oder gar „mehrgipflig" sein. Meist deutet sich in der Zwei- oder Mehrgipfligkeit die Tatsache an, daß wir es mit der Überlagerung mehrerer Verteilungen zu tun haben. Empirisch gefundene Verteilungen lassen sich mehr oder weniger zwanglos als Abweichungen von der symmetrisch, eingipfligen Glokkenform beschreiben. Daher stellt diese Idealform, wenn wir sie einmal so nennen dürfen, den theoretisch wichtigsten Fall einer Verteilung dar. Er steht am historischen, aber auch am praktischen Ausgangspunkt aller wahrscheinlichkeitstheoretischen Überlegungen über das Zustandekommen von Verteilungen. Die mathematischen Modelle jener symmetrischen eingipfligen Verteilung liegen den meisten statistischen Rechenvorschriften zugrunde, die uns im folgenden noch begegnen werden. Ihnen entsprechen die binomialen, hypergeometrischen, normalen oder Gauß-Laplaceschen Verteilungen 2 ). Die häufigsten Abweichungen von der eingipfligen Glockenform zeigen das Merkmal der Asymmetrie. Sie sind vor allem bei einseitigen Begrenzungen anzutreffen, wenn z . B . Null nicht in negativer Richtung unterschritten werden kann. I n diesem Falle ist Als Maß für die Schiefe einer Verteilung benutzt man nach K . P E A R S O N eine Größe, die sich folgendermaßen errechnet: Man zieht vom arithmetischen Mittel den Wert mit der größten Frequenz ab und dividiert das erhaltene Ergebnis durch die Standardabweichung. Im Fall A (Fig. 18) ist der erhaltene Wert positiv, im Fall B — der symmetrischen Verteilung — gleich Null und für den Fall C negativ. 2 ) Wir werden die wichtigsten Eigenschaften dieser Verteilungen diskutieren. Wer aber an ihrer wahrscheinlichkeitstheoretischen Ableitung interessiert ist, sei auf die weiterführende Literatur verwiesen.

70

Statistische Beschreibimg. Verteilungen

unter Umständen eine so extreme Schiefe zu beobachten, daß der Abstieg auf der einen Seite praktisch wegfällt. Dies beobachten wir zum Beispiel bei der Alters- oder Einkommenverteilung in der Bevölkerung, oder auch bei Unfallhäufigkeiten begegnen uns gleichfalls diese J-förmigen Verteilungen. Wir haben es in diesen Fällen häufig mit sogenannten Poissonschen Verteilungen zu tun, auf die wir weiter unten noch zu sprechen kommen. Beispiel: Typisch J-förmige Verteilungen begegnen uns beispielsweise auch in soziometrischen Untersuchungen, und allgemein in der sogenannten Kleingruppenforschung. Hier geht es darum, die Kontakte zwischen den Mitgliedern einer Gruppe quantitativ zu analysieren. Auf Befragen geben hierzu die Gruppenmitglieder über ihre wechselseitigen Kontaktwünsche und -erwartungen Auskunft. So wurde zum Beispiel eine größere Gruppe von Studenten gefragt, wem der Kommilitonen sie ein Geheimnis anvertrauen würden. Es ergab sich dabei folgende Verteilung der Studenten hinsichtlich der Häufigkeit, mit der jeder einzelne Gruppenangehörige von anderen Gruppenmitgliedern genannt wurde: Die Ergebnisse der soziometrischen Untersuchung Tabelle 19 Nennungshäufigkeit P% zeigen, daß gut ein Drittel 34 der Angehörigen der Grup0 mal 32 1 „ pe ungenannt bleibt, daß 15 2 „ ihnen also kein Gruppen7 3 „ mitglied ein Geheimnis an4 4 „ vertrauen möchte. Ein 3 5 „ 1 6 „ weiteres Drittel wird genau 7 2 einmal genannt. Es handelt 0 8 „ sich dabei meist um dieje1 9 „ nigen Gruppenmitglieder, 10 „ 0 0 die in stabilen Einzelkon11 „ 1 12 „ takten stehen. Studierende 100 mit mehr als sieben Nennungen sind selten. Es sind meist Gruppenmitglieder, die auch in anderer Hinsicht den Mittelpunkt der Gruppe bilden. Graphisch übersetzt stellt sich die gefundene Verteilung in Figur 14 auf Seite 71 dar. Einen interessanten und nicht so seltenen Fall stellt schließlich die zweigipflige U-förmige Verteilung dar. Das am häufigsten für sie angeführte Beispiel ist die Verteilung der Grippesterblichkeit auf die Altersklassen der Bevölkerung. An dieser Krankheit sterben nämlich am häufigsten Säuglinge und sehr alte Menschen. Es gibt jedoch auch typische Urteils- und Meinungsverteilungen, bei denen dieser Verteilungstypus sich herausstellt. Meist handelt es sich

Empirische Verteilungen

71

Nennungshäufigkeit

Fig. 14

dabei um Stellungnahmen und Urteile zu einem peniblen oder wirklich wichtigen Problem, über das jedoch eine nur sehr unvollständige Information zur Verfügung steht. Beispiele wären: „ E s gibt ein Fortleben nach dem Tode", „Der Mars ist von menschenähnlichen Wesen bewohnt" oder „Durch den technischen und wirtschaftlichen Fortschritt sind die Menschen heute glücklicher geworden". Beispiel: Im folgenden Beispiel sollten 326 Vjm u. a. beantworten, für wie wahrscheinlich sie es halten, daß Menschen ferne Sterne des Milchstraßensystems jemals besuchen werden : Die Eintrittswahrscheinlichkeiten wurden in verbaler Form vorgegeben : Tabelle 20

bestimmt wahrscheinlich möglicherweise WN vermutlich nicht sicher niemals es ist unmöglich

34 15 7 8 4 9 23 100

Der typische Charakter dieser Verteilung wird in graphischer Darstellung besonders deutlich (Fig. 16).

72

Statistische Beschreibung. Verteilungen

Binomialverteilung Unter den Glockenkurven kommt den symmetrisch geformten die größte Bedeutung zu. Man nennt sie deshalb auch normale Verteilungen. Sie bilden sich überall dort heraus, wo Ereignisse nur durch Zufälle bestimmt, um eine Zielgröße streuen. Dies ist zum Beispiel der Fall, wenn ein Schütze vielfach hintereinander auf eine Schießscheibe schießt oder wenn eine ganze Reihe von Messungen an ein und demselben Objekt ausgeführt werden3). Wir können uns dies im kleinen Maßstab besonders an der Galtonschen Zufallsmaschine veranschaulichen: Man schlägt in ein Brett eine größere Anzahl von Nägeln so ein, daß sie Reihe für Reihe genau „auf Lücke" stehen (vgl. Fig. 16): 3 ) Es ist in diesem Zusammenhang von gutem heuristischem Wert, Treffgenauigkeit („Akkuranz") und Wiederholungsgenauigkeit („Präzision") zu unterscheiden. I m ersten Falle handelt es sich um die durchschnittliche Abweichung von der Zielgröße, im zweiten Fall dagegen u m die Streuung der Nennungen um einen den Zielpunkt im bestimmten Grade verfehlenden Wert. Beim Schießen z. B. würde einer hohen Treffgenauigkeit eine enge Streuung um die 12 entsprechen. Die Wiederholungsgenauigkeit besagt demgegenüber, daß die Waffe einen systematischen Fehler erzeugt, so daß beispielsweise die Mehrzahl der Treffer im Bereich von „zwei oben rechts" liegen. I n Kurzform könnte man sagen: Wiederholungsgenauigkeit ist gleich Treffgenauigkeit am falschen Ort.

Binomialverteilung

73

o o oN 'o o o ox ' 0 0 0 0 0 ' ' o o o o o oN 'O O O O O O CT

'O

O

O O

O

O

O

CT

' o o o o o o o o o ' ' o o o o o o o o o o "

Fig. 16

Stellt man dieses Nagelbrett dann schief und leitet von einer trichterförmigen Öffnung aus Kugeln (die möglichst nur wenig kleiner sind, als der Nagelabstand) in das Quadrat ein, so sammeln sich die Kugeln in unten angebrachten Fächern. I m mittleren Fach kommen stets die meisten Kugeln zu liegen, während nach den Seiten hin die rechten und linken Fächer immer weniger gefüllt sind. Es bildet sich auf diesem Wege eine Zufallsverteilung heraus. Allerdings geschieht dies nur, wenn die Anzahl der Kugeln hinreichend groß ist und der Einfüllvorgang keinen Einfluß auf den Weg der einzelnen Kugel zu nehmen vermag. Die so entstehende Zufallsverteilung läßt sich mathematisch darstellen. Und zwar gelingt dies, wenn wir den zweigliedrigen Ausdruck, das sogenannte Binom ( a + b ) der Reihe nach lmal, 2mal, 3 mal usf. mit sich selbst multiplizieren. Wir erhalten so: (a+b) i = (a+b)2 = (a+bf = {a+b)* = und so fort bis: (a+b)"

a+b a* - 2ab 4 b2 as + 3 a2b + Sab2 + b3 + 4 a3b + 6a2b2 + 4oi»3 + b4

anb° -

n a"~ 1 6 1 -

+ [ h r

b n

-

- 2

i +

c

r

&

2

n

+

Statistische Beschreibung. Verteilungen

74

Die Beizahlen der Summanden bezeichnet man also als Binomialkoeffizienten 4 ). Sie lauten in der zweiten Zeile z. B. 1 2 1 oder in der vierten Zeile 1 4 6 4 1. Jede einzelne Zahl stellt dabei die Summe der beiden, über ihr stehenden Zahlen dar, in deren Lücke sie steht. Diese Binomialkoeffizienten lassen sich in Form des sogenannten Pascalschen Dreiecks anordnen: Binomialkoeffizienten

für die Potenz n

1

0 1

1

1

1 2 1 1 3 3 1 1 4 6 4 1 5 10 10 5 1 1 1 6 15 20 15 6 1 1 7 21 35 35 21 7 1

2 3 4 5 6 7

Jede Zeile in diesem Pascalschen Dreieck entspricht der Verteilung in einer speziellen Galtonschen Zufallsmaschine: Die erste Zeile käme zustande, wenn die Kugeln nur in ein Fach fallen können, die vierte Zeile dagegen würde sich ergeben, wenn vier Fächer zur Verfügung stehen und die dreiundzwanzigste Zeile schließlich resultiert bei einer Zufallsmaschine mit dreiundzwanzig Fächern. Die Binomialkoeffizienten müssen hierbei als Verhältniszahlen verstanden werden: Angenommen, wir haben ein Galtonbrett mit vier Fächern und lassen genügend viele Kugeln hinunter rollen. Es werden sich die Anzahlen der Kugeln in den einzelnen Fächern wie 1 : 3 : 3 : 1 verhalten. Diese Verteilung wird eine Binomialverteilung genannt. Beispiel: Nehmen wir an, wir hätten 2000 Familien mit je vier Kindern. Wie viele Familien werden wahrscheinlich keine Jungen, einen Jungen usw. bis schließlich vier Jungen haben ? Logisch gibt es insgesamt fünf Möglichkeiten: 4

) Hierin ist z. B. J^j lies „sieben über drei" eine abgekürzte Schreibweise 7•6•5

für ——-—— = 35. Dementsprechend bedeutet der Binomialkoeffizient tll\ 330_ \ 4 / ' 1 11 -- 12 0- 3- 9- 4- 8 Dabei bestimmt sich die Anzahl der Faktoren im Zähler durch den Wert der untenstehenden Zahl, wobei im Nenner prinzipiell mit 1 zu zählen begonnen wird. Der Zähler des Binomialkoeffizienten beginnt prinzipiell mit der angegebenen Zahl und erreicht in fallender Reihe so viele Glieder wie im Nenner angegeben sind.

Bmomialverteilung 4 Jungen 3 Jungen 2 Jungen 1 Junge kein Junge

75

kein Mädchen 1 Mädchen 2 Mädchen 3 Mädchen 4 Mädchen

Wir können davon ausgehen, daß es praktisch zufällig ist, ob ein Junge oder ein Mädchen geboren wird. Demnach ist jede der fünf Aufteilungsmöglichkeiten einem Fach in der Galtonsehen Zufallsmaschine vergleichbar. Wir hätten demnach ein Brett mit fünf Fächern und 2000 Kugeln. Wie sich die Kugeln etwa verteilen würden, sagtuns die fünfte Zeile im Pascalschen Dreieck, nämlich 1 : 4 : 6 : 4 : 1 . Diese Zahlen hätten wir dann so umzurechnen, daß ihre Summe 2000 ergibt: Tabelle 21

(3)

(1)

(2)

1 2 3 4 5

0 Jungen und 4 Mädchen 1 Junge und 3 Mädchen 2 Jungen und 2 Mädchen 3 Jungen und 1 Mädchen 4 Jungen und 0 Mädchen

/ 125 500 750 500 125

Familien Familien Familien Familien Familien

N = 2000 Familien

I n komplizierteren Fällen ist es geboten, die jeweilige Häufigkeit / direkt zu berechnen. Dies ist mit folgender (unseren didaktischen Prinzipien entsprechend geschriebener) Formel möglich 5 ). f^N-f-ypt-a-T,)*-*-

1

(18)

F ist hier die Anzahl der Variationsmöglichkeiten von X. I n unserem Beispiel ist F = 5. p dagegen stellt die Wahrscheinlichkeit dar, mit der eine der Alternativen tatsächlich realisiert wird, hier also die Wahrscheinlichkeit, daß die Eltern einen Jungen bekommen. p = 1 würde bedeuten, daß es in jedem Falle ein Junge wird. Jungen und Mädchen sind aber praktisch fast gleichwahrscheinlich. Also beträgt in unserem Beispiel j? = 0,5; würde dagegen nur jedes zehnte Kind ein Junge werden, so wäre p = 0 , 1 . Deshalb lautet die Berechnungsformel (18) für unser Beispiel: • 0,5X • 0 , 5 4 _ x .

/ = 2000 •

6 ) Die Formel (18) geht aus der Wahrscheinlichkeit W hervor, in N Fällen Xmal ein bestimmtes Ereignis anzutreffen, wenn die Einzelwahrscheinlich-

keit p ist: WN . x =

• pN-x



(1—pf.

76

Statistische Beschreibung. Verteilungen

Der Rechengang geht aus folgender Tabelle hervor: Tabelle 22 (1)

(2) i

(3)

(4)

X

X

0,5

0 1 2 3 4

1 4 6 4 1

1 0,5 0,25 0,125 0,0625

F = 5

X

(5) 4

0,5 "

x

/

0,0625 0,125 0,25 0,5 1

125 500 750 500 125 N = 2000

(6)

P% 6,25 25,0 37,5 25,0 6,25 100

Die Spalte (6) enthält die prozentuale Häufigkeitsverteilung. I n der ersten Reihe beträgt P% = 6,25. Dieser Wert besagt zweierlei: Erstens ist es die prozentuale Häufigkeit des Falles, daß alle Kinder Mädchen sind. Zweitens drückt P% zugleich die Wahrscheinlichkeit aus, daß wir in einer zufällig aus der untersuchten Gruppe herausgelösten Familie mit vier Kindern ausschließlich Mädchen antreffen. Wegen der forschungstechnischen Wichtigkeit derartiger prozentualer Zufallsverteilungen teilen wir einige davon im Anhang mit (Tafel G). Poisson-Verteilung Innerhalb einer großen Reihe von Beobachtungen, Messungen oder Testergebnissen können die jeweils untersuchungswichtigen Klassen von Ereignissen sich als nur selten besetzt herausstellen, die erwarteten Fälle oder die untersuchungswichtigen Aussagen werden dann nur in kleiner Anzahl angetroffen. Mit diesem Problem hat sich der französische Mathematiker und Physiker POISSON 6 ) schon sehr früh (1837) beschäftigt. Er fand für die Behandlung des Problems eine geeignete Formel. Diese blieb 61 Jahre lang unbeachtet und wurde erst im Jahr 1898 durch L. v. B O R T 7 KIE"WICZ wiederentdeckt ). 1907 hat dann der Chemiker W . S . G Ö S S E T , der seine bedeutenden statistischen Arbeiten unter dem Pseudonym „ S T U D E N T " veröffentlichte, die Formel zum dritten Male entdeckt 8 ). 6 ) QTJETELET (Seite 9) hielt das GAUSS-LAPLAOÉsche Fehlergesetz für ein fundamentales Naturgesetz, von dem er erwartete, daß es sich auch in allen Ereignisverteilungen des sozialen Lebens durchsetzen müßte. K . POISSON, der selbst für das Fehlergesetz die heute noch übliche Bezeichnung „Normalverteilung" eingeführt hat, erkannte demgegenüber, daß mindestens für die Sozialstatistik die Gaußsche Verteilung keineswegs die Regel, sondern eine Ausnahme darstellt. Er demonstrierte viele Verteilungstypen, die in Kurvendarstellung durchaus asymmetrische und auch zweigipflige Formen aufweisen. 7 ) L. v. BORTKIEWICZ „Das Gesetz der kleinen Zahlen", Leipzig ( 1 8 9 8 ) . 8 ) STUDENT „On the error of counting with haemacitometer", Biometrica Vol. V, (1907).

Poisson-Verteilung

77

Weisen u n t e r 2000 Fällen n u r 50 das Merkmal X auf, d a n n ist die Wahrscheinlichkeit sehr klein, d a ß in einer zufälligen Auswahl dieses Merkmal X angetroffen wird. Wir bezeichnen diesen Sachverhalt als „seltenes Ereignis". Hier wird die Binomialverteilung zu einer Verteilung seltener Ereignisse, wie sie Poisson beschrieben h a t . Diese sogenannte „Poisson-Verteilung" ist also d a d u r c h charakterisiert, d a ß p gegen Null geht, ohne diesen W e r t jedoch zu erreichen, w ä h r e n d die Anzahl der Variationsmöglichkeiten F unendlich groß wird. J e d o c h behält das P r o d u k t von p u n d F stets einen konstanten, kleinen W e r t . Klein ist also nicht p allein, sondern F • p9). Die PoissoNsche Formel f i n d e t h e u t e in der Physik, aber beispielsweise a u c h in der Treffertheorie der Biologie, in der Bevölkerungsstatistik u n d in der modernen psychologischen Testtheorie wichtige Anwendungen. Dabei ist die Verteilung nach P O I S S O N d u r c h a u s als Spezialfall aus der Binomialverteilung abzuleiten. E r i n n e r n wir uns zunächst an die F o r m e l der Binomialverteilung:

F ü r die Poisson-Verteilung k ö n n e n wir p =

M

setzen, wenn M

(z. B. in der GALTONschen Zufallsmaschine) die mittlere Anzahl von Kugeln pro F a c h bedeutet, dabei beschreibt F die Anzahl der Fächer, also den der Variationsmöglichkeit. M Setzen wir in der F o r m e l der Binomialverteilung p = , so ist = M

F—1\ I M\x x j-lT-j

f,

Jf\tf-x-1 F!

I n der Verteilung der seltenen Ereignisse soll n u n F , wie wir gesehen h a b e n , sehr groß sein. Wir lassen deshalb F unendlich groß werden. D a n n geht der Ausdruck M\F-X-1

(>-f)

e

und. ' F-

1,

1

1

F—l

F—2

F—3

\

)

F*

X!

F

F

F

X

-M

F—X ' ' ''

F

1 geg6n

X!

d a alle anderen F a k t o r e n gleich 1 werden. B e a c h t e n wir beides beim Grenzübergang F-> oo, so erhalten wir als F o r m e l f ü r die Poissonsche Verteilung: N • Mx F (X) = " Mm .

(19)

8 ) Demgegenüber ist das Vorliegen einer Normalverteilung daran gebunden, daß F • p sehr groß ist.

78

Statistische Beschreibung. Verteilungen

Hier ist hervorzuheben, daß sich die Parameter der PoissonVerteilung vergleichsweise leicht bestimmen lassen, da die als die Elemente der Formel sich manifestierenden Realbedingungen mit den Parametern der Grundgesamtheit direkt verknüpft sind. So stellt sich vor allem das arithmetische Mittel als das Produkt von Variationsmöglichkeit und Eintrittswahr scheinlichkeit dar 10 ). M = F •p

(20)

Die Standardabweichung der Poisson-Verteilung ist dann die Quadratwurzel aus dem arithmetischen Mittel der Verteilung: a = VW = Vf^P-

(2i)

Die Aussagefunktion der Poisson-Verteilung soll das folgende Beispiel verdeutlichen. Beispiel: Zur Erfolgskontrolle einer Werbeaktion und zur Überprüfung der Prognose wurden Werbemittel in N = 472 gleichgroßen Ortschaften der B R D gestreut. Als Erfolg wurde die Einsendung eines Coupons gezählt. Es kam zu 441 Coupon-Reaktionen. Die mittlere Anzahl von Coupon-Reaktionen pro Ort beträgt also M = 4 4 1 : 4 7 2 = 0,9343. Für den Fall, daß die Bevölkerungsstruktur der Ortschaft für den Erfolg der Werbeaktion bedeutungslos wäre, müßte die Verteilung der Coupon-Reaktionen zufällig sein, d. h. in diesem Falle der Poisson-Verteilung folgen. Für diesen Fall müßte die tatsächliche Verteilung der Coupon-Reaktionen hinreichend mit der Verteilung nach Formel (19) übereinstimmen. * -

° ' Ü 3 4 : j X-a; , 1 " 8 3 4 3 • * =

JL!

• 185,389.

Hier sei jedoch hervorgehoben, daß die Rechenarbeit durch die Verwendung von Logarithmen stark vereinfacht werden kann. Die hierzu erforderliche Formel lautet: log F {X) = X • log 0,9343 + log 185,389 — log (X!). Danach berechnen sich die Werte der Spalte (2) in der Tabelle 23. Unser Beispiel zeigt, daß die Übereinstimmung der empirischen und der nach Poisson errechneten Daten so groß ist, daß tatsächlich angenommen werden kann, daß der Erfolg der Werbeaktion nicht von Einflußgrößen abhängig ist, die mit der Größe, dem Charakter oder der Struktur der beworbenen Ortschaften verknüpft sind. Diese Erkenntnis sehließt natürlich nicht aus, daß die Zufallsverteilung Ausdruck einer großen Anzahl anderer Einflußgrößen ist, die beispielsweise mit dem Alter, Geschlecht oder Einkommen 10 ) Hier ist allerdings zu beachten, daß wir es im folgenden nicht mit den aus der Stichprobe bestimmten Maßwerten zu tun haben, sondern eben mit den Parametern der Population. Sie müßten eigentlich — wie wir es später auch tun werden — mit griechischen Buchstaben symbolisiert werden.

Normalverteilung

Tabelle 23 (1)

(2)

(3)

(4)

X

f(X)

/

0

185,4 173,2 80,9 25,2 5,9 1,1 0,2 0,0

186 171 76 28 9 1 0 1

0 171 152 84 36 5 0 7

471,9 N = 472

455

1

2 3 4 5 6 7

(5)

(X—Mf

0,96 0,04 1,04 2,04 3,04 4.04 5,04 6,04

0,92 0,00 1,08 4,16 9,24 16,32 25,40 36,48

M =

= 0,93

M =

= 0,97

-V

= VM

•X

(V) f(X-M) 171 0 82 116 83 16 0 36 504

empirisch ermittelt: Zf

(6)

(X—M)

nach POISSON errechnet: N

79

455 = 0,96 472

Zf(X—MY

1/504

,

, .„

der umworbenen Individuen zusammenhängen. Nur die Frage der Ortsabhängigkeit des Werbeeinsatzes wurde geklärt. Normalverteilung Die Normalverteilung ist für die Statistik von größter Bedeutung. Sie wurde nach M O I V R E ( 1 7 3 3 ) und L A P L A C E ( 1 7 7 4 ) von G A U S S ( 1 8 2 3 ) berechnet. G A U S S gab ihr damals den Namen „Fehlerkurve", weil er sie im Zusammenhang mit den bei physikalischen Messungen entstehenden Fehlern erarbeitete. Auch heute noch wird bei entsprechenden Problemen von „Fehlerkurve" gesprochen. Ein typisches Problem solcher Art ist die vielfache Wiederholung von Messungen an ein und demselben Objekt, zum Beispiel der Abstand eines Doppelsterns. Alle diese Messungen weichen mehr oder weniger stark voneinander ab. Bei hinreichend großer Anzahl ist jede der Abweichungen von dem zu suchenden tatsächlichen Wert als zufällig zu betrachten, sofern keine systematischen Fehler auftreten (durch Temperaturschwankungen, Wechsel des Versuchsleiters u. ä.). Alle Meßwerte gruppieren sich dabei wie einer Regel entsprechend um einen Mittelwert. Eine wichtige Leistung von C. F. G A U S S ist es nun, diese „Regel" als eine mathematische Gesetzmäßigkeit formuliert zu haben, die die Gruppierung der Meßwerte um den Mittelwert aufzeigt. Es gibt viele theoretische und praktische Anlässe dafür, eine große Zahl von Messungen an ein und demselben Objekt zu vollziehen. Jedoch besteht ein wichtiger Unterschied zwischen biologischen, anthropologischen und verhaltenswissenschaftlichen Mes-

80

Statistische Beschreibung. Verteilungen

sungen einerseits und denjenigen der klassischen Physik andererseits 11 ). Im ersten Falle werden die Messungen nämlich an einem Objekt nicht tausende Male wiederholt. Vielmehr konstituiert jede Messung ein neues Objekt, da der „Gegenstand" der Messung im theoretischen Kontext nur als Meßwert figuriert. Denken wir an die Verteilung von Intelligenzquotienten, die mit Hilfe eines Tests ermittelt wurden, so ist die dabei sich ergebende Verteilung der G A U S S schen Fehlerkurve in anderer Hinsicht hinreichend ähnlich. Die Unterschiede der jeweils ermittelten Intelligenzmaße resultieren aus einer Fülle unterschiedlicher Einflußgrößen. Hier sind die unterschiedlichen biologischen Leistungsdeterminationen hervorzuheben ; hinzu kommen stark differierende Erziehungsverhältnisse und Ausbildungsmöglichkeiten, schließlich fügt die Testbatterie selbst einige (nur teilweise kontrollierbare) Bedingungen hinzu. Alle diese Einflußgrößen wirken in ihrem Zusammenspiel wie die Nägel auf dem GALTONbrett und bedingen daher, sofern allerdings genügend viele Fälle vorhanden sind, eine GAtrsssche Normal Verteilung. Immer natürlich vorausgesetzt, daß keine systematischen — z. B . im Untersuchungsverfahren oder in der Auswahl der Untersuchungspersonen begründeten — Fehler den Kurvenverlauf der Ergebnisse verzerren. Die Nor malVerteilung stellt nun den weitaus wichtigsten Grenz fall der Binomialverteilung dar. Allgemein kann gesagt werden: Die Binomialverteilung geht dann in die NormalVerteilung über, wenn F gegen Unendlich geht und p = 0,5 ist. Bedingungen für das Auftreten der Normalverteilung sind, daß unendlich viele Variationsmöglichkeiten zugänglich sind und daß die Abweichung vom Mittelwert nach jeder Seite hin gleichwahrscheinlich ist. Die dabei entstehende Verteilungskurve ist durch eine Exponentialfunktion 12 ) beschreibbar. In der hier verwendeten Symbolsprache hat die die Normalverteilung betreffende Exponentialfunktion folgendes Aussehen : _ (.X-MY

f = tu • e

. (22) Dabei ist e — wie schon gesagt — die Basis der natürlichen Logarithmen, also e = 2,7183. /m ist die Höhe der Ordinate am Mittelwert M. In der Normalverteilung beträgt f u gleich 1/s Y2n , für den Fall, daß die Fläche zwischen Kurve und Abszissenachse gleich 1 ist. Die Gestalt dieses Ausdrucks für die Höhe der Gaußschen Verteilung im Mittelwert hängt damit zusammen, daß in der Fehn ) In der modernen Atomphysik haben wir entsprechende Verhältnisse, die gleichfalls keine wiederholten Messungen am selben Objekt erlauben. 12 ) Exponentialfunktionen sind von der Art / (z) = e z .Die hier hochgestellte Veränderliehe z ist der Exponent.

Normalverteilung

81

lertheorie die Treffgenauigkeit („Akkuranz", Anm. 3, S. 72) das Reziprok der Standardabweichimg multipliziert mit j/iT ist. Dieses Maß entspricht dem Wert h. Damit gewinnt die Formel für die Normalverteilung folgende Gestalt: / =

^ Vn

.

e-h'(Z-M)\

Dabei ist h = — W e n n h anwächst, wird die Normalverteis-V2

lung schmaler, d. h. sie bekommt einen positiven Exzeß. Demgemäß mißt h auch die Dichte, mit der die Beobachtungen um M streuen. Die wichtigsten Eigenschaften der Normalverteilung werden in der Figur 17 veranschaulicht. Diese wichtigen Eigenschaften sind die folgenden: 1. Die Kurve reicht auf der Achse von — oo bis + oo. Das bedeutet, daß die Normalverteilung — anders als die Binomialverteilung — unendlich viele Variationsmöglichkeiten F aufweist. Da jede einzelne Variationsmöglichkeit besetzt sein muß, muß zwangsläufig auch N unendlich groß sein. 2. Die Kurve hat ihr Maximum bei M und fällt von dort aus nach beiden Seiten symmetrisch ab. 3. Die beiden steilsten Anstiege der Kurve (ihre sogenannten Wendepunkte) liegen bei M — s und bei M -{- s, so daß der zwischen ihnen hegende Abszissenabschnitt gleich 2 s ist. 4. Die Tangenten in den Wendepunkten schneiden die Abszissenachse in den Punkten M — 2 s und M + 2 s.

6

Haseloff, Statistik,

3. Aufl.

82

Statistische Beschreibung. Verteilungen

5. Es ist genau bekannt, wieviel Prozent der Fälle oder Beobachtungen in bestimmten Abschnitten der Normalverteilung zu liegen kommen.

Mit Hilfe der Berechnung der Standardabweichung gelangen wir zu einer statistisch wichtigen und praktischen Ordnung der Fälle: 68,3% aller Beobachtungen liegen um den Mittelwert M und innerhalb der Grenzen, die durch (M s) und (M — s) definiert sind. 95,5% aller Fälle oder Beobachtungen liegen zwischen den Grenzen (M + 2 s) und {M — 2s). Bia auf 0,3% liegen schließlich alle Beobachtungen zwischen den Grenzen {M + 3 s) und (M — 3s). Dies geht aus Figur 18 hervor, aus der man auch ersehen kann, welche Anteile zwischen anderen Werten der Skala liegen. Zwischen 2 8 und 3 s liegen in der GAtrssschen Verteilung also 2,1 % und oberhalb 3 s nur noch 0,1% der Beobachtungen.

Eine andere wichtige Eigenschaft der Normalverteilung liegt in der Möglichkeit, kumulative Häufigkeiten auszudrücken. Zum Beispiel wird die Beurteilung von Menschen mit Hilfe exakter psychologischer Methoden erleichtert und präzisiert, wenn man den gewonnenen Ergebnissen einen Ort innerhalb der nach kumulativen Häufigkeiten geordneten Gesamtergebnisse zuweist. Die GATJSSsche Kurve gewinnt als Summenkurve folgendes Aussehen

Fig. 19

Diese Kurve gibt an, wieviel Prozent der Verteilung jeweils unter einem bestimmten Wert liegen. Die Prozentwerte der Kurve

Normalverteilung

83

erhält man durch Summierung der Prozentzahlen der Figur 18. Dementsprechend liegen 8 4 % der Verteilung unter dem Wert + 1 « . Diesen Wert erhält man durch Addition der Prozentzahlen links von + 1 s in Figur 18, d. h. 0,1 + 2 + 14 + 34 + 34 = 84,1 oder abgerundet 8 4 % . Die verschiedenen Werte der Kurve werden in Tabelle H (Kap. 21) detailliert angegeben. Die Tabelle H wird sich für uns bei der Bearbeitung vieler Aufgaben als sehr nützlich erweisen. E s ist übrigens interessant sich klar zu machen, welche Formen die Normalverteilung bei unterschiedlicher Streuung anzunehmen vermag. Die folgende Figur zeigt die NormalVerteilung für M = 2 sowie drei unterschiedliche Werte für s =- 0,5, s = 1 und s = 2. Setzen wir die jeweiligen Werte für M und s in die Formel (22) ein, so ergibt sich für die unterschiedlichen Werte von s : , l/2 / = /

-2(X-2)> .e

.... .. (für s = A0,5)

(X-2)' (für s = 1)

ißn 1 2 j/äTr"

6*

(X-2)'

(für s = 2)

84

Statistische Beschreibung. Verteilungen

Abschließend wollen wir darauf hinweisen, daß eine der Normalverteilung ausreichend ähnliche Verteilung immer d a n n möglich und also auch zu erwarten ist: 1. wenn eine für den Untersuchungsansatz hinreichend große Zahl von Messungen, Beobachtungen oder Fällen vorliegt. 2. wenn das zu Messende nicht vorausgelesen ist, sondern ausschließlich dem Zufall unterliegt sowie 3. wenn die Variablewerte durch mehrere unabhängige Faktoren bestimmt sind.

Standardisierte Normalverteilung So unterschiedliche Kurvenverläufe Normalverteilungen annehmen können, stets lassen sie sich so transformieren, daß sie alle das gleiche Aussehen gewinnen. Dadurch werden sie auch alle besser miteinander vergleichbar. Dies geschieht — wie beim Rechnen mit provisorischen Skalen (Kap. 6) — durch eine Transformation der X-Skala. Wir ersetzen diese .X-Skala durch eine sogenannte z-Skala. Hierbei ist zu beachten: 1. Das M in der X-Skala wird zum Nullpunkt der z-Skala. Dies wird leicht erreicht, indem wir von jedem X-Wert M abziehen. 2. Wir machen die Strecke s zur Einheit der neuen z-Skala. Dies geschieht dadurch, daß wir alle auftretenden Strecken durch s dividieren. Dadurch bekommt die Strecke s die Länge 1.

Die untenstehende Formel beschreibt die Verwandlung von X in z:

I n einer hiermit transformierten Normalverteilung gilt: M = 0 und 5 = 1 . Wir nennen diese spezielle Normalverteilung die Standardisierte Normalverteilung. Sie ist das praktikable Kernstück der Anwendung der Normalverteilung. Wir kommen auf sie noch genauer zurück. (Kap. 9 und die folgenden.) Zunächst soll noch ein empirisches Beispiel f ü r eine Verteilung gegeben werden, die annähernd der Normalverteilung folgt. Beispiel: Nehmen wir an, in einem psychologischen Testverfahren h ä t t e eine Gruppe von Studenten 35 Aufgaben zu lösen. Die Tabelle 24 (S. 86 und 87) gibt die jeweilige Anzahl von richtigen Lösungen (X) wieder. Der erste Schritt zur Normierung besteht darin, die Abweichungen der Variablewerte X vom Mittelwert, also X — M, zu errechnen (Spalte (4)). Diese Abweichungen sollen im Anschluß an die englische Bezeichnung „raw deviation" als Rohabweichungen bezeichnet werden. Durch die Überführung der Rohwerte in Werte der Rohabweichung ist die Skala auf den Nullpunkt normiert. N u n m u ß noch

Standardisierte Normalverteilung

85

die Länge der Skalenabschnitte normiert werden. Dies kann dadurch geschehen, daß man die Länge der Skalenabschnitte an der Standardabweichung mißt. Der Mittelwert ist gleich Null, und derjenige Wert der Rohabweichung, der eine Standardabweichung oberhalb des Mittelwerts liegt, wird dadurch gleich 1 gesetzt. Diese Überführung der Rohabweichung in Standardwerte z (engl.: Standard score) geschieht also auf dem Wege, daß man die Rohabweichung durch die Standardabweichung der Verteilung dividiert. Auch die in Tabelle 24 aufgeführten Werte sind so normiert worden, daß sie den Mittelwert = 0 und die Standardabweichung = 1 haben. Der Rohwert 10 z. B . ergibt in Standardwerten ausgedrückt 10-20 _ - 1 0 _ 3,30 ~~ 3,30 ~~ d,U ' Das bedeutet, daß der Rohwert 10 unter dem Mittelwert liegt und von ihm um einen 3,04fachen Betrag der Standardabweichung entfernt ist. Der Standardwert erfüllt eine Reihe von Anforderungen im Hinblick auf die Vergleichbarkeit verschiedener Werte; in der Praxis hat er jedoch einige Schwächen. Teils muß man mit Dezimalen arbeiten, um hinreichend genaue Werte zu erhalten, teils kommen auch negative Werte vor. Die Anzahl der Dezimalen kann dadurch verringert werden, daß man alle Werte mit einer Konstanten, z. B . mit 10, multipliziert. Der Standardwert 3,04 ergäbe dann — 30,4. Um die negativen Vorzeichen zu vermeiden, kann man zu allen Werten eine geeignete Konstante, z. B . 50, hinzuzählen. Unser Standardwert wird dann — 30,4 + 50 = 19,6. Nach diesem Verfahren erhält man eine Verteilung, die den Mittelwert 50 und die Standardabweichung 10 besitzt, und die im allgemeinen ohne Dezimalen eine zufriedenstellende Genauigkeit zeigt (Tab. 24, Spalte (8)). Selbstverständlich können auch andere Werte als 50 und 10 für die Umrechnung verwendet werden, aber gerade diese Werte erweisen sich oft als recht praktisch und erfreuen sich daher einer häufigen Anwendung. Das Standardwert-Verfahren löst allerdings nur das Problem der Vergleichbarkeit im Hinblick auf den Mittelwert und die Streuung. Haben dagegen die zu vergleichenden Verteilungen ein wesentlich verschiedenes Aussehen, ist z. B . die eine positiv und die andere negativ schief, dann sind die gleichlautenden Standardwerte beider Verteilungen dennoch nicht in jeder Hinsicht vergleichbar. So kann beispielsweise der prozentuale Anteil des Materials, der unterhalb eines bestimmten gegebenen Standardwertes liegt, von Verteilung zu Verteilung variieren.

86

Statistische Beschreibung. Verteilungen Tabelle 24 (1)

(2)

(3)

(4)

X

/

f.X

X—M

8 9 10 11 12 13 14 15 16 17 18 19 20 21 22 23 24 25 26 27 28 29 30 31

1 0 0 1 8 9 27 34 58 82 112 126 119 113 108 68 55 35 24 11 8 6 3 1

8 0 0 11 96 117 378 510 928 1394 2016 2394 2380 2373 2376 1564 1320 875 624 297 224 174 90 31

—12 —11 —10 — 9 — 8 — 7 — 6 — 5 — 4 — 3 — 2 — 1 0 1 2 3 4 5 6 7 8 9 10 11

N =1009

20180

(5)

(X—M)2 144 121 100 81 64 49 36 25 16 9 4 1 0 1 4 9 16 25 36 49 64 81 100 121

(6)

f-(X—Mf 144 0 0 81 512 441 972 850 928 738 448 126 0 113 432 612 880 875 864 539 512 486 300 121 10974

Es gibt verschiedene Möglichkeiten, auch für diese Fälle eine Vergleichsbasis zu schaffen. Eine oft verwendete Methode besteht in der Überführung der Rohwerte in Perzentile (vgl. Kap. 5, Streuungsmaße). So ist z. B. das zehnte Perzentil (P 10 ) der Wert, unterhalb dessen die niedrigsten 10% aller Fälle innerhalb einer Verteilung liegen. Das zwanzigste Perzentil (P 20 ) ist derjenige Wert, unter dem die niedrigsten 20% liegen usw. Am besten vergegenwärtigt man sich an einem Beispiel, wie die Perzentilwerte berechnet werden (Tabelle 24). Zuerst gilt es, die Anzahl der Vpn. zu errechnen, die auf einem bestimmten Wert oder darunter liegen. Darüber geben die kumulativen Frequenzen Aufschluß, die in Spalte (9) aufgeführt sind. Diese Werte entsprechen jedoch den oberen Grenzen der verschiedenen Klassen. Die kumulative Frequenz 19 gibt z. B. die Anzahl Vpn. an, die unterhalb des

Standardisierte Normalverteilung

87

Tabelle 24 (7) z=

X—M 8 —3,64 —3,34 —3,04 —2,73 —2,42 —2,12 —1,82 —1,52 —1,21 —0,91 —0,61 —0,30 0 0,30 0,61 0,91 1,21 1,52 1,82 2,12 2,42 2,73 3,04 3,34

(8)

(9)

(10)

z-10+50

*f

c/korr.

1 1 1 2 10 19 46 80 138 220 332 458 577 690 798 866 921 956 980 991 999 1005 1008 1009

0,5 1,0 1,0 1,5 6,0 14,5 32,5 63,0 109,0 179,0 276,0 395,0 517,5 633,5 744,0 832,0 893,5 938,5 968,0 985,5 995,0 1002,0 1006,5 1008,5

13,6 16,6 19,6 22,7 25,8 28,8 31,8 34,8 37,9 40,9 43,9 47,0 50,0 53,0 56,1 59,1 62,1 65,2 68,2 71,2 74,2 77,3 80,4 83,4

Zf(X—M)* N

1/10974 1009

=

|/10,876 =

(11) Perzentil 0,05 0,10 0,10 0,15 0,59 1,44 3,22 6,25 10,80 17,73 27,36 39,18 51,30 62,76 73,70 82,50 88,55 93,00 95,95 97,65 98,55 99,40 99,60 99,90

3,30

Meßwertes 13,5 liegen (13,5 ist die obere Grenze des Intervalls von 12,5 bis 13,5). Was man jedoch kennen möchte, ist die Anzahl der Vpn., die unterhalb der Klassenmitte, d. h. unterhalb von 13,0 liegt. Man nimmt nun an, daß die eine Hälfte der Vpn. des Intervalls von 12,5 bis 13,5 oberhalb der Klassenmitte 13,0 liegt und die andere Hälfte darunter. Von den kumulativen Frequenzen wird daher die Hälfte von / abgezogen, was in unserem Beispiel 19—4,5 = 14,5 ergibt. Die Formel für die derart korrigierten kumulativen Frequenzen lautete demnach c/korr. =

(24)

Die auf diese Art berechneten Werte finden sich in Spalte (10). In Spalte (11) sind sie nach der üblichen Prozentberechnung in

88

Statistische Beschreibung. Verteilungen

Perzentilwerte überführt, indem die Werte der Spalte (10) mit 100 multipliziert und dann durch die Zahl der Fälle dividiert werden: 100 ( c f - ^ f ) Perzentil

(25)

N

Die Umwandlung von Rohwerten in Perzentile bedeutet eine Überführung in die sogenannte rechteckige Verteilung, die gegenüber der Normalverteilung jetzt folgendes Aussehen annimmt: /]

0

10

20

30

40

50

60

70

80

90

100%

Fig. 21

In psychologischen und erziehungswissenschaftlichen Untersuchungen, in der experimentellen Sozialforschung sowie in Biologie und Medizin ist die rechteckige Verteilung oft unangemessen. Vielfach zieht man es daher vor, die Rohwerte in eine Skala zu überführen, der eine Normalverteilung zugrunde liegt. Eine solche Skala ist unter anderen die Stanine-Skala, so genannt nach der Zusammenziehung der englischen Wörter „Standard nine". Diese Skala besteht aus neun Stufen und hat dadurch den Vorteil, auf Lochkarten in einer Kolonne Platz zu finden. Sie ist außerdem für die meisten vorkommenden statistischen Berechnungen ausreichend genau. Um der Normalverteilung folgen zu können, muß die Stanine-Skala die in Figur 22 angeführte prozentuale Verteilung aufweisen:

/ -2.252 r*% \ 7% 12% 17% 20% 17% 12% 7% \ 1 8 3 # 5 f 7 8 S Stanine Fig. 22

Die in den neun Spalten angegebenen Prozentwerte ergeben sich, indem die Strecke zwischen —2,25 z und + 2 , 2 5 z, auf der praktisch die gesamte Normalverteilung liegt, in 9 gleich lange Skaleneinheiten aufgeteilt wird. In der Tabelle H (Kap. 21) kann man leicht ablesen, wie viele Prozente der Verteilung auf jede einzelne Skalenstufe entfallen.

Standardisierte Normalverteilung

89

Die Rohwertverteilung wird also dadurch in Stanine überführt, daß man sie in 9 möglichst der Prozentverteilung in Figur 22 entsprechende Teile aufteilt.

Frequem 50

Beispiel: In Figur 23 verteilen sich die Roh werte aus einer Untersuchung von 400 Kindern, die dreißig Aufgaben zu lösen hatten, nach dem obenstehenden Histogramm. Faßt man die hierbei anfallenden Werte der Prozentverteilung — nach dem Vorbild der Figur 22 — auf die günstigste Weise in 9 Stufen zusammen, dann ergibt sich eine Verteilung der Stanine in Gestalt des unteren Histogramms der Figur 23, die der Normalverteilung so nahe kommt, wie das Material es zuläßt13). 13) Eine andere Methode der Normierung von Roh werten besteht in ihrer Umrechnung in sog. T-Werte. T-Werte folgen einer Normalverteilung mit dem Mittelwert 50 und der Standardabweichung 10. Die T-Skala darf nicht mit der auf Seite 85 genannten Skala verwechselt werden. Letztere hat zwar den gleichen Mittelwert und die gleiche Standardabweichung, jedoch ist sie nicht auf eine Normalverteilung bezogen.

90

Statistische Beschreibung. Verteilungen

t-Verteilung Der wichtigste Gegenstand der noch zu behandelnden analytischen Statistik ist der Schluß von der Stichprobe auf die Population. Dieser ist eng mit der NormalVerteilung verknüpft. Und zwar wird angenommen, daß die Verteilung der geschätzten Parameter der Normalverteilung folgt. Es wird weiter meist die Annahme gemacht, daß die Stichprobe groß genug ist, um sie mit der NormalVerteilung vergleichen zu können. Aber in vielen Untersuchungsprojekten kann nicht mit ausreichend großen Stichproben gerechnet werden. Damit ist jedoch eine wichtige Bedingung für die Normalverteilung nicht erfüllt, die ja streng nur dann gilt, wenn unendlich viele Werte vorliegen. Für diesen Fall der kleinen Stichprobe gilt eine andere Verteilung, die f-Verteilung. GÖSSET fand das Verteilungsgesetz für Wertereihen von kleinem Umfang und veröffentlichte sie unter dem Pseudonym S T U D E N T . Deshalb wird auch häufig von der „Verteilung nach Student" gesprochen. Sie folgt der Formel: (26)

Diese theoretische Verteilung ist symmetrisch um t = 0. Bei wachsendem N geht die t-Verteilung zunehmend in die Normalverteilung über. Bereits bei N = 10 sind sich die Verteilungen recht ähnlich. Je kleiner N ist, um so flacher ist die Verteilung. Zwischen zwei Werten von t liegt entsprechend der Normalverteilung ein genau definierter Flächenanteil. Allerdings müssen die Abstände zwischen zwei t- Werten größer als bei der Normalverteilung sein, um einen entsprechenden Flächenanteil zu erreichen. Dies ist um so ausgeprägter, je kleiner N ist. Dies hat zur Folge, daß für jeden Wert von N eine eigene ¿-Tabelle angelegt werden muß. I n zusammengefaßter Form können wir die t-Verteilungen entsprechend unserer Tabelle K (Kap. 21) tabelüeren. Anstelle von N finden wir dort den jeweiligen Freiheitsgrad.

KAPITEL 8

Einführung in die korrelationsstatistische Analyse 1 Untersuchungen in den Verhaltenswissenschaften, in der Sozialforschung, aber auch in der Medizin, liefern meist — wenn sie nicht einer Detailfrage nachgehen — ein umfangreiches und schwer überschaubares Datenmaterial. Nur mit seiner Hilfe aber können die beobachteten Sachverhalte in ein gedankliches Modell der Realität eingeordnet und damit erklärbar gemacht werden. Hierzu gilt es zunächst, die Daten problemgerecht zu ordnen und ihre Zusammenhänge und Wechselwirkungen aufzuklären. I n einer verläßlichen Weise aber gelingt dies nicht ohne Zuhilfenahme spezieller statistischer Techniken. Zu einer ersten Klärung der Merkmalsverteilungen des Datenmaterials gehört die Berechnung der Mittelwerte, der Prozentzahlen und der Standardabweichungen (Kap. 4—6). Diese Meßwerte können dann zur Einschätzung der Grundgesamtheit hochgerechnet werden (Kap. 9 und 10). Fast immer wird es auch erforderlich sein, die empirische Datenverteilung an Verteilungsmodellen zu prüfen (Kap. 11 bis 14). Für die eindringende Untersuchung ist es darüber hinaus vielfach zweckmäßig, die angefallenen Meßwerte auf ihre gegenseitigen zahlenmäßigen Beziehungen hin zu untersuchen und zu prüfen, welche faktischen Zusammenhänge sich in diesen widerspiegeln können. Die erst genannten Verfahren gehören in den Bereich der Verteilungsanalyse, die letztgenannte Aufgabe kann durch Korrelationsanalyse gelöst werden. Ein Beispiel soll den Unterschied in Fragestellung und Vorgehen deutlich machen: Zur Wirkungsprüfung der Anzeigenwerbung wurden vor etwa 60 Jahren die ersten Verteilungsanalysen durchgeführt. S T A U C H und S C O T T bemühten sich jedoch bereits damals in experimentellen Untersuchungen, über die bloße Verteilungsanalyse hinauszugelangen 2 ). J ) Der hier folgende Abschnitt soll einen einführenden Überblick über Leistung und Problematik der Korrelationsstatistik geben. Dabei treten viele Begriffe und Vorstellungen auf, die erst in den folgenden Abschnitten an Beispielen genauer erläutert werden. 2 ) Die dabei untersuchten Fragen beziehen sich z. B. auf den Wirkungsgrad wiederholter Darbietung und auf den Einfluß der Plazierung der Anzeige auf ihre Erinnerbarkeit.

92

Einführung in die korrelationsstatistische Analyse

Die Feststellung, daß die Erinnerungswirkung von Anzeigen beispielsweise dem Logarithmus ihrer Größe proportional ist, entspricht bereits einer korrelationsanalytischen Betrachtimgsweise. Während die Verteilungsanalyse sich jeweils für die Verteilung einer Variable interessiert, geht es in der Korrelationsstatistik um die gegenseitigen Abhängigkeiten, die zwischen mehreren Variablen bestehen. Mit gewissen Einschränkungen können wir sagen, daß die Wirkung von Anzeigeneigenschaften korrekt nur in der Korrelation mit Erfolgsindikatoren faßbar wird. Im Rahmen einer Korrelationsanalyse sind unterschiedliche Methoden zu bevorzugen, je nach dem, ob die zu untersuchenden Variablen kontinuierlich oder diskontinuierlich sind (S. 36). Ein Beispiel einer korrelationsstatistischen Methode bei diskontinuierlichen oder gar „qualitativen" Variablen findet als sogenannte Kreuzklassifikation (auch: Kreuztabulierung) in der Markt- und Meinungsforschung häufige Anwendimg. Ihr steht die Methode der Produktmomentkorrelation gegenüber, die es gestattet, die Abhängigkeit zwischen kontinuierlichen Variablen zu messen. Die Produktmomentkorrelation, die in der Technik, in den Naturwissenschaften, aber auch in der Biologie, in der Psychologie und in den Sozialwissenschaften vielfältige Anwendung findet, stellt zugleich die logische Grundlage der meisten anderen Techniken der Korrelationsanalyse dar. Mit Hilfe der Kreuzklassifikation kontrolliert man Hypothesen über vermutete Zusammenhänge durch eine systematische Zerlegung des Erhebungsmaterials. Das Vier-Pelder-Schema (S. 115) stellt hierzu das einfachste Ausgangsschema dar. E s wird jedoch meist an Hand des Materials weiter aufgeschlüsselt, bis die Hypothese vor allem durch (varianz-) statistische Methoden geprüft ist. Die Technik der Kreuzklassifikation macht jedoch nur solche Zusammenhänge prüfbar, die vorgängig bereits vermutet und als prüfbare Hypothesen formuliert wurden. Aber sie ist noch in weiterer Hinsicht problematisch, was die folgende Tabelle verdeutlicht: Tabelle 25 Häufigkeit der Merkmalskombination bei Illustriertenanzeigen ( N = 8 7 ) farbig

groß schwarz-weiß

klein farbig schwarz-weiß

Bild

Preis ohne Preis

13 10

9 14

0 0

6 7

Text

Preis ohne Preis

0

2 3

0

8 11

2

2

Einführung

93

Hier wurden 87 Anzeigen einer Illustrierten nach vier Merkmalen aufgegliedert: nach Größe, Farbigkeit, Abbildung und Preis. Der Tabelle können wir entnehmen, daß bestimmte Merkmalskombinationen nicht vorkommen. Beispielsweise scheinen kleine Anzeigen selten farbig und kaum mit einem zusätzlichen Bild ausgestattet zu sein. Wir könnten nun die Frage klären wollen, ob die Verwendung von Farben von einem zusätzlichen Bild abhängt. Bei der Prüfung der Signifikanz dieser Hypothese (Kap. 11) können die anderen Merkmale leicht einen Zusammenhang vortäuschen, der die Hypothese zu bestätigen scheint, oder bestehende Zusammenhänge verdecken (vgl. „Scheinkorrelationen" S. 121). Aus diesem Grunde ist es im Gegenteil wünschenswert, daß in die Analyse mehr Anzeigenmerkmale hineingenommen werden. Da sich dabei das Datenmaterial immer mehr aufspaltet, sind es immer weniger Fälle, die im Durchschnitt auf jedes einzelne Feld des Verteilungsschemas entfallen. Die Aussagekraft der Tabelle wird also immer geringer. Ihre Hochrechnung (Kap. 9) auf die Population wird immer unsicherer. Diese zweite Grenze der Leistungsfähigkeit der Kreuzklassifikation ist immer dann erreicht, wenn der verzerrende Einfluß einer Mehrzahl von Variablen nicht ausgeschlossen werden kann. Damit erweist es sich als erforderlich, einen anderen Weg der korrelationsstatistischen Analyse zu beschreiten: Anstelle der einfachen Kreuzklassifikation läßt sich die Verteilung der Ausgangsdaten durch Maßgrößen kennzeichnen, die die Stärke der Beziehungen zwischen den Variablen — hier also zwischen Größe, Farbigkeit, Bild und Preis der Anzeige ausdrücken. Die Beziehungen zwischen den Variablen werden Korrelationen genannt. Genauer sind Korrelationen (stochastische) Abhängigkeiten zwischen Meßreihen, allgemein: zwischen Zahlenreihen. Derartige Korrelationen lassen sich in großer Zahl auffinden. Schon bei der volkstümlichen Menschenkenntnis sind eine Vielzahl von Korrelationen vorausgesetzt. So wird beispielsweise oft genug erwartet, daß eine hohe Stirn und hohe Intelligenz miteinander vergesellschaftet seien oder es wird erwartet, daß die Zugehörigkeit zu einer bestimmten Konfession mit negativen oder positiven Charaktereigenschaften verbunden sei. Sofern die Merkmale, deren Zusammengehörigkeit vorausgesetzt werden, eindeutig zu erkennen sind, vermag die Korrelationsanalyse die Stärke und Richtung eines solchen Zusammenhanges aus den vorliegenden Beobachtungsdaten genau zu messen3). 3 ) Ob dieser Korrelation über den stochastischen Zusammenhang hinaus auch eine kausale Abhängigkeit entspricht, ist ein nicht-statistisches Problem, zu dem der Statistiker nicht Stellung nimmt.

94

Einführung in die korrelationsstatistische Analyse

Maßzahl für Richtung und Intensität der stochastischen Abhängigkeit zweier oder mehrerer Variabler ist der Korrelationskoeffizient. Vergegenwärtigen wir uns Bedeutung und Aussagefunktion des Korrelationskoeffizienten an unserem Beispiel (Tabelle 25): Die Zahlen der Tabelle machen wahrscheinlich, daß zwischen Größe und Farbigkeit eine Korrelation besteht. Nach Berechnung des Korrelationskoeffizienten ist bekannt, mit welcher Wahrscheinlichkeit wir bei einer großen Anzeige einen Mehrfarbendruck (und umgekehrt) erwarten können. Diese Erkenntnis ist für den Praktiker, für den die Korrelationsstatistik ja immer nur ein Mittel zum Zweck sein kann, ein wichtiger Schritt in Richtung auf die Klärung der Ursachen, die für die Existenz der Korrelation verantwortlich sind. Welche Probleme sind nun mit der Berechnung von Korrelationskoeffizienten verbunden ? Beim Vergleich zweier Merkmals- oder Ereignisreihen geht es •— wie wir gesehen haben — darum, in welchem Grade die Merkmale miteinander oder gegeneinander variieren. Wir können uns die wichtigsten Formen der durch den Korrelationskoeffizienten zu messenden Beziehungen in der Verteilung zweier Merkmalssysteme anschaulich verdeutlichen, wenn wir die einzelnen Fälle in ein Koordinatensystem (vergleiche auch den folgenden Abschnitt) einzeichnen. Die beiden Achsen des Koordinatensystems repräsentieren dann je eine Variable. Jede Achse trägt also die Zahlen (Variablewerte), die dem jeweiligen Merkmal entsprechen. Als Beispiel wird hier der Anteil einer Anzeige an der Seite einer Tageszeitung in der waagerechten Achse (Abzisse oder X-Achse) und der getestete Erinnerungswert der Anzeige in der senkrechten Achse (Ordinate oder Y-Achse) eingetragen (Figur 24). Haupttypen der Korrelation zwischen Anzeigengröße (Gr) und getestetem Erinnerungswert (E)

a

r = 0,86

Gr

.b

r = 0,00 Fig. 24

Gr

c

r=--0,8Z

Gr

Einführung

95

Die Regressionsgrade (erster Art, vgl. Kap. 18) zeigt an, daß wir eine lineare hochpositive Korrelation vor uns haben. Haben wir die Erwartung, daß mit dem Größerwerden einer Anzeige auch ihr geprüfter Erinnerungswert steigt, so wären den kleinen Anzeigengrößen kleine Erinnerungswerte zugeordnet, während sich großen Anzeigen zugleich hohe Erinnerungswerte zuordnen müßten. Mit anderen Worten: fast alle Anzeigen müßten sich auf dieser einen Geraden unterbringen lassen. Erbringt nun eine empirische Untersuchung tatsächlich, daß die getesteten Anzeigen sehr dicht um eine solche Regressionsgerade streuen, dann besteht eine sehr hohe positive Korrelation zwischen der Größe von Anzeigen und ihren Erinnerungswerten. Der Korrelationskoeffizient hegt in diesem Falle nahe an seinem höchstmöglichen Wert r = + 1.00. Dieser extreme Wert drückt aus, daß die beiden Variablen (mathematisch) vollständig voneinander abhängen. Die Kenntnis eines Variablewertes ermöglicht es in diesem Falle, den Wert der anderen Variable recht genau vorherzusagen. Die Untersuchung könnte jedoch auch zu einem ganz anderen Ergebnis führen (Fig. 24b): Sie könnte uns zeigen, daß zu jeder Anzeigengröße sehr viele unterschiedliche Erinnerungswerte anfallen. Das hieße zugleich, daß umgekehrt für jeden Erinnerungswert auch jede Anzeigengröße in Frage kommt. Sofern dieses Ergebnis zustande kommt, besteht eine Nullkorrelation. Den entsprechenden Koeffizienten schreiben wir r = 0.00. Die Variablen sind also voneinander (stochastisch) unabhängig. Schließlich ist auch denkbar, daß unsere Untersuchung zu einer Verteilung führt, die der Figur 24c nahekommt: Ein solches Ergebnis würde bedeuten, daß bei einer Kleinanzeige ein hoher Erinnerungswert und bei einer großen Anzeige ein kleiner Erinnerungswert anfällt. Auch hier besteht eine hohe Korrelation, die die Tatsache aussagt, daß beide Variable (wie bei 24 a) mathematisch völlig voneinander abhängig sind. Jedoch ist diese Abhängigkeit gegenläufig. Wir schreiben den entsprechenden Korrelationskoeffizienten r = —1.00. Er stellt den kleinsten Wert dar, den r annehmen kann. Die rechnerische Schätzung des Korrelationskoeffizienten gelingt mit Hilfe der Beziehung r =

8xy

s

x '

s

y

(27)

I n dieser Formel wird „ r " als das Verhältnis der Kovarianz zum Produkt der Standardabweichungen definiert. I m Prinzip handelt es sich darum, daß die Streuung der Differenzen zwischen erwarteten und beobachteten Werten mit den Einzelstreuungen der

96

Einführung in die korrelationsstatistische Analyse

Variablen verglichen werden. Die Berechnung von r wird in den folgenden Abschnitten genauer dargestellt. Formel (27) liefert eine praktikable Methode, um ein durch Kreuztabulierung vorgeordnetes Datenmaterial in eine Matrix von Korrelationskoeffizienten zu übersetzen. Damit werden die Häufigkeitszahlen durch Maßzahlen abgelöst, die die Korrelationen zwischen den Variablen beschreiben. Diese Methode auf unser Beispiel (Figur 24) anzuwenden, erweist sich als sehr zweckmäßig, da die Kreuzklassifikation zu Schwierigkeiten f ü h r t : die Tabelle spaltet sich immer mehr auf. Da sich hierbei immer kleinere Werte ergeben, verlieren die Häufigkeitsverteilungen in der Kreuztabelle immer mehr von ihrer Aussagekraft. Diese Schwierigkeiten sind bei der Berechnung von Korrelationskoeffizienten aufgehoben. Berechnen wir beispielsweise den Korrelationskoeffizienten zwischen der Größe und der Farbigkeit von Anzeigen. Im Gegensatz zur Kreuzklassifikation erfaßt die Korrelationsmatrix sämtliche getesteten Anzeigen als empirische Basis für jeden einzelnen korrelativen Zusammenhang. Die für Kreuztabulierung charakteristische Schwächung der Aussagekraft infolge der Aufspaltung der Fälle ist hier also nicht gegeben. In dieser Tatsache liegt ein wichtiger methodischer Vorteil, da die strukturellen Abhängigkeiten zwischen den Anzeigenvariablen sich dennoch exakt darstellen lassen. Das Ergebnis einer solchen Berechnung finden wir in der folgenden Tabelle: Tabelle 26

Korrelationstabelle zu Tabelle 25 Größe

Größe Farbigkeit Bild Preis

.44 .51 .04

Farbigkeit

Bild

Preis

.44

.51 .25

.04 .06 .11

.25 .06

.11

Damit wird deutlich, daß eine Korrelationsanalyse auf unterschiedlichen Wegen durchgeführt werden kann: Entweder durch die Aufsplitterung des Materials oder durch die Berechnung von Korrelationskoeffizienten. Die Prüfung der Korrelationskoeffizienten in der obenstehenden Tabelle zeigt sofort zumindest eines: Alle Werte sind positiv. Daß zwischen den hier erfaßten Anzeigeneigenschaften keine negativen Korrelationen bestehen, konnte aus der Tabelle 25 unmöglich so rasch entnommen werden. Die Erstellung einer Korrelationstabelle muß jedoch keineswegs das Endresultat einer Korrelationsanalyse darstellen. Vielmehr stellt sie eine wichtige Voraussetzung für die weiterführende Unter-

Korrelation

97

suchung der strukturellen Bedingungen dar, die den Merkmalszusammenhängen in einem empirisch erhobenen Datenmaterial zugrunde liegen. Dies hat verschiedene Ursachen. Am wichtigsten ist hier, daß der einzelne Koeffizient allein erstens keinen realen Zusammenhang, sondern nur eine stochastische Abhängigkeit widerspiegelt. Zum anderen sind auch die in einer größeren Korrelationstabelle (wie sie in der Praxis sehr häufig anfällt) sich anmeldenden Zusammenhänge kaum noch zu überschauen. So umfaßt eine Korrelationstabelle für 20 Variablen immerhin 190 verschiedene Werte. Die große Zahl der damit ausgedrückten und miteinander auch noch verflochtenen stochastischen Abhängigkeiten läßt sich zweifellos nicht anschaulich vergegenwärtigen und mit hinreichender Verläßlichkeit zur Problemklärung nutzbar machen. Stets wird in solchem Falle für die Interpretation der Ergebnisse eine nur intuitive Auswahl derjenigen Korrelationen getroffen, die dem jeweiligen Untersucher als besonders markant und wichtig erscheinen. Eine solche Interpretation ist jedoch nicht zwingend. Aus diesem Grunde müssen weitere statistische Verfahren eingesetzt werden, um die Struktur eines dergestalt hochgradig verflochtenen Beziehungsgefüges noch erkennen und problemgerecht interpretieren zu können. Ein solches weiterführendes Verfahren steht in der Paktorenanalyse zur Verfügung, die in dem Kapitel 19 noch genauer erläutert wird. Einer der wichtigsten Leistungsvorteile dieser statistischen Technik liegt in der Tatsache, daß sie Abhängigkeiten und Beziehungen aufzudecken vermag, die der Untersucher nicht erwartet hatte, da sie außerhalb seiner ursprünglichen Hypothesen liegen. Gerade solche unerwarteten Zusammenhänge aber eröffnen den Weg zu wichtigen und neuartigen Erkenntnissen.

Erfassen und Messen von Korrelationen Doch nun zurück zum Gedanken der Korrelation. Wie bestimmt man ihre Intensität und Richtung anhand eines vorliegenden Zahlenmaterials ? Wir erinnern uns, daß an N Fällen mehrere Variable gemessen oder auf andere Weise beobachtet worden sein müssen. Dann können wir die Korrelation zwischen den Variablen genauer bestimmen. Die Ergebnisse, die Kinder sowohl in einem Intelligenztest als auch in einer Rechenprobe erreicht haben, sind in der folgenden Tabelle zusammengefaßt: 7

HttBCloff, Statistik,

3. Aull.

Statistische Beschreibung. Korrelationsmaße

98 Tabelle 27

Ergebnisse IntelliRechengenztest probe

Kind A B C D E F G usw.

7 2 4 9 5 1 7

8 2 5 7 4 2 9

Bereits ein kurzer Blick auf die Tabelle zeigt, daß hohen Punktzahlen im Intelligenztest im allgemeinen auch hohe Punktzahlen in der Rechenprobe entsprechen. In gleicher Weise entsprechen niedrigen Werten im Intelligenztest meist auch schwache Ergebnisse in der Rechenprobe. Um nun einen besseren Überblick zu gewinnen, wird man eine sogenannte Stricheltabelle erstellen, in die die verschiedenen, von den Vpn. erreichten Punktzahlen eingetragen werden. Eine Stricheltabelle ist eine Art Koordinatensystem, in dem die waagerechte Achse («-Achse genannt) der einen Variablen entspricht, während die lotrechte Achse (y-Achse) die andere Variable repräsentiert. Für das obenstehende Beispiel bekommt das Schema für die Strichelung folgendes Aussehen : Rechen- Y probe s

II

1

8 III

II

7

ii

III

NI I

3

im

IUI

im

IM

MI

M

II

II

1

M

TUT

in

IUI IUI

IHI IHI

IHI IHI

IM

M

M M

IHI

IUI IHI

IHI

IHI

II IHI

1

IUI

IHI IUI

IHI

IUI II

IHI

im im IHI

M

II

nu in

IM

IHI

im il im

nu im M

II

IHI

im

im

i

IUI

IUI

II M

in

IUI

III!

IUI W1

III

m im

im im nu IN nu im

IHI

IUI

im im im IHI IUI im I KL

1

IHI II

IUI

nu

V

HU

IUI

II

III

i

S

II VII

IHI

IUI III

6

2

IHI

IHI

tu

II

N

in

1

IUI

IUI

Uli

II

1

Z

3

t

I

5

S

Fig. 25

7

8 9 Inte/h'gemprobe

Regression

99

Vpn., die im Intelligenztest die erreichbare Höchstzahl von 9 Punkten erzielt haben, bekamen demnach 7, 8 oder 9 Punkte in der Rechenprobe, wie aus der äußersten rechten Spalte der Figur 25 hervorgeht. Die weitere Bearbeitung der Stricheltabelle kann dadurch erleichtert werden, daß man die Striche in der Tafel durch Zahlen ersetzt. Figur 26 zeigt diese verbesserte Darstellungsform. Regression Auffällige Zusammenhänge, wie sie zwischen den Ergebnissen des Intelligenztests und denjenigen der Rechenprobe bestehen, sind keineswegs selten. Statistisch exakt erfaßte Zusammenhänge zwischen thematisch unterschiedlichen Meßreihen geben uns die Möglichkeit, daß eine Variable mit einer jeweils bestimmten Wahrscheinlichkeit aus der anderen vorhergesagt werden kann. Man verfügt beispielsweise über die Ergebnisse der oben aufgeführten Intelligenzprobe und möchte — davon ausgehend — voraussagen, welche Resultate bei den Getesteten im Rechnen zu erwarten sind. In der Sprache der Statistik nennt man dies ein Regressionsproblem 4 ). Die Lösung des Problems erfolgt in der Weise, daß an den Vpn., die in der einen Variable den gleichen Wert erreichen oder das gleiche Merkmal aufweisen, untersucht wird, welche Leistungsund Merkmals Verteilung ihnen in der anderen Variable zukommt. Ein solcher Zusammenhang — wie er auch unserem Beispiel (Fig. 25) zugrunde liegt — läßt sich anhand der Figur 26 in folgender Weise analysieren (siehe nächste Seite): Für jede Gruppe, die einen bestimmten Wert X im Intelligenztest erreicht hat, errechnet man zunächst das arithmetische Mittel der Leistungen, die die Angehörigen dieser Gruppe in der Rechenprobe erzielten. Dieser Mittelwert wird mit MX. T bezeichnet und bedeutet den Mittelwert derjenigen Y-Werte, die einem bestimmten .X-Wert zugeordnet sind. X bezeichnet man dabei als die unabhängige Variable. Für die 17 Vpn., die in dem Intelligenztest den Wert X = 1 erhalten haben, wird der Mittelwert der Rechenprobe Mx. y = 2,4. Dieser und die übrigen M x . y-Werte für die verschiedenen X-Werte sind in der obersten Zeile der Figur 26 als Zahlen und außerdem in die darunter liegenden Spalten als Punkte eingetragen und zu einer Regressionslinie ausgezogen worden. Diese Linie verbindet die 9 Mittelwerte derjenigen Gruppen von Vpn., die im Intelligenztest jeweils gleiche Punktzahlen erreicht haben, bezogen 4 ) Der Ausdruck „Regression" stammt aus der Erbforschung. Dort fand GALTON, daß die Größe der Eltern mit der Größe der Kinder hoch korreliert; allerdings weicht die Größe der Kinder immer etwas in Richtung auf die Durchschnittsgröße der Bevölkerung ab. Diese Tatsache wurde mit dem „Regressionsprinzip" in Zusammenhang gebracht.



100

Statistische Beschreibung. Korrelationsmaße XY

Rechen- Y probe 9

S,¥ 3,0 3,5 ¥,2 ¥,9 Sfi 8,¥ 7,0 8,0 // 3 1

8

7

3

12 23

2

3

S

1

¥

3

13 12

2

6

v' 5 .12* n /10 •s V 11 8 r

¥

/

/

¥

2

;/

W /

Y-X

3

10 "15

f

2

9

¥

1

7

7

2

8

3

bedeutet „größer als", < bedeutet „kleiner als" und 5g bedeutet „größer oder kleiner als". 3) Wenn N größer als 30 ist, werden „z-Werte" (auch „kritischer Brach" [CR] genannt) statt der ¿-Werte verwendet, da angenommen werden kann, daß die Stichprobe Normalverteilung aufweist.

10*

148

Schätzungs- und Prüfverfahren. Hypothesenprüfung

sultate ergeben wird, wenn man sie bei einer neuen und größeren Stichprobe von Schülern anwendet. Wie gering soll die Grenzwahrscheinlichkeit p nun sein, damit die Nullhypothese zurückgewiesen werden kann ? Eine bestimmte Antwort darauf kann nicht gegeben werden. Vielmehr gilt es hier, von Fall zu Fall abzuwägen. Welche Signifikanz jeweils zu fordern ist, geht aus der Planung und dem Ziel einer Untersuchung hervor. J e kleiner p ist, desto sicherer ist man jedenfalls, daß die Nullhypothese abzuweisen ist; wir wiesen bereits darauf hin, daß eine gebräuchliche Signifikanzgrenze bei p = 5 % liegt, und eine andere, anspruchsvollere bei p = 1%. Beispiel: Ähnlich einem oben bereits diskutierten Beispiel mag die Durchschnittsleistung in einer Rechenprobe bei 84 Kindern M -- 7,64 betragen. Die Rechenprobe ist als solche standardisiert auf den Mittelwert fi = 7,43 und a = 2,4. Wir stellen die Nullhypothese auf, daß sich der Mittelwert unserer Stichprobe nicht vom Mittelwert derjenigen Population unterscheide, an der das Verfahren standardisiert worden ist. Die Alternativhypothese dagegen besagt, daß die Kinder unserer Stichprobe in ihren Leistungen einen anderen Mittelwert aufweisen und damit wahrscheinlich einer Population mit anderen Merkmalen angehören. U m hier zu einer Entscheidung zu gelangen, wenden wir den z-Test an, da N ausreichend groß ist (Formel 53):

)/8i Entsprechend Tabelle I liegen 42,4% der z-Verteilung außerhalb des Bereichs ^ 0,8. Die Wahrscheinlichkeit ist daher größer als 40%, daß man eine zufällige Abweichung von der Größe z = 0,8 oder mehr erhält. Die Abweichung ist also nicht signifikant, so daß die Nullhypothese ebenso richtig wie die Alternativhypothese sein kann. Bei dem vorliegenden Material kann keine der beiden Hypothesen mit hinreichender Sicherheit akzeptiert werden. Um die Ausgangsfrage zu entscheiden, muß daher eine weitere Untersuchung an einer anderen Stichprobe mit einer größeren Anzahl von Vpn, evtl. auch unter der Berücksichtigung anderer Variabler, vorgenommen werden. Bisher wurde die Prüfung der Nullhypothese unter dem Aspekt behandelt, daß die Alternativhypothese zweiseitig (engl.: two tail hypothesis) ist. Das bedeutet: die Alternativhypothese ist richtig, wenn der Stichprobenmittelwert M in einem hinreichend großen Abstand über oder unter dem Populationsmittelwert liegt.

Mittelwerte

149

I n bestimmten Fällen ist das statistisch zu klärende Problem jedoch so gelagert, daß die Alternativhypothese einseitig ist, d. h. sich also auf Werte nur unterhalb oder nur oberhalb des Populationsmittelwertes bezieht. Beispiel: Man möchte untersuchen, ob sich das Ergebnis in einem Intelligenztest durch Vorübung an einem anderen Test verbessert. E s handelt sich also um eine Untersuchung zur Frage des sogenannten Transfer-Lernens. Die Nullhypothese besagt hier, daß ein Durchschnittsresultat M nach Vorübung nicht über den bereits bekannten Mittelwert ¡i steigt, den der Test für eine Population ohne Vorübung zeigt (Nullhypothese: M—-¡1 = 0). Die Alternativhypothese besagt dagegen, daß der Mittelwert der Population mit Vorübung über dem bekannten Mittelwert u der Population ohne Vorübung liegen wird (Alternativhypothese M — fi > 0 ) . In der Population ohne Vorübung betrug der Mittelwert fi — 130 und die Standardabweichung a = 20. Für eine Stichprobe von 140 Kindern, die Vorübung vollzogen hatten, betrug der Mittelwert M = 136. Nach Formel (53) wird der z-Wert 136 — 130

= 3,55

2> < 0,1%

j/140 Nach Tabelle H hegen 0 , 1 % der Normalverteilung über dem zWert 3. Die Wahrscheinlichkeit ist deshalb kleiner als 0 , 1 % , daß sich ein Stichprobenmittelwert von 136 rein zufällig bei einer Population mit dem Mittelwert fj, = 130 ergibt. Die Leistungsverbesserung durch Vorübung kann daher als signifikant auf 0,1%-Niveau der Verläßlichkeit angesehen werden. Die Nullhypothese, die hier einseitig ist, kann deshalb mit großer Sicherheit zurückgewiesen und die Alternativhypothese akzeptiert werden.

Signifikanz von Unterschieden zwischen Mittelwerten Bei der Prüfung der Signifikanz von Differenzen zwischen unkorrelierten Mittelwerten bedient man sich des Mutungsbereichs. Dieser Mutungsbereich errechnet sich aus der Standardabweichung der Stichprobenverteilung der Differenz (Formel 44). Diese Stichprobenverteilung hat eine Standardabweichung, entsprechend der Formel (45):

I m allgemeinen will man untersuchen, ob die beiden Stichproben nur zufällig in ihren Mittelwerten und in ihrer Standardabweichung

150

Schätzungs- und Prüfverfahren. Hypothesenprüfung

differieren. Dies bedeutet dasselbe wie die Prüfung der Nullhypothese für d = — M2 = 0 unter der Voraussetzung, daß oeati = Gest 2 = o ist- Hier gilt der sogenannte z-Test, sofern diese Stichproben ausreichend groß sind. Die Formel für den z-Wert heißt dann 4 ): d M,—M. M, — M, 1 2 z =

°d

=

l/^il

\

W

, J,>10/o

Sind die Stichproben groß (N > 30) und Sj und s2 ungefähr gleich groß, kann Formel (45) _ 1 /«liest)

«liest)

+ V . - M . ) " |/ im allgemeinen als angenäherter Nenner in Formel (64) angewendet werden. Dabei ist die Annahme gemacht, daß st = s2 = er ist.

Signifikanz von Unterschieden zwischen paarweise geordneten Gruppen Beim Vergleichen zweier Stichproben kann ein irrelevanter Faktor einen Unterschied zwischen den Mittelwerten verursachen, ohne daß ein für die Fragestellung bedeutsamer Unterschied besteht. Will man z. B . die Wirkung zweier Unterrichtsmethoden untersuchen, dann kann die eine Methode schon deshalb bessere Resultate ergeben, weil die nach ihr unterrichteten Schüler intelligenter als die Schüler der anderen Gruppe sind, bessere Vorkenntnisse haben usw. Diese Fehlerquelle läßt sich dadurch unter Kontrolle halten, daß man die beiden Stichproben nach dem Zufall

154

Sehätzungs- und Prüfverfahren. Hypothesenprüfung

auswählt. Eine andere und oft besonders effektive Kontrollmöglichkeit bietet die Auswahl solcher Vpn, die paarweise in den Merkmalen oder Eigenschaften übereinstimmen, die für die Untersuchung wichtig sind. Diese Paare werden getrennt und zwei verschiedenen Stichproben zugeteilt. Die Paare sollen in jeder Hinsicht so ähnlich wie möglich sein, außer natürlich in der Variablen, die untersucht werden soll. E i n typisches Beispiel für derartige Untersuchungspaare bilden eineiige Zwillinge. B e i der Überprüfung der Differenz (d) zwischen paarweise aufgeteilten Gruppen bedient man sich der Formel (59)

Md ist der Mittelwert der Differenzen zwischen N Paaren und d die Differenz zwischen den einzelnen Paaren im Hinblick auf untersuchungsrelevante Merkmale, Eigenschaften oder Leistungen. schätzt die Standardabweichung der Unterschiede zwischen Paaren. Diese muß mit dividiert werden, um die Standardabweichung in der Stichprobenverteilung der Durchschnittsabweichungen M d errechnen zu können. D e r Freiheitsgrad beträgt auch in diesem Falle N — 1. Beispiel: I n einem Vergleich zweier Erziehungsmethoden wurden 10 Paare eineiiger Zwillinge in zwei Gruppen aufgeteilt, so daß jede Gruppe jeweils einen Zwilling jeden Paares erhielt. Die eine Stichprobe wurde nach Methode A, die andere nach Methode B unterwiesen, um feststellen zu können, welche der beiden Methoden die besten Erfolge erzielt. Die Ergebnisse nach Methode A finden wir in Spalte 1 der Tabelle 4 6 und die Ergebnisse der Methode B in Spalte 2. Tabelle 46 (1)

XA 19 16 13 25 29 15 24 20 0 20

(2)

XB 26 20 8 15 34 3 23 18 0 20

(3)

(4)

(5)

d

d — Md

(d — M )

— 7 — 4 + 5 + 10 — 5 +12 + 1 + 2 0 0

— 8,4 — 5,4 +3,6 + 8,6 — 6,4 + 10,6 — 0,4 + 0,6 — 1,4 — 1,4

14

(6) d 2

70,56 29,16 12,96 73,96 40,96 112,36 0,16 0,36 1,96 1,96

344,40

d2 49

16

25 100 25 144

1

4

0 0 364

Standardab Weichlingen

Freiheitsgrad = 10 — 1 = 9

155

p > 20%.

In Spalte 3 sind die Differenzen zwischen den Werten der Spalte 1 und 2 aufgeführt. Spalte 4 enthält die Abweichungen dieser Differenzen vom Durchschnittsunterschied M d = 1,4 Punkte und Spalte 5 die Quadrate dieser Abweichungen. Der durchschnittliche Unterschied erweist sich als nicht signifikant, da der f-Wert nur 0,71 beträgt. Wie man Tabelle K entnehmen kann, beträgt bei 9 Freiheitsgraden die Wahrscheinlichkeit 20%, daß man einen f-Wert größer als + 1,38 oder kleiner als —1,38 erhält. Der Wert E{d — Md)2 in Formel (59) läßt sich leichter berechnen nach der Formel (60) Die Formel (59) erhält damit folgendes Aussehen: .-

,

(61) N{N — 1)

Das Beispiel der Tabelle 46 ergibt nach dieser Formel 14 14 14 1,4 364 —

14\ 2 — -10

10I

l/344,4

' !>!

=0,71.

V 10

10-9

Zd'1 erhält man dabei aus Spalte 6 der Tabelle 46. Im übrigen geschieht die Berechnung nach Formel (59). Signifikanz von Unterschieden zwischen Standardabweichungen Die Nullhypothese a 1 — a 2 =-- 0 wird bei größeren Stichproben 6 ) (N > 30) nach Formel c

IN

OS

pH

m

©

'S-©

c

pH

z-Werte

Tabelle H.

•293

Werte (unterhalb)

Prozentualer Anteil, der unter einem bestimmten z-Wert liegt z — — — — — — — — — — — — — — — — — — — —

3,0 2,9 2,8 2,7 2,6 2,5 2,4 2,3 2,2 2,1 2,0 1,9 1,8 1,7 1,6 1,5 1,4 1,3 1,2 1,1

z

z 0,1 0,2 0,3 0,4 0,5 0,6 0,8 1,1 1,4 1,8 2,3 2,9 3,6 4,5 5,5 6,7 8,1 9,7 11,5 13,6

— 1,0 — 0,9 — 0,8 -0,7 — 0,6 — 0,5 — 0,4 — 0,3 — 0,2 — 0,1 0 + 0,1 + 0,2 + 0,3 + 0,4 + 0,5 + 0,6 + 0,7 + 0,8 + 0,9 + 1,0

15,9 18,4 21,2 24,2 27,4 30,8 34,5 38,2 42,1 46,0 50,0 54,0 57,9 61,8 65,5 69,2 72,6 75,8 78,8 81,6 84,1

1,1 1,2 1,3 1,4 1,5 1,6 1,7 1,8 1,9 2,0 2,1 2,2 2,3 2,4 2,5 2,6 2,7 2,8 2,9 3,0

86,4 88,5 90,3 91,9 93,3 94,5 95,5 96,4 97,1 97,7 98,2 98,6 98,9 99,2 99,4 99,5 99,6 99,7 99,8 99,9

Der prozentuale Anteil, der über z liegt, ist gleich 100 — A% wobei A den Prozentwert der Tabelle repräsentiert. Tabelle I.

Werte (zwischen)

Der prozentuale Anteil, der zwischen — z und + z liegt 2 ±0,1 ± 0,2 ± 0,3 ± 0,4 ± 0,5 ± 0,6 ± 0,7 ± 0,8 ± 0,9 ± 1,0

8,0 15,9 23,6 31,1 38,3 45,2 51,6 57,6 63,2 68,3

z

z

B%

± ± ± ± ± ± ± ± ± ±

1,1 1,2 1,3 1,4 1,5 1,6 1,7 1,8 1,9 2,0

72,9 77,0 80,6 83,9 86,6 89,0 91,1 92,8 94,3 95,5

±2,1 ±2,2 ± 2,3 ± 2,4 ± 2,5 ± 2,6 ± 2,7 ±2,8 ± 2,9 ± 3,0

B%

96,4 97,2 97,9 98,4 98,8 99,1 99,3 99,5 99,6 99,7

Übungen und Arbeitshilfen. Arbeitshilfen

294

Tabelle K . t- Verteilung Außerhalb des Intervalls — t bis + t (zweiseitige Hypothese) Freiheitsgrad

20%

10%

5%

2%

1%

0,5%

1 2 3 4 5 6 7 8 9 10 11 12 13 14 15 16 17 18 19 20 21 22 23 24 25 30 40 60 120 oo (t = z)

3,08 1,89 1,64 1,53 1,48 1,44 1,42 1,40 1,38 1,37 1,36 1,36 1,35 1,35 1,34 1,34 1,33 1,33 1,33 1,33 1,32 1,32 1,32 1,32 1,32 1,31 1,30 1,30 1,29 1,28

6,31 2,92 2,35 2,13 2,02 1,94 1,90 1,86 1,83 1,81 1,80 1,78 1,77 1,76 1,75 1,75 1,74 1,73 1,73 1,73 1,72 1,72 1,71 1,71 1,71 1,70 1,68 1,67 1,66 1,64

12,71 4,30 3,18 2,78 2,57 2,45 2,37 2,31 2,26 2,23 2,20 2,18 2,16 2,15 2,13 2,12 2,11 2,10 2,09 2,09 2,08 2,07 2,07 2,06 2,06 2,04 2,02 2,00 1,98 1,96

31,82 6,97 4,54 3,75 3,37 3,14 3,00 2,90 2,82 2,76 2,72 2,68 2,65 2,62 2,60 2,58 2,57 2,55 2,54 2,53 2,52 2,51 2,50 2,49 2,49 2,46 2,42 2,39 2,36 2,33

63,66 9,93 5,84 4,60 4,03 3,71 3,50 3,36 3,25 3,17 3,11 3,06 3,01 2,98 2,95 2,92 2,90 2,88 2,86 2,85 2,83 2,82 2,81 2,80 2,79 2,75 2,70 2,66 2,62 2,58

127 14,1 7,45 5,60 4,77 4,32 4,03 3,83 3,69 3,58 3,50 3,43 3,37 3,33 3,29 3,25 3,22 3,20 3,17 3,15 3,14 3,12 3,10 3,09 3,08 3,03 2,97 2,91 2,86 2,81

5%

2,5%

1%

0,5%

0,25%

10%

Oberhalb + t (einseitige Hypothese)

Illustrationen zu den Tabelle H bis K Tabelle H

Tabelle I

Tabelle K Tabelle K (von oben gelesen) (von unten gelesen)

D i e Tabellen H u n d I g e b e n d e n p r o z e n t u a l e n A n t e i l ( g e s t r i c h e l t e Flächen) an der Normalverteilung an.

295

Umrechnungstafel

Tabelle K (von oben gelesen) gibt den t- Wert und den zugehörigen negativen ¿-Wert an, außerhalb deren Grenzen der in der oberen Zeile der Tabelle angegebene prozentuale Anteil der t-Verteilung liegt. Dieser Anteil entspricht den gestrichelten Teilen in der Figur. Tabelle K (von unten gelesen) gibt den i-Wert an, oberhalb dessen der in der untersten Zeile der Tabelle angegebene prozentuale Anteil liegt. Dieser Anteil entspricht dem gestrichelten Teil der Figur. Will man bei der Bestimmung des Mutungsbereichs die t- Werte ermitteln, zwischen denen ein bestimmter in Prozenten ausgedrückter Anteil liegt, so muß man diesen Prozentwert von 100 abziehen. Beim Ablesen des ¿-Wertes geht man dann von der oberen Zeile der Tabelle K aus. Die mit einem Unendlichkeitszeichen (oo) versehene Zeile der Tabelle K enthält die t-Werte, deren Freiheitsgrad unendlich ist. Diese Werte sind gleich den 2-Werten der Normalverteilung. Tabelle L : Stichprobenumfang und (halber) Mutungsbereich für Prozentwerte (bei % = 2) Die folgende Tabelle gibt den halben Umfang des Mutungsbereichs für unterschiedliche Stichprobenumfänge (N) und verschiedene Prozentwerte (im Kopf der Tabelle) an. Z. B. finden N

10%

20%

30%

40%

50%

60%

70%

80%

90%

50 100 150 200 250 300 350 400 450 500 600 700 800 900 1000 1100 1200 1300 1400 1500 2000 2500 3000 4000 5000

8,5 6,0 4,9 4,2 3,8 3,5 3,2 3,0 2,8 2,7 2,4 2,3 2,1 2,0 1,9 1,8 1,7 1,7 1,6 1,6 1,3 1,2 1,1 0,9 0,8

11,3 8,0 6,5 5,7 5,1 4,6 4,3 4,0 3,8 3,6 3,3 3,0 2,8 2,7 2,5 2,4 2,3 2,2 2,1 2,1 1,8 1,6 1,5 1,3 1,1

13,0 9,2 7,5 6,5 5,8 5,3 4,9 4,6 4,3 4,1 3,7 3,5 3,2 3,1 2,9 2,8 2,6 2,5 2,5 2,4 2,1 1,8 1,7 1,4 1,3

13,9 9,8 8,0 6,9 6,2 5,7 5,2 4,9 4,6 4,4 4,0 3,7 3,5 3,3 3,1 3,0 2,8 2,7 2,6 2,5 2,2 2,0 1,8 1,6 1,4

14,1 10,0 8,2 7,1 6,3 5,8 5,3 5,0 4,7 4,5 4,1 3,8 3,5 3,3 3,2 3,0 2,9 2,8 2,7 2,6 2,2 2,0 1,8 1,6 1,4

13,9 9,8 8,0 6,9 6,2 5,7 5,2 4,9 4,6 4,4 4,0 3,7 3,5 3,3 3,1 3,0 2,8 2,7 2,6 2,5 2,2 2,9 1,8 1,6 1,4

13,0 9,2 7,5 6,5 5,8 5,3 4,9 4,6 4,3 4,1 3,7 3,5 3,2 3,1 2,9 2,8 2,6 2,5 2,5 2,4 2,1 1,8 1,7 1,4 1,3

11,3 8,0 6,5 5,7 5,1 4,6 4,3 4,0 3,8 3,6 3,3 3,0 2,8 2,7 2,5 2,4 2,3 2,2 2,1 2,1 1,8 1,6 1,5 1,3 1,1

8,5 6,0 4,9 4,2 3,8 3,5 3,2 3,0 2,8 2,7 2,4 2,3 2,1 2,0 1,9 1,8 1,7 1,7 1,6 1,6 1,3 1,2 1,1 0,9 0,8

296

Übungen und Arbeitshilfen. Arbeitshilfen

wir für einen Stichprobenumfang von N = 500 zum Prozentwert P = 30% den Wert 4,1. Er zeigt uns, daß der Mutungsbereich in diesem Fall von (30 — 4,1 = ) 25,9% bis (30 + 4,1 = ) 34,1 reicht. In diesem Bereich liegt der gesuchte Prozentwert der Population mit einem s = 2 (bzw. mit einer Irrtumswahrscheinlichkeit von 4 , 6 % ) .

T a b e l l e M : S t i c h p r o b e n u m f a n g u n d die M i n d e s t g r ö ß e der D i f f e r e n zen zwischen P r o z e n t w e r t e n ( Z u r ü c k w e i s u n g der Nullhypothese auf einem Niveau von % = 2)

Die folgende Tabelle gibt für unterschiedliche Stichprobenumfänge (N) an, für welche Differenzen zwischen Prozentwerten die Nullhypothese gerade noch auf einem Niveau von z = 2 (Irrtumswahrscheinlichkeit 4,5%) zurückgewiesen werden kann. Hier wird angenommen, daß die prozentuale Differenz aus zwei gleich großen Stichproben stammt. Die Umfange dieser Teilstichproben N1 = N2 = N stehen in der linken Spalte. Im Kopf der Tabelle sind die Prozentwerte angegeben, in deren Nähe die zu vergleichenden Prozentwerte stehen. (Umfang der Teilstichprobe

Nt = Nt = N) N

10%

20%

30%

40%

50%

60%

70%

80%

90%

50 100 150 200 250 300 350 400 450 500 600 700 800 900 1000 1100 1200 1300 1400 1500 2000 3000 4000 5000

11,8 8,4 6,9 6,0 5,3 4,9 4,5 4,2 4,0 3,8 3,5 3,2 3,0 2,8 2,7 2,6 2,4 2,4 2,3 2,2 1,9 1,5 1,3 1,2

15,7 11,2 9,2 8,0 7,1 6,5 6,0 5,6 5,3 5,0 4,6 4,3 4,0 3,8 3,6 3,4 3,3 3,1 3,0 2,9 2,5 2,1 1,8 1,6

18.0 12,9 10,5 9,1 8,2 7,5 6,9 6,5 6,1 5,8 5,3 4,9 4,6 4,3 4,1 3,9 3,7 3,6 3,5 3,3 2,9 2,4 2,1 1,8

19,2 13,7 11,2 9,7 8,7 8,0 7,4 6,9 6,5 6,2 5,6 5,2 4,9 4,6 4,4 4,2 4,0 3,8 3,7 3,6 3,1 2,5 2,2 2,0

19,6 14,0 11,5 10,0 8,9 8,1 7,5 7,1 6,7 6,3 5,8 5,3 5,0 4,7 4,5 4,3 4,1 3,9 3,8 3,6 3,2 2,6 2,2 2,0

19,2 13,7 11,2 9,7 8,7 8,0 7,4 6,9 6,5 6,2 5,6 5,2 4,9 4,6 4,4 4,2 4,0 3,8 3,7 3,6 3,1 2,5 2,2 2,0

18,0 12,9 10,5 9,1 8,2 7,5 6,9 6,5 6,1 5,8 5,3 4,9 4,6 4,3 4,1 3,9 3,7 3,6 3,5 3,3 2,9 2,4 2,1 1,8

15,7 11,2 9,2 8,0 7,1 6,5 6,0 5,6 5,3 5,0 4,6 4,3 4,0 3,8 3,6 3,4 3,3 3,1 3,0 2,9 2,5 2,1 1,8 1,6

11,8 8,4 6,9 6,0 5,3 4,9 4,5 4,2 4,0 3,8 3,5 3,2 3,0 2,8 2,7 2,6 2,4 2,4 2,3 2,2 1,9 1,5 1,3 1,2

Umrechnungstafel

297

Beispiel: Wir haben zwei Prozentwerte P1 = 1 7 % und P 2 = 2 3 % aus zwei Stichproben mit je N = 800 Versuchspersonen miteinander zu vergleichen. Die beiden Werte hegen in der Nähe von 2 0 % . Demgemäß suchen wir in der Spalte „ 2 0 % " die zugehörige Differenz auf: sie beträgt 4,0. Unsere Differenz ist jedoch größer d = P2 — Pt — 6 % . Demnach kann diese gefundene Differenz (für die Population) mindestens auf einem Niveau von z = 2 als real angesehen werden: die Nullhypothese kann mit der entsprechenden Irrtumswahrscheinlichkeit zurückgewiesen werden.

Tabelle N. Umrechnungstafel für r in z (nach FISHER) z

0,00

0,01

0,02

0,03

0,04

0,05

0,06

0,07

0,08

0,09

0,0 0,1 0,2 0,3 0,4 0,5 0,6 0,7 0,8 0,9 1.0 1.1 1.2 1.3 1.4 1.5 1.6 1.7 1.8 1.9 2.0 2.1 2.2 2.3 2.4 2.5 2.6 2.7 2.8 2.9

0,00 0,10 0,20 0,29 0,38 0,46 0,54 0,60 0,66 0,72 0,76 0,80 0,83 0,86 0,89 0,91 0,92 0,94 0,947 0,956 0,964 0,971 0,976 0,980 0,984 0,987 0,989 0,991 0,993 0,994

0,01 0,11 0,21 0,30 0,39 0,47 0,54 0,61 0,67 0,72 0,77 0,80 0,84 0,86 0,89 0,91 0,92 0,94 0,948 0,958 0,965 0,971 0,976 0,981 0,984 0,987 0,989 0,991 0,993 0,994

0,02 0,12 0,22 0,31 0,40 0,48 0,55 0,62 0,68 0,73 0,77 0,81 0,84 0,87 0,89 0,91 0,93 0,94 0,949 0,958 0,965 0,972 0,977 0,981 0,984 0,987 0,989 0,991 0,993 0,994

0,03 0,13 0,23 0,32 0,41 0,49 0,56 0,62 0,69 0,73 0,77 0,81 0,84 0,87 0,89 0,91 0,93 0,94 0,950 0,959 0,966 0,972 0,977 0,981 0,984 0,987 0,990 0,992 0,993 0,994

0,04 0,14 0,24 0,33 0,41 0,49 0,57 0,63 0,69 0,74 0,78 0,81 0,85 0,87 0,89 0,91 0,93 0,94 0,951 0,960 0,967 0,973 0,978 0,982 0,985 0,988 0,990 0,992 0,993 0,994

0,05 0,15 0,25 0,34 0,42 0,50 0,57 0,64 0,69 0,74 0,78 0,82 0,85 0,87 0,90 0,91 0,93 0,94 0,952 0,960 0,967 0,973 0,978 0,982 0,985 0,988 0,990 0,992 0,993 0,995

0,06 0,16 0,25 0,35 0,43 0,51 0,58 0,64 0,70 0,74 0,79 0,82 0,85 0,88 0,90 0,92 0,93 0,94 0,953 0,961 0,968 0,974 0,978 0,982 0,986 0,988 0,991 0,992 0,994 0,995

0,07 0,17 0,26 0,35 0,44 0,52 0,59 0,65 0,70 0,75 0,79 0,82 0,85 0,88 0,90 0,92 0,93 0,94 0,954 0,962 0,969 0,974 0,979 0,983 0,986 0,988 0,991 0,992 0,994 0,995

0,08 0,18 0,27 0,36 0,45 0,52 0,59 0,65 0,71 0,75 0,79 0,83 0,86 0,88 0,90 0,92 0,93 0,95 0,955 0,963 0,969 0,975 0,979 0,983 0,986 0,989 0,991 0,992 0,994 0,995

0,09 0,19 0,28 0,37 0,45 0,53 0,60 0,66 0,71 0,76 0,80 0,83 0,86 0,88 0,90 0,92 0,93 0,95 0,955 0,963 0,970 0,975 0,980 0,983 0,986 0,989 0,991 0,993 0,994 0,995

298

Übungen und Arbeitshilfen. Arbeitshilfen

Tabelle 0 . Chi-Quadrat-Verteilung r remeitsgraa

Wahrscheinlichkeit1) 2% 5%

20%

10%

1 2 3 4 5

1,64 3,21 4,64 5,98 7,28

2,70 4,60 6,25 7,77 9,23

3,84 5,99 7,81 9,48 11,07

6 7 8 9 10

8,55 9,80 11,03 12,24 13,44

10,64 12,01 13,36 14,68 15,98

11 12 13 14 15

14,63 15,81 16,98 18,15 19,31

16 17 18 19 20

1%

0,1%

5,41 7,82 9,83 11,66 13,38

6,63 9,21 11,34 13,27 15,08

10,82 13,81 16,26 18,46 20,51

12,59 14,06 15,50 16,91 18,30

15,03 16,62 18,16 19,67 21,16

16,81 18,47 20,09 21,66 23,20

22,45 24,32 26,12 27,87 29,58

17,27 18,54 19,81 21,06 22,30

19,67 21,02 22,36 23,68 24,99

22,61 24,05 25,47 26,87 28,25

24,72 26,21 27,68 29,14 30,57

31,26 32,90 34,52 36,12 37,69

20,46 21,61 22,76 23,90 25,03

23,54 24,76 25,98 27,20 28,41

26,29 27,58 28,86 30,14 31,41

29,63 30,99 32,34 33,68 35,02

32,00 33,40 34,80 36,19 37,56

39,25 40,79 42,31 43,82 45,31

21 22 23 24 25

26,17 27,30 28,42 29,55 30,67

29,61 30,81 32,00 33,19 34,38

32,67 33,92 35,17 36,41 37,56

36,34 37,65 38,96 40,27 41,56

38,93 40,28 41,63 42,98 44,31

46,79 48,26 49,72 51,17 52,62

26 27 28 29 30

31,79 32,91 34,02 35,13 36,25

35,56 36,74 37,91 39,08 40,25

38,88 40,11 41,33 42,55 43,77

42,85 44,14 45,41 46,69 47,96

45,64 46,96 48,27 49,58 50,89

54,05 55,47 56,89 58,30 59,70

Prozentuale Wahrscheinlichkeit, einen bestimmten in der Tabelle angegebenen oder höheren £2-Wert zu erhalten.

F-Tabelle

299

P. F-Tabelle für p = 5 % j^ OioM io W 'C i Dwh co WO H ^t^O ic MH O CœO f lt^î lco O N«oH©^ O N Î 05 ccNh^oQffi »oO O^ * ^o CO CO -H i-H PH l>eœ o aT*HTÍ«CjO_oCO ® s oCq®I-H M íFH i M nO OS 00 Dm COrt (N M es otíio^^c^co V co" co" ^co ^co" co" ci^ ci^ ci^ ci^ ci^ci cq" ci ci ci ci ci ci t—I

l" "O w œ œ m i N ^®i M« t B t o« ""

O5 tq 00 ©C Ti l>

.^CDMOÏHtOlOt^tû TttONHHOOOJafflOOt-^tD cq os os" co io" -i" tü" co" co co" co" co co' co" co' co cq" cq" cq" cq' cq' cq' cq g o «3 œ h h f. -í N w œ i> œ «3 ^ ^ mm n « h o œ cq oîo> œ 10" 10" t* - i -^T -^T co co co co co co co co co co co" co co" ci ffiaiMiMio«:QOiH»o®iMOt»ooto^Tji O îlOWHOJ^®^iltO«MNNHOOO)® i-Hcqco^iocot-ooosocqTítoooocqTjicooooooo o

300

Übungen und Arbeitshilfen. Arbeitshilfen

Q. F - T a b e l l e f ü r p = l % O CDONiONCOiOOHHfflOiO lO I - CO ei ei ei ei e i e i e i cT co eo es* C O i Q ^ ^ co «T oí ^ ® C5 N H co 00 C O eq CO lO 00 C O1TÍ eq a¡ 1— 00 CO lO CO. 00 lO I CO io eo. oCO o 'O S o ^ » o t « o « i q e i e i e i ei ei ei e i e i e i ^ ¡3o>iono>t>"ioio ® © WH O JH CD o lO t- CO co lO i> TÍ C 00 T (N ® t- CO CO lO co eq O eo" co" e i e i ei ei e i e i e i e i ei r- eo eq eo CO o Tí CO co co lO C U5 O OQ © q C O CO*co" co" CO CO e i e i e i e i e i ei

O^OMWt^^iO CD o CO Iii TÍ o cq h N lO lo N CO « I CO 00 r - CD eo Tí CO o 00 No CO-CO »o io lO >o >a >a >o" lO Tí" IQ Q ^r H^ I C-OI1' ICO - H^O O 1 ' AQ M0" M - I ©Í HN

Tí eq eq CO 00 CO r- o «5 eq o OS OD CO.lO co OS 00 00 00 r-" I>" tl> l> r- co

H ( N M i l i 0 « i l > C 0 f l JH OH NH ^