Zeitschrift für Sozialpsychologie: Band 15, Heft 4 1984 [Reprint 2021 ed.]
 9783112469149, 9783112469132

Citation preview

HERAUSGEBER HUBERT FEGER C. F. G R A U M A N N KLAUS HOLZKAMP MARTIN IRLE

B A N D 15 1984 H EFT 4

VERLAG HANS HUBER BERN STUTTGART WIEN

Zeitschrift für Sozialpsychologie 1984, Band 15, H e f t 4 INHALT

Zu diesem Heft

247

Theorie und Methoden BORG, I. : Das additive Konstantenproblem der multidimensionalen Skalierung LANGEHEINE, R.: Explorative Techniken zur Identifikation von Strukturen in großen Kontingenztabellen

248 254

Empirie HAISCH, J.: Zur Fehlerreduktion im richterlichen Handeln: A n w e n d u n g einer metatheoretischen Position als N o r m bei der Wahrheitsrekonstruktion in Gerichtsverfahren HASSEBRAUCK, M.: Die Beeinflussung von Reaktionen auf distributive Ungerechtigkeit durch die Art der Sozialbeziehung : MUMMENDEY, A . ,

LÖSCHPER, G . & LINNEWEBER, V . : Z u r P e r s p e k t i v e n d i v e r g e n z

269 278

zwischen

Akteur und Betroffenem in aggressiven Interaktionen: Der Einfluß überparteilicher Information und Bewertung

290

Literatur Neuerscheinungen

304

Titel und Abstracta

305

Nachrichten und Mitteilungen

306

Autoren

307

Vorschau

308

Gesamtinhaltsverzeichnis Band 15 (1984) Namens- und Sachregister Band 15 (1984)

309 311

C o p y r i g h t 1984 Verlag H a n s H u b e r Bern S t u t t g a r t W i e n H e r s t e l l u n g : S a t z a t e l i e r P a u l S t e g m a n n , Bern P r i n t e d in S w i t z e r l a n d G e d r u c k t mit U n t e r s t ü t z u n g d e r Deutschen Forschungsgemeinschaft. Library ofCongress Catalog Card N u m b e r 78-126626 Die Zeitschrift für Sozialpsychologie w i r d in Social Sciences Citation I ndex( SSCI) u n d Current Contents/ Social and Beha vioral Sciences e r f a ß t .

247

Zeitschrift für Sozialpsychologie 1984

Zu diesem Heft Nach Band 8, Heft 3, 1977, unserer Zeitschrift wurde die bis dahin mit «Theorie» überschriebene Rubrik in «Theorie und Methoden» umbenannt. Auffallend ist, daß dies in der Zeitschrift nirgends angezeigt und begründet wurde. In «Zu diesem Heft», 4, 1977, wird die neue Rubrik «Theorie und Methoden» vielmehr (von mir selbst und RAINER GUSKI als damaligem geschäftsführenden Herausgeber/Redakteur) lediglich im laufenden Text erwähnt, als ob sie schon immer so geheißen hätte. Wir waren uns damals offenbar der Symptomatik und Tragweite dieser Umbenennung nicht bewußt. Im vorliegenden Heft finden sich unter «Theorie und Methoden» zwei methodische Beiträge: «Das additive Konstantenproblem...» von BORG und «Explorative Techniken ...» von LANGEHEINE. Dies veranlaßte mich, die in den letzten drei Heften unter dieser Rubrik erschienenen Arbeiten noch einmal anzusehen. Heft 1/84: ECKES & Six: «Prototypenforschung. Ein integrativer Ansatz zur Analyse der alltagssprachlichen Kategorisierung ...»; ERDFELDER: «Zur Bedeutung des ß-Fehlers ...». Heft 2/84: PLAUM: « vs. Wahrscheinlichkeit ...». Heft 3/84: KRÄHE: «Wissenschaftliche Forschungspraxis und alltagspsychologische Wirklichkeit. Ein Beitrag zur attributionstheoretischen Methodendiskussion»; GNIECH & STADLER: «Methodische Probleme beim kriminalistischen Gegenüberstellungsexperiment»; LANGEHEINE: «Neuere Entwicklungen in der Analyse latenter Klassen und latenter Strukturen». Mithin im gesamten Jahrgang 1984 unter der Rubrik «Theorie und Methoden» keine einzige dezidiert theoretische Arbeit! Wäre jetzt also eine erneute Umbenennung der Rubrik von «Theorie und Methoden» in «Methoden» fällig - oder zumindest in «Methoden und Theorie», da sich ja doch auch weiterhin gelegentlich eine theoretische Arbeit zu uns verirren könnte?

Was bleibt da eigentlich noch von dem Anspruch unserer Zeitschrift, «der wissenschaftlichen Kontroverse zwischen verschiedenen theoretischen Standpunkten das ihr gemäße Forum» zu bieten? Der mögliche Einwand, «Theorie» sei doch jedesmal in den empirischen, experimentellen Arbeiten als Formulierung und Diskussion der zu prüfenden theoretischen Hypothesen vorhanden, trägt da m.E. nicht sehr weit: Einmal nämlich ist es innerhalb von Artikeln über experimentelle Untersuchungen schon aufgrund von deren traditioneller Gliederung und Ausdehnung kaum möglich, theoretische Konzepte im Zusammenhang zu entwickeln und zu begründen (dazu sollte ja gerade die «Theorie»-Rubrik zur Verfügung stehen); und zum anderen scheint mir (wie im Editorial zu 2/84 erwähnt) auch innerhalb der «experimentellen» Rubrik «Empirie» eine Tendenz zu bestehen, theoretische Hypothesen zunehmend lediglich als Beispiel für die angewandten Verfahren bzw. als Exerzierfeld für methodische Übungen zu «enteigentlichen»: Anspruchslosigkeit und Begriffsverwirrung im Theoretischen werden einem ja doch, sofern methodische Standards eingehalten sind, von der einschlägigen scientific Community kaum vorgehalten. Ich bin nicht der Auffassung, daß sich in diesem Trend vorwiegend ein Problem unserer Zeitschrift, der «an sich» vorhandene theoretische Arbeiten bloß nicht angeboten würden, dokumentiert: Vielmehr muß man sich, wie ich meine, immer dringlicher fragen, ob wir hier nicht Zeuge eines fortschreitenden Selbstaufhebungsprozesses der Sozialpsychologie als einer sich wissenschaftlich ihrer selbst bewußten Disziplin sind und ob wir nicht daran gehen müßten, in psychologiegeschichtlicher Analyse nach den Gründen und nach den Konsequenzen zu suchen. KLAUS HOLZKAMP

I

J

248

Borg: Das additive Konstantenproblem der multidimensionalen Skalierung

Theorie und Methoden Das additive Konstantenproblem der multidimensionalen Skalierung* INGWER BORG Justus-Liebig-Universität

Das additive Konstantenproblem der multidimensionalen Skalierung (AKP) wird expliziert. Drei verschiedene Versionen des AKP werden unterschieden: eine algebraische, eine statistische, und eine Optimierungs-Variante. Für den ersten Fall wird ein einfacher Beweis geführt, daß stets eine Lösung in höchstens n - 1 Dimensionen existiert. Mit größerem Aufwand läßt sich sogar n - 2 als maximale Dimensionalität nachweisen. Für den zweiten Fall wird gezeigt, daß die klassische Messick-Abelson Methode nur empirisch approximativ gilt, aber theoretisch falsch ist.

The additive constant problem of multidimensional scaling (ACP) is made explicit and three different forms of the problem are distinguished: an algebraic, a statistical, and an optimization version. A simple proof is given that the algebraic A C P always has a solution in at most n - 1 dimensions. With more demanding mathematics, it is even possible to show that n - 2 is the maximal dimensionality. For the statistical ACP, it is shown that the classical Messick-Abelson solution holds only approximately in practice, but is theoretically incorrect.

1. Einleitung

von untersuchen. Nur in einer dieser Problemklassen ist eine eindeutige Antwort möglich. In den anderen hängt die Lösung des A K P von den jeweiligen Randbedingungen ab.

Zu kaum einer anderen Fragestellung der multidimensionalen Skalierung existieren so viele technische Veröffentlichungen wie zum «additiven Konstanten-Problem» (AKP). Vorausgesetzt man versteht überhaupt, worum sich das A K P handelt - geradezu varieté-reife Verdrehungen des Problems finden sich bei BORTZ ( 1 9 8 4 , p.110) - , dann ist dennoch nicht leicht einzusehen, warum hier immer wieder «neue» Lösungen vorgeschlagen werden, nachdem bereits von MESSICK & ABELSON ( 1 9 5 6 ) eine Lösung ausgearbeitet wurde, die vielfach als «klassisch» gilt. Andererseits scheinen SCHÖNEMANN ( 1 9 7 1 ) und BORG ( 1 9 8 1 ) zeigen zu können, daß für das APK überhaupt keine Lösung existiert, während z.B. SCHIFFMAN et al. ( 1 9 8 1 ) von der Existenz einer solchen Lösung beweislos ausgehen. Die Situation wird klarer, wenn zunächst einmal unterschieden wird, daß es sich beim A K P um drei verschiedene Probleme handelt, und daß die verschiedenen Autoren immer nur eines da* Arbeit im Rahmen des DFG-Projekts Bo 597/5-1.

2. Das algebraische AKP Gegeben sei eine Menge von Unähnlichkeitsmaßen Pjj ( i < j). Üblicherweise nimmt man für diese Maße Symmetrie an und setzt daher py = pjj, für alle i, j = l , . . . , n . Weiterhin wird Pü = 0, für alle i, definiert. Als zulässige Transformation f wird eine lineare Reskalierung festgelegt, d.h. f: Pjj ->• kpjj + c, mit k ^ 0. Es sei nun dy eine Distanzfunktion. Somit gilt dij = d j i < d i k + dkj, für alle i, j, k. Man fragt dann, ob eine additive Konstante c existiert derart, daß f(Pij) = Pij + c = dy (i j). Die Antwort hierauf lautet Ja: die gesuchte additive Konstante c ist c > max(p|j-p i k -p k j), bestimmt über alle i, j, k. D . h . , man muß c lediglich so groß oder größer wählen, daß die von den gegebenen Unähnlichkeitswerten am stärksten verletzte Dreiecksungleichung gerade i.S. der Distanzaxiome inver-

249

Zeitschrift für Sozialpsychologie 1984,15,248-253

tiert wird. Somit lassen sich gegebene Unähnlichkeitswerte unter der Intervallskalenbedingung immer in Distanzen transformieren, vorausgesetzt man hat, wie meist der Fall, lediglich Werte für eine Hälfte der Datenmatrix. Es sei nun Dy nicht nur eine Distanz, sondern sogar eine euklidische Distanz. Die Funktion Dy erfüllt daher nicht nur die obigen Bedingungen der Symmetrie, Nicht-Negativität, und der Dreiecksungleichung, sondern besitzt weitere Eigenschaften, die es gestatten, die Punkte i = 1 , . . . , n als Elemente eines reellen Vektorraums mit innerem Produkt aufzufassen, wo Dy = ||i-j||, die Norm des Differenzvektors i - j . D.h., anschaulich ausgedrückt, die Dy-Werte lassen sich darstellen als Abstände zwischen Punkten, die mit «geradem Lineal» bestimmt sind. Das gilt keineswegs immer. Man denke z. B. an die kürzesten Abstände zwischen verschiedenen Orten auf der Erde. Diese Abstände sind zweifellos Distanzen, aber keine euklidischen, sondern «elliptische». Interpretiert man diese Distanzen als euklidische, führt dies zu Widersprüchen, wie folgendes einfache Beispiel (aus BORG, 1981) zeigt. Gegeben sind die Punkte a , . . . , d , auf dem Kreis (Abbildung 1). Ihre Abstände seien die kürzesten Wege auf dem Kreis (Bogenmaße). Dies führt zu den Werten in Tabelle 1. Wie man leicht nachprüft sind diese Werte Distanzen. Ihre Deutung als euklidische Distanzen ist jedoch nicht möglich. Da d(a,b) = d(a,c) + d(c,b)gilt, müssen a,b,c auf einer Geraden liegen, mit c zwischen a undb. Da weiter d(a,b) = d(a,d) + d(d,b), müssen auch a , d , b auf einer Geraden liegen. Beide Bedingungen implizieren dann d(c,d) = 7i/4, was nicht dem Wert in Tabelle 1 entspricht. Es läßt sich zeigen, daß Distanzen dy in einen euklidischen Raum eingebettet werden können wenn und nur wenn die mit ihnen assoziierte Skalarproduktmatrix B postiv semi-definit ist. B ist definiert als (1)

B = (-1/2)ZD ( 2 ) Z,

wobei (2)

Z=I-(l/n)jj'

mit I der n x n Einheitsmatrix, j = (1,... ,1), und D (2) = (d2-). Z ist eine Zentrierungsmatrix, die aus D (2) die Zeilen- bzw. Spaltenmittelwerte herauszieht. B ist positiv semi-definit, wenn ihre Eigenwerte alle nicht-negativ sind oder, äquivalent, wenn x' Bx > 0, für beliebige Vektoren x, gilt.

Abb.l: Vier Punkte, a , . . . d , auf dem Kreis, mit ihren Kreisdistanzen, dargestellt durch die Doppel-Pfeile. n = 3 . 1 4 1 6 . . .

Tab.l: Distanzen für die Punkte a Figur 1.

0.0 3.1416 0.7854 1.5708

3.1416 0.0 2.3562 1.5708

c auf dem Kreis in

0.7854 2.3562 0.0 2.3562

1.5708 1.5708 2.3562 0.0

Es sei nun gefragt, ob gegebene Distanzen immer durch eine additive Konstante in euklidische Distanzen transformiert werden können, d.h. kann die Existenz von dy + c = Dy immer garantiert werden? SCHÖNEMANN (1971) und BORG (1981) zeigen, wie es scheint, daß dies nicht geht. Man addiert zunächst zu allen nebendiagonalen Werten von A=(dy) die Konstante c und setzt dies für D (2) in (1) ein, d.h. (3)

D (2) = A + c ( j j ' - I )

in (1). Es gilt nun c so zu wählen, daß B positiv semi-definit ist. Dies läßt sich immer dadurch erreichen, daß c so groß ist, daß die Eigenwerte von D (2) sämtlich nicht-positiv werden. Das kleinste c ist somit A,max, der größte Eigenwert von A. Es ist somit immer möglich, gegebene Distanzen in quadrierte euklidische Distanzen D (2) zu transformieren. Aber quadrierte euklidische Distanzen sind keine euklidischen Distanzen und möglicherweise noch nicht einmal Distanzen: Sind z.B.

250

Borg: Das additive Konstantenproblem der multidimensionalen Skalierung

die euklidischen Distanzen A = 4, B = 3, C = 2 gegeben, für die A < B + C gilt, dann gilt offenbar A 2 < B2 + C 2 nicht. Zieht man jedoch die Wurzel aus den Werten in D (2) , um so euklidische Distanzen zu erhalten, dann ist die Transformation (djj+c) 1/2 = Djj nicht-linear und somit nicht mehr zulässig i.S. des Intervallskalenniveaus. Es zeigt sich aber gleich, daß f: dy -* Dy immer existiert, wenn f monoton ist. Dies ist die Essenz von LINGOES' (1971) Beweis. Der Schluß von SCHÖNEMANN (1971) und BORG (1981) ist jedoch falsch. Sie zeigen lediglich, daß die von ihnen entwickelte Transformation nicht die geforderten Bedingungen erfüllt. Daß es dennoch eine additive Konstante gibt, die Distanzen (oder Unähnlichkeitswerte) stets in euklidische Distanzen transformiert, sieht man wie folgt. Setzt man (3) in (1) ein, dann ergibt sich nach einigen Umformungen (4)

Bc = B + 2cBq + (C2/2)Z,

wobei Bc die sich bei jeweiligem c ergebende Skalarproduktmatrix ist, B die Skalarproduktmatrix aus (1), also ohne additive Konstante c, und B q die Skalarproduktmatrix für die Quadratwurzeln der Distanzen dy. Bc ist positiv semi-definit, wenn x' Bcx > 0, für jeden Vektor x. Also (5)

x ' Bx + 2 c x ' B q x + (C 2 /2)X' Z x > 0.

Für jedes x ist der erste Faktor in (5) eine Konstante, = x'Bx. Ebenfalls konstant ist k 2 = x'B q x. Weiterhin ist x ' Z x = E ( x r x ) 2 = k 3 > 0, für alle x=£ (0 0). Somit sieht man, daß in (6)

k j + ck 2 + c 2 k 3

bei immer größer werdendem c der letzte Term immer stärker dominiert und, da k 3 > 0, schließlich (5) erfüllt ist, ganz gleich, ob kx und k 2 negativ sind. Die Dimensionalität der sich dadurch ergebenden Skalarproduktmatrix Bc ist offenbar höchstens gleich n - 1 , weil Bc infolge seiner Zentriertheit einen Null-Eigenwert assoziert mit j = ( l , . . . l ) hat. Die Existenz eines c mit den gewünschten Eigenschaften ist somit hinreichend klar. Allerdings bleibt zu fragen, ob nicht vielleicht ein c existiert, das eine noch niedriger-dimensionale Lösung garantiert. Dies ist in der Tat der Fall. Betrachten wir zunächst eine Methode, die dem kleinstmöglichen c meist sehr ähnliche Werte liefert. Nehmen wir an, Xn, der kleinste Eigen-

wert von B sei negativ. (Ist dies nicht der Fall, sind die Distanzen bereits euklidisch.) Wir nehmen weiter an, daß die Distanzen durch eine additive Konstante k schon vorab so verschoben wurden, daß Bq positiv semi-definit ist. Das hierzu notwendige k berechnet sich wie im Anschluß an (3) dargestellt. Da somit k 2 > 0 und k 3 > 0, für alle x, kann die Ungleichung (5) nur durch den k r Term verletzt werden. Dieser erreicht sein Minimum für x = s n , dem Eigenvektor zu seinem kleinsten Eigenwert, Eine approximative Lösung für c ist daher der Wert, für den (5) bei x = s n gerade zur Gleichung wird, d.h. + 2cs£Bqsn + (c 2 /2KZs n = 0.

(7) Somit (8)

c = -2s^B q s n +

4(s^Bqsn)2-2X.n.

Für die Werte in Tabelle 1 findet man c = 1.283860075 (double precision), für den Bc «fast» positiv semi-definit mit Rang n - 2 wird: der vorletzte Eigenwert ist 0.0, der letzte ist -0.012. Der Haken dieses simplen Verfahrens ist folgender: Setzt man x = s n , so wird kj, der einzige negative Term in (6), minimal. Dagegen ist nicht garantiert, daß dadurch auch (5) insgesamt minimiert wird, weil für x = s n die beiden anderen (positiven) Terme, k 2 und k 3 , größere Werte annehmen können als für andere x. Setzt man daher die linke Seite von (5) mit x = s n gleich 0 und löst für c, so genügt im allgemeinen ein etwas zu kleines c zur Ausbalancierung der negativen und positiven Terme. Genau dies sahen wir oben. Was man bräuchte ist also das x, das mit dem kleinsten Eigenwert von M = B + 2cBr + (c 2 /2)Z assoziiert ist, und dieses x ist offenbar eine Funktion der Unbekannten c. Das Problem ist also verwickelt. Es ist jedoch lösbar, wenn auch nicht mit elementarer Mathematik. Wir beschränken uns deshalb darauf, hier nur beweislos die von CAILLIEZ (1983) gefundene Lösung zu präsentieren: Oi

(9) c=größter (reeller) Eigenwert von

2B

I l —Il—4B i ir

worin 0 und I die n x n Null- bzw. Einheitsmatrix sind. Für die Daten in Tabelle 1 ergibt sich hieraus c=l.290843885 (double precision), ein leicht größerer Wert wie vorher.

251

Zeitschrift für Sozialpsychologie 1984,15,248-253

Tab. 2: Entwicklung der additiven Konstante c gemäß Formel (9) für Daten in Tabelle 1. 0 0 0 0

0 0 0 0

0 0 0 0

-1

0

0 0

0 0 0

-1 0 0

-1 0

0 1 3.161 o 1 -5.475 0 1 2.236 0.077

-5.475 5.629 -1.465 1.311

2.236 -1.465 2.545 -3.316

0.077 1.311 -3.316 1.928

0 1 -2.553 2.945 ° ! -0.982 0 -1 0.589

2.945 -4.123 1.374 -0.196

-0.982 1.374 -2.553 2.160

0.589 -0.196 2.160 -2.553

°!

Eigenwerte: -5.29540+ 0i 1.29087+ 0i 0.01556+ 0i -0.01606+ 0i -1.89050+ ( .90677) i -1.89050 +(-.90677) i -1.99799+ ( .09117) i -1.99799 + (-.09117) i Eigenwerte von Bj

11.194 5.534

0.000 -0.001 Tabelle 2 zeigt die Supermatrix aus (9) und ihre Eigenwerte (single precision). Ihre Eigenzerlegung erfolgte mit der Routine F02AFF der NAG Bibliothek. Da die Supermatrix nicht-symmetrisch ist, ergeben sich komplexe Eigenwerte. (Man beachte, daß die in den Sozialwissenschaften gebräuchlichen Eigenroutinen hier nicht verwendet werden können: Sie sind nur für symmetrische Matrizen geeignet.) Setzen wir vereinfachend c = 1.29, ergibt sich bereits ein praktisch positiv semi-definites B c .

3. Das statistische AKP Das statistische A K P behandelt eine weit komplexere Frage als die oben diskutierte. Es wird nicht verascht, ein c zu finden, das gegebene Distanzen (oder Unähnlichkeitswerte) in euklidische Distanzen transformiert, sondern in die «wahren» euklidischen Distanzen. Der Grundgedanke ist, daß empirische Daten einen Fehleranteil haben und es daher wissenschaftlich unsinnig sei, die Konstante c so groß zu wählen, daß alle euklidischen Distanzeigenschaften strikt erfüllt sind. Vielmehr würde es ausreichen, wenn diese Eigenschaften «mehr oder weniger» gelten. Sei also djj = dj• + e^, wobei dy die wahre Distanz zwischen i und j und ey ein Fehlerterm ist.

(1956) suchen dann nach einer Lösung für die «wahre» additive Konstante c, für die djj + c = Dy (i ^ j) gilt. In bezug auf die beobachteten djj-Werte heißt das, daß die Verletzungen von djj+c=Dy im angenommenen FehlerRange liegen. B c in (4) muß nun also nicht mehr «streng», sondern nur noch «annähernd» positiv semi-definit sein. MESSICK & ABELSON nehmen dazu an, daß Bc r-^ n «große» Eigenwerte besitzt und n - r « kleine». Die kleinen werden als Auswirkungen des Fehlers in den Daten betrachtet und sollen sich symmetrisch um Null verteilen. Auf dieser Kernannahme bauen sich ihre mathematischen Entwicklungen auf. Der Wert r selbst ist aus der Verteilung der Eigenwerte der Skalarprodukte der Daten zu bestimmen. Es ist allerdings nicht ohne weiteres einsichtig, warum sich die Fehler in dieser Weise auswirken sollen. MESSICK & ABELSON (1954, p. 7) schreiben dazu lediglich folgendes: «With fallible data . . . the small roots will probably not equal zero but will vary positively and negatively around zero.» Man kann aber leicht zeigen, daß dies falsch ist. Nehmen wir dazu an, die Daten seien reine Zufallswerte. Die zugehörige Skalarproduktmatrix finden wir über (1). Dazu werden zunächst die Datenwerte quadriert. Da d? = 0, per definitionem, sind die Werte in der Hauptdiagonalen von D (2) alle höchstens gleich groß wie die d^ (i j) Werte. Damit ergibt die doppelte Zentrierung in der Hauptdiagonalen lauter negative Werte und nach Multiplikation mit - 1 / 2 lauter positive. Nun weiß man, daß die «Spur» einer quadratischen Matrix (Summe der Elemente in der Hauptdiagonalen) gleich der Summe ihrer Eigenwerte ist. Da aber Spur (B) > 0, muß demnach auch EXj > 0, d.h. die Eigenwerte können sich nicht symmetrisch um 0 verteilen. MESSICK & ABELSON

Die offensichtliche Frage ist die, ob nicht vielleicht dennoch die Annahme von MESSICK & ABELSON als vereinfachende Approximation angesehen werden kann. Dazu wurden 2500 9 x 9 symmetrische Matrizen mit Null-Diagonale aus N(0,1) gesamplet und die Verteilung der Eigenwerte ihrer Skalarproduktmatrizen untersucht. Abbildung 2 zeigt die kumulative Verteilung der Eigenwerte. Es ist deutlich, daß die Verteilung nicht, wie angenommen, symmetrisch um Null ist, aber doch einen recht scharfen Modalwert im Null-Intervall hat und annähernd einer LaplaceVerteilung gleicht. Erstaunlicherweise gilt also

252

Borg: Das additive Konstantenproblem der multidimensionalen Skalierung

Abb.2: Verteilung der Eigenwerte der Skalarprodukte von 2500 9 x 9 symmetrischen Matrizen mit Null-Hauptdiagonalen, gesamplet aus N (0,1).

die MESSicK-ABELSON-Grundannahme approximativ, wenn auch in keinem einzigen individuellen Fall strikt. (Die Beule im linken Ast der Verteilung können wir nicht erklären. Sie scheint reliabel zu sein, aber möglicherweise als Folge von unerwünschten Eigenschaften unserer Zufallsgeneratoren und Eigenroutinen.) Dieses Ergebnis führt zu einem merkwürdigen Dilemma. Einerseits ist klar, daß man im MESSICK-ÄBELSON-Modell nicht davon ausgehen kann, daß die Vp ihre Distanzurteile (bis auf lineare Transformationen) so erzeugt, daß sie wahre Distanzen mit Fehler überlagert. Andererseits ist es aber doch so, daß diese Annahme «approximativ» im Modell gemacht wird. Dies ist eine problematische Situation, da ja im allgemeinen völlig klar ist, welche Annahmen das Modell über den Fehlerprozeß macht. Trotzdem läßt sich das Modell in gewissem Umfang falsifizieren, allerdings nur, wenn man, entgegen dem Rat von MESSICK & ABELSON, zunächst alle Eigenwerte für die Skalarprodukte der Daten berechnet: Treten dann neben den approximativ symmetrisch

um Null verteilten Eigenwerten noch «große» negative auf, dann ist die zugrundeliegende Geometrie nicht euklidisch und es ergibt wenig Sinn, die wahre additive Konstante im Sinne dieses Modells zu schätzen.

4. Das Optimierungs-AKP Um unsere Systematik des A K P abzuschließen, erwähnen wir hier noch die dritte Variante des AKP, in der eine Konstante c gesucht wird, die weder bestimmte algebraische noch statistische Eigenschaften hat, sondern die lediglich die Verlustfunktion L = L((dij + c)-Djj) 2 , j, minimiert, wobei c simultan mit den Punktkoordinaten, aus denen sich die Dy Werte berechnen, bestimmt wird. Dieses Problem ist das von C O O P E R ( 1 9 7 2 ) , ROSKAM ( 1 9 7 2 ) u n d KRUSKAL e t a l . ( 1 9 7 3 )

be-

schriebene, in der iterativ mit Hilfe eines alternierenden Minimierungs-Verfahrens einmal die Transformation f: dy dy + c relativ zu festen Dy Werten, einmal die Koordinaten für die Dy Funk-

253

Zeitschrift für Sozialpsychologie 1984,15,248-253

tionen bei gegebenem c optimiert werden. Eine besondere Variante dieses Lösungsansatzes beschreibt SAITO (1978). In jedem Fall erscheint es sinnvoll, im Optimierungszusammenhang auch darauf zu achten, daß die angemessenen Begriffe verwendet werden: Es ist zumindest irreführend, hier von «Schätzproblemen» (ROSKAM, 1972) zu sprechen, da explizit überhaupt keine Schätztheorie entwickelt wird.

for pulling ourselves up by our own bootstraps.» Viele dieser Schwierigkeiten lösen sich von selbst, wenn man eben nicht, wie üblich, auf der Datenseite versucht, besonders ökonomisch vorzugehen, und statt der Halbmatrix p^ ( < j) die gesamte Matrix erhebt u n d / o d e r repliziert. Hat man eine vollständige Datenmatrix, dann lassen sich neben der Dreiecksungleichung auch unmittelbar Symmetrie und Nicht-Negativität der Datenwerte beurteilen, u . U . auch gleich in statistischer Weise.

5. Diskussion Aus inhaltlicher Sicht ist zunächst als wichtigstes Ergebnis dieser Untersuchungen festzuhalten, daß die Aussage, gegebene Proximitäten in einer Halbmatrix seien euklidische Distanzen bis auf eine lineare Transformation, tautologisch ist. Um also empirisch eine nicht-triviale Aussage dieser Art machen zu können, muß man schon Daten auf Verhältnisskalenniveau haben. Die Distanzaussage wird erst dann zur falsifizierbaren Behauptung, wenn man sie dadurch anreichert, daß die MDS-Dimensionalität höchstens n - 3 sein soll, oder selbstverständlich auch dadurch, daß man Vorhersagen über die Struktur der MDS-Konfiguration macht. Die algebraische Lösung impliziert natürlich, daß auch in den beiden anderen Ansätzen stets eine Lösung in n - 2 Dimensionen existiert. Bei niedrigerer Dimensionalität bleibt im Optimierungsansatz noch die Möglichkeit, sich über den beobachteten Wert des Verlustkriteriums (meist: Stress) Gedanken zu machen bzw. durch Simulationen zu quasi-statistischen Entscheidungen zu kommen. In jedem Fall gehen dabei aber alle Optimierungsparameter in die Entscheidung ein. Auch das statistische A K P i.S. von MESSICK & ABELSON bietet paradoxerweise, weil vom Modell her letztlich unklar, eine weitere Falsifikationsbedingung über die Verteilung der Eigenwerte. Allerdings bleibt hierbei festzuhalten, daß die Annahmenstruktur des Modells im Grunde deshalb so verwickelt ist, weil versucht wird, auf der Grundlage nur eines empirischen Ähnlichkeitswertes für des P a a r (i,j) dessen Réhabilitât zu schätzen. Dazu brauchen wir letztlich, wie TORGERSON (1958, p . 2 7 4 ) richtig bemerkt, « a m e t h o d

Literatur BORG, 1. 1981. Anwendungsorientierte Multidimensionale Skalierung. Heidelberg: Springer. BORG, 1 . , SCHÖNEMANN, P . H . & L E U T N E R , D . 1 9 8 2 . M e r k -

malsüberdeterminierung und andere Artefakte bei der Wahrnehmung einfacher geometrischer Reize. Zeitschrift für experimentelle und angewandte Psychologie, 24, 531-544.

BORTZ, J . 1984. Lehrbuch der empirischen Forschung. Berlin: Springer. CAILLIEZ, F. 1983. The analytical solution of the additive constant problem. Psychometrika, 48, 305-308. COOPER, L. G. 1972. A new solution to the additive constant problem in metric multidimensional scaling. Psychometrika, 3 7 , 3 1 1 - 3 2 2 . KRUSKAL, J . B . , YOUNG, F . W . & SEERY, J . B . 1 9 7 3 . H o w t o u s e

KYST, a very flexible program to do multidimensional scaling and unfolding. Unveröffentlichtes Manuskript, Bell Laboratories. LINGOES, J . C . 1956. Some boundary conditions for a monotone analysis of symmetric matrices. Psychometrika, 21, 1-15. MESSICK, S . J . & ABELSON, R . P . 1 9 5 6 . T h e a d d i t i v e c o n s t a n t

problem in multidimensional scaling. Psychometrika, 21, 1-15.

ROSKAM, E . E . 1972. Multidimensional scaling by metric transformation of data. Nederlands Tijdschrift voor de Psycholgie, 27, 486-508. Auch in J.C.Lingoes, E . E . R o s kam & I.Borg (Eds.) 1979: Geometric Representations of Relational Data. Ann Arbor, Mich.: Mathesis Press. SAITO, T. 1978. The problem of the additive constant and eigenvalues in metric multidimensional scaling. Psychometrika, 4 3 , 1 9 3 - 2 0 1 . SCHIFFMAN, S . S . , REYNOLDS, M . L . & YOUNG, F . W .

1981.

Introduction to Multidimensional Scaling. New York: Academic Press. SCHÖNEMANN, P.H. 1971. On two different «points of view», Unveröffentlichtes Manuskript. Purdue University. ^^H TORGERSON, W.S. 1958. Theory and Methods of Scaling. New York: Wiley. I A

254

Langeheine: Explorative Techniken zur Identifikation von Strukturen

Explorative Techniken zur Identifikation von Strukturen in großen Kontingenztabellen ROLF LANGEHEINE Universität Kiel

Diese Arbeit beschäftigt sich mit dem Problem der Reduktion einer großen Kontingenztabelle auf eine geringere Zahl von Variablen mit dem Ziel der optimalen Erklärung einer nominalen abhängigen Variable. Dazu werden die Vor- und Nachteile verschiedener in der Literatur vorgeschlagener Strategien gegeneinander abgewogen, sowohl in theoretischer Hinsicht als auch an konkreten Datenbeispielen. Das Fazit ist, daß CHAID (Chisquare Automatic Interaction Detection) zwei Ziele am besten erfüllt: 1) Reduktion der Tabelle durch Überprüfung von Zusammenfaßbarkeit von Kategorien sowie Auswahl erklärungskräftiger Prädiktoren; 2) Identifikation eines geschachtelten nonstandard Modells für eine anschließende detaillierte log-lineare Analyse. Da C H A I D allerdings auch seine Probleme hat, wird auf eine Reihe von Punkten eingegangen, die der Anwender beachten sollte.

This paper deals with the problem of reducing a large contingency table to a smaller number of variables aiming at an optimal prediction of a nominal dependent variable. The advantages and limitations of a variety of strategies proposed in the literature are therefore examined, both theoretically and with respect to concrete data. The result is that C H A I D (Chisquare Automatic Interaction Detection) fits best with two aims: 1) Reduction of the table by checking for collapsability of categories as well as selection of powerful predictors; 2) identification of a nested nonstandard model for a more refined subsequent log-linear analysis. However, since C H A I D is not foolproof either, we center on a number of problems which should not be overlooked by users of CHAID.

1.

Variablen, die eine Kontingenztabelle aufmachen, eher gering ist (in der Regel 3 bis 6). Häufig ist jedoch folgendes Problem gegeben: Ein Forscher hat eine kategoriale abhängige Variable (AV) und viele (10,20, 30 oder mehr) unabhängige Variablen (UV's) und möchte wissen, welche UV's bzw. Kombinationen von UV's (d.h. welche Haupteffekte und Interaktionen) bedeutsam für die Erklärung der Variation der AV sind. Es handelt sich also um eine regressions- bzw. varianzanalytische Fragestellung, die in der Regel über log-lineare Modelle (in diesem Fall über Logitmodelle) oder den GSK-Ansatz angegangen wird. Ein typisches Beispiel gibt der in Tabelle 1 zusammengestellte Variablensatz. Aus einer Vielzahl grundsätzlich kategorial erfaßter Variablen einer Studie zum Trinkverhalten von Jugendlichen in Schleswig-Holstein (FAHR E N K R U G et al., 1977) wurden das Trinkverhalten als AV und 10 mit P I bis P10 durchnumerierte potentielle Prädiktoren (UV's) ausgewählt, die sich verschiedenen Bereichen zuordnen lassen (demographische Kennwerte, Elternmodelle, interpersonelle Beziehungen, Schule). Das Problem, das sich für die Analyse der resultierenden Kontingenztabelle stellt, wird sehr

Das Problem

In den zurückliegenden VA Dekaden wurde eine Reihe von Problemen bei der Analyse qualitativer (kategorialer) Daten in Form multidimensionaler Kontingenztabellen überwunden. Unter den vorgestellten Ansätzen haben GOODMANS allgemeines log-lineares Modell (die wesentlichen Papiere sind in einem Reader - G O O D M A N [1978] - zusammengefaßt) sowie der nach G R I Z Z L E , STARMER & K O C H (1969) benannte GSK-Ansatz gewichteter Regression das größte Interesse gefunden. Anwendungsorientierte Einführungen in das log-lineare Modell und/oder den GSK-Ansatz finden sich bei A R M I N G E R (1979), BISHOP et al. (1975), B O C K (1975), E V E R I T T (1977), F I E N BERG (1977), FORTHOFER & L E H N E N (1981), H A BERMAN (1978, 1979), K N O K E & B U R K E (1980), K Ü C H L E R (1979), L A N G E H E I N E (1980a, 1984), REYNOLDS (1977) und U P T O N (1978). Verschiedene Varianten log-linearer Modelle wurden in dieser Zeitschrift von LANGEHEINE (1980b, 1982a, 1982b, 1983) vorgestellt. Nun sind es sicher nicht nur didaktische Überlegungen, daß in all diesen Texten ebenso wie in der weiteren angewandten Literatur die Zahl der

255

Zeitschrift für Sozialpsychologie 1984,15,254-268 Tab. 1: V a r i a b l e n a u s FAHRENKRUG et al. ( 1 9 7 7 )

Variable

AV

Bezeichnung

Alkoholkonsum

Anzahl Kategorien

Kategorien 1

2

3

4

4

an mehr als 2 Wochentagen bzw. täglich

am Wochenende bzw. mehrfach im Monat

nur an Fest-, Feiertagen

nie

PI

Schulort

3

Kiel

Rendsburg

Leck/Niebüll

P2

Alter (in Jahren)

5

18-

16-17

14-15

12-13

P3

Geschlecht

2

männlich

weiblich

P4

Taschengeld (DM pro Monat)

4

-10

11-20

21-80

81-

P5

Verbringen der Freizeit

3

allein

mit anderen

mit Freunden

P6

Vater trinkt

2

regelmäßig

selten

P7

Mutter trinkt

2

regelmäßig

selten

P8

Familiensituation im Vergleich zu anderen Jugendlichen

2

besser

gleich/schlechter

P9

Schwierigkeiten mit Mitschülern

2

oft, manchmal

kaum

P10

Überforderung in der Schule

2

oft, manchmal

nein

schnell deutlich, wenn man das Produkt der Kategorien der 11 Variablen bildet: die Tabelle hat 46080 Zellen. Selbst bei einer vergleichsweise großen Stichprobe von 2347 Jugendlichen bedeutet dies, daß die Tabelle eine Vielzahl von Nullzellen, einige 100 Zellen mit Häufigkeit 1 sowie relativ wenige Zellen mit geringer Besetzung enthalten wird.' Wenn auch im Prinzip mit dieser Tabelle Modelltests via Logit- bzw. GSK-Analyse möglich sind (sofern dies die Speicherkapazität eines Computers zuließe), so ergeben sich doch bei der Parameterschätzung und der Berechnung der Freiheitsgrade Probleme, die die Analyse sinnlos machen würden. Will man dennoch Aussagen der o. a. Fragestellung unter Berücksichtigung aller 10 UV's treffen, so bieten analytische Strategien zur Auswahl einer kleineren Zahl optimaler Prädiktoren momentan den einzig möglichen Ausweg. Zwei solcher Strategien werden im folgenden Abschnitt vorgestellt.

2.

-11

Strategien zur Variablenselektion bei großen Kontingenztabellen

Obwohl in der Literatur natürlich pflichtgemäß immer wieder betont wird, daß eine Theorie die Form eines Modells bestimmen sollte, wird man bei vielen im Gegensatz zu wenigen Variablen realistischerweise davon ausgehen können, daß kaum theoretisch abgeleitete Hypothesen vorliegen. Dies gilt insbesondere für mögliche Interaktionen höherer Ordnung. Notwendig ist somit eine Strategie zur Auswahl potentiell passender Modelle, wobei (a) die Reduzierung der Zahl der Variablen der Gesamttabelle und (b) die Reduzierung der Anzahl der Kategorien je Variable angestrebt wird. Meines Wissens haben sich erstmals H I G G I N S & K O C H (1977) dieses Problems angenommen.

2.1

1 Es sei angemerkt, daß die Anzahl der Kategorien gegenüber den Originaldaten durch Zusammenfassung bereits reduziert wurde.

5

Die Prozedur von

H I G G I N S .5

5

B R G H

1.69 .81 .68 .30

2 1 1 1

>.5 >.5 >.5 >5

1

P

Zusammenfassung Kategorien

z u s a m m e n g e f a ß t e Tabelle X2

df

Bonf.-p

2 und 3

10.10

1

.583E-02

2 und 3

413.73

1

.529E-11

2 und 3

17.00

1

.486E-03

Abb. 1: Graphische Darstellung der C H A I D - R e s u l t a t e für die Daten von HIGGINS & KOCH.

beitsplatz (Aj) dieses Problem. In Teilung 2 wird untersucht, ob sich diese Gruppe durch weitere Prädiktoren differenzieren läßt. Die UV B erfüllt das Kriterium am besten, wobei wiederum 2 Ka-

tegorien zusammengefaßt werden können. Für die 310 Arbeiter mit einer Beschäftigungsdauer von über 9 Jahren (B (2i3) ) wird Staublunge in 21,9% der Fälle festgestellt, zu 10,3% dagegen

260

Langeheine: Explorative Techniken zur Identifikation von Strukturen

nur für eine Beschäftigungsdauer von bis zu 9 Jahren (Bj). Für beide Gruppen wird im folgenden Schritt nach weiteren Teilungsmöglichkeiten gesucht. Für die 359 Personen in Gruppe Bx erreicht keiner der verbliebenen Prädiktoren die Signifikanzgrenze (vgl. Teilung 3 in Tabelle 3). Bei diesem Ast des Baums sind wir also am Ende. Anders sieht es für die 310 Personen in Gruppe A1B(2,3) aus (Teilung 4 in Tabelle 3). Von den 218 Rauchern haben 26,1% Staublunge, von den 92 Nichtrauchern dagegen nur 12%. Da beide Untergruppen weniger als 300 Fälle enthalten, wird die Prozedur in diesem Teil des Baums ebenfalls abgebrochen. Schließlich wird für die 4 7 5 0 Fälle im rechten Ast des Baums (Gruppe A^^)) nach möglichen Teilungen gesucht. Teilung 5 in Tabelle 3 zeigt, daß dies nicht möglich ist. Damit ist die Prozedur am Ende. Für viele Fälle, insbesondere für eine interessierte nichtwissenschaftliche Öffentlichkeit, bietet die Präsentation der Ergebnisse in Form der Abbildung 1 sicher eine attraktive Möglichkeit. Prozentsätze sind allgemein verständlich, und an dem Baum ist i. d. R. schnell abzulesen, unter welchen Konstellationen von UV' s die AV hohe bzw. geringe Werte in der kritischen Kategorie annimmt. CHAID wurde hier jedoch eingesetzt, (a) um zu prüfen, ob bei einer Logitanalyse bestimmte Variablen der Ausgangstabelle vernachlässigt werden können, und (b) mit dem Ziel, einen Vorschlag für ein gut auf die Daten passendes, zugleich sparsames Modell zu erhalten. Wie Abbildung 1 deutlich macht, sind solche Modelle grundsätzlich nonstandard oder geschachtelte Modelle (vgl. LANGEHEINE, 1983). Die Abbil-

dung 1 entsprechende Designmatrix lautet: 1 1 1 1 1 1

1 1 1 1 1 1

1 1 0 0 0 0

0 0

1 0 1 0

Spalte 1 dieser Designmatrix entspricht der Konstanten, Spalte 2 dem Haupteffekt der UV A (A : vs. A(2 3)). Spalte 3 besagt, daß innerhalb von A1 ein Unterschied zwischen BX und B(2i3) besteht, und Spalte 4 erfaßt den Effekt des Rauchens innerhalb der Gruppe B(2i3). Dieses Modell3 paßt bei (einem Likelihood Ratio Chi-Quadrat) L 2 =13.45, df = 14 und p = .491 gut auf die Daten und erklärt 95,4% der Variation der Logits der AV. Alle Effekte darin sind signifikant.

2.3 Die beiden Prozeduren im Vergleich Obwohl sich die Schlußfolgerungen aus beiden Prozeduren im wesentlichen ähneln, gibt es doch beachtenswerte Differenzen. Zunächst stimmen beide Prozeduren darin überein, daß die UV's G und H der Ausgangstabelle irrelevant sind. Für anschließende Modelltests kann die Ausgangstabelle also erheblich reduziert werden. Beide Analysen stimmen auch darin überein, daß der Arbeitsplatz der stärkste Prädiktor ist. Während allerdings H I G G I N S & K O C H die Kategorien A 2 und A 3 nach Inspektion der Daten zusammenfassen, führt der CHAIDAlgorithmus diese Prüfung grundsätzlich durch, zudem in Abhängigkeit des Typs des Prädiktors. Der wesentliche Unterschied besteht jedoch darin, daß H I G G I N S & K O C H in Stufe 2 vom saturierten Modell ausgehen und in einer «backward elimination» Strategie in engem Kontakt mit den Daten zu einem möglichst sparsamen Modell zu gelangen versuchen. Je nach Zahl der UV's und signifikanten Interaktionsparametern im saturierten Modell kann damit ein langer Weg mit Testung verschiedener Zwischenmodelle bis zum Endmodell notwendig werden, insbesondere, wenn auch noch die Möglichkeit konditionaler Haupteffekte anstelle von Interaktionseffekten berücksichtigt werden soll. Ein CHAID-Baum läßt sich dagegen direkt in eine Designmatrix übersetzen. Das Vorgehen von H I G G I N S & K O C H erlaubt prinzipiell mehrere Haupteffekte und 3

Derartige nonstandard Modelle lassen sich am einfach-

sten mit den P r o g r a m m e n M U L T I Q U A L

( B O C K & YATES,

1973) oder G L I M (BAKER & NELDER, 1978) testen, da beide dem Benutzer die Spezifikation genesteter Effekte bzw. das Einlesen von Designmatrizen gestatten. 4 L 2 für das Unabhängigkeitsmodell beträgt 290.74, so daß R 2 = (290.74 - 13.45)7290.74 = .954.

261

Zeitschrift für Sozialpsychologie 1984,15,254-268

mehrere konditionale Haupteffekte innerhalb einer Kategorie. Bei CHAID gibt es hingegen grundsätzlich nur einen Haupteffekt und nur einen konditionalen Haupteffekt für eine Kategorie einer übergeordneten Variable. Im konkreten Fall hat dies im CHAID-Modell dazu geführt, daß die UV R unter die UV B geschachtelt wurde, wobei sich nur einer der beiden R-Effekte als bedeutsam erwies. Bei HIGGINS & KOCH sind B und R dagegen konditionale Haupteffekte innerhalb V Das Fazit dürfte klar sein: i. d. R. wird CHAID den Forscher schneller zum Ziel bringen. Enthusiasten wollen wir allerdings schon jetzt etwas Wasser in den Wein schütten. CHAID ist leider auch nicht «foolproof» (es entdeckt z.B. bestimmte Interaktionen nicht und hat noch einige andere Probleme, vgl. Abschnitt 4). Zunächst wollen wir jedoch zu unserem Ausgangsproblem (Tabelle 1) zurückkehren.

3.

Variablenselektion und Logitanalyse für die Daten zum Trink verhalten von Jugendlichen

Obwohl prinzipiell nicht notwendig, wurden alle mehrkategorialen Variablen zunächst auf 2 Kategorien reduziert, um das Problem handhabbarer und übersichtlicher zu machen. So wurden zusammengefaßt: für die AV die Kategorien (1,2) und (3,4), für P I (2,3), für P2 (1,2) und (3,4,5), für P4 (1,2) und (3,4), für P5 (2,3). Dies heißt, daß eine Logitanalyse für die Gesamttabelle immer noch mit 2048 Zellen konfrontiert wäre. Selbst bei 2347 Fällen wäre dies sicher nicht sinnvoll. 3.1 Die CHAID-Analyse Aus Tabelle 4 ist ersichtlich, daß mit diesen Daten 3 CHAID-Analysen durchgeführt wurden, wobei in jedem Fall das zur Teilung in Untergruppen notwendige p auf .05 und die Mindestgruppengröße mit 100 festgelegt wurden. In Tabelle 4 sind ebenfalls die Stichprobengrößen nach Elimination fehlender Daten angegeben. 5

Es mag sein, daß HIGGINS & KOCH diese weitere Schachtelungsmöglichkeit übersehen haben. Es kann jedoch auch sein, daß die Ergebnisse der GSK-Analyse dies nicht nahelegten.

Tab. 4: Pearson X 2 für Assoziationen 1. Ordnung in 3 CHAIDAnalysen der Variablen aus Tabelle 1. Prädiktor

PI P2 P3 P4 P5 P6 P7 P8 P9 P10 N nach Ausschluß von fehlenden Daten

X 2 für CHAID-Analyse 1

2

3

2.43 444.16 48.82 409.01 25.07 22.94 11.16 .31 14.43 15.25

2.31 468.12 49.74 428.52 27.01 24.34 9.69

515.24 52.11 466.78 30.62 27.20

19.02

23.12

1659

1742

1861

In der 1. Analyse wurden die Prädiktoren P8 und P9 ausgeschieden. Sie tauchen in dem resultierenden Baum nicht auf. P9 hat zwar eine signifikante Beziehung 1. Ordnung zur AV. Diese erweist sich aber als Scheinassoziation bei Kontrolle durch z.B. P2 und P4. In der 2. Analyse tauchen zwar alle 8 Prädiktoren in dem entsprechenden Baum auf, P1 und P7 jedoch lediglich auf der untersten Stufe. Da die Strukturen hier generell am wenigsten stabil sind, wurden beide eliminiert. In Abbildung 2 ist die Struktur für die 6Prädiktoren der 3.Analyse wiedergegeben. In diesem Baum sind alle Prädiktoren wenigstens einmal mit einem auf dem 1 %-Niveau signifikanten X2-Wert vertreten. Während der Anteil häufiger Trinker in der Gesamtstichprobe 44% beträgt, sieht man sehr schnell, welche Variablenkonstellationen zu den beiden Extremen führen. Das Minimum liegt bei 6%: dies sind Jugendliche bis zu 15 Jahren, deren Vater selten trinkt; sie haben eher wenig Taschengeld und sind Mädchen. Das Maximum liegt dagegen bei 89%: dies sind die Älteren mit über 20 DM Taschengeld, die ihre Freizeit mit anderen verbringen; es sind Jungen, deren Vater regelmäßig trinkt. Zweifellos bietet der Baum noch eine Vielfalt interessanter Informationen. So steigt unter den Jüngeren der Prozentsatz der Trinker von 16% auf 27%, wenn der Vater trinkt, und weiter auf 35%, wenn die Jugendlichen sich in der Schule überfordert fühlen. Bei den Älteren fällt der Anteil Trinker von 68% auf 41%, wenn das Taschengeld eher gering ist, und nochmals auf 26% für Mädchen. Da die CHAID-Analyse

262

Langeheine: Explorative Techniken zur Identifikation von Strukturen

Q < s

X

o

CM O