Handbuch Modernes Marktforschungs-Management [1 ed.] 9783428586721, 9783428186723

Dieses Handbuch bietet einen kompletten State of the Art-Überblick über die systematische Sammlung, Analyse, Auswertung

238 108 18MB

German Pages 1202 [1203] Year 2022

Report DMCA / Copyright

DOWNLOAD FILE

Polecaj historie

Handbuch Modernes Marktforschungs-Management [1 ed.]
 9783428586721, 9783428186723

Citation preview

Werner Pepels

Handbuch

Modernes Marktforschungs-Management

I. Grundlagen der modernen Marktforschung II. Offline-Auswahlverfahren III. Offline-Erhebungsverfahren IV. Online-Auswahl- und Erhebungsverfahren V. Statistische Datenauswertung VI. Absatzprognose VII. Marktinformationen VIII. Wettbewerbsinformationen IX. Kundeninformationen X. Analyse der Marketinginstrumente XI. Sektorale Besonderheiten XII. Administration der Marktforschung

Duncker & Humblot



Berlin

WERNER PEPELS

Handbuch Modernes Marktforschungs-Management

Handbuch

Modernes Marktforschungs-Management Von

Werner Pepels

Duncker & Humblot · Berlin

Bibliografische Information der Deutschen Nationalbibliothek Die Deutsche Nationalbibliothek verzeichnet diese Publikation in der Deutschen Nationalbibliografie; detaillierte bibliografische Daten sind im Internet über http://dnb.d-nb.de abrufbar.

Alle Rechte vorbehalten

© 2022 Duncker & Humblot GmbH, Berlin

Satz: TextFormArt, Daniela Weiland, Göttingen Druck: CPI buchbücher.de GmbH, Birkach Printed in Germany ISBN 978-3-428-18672-3 (Print) ISBN 978-3-428-58672-1 (E-Book) Gedruckt auf alterungsbeständigem (säurefreiem) Papier entsprechend ISO 9706

Internet: http://www.duncker-humblot.de

Vorwort Bereits seit 2014 und in dritter Auflage liegt das Fach- und Lehrbuch „Moderne Marktforschung“ vor (die erste Auflage stammt aus 1995, die zweite aus 2007). Insofern kann dieses Buch auf eine gut etablierte Tradition zurückblicken. Im Verlauf der Zeit sind immer wieder Aktualisierungen und Ergänzungen vorgenommen worden. Dadurch ist schließlich ein Handbuch-Charakter entstanden, dem nunmehr auch durch die Titelwahl Rechnung getragen wird – „Handbuch Modernes Marktforschungs-Management“. Ziel dieses Werks ist es, an der Schnittstelle von anspruchsvoller Praxisanwendung und systematisch-analytischer Fundierung die Facetten der Marktforschung aus transferbezogener methodischer Perspektive zu ergründen. Dazu ist es in zwölf Kapitel auf Methodik, Anwendungen und Service verteilt aufgestellt. Die Inhalte zielen auf Leserinnen und Leser, die im Schwerpunkt Marketing, Vertrieb oder Marktforschung an wissenschaftlichen und anwendungsbezogenen Hochschulen studieren bzw. arbeiten sowie an fortgeschrittenen Fort- und Weiterbildungseinrichtungen. Weiterhin auf Leser, die in Unternehmen und Organisationen Verantwortung für Marktforschungsaufgaben tragen (als Brush-up) oder übernehmen wollen (zum Aufstieg), sowie Quereinsteiger in diese Materie bzw. Karriereeinsteiger, um sich in diesem Berufsfeld zu orientieren. Für die Realisierung dieses Werks dankt der Autor dem Verlag Duncker & Humblot, Berlin, insb. Dr. Andreas Beck, Programmleitung, und Anke Geidel, Herstel­ lung, für ihre wie immer hervorragende Unterstützung. Da das Werk aber im Übrigen allein zustande gekommen ist, gehen auch etwaig, trotz großer Sorgfalt bei Korrektur- und Lektoratsarbeiten verbliebene Fehler allein zulasten des Autors. Die Nennung von allgemein beschreibenden Bezeichnungen, insb. Marken / Produkten, Unternehmensnamen etc., in diesem Werk dient nur zur praktischen Veranschaulichung. Die Rechte der jeweiligen Zeicheninhaber werden ausdrücklich respektiert. Verlag und Autor gehen davon aus, dass die Angaben und Informationen in diesem Werk zum Zeitpunkt der Veröffentlichung richtig und vollständig sind, ohne dafür jedoch eine Gewähr übernehmen zu können. Der besseren Lesbarkeit halber wird auf eine Genderisierung im Text verzichtet. Das Ziel der Geschlechtergerechtigkeit wird ausdrücklich unterstützt. Krefeld, im Dezember 2021

Werner Pepels

Inhaltsübersicht Kapitel I

Grundlagen der modernen Marktforschung

1

1. Inhalt und Abgrenzung . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 2 2. Erhebungsträger . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 11 3. Informationsbasis . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 21 4. Sekundärerhebung . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 29

Kapitel II Offline-Auswahlverfahren

43

1. Abdeckung der Grundgesamtheit . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 44 2. Deskriptive Datenanalyse . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 65 3. Inferente Datenanalyse . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 84 4. Verzerrungsmöglichkeiten bei der Erhebung . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 97

Kapitel III Offline-Erhebungsverfahren

99

1. Primärerhebung . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 100 2. Sonderformen der Befragung . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 129 3. Befragungsdurchführung . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 159 4. Beobachtung . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 178 5. Experiment . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 185

Kapitel IV

Online-Auswahl- und Erhebungsverfahren

203

1. Einordnung . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 204 2. Sekundärerhebung . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 207 3. Online-Auswahlverfahren . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 216 4. Online-Befragung . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 224

VIII

Inhaltsübersicht

5. Online-Beobachtung . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 247 6. Online-Experiment . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 254 7. Social Media-Monitoring . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 256 8. Mobile-Erhebungen . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 263 9. Sicherung der Datenqualität . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 268

Kapitel V

Statistische Datenauswertung

271

1. Verfahrenseinteilung . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 272 2. Skalierung von Daten . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 275 3. Univariate Häufigkeitsanalyse . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 301 4. Bivariate Dependenzanalyse . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 314 5. Bivariate Interdependenzanalyse . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 323 6. Multivariate Dependenzanalyse . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 330 7. Multivariate Interdependenzanalyse . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 344 8. Datendarstellung . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 375

Kapitel VI Absatzprognose

389

1. Prognosearten . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 390 2. Prognoseverfahren . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 394 3. Mikroökonomische Prognoseansätze . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 424 4. Grenzen der Prognose . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 437 5. Präventionssysteme . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 439

Kapitel VII Marktinformationen

445

1. Marktordnung . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 446 2. Marktumfeldanalysen . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 457 3. Marktlebenszyklus . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 459 4. Marktsegmentierung . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 462 5. Marktzielgruppen . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 465

Inhaltsübersicht

IX

6. Positionierung . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 473 7. Stakeholder-Analyse . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 483

Kapitel VIII Wettbewerbsinformationen

487

1. Mitbewerbsforschung . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 488 2. Mitbewerbsanalyse . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 502 3. Konzeptionsanalyse . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 515 4. Konzeptbewertung . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 532

Kapitel IX Kundeninformationen

535

1. Lebensstilforschung . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 536 2. Konsumentenverhalten . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 552 3. Beschaffungsverhalten . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 589 4. Insights des Neuromarketing . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 603

Kapitel X

Analyse der Marketinginstrumente

611

1. Produktforschung . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 612 2. Preisforschung . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 662 3. Werbeforschung . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 684 4. Vertriebsforschung . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 741

Kapitel XI

Sektorale Besonderheiten

765

1. Internationale Marktforschung . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 766 2. Business to business-Marktforschung . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 788 3. Dienstleistungsmarktforschung . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 797 4. Beschaffungsmarktforschung . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 824

X

Inhaltsübersicht Kapitel XII



Administration der Marktforschung

843

1. Planung . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 844 2. Informationsversorgung . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 852 3. Organisation . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 862 4. Kontrolle . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 879

Service-Anhang

893

1. Glossar . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 893 2. Selbstkontrollaufgaben . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 1088 3. Multiple Choice-Fragen . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 1093 4. Musterlösungen für die Selbstkontrollaufgaben . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 1116 5. Ergebnisse der Multiple Choice-Fragen . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 1138 6. Abkürzungsverzeichnis . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 1140 7. Literaturhinweise . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 1143 8. Stichwortverzeichnis . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 1148

Inhaltsverzeichnis Kapitel I

Grundlagen der modernen Marktforschung

1

1. Inhalt und Abgrenzung . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 2 1.1 Begrifflichkeiten . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 2 1.2 Einsatzfelder . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 5 1.3 Arbeitsphasen . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 7 1.4 Umfeldakteure . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 9 2. Erhebungsträger . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 11 2.1 Betriebsforschung . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 11 2.1.1 Wesentliche Vorteile . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 11 2.1.2 Wesentliche Nachteile . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 12 2.1.3 Sonderformen der Trägerschaft . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 13 2.2 Institutsforschung . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 14 2.2.1 Wesentliche Vorteile . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 14 2.2.2 Wesentliche Nachteile . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 15 2.2.3 Institutsauswahl . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 16 2.2.4 Angebotseinholung . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 19 3. Informationsbasis . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 21 3.1 Anforderungen . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 21 3.2 Entscheidungssituationen . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 23 3.3 Ethische und rechtliche Grenzen . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 25 4. Sekundärerhebung . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 29 4.1 Durchführung . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 29 4.2 Datenherkunft . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 30 4.2.1 Betriebsinterne Quellen . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 30 4.2.2 Betriebsexterne Quellen . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 32 4.3 Nomenklaturen . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 33 4.4 Datenrecherche . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 35 4.4.1 Professionelle Datenbanken . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 35 4.4.2 Web-Suchmaschinen . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 38 4.5 Bewertung . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 40

XII

Inhaltsverzeichnis Kapitel II

Offline-Auswahlverfahren

43

1. Abdeckung der Grundgesamtheit . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 44 1.1 Vollerhebung . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 45 1.2 Teilerhebung . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 46 1.2.1 Kritische Bewertung . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 46 1.2.2 Stichprobengröße . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 47 1.3 Offline-Teilerhebungen . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 49 1.3.1 Zufallsauswahlverfahren . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 50 1.3.1.1 Reine Zufallsauswahl . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 50 1.3.1.2 Systematische Zufallsauswahl . . . . . . . . . . . . . . . . . . . . . . . . . . . 51 1.3.1.3 Geschichtete Zufallsauswahl . . . . . . . . . . . . . . . . . . . . . . . . . . . . 52 1.3.1.4 Klumpenauswahl / Flächenauswahl . . . . . . . . . . . . . . . . . . . . . . . . 55 1.3.1.5 Sonderformen der Zufallsauswahl . . . . . . . . . . . . . . . . . . . . . . . . 56 1.3.2 Bewusstauswahlverfahren . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 58 1.3.2.1 Quota-Auswahl . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 58 1.3.2.2 Sonstige Verfahren der Bewusstauswahl . . . . . . . . . . . . . . . . . . . . 63 2. Deskriptive Datenanalyse . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 65 2.1 Statistische Ausgangsbasis . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 65 2.2 Statistische Beurteilung . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 68 2.2.1 Wahrscheinlichkeiten . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 68 2.2.2 Verteilungen . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 70 2.3 Stichprobengüte . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 74 2.4 Wahrheitsgehalt von Informationen . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 77 2.4.1 Reliabilität . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 77 2.4.2 Validität . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 78 2.4.3 Objektivität . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 82 2.4.4 Signifikanz . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 83 3. Inferente Datenanalyse . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 84 3.1 Statistische Schätzverfahren . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 84 3.2 Statistische Testverfahren . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 86 3.2.1 Hypothesenbildung . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 86 3.2.2 Testkonzept . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 87 3.2.3 Testanlage . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 92 4. Verzerrungsmöglichkeiten bei der Erhebung . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 97

Inhaltsverzeichnis

XIII

Kapitel III Offline-Erhebungsverfahren

99

1. Primärerhebung . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 100 1.1 Arten der Befragung . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 101 1.2 Mündliche Befragung . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 102 1.2.1 Interviewarten . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 102 1.2.1.1 Standardisiertes Interview . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 102 1.2.1.2 Strukturiertes Interview . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 104 1.2.1.3 Exploratives Interview . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 105 1.2.2 Wesentliche Vorteile . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 106 1.2.3 Wesentliche Nachteile . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 107 1.3 Telefonische Befragung . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 108 1.3.1 Bedeutung . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 108 1.3.2 Wesentliche Vorteile . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 109 1.3.3 Wesentliche Nachteile . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 110 1.4 Schriftliche Befragung . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 112 1.4.1 Fragebogenaufmachung . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 112 1.4.2 Ursachen des Rücklaufproblems und dessen Lösung . . . . . . . . . . . . . . . . . 113 1.4.3 Sonderformen der schriftlichen Befragung . . . . . . . . . . . . . . . . . . . . . . . . . 115 1.4.4 Wesentliche Vorteile . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 116 1.4.5 Wesentliche Nachteile . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 117 1.5 Computergestützte Befragung . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 119 1.5.1 Bildschirmbefragung . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 119 1.5.1.1 Darstellung . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 119 1.5.1.2 Wesentliche Vorteile . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 120 1.5.1.3 Wesentliche Nachteile . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 121 1.5.2 Telefonbefragung . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 122 1.5.2.1 Darstellung . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 122 1.5.2.2 Wesentliche Vorteile . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 123 1.5.2.3 Wesentliche Nachteile . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 124 1.5.3 Computerbefragung . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 125 1.5.3.1 Darstellung . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 125 1.5.3.2 Wesentliche Vorteile . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 126 1.5.3.3 Wesentliche Nachteile . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 127 2. Sonderformen der Befragung . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 129 2.1 Omnibuserhebung . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 130 2.2 Gruppenbefragung . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 131

XIV

Inhaltsverzeichnis 2.2.1 Darstellung . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 131 2.2.2 Wesentliche Vorteile . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 134 2.2.3 Wesentliche Nachteile . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 135

2.3 Gemeinschaftsuntersuchung . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 137 2.3.1 Kooperationsformen . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 137 2.3.2 Kritische Bewertung . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 139 2.4 Kohortenanalyse . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 141 2.4.1 Wellenerhebung . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 141 2.4.2 Panelerhebung . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 143 2.4.2.1 Erhebungsanlage . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 143 2.4.2.2 Konsumentenpanel . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 145 2.4.2.3 Händlerpanel . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 149 2.4.2.4 Kommerzielle Panelprodukte . . . . . . . . . . . . . . . . . . . . . . . . . . . . 154 2.4.2.5 Gain & loss-Analyse . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 155 3. Befragungsdurchführung . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 159 3.1 Fragestrategie . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 159 3.1.1 Fragearten . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 159 3.1.1.1 Auslegung . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 159 3.1.1.2 Offene Fragen . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 161 3.1.1.3 Geschlossene Fragen . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 163 3.1.2 Fragefunktionen . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 165 3.1.2.1 Instrumentalfragen . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 165 3.1.2.2 Ergebnisfragen . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 167 3.1.2.3 Sonderfragen . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 167 3.1.3 Frageformulierung . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 168 3.1.4 Interviewerbedeutung . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 170 3.1.4.1 Interviewerauswahl . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 170 3.1.4.2 Interviewereinsatz . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 171 3.1.4.3 Interviewerkontrolle . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 173 3.1.4.4 Interviewerqualifizierung . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 174 3.2 Zeit- und Kostenplanung . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 176 4. Beobachtung . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 178 4.1 Darstellung . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 178 4.2 Wesentliche Vorteile . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 182 4.3 Wesentliche Nachteile . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 183 5. Experiment . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 185 5.1 Grundformen . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 185

Inhaltsverzeichnis

XV

5.2 Informale Experimente . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 190 5.2.1 Vorexperimentelle Designs . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 190 5.2.2 Quasi-Experimente . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 192 5.2.3 Echte Experimente . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 193 5.2.3.1 Einfache Formen . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 193 5.2.3.2 Erweiterte Formen . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 196 5.3 Formale Experimente . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 198

Kapitel IV

Online-Auswahl- und Erhebungsverfahren

203

1. Einordnung . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 204 2. Sekundärerhebung . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 207 2.1 Funktionen von Suchmaschinen . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 207 2.2 WWW-Logfile-Analyse . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 211 2.3 Clickstream-Analyse . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 213 3. Online-Auswahlverfahren . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 216 3.1 Zufallsauswahl . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 216 3.1.1 Reine Zufallsauswahl . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 216 3.1.2 Gesteuerte Zufallsauswahl . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 218 3.2 Bewusstauswahl . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 219 3.2.1 Online-Rekrutierung . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 219 3.2.2 Offline-Rekrutierung . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 220 3.3 Generelle methodische Probleme . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 221 4. Online-Befragung . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 224 4.1 WWW-Befragung . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 224 4.1.1 Anlage . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 224 4.1.2 Wesentliche Vorteile . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 228 4.1.3 Wesentliche Nachteile . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 229 4.2 E-Mail-Befragung . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 230 4.2.1 Anlage . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 230 4.2.2 Wesentliche Vorteile . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 231 4.2.3 Wesentliche Nachteile . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 233 4.3 Newsgroup-Befragung . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 235 4.3.1 Anlage . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 235 4.3.2 Wesentliche Vorteile . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 236 4.3.3 Wesentliche Nachteile . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 237

XVI

Inhaltsverzeichnis

4.4 IRC-Befragung . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 238 4.4.1 Anlage . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 238 4.4.2 Wesentliche Vorteile . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 239 4.4.3 Wesentliche Nachteile . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 240 4.5 Video-Befragung . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 241 4.5.1 Anlage . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 241 4.5.2 Wesentliche Vorteile . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 242 4.5.3 Wesentliche Nachteile . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 244 5. Online-Beobachtung . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 247 5.1 Web-Panel-Beobachtung . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 247 5.2 Blog-Beobachtung . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 249 5.3 Themenorientierte Beobachtung . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 251 6. Online-Experiment . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 254 7. Social Media-Monitoring . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 256 7.1 Formen . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 257 7.2 Durchführung . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 261 8. Mobile-Erhebungen . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 263 9. Sicherung der Datenqualität . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 268

Kapitel V

Statistische Datenauswertung

271

1. Verfahrenseinteilung . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 272 2. Skalierung von Daten . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 275 2.1 Skalierungstechnik . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 275 2.1.1 Begrifflichkeiten . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 275 2.1.2 Skalenniveaus . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 276 2.2 Skalierungsverfahren . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 278 2.2.1 Einteilung . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 278 2.2.2 Selbsteinstufung . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 279 2.2.2.1 Ratingskala . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 279 2.2.2.2 Magnitudeskala . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 282 2.2.2.3 Imagery-Differenzial . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 283 2.2.2.4 Rangordnung . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 284 2.2.2.5 Paarvergleich . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 284 2.2.3 Subjektive Fremdeinstufung . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 285 2.2.3.1 Indexbildung . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 285

Inhaltsverzeichnis

XVII

2.2.3.2 Konstantsummenskala . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 286 2.2.4 Objektive Single item-Fremdeinstufung . . . . . . . . . . . . . . . . . . . . . . . . . . . 287 2.2.4.1 Likert-Skala . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 287 2.2.4.2 Thurstone-Skala . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 289 2.2.4.3 Coombs-Skala . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 291 2.2.4.4 Guttman-Skala . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 292 2.2.5 Objektive Multi item-Fremdeinstufung . . . . . . . . . . . . . . . . . . . . . . . . . . . 294 2.2.5.1 Semantisches Differenzial . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 294 2.2.5.2 Polaritätenprofil . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 296 2.2.5.3 Fishbein-Skala . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 297 2.2.5.4 Trommsdorff-Skala . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 300 3. Univariate Häufigkeitsanalyse . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 301 3.1 Lokalisationsparameter . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 302 3.2 Dispersionsparameter . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 307 3.3 Formparameter . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 310 3.4 Konzentrationsparameter . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 312 4. Bivariate Dependenzanalyse . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 314 4.1 Regressionsanalyse . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 314 4.1.1 Vorgehensweise . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 314 4.1.2 Ausprägungen . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 317 4.2 Kontingenztafel . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 321 5. Bivariate Interdependenzanalyse . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 323 5.1 Korrelationsanalyse . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 323 5.1.1 Vorgehensweise . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 324 5.1.2 Ausprägungen . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 326 5.2 Kreuztabellierung . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 327 6. Multivariate Dependenzanalyse . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 330 6.1 Varianzanalyse . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 330 6.1.1 Vorgehensweise . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 330 6.1.2 Ausprägungen . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 332 6.2 Diskriminanzanalyse . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 333 6.2.1 Vorgehensweise . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 333 6.2.2 Ausprägungen . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 335 6.3 Kontrastgruppenanalyse . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 337 6.3.1 Vorgehensweise . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 337 6.3.2 Ausprägungen . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 339

XVIII

Inhaltsverzeichnis

6.4 Kausalanalyse . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 340 6.4.1 Aufgabenstellung . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 340 6.4.2 Varianten . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 342 7. Multivariate Interdependenzanalyse . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 344 7.1 Faktorenanalyse . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 344 7.1.1 Vorgehensweise . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 344 7.1.2 Einsatzprobleme . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 347 7.2 Cluster-Analyse . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 350 7.2.1 Vorgehensweise . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 350 7.2.2 Hierarchische Verfahren . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 354 7.2.3 Partitionierende Verfahren . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 357 7.3 Multidimensionale Skalierung . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 359 7.3.1 Vorgehensweise . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 359 7.3.2 Metrische multidimensionale Skalierung . . . . . . . . . . . . . . . . . . . . . . . . . . 362 7.3.3 Nichtmetrische multidimensionale Skalierung . . . . . . . . . . . . . . . . . . . . . . 364 7.4 Präferenzanalyse . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 366 7.4.1 Aufgabenstellung . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 366 7.4.2 Ausgestaltungen . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 368 8. Datendarstellung . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 375 8.1 Datensichtung . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 375 8.2 Datenverdichtung . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 377 8.3 Ergebnisreporting . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 378 8.4 Ergebnisinterpretation . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 384

Kapitel VI Absatzprognose

389

1. Prognosearten . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 390 1.1 Inhalt und Ablauf . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 390 1.2 Einteilungen . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 391 2. Prognoseverfahren . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 394 2.1 Intuitive Prognose . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 395 2.1.1 Naive Verfahren . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 395 2.1.2 Prognostische Befragung . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 398 2.1.3 Delphi-Methode . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 399 2.1.4 Szenario-Technik . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 402 2.1.5 Weitere qualitative Verfahren . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 407

Inhaltsverzeichnis

XIX

2.2 Systematische Prognose . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 409 2.3 Formale Prognoseverfahren . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 412 2.3.1 Kurzfristige Prognose . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 412 2.3.1.1 Durchschnittsberechnung . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 412 2.3.1.2 Glättungsberechnung . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 414 2.3.2 Langfristige Prognose . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 417 2.3.2.1 Trendberechnung . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 417 2.3.2.2 Sättigungsfunktion . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 418 2.4 Kausale Prognoseverfahren . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 420 2.4.1 Multivariate statistische Methoden . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 420 2.4.2 Indikatorverfahren . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 421 2.4.3 Komplexe Verfahren . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 422 3. Mikroökonomische Prognoseansätze . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 424 3.1 Globalanalytische Modelle . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 425 3.1.1 Markenwahlmodelle . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 425 3.1.1.1 Markoff-Ketten . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 425 3.1.1.2 Lerntheoretisches Modell . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 428 3.1.1.3 Kaufneigungsmodell . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 428 3.1.2 Kaufeintrittsmodelle . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 429 3.1.2.1 Durchdringungsmodelle . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 429 3.1.2.2 Wiederkaufmodelle . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 433 3.1.3 Simulationsmodelle . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 433 3.2 Detailanalytische Modelle . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 435 4. Grenzen der Prognose . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 437 5. Präventionssysteme . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 439 5.1 Generationen . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 439 5.2 Beobachtungsbereiche . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 442

Kapitel VII Marktinformationen

445

1. Marktordnung . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 446 1.1 Marktformen . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 446 1.1.1 Morphologische Grundformen . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 446 1.1.2 Marktruhephänomen . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 448 1.1.3 Präferenzspielraum . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 450 1.2 Preis-Absatz-Funktion . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 453

XX

Inhaltsverzeichnis

2. Marktumfeldanalysen . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 457 3. Marktlebenszyklus . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 459 4. Marktsegmentierung . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 462 5. Marktzielgruppen . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 465 5.1 B-t-c-Adressierung . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 465 5.2 B-t-b-Adressierung . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 468 6. Positionierung . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 473 6.1 Stufen . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 473 6.2 Verfahrenswahl . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 476 6.3 Positionsoptionen . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 480 7. Stakeholder-Analyse . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 483

Kapitel VIII Wettbewerbsinformationen

487

1. Mitbewerbsforschung . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 488 1.1 Strategisches Geschäftsfeld . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 488 1.2 Strategische Gruppe . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 491 1.3 Konkurrenzumfeld . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 493 1.3.1 Recherchetechniken . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 493 1.3.2 Distant profiling . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 494 1.4 Konkurrentenstruktur . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 498 2. Mitbewerbsanalyse . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 502 2.1 Stärken-Schwächen-Profil . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 502 2.2 Chancen-Risiken-Profil . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 505 2.3 SWOT-Analyse / TOWS-Matrix . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 507 2.4 Weitere strategische Analyseverfahren . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 510 3. Konzeptionsanalyse . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 515 3.1 Nachfragestimulierung . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 515 3.1.1 Präferenz-Position . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 515 3.1.2 Preis-Mengen-Position . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 517 3.2 Marktparzellierung . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 519 3.2.1 Optionen . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 519 3.2.2 Wechselbarrieren . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 522 3.3 Rollenverständnis . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 524

Inhaltsverzeichnis

XXI

3.3.1 Marktanführer . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 524 3.3.2 Marktherausforderer . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 526 3.3.3 Marktmitläufer . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 526 3.3.4 Marktspezialisierer . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 527 3.4 Innovationstiming . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 528 4. Konzeptbewertung . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 532

Kapitel IX Kundeninformationen

535

1. Lebensstilforschung . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 536 1.1 Ansätze . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 536 1.1.1 Lifestyle-Typologie . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 536 1.1.2 Typologie Sozialer Milieus . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 537 1.1.3 SIGMA-Milieus . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 540 1.1.4 Roper consumer styles . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 543 1.1.5 RISC-Typologie . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 545 1.1.6 Weitere Typologieansätze . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 546 1.2 Kritische Bewertung . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 549 2. Konsumentenverhalten . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 552 2.1 Intrapersonale Variable . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 553 2.1.1 Aktivierende Elemente . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 553 2.1.2 Individuelle Elemente . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 557 2.1.3 Werthaltungen . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 560 2.2 Interpersonale Variable . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 562 2.2.1 Kultureinfluss . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 562 2.2.2 Gruppeneinfluss . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 563 2.3 Meinungsführerschaft . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 566 2.4 Wahrnehmungsprozess . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 570 2.4.1 Wahrnehmungsbedingungen . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 570 2.4.2 Informationsaufnahme . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 572 2.4.3 Informationsverarbeitung . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 575 2.4.4 Informationsspeicherung . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 577 2.4.5 Informationsverlust . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 581 2.5 Prozessmodelle bei Neuerungen . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 582 2.5.1 Adoption . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 582 2.5.2 Diffusion . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 586

XXII

Inhaltsverzeichnis

3. Beschaffungsverhalten . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 589 3.1 Interaktionen . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 589 3.2 Einteilungen . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 591 3.2.1 Produkteigenschaften . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 591 3.2.2 Kaufklassen . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 592 3.3 Vertikale Partialmodelle . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 594 3.3.1 Buying center-Konzept . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 594 3.3.2 Innovatoren-Konzept . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 597 3.3.3 Reagierer-Konzept . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 599 3.3.4 Informations-Konzept . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 601 3.4 Horizontale Partialmodelle . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 601 4. Insights des Neuromarketing . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 603 4.1 Konzepthintergrund . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 603 4.2 Operationalisierung . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 607

Kapitel X

Analyse der Marketinginstrumente

611

1. Produktforschung . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 612 1.1 Neuproduktentwicklung . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 612 1.2 Markierung . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 614 1.2.1 Namensentwicklung . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 614 1.2.2 Markenschutz und Domainwahl . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 616 1.3 Produkterprobung . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 619 1.4 Markenwert . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 626 1.4.1 Operationalisierung . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 626 1.4.2 Bewertungskriterien . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 628 1.4.3 Darlegungsanlässe . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 630 1.5 Produkttestverfahren . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 633 1.5.1 Testarten . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 633 1.5.2 Präferenzmessung . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 635 1.5.3 Virtueller Produkttest . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 639 1.6 Markttestverfahren . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 640 1.6.1 Regionaler Testmarkt . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 640 1.6.2 Testmarktsimulation . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 643 1.6.3 Store-Test . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 651 1.6.4 Mini-Markttest . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 652

Inhaltsverzeichnis

XXIII

1.6.5 Mikro-Testmarkt . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 654 1.6.5.1 Anlage . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 654 1.6.5.2 Potenziale und Grenzen . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 657 1.7 Markterwartungen . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 659 2. Preisforschung . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 662 2.1 Erstmalige Preisbestimmung . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 662 2.1.1 Explorative Verfahren . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 662 2.1.2 Experimentelle Verfahren . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 666 2.1.3 Empirische Verfahren . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 666 2.2 Nachfrageorientierte Preisfindung . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 667 2.2.1 Preis-Leistungs-Verhältnis . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 667 2.2.1.1 Darstellung und Bedeutung . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 667 2.2.1.2 Beeinflussung . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 670 2.2.2 Hybrides Kaufverhalten . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 671 2.2.3 Preisinteresse . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 673 2.2.4 Kaufkraft . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 674 2.2.5 Preisdifferenzierung . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 677 2.3 Zielpreisorientierung . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 680 3. Werbeforschung . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 684 3.1 Werbeeffektivitätsmessung . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 684 3.1.1 Messdimensionen . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 684 3.1.2 Transportleistung der Werbung . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 686 3.1.2.1 Printmedien . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 686 3.1.2.2 Elektronikmedien . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 686 3.1.2.3 Plakatmedien . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 689 3.1.3 Aufmerksamkeitsleistung der Werbung . . . . . . . . . . . . . . . . . . . . . . . . . . . 692 3.1.3.1 Pretest-Verfahren . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 692 3.1.3.2 In between-Test-Verfahren . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 695 3.1.3.3 Posttest-Verfahren . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 697 3.1.4 Verarbeitungsleistung der Werbung . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 699 3.1.4.1 Aktualgenetische Testverfahren . . . . . . . . . . . . . . . . . . . . . . . . . . 699 3.1.4.2 Psychomotorische Testverfahren . . . . . . . . . . . . . . . . . . . . . . . . . 703 3.1.4.3 Mechanische Testverfahren . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 706 3.1.5 Wiedererkennungsleistung der Werbung . . . . . . . . . . . . . . . . . . . . . . . . . . 709 3.2 Werbeeffizienzmessung . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 711 3.2.1 Kapitalwertmethode . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 711 3.2.2 POS-bezogene Erhebung . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 713

XXIV

Inhaltsverzeichnis

3.3 Grenzen der Werbemessung . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 715 3.4 Mediaplanung . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 716 3.4.1 Inhalte . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 716 3.4.2 Datenbasis . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 718 3.4.2.1 Media-Analyse . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 718 3.4.2.2 Gemeinschaftsuntersuchungen . . . . . . . . . . . . . . . . . . . . . . . . . . . 720 3.4.2.3 Einzeluntersuchungen . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 721 3.4.2.4 Media-Typologien . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 723 3.4.2.5 Online-Mediastudien . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 725 3.4.3 Zielgruppenauswertung . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 727 3.4.4 Medialeistungswerte . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 731 3.4.5 Rangreihung der Werbeträger . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 734 3.4.6 Plankombination der Werbeträger . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 737 4. Vertriebsforschung . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 741 4.1 Betriebliche Standortwahl . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 741 4.1.1 Checklisttechnik . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 741 4.1.2 Analogmethode . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 743 4.1.3 Raumgebietsmodell . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 743 4.1.4 Distanzenbetrachtung . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 745 4.2 Wartezeitenpolitik . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 746 4.3 Offline-Handel . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 748 4.3.1 Handelsbedeutung . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 748 4.3.2 Einzelhandel . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 749 4.3.3 Großhandel . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 753 4.4 Physische Warenpräsentation . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 754 4.4.1 Artikelplatzierung im stationären Einzelhandel . . . . . . . . . . . . . . . . . . . . . 754 4.4.2 Regalplatzoptimierung . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 756 4.4.2.1 Direkte Produkt-Profitabilität . . . . . . . . . . . . . . . . . . . . . . . . . . . . 756 4.4.2.2 Direkte Produkt-Rentabilität . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 758 4.5 Online-Handel . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 760 Kapitel XI

Sektorale Besonderheiten

765

1. Internationale Marktforschung . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 766 1.1 Besonderheiten der Sekundärrecherche im Auslandsmarkt . . . . . . . . . . . . . . . . . 766 1.2 Auslandsmarktrisiken . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 769 1.3 Risikobewertung . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 771

Inhaltsverzeichnis

XXV

1.4 Ausgewählte internationale Kulturmodelle als Konzeptbasis . . . . . . . . . . . . . . . . 774 1.4.1 Hofstede-Ansatz . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 774 1.4.2 Hall / Hall-Ansatz . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 777 1.4.3 Weitere Ansätze . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 779 1.5 Besonderheiten der Primärrecherche im Auslandsmarkt . . . . . . . . . . . . . . . . . . . 784 2. Business to business-Marktforschung . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 788 2.1 Merkmale geschäftlicher Transaktionen . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 788 2.2 Marktarten und Marktkennzeichen im B-t-b . . . . . . . . . . . . . . . . . . . . . . . . . . . . 791 2.3 Kollektiventscheide im B-t-b . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 795 3. Dienstleistungsmarktforschung . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 797 3.1 Dienstleistungsspezifika . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 797 3.2 Zufriedenheitskonstrukt . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 800 3.3 Objektive Zufriedenheitsindikatoren . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 802 3.4 Subjektive Zufriedenheit . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 804 3.4.1 Merkmalsorientierte Ansätze . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 804 3.4.1.1 Servqual-Ansatz . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 804 3.4.1.2 Vignette-Methode . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 806 3.4.1.3 Servicemonitor . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 807 3.4.2 Ereignisorientierte Ansätze . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 808 3.4.2.1 Kritische Ereignismessung . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 808 3.4.2.2 Zufriedenheitskritische Merkmale . . . . . . . . . . . . . . . . . . . . . . . . 809 3.4.2.3 Sequenzielle Ereignismessung . . . . . . . . . . . . . . . . . . . . . . . . . . . 810 3.4.3 Problemorientierte Ansätze . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 812 3.4.4 Explorative Ansätze . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 814 3.5 Subjektive Qualitätsvermutung . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 816 3.5.1 Expertenbeobachtung . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 816 3.5.2 Mystery shopping . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 816 3.5.3 Leistungstest . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 817 3.5.4 Willingness to pay-Verfahren . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 817 3.6 Kundenwertkapital . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 818 3.6.1 Parameter zur Bestimmung . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 818 3.6.2 Wertbezogenes Kundenmanagement . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 820 3.6.3 Einflussgrößen zur Steuerung . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 822 4. Beschaffungsmarktforschung . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 824 4.1 Kennzeichen . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 824 4.2 Materialwirtschaft . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 826

XXVI

Inhaltsverzeichnis 4.2.1 Einkauf . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 826 4.2.2 Logistik . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 828 4.2.3 Technologie . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 830

4.3 Finanzwirtschaft . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 833 4.3.1 Finanzierungsformen . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 833 4.3.2 Realinvestition . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 834 4.3.3 Nominalinvestition . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 836 4.4 Personalwirtschaft . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 838 4.4.1 Personalbedarf und -bestand . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 838 4.4.2 Personalbeschaffung und -auswahl . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 839 4.4.3 Personalbeurteilung und -betreuung . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 840 Kapitel XII

Administration der Marktforschung

843

1. Planung . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 844 1.1 Planungsrahmen . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 844 1.2 Strukturplanung . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 845 1.3 Prozessplanung . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 849 2. Informationsversorgung . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 852 2.1 Traditionelle Systeme . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 852 2.2 Moderne Systeme . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 856 2.3 Wissensmanagement . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 860 3. Organisation . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 862 3.1 Aufgaben- und Arbeitszuordnung . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 862 3.2 Stellenbildung . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 863 3.3 Formen der Aufbauorganisation . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 865 3.3.1 Marktforschung in der Organisationsspezialisierung . . . . . . . . . . . . . . . . . 865 3.3.2 Marktforschung in der Organisationskonfiguration . . . . . . . . . . . . . . . . . . 869 3.3.3 Marktforschung in der Organisationskoordination . . . . . . . . . . . . . . . . . . . 872 3.4 Ablauforganisation . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 875 4. Kontrolle . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 879 4.1 Kennzahlen . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 879 4.1.1 Kennzahlenaufbau . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 879 4.1.2 Kritische Würdigung . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 886 4.2 Benchmarking . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 887 4.3 Risikohandling . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 890

Inhaltsverzeichnis Service-Anhang

XXVII 893

1. Glossar . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 893 2. Selbstkontrollaufgaben . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 1088 3. Multiple Choice-Fragen . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 1093 4. Musterlösungen für die Selbstkontrollaufgaben . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 1116 5. Ergebnisse der Multiple Choice-Fragen . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 1138 6. Abkürzungsverzeichnis . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 1140 7. Literaturhinweise . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 1143 8. Stichwortverzeichnis . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 1148

Tabellen- und Abbildungsverzeichnis Tabelle 1:

Rechenbeispiel Markttest . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 195

Tabelle 2:

Noreen-Modell der Werbeerfolgsmessung . . . . . . . . . . . . . . . . . . . . . . . 201

Tabelle 3:

Exponenzielle Glättung 1. Ordnung (Beispiel) . . . . . . . . . . . . . . . . . . . 415

Tabelle 4:

Markterwartungen (Rechenbeispiel) . . . . . . . . . . . . . . . . . . . . . . . . . . . 660

Tabelle 5:

Kaufkraftherleitung . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 675

Tabelle 6:

Ermittlung der Direkten Produkt-Profitabilität . . . . . . . . . . . . . . . . . . . 757

Tabelle 7:

Ermittlung der Direkten Produkt-Rentabilität . . . . . . . . . . . . . . . . . . . . 759

Abbildung 1:

Einsatzfelder der modernen Marktforschung . . . . . . . . . . . . . . . . . . . . . 2

Abbildung 2:

Einordnung der modernen Marktforschung . . . . . . . . . . . . . . . . . . . . . 3

Abbildung 3:

Rubrizierung und Arbeitsphasen der Marktforschung . . . . . . . . . . . . . . 7

Abbildung 4:

Erhebungsträger der Marktforschung . . . . . . . . . . . . . . . . . . . . . . . . . . . 11

Abbildung 5:

Bewertung von Informationen . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 21

Abbildung 6:

Entscheidungssituationen . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 24

Abbildung 7:

Einteilung der Datenrecherche . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 31

Abbildung 8:

Erhebungsarten . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 44

Abbildung 9:

Auswahlverfahren . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 50

Abbildung 10: Prinzip der geschichteten Zufallsauswahl . . . . . . . . . . . . . . . . . . . . . . . 53 Abbildung 11: Dysproportional geschichtete Stichprobe . . . . . . . . . . . . . . . . . . . . . . . 54 Abbildung 12: Prinzip der Klumpenauswahl . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 55 Abbildung 13: Prinzip der Quotaauswahl . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 59 Abbildung 14: Quotenanweisung . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 60 Abbildung 15: Alternativen der Datenanalyse . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 68 Abbildung 17: Poisson-Verteilung . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 71 Abbildung 16: Binomialverteilung . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 71 Abbildung 18: Hypergeometrische Verteilung . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 72 Abbildung 19: Gauß’sche Normalverteilung N . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 73 Abbildung 20: Random-Stichprobenausschöpfung . . . . . . . . . . . . . . . . . . . . . . . . . . . . 76 Abbildung 22: Zusammenhang Validität und Reliabilität . . . . . . . . . . . . . . . . . . . . . . . 81 Abbildung 23: Punkt- und Intervallschätzungen . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 85 Abbildung 24: Ablauf des Signifikanztests . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 88 Abbildung 25: Darstellung einer F-Verteilung . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 90

XXX

Tabellen- und Abbildungsverzeichnis

Abbildung 26: Entscheidungsfindung und Fehlerarten . . . . . . . . . . . . . . . . . . . . . . . . . 91 Abbildung 27: F-Test . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 94 Abbildung 28: t-Test . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 94 Abbildung 29: Chi quadrat-Verteilungen für verschiedene Freiheitsgrade v . . . . . . . . 95 Abbildung 30: Konstellationen der Primärerhebung . . . . . . . . . . . . . . . . . . . . . . . . . . . 100 Abbildung 31: Modalitäten der Offline-Befragung . . . . . . . . . . . . . . . . . . . . . . . . . . . . 101 Abbildung 32: Einzelinterviewarten . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 102 Abbildung 33: Fragebogen für ein standardisiertes Interview . . . . . . . . . . . . . . . . . . . 103 Abbildung 34: Computergestützte Befragungen . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 119 Abbildung 35: Sonderfälle der Befragung . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 129 Abbildung 36: Arten von Panels . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 143 Abbildung 37: Nielsen-Gebiete . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 154 Abbildung 38: Elemente der Fragestrategie . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 159 Abbildung 39: Fragearten . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 160 Abbildung 40: Fragefunktionen . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 165 Abbildung 41: Arten der Beobachtung . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 178 Abbildung 42: Beobachtungssituationen nach Bewusstseinsgrad . . . . . . . . . . . . . . . . . 179 Abbildung 43: Kundenlaufbeobachtung im stationären Einzelhandel . . . . . . . . . . . . . 181 Abbildung 44: Elemente des Experiments . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 186 Abbildung 45: Experimentaloptionen . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 187 Abbildung 46: Auslegung von Experimenten . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 190 Abbildung 47: Informale Experimentaldesigns . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 191 Abbildung 48: Gängige Designkombinationen . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 193 Abbildung 49: Vollfaktorielles Experimentaldesign . . . . . . . . . . . . . . . . . . . . . . . . . . . 199 Abbildung 50: Lateinisches Quadrat . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 200 Abbildung 51: Online-Erhebungsformen . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 206 Abbildung 52: Gängige Online-Auswahlverfahren . . . . . . . . . . . . . . . . . . . . . . . . . . . . 216 Abbildung 53: Social Media-Monitoring . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 256 Abbildung 54: Ausprägungen der deskriptiven Datenauswertung . . . . . . . . . . . . . . . . 273 Abbildung 55: Alternative Skalenniveaus . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 276 Abbildung 56: Skalierungstechniken . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 278 Abbildung 57: Verfahren der Selbsteinstufung . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 279 Abbildung 58: Ratingskala . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 280 Abbildung 59: Unipolare, bipolare, verbale, numerische Skala . . . . . . . . . . . . . . . . . . 281 Abbildung 60: Magnitude-Skala . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 283 Abbildung 61: Verfahren der Fremdeinstufung . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 285 Abbildung 62: Indexbildung . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 286 Abbildung 63: Konstantsummenskala . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 287

Tabellen- und Abbildungsverzeichnis

XXXI

Abbildung 64: Likert-Skala . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 288 Abbildung 65: Thurstone-Skala . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 289 Abbildung 66: Coombs-Skala . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 291 Abbildung 67: Guttman-Skala . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 293 Abbildung 68: Semantisches Differenzial . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 295 Abbildung 69: Polaritätenprofil . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 296 Abbildung 70: Fishbein-Skala . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 298 Abbildung 71: Trommsdorff-Skala . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 300 Abbildung 72: Strukturierungsverfahren für Daten . . . . . . . . . . . . . . . . . . . . . . . . . . . . 301 Abbildung 73: Verfahren der univariaten Analyse . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 302 Abbildung 74: Lokalisationsparameter . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 302 Abbildung 75: Dispersionsparameter . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 307 Abbildung 76: Schiefe von Verteilungen . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 311 Abbildung 77: Wölbung von Verteilungen . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 311 Abbildung 78: Beispiel einer Lorenz-Kurve . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 313 Abbildung 79: Prinzip der Regressionsanalyse . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 315 Abbildung 80: Arten der Regressionsanalyse . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 317 Abbildung 81: Prinzip der Kontingenztafel . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 322 Abbildung 82: Alternative Korrelationskoeffizienten . . . . . . . . . . . . . . . . . . . . . . . . . . 324 Abbildung 83: Prinzip der Kreuztabelle . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 328 Abbildung 84: Relative Häufigkeiten in einer Kreuztabelle . . . . . . . . . . . . . . . . . . . . . 329 Abbildung 85: Verfahren der multivariaten Dependenzanalyse . . . . . . . . . . . . . . . . . . . 330 Abbildung 86: Arten der Varianzanalyse . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 332 Abbildung 87: Prinzip der Zweigruppen-Diskriminanzanalyse . . . . . . . . . . . . . . . . . . 335 Abbildung 88: Kontrastgruppenanalyse . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 338 Abbildung 89: Verfahren der multivariaten Interdependenzanalyse . . . . . . . . . . . . . . . 344 Abbildung 90: Prinzip der Faktorenanalyse . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 346 Abbildung 91: Ursprüngliche und rotierte Faktorladungen . . . . . . . . . . . . . . . . . . . . . . 349 Abbildung 92: Alternativen der Minkowski-Metrik . . . . . . . . . . . . . . . . . . . . . . . . . . . 352 Abbildung 93: Prinzipien von Simple matching- und Tanimoto-Koeffizient . . . . . . . . . 353 Abbildung 94: Arten der Cluster-Analyse . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 354 Abbildung 95: Verfahren der hierarchischen, agglomerativen Cluster-Analyse . . . . . . 354 Abbildung 96: Ellenbogenkriterium . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 356 Abbildung 97: Beispiel Dendrogramm . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 357 Abbildung 98: Verfahren der partitionierenden Cluster-Analyse . . . . . . . . . . . . . . . . . . 358 Abbildung 99: Unvollkommene monotone Funktion . . . . . . . . . . . . . . . . . . . . . . . . . . 362 Abbildung 100: Beispiel der nichtmetrischen multidimensionalen Skalierung . . . . . . . 364 Abbildung 101: Optionale Präferenzmodelle . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 370

XXXII

Tabellen- und Abbildungsverzeichnis

Abbildung 102: Phasen der deskriptiven Datenauswertung . . . . . . . . . . . . . . . . . . . . . . . 375 Abbildung 103: Diagrammtypen . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 379 Abbildung 104: Stabdiagramm . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 380 Abbildung 105: Polygonzug . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 380 Abbildung 106: Summenkurve . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 381 Abbildung 107: Konzentrationskurve . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 381 Abbildung 108: Balkendiagramm . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 382 Abbildung 109: Histogramm . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 382 Abbildung 110: Kreisdiagramm . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 383 Abbildung 111: Strukturdiagramm . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 383 Abbildung 112: Boxplot . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 384 Abbildung 113: Einteilungen für Prognosen . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 391 Abbildung 114: Intuitive und systematische Prognosemodelle . . . . . . . . . . . . . . . . . . . . 394 Abbildung 115: Schritte der Delphi-Methode . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 400 Abbildung 116: Schritte der Szenario-Technik . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 403 Abbildung 117: Gleitender Durchschnitt . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 413 Abbildung 118: Lineare Trendextrapolation mithilfe der Kleinstquadratmethode . . . . . 418 Abbildung 119: Gompertz-Funktion . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 419 Abbildung 120: Mikroökonomische Prognoseansätze . . . . . . . . . . . . . . . . . . . . . . . . . . . 424 Abbildung 121: Markoff-Ketten . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 426 Abbildung 122: Prinzip der einfach-geknickten Preis-Absatz-Funktion . . . . . . . . . . . . 449 Abbildung 123: Prinzip der doppelt-geknickten Preis-Absatz-Funktion . . . . . . . . . . . . 451 Abbildung 124: Mechanik der Preis-Absatz-Funktion . . . . . . . . . . . . . . . . . . . . . . . . . . 454 Abbildung 125: Verlauf des Marktlebenszyklus . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 459 Abbildung 126: Zielgruppenadressierung B-t-c . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 466 Abbildung 127: Zielgruppenadressierung B-t-b . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 468 Abbildung 128: Stufen der Positionierungsanalyse . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 473 Abbildung 129: Positionierungsmodelle . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 477 Abbildung 130: Feldtheoretische Optionen . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 479 Abbildung 131: Möglichkeiten zur Positionierung . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 480 Abbildung 132: Stakeholder-Gruppen . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 484 Abbildung 133: Abgrenzung des Strategischen Geschäftsfelds . . . . . . . . . . . . . . . . . . . . 488 Abbildung 134: Stärken-Schwächen-Analyse . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 502 Abbildung 135: Argumentenbilanz . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 505 Abbildung 136: Chancen-Analyse  – Risiken-Analyse . . . . . . . . . . . . . . . . . . . . . . . . . . 506 Abbildung 137: SWOT-Analyse . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 507 Abbildung 138: TOWS-Matrix . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 508 Abbildung 139: Prinzip der Ressourcen-Analyse . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 511

Tabellen- und Abbildungsverzeichnis

XXXIII

Abbildung 140: Prinzip der Potenzial-Analyse . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 512 Abbildung 141: Prinzip der Abweichungs-Analyse . . . . . . . . . . . . . . . . . . . . . . . . . . . . 513 Abbildung 142: Prinzip der Profit pool-Analyse . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 514 Abbildung 143: Elemente des Strategieprofils . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 515 Abbildung 144: Alternativen der Nachfragestimulierung . . . . . . . . . . . . . . . . . . . . . . . . 516 Abbildung 145: Optionen der Marktparzellierung . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 519 Abbildung 146: Optionen des Rollenverständnisses . . . . . . . . . . . . . . . . . . . . . . . . . . . . 524 Abbildung 147: Optionen des Innovationstiming . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 528 Abbildung 148: Sinus Milieumodell 2020 . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 539 Abbildung 149: SIGMA-Milieus . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 541 Abbildung 150: Roper consumer styles . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 544 Abbildung 151: Soziale Milieus nach Schulze . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 546 Abbildung 152: Elemente des privaten Kaufverhaltens . . . . . . . . . . . . . . . . . . . . . . . . . 552 Abbildung 153: Lambda-Kurve der Aktivierung . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 554 Abbildung 154: Mögliche Motivkonflikte . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 555 Abbildung 155: Involvement-Wirkungspfade . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 558 Abbildung 156: Customer journey . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 559 Abbildung 157: Semiometrie-Modell . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 561 Abbildung 158: Familienkaufentscheid . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 564 Abbildung 159: Kriterien des Familienlebenszyklus . . . . . . . . . . . . . . . . . . . . . . . . . . . . 565 Abbildung 160: Meinungsführermodelle . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 568 Abbildung 161: Optische Täuschungen . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 572 Abbildung 162: Prinzip des Mehrspeichermodells . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 579 Abbildung 163: Adoptions-Funnel . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 583 Abbildung 164: Kumulierte Diffusionskurve . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 587 Abbildung 165: Abgestufte Produkteigenschaften . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 591 Abbildung 166: Kaufklasseneinteilung . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 593 Abbildung 167: Buying center-Struktur . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 595 Abbildung 168: Tableau des Innovatoren-Konzepts . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 597 Abbildung 169: Gehirnstruktogramm . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 604 Abbildung 170: Limbic-Map . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 606 Abbildung 171: Du darfst-Anzeigenclipping . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 619 Abbildung 172: Testarten . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 633 Abbildung 173: Testmarktersatzverfahren . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 643 Abbildung 174: GfK MarketingLab . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 654 Abbildung 175: Markterwartungen . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 659 Abbildung 176: Verfahren zur erstmaligen Preisbestimmung . . . . . . . . . . . . . . . . . . . . . 662 Abbildung 177: Price sensitivity barometer . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 664

XXXIV

Tabellen- und Abbildungsverzeichnis

Abbildung 178: Prinzip des Preis-Leistungs-Quotienten . . . . . . . . . . . . . . . . . . . . . . . . 670 Abbildung 179: Arten der Werbeeffizienzmessung . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 684 Abbildung 180: Messverfahren der Werbewirkung . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 685 Abbildung 181: Blickregistrierung . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 707 Abbildung 182: Markt-Media-Analysen . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 718 Abbildung 183: Auswertungen der Strukturzählung . . . . . . . . . . . . . . . . . . . . . . . . . . . . 728 Abbildung 184: Medialeistungswerte . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 731 Abbildung 185: Relation von Reichweite und Affinität . . . . . . . . . . . . . . . . . . . . . . . . . . 733 Abbildung 186: Beispiel Rangreihung der Werbeträger . . . . . . . . . . . . . . . . . . . . . . . . . 735 Abbildung 187: Beispiel Plankombination der Werbeträger . . . . . . . . . . . . . . . . . . . . . . 738 Abbildung 188: Handelsinstitutionen und -funktionen . . . . . . . . . . . . . . . . . . . . . . . . . . 748 Abbildung 189: Betriebsformen des Einzelhandels . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 750 Abbildung 190: E-Commerce-Prozess . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 761 Abbildung 191: Dimensionen im Hofstede-Ansatz . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 774 Abbildung 192: Kulturdimensionen nach Hall / Hall . . . . . . . . . . . . . . . . . . . . . . . . . . . . 777 Abbildung 193: Sinus Meta Milieus . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 782 Abbildung 194: Äquivalenzbedingungen im internationalen Raum . . . . . . . . . . . . . . . . 784 Abbildung 195: B-t-b-Marktarten . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 791 Abbildung 196: Spezifika von Dienstleistungen . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 797 Abbildung 197: Zufriedenheitsmessverfahren . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 801 Abbildung 198: Servqual-Gaps . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 804 Abbildung 199: Messmechanik des Servqual-Ansatzes . . . . . . . . . . . . . . . . . . . . . . . . . 805 Abbildung 200: Kundenmonitor Dienstleistungen Deutschland . . . . . . . . . . . . . . . . . . . 807 Abbildung 201: Zufriedenheitskritische Merkmale . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 810 Abbildung 202: Service-Blueprint für eine Flugreise . . . . . . . . . . . . . . . . . . . . . . . . . . . 811 Abbildung 203: Frequenz-Relevanz-Analyse von Problemen . . . . . . . . . . . . . . . . . . . . 813 Abbildung 204: Kundenzufriedenheitsfragebogen bei McDonald’s . . . . . . . . . . . . . . . . 814 Abbildung 205: Ermittlung des Kundenlebenszeitwerts . . . . . . . . . . . . . . . . . . . . . . . . . 819 Abbildung 206: Elemente des Kundenlebenszeitwerts . . . . . . . . . . . . . . . . . . . . . . . . . . 820 Abbildung 207: Einflussgrößen auf den Kundenlebenszeitwert . . . . . . . . . . . . . . . . . . . 822 Abbildung 208: Bereiche der Beschaffungsmarktforschung . . . . . . . . . . . . . . . . . . . . . . 825 Abbildung 209: Planungsdimensionen . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 845 Abbildung 210: MPM-Netzplan . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 850 Abbildung 211: Informationssysteme . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 852 Abbildung 212: Verrichtungsorganisation der Marktforschung . . . . . . . . . . . . . . . . . . . 866 Abbildung 213: Produktorganisation der Marktforschung . . . . . . . . . . . . . . . . . . . . . . . 867 Abbildung 214: Gebietsorganisation der Marktforschung . . . . . . . . . . . . . . . . . . . . . . . 868 Abbildung 215: Kundenorganisation der Marktforschung . . . . . . . . . . . . . . . . . . . . . . . 868

Tabellen- und Abbildungsverzeichnis

XXXV

Abbildung 216: Mehrlinienorganisation der Marktforschung . . . . . . . . . . . . . . . . . . . . . 870 Abbildung 218: Kreuzlinienorganisation der Marktforschung . . . . . . . . . . . . . . . . . . . . 871 Abbildung 217: Stablinienorganisation der Marktforschung . . . . . . . . . . . . . . . . . . . . . 871 Abbildung 219: Reine Projektorganisation der Marktforschung . . . . . . . . . . . . . . . . . . 873 Abbildung 220: Teamorganisation der Marktforschung . . . . . . . . . . . . . . . . . . . . . . . . . 873 Abbildung 221: Zentralbereichsorganisation der Marktforschung . . . . . . . . . . . . . . . . . 875 Abbildung 222: Kennzahlenbildung . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 879 Abbildung 223: Formen des Benchmarking . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 888

Kapitel I

Grundlagen der modernen Marktforschung Wirtschaften heißt Entscheiden. Entscheidungen aber setzen die Existenz von Wahlalternativen voraus. Dies wiederum bedingt zwei oder mehr Wahlobjekte. Wer darin sachgerecht entscheiden will, braucht so viel Informationen wie möglich über eben diese Wahlobjekte. Diese Informationen liefert im Marketing die Marktforschung. Sie ist damit Voraussetzung für jedes wirtschaftliche Handeln im Absatzbereich. Ohne oder ohne ausreichenden Informationsstand besteht die Gefahr, falsche Entscheidungen zu treffen, also schlecht zu wirtschaften. Forschung ist daher unerlässlicher Bestandteil des Marketing. Dies gilt umso mehr angesichts eines turbulenten, zunehmend komplexer werdenden Vermarktungsumfelds. Vielfältige Faktoren wirken auf Entscheidungssituationen ein, die zueinander in nur schwer durchschaubaren Beziehungen stehen und kaum kalkulierbare Folgen haben. Selbst wenn es gelingt, diese Faktoren halbwegs in den Griff zu bekommen, hilft auch dies wenig, ändern sich diese doch rasch und unablässig. Marktforschung ist daher ein kontinuierlicher Prozess. Informationen werden insofern immer wichtiger. Man spricht von Information als dem vierten Produktionsfaktor neben dispositiver bzw. exekutiver Arbeit, Betriebsmitteln / Anlagen und Werkstoffen als Einsatzmaterialien. Dies bedeutet aber, dass die Aktivitäten in der Absatzvorbereitung oder im Marketing-Service, wo diese Aufgabe zumeist organisatorisch verankert ist, intensiviert werden müssen. Forschung ist damit ein bestimmender Erfolgsfaktor im Marketing. Im Folgenden werden dazu primär die Absatzmärkte und nur nachgelagert die Beschaffungsmärkte untersucht. Dem liegt eine enge Definition des Marketing zugrunde, die hier auf praktischen Erwägungen beruht. Sie lautet: Marketing bedeutet die bewusste Beeinflussung der Vermarktungsbedingungen über den Instrumental-Mix mit der Absicht der Erreichung quantitativer und qualitativer Zielvorstellungen über die Nutzenstiftung für Kunden und deren Kunden durch die zielgerichtete Gestaltung absatzrelevanter Geschäftsbeziehungen mittels deren Aufbau, Unterhalt, Ausbau, Wiederherstellung oder Aufkündigung. Die Grundlagen umfassen die Inhalte und Abgrenzungen der modernen Marktforschung (1.), die Sichtung der Erhebungsträger (2.), die Bestimmung der Informationsbasis (3.) und die Formen der Sekundärerhebung (4.)

1. Inhalt und Abgrenzung Entscheidend für die ertragreiche Auseinandersetzung mit einer Materie ist zunächst eine zutreffende begriffliche Abgrenzung des Betrachtungsgegenstands. Missverständnisse rühren zumeist daher, dass Beteiligte diesbezüglich unterschiedliche Auffassungen haben. Wobei die Abgrenzung zumindest in den Wirtschafts- und Sozialwissenschaften mangels Verfügbarkeit nicht nach letztgültiger Erkenntnis erfolgen kann, sondern vielmehr nur nach Zweckmäßigkeit. Aus den Begrifflichkeiten leiten sich die Einsatzfelder der Anwendung ab und daraus wiederum die Arbeitsphasen innerhalb des Workflow, an denen dann unterschiedliche Akteure abweichend intensiv einzeln oder gemeinsam beteiligt sind.

1.1 Begrifflichkeiten Moderne Marktforschung umfasst die traditionelle Marktforschung und auch Teile der Marketingforschung. Die traditionelle Marktforschung bezieht sich dabei auf die externe Marktorientierung des Betriebs, also Größen wie Marktvolumina und -potenziale, Lieferanten, Händler etc., des Betriebs und speziell den Kundenfokus der direkten und indirekten Abnehmer. Dieser Kundenfokus ist auch Inhalt der Marketingforschung, die jedoch zusätzlich auch interne, innerbetriebliche Sachverhalte und Marketingaktivitäten des Betriebs umfasst. Modernde Marktforschung umfasst zusätzlich die Sicht auf aktuelle und potenzielle Wettbewerber. Als Wechselvokabel kann daher dafür auch der Begriff „Marketing intelligence“ eingesetzt werden. Er umfasst die Kundenanalyse als Customer intelligence, also das Wissen um Kunden, die Marktanalyse als Market intelligence, das Wissen

Market

Competitive

intelligence

intelligence

Customer intelligence

Abbildung 1: Einsatzfelder der modernen Marktforschung

3

1. Inhalt und Abgrenzung

um relevante Marktdaten und deren Deutung, und die Wettbewerbsanalyse als Competitive intelligence, das Wissen um den Mitbewerb (die „Marktbegleiter“ (siehe Abbildung 1: Einsatzfelder der modernen Marktforschung). Der Begriff „Intelligence“ bezeichnet dabei das Bestreben, abstrakte Beziehungen zu erfassen, herzustellen bzw. zu deuten und dadurch an neuartige Situationen anzupassen, um Probleme zu bewältigen und zu lösen. Marketing intelligence betrifft den absatzmarktbezogenen Bereich der Business intelligence, die sich allgemein auf die Sammlung, Aufbereitung und Darstellung aller geschäftsrelevanten Informationen zur Planung, Steuerung und Kontrolle des Unternehmens bezieht. Marktforschung bezieht sich als Marktempirie auf überprüfbare Sinneserfahrungen. Sie basiert auf der Markttheorie als System untereinander durch Ableitbarkeitsbeziehungen verbundener Sätze und Aussagen. Beide gemeinsam machen die Marktuntersuchung aus, die systematisch-planvoll vorgeht. Davon abzugrenzen ist die Markterkundung, die nur ein eher zufälliges, gelegentliches Abtasten der Märkte darstellt, also nicht systematisch erfolgt und damit keinem planvollen Anspruch gerecht wird. Daraus ergibt sich folgende Arbeitsdefinition: Moderne Marktforschung stellt die systematische Sammlung, Aufbereitung und Interpretation von markt-, wettbewerbs- und kundenbezogenen Daten bzw. Fakten zur Erkennung, Auswertung und Ableitung von Informationsgrundlagen für absatzwirtschaftliche Entscheidungen dar (siehe Abbildung 2: Einordnung der modernen Marktforschung). Dies entspricht auch dem Anliegen des Transfers in die Wirtschaftspraxis.

Moderne Marktforschung (Marketing intelligence) Wettbeexterne KundenwerbsMarktfokus sichtweise orientierung Traditionelle Marktforschung Kundenfokus

interne Marketingorientierung

Marketingforschung

Abbildung 2: Einordnung der modernen Marktforschung (eig. Darst.)

Sie übernimmt dabei eine Vielzahl wichtiger Funktionen im Betrieb: • Die Frühwarnfunktion sorgt dafür, dass Risiken frühzeitig erkannt und abgeschätzt werden können. Dies ist vor allem infolge rasch wechselnder Umfeldfaktoren von hoher Bedeutung für die Planung und Steuerung.

4

Kap. I: Grundlagen der modernen Marktforschung

• Die Innovationsfunktion trägt dazu bei, dass Chancen und Entwicklungen aufgedeckt und antizipiert werden, bietet also Anregungen. Denn meist sind nur noch Vorstöße am Markt in der Lage, Konkurrenzvorsprünge zu generieren. • Die Intelligenzverstärkerfunktion fördert willensbildende Prozesse zur Unterstützung der Betriebsführung. Mehr Wissen führt somit tendenziell zu sachgerechteren, besseren Entscheidungen. • Die Unsicherheitsreduktionsfunktion schafft bei der Entscheidungsfindung eine Präzisierung und Objektivierung von Sachverhalten. Damit werden die typischerweise schlecht strukturierten Problemstellungen im Marketing besser beherrschbar. • Die Strukturierungsfunktion fördert das Verständnis von Zielvorgaben und Lernprozessen im Betrieb. Durch die Transparenz von Daten und darauf basierenden Schlussfolgerungen kommt es zu einer besseren Aktivitätsabstimmung. • Die Selektionsfunktion wählt aus der Flut umweltbedingter Informationen die relevanten Informationen aus und bereitet diese auf. Dies gilt freilich nur bei entsprechend geeigneter Anlage der Informationsgewinnung. • Die Prognosefunktion hilft schließlich, Veränderungen des marketingrelevanten Umfelds abzuschätzen und Auswirkungen auf das eigene Geschäft aufzuzeigen. Dies ist wichtig für die zielgerichtete Steuerung des Unternehmens. Marktforschung ist u. a. umso eher erforderlich, je • größer und komplexer das Unternehmen, • größer die Bedeutung und die objektive und / oder subjektive Unsicherheit bzgl. der zu untersuchenden Größe für die Gesamtsituation des Unternehmens, • größer der spezielle räumliche Markt, • weniger flexibel die Reaktion der Organisation auf eine Änderung der Rahmendaten, • dringlicher die benötigte Information für unternehmerische Entscheidungen (Opportunitätskosten), • geringer die spezielle Erfahrung der Unternehmensleitung, • geringer der Umfang der persönlichen Kontakte von Mitarbeitern des Unternehmens zu bedeutenden Informationsträgern ist. Sie dient u. a. der Überwachung der Marketingmaßnahmen, der Überprüfung der Marketingzielerreichung, der Analyse der Umfeldsituation, der Reduktion der Planungsunsicherheit, der Unterstützung der Wissensbildung/-generierung, der Erkennung von Chancen und Trends, dem Benchmarking im Umfeld etc. Marktforschung bedient sich dabei der Ausarbeitung von Studien, für die es drei Grundlagen gibt: • Explorative Studien sollen ein besseres Verständnis einer vorgegebenen Thematik erreichen, ihnen liegen zunächst keine Hypothesen über Zusammenhänge

1. Inhalt und Abgrenzung

5

bzw. Abhängigkeiten zugrunde, jedoch streben sie eine solche Hypothesenbildung aufgrund der gewonnenen Erkenntnisse an, z. B. mittels Expertenbefragung, Feldbeobachtung, Fallstudienauswertung. • Deskriptive, explanatorische Studien sollen eine möglichst aussagefähige Erfassung und Beschreibung einer vorgegebenen Thematik erreichen, dabei geht es noch nicht um Aussagen über Zusammenhänge bzw. Abhängigkeiten, sondern um die zutreffende Beschreibung der Situation bzw. des relevanten Umfelds, als Mittel dazu dienen u. a. Querschnitts- und Längsschnittanalysen. • Explikative, analytische Studien dienen der Sichtung und Erfassung von Abhängigkeiten auf Basis vorformulierter Hypothesen zu einem vorgegebenen Thema, die statistisch überprüft und hinsichtlich ihrer Ursache-Wirkungs-Stringenz auf einem bestimmten Anforderungsniveau entweder bestätigt oder verworfen werden, als häufiges Mittel dazu dienen z. B. Experimente.

1.2 Einsatzfelder Marktforschung tritt in der Praxis in vielfältigen Einsatzfeldern in Erscheinung (siehe Abbildung 3: Rubrizierung und Arbeitsphasen der Marktforschung): • Als zu erforschende Umfelder gelten die Mikro- und die Makroumwelt. Zur unmittelbaren Umwelt gehören vor allem Größen wie Nachfrage, Konkurrenz, Interessengruppen etc., zur erweiterten Umwelt gehören Größen wie Technik, Politik, Recht, Ökologie etc. Im Rahmen des Marketing sind beide Perspektiven bedeutsam. • Als Quellen für die Informationsgewinnung kommen betriebsinterne und betriebsexterne in Betracht. In beiden Fällen sind die Voraussetzungen für Informationen bereits gegeben, sie müssen nur aktiviert werden. • Die Informationsinhalte sind demoskopischer oder ökoskopischer Natur, d. h., es handelt sich um subjektiv persönliche Daten, z. B. Geschlecht, Alter, Beruf, oder um objektiv sachliche Daten, z. B. Umsatz, Marktanteil, Belegschaft. • Bei den untersuchten Leistungen handelt es sich um Sachgüter sowie Dienstleistungen. Entsprechend den Besonderheiten dieser Märkte ist die Forschung jeweils ausgerichtet. Bei Sachgütern sind Konsumtiv- oder Produktivgüter gegeben, je nachdem, ob es sich um eine B-t-c- oder eine B-t-b-Nutzung handelt. Den mit Abstand größten Anteil aber machen Dienstleistungen aus (Tertiärer Sektor). • Nach den relevanten Marketinginstrumenten beziehen sich Untersuchungen auf die Angebots- und Sortimentsforschung der Produktpolitik, auf die Entgelt- und Gegenleistungsforschung der Preispolitik, auf die Informations- und Präsenta-

6

Kap. I: Grundlagen der modernen Marktforschung

tionsforschung der Kommunikationspolitik oder die Verfügbarkeits- und Übergabeforschung der Distributionspolitik. • Bei der Art von Informationen kann es sich um betriebswirtschaftliche oder volkswirtschaftliche Daten handeln, also solche, die vorwiegend einzelbetrieblich oder eher überbetrieblich ausgerichtet sind. • Nach der räumlichen Erstreckung handelt es sich um Binnen- oder Auslandsmärkte, erstere im Rahmen der lokalen, regionalen oder nationalen Forschung, letztere im Rahmen der internationalen Forschung. Im Zuge der Internationalisierung werden grenzüberschreitende Daten immer bedeutsamer. • Nach der zeitlichen Dimension handelt es sich um Größen, die vergangenheitsbezogen, retrospektiv, die gegenwartsbezogen, adspektiv, oder die zukunftsbezogen, prospektiv angelegt sind. Die zukunftsbezogene Forschung nennt man auch Prognose, im engeren Sinne hier als Absatzprognose. • Nach der Häufigkeit unterscheidet man Erhebungen, die einmalig durchgeführt werden (ad hoc), und solche, die mehrmalig, meist regelmäßig, durchgeführt werden. Dabei ist noch wichtig, ob es sich um gleiche Auskunftseinheiten handelt, wie z. B. bei Panels, oder nur um gleichartige, wie z. B. bei Trackings. • Als Träger für Forschungsaktivitäten kommen die eigene Organisation als betriebliche Forschung oder Externe, als Institutsforschung in Betracht. Häufig findet auch eine Arbeitsteilung zwischen beiden statt. • Nach den Subjekten können Gruppen wie Käufer im privaten und gewerblichen Bereich, Absatzmittler als Groß- und Einzelhändler sowie Absatzhelfer, Her­ steller, Konkurrenten, Lieferanten, Anspruchsgruppen etc. unterschieden werden. • Nach dem Gegenstand können Meinungsforschung, Motivforschung, Verhaltensforschung etc. unterschieden werden. Die Marktforschung hat (Absatz-) Markt, Wettbewerb und Kunden als Objekte. Als Leitbild professioneller Marktforschung in all diesen Einsatzfeldern gelten dabei immer die Postulate der • theoriegeleiteten Vorgehensweise, d. h. auf der Basis verfügbarer wissenschaftlicher Erkenntnisse, • interdisziplinären Ausrichtung, d. h. die Einbeziehung von Disziplinen wie Psychologie, Soziologie, Statistik etc., • Einbringung von Pragmatismus, d. h. die Konzentration auf das Nützliche und Wichtige, • Seriosität der Forschungsanlage, d. h. die logische Plausibilität und ethische Vertretbarkeit.

7

1. Inhalt und Abgrenzung

Rubrizierung

Arbeitsphasen

Umfeld

Anregung

Quelle

Ressourcen

Informationsinhalt

Definition

Leistung

Forschungsdesign

Instrument

Datenerhebung

Art

Aufbereitung

Raumerstreckung

Interpretation

Zeitdimension

Kommunikation

Subjekt Gegenstand

Abbildung 3: Rubrizierung und Arbeitsphasen der Marktforschung

1.3 Arbeitsphasen Wenn man sich gedanklich einem Forschungsprojekt nähert, ist es sinnvoll, sich zunächst die Schritte auf dem Weg von der gegebenen Ausgangssituation zur gewünschten Zielsituation vor Augen zu führen. Die einzelnen Arbeitsphasen betreffen hier bei professioneller Vorgehensweise die Folgenden. Die Anregungsphase dient der Identifizierung von Informationsbedarfen und der Themenstrukturierung. Die Anregung kann durch Märkte verursacht sein oder durch betriebsinterne Überlegungen, sie kann aus der Marktforschungsabteilung selbst kommen oder aus dem Management. Die Ressourcenphase beschäftigt sich mit den zur Durchführung des Projekts bereitzustellenden Zeit-, Kosten- und Strukturressourcen. Die Zeitressourcen

8

Kap. I: Grundlagen der modernen Marktforschung

stehen in unmittelbarer Beziehung zur Ergebnisqualität, dennoch fehlt es in der Praxis häufig an deren Bereitstellung. Gleiches gilt für die Kostenressourcen. In Bezug auf die Strukturen ist vor allem zwischen interner und externer Erledigung der Arbeiten bzw. die Arbeitsteilung zu denken. Die Definitionsphase betrifft die Formulierung des Untersuchungsziels und dessen Umsetzung in ein Forschungsproblem. Auf dieser Basis erst können operationale Erhebungsziele definiert werden. Daraus ergibt sich der Set der erforderlichen Variablen und ob diese in funktionalen Beziehungen zueinander stehen und ausreichend kontrollierbar sind. Häufig machen erkennbare Informationslücken eine Pilotstudie zur Klärung des eigentlichen Informationsbedarfs erforderlich. Bei der Forschungsanlagephase geht es um die Erstellung eines detaillierten Forschungskonzepts, in dem Datengewinnung, -verarbeitung und -auswertung dargelegt sind. Dazu werden Hypothesen gebildet und an der Realität überprüft. Es ergeben sich ein Abriss der Entscheidungsfrage, eine Kurzbeschreibung des Forschungsproblems, eine Kennzeichnung des Informationsstands, die Formulierung von Forschungshypothesen, die Kurzdarstellung der einzusetzenden Methoden, von Dauer und Zeitbedarf des Projekts sowie dessen Finanzaufwands. Hierzu gehören im Falle der Feldarbeit auch der Fragebogentext, -aufbau, die Auswahl und Entwicklung der Erhebungsmethode, die abstrakte Bestimmung der Erhebungseinheiten etc. Die Datenerhebungsphase umfasst die unmittelbare Datengewinnung durch eigene Felderhebung, durch Organisation Externer, allgemein Forschungsinstitut, oder durch Schreibtischrecherche als Sekundärquellen, auch dies durch Eigenoder Fremdleistung. Die Aufbereitungsphase betrifft die Dokumentation der Daten und ihre Kon­ trolle auf Vollständigkeit. Es folgt die grobe Überprüfung der Ergebnisse auf logische Konsistenz. Codierungsfehler sind zu prüfen und zu beseitigen. Im Rahmen der Auswertung werden anspruchsvolle rechnerische, genauer multivariate statistische Verfahren zur Verdichtung und Interpretation eingesetzt. Die Interpretationsphase stellt die eigentliche Denkleistung durch Analyse und Schlussfolgerung der gewonnenen Daten dar. Dabei kommt es zugleich wieder zu einer Subjektivierung der objektiven Forschungsanlage. Die Kommunikationsphase betrifft die Präsentation von Empfehlungen auf Basis der gewonnenen Erkenntnisse. Wichtig ist die zielgruppengerechte Darstellung der Resultate, denn von einer wirksamen Kommunikation hängt der Erfolg der Marktforschung in hohem Maße ab.

1. Inhalt und Abgrenzung

9

1.4 Umfeldakteure Das Ökosystem Marktforschung kennt verschiedene Akteure mit ihren jeweiligen Aufgaben. Zu nennen sind vor allem folgende. Fullservice-Mafo-Institute sind Unternehmen, die Marktforschungsstudien für industrielle oder andere organisationale Auftraggeber über alle Phasen hinweg von der Anregung eines Studienprojekts bis zur Kommunikation der Ergebnisse steuern und durchführen. Sie bieten damit eine Rundumbetreuung, eignen sich aufgrund ihrer Kostenstruktur aber vornehmlich nur für große Studien und Auftraggeber. Dafür zeichnen sie sich in aller Regel durch hohe Professionalität aus (z. B. GfK, Kantar, Nielsen, Ipsos). Partservice-Mafo-Institute decken nur Teile des Marktforschungsspektrums ab. Dazu gehört die Organisation von Gruppendiskussionen, von Studiotests, etwa über apparative Einrichtungen, oder Wellenerhebungen. Diese werden häufig auch als Unterlieferanten für Fullservice-Institute tätig. Feld-Organisationen sind Servicer, die über ausgebaute Mitarbeiter-Teams verfügen und für Mafo-Institute oder andere Auftraggeber nach deren Vorgaben und Lenkung Markterhebungen durchführen. Die Feldarbeit wird damit von den Auftraggebern an diese Servicer outgesourct, vornehmlich, um hohe Fixkostenblöcke in der Primärerhebung bei schwankender Auslastung zu vermeiden. Zu denken ist sowohl an Interviewer als auch Callcenter-Mitarbeiter, Mystery shopper etc. Marktforschungs-Berater sind (Third party-)Dienstleister, die Marktforschungsstudien, vornehmlich für Nicht-Mafo-Institute, konzipieren, betreuen und deren Ergebnisse interpretieren. Ihre Klientel sind überwiegend klein- und mittelständische Auftraggeber, die selten mit solchen Aufgaben befasst sind, sich aber kompetenter Hilfe darin versichern wollen. Da die Leistung nicht geschützt ist, ist die Leistungsstreuung sehr hoch. Teststudios sind Anbieter, die Räumlichkeiten, Infrastruktur und teilweise ausgefeilte technische Ausrüstung für die Durchführung von Marktexperimenten unterhalten und bereitstellen. Sie arbeiten anderen Akteuren wie Mafo-Instituten oder Markenartiklern, zu und gewinnen aufgrund des Strebens nach Absicherung im Marketing an Bedeutung. Datenanalysten sind Anbieter, die sich auf die Sichtung, Strukturierung und Auswertung großer anfallender Datenmengen (Big Data) als Basis oder Ergebnis von Studien spezialisieren. Sie setzen dazu elaborierte IT-Hardware und -Software ein und gewinnen durch Digitalisierungsnutzung erheblich an Bedeutung. Die Entwicklung ist hier kaum vorherzusehen. Software-Anbieter beziehen sich in neuerer Zeit vor allem auf Online-Marktforschung bzw. Mobile-Marktforschung zu denken (z. B. Qualtrics, Toluna, YouGov). Diese erfordern ein kenntnisreiches Herangehen, da hier immer noch methodisches Neuland betreten wird.

10

Kap. I: Grundlagen der modernen Marktforschung

Informationsbroker sind Anbieter, die Sekundärdaten beschaffen und strukturieren. Als Quelle dienen ihnen externe Datenbanken verschiedenster Couleur. Vor allem geht es dabei um die Eruierung geeigneter Quellen, deren Validierung und Datenextrahierung. Dabei ist in erster Linie an Internet-Quellen zu denken, verstärkt aus dem Deep web. Dabei geht es vor allem darum, aus der riesigen Menge zur Verfügung stehender Daten die aktuellen, belastbaren und aussagefähigen zu recherchieren. Unternehmensberatungen übernehmen im Zuge ihrer Wertkettenausweitung zunehmend Marktforschungsaufgaben, die sie zumeist im Zuge anderer Consulting-Projekte akquirieren oder als Mittel zur Akquisition solcher Projekte nutzen. Dazu halten sie entsprechend spezialisierte Mitarbeiter vor, die gegen Stunden-/ Tagessätze tätig werden bzw. beauftragen diese ihrerseits als Freelancer. Werbeagenturen übernehmen ebenfalls im Zuge ihrer Arbeiten Aufgaben der Marktforschung, vor allem wenn es um die Messung der Effektivität und Effizienz werblicher Aktivitäten geht. Dabei handelt es sich vornehmlich um WerbemittelPre- und Posttests sowie verstärkt um Performance marketing. Den Input dafür kaufen sie zumeist extern bei Freelancers zu. Weiterhin gibt es vielfältige Spezialdienstleister wie Trendscouts, Hochschulinstitute, Medien (Verlage / Sender), Verbände, Organisationen der Wirtschaft u. Ä. Sie liefern vielfältig Informationsgrundlagen zu oder helfen zumindest bei deren Recherche und Analyse. Gemäß des gesellschaftlichen und technologischen Umfelds ändern diese sich nach Art und Anteil. Denkbar und üblich ist aber auch die Beauftragung einer hausinternen Marktforschungsabteilung, wie sie zumindest in größeren Unternehmen vorhanden ist. Damit macht man sich von externen Dienstleistern zeitlich, kapazitativ und personell unabhängig, begibt sich allerdings womöglich der Vorteile der Kernkompetenznutzung.

2. Erhebungsträger Als Erhebungsträger der Marktforschung kommen interne Funktionen oder externe in Betracht, ersteres führt zur Betriebsforschung, Letzteres zur Instituts­ forschung (siehe Abbildung 4: Erhebungsträger der Marktforschung).

Betriebsforschung

Institutsforschung

Abbildung 4: Erhebungsträger der Marktforschung

Die betriebliche Forschung kann als Linien- oder Stabsstelle verankert sein. Als Linienstelle ist eine Einordnung im Rahmen der Funktions- oder Objektorganisation möglich. Im Rahmen der Funktionsorganisation ist eine Anbindung an Marketing, Absatz, Vertrieb, Verkauf o. Ä. sinnvoll. Im Rahmen der Objektorganisation ist eine Anbindung an Produkt-Management, Gebiets-Management oder KundenManagement sinnvoll. In diesen Bereichen kann jeweils auch eine Anbindung als Stabsstelle vorgenommen werden. Dabei ist häufig ein Marketing-Service-Bereich anzutreffen. Denkbar ist aber auch eine Anbindung in den Bereichen Information, Wirtschaftsinformatik, IT o. Ä., oder sogar im Bereich Beschaffung oder Unternehmensführung, Auditing o. Ä.

2.1 Betriebsforschung 2.1.1 Wesentliche Vorteile Wesentliche Vorteile der Betriebsforschung sind folgende. Es besteht eine größere Vertrautheit mit dem Forschungsproblem durch Kenntnisse im Vorfeld. Über den Auftrag hinaus ist meist bekannt, zu welchen spezifischen Zwecken die gewonnenen Informationen genutzt werden sollen. Entsprechend kann bereits im Vorfeld das Design gestaltet werden, und eine gesonderte Einarbeitungszeit entfällt damit. Bessere Möglichkeiten der Einflussnahme und Kontrolle während des Forschungsprozesses sind gegeben. Es besteht jederzeitige Transparenz über den Status der Arbeiten, und es kann jederzeit darauf in zielgerichteter Weise Einfluss genommen werden. Oder es besteht zumindest die Illusion dahingehend.

12

Kap. I: Grundlagen der modernen Marktforschung

Es kommt zur Gewinnung eigener Forschungserfahrungen sowie zum Verbleib dieser Erkenntnisse im Betrieb. Durch die Beschäftigung mit der Materie wird Wissen akkumuliert, das Sekundärnutzen in anderen Bereichen zeitigt und das Wissenspotenzial stetig anreichert. Das Risiko von Indiskretionen über Interna ist geringer. Oft werden Externen im Verlaufe der Arbeit Inhalte bekannt, die nicht für die Öffentlichkeit bestimmt sind. Das Risiko der unbefugten Weitergabe solcher vertraulicher Informationen ist jedoch nicht auszuschließen. Dies betrifft auch den Informations- und Datenschutz nach Projektabschluss. Kommunikationsprobleme, wie sie bei der Zusammenarbeit mit Externen immer gegeben sind, entfallen. Eine komplexe Materie erfordert intensiven Meinungs­ austausch zur Nutzung aller Potenziale und zur problemgerechten Bearbeitung. Das kostet im Betrieb nennenswert Zeit, zumeist die der Entscheider, und damit Geld. Es gibt eine bessere Möglichkeit zur Nutzung spezifischer Kenntnisse der Entscheidungsträger. Da nur ein geringer Teil der Aktivitäten auf objektivierter Grundlage abläuft, kann das Briefing intern um „Bauchgefühl“ ergänzt werden, das Externen nur schwer zugänglich ist. Aus der eigenen Durchführung von Marktforschung wird eine anderweitig fällige Liquiditätsbelastung vermeidbar, zumindest in Bezug auf pagatorische Kosten. Dafür ist der entstehende Fixkostenblock als deutlich höher einzuschätzen. 2.1.2 Wesentliche Nachteile Als Nachteile der Betriebsforschung sind hingegen folgende zu nennen. Es besteht die Gefahr der Betriebsblindheit, die oft nahe liegende Problemlösungen nicht erkennen lässt. An diesen fundamentalen Gaps sind bereits viele Marketingaktivitäten gescheitert. Die Einschaltung Externer bietet hingegen die Chance, eingefahrene Gleise zu verlassen und neue Einsichten zu gewinnen. Das Phänomen der Self fulfilling prophecy ist nicht von der Hand zu weisen, d. h., die Forschung erbringt erstaunlicherweise genau die Ergebnisse, die das Management schon vorher unterstellt hat. Denn interne Mitarbeiter wissen um die möglichen Konsequenzen ihrer Erhebungsergebnisse und sind daher trotz ihres Bemühens um Neutralität zumindest unbewusst geneigt, Aspekte, welche die gewünschte Konsequenz begünstigen, stärker zu berücksichtigen bzw. Aspekte, welche die gewünschte Konsequenz beeinträchtigen, nicht weiter zu verfolgen. Dies führt zu erheblichen Verzerrungen im Output. Es besteht die Gefahr der subjektiven Prägung des Forschungsprojekts. Denn der Forscher geht meist mit einem eigenen oder von seinem Arbeitgeber geprägten Werturteil an eine Problemstellung heran. Trotz allen Willens zur Objektivität

2. Erhebungsträger 

13

sind dann die Antworten dennoch entsprechend, da unbewusste Lenkungsmechanismen einsetzen. Experten und fachorientierte Mitarbeiter fehlen oft in der Abteilung. Für spezialisierte Aufgaben, die infolge der Professionalisierung der Forschung immer breiteren Raum einnehmen, kann intern keine adäquate Manpower vorgehalten werden. Insofern ist eine methodische Rückständigkeit nicht ausgeschlossen. Die Organisation der Feldarbeit ist normalerweise kaum selbst möglich. Sofern es sich um Primärerhebungen handelt, die flächendeckend durchgeführt werden, ist eine Interviewerorganisation erforderlich, die nur von Instituten unterhalten werden kann. Das bedeutet jedoch nicht, dass man dann auch anderweitig mit diesen zusammenarbeiten muss. Längere Bearbeitungszeiten durch Kostendruck und Kapazitätsengpässe sind wahrscheinlich. Dies ist nicht zuletzt dadurch begründet, dass Unternehmen im Rahmen der Rationalisierung ihren Mitarbeiterstamm auf das unerlässliche Maß zurückgeschraubt haben, so dass für Spitzenbelastungen keine Reserve mehr bleibt. Es entstehen meist höhere Kosten gegenüber Outsourcing. Dies gilt zumindest, wenn, wie dringend erforderlich, die kalkulatorischen Kosten der eigenen Mitarbeiter mit effektiven Stundensätzen und nicht nur deren pagatorische Kosten angesetzt werden. Eine eigene Erhebung ist oft nicht möglich, sofern eine forscherische Infrastruktur erforderlich ist wie z. B. Panel, Wellenerhebung, Mehrthemenbefragung. Deren Aufbau und Unterhalt ist zu aufwändig, als dass sie sich selbst für forschungsintensive Unternehmen, wie in der Konsumgüterbranche anzutreffen, lohnen würde. 2.1.3 Sonderformen der Trägerschaft In vielen Fällen ist eine Kombination von Eigen- und Fremdforschung sinnvoll, etwa derart, dass die Grundlagenarbeit außer Haus und die Durchführung in eigener Regie vorgenommen wird oder umgekehrt. Oft wird die Forschung auch von Verbänden für die ihnen angeschlossenen Unternehmen übernommen. Dabei sind verschiedene Abstufungen denkbar. Zunächst kann es um die Verarbeitung von Fundstellenverzeichnissen für die wichtigsten, die Branche betreffenden Statistiken gehen. Weitergehend können diese Statistiken verbandsseitig auch ausgewertet und interpretiert werden. Ebenso können eigenständige Forschungsprojekte im Rahmen der Verbandsarbeit durchgeführt werden. Dies kann bis zur Gründung und Führung eines selbstständigen Hausinstituts gehen, das fallweise oder laufend mit der Durchführung von Untersuchungen befasst ist. Dabei ergeben sich jedoch auch enge Grenzen. So können die Ergebnisse regelmäßig nur auf die Branche, nicht aber auf einzelne Betriebe bezogen werden, sie bedürfen also der Ergänzung und Verfeinerung. Sie schaffen

14

Kap. I: Grundlagen der modernen Marktforschung

damit nur Informationsgleichstand, also keinen individuellen Wettbewerbsvorsprung. Gerade in hoch kompetitiven Wirtschaften ist Informationsvorsprung jedoch ein unschätzbarer Erfolgsfaktor. Sofern die Abdeckung der Branche durch einen Verband gering ist, wie häufig in „modernen Branchen“, sind die Ergebnisse nicht einmal hinreichend. Ebenso ist eine Verbund-Forschung (auch Gemeinschaftsuntersuchung) denkbar. Sie besteht darin, dass Unternehmen zum Zweck der gemeinsamen Forschung kooperieren (s. u.). Handelt es sich um substitutiv tätige Unternehmen, gleicht die Situation der Verbandsforschung. Wegen der Besonderheiten jedes Betriebs und des gleichen Informationsstands aller Beteiligter ist die Ergänzung um eigene betriebliche Forschung unerlässlich. Handelt es sich um komplementär tätigte Unternehmen, kann die individuelle Forschung dadurch möglicherweise weitgehend ersetzt werden.

2.2 Institutsforschung 2.2.1 Wesentliche Vorteile Bei der Datenerhebung kann es sich um Primärdaten oder Sekundärdaten handeln (s. u.). Bei den Erhebungsträgern für Primärdaten kann es sich wiederum um unternehmensexterne oder -interne Einheiten handeln, ersteres beschreibt die Institutsforschung, letzteres die Betriebsforschung. Parallel dazu ist auch die interne und externe Erhebung von Sekundärdaten möglich, ersteres erfolgt durch das Unternehmen selbst, letzteres durch Dritte. Zunächst zur Institutsforschung. Wesentliche Vorteile der Institutsforschung sind folgende. Es ist keine Betriebsblindheit der Forscher gegeben. Externe Forscher können unvorbelastet an die Problemlösung herangehen. Sie brauchen weniger Rücksichten auf interne „Politik“ zu nehmen. Sie können im positiven Sinne naiv Altbekanntes und scheinbar Bewährtes in Frage stellen. Es besteht Zugang zu leistungsfähigen Erhebungsinstrumenten, die kostspielig zu installieren und unterhalten sind. Viele, technisch aufwändige Erhebungsinstrumente, wie z. B. Panels, sind nur von Instituten aufrecht zu erhalten, so dass ein Rückgriff auf deren Fremdforschung unverzichtbar ist. Dies gilt auch für den Unterhalt eines ausgebildeten Interviewerstabs im Feld. Die Gefahr interessengefärbter Auskünfte und tendenziöser Meinungen ist gering. Zwar sind externe Auftragnehmer auch in gewisser Weise ökonomisch abhängig, aber ihre organisatorische Selbstständigkeit erlaubt es ihnen leichter, Wege einzuschlagen, die intern auf Missfallen stoßen können. Höhere Objektivität ergibt sich durch mehr Sachverstand als Herzblut bei der Aufgabe. Ein hohes Maß an Involvement ist nicht immer nützlich bei der neutralen

2. Erhebungsträger 

15

Untersuchung von Sachverhalten. Externe, die weniger emotional und mehr rational an die Sache herangehen, sehen Probleme unvoreingenommener und härter. Es besteht die Möglichkeit des Einsatzes von Spezialisten und der Nutzung von Expertenwissen. Ein Serviceunternehmen kann durch die Vielzahl seiner Auftraggeber und Aufträge Experten beschäftigen, deren Auslastung im Betrieb nicht gewährleistet ist. Dadurch wird zusätzliches Wissen aus der Lösung ähnlicher Probleme bereitgestellt. Aktuelle Methodenkenntnis in Beschaffung, Verarbeitung und Auswertung von Informationen ist verfügbar. Und es kann vorausgesetzt werden, dass Spezialisten über fundierteres Wissen um die besten Mittel und Wege zur Lösung komplexer Forschungsprobleme verfügen. Ergebnisvergleiche mit Erfahrungen aus anderen Untersuchungen sind realisierbar. Dadurch ist eine Relativierbarkeit des Datenoutput gegeben. Es können Benchmarks für „gute“ Ergebnisse festgelegt und „Best in class“-Maßstäbe für exzellente Ergebnisse herausgefiltert werden. Es ist die Möglichkeit von Fixkosteneinsparungen oder zumindest -flexibilisierungen durch Outsourcing gegeben. Gemessen an einer Vollkostenrechnung ist die externe Auftragsvergabe infolge dort vorherrschender Degressionseffekte meist kostengünstiger als die Eigenleistung. Hinzu kommt, dass Fremdkosten variablen Charakter haben, also nur bei Inanspruchnahme anfallen, Eigenkosten aber meist fix sind. Oft kommt es auch zur Beschleunigung der Erhebungsdurchführung, was wiederum kostendämpfend wirkt.

2.2.2 Wesentliche Nachteile Als Nachteile der Institutsforschung sind hingegen folgende zu nennen. Es entsteht eine höhere Liquiditätsbelastung, gemessen an den pagatorischen Kosten. Denn viele Leistungen sind im Unternehmen ohnehin vorhanden und im Rahmen besserer Auslastung auszuschöpfen, die extern gesondert berechnet werden. Zu denken ist hier vor allem an die administrative Infrastruktur. Briefing und Einarbeitungszeit sind erforderlich. Das Briefing ist zwar auch bei Eigenforschung unerlässlich, kann jedoch wegen des höheren Vorinformationsstands meist kürzer gehalten werden. Hinzu kommt eine Zeitspanne zur Vertraut­ machung mit den spezifischen Einflussgrößen auf eine gegebene Problemstellung. Wenn man an unseriös arbeitende Institute gerät, besteht die Gefahr unsolider Auftragserfüllung. Dagegen kann man sich durch Einschaltung von Mitgliedsinstituten einschlägiger Branchenverbände zwar weitgehend schützen. Dennoch ist die Marktforschungsbranche von grauen und schwarzen Anbietern betroffen.

16

Kap. I: Grundlagen der modernen Marktforschung

Die Geheimhaltung kann trotz strikter Verpflichtung zur Vertraulichkeit gefährdet sein. Denn in einer Branche, die von der Informationsweitergabe lebt, bleibt ein gewisses Unbehagen hinsichtlich möglicher Indiskretionen über im Rahmen der Beauftragung bekanntgewordene Geschäftsgeheimnisse bestehen. Insofern werden Berührungsängste gefördert. Oft sind mangelnde Branchenkenntnisse zu beklagen. Allerdings ist bei Zentralisation der Forschungsfunktion in weit verzweigten Betriebsstrukturen der Überblick in allen Bereichen auch nicht leicht zu behalten. Dennoch dürfte die Vertrautheit mit den zu lösenden Problemen extern geringer sein. Es entstehen Kommunikationsprobleme an der Schnittstelle, die unausweichlich sind, wenn Menschen zusammenarbeiten. Spracheigenheiten sind oft unbewusster und manifester Bestandteil der Unternehmenskultur, stellen jedoch praktisch erhebliche Hindernisse in der Koordination interner und externer Aktivitäten dar. Es kommt zu keiner Wissensakkumulation über Forschung im Betrieb. Jede extern ausgeführte Forschung erhöht insofern die Abhängigkeit von externen Zulieferern, wohingegen im anderen Fall ein Potenzial an Erfahrung angesammelt werden kann, das leistungssteigernd und kostenreduzierend wirkt. Es besteht die Gefahr der schematisierten Routinisierung von Projekten, ohne hinreichend auf die spezifischen Belange des Auftraggebers einzugehen. Dies gilt vor allem für den Einsatz von Standarderhebungsinstrumenten und -informationsdiensten. Wenngleich die häufig behaupteten Eigenheiten jeder Branche weniger glaubwürdig sind. 2.2.3 Institutsauswahl Bei den Forschungsinstituten an sich können reine und gemischte Betriebe, die neben der Forschung auch andere Services anbieten, unterschieden werden, weiter­ hin Voll- (Full service-) und Spezial- (Part service-)Dienstleister, letztere offerieren nur Ausschnitte des Leistungsspektrums, z. B. nur die Feldorganisation oder nur das Erhebungskonzept. Sie sind vor allem im Bereich der Primärforschung tätig, weil dort häufig auf fixkostenintensive Feldorganisationen zurückgegriffen werden muss und spezifisches Know-how für die Durchführung unabdingbar ist. Außerdem werden von ihnen eigene Standarddienste angeboten wie Werbetrackings, Panels, TV-Zuschauerforschung, Media-Analyse, Konsumklima, Markttests, Omnibusse etc. Daneben gibt es Feldorganisationen, die ihren Interviewerstab Auftraggebern gegen Rechnung zur Verfügung stellen. Sofern sie zusätzlich die Konzipierung und Auswertung von Aktivitäten übernehmen, ist die Grenze zu klassischen Instituten fließend. Meist werden auch begrenzte Unteraufträge an andere Institute vergeben. Der Anteil ausländischer Auftraggeber liegt zwischen 10–15 %. Über 50 % der Aufträge kommt von Industrie und Dienstleistung. Umsatzschwerpunkt sind Ad hoc-Studien zur einmaligen Durchführung und konti-

2. Erhebungsträger 

17

nuierliche Forschungsinstrumente wie Trackings. Überwiegend wird noch eine mündliche Ergebnispräsentation vorgenommen. Hat man sich für die Einschaltung eines Forschungsinstituts entschieden, sind für dessen Auswahl folgende Kriterien bedeutsam: • Erfahrung bzw. Spezialisierung in relevanten Märkten bzw. Erhebungstechniken sind vorteilhaft, jedoch nicht immer Bedingung, da häufig ein unverstellter Blick auf eine Sachlage hilfreich sein kann, • Leistungsfähige personelle und sachliche Ausstattung, ausgewiesen durch Indikatoren wie z. B. Fluktuationsrate der Mitarbeiter, Unterhalt eines eigenen Interviewerstabs, IT-Kapazität, • Institutseigene Vorkehrungen zur nachgewiesenen Wahrung von Vertraulichkeit und Sicherung der Ergebnisqualität, damit vertrauliche Informationen nicht proliferieren, • Konkurrenzausschluss für die Erhebung des Projekts, realistisch nur für den Zeitraum der Projektbearbeitung zu fordern, außer es gibt eine unbefristete Beauftragung (z. B. bei Trackings), • Kontrollmöglichkeiten des Auftraggebers bei der Durchführung (Termine / Kosten), dazu ist eine laufende, IT-gestützte Projektdokumentation hilfreich, • Referenzen anderer Auftraggeber, Beraterkompetenz, evtl. räumliche Nähe, diese und andere Indikatoren helfen, das Risiko bei Erstbeauftragungen zu limitieren, • Erfahrungen in bisheriger Zusammenarbeit, soweit vorhanden, denn Lieferantentreue zahlt sich vielfältig aus und schafft erst eine Wissensakkumulation, • Mitgliedschaft in Fachverbänden wie Arbeitskreis Deutscher Markt- und Sozialforschungsinstitute / ADM, Berufsverband Deutscher Markt- und Sozialforscher / BVM, Arbeitsgemeinschaft Sozialwissenschaftlicher Institute / ASI, Deutsche Gesellschaft für Online-Forschung / DGOF, European Society for Opinion and Marketing Research / ESOMAR, da dort Mindestanforderungen für die Aufnahme gestellt werden. Bei ESOMAR lauten diese Anforderungen konkret wie folgt. Als Grundprinzipien gelten folgende. Marktforschung muss legal, redlich, wahrheitsgemäß und objektiv konzipiert sein. Sie muss nach angemessenen wissenschaftlichen Prinzipien erfolgen und muss klar von nicht forschenden sowie kommerziellen Tätigkeiten abgegrenzt werden. Redlichkeit bezieht sich darauf, dass Marktforschung das Vertrauen der Befragten nicht missbrauchen darf. Sie darf den Mangel an Erfahrung oder Wissen der

18

Kap. I: Grundlagen der modernen Marktforschung

Befragten nicht ausnutzen. Marktforscher dürfen keine Falschaussagen über sich oder ihre Organisation machen. Berufsständische Verantwortung leitet sich daraus ab. Die Teilnahme an einem Marktforschungsprojekt ist stets völlig freiwillig. Marktforscher müssen sicherstellen, dass die Befragten in der Folge ihrer Teilnahme bzw. Nichtteilnahme an einem Marktforschungsprojekt nicht geschädigt oder benachteiligt werden. Und sie dürfen andere Forscher nicht ungerechtfertigterweise kritisieren. Transparenz wird wie folgt gewährleistet. Der Forschungszweck eines Marktforschungsprojekts ist stets eindeutig darzulegen Auf Anfrage darf der Auftraggeber Qualitätsprüfungen der Datenerhebung und -aufbereitung vornehmen. Marktforscher müssen sicherstellen, dass Marktforschungsprojekte genau, transparent und objektiv konzipiert, ausgeführt, berichtet und dokumentiert werden. Sofern nicht anders vereinbart, bleiben Untersuchungsangebote und Kostenvoranschläge Eigentum der Organisation oder Person, die sie erstellt hat. Befragte sind vorab über Beobachtungstechniken und Aufzeichnungsgeräte zu informieren. Auf Wunsch der Befragten ist die Aufzeichnung zu vernichten oder zu löschen. Auch bei ausdrücklicher Einwilligung muss die Identität der Befragten geschützt werden. Aus Datenschutzgründen darf dem Wunsch einzelner Teilnehmer einer Untersuchung, dass ihre Daten (auch) in nicht anonymisierter Form an den Auftrag­geber übermittelt werden, nicht entsprochen werden. In diesem Fall darf den Teilnehmern nur eine Kontaktadresse des Auftraggebers genannt werden, damit sie sich ggf. selbst an den Auftraggeber wenden können. Marktforscher dürfen nicht zulassen, dass von ihnen erhobene personenbezogene Daten zu anderen Zwecken als der Marktforschung verwendet werden. Bei der Befragung von Kindern / Jugendlichen ist mit besonderer Sorgfalt vorzugehen. Insb. ist stets vorab die Zustimmung eines Erziehungsberechtigten einzuholen. Sofern Marktforscher anfallende Arbeiten mehrerer Auftraggeber in einem Projekt zusammenfassen, sind diese davon in Kenntnis zu setzen. Marktforscher müssen ihre Auftraggeber vorab informieren, wenn Teile eines Auftrags nicht innerhalb der eigenen Organisation ausgeführt werden sollen. Im Ergebnisbericht muss eindeutig zwischen empirischen Ergebnissen, deren Interpretation durch die Forscher und den daraus abgeleiteten Empfehlungen unterschieden werden. Marktforscher dürfen nicht zulassen, dass Schlussfolgerungen aus dem Marktforschungsprojekt veröffentlicht werden, die nicht durch die Daten angemessen unterstützt werden. Marktforscher tragen die Gesamtverantwortung für die Einhaltung des Kodex durch die eigene Organisation, durch den Auftraggeber und andere an der For-

2. Erhebungsträger 

19

schung Beteiligte. Sie müssen einen fairen Wettbewerb einhalten und alle anwendbaren nationalen und internationalen Gesetze beachten. Nachträgliche angemessene Bereinigungen eines Verstoßes gegen diesen Kodex sind wünschenswert, aber keine Entschuldigung für den Verstoß. Der Kodex sowie die enthaltenen Prinzipien sollten national und international von den betreffenden Selbstregulierungsorganen anerkannt und umgesetzt werden. Der Kodex sollte in allen Phasen von allen an einem Marktforschungsprojekt Beteiligten angewendet werden. Je nach Intensität der Zusammenarbeit ist es auch sinnvoll, auf Sympathie mit den Beratern etc. zu achten, wenngleich dies eine unsichere Arbeitsbasis darstellt. Ebenso ist es einzelfallabhängig, ob man wechselweise mit mehreren Instituten, etwa aufgrund individueller Kostenvoranschläge (KVAs) zusammenarbeitet oder mit einem „Stamminstitut“. Für letzteres spricht vor allem die zunehmende Problemvertrautheit und die womögliche Leistung „kostenloser“, also anderweitig nicht berechneter Services.

2.2.4 Angebotseinholung In Deutschland gibt es ca. 150 ernstzunehmende Forschungs-Institute, die Träger der Fremdforschung sind, z. B. GfK, Infratest, ACNielsen, Sample / Inra, Icon, TNS, Ipsos, Allensbach, Forsa, Infas. Es handelt sich um erwerbswirtschaftliche oder gemeinnützige Organisationen, die in kommerzieller und / oder wissenschaftlicher Absicht Forschung betreiben. Hinzu kommen Informationsbroker, die Datenbanken betreiben. Vor der Beauftragung eines externen Anbieters ist eine Ausschreibung mit meist mehrstufigem Auswahlprocedere notwendig. Dazu bedarf es der Erstellung eines Pflichtenhefts für die Angebotsanforderung. Dieses sollte folgende Inhalte umfassen: • Studienhintergrund (worum geht es bei der anstehenden Aufgabe?) • exakte Problembeschreibung, z. B. durch Fragenkatalog, den es zu klären gilt, wobei das vermutete Problem gelegentlich das tatsächliche eher verdeckt denn freilegt, • welche Entscheidung soll davon gestützt oder abhängig gemacht werden, • welche konkreten Ziele verfolgt das Marktforschungs-Projekt, • Angaben über die zu erhebende Zielgruppe, evtl. mit Aufführung vorhandener Unterlagen zur Stichprobenauswahl,

20

Kap. I: Grundlagen der modernen Marktforschung

• welche Forschungsmethoden werden, vorbehaltlich anderer Empfehlung, als sinnvoll erachtet, z. B. über Stichprobengröße, Auswahlverfahren, Instrumentarium etc., die als Anregung dienen können, • welche Zielsegmente im Markt sollen in ihren Informationen eruiert werden, • wie leitet sich daraus eine optimal strukturierte Stichprobe ab und wie sollen die Teilnehmer konkret rekrutiert werden, • auf welche räumlichen Gebiete soll sich die Erhebung beziehen, in welchem Zeitraum soll sie stattfinden, • Angaben über Tätigkeiten innerhalb der Studie, die der potenzielle Auftraggeber selbst durchführen oder beisteuern will, • Angabe einer detaillierten Kostenkalkulation mit Aufgliederung der Positionen in Vorarbeiten, Pretest, Feldarbeit, Auswertung, Präsentation etc., • Durchführungstermine, aufgegliedert nach Zwischenterminen, Berichtsabgabe, Ergebnisvorstellung etc., • wann sollen die Ergebnisse verfügbar sein und wie werden diese verfügbar gemacht, • gewünschter Angebotsabgabetermin, der als verbindlich aufzufassen ist, da davon meist Folgearbeiten abhängen, • wie ist die interne Kontrolle und Freigabe der Arbeiten organisiert, • evtl. Sonderbedingungen, die vom Üblichen abweichen und zu berücksichtigen sind, damit es später nicht zu unliebsamen Überraschungen kommt. Im Grundsatz gelten diese Anforderungen auch für die Zusammenarbeit mit einer internen Marktforschungsabteilung. Häufig werden Mafo-Projekte auch parallel intern und extern ausgeschrieben, allein schon aus Compliance-Gründen. Dies gilt insb. für die verbreitete Form der Shared service center.

3. Informationsbasis Informationen sind allgemein zweckorientiertes Wissen. Sie sind der Rohstoff der Marktforschung und werden als wichtigster Produktionsfaktor angesehen. Zugleich sind Informationen fragil und anfällig für Verzerung, Unvollständigkeit und Veralterung. Insofern werden hohe Anforderungen daran gestellt, vor allem in Bezug auf deren Umfang, Ausschöpfung, Kosten-Nutzen-Relation, Detaillierung, Aktualität und Relevanz (siehe Abbildung 5: Bewertung von Informationen). Diese sind in ihrem Grad abhängig von den möglichen Entscheidungssituationen, mit denen man sich konfrontiert sieht. Informationsgrad Kosten-Nutzen-Aspekt Sicherheitsgrad Detaillierungsgrad Genauigkeit Relevanz

Abbildung 5: Bewertung von Informationen

3.1 Anforderungen Die Anforderungen an Informationen sind vielfältig. Da ist zunächst der Umfang, d. h., es sollen möglichst keine relevanten Informationen vernachlässigt werden, wobei sich zugleich die Frage stellt, was relevant ist, denn dies setzt meist bereits einen Wissensstand voraus, den es erst zu erlangen gilt. Außerdem sollen Informationen aussagekräftig sein, d. h. so detailliert, dass alle über das Informationsobjekt nützlichen Tatbestände bekannt werden, wobei jedoch die Grenze zur Komplexität im Detaillierungsgrad fließend ist. Dabei sollen diese Informationen wahr sein, wobei dieser Begriff durch die Dimensionen Zuverlässigkeit, Gültigkeit und Objektivität operationalisiert wird. Der Informationsgrad ist der Anteil der tatsächlich verfügbaren Information an den vorhandenen oder notwendigen Informationen, also die Vollständigkeit. Je höher der Informationsgrad ist, desto besser sind die Voraussetzungen erfolgreicher Forschung. Der Informationsgrad ist optimal, wenn die Kosten der zusätzlichen

22

Kap. I: Grundlagen der modernen Marktforschung

Informationssammlung gleich hoch sind wie der daraus erwartete zusätzliche Nutzen. Messgrößen sind dabei die Vollständigkeit und Relevanz von Informationen. Die Realität der betrieblichen Entscheidung ist meist durch unvollkommene Information gekennzeichnet, d. h., der Informationsgrad ist 100.000) z = 95 % Konfidenzniveau = 1,96 (als Maß für die Ergebnissicherheit) P = 50 % Anteil an der Grundgesamtheit = 0,5 (wenn der Merkmalsanteil, wie zumeist, unbekannt ist) Q = (1 – P) = 1 − 0,5 = 0,5 e = +/− 10 % = 0,1 (gibt die Fehlermarge / Ergebnispräzision an) n = (1,962 × 0,5 × 0,5) : 0,12 = 0,96 : 0,01 = 96 Im Rechenbeispiel sind die Anforderungen schwach, bei einer Fehlerspanne (e)  von 3 % (= 0,03) und 99 % Konfidenzniveau (z = 2,58) sind schon 1.809 Fälle erforderlich. Sofern die Grundgesamtheitsumfang bekannt ist, verringert sich die Stichprobengröße, gleiches gilt, wenn der Merkmalsanteil in der Grundgesamtheit bekannt ist (dazu gibt es im Internet Rechner, z. B. von Questionstar/Qualtrics).

1.3 Offline-Teilerhebungen Teilerhebungen können offline oder online erfolgen. Bei beiden sind wiederum mehrere Verfahren möglich. Sie können außerdem auf zufälliger oder bewusster Auswahl der Erhebungseinheiten aus der Grundgesamtheit beruhen. Bei beiden sind verschiedene Verfahren anwendbar (siehe Abbildung 9: Auswahlverfahren) und zwar online / offline wie zufällig / bewusst. Im Folgenden werden zunächst nur die Offline-Auswahloptionen betrachtet.

50

Kap. II: Offline-Auswahlverfahren

systematisch

rein

geschichtet

Bewusste Auswahl

Sonderformen

Auswahl

Klumpen-/

Quotierung

typische

Konzentration

aufs Geratewohl

auswahl

Abbildung 9: Auswahlverfahren (eig. Darst.)

1.3.1 Zufallsauswahlverfahren Der Zufallsauswahl liegt das Prinzip zugrunde, dass jedes Element der Grundgesamtheit eine berechenbare und von Null verschiedene Chance haben soll, in eine Stichprobe einbezogen zu werden. Die Exaktheit der Aussage nimmt zwar mit zunehmender Varianz des interessierenden Merkmals in der Grundgesamtheit ab, jedoch mit zunehmender Stichprobengröße wieder zu. Insofern entstehen repräsentative Ergebnisse. Der Auswahlfehler kann statistisch berechnet und damit kontrolliert werden. Die Auswahl ist unabhängig von Ermessensentscheidungen der Forscher. Allerdings ist die Zufallsauswahl praktisch schwierig durchzuführen. Vor allem das Ersetzen von Ausfällen ist problematisch. Es ist eine längere Vorbereitung und Durchführung erforderlich, woraus höhere Kosten und eine geringere Aktualität folgen. Es gibt verschiedene Ausprägungen der Zufallsauswahl. Allen ist gemein, dass der Zufall bestimmt, welche Untersuchungseinheiten aus der Grundgesamtheit erhoben werden. 1.3.1.1 Reine Zufallsauswahl Die Reine (uneingeschränkte) Zufallsauswahl wird durch das Urnenmodell versinnbildlicht. Die Elemente der Stichprobe werden unmittelbar aus der Grundgesamtheit gezogen. Voraussetzung dafür ist, dass diese Grundgesamtheit zumindest symbolisch, z. B. in Form von Karteikarten, vollständig beim Auswahlprozess vorliegt, d. h. auf jedes Element beliebig zugegriffen werden kann, und dass diese so gut durchmischt ist, dass jedes Element wirklich die gleiche von Null verschiedene Chance hat, gezogen zu werden. Möglich ist das Auslosen / Auswürfeln nur bei vollständig vorliegender, durchnumerierter Grundgesamtheit (z. B. durch 10-seitigen AWF-Würfel). Dabei kann es sich um verbundene Stichprobenele-

1. Abdeckung der Grundgesamtheit

51

mente handeln, die ohne Zurücklegen sukzessiv aus der Grundgesamtheit gezogen werden oder um unabhängige Stichprobenelemente, die mit Zurücklegen simultan aus der Grundgesamtheit gezogen werden. In der Praxis scheitert die Durchführbarkeit der Reinen Zufallsauswahl zumeist am dafür zu betreibenden hohen Aufwand. Zu denken ist an unzureichendes statistisches Grundlagenmaterial, an die Größe der zu untersuchenden Grundgesamtheit und die Streuung ihrer Merkmale. Auch dürfen ausgewählte, aber nicht erreichte Erhebungseinheiten nicht mehr nachträglich ausgetauscht werden. Darunter leidet die Ausschöpfungsquote. Daher wird auf Verfahren der Systematischen Zufallsauswahl zurückgegriffen. Das bedeutet, dass die Auswahlchancen jedes Elements der Grundgesamtheit zwar nicht mehr gleich sind, wohl aber berechenbar, d. h., man kann den Grad der Repräsentanz messen. Vorteile der Reinen Zufallsauswahl liegen in der leichten statistischen Berechnung des Auswahlfehlers durch direkte Schätzung der Größen für die Grundgesamtheit aus den betreffenden Werten der Stichprobe. Dabei sind keine Informationen über Merkmale in der Grundgesamtheit erforderlich. Es kommt grundsätzlich zu repräsentativen Ergebnissen, da die Auswahl unabhängig von Ermessensentscheidungen der Interviewer ist. Dafür findet als Nachteil keine Anpassung des Auswahlverfahrens an den Untersuchungsgegenstand statt, und es können keine Extremgruppen berücksichtigt werden. Zudem ist der Ersatz von Ausfällen bei der Erhebung problematisch. Die schwierige Durchführung von Zufallsstichproben führt zu längerer Vorbereitung und Durchführung, zu höheren Kosten und zu geringerer Aktualität.

1.3.1.2 Systematische Zufallsauswahl Bei der Systematischen Zufallsauswahl gibt es mehrere Verfahren, denen gemein ist, dass ihnen ein Auswahlsystem zugrunde liegt, das sich nach der Anzahl für erforderlich gehaltener Fälle richtet. Dieses ersetzt das in der Praxis meist nicht realisierbare Urnenmodell. Vorauszusetzen ist jeweils, dass alle Elemente, die zur Grundgesamtheit gehören, anwählbar sind und alle anwählbaren Elemente zur Grundgesamtheit gehören. Bei den Verfahren handelt es sich dann um die Folgenden. Beim Schlussziffern-Verfahren werden alle Elemente der Grundgesamtheit durchnumeriert und jene Elemente als Stichprobe entnommen, die eine bestimmte, ausgewählte Endziffer aufweisen. Dies ist recht effizient, weil einfach durchführbar. Voraussetzung ist, dass die Schlussziffern keiner Systematik unterliegen Beim Zufallszahlen-Verfahren wird die vorliegende Grundgesamtheit ebenfalls durchnumeriert. Die auszuwählenden Nummern werden jedoch durch einen Zufallszahlen-Algorithmus (Zufallszahlentabelle / Zufallszahlengenerator) bestimmt. Dies kann zu einer gleichmäßigeren Verteilung führen.

52

Kap. II: Offline-Auswahlverfahren

Beim Anfangsbuchstaben-Verfahren wird die Stichprobe aus allen Elementen gebildet, deren (Nach-)Namen mit einem bestimmten Anfangsbuchstaben / einer Anfangsbuchstabenkombination beginnen. Dies gelingt nur, wenn die Anfangsbuchstaben keine Systematik aufweisen. Beim Zufallsstart-Verfahren wird innerhalb der katalogisierten Grundgesamtheit zunächst per Zufallsauswahl ein Startpunkt bestimmt und davon ausgehend durch Abzählen jedes x-te Element gezogen. Voraussetzung ist dabei, dass die Grundgesamtheit gut durchmischt vorliegt. Ansonsten entstehen systematische Verzerrungen. Beim Geburtsdatum-Verfahren werden aus der Grundgesamtheit all jene Elemente entnommen, die an einem bestimmten Datum (Tag oder Monat, nicht Jahr) geboren wurden oder z. B. im Haushalt als erste im Jahr, am Tag mit der niedrigsten Zahl, als letzte vor bzw. als nächste nach der Erhebung Geburtstag feiern. Beim Schweden-Schlüssel-Verfahren wird für jedes Interview durch Abzählen vorgegeben, die wievielte Person im Einzelnen zu erheben ist. Dies erfolgt z. B. durch Permutation der Ziffern 1 bis 3. Fraglich ist, nach welchem Prinzip die Personen angeordnet werden, also besser nicht nach Alter. Zur Beurteilung dieser Verfahren ist Folgendes zu sagen. Die Vorteile der Systematischen Zufallsauswahl liegen darin, dass dazu keine Kenntnis der Merkmalsstruktur in der Grundgesamtheit erforderlich ist. Verzerrungen durch unzureichende Auswahl treten daher nicht auf. Vor allem ist statistisch eine Fehlerwahrscheinlichkeit berechenbar. Das angewendete Auswahlverfahren kann an die Fragestellung der Untersuchung angepasst werden, wodurch sich sowohl eine Verringerung der Kosten ergibt wie auch eine Erhöhung der Aussagekraft. Nachteile liegen jedoch darin, dass die Grundgesamtheit vollständig vorliegen muss. Diese Voraussetzung lässt sich in der Praxis oft nicht erfüllen. Auch können Stichprobenelemente ohne Auskunft wegen Verweigerung, Nichterreichbarkeit etc. nicht durch andere, gleichartige Elemente ersetzt werden, da dann die Berechnung des Zufallsfehlers nicht mehr oder nur kompliziert möglich ist, da die Einheiten der Grundgesamtheit abweichende, aber immerhin bekannte Auswahlchancen aufweisen. Daher kommen andere Verfahren zum Einsatz.

1.3.1.3 Geschichtete Zufallsauswahl Bei der Geschichteten Zufallsauswahl (Stratified sampling) wird die Grundgesamtheit in mehrere Teilmassen zerlegt, aus denen jeweils die dann in die Stichprobe eingehenden Elemente unabhängig nach dem Prinzip der Reinen Zufallsauswahl gezogen werden. Es handelt sich also um ein sukzessives Vorgehen (siehe Abbildung 10: Prinzip der geschichteten Zufallsauswahl). Dies ist vor allem dann hilfreich, wenn die Grundgesamtheit zwar verschiedenartig (heterogen) ist, sich

1. Abdeckung der Grundgesamtheit

Struktur der Grundgesamtheit

möglichst homogene Schichtung der Elemente

53

Zufallswahl der Stichprobe aus jeder Schicht

Abbildung 10: Prinzip der geschichteten Zufallsauswahl (eig. Darst.)

aber anhand von Untersuchungsmerkmalen aus relativ gleichartigen (homogenen) Teilmassen zusammensetzen lässt. Die Schichtung bewirkt dann eine Reduzierung des Stichprobenfehlers und des Stichprobenumfangs, weil die Streuung (Varianz) zwischen den Schichten entfällt und innerhalb jeder Schicht sinkt. Voraussetzung ist dabei allerdings wieder, dass die Verteilung der interessierenden Merkmale bekannt ist. Allerdings kommt es umso eher zu einem Schichtungseffekt, je gleichartiger jede Schicht in sich und je verschiedenartiger sie zugleich von allen anderen Schichten ist. Mögliche Schichtungskriterien sind real leicht erhebbare Kriterien wie Beruf, Einkommen, Ausbildung, Vermögen, Abstammung, Macht, Interaktion etc. Die Schichtenbildung kann unterschiedlich vorgenommen werden: • Proportionale Schichtung bedeutet, dass jede Schicht in der Stichprobe exakt in ihrem Anteil an der Grundgesamtheit vertreten ist. Die jeweiligen Stichprobenwerte können damit linear aufaddiert werden. Dies ist die einfachste Vorgehensweise, leidet jedoch unter den Problemen hoher Merkmalsstreuung und Stichprobengröße. Insofern ist bei vorgegebenen Gütekriterien ein hoher Auswahlaufwand erforderlich. • Dysproportionale Schichtung bedeutet, dass die einzelnen Schichten je nachdem stärker oder schwächer als es ihrem Anteil an der Grundgesamtheit entspricht, in

54

Kap. II: Offline-Auswahlverfahren

Verkaufsin qm

ProportioAnzahl der nale Unterneh- Stichprobe men (in %) (in %)

über 1000

3,4

3,4

400–999

8,6

8,6

200–399

12,1

12,1

100–199

25,6

25,6

bis 99

50,3

50,3

Anteil am DysproporUmsatz tionale aller Unter- Stichprobe nehmen (in %) (in %)

28,0

28,0

35,6

35,6

14,8

14,8

12,9

12,9

8,7

8,7

Abbildung 11: Dysproportional geschichtete Stichprobe (Beispiel Handel)

der Stichprobe vertreten sind. Dies bietet sich an, wenn kleinen Schichten, z. B. bei Großbetriebsformen des Einzelhandels, hohe Bedeutung zukommt. Die Stichprobenwerte müssen dann mit dem umgekehrten Anteil ihrer Schicht gewichtet aufaddiert werden, damit es nachher zu keinen Auswertungsverzerrungen kommt (siehe Abbildung 11: Dysproportional geschichtete Stichprobe (Beispiel)). • Optimale Schichtung bedeutet, dass versucht wird, durch die Schichtung den Zufallsfehler für eine gegebene Stichprobengröße bzw. bei gegebenem Zufallsfehler die Stichprobengröße zu minimieren. Aus homogenen Teilmassen werden folglich kleinere, aus heterogenen größere Stichproben gezogen. Dies setzt freilich die Kenntnis der Merkmalsverteilung in den Schichten voraus, die aber oft erst erhoben werden soll und damit a priori unbekannt bleibt. Es sei denn, es wird ein anderes als das der Auswahl zugrunde liegende Merkmale erhoben. Zentraler Vorteil der Geschichteten Zufallsauswahl ist die Verringerung des Auswahlsatzes bei gleicher Genauigkeit der Ergebnisse durch die Erreichung homogener Teilgesamtheiten bzw. die Erhöhung der Genauigkeit bei gleichbleibendem Auswahlsatz. Allerdings müssen dafür aussagefähige Schichtungsmerkmale für die Grundgesamtheit erst einmal vorhanden und praktisch auch verfügbar sein.

1. Abdeckung der Grundgesamtheit

55

1.3.1.4 Klumpenauswahl / Flächenauswahl

(räumliche) Struktur der Grundgesamtheit

Bildung von (räumlichen) Klumpen

bewusste Auswahl eines Klumpen zur Vollerhebung

Abbildung 12: Prinzip der Klumpenauswahl (eig. Darst.)

Die Klumpenauswahl (Cluster sampling) ist ein hybrides Auswahlverfahren, d. h. eine Kombination aus Auswahl und Vollerfassung (siehe Abbildung 12: Prinzip der Klumpenauswahl). Dabei wird die Grundgesamtheit in gehäufte Teilmassen zerlegt, z. B. Betriebe, Haushalte, Vereine. Von diesen wird dann nach dem Zufallsprinzip eine bestimmte Anzahl zur Auswahl gezogen. Diese Klumpen werden einer Vollerhebung unterzogen, d. h., alle Elemente im Klumpen werden erhoben. Der Vorteil ist dabei, dass weder die Grundgesamtheit vollständig vorliegen, noch deren Struktur im Einzelnen bekannt sein muss. Die Auswahlbasis ist vergleichsweise einfach zu beschaffen und die klumpenweise Erfassung wenig aufwändig. Ein großer Nachteil liegt allerdings in der Gefahr von Klumpungseffekten. Diese treten immer dann auf, wenn ausgewählte Klumpen in sich zwar relativ gleichartig, gleichzeitig aber verschiedenartig von der Struktur der Grundgesamtheit sind. Dann kann von den Ergebnissen dieser Klumpen nicht auf die Verhältnisse in der Grundgesamtheit geschlossen werden. Außerdem ergeben sich Probleme, wenn ein Element mehreren Klumpen angehört oder Klumpen entgegen der Annahme in sich inhomogen sind. Bei der Flächenstichprobe (Area sampling), die im Kern eine räumlich strukturierte Unterform der Klumpenauswahl darstellt, werden die Klumpen geografisch

56

Kap. II: Offline-Auswahlverfahren

definiert, z. B. als Nielsen-Gebiete, Bezirke, Kreise, Gemeinden. Aus diesen Teilflächen werden dann die Stichprobenelemente bestimmt, die ihrerseits vollständig erhoben werden. Die relative räumliche Konzentration der Erhebungseinheiten senkt dabei die Kosten der Auswahl drastisch. Selbst wenn nur eine Landkarte oder ein Stadtplan vorhanden sind, kann damit noch eine Stichprobe bestimmt werden. Die Grundgesamtheit wird dabei in Teilflächen, also Planquadrate, Straßenzüge, Häuserblocks etc., aufgeteilt. Allerdings gelten die bereits bei der Klumpenauswahl erwähnten Nachteile, wie z. B. Auswahl eines Villenviertels als Erhebungscluster für eine Stadt.

1.3.1.5 Sonderformen der Zufallsauswahl Aufgrund unzureichenden statistischen Materials oder wegen der Größe und Streuung der zu untersuchenden Grundgesamtheit ist es häufig nicht möglich, die Stichprobenelemente unmittelbar mittels Zufallsauswahl zu bestimmen. Dann sind Sonderformen einzusetzen. Bei der mehrphasigen (sequenziellen) Auswahl werden mehrere Zufallsauswahlverfahren hintereinander geschaltet, die dem gleichen Auswahlprinzip folgen. Damit handelt es sich in der nachfolgenden Phase jeweils um eine Unterstichprobe der vorhergehenden. Entsprechend kann der Erhebungsaufwand in jeder Phase gestaffelt werden. Es muss nicht die Grundgesamtheit im Detail komplett vorliegen, sondern jeweils nur die Unterstichprobe, die zur weiteren Auswahl verwendet wird. Die Stichprobe wird vorher in ihrer Größe nicht definiert, sondern ergibt sich durch parallel anzusetzende Gütekriterien. Beim ADM-Master Sample (Arbeitsgemeinschaft deutscher Marktforscher) erfolgt in der ersten Stufe die Auswahl nach Wahlbezirken, Gemeindegliederung, in­ trakommunale Gebiete, Regionaleinteilung nach GPS (Area sampling). Die Grundgesamtheit bilden alle Personen, die in Privathaushalten in Deutschland leben. Daraus entstehen 53.000 Flächen mit 350–700 Privathaushalten. Daraus werden 128 Stichproben nach geschichteter Zufallsauswahl als Sampling points gezogen. Die Auswahlchance ist proportional zur Haushaltszahl dort. In der zweiten Stufe erfolgt eine uneingeschränkte Zufallsauswahl der zu erhebenden Haushalte in den gezogenen Sampling points. In der dritten Stufe schließlich werden die zu befragenden Personen in den gezogenen Haushalten systematisch zufallsausgewählt, etwa alle Haushaltsmitglieder, jede n-te Person im Haushalt, meist ein Mitglied je Haushalt etc. Die Musterstichprobe kann dabei im Baukastensystem verschiedenen Forschungsdesigns angepasst werden. Bei der mehrstufigen Auswahl (Multistage sampling) werden mehrere zufällige und bewusste Auswahlverfahren kombiniert eingesetzt. Jeweils wird aus der Grundgesamtheit eine systematisch ausgewählte Primärstichprobe gezogen, aus der dann wiederum Sekundäreinheiten systematisch, rein mehrstufig oder zufällig,

1. Abdeckung der Grundgesamtheit

57

kombiniert mehrstufig gezogen werden. Die Vorgehensweise ist also vertikal, im Unterschied zur geschichteten Auswahl. Beim Random route-Verfahren sind die Flächenstichprobe zur Bestimmung der Sampling points, die Systematische Zufallsauswahl zur Bestimmung der Haushalte und darauf folgend der Zielpersonen nacheinander geschaltet. Ausgangspunkt ist eine streng nach Zufall ausgewählte Startadresse, von wo aus Interviewer nach strikt vorgegebenen Regeln bezüglich Gehrichtung, Abständen, Stockwerken, Straßenseiten etc. einen stochastischen Auswahlprozess von Stichprobenelementen simulieren. Vorteile liegen in der räumlichen Konzentration der Erhebungsarbeit, den guten Kontrollmöglichkeiten und geringen Kosten. Nachteilig ist jedoch, dass kein Stichprobenfehler berechenbar ist und größere Stichprobenumfänge für eine gegebene Validität und Reliabilität erforderlich sind. Vorteilhaft bei der mehrstufigen Auswahl ist die Tatsache, dass die Grundgesamtheit nicht symbolisch repräsentiert sein muss. Auch sind Informationen über Merkmalsverteilungen in der Grundgesamtheit nicht erforderlich. Die Einbeziehung des Raumgebiets als Untersuchungskriterium ist darstellbar, etwa durch bewusste Klumpenbildung. Dies ermöglicht eine Zeit- und Kostenersparnis sowie eine bessere Intervierwerkontrolle. Bei der Auswahl nach dem Schneeballverfahren wird von einer Startadresse ausgehend jeweils die nächste Zieladresse nach einem Zufallsmechanismus bestimmt und so fort. Dadurch sollen Leerinterviews vermieden werden, z. B. bei Produkten mit niedrigem Marktanteil oder Erhebung von Bevölkerungsminderheiten, und Kostenvorteile entstehen. Es besteht jedoch die große Gefahr, dass der Stichprobenfehler ansteigt, weil Verzerrungen kumulieren. So führt eine untypische Startadresse häufig zu ebenso untypischen Folgeadressen. Bei der Auswahl mit ungleichen Wahrscheinlichkeiten haben größere Erhebungseinheiten eine höhere Chance, in die Stichprobe einzugehen als kleinere, z. B. erfolgt die Auswahl nach der Anzahl der im Haushalt lebenden Personen und nicht nach der Anzahl der Haushalte selbst. Damit wird dann womöglich in einem Mehrpersonenhaushalt mehr als eine Person erhoben, in einem Einpersonenhaushalt hingegen keine. Bei der Auswertung wird diese „Verzerrung“ dann wieder durch reziproke Gewichtung gegengerechnet. Bei der Auswahl mit Anordnung werden die infrage stehenden Elemente zunächst in Bezug auf bestimmte Merkmale sortiert und anschließend systematisch ausgewählt. Die Wirkung ist damit ähnlich einer Schichtung, jedoch ist vorher keine getrennte Gruppenbildung notwendig, wodurch Klumpungseffekte entfallen. Allerdings können auch keine unterschiedlichen Auswahlsätze realisiert werden.

58

Kap. II: Offline-Auswahlverfahren

1.3.2 Bewusstauswahlverfahren Bei der bewussten Auswahl handelt es sich um ein bei Teilerhebungen häufig angewendetes Auswahlverfahren, bei dem das Forschungsdesign darüber entscheidet, welche Einheiten der Grundgesamtheit in die Stichprobe gelangen und welche nicht, im Unterschied zur Zufallsauswahl, bei der die Wahrscheinlichkeit zählt. Abzugrenzen ist dabei besonders von der willkürlichen Auswahl. Die Bewusstauswahl bedingt einen vergleichsweise geringeren Zeitaufwand bei geringeren Kosten. Dennoch wird eine umfangreiche Informationssammlung über interessierende Fälle möglich. Allerdings ist keine statistische Kontrolle des Auswahlfehlers darstellbar. Dadurch ergibt sich nur eine unsichere Generalisierbarkeit der Ergebnisse. Das mit Abstand häufigste Verfahren der Bewusstauswahl ist das QuotaVerfahren. 1.3.2.1 Quota-Auswahl Dem Quota-Verfahren liegt der Gedanke zugrunde, dass, wenn die Verteilung aller Merkmalsausprägungen auf allen Merkmalsdimensionen einer Grundgesamtheit bekannt ist, es möglich wird, ein bewusstes, verkleinertes Modell dieser Grundgesamtheit zu erstellen. Das heißt, es kann eine Stichprobe entwickelt werden, die in allen untersuchungsrelevanten Merkmalen für die Grundgesamtheit repräsentativ ist. Die Verteilung dieser Merkmale nennt man Quoten. Diese Quoten kann man auf die Stichprobe übertragen. Dazu ist aber selten die Kenntnis aller Merkmale erforderlich, sondern nur der für die Untersuchung sachrelevanten. Beim Quota-Verfahren werden also einige offensichtliche Merkmale, deren Verteilung in der Grundgesamtheit bekannt ist und von denen man weiß oder annehmen kann, dass sie für das Untersuchungsziel relevant sind, als Auswahlkriterien für die Stichprobenbestimmung ausgewählt (siehe Abbildung 13: Prinzip der Quotaauswahl). Mit diesen Merkmalen wird ein Quotenplan erstellt, der die Quotenanweisung enthält. Innerhalb der vorgegebenen Quotierung ist es unerheblich, welches Element der Grundgesamtheit in die Stichprobe aufgenommen wird, solange es nur in seinen Merkmalen der Quotenanweisung entspricht, und in der Kumulation aller Erhebungseinheiten dabei der vorgegebene Quotenplan eingehalten wird. Das bedeutet aber, Marktforscher wählen ihre Auskunftspersonen nach Vorgabe selbst (bewusst) aus. In der Summe entsteht so bei sorgfältiger Durchführung eine Stichprobe, die zumindest, was die quotierten Merkmale anbelangt, exakt der Grundgesamtheit entspricht. Der Ablauf dieses, in der Praxis am häufigsten eingesetzten, Auswahlverfahrens bei der mündlichen Befragung ist folgender: • Festlegung der jeweils erhebungsrelevanten Merkmale wie Alter, Geschlecht, Wohngebiet, Beruf, dabei sind als realistische Begrenzung selten mehr als drei Merkmale zugleich kombinierbar,

1. Abdeckung der Grundgesamtheit

Struktur der Grundgesamtheit

Quotenanordnung aus der Grundgesamtheit

59

bewusste Auwahl (hier 50 %) aus der Stichprobe

Abbildung 13: Prinzip der Quotaauswahl (eig. Darst.)

• Festlegung der möglichen Ausprägungen der einzelnen Merkmale, z. B. beim Alter nach Altersklassen wie 16–25 J., 26–35 J., 36–45 J., 46–55 J., 56–65 J., über 65 J., • Ermittlung der relativen Häufigkeiten der verschiedenen Merkmalsausprägungen eines jeden relevanten Merkmals in der Grundgesamtheit, die dazu aus zuverlässigen Unterlagen heraus bekannt sein muss, • Vorgabe dieser objektiven und zugleich spezifischen Quoten für die Stichprobe als exaktes Abbild der Grundgesamtheit, • Auswahl der einzelnen Auskunftspersonen durch jeden einzelnen Interviewer, dem wiederum derart Quoten vorgegeben werden, dass in der Addition aller Interviews die Quotierung repräsentativ für die zugrunde liegende Grundgesamtheit ist (siehe Abbildung 14: Quotenanweisung (Beispiel)). Es sind zwei Formen der Quotierung zu unterscheiden. Bei unkorrelierten Quoten werden Merkmale vorgegeben, bei denen die Relationen einzeln erfüllt werden müssen. Dadurch bleiben dem Interviewer gegen Ende immer geringere Freiheitsgrade bei der Auswahl, weil erfahrungsgemäß zunächst die leicht zu kombinierenden Quotenmerkmale abgearbeitet werden. Darunter leidet die Stichprobenausschöpfung. Bei korrelierten Quoten werden bestimmte Merkmalskombinationen

60

Kap. II: Offline-Auswahlverfahren

Umfrage/Interviewer/Ausweis-Nr. Gesamtzahl der Interviews: 12 Fragebogen-Nummer: 438–449 Stadteil: Aasee

1 2 3 4 5 6 7 8 9 10 11 12

Stadteil: Biemer

1 2 3 4 5 6 7 8 9 10 11 12

16– unter 19 Jahre

1 2 3 4 5 6 7 8 9 10 11 12

20– unter 29 Jahre

1 2 3 4 5 6 7 8 9 10 11 12

30– unter 39 Jahre

1 2 3 4 5 6 7 8 9 10 11 12

40– unter 49 Jahre

1 2 3 4 5 6 7 8 9 10 11 12

50– unter 59 Jahre

1 2 3 4 5 6 7 8 9 10 11 12

60– unter 69 Jahre

1 2 3 4 5 6 7 8 9 10 11 12

70– unter 79 Jahre

1 2 3 4 5 6 7 8 9 10 11 12

80 Jahre und älter

1 2 3 4 5 6 7 8 9 10 11 12

männlich

1 2 3 4 5 6 7 8 9 10 11 12

weiblich

1 2 3 4 5 6 7 8 9 10 11 12

Arbeiter

1 2 3 4 5 6 7 8 9 10 11 12

Angest. / Beamte

1 2 3 4 5 6 7 8 9 10 11 12

Selbst. / Freiberufl. 1 2 3 4 5 6 7 8 9 10 11 12 nicht berufstätig

1 2 3 4 5 6 7 8 9 10 11 12

montags–freitags

1 2 3 4 5 6 7 8 9 10 11 12

samstags–sonntags 1 2 3 4 5 6 7 8 9 10 11 12

Abbildung 14: Quotenanweisung (Beispiel) (eig. Darst.)

fest kombiniert vorgegeben, zu denen Personen in entsprechender Anzahl erhoben werden sollen. Dies erschwert das Auffinden entsprechender Personen für die gesamte Erhebung, macht jedoch, zumindest theoretisch, eine vollständige Stichprobenausschöpfung möglich. Wesentliche Vorteile des Quota-Verfahrens sind folgende. Die Durchführung ist vergleichsweise kostengünstig. Dies ist Resultat der Erhebungsrationalisierung bei der Auswahl. Denn Interviewer wählen ihre Auskunftspersonen, im Rahmen der Quoten, selbst aus. Sie sind also nicht darauf angewiesen, vorgegebene Befragungspersonen ausfindig zu machen, sondern bestimmen diese selbst. Der Zeitaufwand zur Durchführung ist vergleichsweise gering, so dass eine schnelle Realisation möglich wird. Dies ist unmittelbare Konsequenz der Rationalisierung. Aus dem Zeitvorteil resultiert auch ein Kostenvorteil und damit insgesamt eine erhöhte Effizienz. Die Übereinstimmung zwischen Stichprobenmerkmalen und Grundgesamtheitsmerkmalen ist vollständig gegeben. Denn die Stichprobe ist als exaktes Abbild aus

1. Abdeckung der Grundgesamtheit

61

der Grundgesamtheit entwickelt worden. Allerdings kann fraglich bleiben, ob die zugrunde gelegten Merkmale zweckmäßig gewählt sind. Das Verfahren ist flexibel zu handhaben. So kann eine nachträgliche Anpassung der Stichprobe an die Grundgesamtheit durch Redressement erfolgen, d. h. unterschiedliche Gewichtung einzelner Quotenmerkmale. Allerdings handelt es sich dabei um künstliche, also so weder in der Stichprobe, noch der Grundgesamtheit vorhandene Fälle. Es kommt zu einer vollständigen Stichprobenausschöpfung, da die Auswahl solange fortgesetzt wird, bis die Stichprobengröße erreicht ist. Die Übereinstimmung zwischen Stichproben- und Grundgesamtheitsmerkmalen ist vollständig gegeben. Der Auswahlmechanismus ist unkompliziert. Insofern sind keine spezialisierten Interviewer erforderlich. Dies erhöht die Effizienz. Jedoch muss sichergestellt sein, dass bei den Quoten keine bewussten oder unbewussten Fehlzuordnungen vorgenommen werden. Der Ermessensspiel der Interviewer bei der Auswahl der Erhebungspersonen wird durch Vorgabe von Quoten eingeschränkt und kann daher nur begrenzt verzerrend wirken. Vorauszusetzen ist dabei, dass die Quotierungsmerkmale ursächlich für den interessierenden Sachverhalt sind. Es sind keine Wiederholungsbesuche von Stichprobenteilnehmern bei Nicht­ antreffen erforderlich. Vielmehr können stattdessen andere, quotenkonforme Einheiten erhoben werden. Auch dadurch wird eine höhere Effizienz erreicht, sofern sich erreichte und nicht-erreichte Personen nicht durch andere als die Quotenmerkmale unterscheiden. Die Anonymität der Auskunftsperson bleibt gewährleistet, falls dies gewünscht oder erforderlich ist. Denn sie muss nur hinsichtlich ihrer Quotenmerkmale identifizierbar sein. Dies erschwert zugleich die Kontrolle und damit die Qualitätssicherung von Erhebungen. Nachteile des Quota-Verfahrens sind hingegen folgende. Es ist keine umfassende, mathematisch fundierte Fehlerberechnung möglich, da keine Zufallsauswahl vorliegt. Auch die meisten statistischen Testverfahren sind demnach nicht anwendbar. Dies wird gelegentlich beim Einsatz elaborierter Analyseverfahren auf Basis der Quotaauswahl übersehen. Viele relevante Merkmale entziehen sich einer Quotierung, vor allem solche qualitativer Natur. So sind nur äußere, demografische Merkmale zur Quotierung geeignet, nicht jedoch Einstellungen, Meinungen, Motive etc., also theoretische Konstrukte. Der zugrunde gelegte Zusammenhang zwischen Untersuchungs- und Quotierungsmerkmalen kann täuschen. Um dies zu vermeiden, wäre bereits zu Beginn der Arbeit ein Wissensstand erforderlich, wie er eigentlich erst an dessen Ende bereitstehen kann.

62

Kap. II: Offline-Auswahlverfahren

Das der Quotenbildung zugrunde liegende Basisdatenmaterial kann fehlerhaft, vor allem veraltet, zu wenig detailliert, nicht richtig abgegrenzt etc., sein. Unzuverlässige Unterlagen führen aber zu unspezifischen Quoten und damit zu weitgehend wertlosen Ergebnissen. Die Quotierungsmerkmale haben häufig keinen kausalen Bezug zur Fragestellung, die erhoben werden soll, sondern weisen lediglich einen Zusammenhang auf, der aber nicht ausreichend ist, um daraus belastbare Aussagen abzuleiten. Die Kombination quotierbarer Merkmale ist aus Praktikabilitätsgründen begrenzt. Die Grenze wird hier bei max. fünf Merkmalsgruppen gesehen. Allerdings können sich auch bei weniger Merkmalen annähernd repräsentative Verhältnisse einstellen. Das Auffinden von zutreffenden Auskunftspersonen bei Restquoten wird immer schwieriger, da zuerst leicht erreichbare Merkmalskombinationen realisiert werden. So können gegen Ende Quotierungen durch Interviewer großzügig ausgelegt werden. Verzerrungen durch Ausfälle, Verweigerungen etc. bleiben unerkannt, da für diesen Fall quotenkonforme Ersatzelemente einspringen. Dies verursacht systematische Fehler, wenn Stichprobenausfälle nicht nur zufällig von den erhobenen Einheiten abweichen, was hochwahrscheinlich ist. Die willkürliche Bevorzugung bestimmter Auswahlelemente der Quotierung ist nicht ausgeschlossen, z. B. Freundeskreis, Parterrewohnungen, Heimatbezirk. Dies liegt gerade bei Zeit- und Wegeeinsparung nahe. Gleiches gilt für die Mehrfachbefragung gleicher Personen, obgleich dies in den Anweisungen ausgeschlossen wird. Es können keine hoch spezialisierten Themen erhoben werden, deren zugehörige Quotenmerkmale nicht offensichtlich sind. Dies schränkt die Anwendbarkeit der Quotaauswahl praktisch auf allgemeine Sachverhalte mit weithin unspezifischem Charakter ein. Die Erhebung leicht erreichbarer Personengruppen benachteiligt mobile Bevölkerungsschichten. Umgekehrt werden gut erreichbare Personenkreise überrepräsentiert. Dadurch kommt es zu Verzerrungen, da zwischen beiden systematische Abweichungen vermutet werden können. Es kommt zu einer subjektiven Vorauswahl von Auskunftspersonen, etwa infolge unbewusster Sympathien oder Antipathien auf Interviewerseite. Diese Filterung ist nicht erfassbar, nicht kontrollierbar und auch nicht vermeidbar. Abhilfe der genannten Nachteile wird durch mehrere Maßnahmen geschaffen: • Die Quotenmerkmale werden eng mit dem Untersuchungsgegenstand korreliert und zwingen den Interviewer aus seinem gewohnten Umfeld zur Vermeidung von Klumpungseffekten und Mehrfacherhebungen.

1. Abdeckung der Grundgesamtheit

63

• Es sollten keine speziellen Themen gegeben sein, die Interviewer dazu verleiten, sich an vermeintliche Experten zu wenden, oder sich selbst zu spezialisieren. Dies erfolgt meist in gutem Glauben an die werthaltigere Information dieser Personen. • Die Anzahl der Erhebungsaufträge je Interviewer wird eng begrenzt (max. 10). Insofern gleichen sich Verzerrungen und Fälschungen, von denen man getrost ausgehen muss, im Rahmen einer repräsentativen Erhebung gegenseitig aus. In der Praxis haben sich die Zufalls- und die Quota-Auswahl als gleichwertig hinsichtlich der Qualität ihrer Ergebnisse erwiesen. Diese schwanken eher mit der Professionalität der Untersuchungsanlage, -durchführung und -auswertung als mit dem zugrunde gelegten Auswahlverfahren. Dies wird auch sofort einsichtig, wenn man bedenkt, welche vielfältigen Fehlermöglichkeiten bei einer Erhebung insgesamt gegeben sind, so dass die Fehler, die aus dem Auswahlverfahren resultieren, anteilig im Verhältnis zu anderen gering bleiben.

1.3.2.2 Sonstige Verfahren der Bewusstauswahl Beim Konzentrationsverfahren (Cut off) wird eine Vollerhebung für solche Elemente der Grundgesamtheit vorgenommen, denen für den Untersuchungszweck besondere Bedeutung zukommt. Alle anderen werden hingegen vernachlässigt. Dies ist nur dann sinnvoll, wenn diese Elemente einen sehr hohen Erklärungsbeitrag für die zu untersuchenden Sachverhalte leisten, also ein starkes Ungleichgewicht der Elemente gegeben ist. So kann man sich in der Handelsforschung beim hohen Konzentrationsgrad sowohl auf der Lieferantenstufe als auch auf der Absatzmittlerstufe auf eine Erhebung der großen Markenartikler in der Industrie und der Großbetriebsformen des Handels beschränken und erhält dennoch alle relevanten Informationen, die zur Beurteilung der Situation im Absatzkanal erforderlich sind. So werden oft nur Fokus-Gruppen aus A-Kunden (Lead users) erhoben. Bei den Typischen Fällen werden nach Ermessen des Interviewers solche Elemente aus der Grundgesamtheit ausgewählt, die von ihm als charakteristisch erachtet werden. Es ist jedoch sehr gefährlich, von den derart erzielten Ergebnissen hochzurechnen, denn Fehlerquellen liegen nicht nur in der deutlichen, interindividuellen Abweichung darüber, was subjektiv als typisch anzusehen ist und was nicht, sondern auch in der unzulässigen Verallgemeinerung der Aussagen von diesen auf alle Fälle. In der Marketingpraxis liegt etwa dem „Office“-Test eine solche typische Auswahl zugrunde. Dabei werden im Rahmen von Meetings spontan unbeteiligte Mitarbeiter, meist Sekretärinnen, Assistenten oder eben Putzfrauen, daher die Abkürzung „Pufra-Test“, zu Entscheidungsobjekten befragt und von deren Aussagen unzulässige Verallgemeinerungen hinsichtlich der Zielgruppe gezogen. Ein völlig unsinniges Procedere, das dennoch immer wieder wider besseren Wissens angewandt wird.

64

Kap. II: Offline-Auswahlverfahren

Die Auswahl aufs Geratewohl, auch Willkürprinzip genannt, wird unter Laien oft als Verfahren der Zufallsauswahl betrachtet. Dazu werden zu gegebener Zeit in gegebenem Raum aufs Geratewohl, also nach freiem Ermessen, Auskunftseinheiten ausgewählt. Da jedoch nicht sichergestellt ist, dass alle Elemente der Grundgesamtheit eine von Null verschiedene Chance haben, in die Stichprobe einzugehen, handelt es sich dabei gerade nicht um eine zufällige, sondern vielmehr um eine willkürliche Auswahl. Diese lässt allen Freiraum für Verzerrungen. Eine Stichprobenauswahl aufs Geratewohl bürgt damit geradezu für unbrauchbare Ergebnisse. Diese sind etwa beim „Baggern“ von Probanden in der Fußgängerzone vor dem Teststudio gegeben, so dass bereits daran die Aussagefähigkeit ansonsten elaborierter Forschungsverfahren zu scheitern droht.

2. Deskriptive Datenanalyse Statistik befasst sich allgemein mit der Erfassung und Aufbereitung von Dateninformationen. Die Datenanalyse kann bei sorgfältiger Auslegung wertvolle Entscheidungshilfen bieten. Ein leichtfertiger Umgang führt jedoch geradewegs in die Irre. Dies gilt auch, wenn bereits die Eingangsdaten nicht stimmig sind (Garbage in – garbage out). Um zu einer aussagefähigen Interpretation erhobener Daten zu kommen, ist es für Forscher erforderlich, Strukturen in diesen Daten zu erkennen und substanziiert zu analysieren. Dafür werden elaborierte statistische Methoden eingesetzt, welche die Marktforschung begleiten und anreichern. Diese Rechnungen basieren auf anspruchsvollen theoretischen Grundlagen, so dass es hilfreich ist, sich mit den Basics dieser Methoden vertraut zu machen. Dies erfolgt in mehreren Kapiteln, beginnend mit diesem.

2.1 Statistische Ausgangsbasis Die Gesamtheit der Elemente, die unter einem zielgerichteten Aspekt gleichartig sind, nennt man statistische Masse. Statistische Massen (auch Gesamtheiten) sind präzise räumlich, zeitlich und sachlich abgegrenzt, also im Hinblick auf ein vorgegebenes Untersuchungsziel gleichartig, weil sie Träger von Informationen über den zu untersuchenden Tatbestand sind. Eine statistische Einheit ist dabei der einzelne Informationsträger, also der einzelne von mehreren Fällen, die in Bezug auf ein Untersuchungsziel gleichartig sind. Man unterscheidet Bestandsmassen und Bewegungsmassen, erstere sind zeitpunktdefiniert, letztere zeitraumdefiniert. Bestandsmassen werden in einem bestimmten Zeitpunkt, also zu einem Stichtag, erfasst. Ihre Elemente sind durch eine Zeitstrecke, die Dauer ihres Verweilens in der Masse, gekennzeichnet, so dass zu einem beliebigen Beobachtungszeitpunkt stets eine größere Anzahl von ihnen gleichzeitig vorhanden ist (z. B. Lagerbestand, Einwohnerzahl, Anbaufläche, jeweils zu einem Stichtag). Die Einheiten der Bewegungsmasse bestehen aus Ereignissen, die innerhalb eines Untersuchungszeitraums geschehen und denen ein bestimmter Zeitpunkt zugeordnet werden kann, bei denen Zu- und Abgänge Bestandsveränderungen bewirken (z. B. Lagerabgang, Geburtenzahl, Erntemenge, jeweils in einer Periode). Erstere unterteilen sich in geschlossene oder offene Massen, letztere in Zugangsmassen bei einer Bestandsmehrung oder Abgangsmassen bei einer Bestands­ minderung. Mit Hilfe von Bewegungsmassen ist eine zeitliche Fortschreibung von Bestandsmassen möglich. Bei stationären Massen sind die Zu- und Abgänge pro

66

Kap. II: Offline-Auswahlverfahren

Zeiteinheit gleich groß, im Gegensatz zu nichtstationären Massen. Die Bewegungsmasse beschreibt die Zu- und Abgänge der Bestandsmasse (z. B. Anfangsbestand + Zugänge – Abgänge = Endbestand). Die Einheiten der statistischen Masse sind Merkmalsträger, d. h. Objekte, deren Eigenschaften festgestellt werden sollen, also Personen, Ereignisse oder Gegenstände. Der oder die Einheiten der Untersuchung nennt man Merkmale. Merkmal ist ein Sammelbegriff für Eigenschaften, Verhaltensweisen, Charakteristika etc. Dabei sind nicht alle Merkmale interessant, sondern nur bestimmte, zu untersuchende. Solche wesentlichen Eigenschaften, die von einem bestimmten Erkenntnisziel her gesehen immer erfüllt sein müssen, heißen Definitionsmerkmale. Die Gesamtheit der Definitionsmerkmale legt einen Begriffsinhalt fest. Eigenschaften, die bei verschiedenen Elementen einer statistischen Masse in unterschiedlichen Merkmalsausprägungen auftreten können und in der Erhebung erfasst werden, heißen Untersuchungsmerkmale. Jedes Merkmal hat mindestens zwei Merkmalsausprägungen. Die Folge gleichartiger Merkmalswerte heißt Reihe. Bei kategorialen Reihen unterscheiden sich die Merkmalsträger hinsichtlich der räumlichen Abgrenzung oder der Modalitäten eines qualitativen Merkmals. Eine Zeitreihe ist eine chronologisch geordnete Folge von Beobachtungswerten. Eine Frequenzreihe zeigt an, wie oft bestimmte Merkmalsausprägungen eines quantitativen Merkmals beobachtet werden. Ein statistischer Parameter ist eine Zahl, welche die Eigenschaft besitzt, die charakteristische Struktur der statistischen Masse zu kennzeichnen. Klassen entstehen durch Unterteilung des Intervalls, innerhalb dessen alle Merkmalsausprägungen der Einheiten einer Masse liegen, in Teilintervalle. Quantitative Merkmalsausprägungen unterscheiden sich in ihrer Größe, sie lassen sich durch Zahlenangaben kennzeichnen. Sie werden durch Messungen oder Zählungen erfasst. Die sich dabei ergebenden Merkmale sind quantitativ / diskret, d. h. können nur bestimmten Zahlenwerten zugewiesen werden, oder quantitativ / stetig, d. h. können beliebige Zwischenwerte zwischen zwei Merkmalsausprägungen annehmen. Bei einem quantitativen Merkmal, dessen Modalitäten stets nur ganzzahlige Werte annehmen und durch einen Zählvorgang ermittelt werden können, handelt es sich also um ein diskontinuierliches, unstetiges Merkmal, bei einem solchen, bei dem innerhalb eines bestimmten Intervalls unendlich viele Modalitäten möglich sind, um ein kontinuierliches Merkmal. Dazwischen gibt es approximativ-stetige Merkmale mit begrenzt vielen Zwischenstufen. Qualitative Merkmalsausprägungen unterscheiden sich hinsichtlich ihrer Art, sie sind nur verbal zu umschreiben. Bei ihnen kann in Bezug auf verschiedene Merkmalsausprägungen nur Gleichheit oder Ungleichheit festgestellt werden. Man spricht auch von klassifikatorischen Merkmalen. Die Klassifikation erfolgt nach einem Merkmal (im Unterschied zur Typologisierung mit mehreren Merkmalen) bzw. als Zuordnung von Elementen nach gleichartigen Eigenschaften in Klassen.

2. Deskriptive Datenanalyse

67

Man unterscheidet dabei häufbare, multichotome und nichthäufbare, dichotome Merkmale, bei ersteren kann eine statistische Einheit gleichzeitig mehrere Ausprägungen besitzen, z. B. Beruf, Wohnsitz, Alter, bei letzteren hingegen nicht, es ist zur gleichen Zeit bei einer Einheit immer nur eine Erscheinungsform möglich (z. B. Geschlecht). Häufbare Merkmale lassen sich auf nicht-häufbare reduzieren. Aufgabe der Marktforschung ist zu weiten Teilen die Zuordnung von Zahlen und Symbolen zu Objekten. Dazu sind meist Massenerscheinungen nötig, um aus der zufälligen Unregelmäßigkeit der Einzelerhebung eine statistische Gesetzmäßigkeit zu ermitteln. Dies ist der Vorgang des Messens. Entscheidend dafür ist die Forderung, dass bestimmten Relationen zwischen den Objekten analoge Relationen zwischen den Zahlen entsprechen. Die Zuordnung darf nur nach genau festgelegten Regeln erfolgen, und zwar so, dass Validität, Reliabilität und Objektivität beachtet sind und Störeinflüsse vermieden werden. Je weniger dies gelingt, desto schlechter ist die Messung. Beim Messakt wird eine Fragestellung als Reiz vorgegeben und die Antwort als Reaktion darauf erhoben, wobei sich die Versuchsperson in einer bestimmten Situation befindet. Reiz, Erhebung und situativer Kontext treffen also zusammen. Werden Störeinflüsse kontrolliert, so erklärt sich die Reaktion der Versuchsperson aus genau diesen Bedingungen: • Werden der Versuchsperson verschiedene Reize dargeboten, so lassen sich Unterschiede in den gemessenen Reaktionen auf Unterschiede in diesen Reizen zurückführen als intraindividuelle Variation oder reizzentrierte Skalierung. • Werden die Reaktionen verschiedener Versuchspersonen auf ein und denselben Reiz gemessen, so lassen sich Unterschiede in den gemessenen Reaktionen auf die Organismusbedingungen zurückführen als interindividuelle Variation oder personenzentrierte Skalierung. • Werden die Unterschiede im Reaktionsmuster sowohl den unterschiedlichen Positionen der Messsubjekte auf dem latenten Kontinuum als auch den unterschiedlichen Messeigenschaften der verwendeten Items zugeschrieben, so handelt es sich um eine reaktionszentrierte Skalierung. Die Bearbeitung erfolgt in der Statistik. Man unterscheidet zwei Arten der Statistik, die deskriptive, beschreibende Statistik und die inferente, analytische (schließende) Statistik. Die deskriptive Statistik umfasst alle Verfahren, die sich mit der Aufbereitung und Auswertung der untersuchten Datenmenge befassen. Die inferente Statistik erlaubt Aussagen über die Verallgemeinerung von Stichprobenergebnissen für die Grundgesamtheit als Wahrscheinlichkeitsschlüsse. Der direkte Schluss (auch Inklusionsschluss, Umkehrschluss, Rückschluss) zielt dabei von der Grundgesamtheit auf die Stichprobe, d. h. auf die durch die Selektionierung zu beurteilenden Ergebnisse, der indirekte Schluss von der Stichprobe auf die Grundgesamtheit zur Projektion von dafür anzunehmenden Ergebnissen. Bei letzterem stellen sich zwei Probleme. Erstens das Schätzen der Parameter der

68

Kap. II: Offline-Auswahlverfahren

Grundgesamtheit und zweitens die Hypothesenprüfung über vermutete Gegebenheiten in der Grundgesamtheit. Die analytische Statistik arbeitet speziell strukturbeschreibend oder strukturentdeckend, die inferente Statistik bedient sich zur Überprüfung von Hypothesen des indirekten Schlusses, die deskriptive Statistik befasst sich mit der Zusammenfassung, Darstellung und Beschreibung rechenbarer Phänomene auf Basis eines direkten Schlusses (siehe Abb. 15: Alternativen der Datenanalyse).

deskrptive (beschreibende) Datenanalyse

indirekter/induktiver

de) Datenanalyse

direkter/deduktiver Schluss (Auswahl)

Grundgesamtheit

Stichprobe

Abbildung 15: Alternativen der Datenanalyse

2.2 Statistische Beurteilung 2.2.1 Wahrscheinlichkeiten Ausgangspunkt der Wahrscheinlichkeitsrechnung ist das Zufallsexperiment. Darunter versteht man einen Vorgang, der beliebig oft unter gleichen Versuchsbedingungen wiederholt werden kann, nach bestimmten Regeln durchgeführt wird und dessen Ergebnis im Vorhinein nicht eindeutig bestimmt werden kann, da es zufällig ist. Ein Zufallsereignis ist daher ein Ereignis, das bei einem unter bestimmten Bedingungen durchgeführten Versuch eintreten kann, aber nicht notwendigerweise auch eintreten muss. Es lassen sich jedoch Erwartungen für das Eintreten bestimmen und quantifizieren. Diese Erwartungen heißen Wahrscheinlichkeiten. Wahrscheinlichkeit ist allgemein die Anzahl günstiger Fälle in Relation zur Anzahl möglicher Fälle für ein Ereignis. Der Wahrscheinlichkeitsbegriff kann axiomatisch oder statistisch interpretiert werden. Der axiomatische Wahrscheinlichkeitsbegriff ist durch ein System von Grundsätzen, die keines weiteren Beweises bedürfen, gekennzeichnet. Danach ist jedem Zufallsereignis durch eine Funktion eine eindeutig bestimmte, reelle Zahl zugeordnet, die zwischen Null und Eins liegt. Die Wahrscheinlichkeit eines sicheren

2. Deskriptive Datenanalyse

69

Ereignisses ist = 1, die eines unmöglichen Ereignisses = 0, alle anderen Wahrscheinlichkeiten liegen dazwischen. Schließen sich zwei Zufallsereignisse gegenseitig aus, so ist die Wahrscheinlichkeit, dass entweder das eine oder das andere Ereignis eintritt, gleich der Summe der ihnen zugeordneten Einzelwahrscheinlichkeiten (Additionssatz). Das heißt, die Wahrscheinlichkeit für ein vereinigtes Ereignis, das im Eintreffen des einen oder des anderen einer Reihe sich gegenseitig ausschließender Ereignisse besteht, ist gleich der Summe der Wahrscheinlichkeiten dieser Einzelereignisse (OderSatz). Schließen sich zwei Zufallsereignisse nicht gegenseitig aus, so ist von dieser Summe noch die Schnittmenge überlappender Wahrscheinlichkeiten abzuziehen. Stehen zwei Zufallsereignisse in einem komplementären Verhältnis zueinander und schließen einander aus, so ist die Wahrscheinlichkeit, dass sie unabhängig voneinander zugleich eintreten, gleich dem Produkt ihrer Einzelwahrscheinlichkeiten (Multiplikationssatz). Das heißt, die Wahrscheinlichkeit für ein zusammengesetztes Ereignis, das im Eintreffen zweier oder mehrerer voneinander unabhängiger Ereignisse besteht, ist gleich dem Produkt der Wahrscheinlichkeiten für die einzelnen Ereignisse (Und-Satz). Schließen Zufallsereignisse einander nicht aus, so besteht das Produkt aus der Einzelwahrscheinlichkeit für das Ereignis A und der bedingten Wahrscheinlichkeit für das Ereignis B unter der Bedingung, dass A bereits eingetreten ist. Subjektive Wahrscheinlichkeiten beziehen sich auf personenbezogene Glaubwürdigkeitsschätzungen für das Eintreten bestimmter Ereignisse. Dabei kann eine Wahrscheinlichkeitsverteilung unterstellt oder ohne diese Vorgabe ermittelt werden. Ist keine Verteilung vorgegeben, erfolgt die Messung durch direkte oder indirekte Methoden. Bei der direkten Messung werden Personen unmittelbar nach Eintrittswahrscheinlichkeiten möglicher, sich gegenseitig ausschließender Ereignisse erhoben. Dabei können Antworthilfsmittel beigegeben werden (z. B. Skalen). Ähnlich können auch Wahrscheinlichkeitsrelationen von Ereignispaaren erhoben werden. Bei der indirekten Messung wird die Erhebungsperson vor eine Entscheidungssituation bei mehrwertigen Erwartungen gestellt, aus ihrem Entscheidungsverhalten wird auf die zugrunde liegenden Wahrscheinlichkeitsurteile über das Eintreten relevanter Umweltzustände geschlossen. Bei der objektiven Wahrscheinlichkeit unterscheidet man die logische Wahrscheinlichkeit und Grenzwerte der relativen Häufigkeit. Die logische Wahrscheinlichkeit ist mathematisch begründet und beruht auf Elementarereignissen. Dies sind nicht weiter zerlegbare, sich gegenseitig ausschließende Ergebnisse. Entsprechend lässt sich die Eintrittswahrscheinlichkeit eines Ereignisses als Verhältnis der Anzahl der darin enthaltenen günstigen zur Gesamtzahl aller möglichen Elementarereignisse ausweisen. Vorausgesetzt wird dabei das gleich mögliche Auftreten jedes Elementarereignisses. Dies ist jedoch dann nicht mehr gegeben, wenn eine Risikosituation vorliegt.

70

Kap. II: Offline-Auswahlverfahren

Ausgangspunkt für Grenzwerte relativer Häufigkeit ist ein Zufallsexperiment, das unter identischen Bedingungen häufig wiederholt wird. Dabei werden die relativen Häufigkeiten ermittelt, mit denen einzelne Ereignisse auftreten. Diese konvergieren jeweils auf einen Grenzwert zu. Das heißt, bei genügend großer Fallzahl verteilen sich die Mittelwerte gezogener Stichproben normal. Sind identische Bedingungen hingegen nicht gegeben, wie das im Marketing häufig vorkommt, oder sind Situationen sogar einmalig, ist dieser Ansatz nicht anwendbar. Der statistische Wahrscheinlichkeitsbegriff geht von einem Zufallsexperiment aus, das aus einer Vielzahl voneinander unabhängiger Versuche unter ansonsten identischen Bedingungen besteht. Dabei werden die relativen Häufigkeiten ermittelt, mit denen einzelne Ereignisse auftreten. Die Ergebnisse konvergieren jeweils auf einen Grenzwert zu. Das heißt, bei genügend großer Fallzahl verteilen sich die Mittelwerte gezogener Stichproben normal. Die Summe der relativen Häufigkeiten ist immer = 1, daher ist auch die Summe aller Wahrscheinlichkeiten = 1. Ist eine Verteilung vorgegeben, wird die Gesamtheit der Wahrscheinlichkeiten für die einzelnen Werte einer Zufallsvariablen auf Basis von Zufallsexperimenten angegeben. Die Menge der Werte, die eine Zufallsvariable annehmen kann, wird als Wertebereich bezeichnet. Diskrete Variable lassen sich grafisch durch Linien / Stäbe darstellen, die einzelnen Werten zugeordnet sind. Bei stetigen Variablen liegen diese Stäbe so dicht beieinander, dass ihr Abstand = 0 ist. Verbindet man ihre oberen Endpunkte durch eine Linie / Kurve, so entsteht eine Wahrscheinlichkeitsverteilung (= Dichtefunktion). Wahrscheinlichkeiten sind dann als Flächen unter der Dichtefunktion interpretierbar. Für die Darstellung einer stetigen Verteilung (z. B. Gleichverteilung) gilt die Verteilungsfunktion als Summenkurve bzw. die Dichtefunktion als deren erste Ableitung.

2.2.2 Verteilungen Den Wert, den die Zufallsvariable durchschnittlich annimmt, nennt man Erwartungswert. Damit ist aber nur eine Dimension, die Lokalisation, definiert. Eine notwendige andere Dimension, die Dispersion, ist die Streuung der Werte einer Zufallsvariablen um diesen Erwartungswert. Die Wahrscheinlichkeitsverteilung für diskrete Zufallsvariable repräsentiert die Binomialverteilung bzw. hypergeometrische Verteilung, die für stetige Zufallsvariable die Normalverteilung. Die Binomialverteilung wird meist durch das Urnenmodell „mit Zurücklegen“ für nominal skalierte Daten als homograder (qualitativer) Fall symbolisiert und gilt für diskrete Zufallsvariable, die sich auf zwei einander ausschließende Merkmale / Merkmalsgruppen beziehen, deren Anteil am gesuchten Merkmalsträger in der Grundgesamtheit bekannt ist. Eine statistische Einheit ist somit mehrfach in der Stichprobe enthalten. Dabei hat die Grundgesamtheit jeweils die gleiche Zusammensetzung vor jeder Zufallsauswahl. Aufeinander folgende Ziehungen sind

71

2. Deskriptive Datenanalyse

0.12

0.1

0.08

0.06

0.04

0.02

0

20

25

30

35

40

45

50

55

60

Abbildung 16: Binomialverteilung (Quelle: austromath.at/daten/maxima/statistik/c_binomial.htm)

voneinander unabhängig, und die Wahrscheinlichkeit für eine bestimmte Zufallsvariable verändert sich nicht. Bei großer Fallzahl nähert sich die Binomial- der Normalverteilungskurve an (siehe Abbildung 16: Bionomialverteilung). Ist bei sehr hoher Anzahl von Elementarereignissen die Wahrscheinlichkeit für Ereignisse sehr gering, wird die Poisson-Verteilung zugrunde gelegt. Auch diese nähert sich mit steigender Grundgesamtheit der Normalverteilung an (siehe Abbildung 17: Poisson-Verteilung). μ=1

μ=3 μ=5 μ = 7,5 μ = 10

Abbildung 17: Poisson-Verteilung (Quelle: researchgate.net/figure/Abbildung-5-11-Grafische-Darstellung-der-gewichtetenPoisson-Verteilung-fuer-verschiedene_fig10_29747451)

72

Kap. II: Offline-Auswahlverfahren

Werden einmal angewählte Einheiten nicht „zurückgelegt“, wird eine hypergeometrische Verteilung zugrunde gelegt, sie gilt für diskrete Verteilungen im homograden Fall mit drei Parametern und einer endlichen Gesamtheit (siehe Abbildung 18: Hypergeometrische Verteilung). Dies ist praktisch häufig gegeben. Die Zusammensetzung der Grundgesamtheit ändert sich dann mit jeder weiteren Entnahme einer Einheit, damit auch deren Ziehungswahrscheinlichkeit, es besteht eine stochastische Abhängigkeit der Versuche. Die Ziehungen sind voneinander abhängig. Bei großem Umfang der Grundgesamtheit und kleinem Auswahlsatz geht die hypergeometrische in die Normalverteilung über. Hypergeometric distribution m=60 k=30 n=30

0.22

Sample Theory

0.2 0.18 0.16 0.14 0.12 0.1 0.08 0.06 0.04 0.02 0

0

5

10

15

20

25

30

35

Abbildung 18: Hypergeometrische Verteilung (Quelle: mql5.com/de/docs/standardlibrary/mathematics/stat/hypergeometric)

Dabei können aus einer Grundgesamtheit jeweils mehrere, verschiedene Stichproben gezogen werden. Die Verteilung des Mittelwerts aller möglichen Stichproben nähert sich mit wachsender Zahl der Ziehungsmöglichkeiten einer Normalverteilung an. Die Normalverteilung approximiert andere Verteilungen hinreichend gut umso genauer, je größer die Fallzahl ist (= zentrales Grenzwertgesetz), d. h., der Mittelwert der Stichprobenverteilung des arithmetischen Mittels stimmt dann mit dem der Grundgesamtheit überein. Die Standardabweichung der Stichprobenverteilung des arithmetischen Mittels ist bei kleinen Auswahlsätzen unter 5 % gleich dem Standardfehler des arithmetischen Mittels, da der Korrekturfaktor nahe 1 liegt und vernachlässigt werden kann. Der Standardfehler ist die Quadratwurzel der Varianz, er wird mit zunehmendem Stichprobenumfang immer geringer. Insofern ist die Normalverteilung der Stichprobenverteilung unabhängig von der Grundgesamtheitsverteilung. Die Normalverteilung ist durch die Parameter Mittelwert als Lage der Verteilung und Standardabweichung als Streuung der Werte charakterisiert. Zieht man anstelle aller möglichen Stichproben nur eine, so kann über diese Werte berechnet werden, mit welcher Wahrscheinlichkeit der Stichprobenkennwert in einem be-

2. Deskriptive Datenanalyse

73

stimmten Intervall um den wahren Wert streut, dies entspricht dem indirekten Ansatz. Bei der Normalverteilung werden also nicht mehr die Wahrscheinlichkeiten für einzelne Werte der Zufallsvariablen berechnet, sondern die Wahrscheinlichkeiten für die Differenzen zwischen dem Mittelwert der tatsächlichen Fallzahl und dem der theoretischen Normalverteilung. Die Fläche unter der Normalverteilung entspricht der Gesamtwahrscheinlichkeit = 1. Verschiedene Normalverteilungen lassen sich durch Transformation der Variablenwerte auf eine einheitliche Funktion bringen, die Standard-Normalverteilung. Sie ist durch einen Mittelwert = 0 und eine Standardabweichung = 1 normiert, weiterhin durch Modus und 5 % bzw. 95 %-Quantile (= Gauß’sche Glockenkurve). Dies betrifft folgende Eigenschaften: • Das Maximum der Dichtefunktion liegt in deren Mittelwert. Arithmetisches Mittel, Modus und Median fallen zusammen. Die Wahrscheinlichkeitsdichte ist umso kleiner, je größer die Abweichung vom Mittelwert ist. Die Kurve verläuft symmetrisch zum Lot im arithmetischen Mittel. Der Flächeninhalt unter der Kurve ist stets = 1.

Abbildung 19: Gauß’sche Normalverteilung N

Die Darstellung erfolgt meist in einem Koordinatensystem mit den Werten auf der Abszisse und deren Wahrscheinlichkeiten auf der Ordinate. Die Normalverteilung ist stetig, symmetrisch und eingipflig. Im Bereich der Standardabweichung (Sigma / σ) • +/− 1 σ liegen 68,27 %, +/− 1,96 σ liegen 95 %, +/− 2 σ liegen 95,45 %, +/− 2,58 σ liegen 99 %, +/− 3 σ liegen 99,73 % der Fälle (siehe Abbildung 19: Gauß’sche Normalverteilung N). Die Güte einer Stichprobe wird nicht von der Relation Stichprobe zu Grundgesamtheit bestimmt, sondern von ihrem absoluten Umfang. Sie nimmt nicht proportional zu ihrem Umfang zu, sondern nur mit der Quadratwurzel. Aus der Grundgesamtheit wird

74

Kap. II: Offline-Auswahlverfahren

nach den Regeln des mathematischen Zufalls eine Stichprobe gezogen. Diese gibt innerhalb eines gewissen Vertrauensintervalls mit einem bestimmten Sicherheitsgrad die Merkmalsverteilung in der Grundgesamtheit wieder. Die kumulierte Normalverteilung wird zur Exponenzialfunktion (Sättigungsfunktion). Alternativ sind auch die logistische Funktion oder die Gompertz-Funktion einsetzbar.

2.3 Stichprobengüte Für die Bestimmung der Stichprobengüte ist entscheidend, welchen statistischen Fehler man akzeptiert, d. h. wie genau die Ergebnisse sein sollen, und mit welcher Irrtumswahrscheinlichkeit diese Aussagen gemacht werden sollen. Eine Stichprobe kann umso besser die Struktur der Grundgesamtheit widerspiegeln, je größer ihr Umfang ist. Die optimale Stichprobengröße hängt vom geforderten Sicherheitsgrad des Stichprobenergebnisses, vom Fehlerintervall und von der Varianz der Einzelwerte ab. Der Sicherheitsgrad gibt an, mit welcher Wahrscheinlichkeit erwartet werden kann, dass ein Ergebnis zutrifft, wie hoch also der maximal als vertretbar angesehene Fehler ist. Das Fehlerintervall gibt an, innerhalb welcher Bandbreite ein Ergebnis bei der ausgewiesenen Wahrscheinlichkeit erwartet werden kann, wie hoch also die Schätzsicherheit ist. Und die Varianz gibt an, wie weit Einzelwerte um ihren Mittelwert streuen, dies erfordert eine hinreichend begründbare Schätzung der Standardabweichung. Die Verteilung der unabhängigen, beliebig aber gleich verteilten Zufallsvariablen strebt der Normalverteilung entgegen. Die relative Häufigkeit eines Ereignisses nähert sich also der Wahrscheinlichkeit für dessen Eintritt, je häufiger ein Versuch durchgeführt wird. Mit zunehmender Stichprobengröße sinkt also die Wahrscheinlichkeit einer Abweichung der beobachteten relativen Häufigkeiten von deren erwarteter Wahrscheinlichkeit. Nur bei zufallsgesteuerten Auswahlverfahren ist ein Repräsentationsschluss von der Stichprobe auf die dahinter stehende Grundgesamtheit möglich, indem von den aus der Stichprobe ermittelten Ergebnissen auf die unbekannten Parameter der Grundgesamtheit geschlossen und dafür eine Fehlergrenze angegeben wird. Infolge des Zufallsfehlers ist lediglich eine Intervall-, nicht jedoch eine Punktschätzung möglich. Ein solches Vertrauensintervall enthält zwei Elemente, das Intervall selbst als Fehlerspanne und den Konfidenzgrad als Wahrscheinlichkeitsangabe. Ist der Stichprobenumfang so groß, dass die Anzahl aller möglichen Stichproben hoch ist, näher sich die Stichprobenverteilung einer Normalverteilung an. Bei kleinen Stichproben, höchstens unter 100 Fälle, liegt eine t-Verteilung vor. Eine Stichprobe muss umso größer sein, je höher die Wahrscheinlichkeit angesetzt wird, mit der ein Ergebnis erwartet werden kann, je geringer die Bandbreite

2. Deskriptive Datenanalyse

75

angesetzt wird, innerhalb derer das Ergebnis schwanken darf und je höher die Varianz bereits in den Ursprungswerten ist. Umgekehrt kann eine Stichprobe umso kleiner sein, je geringer der Sicherheitsgrad und je höher das Feh­lerintervall angesetzt werden sowie je geringer die Varianz in der Grundgesamtheit ist. Eine solche Aussage kann beispielsweise sein, dass mit einer Wahrscheinlichkeit von 95 % die tatsächlichen durchschnittlichen Ausgaben eines Kunden im Geschäft für Heimwerkergeräte zwischen 95 und 105 € liegen. Damit handelt es sich um die Angabe des Prozentanteils der Fälle, in denen der unbekannte wahre Wert der Grundgesamtheit vom Vertrauensintervall umschlossen wird. Dabei stellt sich nun die Frage, wie groß eine Stichprobe sein sollte, d. h. wie viele Elemente sie enthalten sollte, um bestimmte Aussagen zuzulassen. Die Güte einer Stichprobe ist dabei vom Umfang der Grundgesamtheit weitgehend unabhängig, wenn die Grundgesamtheit groß genug ist (> 2.000 Elemente). Die Güte wird dann nicht mehr von der Relation der Stichprobe zur Grundgesamtheit, sondern nur von ihrem absoluten Umfang bestimmt. Jede Fehlerberechnung bezieht sich immer auf das Gesamtergebnis. Sollen verschiedene Untergruppen analysiert werden, so bestimmen die Anforderungen an die kleinste der zu analysierenden Untergruppen den gesamten Stichprobenumfang. Werden mehrere Merkmale zugrunde gelegt, bestimmt das am ungünstigsten verteilte Merkmal die Größe der gesamten Stichprobe. Die Stichprobengröße verändert sich umgekehrt proportional zum Quadrat der Fehlerspanne, d. h., eine Erhöhung des Sicherheitsgrads oder eine Senkung des Fehlerintervalls erfordert eine weit überproportionale Erhöhung des Stichprobenumfangs. Diese Brutto-Stichprobe entspricht jedoch nicht der auswertbaren Netto-Stichprobe. Dies ergibt sich als Ausschöpfungsquote vielmehr in Relation zur Bruttostichprobe nach Abzug der unechten, stichprobenneutralen Ausfälle und der echten, nicht-neutralen Ausfälle von der Bruttostichprobe. Diese Abzüge ergeben gemeinsam die Ausfallquote in Relation zur Bruttostichprobe. Die Ausschöpfung ergibt sich am Beispiel einer Befragung wie folgt (siehe Abbildung 20: RandomStichprobenausschöpfung (Beispiel)): • Ausgangspunkt ist die Gesamtheit der Erhebungsadressen, davon fallen die ungültigen Adressen aus, es bleiben die gültigen Adressen. • Davon fallen die nicht-ansprechbaren Einheiten wegen Krankheit, Behinderung etc. aus, es bleiben die ansprechbaren Adressen. • Davon fallen die abwesenden oder nicht-kontaktierbaren Personen aus. Gründe für Nichtanwesenheit sind Dienstreise, Urlaub, auswärtige Tätigkeit, Kur etc., für Nichtkontaktierbarkeit durch Türsicherung, Pförtner, Wachhund, Sicherheitsbedenken etc., es bleiben die anwesenden, ansprechbaren Adressen. • Davon fallen die bewussten Antwortverweigerungen der Auskunftspersonen aus.

76

Kap. II: Offline-Auswahlverfahren

• Nur der verbleibende Rest stellt die Netto-Stichprobe dar. Aussagen können sich immer nur auf diese Anzahl tatsächlich durchgeführter Interviews beziehen. Daher ist bei der Erhebung eine Reserve für mögliche Ausfälle zu berücksichtigen.

davon – trotz mehrmaligen Besuchs Haushalt verreist Bruttozahl der Adressen:

15.010 (100 %)

– Haushalt verweigert Auskunft

621

(4,2 %)

1.153

(7,8 %)

– Zielperson trotz mehrmaligen davon – Straße/Haus-Nr. – Wohnung unbekannt

0 (2,0 %) 2 (0,0 %)

– keine Person der Grundgesamtheit im Haushalt 75 (0,5 %) nicht bearbeitete Adressen bereinigte Adressen

228 (1,3 %)

– Zielperson verreist/Urlaub

101 (0,7 %)

– Zielperson ist krank/nicht in der Lage, dem Interview zu folgen

130

– Zielperson verweigert Auskunft

(0,9 %)

1.183 (8,0 %)

– Zielperson verweigert schriftliches Interview

40

(0,3 %)

nicht auswertbare Interviews

42

(0,3 %)

14.705 (100 %)

ausgewertete Interviews

11.063 (75,2 %)

Abbildung 20: Random-Stichprobenausschöpfung (Beispiel)

Unter Hochrechnung versteht man die Projektion von den Stichprobenergebnissen auf die Grundgesamtheit. Die Stichprobenbildung hat zu einem Miniaturabbild der Grundgesamtheit geführt, die Hochrechnung stellt nun eine Wiederanpassung der Stichprobenergebnisse an die Grundgesamtheit dar. Bei der uneingeschränkten Zufallsauswahl ist eine Hochrechnung nicht erforderlich, weil von den Anteils- und Mittelwerten der Stichprobe direkt auf die der Grundgesamtheit hochgerechnet werden kann. Man unterscheidet zwischen freier und gebundener Hochrechnung. Die freie Hochrechnung bedient sich nur der Informationen aus der Stichprobe selbst. Die gebundene Hochrechnung bezieht weitere Informationen ein und zwar Basiswerte früherer Perioden mittels Differenzenschätzung, Verhältnisschätzung oder Regressionsschätzung. Oft ist vor der Hochrechnung eine Umgewichtung (Transformation), etwa bei eingeschränkter Zufalls- oder bewusster Auswahl oder Neugewichtung erforder-

2. Deskriptive Datenanalyse

77

lich. Dies ist auch bei Stichprobenausfällen nötig. Diese können neutral sein, d. h. solche Fälle betreffen, die nicht zur Grundgesamtheit gehören, oder aber nicht neutral sein, d. h. Fälle von Antwortverweigerung betreffen. Neutrale Fälle werden durch Redressement bereinigt. Dafür ergeben sich zwei Möglichkeiten: • Doppeln oder Streichen bedeutet, dass zufällig herausgegriffene, untererfasste Elemente in der Stichprobe entsprechend vermehrt werden, während zufällig herausgegriffene übererfasste Elemente weggestrichen werden. Dabei wird allerdings die Fallzahl um künstliche Fälle verändert. • Faktoriell bedeutet, dass die Werte der über- bzw. untererfassten Elemente in der Stichprobe durch Multiplikation mit einem jeweiligen Veränderungssatz angepasst werden. Dadurch bleibt die absolute Fallzahl unverändert, aber die Struktur wird der Realität angepasst. Der Projektionsfaktor gibt die erforderliche Auswahlquote an: =

Anzahl aller relevanten Einheiten in der Grundgesamtheit Anzahl der Erhebungseinheiten in der Stichprobe

Je größer die Stichprobe in Relation zur Grundgesamtheit ist, desto gültiger sind die Aussagen und desto zuverlässiger kann auf die Aussage projiziert werden, die, wäre die Grundgesamtheit anstelle der Stichprobe erhoben worden, sich dort ergeben hätte, zugleich sind aber auch die Kosten umso höher. Der Projektionsfaktor liegt zwischen 1 und ∞, er ist = 1, wenn es sich um eine Vollerhebung handelt. Realistisch sind Projektionsfaktoren in der Größenordnung von mindestens 1 : 3.000, d. h., eine Erhebungsperson steht stellvertretend für 3.000 andere, nicht erhobene Personen.

2.4 Wahrheitsgehalt von Informationen 2.4.1 Reliabilität Die Güte der gewonnenen Informationen kann anhand von mindestens vier Parametern beurteilt werden, der Reliabilität, der Validität, der Objektivität und der Signifikanz. Diese Kriterien sind eng miteinander verknüpft. So ist Signifikanz Voraussetzung für Objektivität, Objektivität ist Voraussetzung für Reliabilität, und diese ist wiederum Voraussetzung für Validität. Innerhalb der Validität ist interne Validität dann noch Voraussetzung für externe Validität (siehe Abbildung 21: Prüfung der Informationswahrheit). Unter Reliabilität versteht man den Grad der formalen Genauigkeit, mit der ein bestimmtes Merkmal gemessen wird, unabhängig davon, ob dieses Merkmal auch tatsächlich gemessen werden soll. Ein Messinstrument ist unter der Voraussetzung konstanter Messbedingungen reliabel, wenn die Messwerte stabil, d. h. bei wiederholter Messung reproduzierbar sind.

78

Kap. II: Offline-Auswahlverfahren

Zum Beispiel kann eine Entfernung durch Augenschein gemessen werden, was wenig reliabel ist, durch Abschreiten, was mäßig reliabel ist, oder durch Maßband, was sehr reliabel ist. Dabei bleibt außen vor, was eigentlich genau abgemessen wird. Letztlich bleibt aber immer ein Messfehler, der Standardfehler, als Abweichung, der von der Konstanz der Messung abhängig ist. Unter Intrareliabilität versteht man die Stabilität zu zwei Messzeitpunkten, unter Interreliabilität die Stabilität zwischen zwei Messenden. Der Standardfehler setzt sich aus dem Zufallsfehler für spontane, unsystematische Unachtsamkeiten, durch Raten erzielte Antworten, kurzzeitige Schwankungen der Umfeldbedingungen und ungenaue Angaben zur Messdurchführung bzw. -bewertung sowie dem systematischen Fehler aus Design-, Gewinnungs- und Analysefehlern zusammen. Die Reliabilität weist nur den Zufallsfehleranteil aus. Die Feststellung erfolgt durch verschiedene Verfahren: • Bei der Parallel-Test-Reliabilität wird eine Vergleichsmessung bei gleicher Ausführung in einer identischen Stichprobe mit einem äquivalenten Messinstrument zum gleichen Zeitpunkt vorgenommen. Hier erhebt man also an einer Stichprobe von Versuchspersonen zwei streng vergleichbare Messwerte und berechnet anschließend die Korrelation zwischen ihnen. • Bei der Test-Retest-Reliabilität wird zu verschiedenen Zeitpunkten in der gleichen Stichprobe gemessen, um die Korrelation der Wiederholungsmessung zu bestimmen. Hier erhebt man also die Daten an der gleichen Stichprobe mit dem gleichen Messinstrument zu zwei verschiedenen Zeitpunkten und ermittelt anschließend die Korrelation der Ergebnisreihen. • Bei der Interne-Konsistenz-Reliabilität wird in verschiedenen Anteilen der gleichen Stichprobe gemessen, um die Einheitlichkeit eines geteilten Instruments nachzuweisen. Hier wird vorausgesetzt, dass sich ein Messinstrument in zwei gleichwertige Hälften zerlegen lässt. Die Konsistenz wird dann entweder nach der Split half- oder der Konsistenz-Analyse ermittelt. 2.4.2 Validität Unter Validität versteht man die Gültigkeit einer Messung bzw. eines Messinstruments in Bezug auf die charakteristischen Eigenschaften des Messobjekts. Sie gibt damit den Grad der materiellen Genauigkeit an, mit dem man dasjenige Merkmal misst, das gemessen werden soll oder angegeben wird, gemessen zu werden. Zum Beispiel ist eine Personenwaage ein sehr valides Instrument zur Ermittlung des Körpergewichts, zur Ermittlung der Körpergröße ist es hingegen nur mäßig valide, zur Bestimmung der Haarfarbe ist es nicht valide. Dabei bleibt außen vor, wie genau jeweils gemessen wird. Man unterscheidet weitergehend die externe und die interne Validität.

2. Deskriptive Datenanalyse

79

Externe Validität bezieht sich auf die Übertragbarkeit spezifischer Forschungsergebnisse auf andere Außenbedingungen (Personen, Situationen, Zeitpunkte etc.) als Ergebnisvalidität. Man spricht hier häufig auch von Repräsentanz. Sie erlaubt eine Hochrechnung von Erhebungsergebnissen auf die sie repräsentierende Grundgesamtheit, andere Bevölkerungsgruppen, veränderte Situationen, andere Zeitpunkte etc. Dies ist etwa bei Feldexperimenten besser der Fall als bei Laborexperimenten. Die externe Validität ist mehrfach gefährdet: • Verzerrungen entstehen, wenn Untersuchungseinheiten bei wiederholten Messungen unterschiedlichen Designs ausgesetzt werden und die Ergebnisse dadurch nicht mehr vergleichbar sind. • Gleiches gilt, wenn Vormessungen in derselben Gruppen stattgefunden haben, die auch der Hauptmessung unterliegen, dies wird dann eine Verallgemeinerung der Hauptmessergebnisse durch Pretest-Effekt beeinträchtigen. • Ein weiterer Grund sind systematische Fehler bei der Auswahl der Untersuchungsteilnehmer oder bei anderen Designvariablen. • Interaktionen der Treatments führen zur Nichtvergleichbarkeit der Ergebnisse, ebenso wie Interaktionen von Auswahleffekten und Treatments. Auch sind verzerrende Beobachtungseffekte unter dem Eindruck einer Experimentteilnahme wahrscheinlich. Daher werden Kontrollmöglichkeiten angestrebt (s. u.). Man unterscheidet im Übrigen nach der Strenge der zu erfüllenden Kriterien mehrere Validitätsarten. Die Inhaltsvalidität betrifft die logische Eignung der Messung, also ob das zu messende Merkmal inhaltlich repräsentiert ist. Ihr Ausweis erfolgt durch Augenschein (Face validity) oder Expertenurteil (Expert validity). Hierunter fällt der gesamte Arbeitsgang von der adäquaten Planung bis zur Fertigstellung eines kompletten Messinstruments. Zur Überprüfung einer komplexen Fragestellung ist sicherzustellen, dass alle relevanten Teilaspekte einbezogen werden und belastbar ist, dass die ausgewählten Testitems das zu untersuchende Phänomen hinreichend repräsentieren. Die Konstruktvalidität betrifft die theoretische Fundierung der Messung, also ob das gemessene Konstrukt Bestandteil einer Theorie ist, deren Hypothese getrennt abgefragt wird. Ihr Ausweis erfolgt durch Konvergenz des ausgewählten bzw. Diskriminanz zu anderen Konstrukten. Hier wird also der theoretische Hintergrund der Messungen ergründet. Die zur Erklärung der Messwerte dienenden Konstrukte müssen sprachlich präzise, formal einwandfrei und beobachtbar sowie möglichst eindimensional ausgelegt sein. Die Kriteriumsvalidität betrifft den Zeithorizont der Messung, die zeitspäteren Bezug als Vorhersagevalidität, z. B. für Prognoseaussagen oder zeitgleichen Bezug als Übereinstimmungsvalidität, z. B. für Konkurrenzaussagen haben kann. Dabei

80

Kap. II: Offline-Auswahlverfahren

werden die Ergebnisse eines zu überprüfenden Messinstruments mit den Werten eines Außenkriteriums verglichen oder dieses daraus prognostiziert. Der Grad der Validität wird meist durch die Korrelation bestimmt (auch empirische Validität). Die Konvergenzvalidität hat die Voraussage nicht nur des Zusammenhangs zwischen Indikatoren, sondern auch deren Unabhängigkeit zum Ziel, wenn sich die Messwerte auf verschiedene, sich gegenseitig nicht beeinflussende Konstrukte beziehen. Konvergenzvalidität bezeichnet dabei das Ausmaß, in dem zwei oder mehr Messverfahren in ihrem Vorhaben, das gleiche Konstrukt zu messen, übereinstimmen oder nicht. Ersteres ist gegeben, wenn ihre Ergebnisse in hohem Maße miteinander korrelieren. Die Diskriminanzvalidität bezeichnet das Ausmaß, in dem sich Messungen von verschiedenen Konstrukten voneinander unterscheiden. Messverfahren bzw. Indikatoren, die unterschiedliche Konstrukte erfassen sollen, dürfen demnach allenfalls schwach miteinander korrelieren. Es handelt sich also insofern um das Gegenteil der Anforderungen der Konvergenzvalidität. Beide können auch gemeinsam erfasst werden (Multitrait method). Die Nomologische Validität basiert auf einem nomologischen Netzwerk aus verschiedenen Konstrukten gemeinsam mit den zur Operationalisierung verwendeten Indikatoren in einer geschlossenen Theorie. Daraus entsteht ein umfassendes, testbares Begriffsgefüge, das sich besonders mit Kausalmodellen gut belegen lässt. Die Kreuzvalidität weist die zusätzliche Absicherung von Ergebnissen mit Hilfe einer weiteren Stichprobe bzw. durch Aufsplittung und getrennte Analyse einer bestehenden Stichprobe nach. Dies dient vor allem dazu, die Stabilität von Regressionsparametern zu überprüfen. Die Extremgruppen-Validität erfolgt durch Messungen an zwei Gruppen, von denen man weiß oder zumindest annehmen kann, dass sie sich deutlich hinsichtlich der untersuchten Merkmale voneinander unterscheiden. Dann erfolgt der Vergleich der Messergebnisse. Die Validität ist umso geringer, je niedriger diese Abweichungen sind. Interne Validität bezieht sich auf die Ausschaltung von Störeinflüssen auf den Untersuchungsplan und die Erhebungssituation (Prozessvalidität). Es geht also um die Eindeutigkeit der Messung im Experiment. Sie wird erzielt, wenn durch den Untersuchungsplan und die Erhebungssituation alle unerwünschten Störeinflüsse ausgeschaltet werden, so dass die Veränderungen in der abhängigen Variablen allein auf die Manipulation der unabhängigen Variablen zurückgeführt werden können. Die interne Validität liegt umso höher, je besser das Forschungsdesign Störvariable ausschalten kann. Auch die interne Validität ist mehrfach gefährdet: • Der Zeiteffekt wirkt ein, wenn die Umfeldbedingungen während der Dauer des Experiments Veränderungen aufweisen.

81

2. Deskriptive Datenanalyse

• Der Reifungseffekt wirkt ein, wenn sich abhängige Variable während der Experimentdauer ohne Einfluss der unabhängigen Variablen, also autonom, verändern. • Der Testeffekt wirkt ein, wenn ein und dasselbe Messinstrument wiederholt auf dieselben Untersuchungseinheiten einwirkt. • Der Instrumentaleffekt wirkt ein, wenn das Messinstrument selbst sich während des Zeitablaufs verändert / verschlechtert. • Der Konvergenzeffekt wirkt ein, wenn zunächst extrem ausgeprägte Messeinheiten sich bei Wiederholung mäßigend einlassen. • Der Auswahleffekt wirkt ein, wenn die Experimentgruppen schon vor der Durchführung nicht miteinander vergleichbar sind.

wahrer Wert

Dimension 2

Dimension 2

wahrer Wert Dimension 2

wahrer Wert

wahrer Wert

• Der Ausfalleffekt wirkt ein, wenn ein relevanter Teil der Unterschungseinheiten während der Laufzeit vom Experiment ausscheidet.

Dimension 2

Abbildung 22: Zusammenhang Validität und Reliabilität (eig. Darst.)

82

Kap. II: Offline-Auswahlverfahren

Beide Größen, externe und interne Validität, stehen in einem Spannungsverhältnis zueinander (siehe Abbildung 22: Zusammenhang Validität und Reliabilität). Bemühungen um eine möglichst hohe interne Validität führen dazu, dass die Forschungsbedingungen immer künstlicher, also realitätsferner, werden. Bemühungen um eine möglichst hohe externe Validität führen dazu, dass unerwünschte Störeinflüsse kaum mehr Kausalitätsaussagen zulassen. So hat z. B. der Studiotest eine hohe interne Validität, weil er im Labor, also unter kontrollierten Bedingungen stattfindet. Seine externe Validität ist aber gerade deswegen recht gering, da die artifizielle Bedingungslage von der realen im Feld mehr oder minder erheblich abweicht. Umgekehrt hat der Feldtest eine geringe interne Validität, weil er für alle möglichen unkontrollierbaren Einflussfaktoren anfällig ist. Zugleich ist seine externe Validität aber hoch, da es sich um reale Marktbedingungen handelt und nicht um eine bloße Laborsituation. Insofern ist interne Validität unabdingbare Voraussetzung für externe Validität. 2.4.3 Objektivität Die Objektivität von Informationen bedeutet, dass diese frei von subjektiven Einflüssen und damit intersubjektiv nachprüfbar sind, also verschiedene Personen unabhängig voneinander zum mehr oder minder gleichen Messergebnis kommen. Sie ist Ausdruck dafür, ob Unterschiede in der Realität in den Forschungsergebnissen angemessen zum Ausdruck kommen. Anfälligkeiten dafür bestehen bei der Durchführung, Auswertung und Interpretation in der Forschung. Sofern Subjektivität offen ausgewiesen ist, z. B. in Form von Empfehlungen des Forschers an den Auftraggeber, ist dagegen auch nichts einzuwenden. Gefährlich aber sind Verzerrungen, die, ohne dass sie als subjektiv ausgewiesen werden, in die Ergebnisse eingehen. Man unterscheidet drei Objektivitätsarten: • Die Durchführungsobjektivität beurteilt den Grad der Unabhängigkeit der Beurteilungsergebnisse von zufälliger und systematischer Variation im Verhalten der Beurteiler, also das Fehlen von Beeinflussung der Beurteilten. Die Durchführungsobjektivität erhöht sich, je weniger soziale Interaktion zwischen Auskunftspersonen und Marktforscher entsteht. • Die Auswertungsobjektivität ist umso größer, je weniger fixierte Beziehungen durch vorgegebene Regeln zwischen bestimmten Informationen und Beurteilungsziffern bekannt sind. Die Auswertungsobjektivität erhöht sich, je weniger Freiräume der Marktforscher hinsichtlich der Auswertung der Messergebnisse hat. • Die Interpretationsobjektivität betrifft den Grad der Unabhängigkeit bei der Interpretation der Objekte von deren Beurteilern und ist als hoch gegeben, wenn alle Beurteiler zu den gleichen Schlussfolgerungen gelangen. Die Interpretationsobjektivität erhöht sich, je weniger Freiheitsgrade der Marktforscher bezüglich der Deutung der Messergebnisse hat.

2. Deskriptive Datenanalyse

83

2.4.4 Signifikanz Signifikanz von Informationen bedeutet, dass Ergebnisse sich nicht nur aufgrund von Zufallsmechanismen einstellen, sondern auf überzufällige Zusammenhänge zurückzuführen sind. Dies ist wichtig für die Übertragbarkeit von Aussagen von einer untersuchten Stichprobe auf die Grundgesamtheit. Dies wird durch spezielle Tests überprüft. Dem liegt die Wissenschaftsrichtung des Kritischen Rationalismus zugrunde. Dabei erfolgt die Gewinnung neuer wissenschaftlicher Aussagen über die Schritte der Problementdeckung und -formulierung, der Hypothesenbildung zu Lösungswegen und der anschließenden Überprüfung dieser Hypothesen. Das Ausmaß der Signifikanz wird durch das Signifikanzniveau (auch Irrtumswahrscheinlichkeit) bestimmt. Dieses wird getestet.

3. Inferente Datenanalyse Dabei interessiert es in einer induktiven Datenanalyse, von den bekannten Stichprobenkennwerten aus die unbekannten Parameter der Grundgesamtheit innerhalb gewisser Vertrauensbereiche zu schätzen (= Repräsentationsschluss oder indirekter Schluss). Im Unterschied dazu gilt es, beim direkten Schluss (= Inklusionsschluss) deduktiv von den wahren Werten der Grundgesamtheit auf diejenigen Werte, die in einer Stichprobe zu erwarten sind, verallgemeinert zu schließen. Beide sind, sofern eine Zufallsstichprobe vorliegt, unter Berücksichtigung des Stichprobenfehlers berechenbar. Man unterscheidet bei Stichproben zwei Fälle: • Der heterograde Fall ist gegeben, wenn das zu untersuchende Merkmal metrisch skaliert ist, z. B. Umsatz, Alter, Einkommen. Hier interessiert die Stichprobenverteilung des arithmetischen Mittels. • Der homograde Fall ist gegeben, wenn das zu untersuchende Merkmal nichtmetrisch nominalskaliert ist, also dichotom (zweiwertig) oder multichotom (mehrwertig). Interessant ist dabei die Stichprobenverteilung des Anteilswerts der Aussagen. Es geht um die jeweilige Eigenschaft als Anteilsträger oder Nichtanteilsträger.

3.1 Statistische Schätzverfahren Zum Schätzen der unbekannten, wahren Werte der Grundgesamtheit werden Schätzer benötigt, die auf Daten aus der Stichprobe beruhen. Ein solcher Schätzer ist der Stichprobenmittelwert, von dem auf den Erwartungswert als Mittelwert der Grundgesamtheit geschlossen werden kann. Dabei wird meist die t-Verteilung zugrunde gelegt, die Abweichungen beschreibt, die dadurch zustande kommen, dass bei Signifikanztests anstelle der unbekannten Standardabweichung in der Grundgesamtheit mit der bekannten in der Stichprobe gerechnet werden muss. Schätzverfahren betreffen also statistische Methoden zum indirekten Schluss von einem Stichprobenbefund auf die unbekannten Parameter der zugrunde liegenden Grundgesamtheit. Die Anforderungen an die Schätzer sind teilweise widersprüchlich und lauten im Einzelnen wie folgt: • Erwartungstreue, d. h. Freiheit von systematischen Fehlern, also keine Verzerrung, die Schätzfunktion liefert dann im Mittel den wahren Wert, • Effizienz, d. h. möglichst kleine Varianz, genauer, wenn die Varianz endlich ist und es keine andere Schätzfunktion mit kleinerer Varianz gibt,

3. Inferente Datenanalyse

85

• Konsistenz, d. h. möglichst kleiner Stichprobenfehler, die Schätzfunktion nähert sich dann mit wachsendem Stichprobenumfang asymptotisch dem wahren Wert an, dabei geht die Wahrscheinlichkeit, dass die Differenz von Schätzwert und wahrem Wert größer als eine beliebig kleine positive Zahl ist, mit zunehmender Stichprobengröße gegen Null, • Suffizienz, d. h. Nutzung aller Daten der Stichprobe, dass also die gesamte Information über den wahren Parameter ausgeschöpft wird, • Robustheit, d. h. Unempfindlichkeit gegen Ausreißer. Schätzer, die diese Anforderungen maximal erfüllen, nennt man „beste erwartungstreue lineare Schätzer“ (BLUE). Schätzverfahren bieten sich an, wenn die Parameter der Grundgesamtheit unbekannt sind. Man unterscheidet Punkt- und Intervallschätzungen (siehe Abbildung 23: Punkt- und Intervallschätzungen). Punktschätzungen beziehen sich auf eine möglichst genaue Schätzung für den unbekannten Parameter der Grundgesamtheit als numerischen Wert evtl. auch als Schwellenwert. Verfahren dazu sind die Maximum likelihood-, die Chi quadrat Minimum- oder die Kleinstquadrat-Methode.

Abbildung 23: Punkt- und Intervallschätzungen (Quelle: quizlet.com/de/464778429/m07w02-methoden-der-wissenschaft-flash-cards/)

Intervallschätzungen beziehen sich darauf, Bereiche abzustecken, in denen der unbekannte Parameter mit einer bestimmten, vorgegebenen Wahrscheinlichkeit zu erwarten ist. Die Genauigkeit dieser Schätzung kann durch die Breite des Konfidenzintervalls und die Sicherheit der Schätzung durch die Eintrittswahrscheinlichkeit ausgedrückt werden, mit der dieses Intervall den unbekannten Parameter umschließt. Bei gegebenem Stichprobenumfang ist bei hoher Genauigkeit der Vertrauensbereich breiter, die Aussage also unsicherer, bei geringer Genauigkeit schmaler, die Aussage also sicherer. Bei Erweiterung des Intervalls steigt die Wahrscheinlichkeit, einen falschen Wert über den unbekannten, wahren Wert anzugeben. Gleichzeitig werden die Angaben über den wahren Wert unpräziser. Zwischen Genauigkeit und Sicherheit besteht somit ein Zielkonflikt. Das Konfidenzintervall gibt an, in wie viel Prozent aller Stichproben einer Grundgesamtheit erwartet werden kann, dass der unbekannte „wahre“ Wert der

86

Kap. II: Offline-Auswahlverfahren

Grundgesamtheit in den Grenzen des Intervalls liegt. Es gibt also die Wahrscheinlichkeit dafür an, dass das Resultat einer Stichprobe überhaupt zutrifft und enthält dafür zwei Elemente, den Genauigkeitsgrad bzgl. des Intervalls, also die Fehlerspanne, und den Sicherheitsgrad bzgl. des Niveaus, also die Wahrscheinlichkeit des Eintritts. Das Komplement ist dann die Irrtumswahrscheinlichkeit, d. h. das Risiko, dass ein Ursprungswert außerhalb des Konfidenzintervalls liegt (Beispiel: „Mit einer Wahrscheinlichkeit von X % kann damit gerechnet werden, dass die durchschnittlichen Reparaturkosten für den Artikel Z zwischen A und B € liegen.“). Das Konfidenzniveau gibt den Flächenanteil unter der Normalverteilungskurve an, auf den die Wahrscheinlichkeit der Aussage zutrifft. Der Stichprobenfehler gibt das bei vorgegebener Irrtumswahrscheinlichkeit zu erwartende Höchstmaß des Zufallsfehlers an.

3.2 Statistische Testverfahren 3.2.1 Hypothesenbildung Es entspricht dem forscherischen Selbstverständnis, systematisches Wissen über einen Gegenstand in Hypothesen zu kleiden. Die Praxis wissenschaftlicher Erkenntnissuche besteht in einem fortwährenden Prozess des Aufstellens, Überprüfens, Verwerfens und Verbesserns von Hypothesen, also Annahmen über die Realität. Damit diese Bestand haben können, müssen sie empirisch aus Erfahrung oder aus Forschung verifiziert werden. Dann entstehen daraus Thesen, die, sofern sie verifiziert sind, eine Verallgemeinerung von Gesetzen, d. h. empirischen Aussagen in Form von Begriffen, für alle gleichartigen Fälle in einer Theorie darstellen. Damit es zur Verifikation kommen kann, müssen die Hypothesen getestet werden, in künstlichen Welten als Labor oder in der natürlichen Welt im Feld: • Verifikation bedeutet die Suche nach Bestätigung der Hypothese und kann immer nur vorläufig sein. Das heißt, es ist nicht auszuschließen, dass neues Wissen bisher verifizierte Hypothesen falsifiziert. • Falsifikation bedeutet die Suche nach Widerlegung der Hypothese. Hypothesen müssen daher so formuliert sein, dass sie widerlegbar sind, ansonsten handelt es sich um tautologische Aussagen. Werturteile müssen dabei jeweils ausgewiesen werden. Man unterscheidet dazu: • Werturteile im Basisbereich, also im Wissenschaftsprogramm, etwa in Bezug auf Ökologieanspruch, • Werturteile im Objektbereich, also in Bezug auf die Aussagefähigkeit der Inputdaten, • Werturteile im Aussagenbereich, also in Bezug auf gezogene Schlussfolgerungen.

3. Inferente Datenanalyse

87

Im Falle der Falsifikation einer Hypothese muss nach Ansicht des Kritischen Rationalismus eine Alternativhypothese formuliert werden, die dann wiederum überprüft und vorläufig verifiziert oder falsifiziert werden kann, so dass eine neue Hypothese folgt. Nur auf diese Weise kann ein Wissensfortschritt entstehen und durch die neue Hypothese ein höheres Wissensniveau erreicht werden. Nun könnte man versuchen, eine Theorie als Tautologie so zu formulieren, dass sie nicht widerlegbar ist, dann aber ist eine Überprüfung nicht möglich und damit auch kein Wissensfortschritt auf ein höheres Niveau. Deshalb muss jede Behauptung so formuliert sein, dass sie leicht falsifizierbar ist. Theorien, die mehreren Falsifikationsversuchen widerstanden haben, gelten als vorläufig bestätigt, sie stellen ein Paradigma dar. Sie erklären Sachverhalte der Realität, um daraus Vorhersagen über Ereignisse treffen und Maßnahmen zur Zielerreichung ableiten zu können. In größeren Zeitabständen gibt es einen Paradigmenwechsel, d. h., anerkannte Wahrheiten erweisen sich als überholt und an ihre Stelle rücken „neue“ Wahrheiten, bis auch diese wiederum einem Wechsel unterliegen. Hypothesen, die mehrfach bestätigt worden sind, gelten als „vorläufige Wahrheit“. Lassen sich die Annahmen der aufgestellten Hypothese nicht vorfinden, gilt sie als falsifiziert. Treten die Annahmen der Alternativhypothese ein, gilt sie nur als vorläufig nicht widerlegt. Nach dem Kritischen Rationalismus gibt es daher keine endgültige Verifikation für Allaussagen, also auch keine endgültige Wahrheit, oder zumindest kann man nicht sicher sein, im Besitz dieser Wahrheit zu sein. Damit ist auch induktives Schlussfolgern logisch nicht möglich.

3.2.2 Testkonzept Bestehen Vorstellungen über die Werte eines Parameters der Grundgesamtheit, kommt es zur Hypothesenbildung mit Annahme oder Ablehnung in Testverfahren. Unterschiedshypothesen beziehen sich auf ein Konfidenzintervall als Unterschied zwischen Variablen, Zusammenhangshypothesen auf eine Korrelation als Beziehung zwischen Variablen. Verteilungshypothesen beziehen sich auf die Verteilung einer Variablen, Veränderungshypothesen auf die Veränderung einer Variablen. Hypothesenprüfungen finden dann durch Signifikanztests statt. Solche Signifikanztests sollen eine Entscheidung darüber herbeiführen, ob Unterschiede zwischen dem postulierten wahren Wert aus der Hypothese und dem Stichprobenergebnis aus der Empirie nur zufällig gegeben oder statistisch als überzufällig anzusehen gesichert, also signifikant, sind. Dabei kann es sich um wertmäßig bestimmte Entscheidungsalternativen als exakter Wert handeln oder um eine nicht wertmäßig bestimmte, zusammengesetzte Hypothese mit größer / k leiner oder ungleich Werten. Je nach Skalenniveau der betrachteten Variablen, nach Verteilungstyp der zugrunde gelegten Daten und der Art der Hypothesenbildung werden unter-

88

Kap. II: Offline-Auswahlverfahren

schiedliche Testverfahren eingesetzt. Durch sie kann aber nur erreicht werden, dass unter einer Vielzahl möglicher Hypothesen der Anteil der richtigen erhöht wird. Testverfahren dienen also dem Ziel, Hypothesen über unbekannte Grundgesamtheiten an Hand einer oder mehrerer Stichproben auf ihre Überzufälligkeit hin zu überprüfen. Die Auswahl der aufzustellenden und zu überprüfenden Hypothesen lässt sich nicht wirklich begründen, sie ist vielmehr subjektiver Wertung unterworfen. Formulierung der Hypothesen Festlegung von Signifikanzniveau Festlegung der Testfunktion Bestimmung des Verwerfungsbereichs

Abbildung 24: Ablauf des Signifikanztests

Ausgangspunkt für die statistische Prüfung ist die Arbeitshypothese (siehe Abbildung 24: Ablauf des Signifikanztests). Diese wird nach fachkundiger Einsicht in einen bestimmten Sachzusammenhang formuliert. Die Entscheidung über Ablehnung oder Nichtablehnung der Arbeitshypothese hängt davon ab, ob der Prüfwert im Ablehnungs- oder im Annahmebereich der Prüffunktion liegt. Die Festlegung dieser Bereiche basiert auf der Wahrscheinlichkeitsverteilung der Prüffunktion. Die Nichtablehnung ist nicht gleichzusetzen mit der Richtigkeit der Hypothese. Die Abweichung ist dann lediglich nicht signifikant, d. h. nur zufällig begründet. Der Ablauf von Testverfahren umfasst dann folgende Schritte. Die Hypothesenformulierung ist die Vermutung des Anwenders über bestimmte Eigenschaften der Grundgesamtheit auf Basis der vorliegenden Stichprobendaten („Wenn-dann“oder „Je-desto“-Aussagen). Diese vermuteten Variablenbeziehungen werden in ein Pfaddiagramm übersetzt, das die Richtung der Variablenbeziehungen widerspiegelt und in ein System linearer Gleichungen überführt wird. Dessen Struktur wird anhand empirischer Daten getestet. Sind die geschätzten Modellparameter mit den gewonnenen Daten konsistent, gilt die angenommene Kausalstruktur als nicht falsifiziert. Formal werden zwei, einander ausschließende Hypothesen formuliert. Die Nullhypothese wird meist so gefasst, dass man daran interessiert ist, sie abzulehnen.

3. Inferente Datenanalyse

89

Die für den Fall der Ablehnung formulierte Alternativhypothese kann einseitig oder zweiseitig ausgelegt sein: • Ein einseitiger Test liegt vor, wenn die Irrtumswahrscheinlichkeit nur auf eine Seite des Mittelwerts verteilt ist, und zwar als Obergrenze (rechtsseitig) oder Untergrenze (linksseitig). • Ein zweiseitiger Test liegt vor, wenn sie auf beide Seiten verteilt ist, also mindestens / höher als bzw. höchstens / niedriger als ein bestimmter Wert. Einseitige Tests führen eher zur Verwerfung der Nullhypothese, also zu, meist erwünschten, signifikanten Ergebnissen. Im Zweifel sollte daher immer zweiseitig getestet werden. Die Begründung ist jeweils inhaltlich zu führen. Die Fläche, die nicht Ablehnungsbereich ist, wird Annahmebereich genannt. Die Stelle der Verteilung, welche die Grenze zwischen Annahme- und Ablehnungsbereich bildet, heißt kritischer Wert. Eine Punkthypothese liegt vor, wenn lediglich ein konkretisierter, exakter Wert getestet werden soll. Eine Bereichshypothese liegt vor, wenn eine Wertespanne getestet werden soll (also „von – bis“ oder „ungleich“). Einstichprobentests beziehen sich nur auf eine einzige Stichprobe als Basis, Zweistichprobentests auf zwei unabhängige Stichproben. Die Festlegung des Signifikanzniveaus bzw. der Irrtumswahrscheinlichkeit bestimmt die Entscheidung über die Annahme oder Verwerfung der aufgestellten Hypothese. Dies kann wegen des Stichprobencharakters der Daten jedoch nicht mit Sicherheit, sondern immer nur mit einer gewissen Wahrscheinlichkeit erfolgen. Messgröße ist die Irrtumswahrscheinlichkeit. Der Signifikanztest überprüft daher, ob ein Stichprobenbefund mit einer Annahme über unbekannte Parameter oder die Verteilung der Grundgesamtheit aus wahrscheinlichkeitstheoretischer Sicht verträglich ist, also zufällig, oder nicht, also überzufällig und damit statistisch gesichert signifikant. Das Signifikanzniveau wird meist über eine Irrtumswahrscheinlichkeit von 0,1 %, absolut 0,001 für sehr hoch signifikant, 1 %, absolut 0,01 für hoch signifikant, 5 %, absolut 0,05 für signifikant oder 10 %, absolut 0,1 für schwach signifikant, normiert. Bei der Wahl der geeigneten statistischen Testfunktion handelt es sich meist um die Normalverteilung oder die t- oder F-Verteilung. F- und t-Verteilungen variieren mit den Freiheitsgraden. Unter Freiheitsgrad versteht man die maximale Anzahl der in einer Prüfverteilung frei, d. h. unabhängig voneinander variierbaren Variablen, welche die Gesamtzahl der nicht mit Sicherheit voraussagbaren Ausprägungen der Prüfvariablen angibt. Der Freiheitsgrad gibt also an, wie viele unabhängige Vergleiche zwischen Beobachtungs- und Erwartungswert möglich sind. Geht man von Matrizen aus, so ist der Freiheitsgrad bei einer Vierfeldertafel 1, denn bereits mit der Determination des Wertes einer Zelle in der Matrix sind die anderen Werte bei gegebener Randverteilung invariabel. Bei einer Sechsfeldertafel ist der Freiheitsgrad 2, denn mit der Determinierung von zwei Werten sind alle

90

Kap. II: Offline-Auswahlverfahren

anderen Werte bei gegebener Randverteilung invariabel. Bei der Achtfeldertafel ist der Freiheitswert entsprechend 3 etc. Die t-Verteilung ist der Normalverteilung sehr ähnlich, nur dass sie von der Zahl der Freiheitsgrade abhängt, also dem Stichprobenumfang abzüglich der aus der Stichprobe geschätzten Parameter. Die Zufallsvariable folgt dann der t-Verteilung. Diese ist symmetrisch um den Nullpunkt, verläuft jedoch flacher als die Normalverteilungskurve. Ihre Anwendung konzentriert sich auf kleine Stichprobenumfänge, bei denen die Voraussetzungen für den zentralen Grenzwertsatz nicht erfüllt sind. Dies bedeutet, dass nicht mehr davon ausgegangen werden kann, dass der Stichprobenmittelwert näherungsweise normalverteilt ist. Mit wachsender Zahl von Freiheitsgraden strebt die t-Verteilung gegen die Normalverteilung. Dies ist etwa ab mehr als 30 Werten als Differenz aus Stichprobenumfang und Anzahl der daraus berechneten Parameter der Fall. Die F-Verteilung ist eine spezifische, linksschiefe, eingipflige Wahrscheinlichkeitsverteilung, die dadurch gekennzeichnet ist, dass jeweils zwei Freiheitsgrade bestehen. Sie ist die Verteilung des Quotienten der Varianzen zweier, unabhängiger Stichproben (siehe Abbildung 25: Darstellung einer F-Verteilung). Mit wachsenden Freiheitsgraden strebt die F-Verteilung der t-Verteilung zu.

Abbildung 25: Darstellung einer F-Verteilung (Quelle: gaw.institute/statistik_fvert_tablesen.html)

Nach der Wahl der Testfunktion wird das Signifikanzniveau festgelegt, die Prüfgröße wird berechnet und diese einer theoretischen Größe, dem „Tafelwert“, gegenübergestellt. Die Nullhypothese ist zu verneinen, d. h. für gewöhnlich der Hypotheseninhalt abzulehnen, wenn der tatsächliche, empirische Wert größer ist als der theoretische Tafelwert. Für die Bestimmung des Ablehnungsbereichs sind die ökonomischen Folgen einer möglichen Fehlentscheidung zu berücksichtigen. Die Wahrscheinlichkeit, dass unter ansonsten gleichen Bedingungen die Nullhypothese zur Ablehnung ge-

3. Inferente Datenanalyse

91

bracht wird, hängt von der Strenge der Voraussetzungen eines Tests ab, je strenger, desto eher wird kein Zusammenhang vermutet. Ist es sehr folgenschwer, die Nullhypothese fälschlicherweise abzulehnen, wird man dieses Risiko möglichst gering halten wollen, also das Signifikanzniveau hoch ansetzen oder den Annahmebereich vergrößern bzw. den Ablehnungsbereich verkleinern. Ist es dagegen folgenschwer, die Nullhypothese fälschlicherweise anzunehmen, wird man das Signifikanzniveau geringer ansetzen oder den Annahmebereich verkleinern und den Ablehnungsbereich vergrößern.

Nullhypothese trifft objektiv zu

Nullhypothese trifft objektiv nicht zu

Nullhypothese wird subjektiv nicht abgelehnt

richtige Entscheidung

Fehler 2. Art (Beta-Fehler)

Nullhypothese wird subjektiv abgelehnt

Fehler 1. Art (Alpha-Fehler)

richtige Entscheidung

Abbildung 26: Entscheidungsfindung und Fehlerarten

Es kommt zur Entscheidungsfindung. Entscheidet sich der Anwender für die Annahme der Nullhypothese, ist die Alternativhypothese abgelehnt, entscheidet er sich für die Ablehnung der Nullhypothese, ist die Alternativhypothese angenommen. Diese Annahme oder Ablehnung sagt mitnichten etwas über die Richtigkeit dieser Entscheidung aus. Sie bedeutet nur, dass sie nicht im Widerspruch zum vorliegenden Beobachtungsmaterial steht. Im Signifikanztest wird also ein Ablehnungsbereich berechnet, in den die Teststatistik mit einer zuvor gewählten Irrtumswahrscheinlichkeit fällt. Bei dieser Entscheidung können zwei Fehlerarten auftreten (siehe Abbildung 26: Entscheidungsfindung und Fehlerarten): • Die Nullhypothese kann verworfen werden, obwohl sie wahr ist. Es handelt sich dann um einen Fehler 1. Art (auch Alpha-Fehler), bei dem die Alternativhypothese zu unrecht angenommen wird. • Die Nullhypothese kann angenommen werden, obwohl sie unwahr ist. Es handelt sich dann um einen Fehler 2. Art (auch Beta-Fehler), bei dem die Alternativhypothese zu unrecht verworfen wird. Dies kann etwa passieren, wenn die Messlatte für die Annahme unzweckmäßig hoch gelegt wird. Zwei weitere Entscheidungen sind demgegenüber richtig: • Die Nullhypothese wird zurecht verworfen und die Alternativhypothese zurecht angenommen. Die Wahrscheinlichkeit dafür beträgt (1 – β) × 100 %.

92

Kap. II: Offline-Auswahlverfahren

• Die Nullhypothese wird zurecht angenommen und die Alternativhypothese zurecht verworfen. Die Wahrscheinlichkeit dafür beträgt (1 – α) × 100 %.

3.2.3 Testanlage In Bezug auf die Testanlage sind mehrere Optionen zu unterscheiden: • Bezieht sich die Hypothese auf die Lage eines einzelnen, unbekannten Parameters der Prüfverteilung, so handelt es sich um einen parametrischen, verteilungsgebundenen Test. Parametertests beziehen sich auf Hypothesen über Mittelwerte und Streuungsmaße, d. h., es werden Hypothesen über die unbekannten Parameter der Grundgesamtheit überprüft, und es soll festgestellt werden, ob ein Parameter mit dem in der Hypothese angenommenen Parameter einer Grundgesamtheit übereinstimmt. Dabei liegt eine Prüfverteilung zugrunde. Beispiele sind t-Test und z-Test bei einer bzw. zwei unabhängigen oder auch verbundenen Stichproben. • Bezieht sich die Hypothese auf die gesamte Gestalt der Verteilung des Untersuchungsmerkmals ohne eine Annahme über einzelne Parameter der Verteilungsfunktion der Stichprobenvariablen vorzunehmen, so handelt es sich um einen nonparametrischen, verteilungsfreien Test zur Überprüfung der unbekannten Verteilung einer Grundgesamtheit. Die Verteilung der Prüfgröße eines Tests hängt nicht von der speziellen Gestalt der Verteilungsfunktion der Grundgesamtheit ab. Beispiele sind Tests nach Mann-Whitney, als U- oder Median-Test bei unabhängigen Stichproben und nach McNemar bei verbundenen Stichproben. Anpassungstests beziehen sich auf die Hypothese der Übereinstimmung einer gegebenen empirischen Verteilung mit der postulierten theoretischen Verteilung, also ob eine Grundgesamtheit eine bestimmte angenommene Verteilung besitzt oder nicht. Dabei können verschiedene Verteilungen zugrunde gelegt werden, meist die Normalverteilung, die F- oder t-Verteilung (s. o.). Wichtige Testverfahren sind hier der Chi quadrat-Anpassungstest auf beliebigem Skalenniveau und der Kolmogoroff-Smirnov-Test auf ordinalem Skalenniveau. Bezieht sich die Hypothese auf die Abhängigkeit zwischen zwei oder mehr Merkmalen in der Grundgesamtheit, handelt es sich um einen Unabhängigkeitstest. Wichtige Testverfahren sind hier der Chi quadrat-Unabhängigkeitstest, bei beliebig skalierten Daten, und der Friedman-Test, bei mindestens ordinal-skalierten Daten. Bezieht sich die Hypothese auf symmetrische, stetige Verteilungen, handelt es sich um einen Zufälligkeitstest. Wichtiges Testverfahren ist hier der Wilcoxon Vorzeichen-Test. Für mindestens ordinal-skalierte Daten werden dabei die Differenzen der Stichprobenwerte zum Median gebildet, aufsteigend angeordnet und mit Rangnummern versehen.

3. Inferente Datenanalyse

93

Bezieht sich die Hypothese auf die Lagealternativen zweier oder mehr unabhängiger Stichproben, so handelt es sich um einen Variabilitätstest. Wichtige Testverfahren sind hier der Wilcoxon Rangsummen-Test bei mindestens ordinalskalierten Daten und der Kruskal-Wallis-Test zusätzlich bei mehr als zwei unabhängigen Stichproben. Nicht-parametrische Tests sind immer dann vorzuziehen, wenn die dem parametrischen Test zugrunde liegenden Annahmen über die Verteilung der Grundgesamtheit in ihrer Gültigkeit angezweifelt werden müssen, z. B. bei kleinen Stichproben oder schiefen bzw. mehrgipfligen Verteilungen. Daher werden robuste Testverfahren bevorzugt, deren Leistungsfähigkeit nicht wesentlich beeinträchtigt wird, wenn eine Testvoraussetzung nicht erfüllt ist. Dennoch steht der Anwender vor einem Auswahlproblem. Die wichtigsten Testverfahren sind die Folgenden. Der F-Test ist ein Signifikanztest zum Vergleich der Varianzen zweier voneinander unabhängiger Stichproben auf Basis einer F-Verteilung der Parameter, d. h. der Anzahl der Freiheitsgrade der ersten und der zweiten Variablen. Die F-Verteilung verläuft asymmetrisch linkssteil und eingipflig (siehe Abbildung 27: F-Test). Die Nullhypothese des F-Tests besagt, dass sämtliche festgestellten Variationen lediglich Zufallsschwankungen darstellen, d. h. die Mittelwerte der einzelnen Gruppen einander gleichen, die Beobachtungsdaten einer einzigen Population entstammen und deren Abweichungen somit lediglich dem Zufall zuzuschreiben sind. Der empirische Wert wird einem theoretischen Tabellenwert bei gegebenen Freiheitsgraden gegenüber gestellt. Liegt der berechnete F-Wert unterhalb des Schwellenwerts aus der Tabelle, wird die Nullhypothese nicht verworfen, die Abweichungen der Varianzen innerhalb einer Gruppe sind dann lediglich zufälliger Natur. Das Signifikanzniveau gibt dabei die Wahrscheinlichkeit an, mit welcher der ermittelte F-Wert auch für den Fall, dass die Nullhypothese richtig ist, den theoretischen F-Wert übersteigt. Mit steigender Fehlervarianz wird somit eine zielgerichtete Aussage immer schwieriger. Die Aussage gilt immer nur für diese Rahmendaten.

94

Kap. II: Offline-Auswahlverfahren

Abbildung 27: F-Test (Quelle:onlinecourses.one/statistics/f-tests-in-one-way-anova/)

Kritischer Bereich Ablehnung H0

Annahmebereich H0

Kritischer Bereich Ablehnung H0

t

μ=0 Kritischer t-Wert

Kritischer t-Wert

Abbildung 28: t-Test (Quelle: matheguru.com/stochastik/t-test.html)

Mithilfe des t-Tests ist, unter der Annahme, dass die Varianzen zweier Grundgesamtheiten, aus denen die Stichproben stammen, gleich sind, der Vergleich zwischen den Mittelwerten durchzuführen. Bei größeren Stichproben bietet die Standardnormalverteilung eine hinreichende Annäherung für die Signifikanzprüfung. Der t-Test beruht auf der t-Verteilung für zwei abhängige oder unabhängige Stichprobenmittelwerte von metrischen und normal verteilten Variablen (siehe Abbildung 28: t-Test). Ziel ist es zu analysieren, ob Messwertunterschiede zwischen den Gruppen zufällig oder systematisch entstehen. Dazu wird die Streuung von Messwerten innerhalb einer Gruppe mit der Streuung von Messwerten zwischen den Gruppen zueinander ins Verhältnis gesetzt. Die Streuung innerhalb einer Gruppe ist gering bei homogenen Elementen, z. B. 3, 2, 3, 3, 4, 3 bei sechs Messwerten (Mittelwert: 3). Die Streuung zwischen den Gruppen ist gering bei homogener Struktur, z. B. 1, 2, 3, 4, 5, 6 bei Gruppe 1 (Gruppenmittelwert: 3,5) und 1, 3, 4, 5,

3. Inferente Datenanalyse

95

5, 6 bei Gruppe 2 (Gruppenmittelwert: 4). Der Ausweis erfolgt durch Berechnung der quadrierten Differenz zwischen Gruppenmittelwert und Gesamtmittelwert als erklärte Abweichung sowie der quadrierten Differenz der Einzelwerte vom Gruppenmittelwert als nicht-erklärte Abweichung.

Abbildung 29: Chi quadrat-Verteilungen für verschiedene Freiheitsgrade v (Quelle: psychowissen.jimdofree.com/statistik-forschungsmethoden/nonparametrischetestverfahren/nominalskalierte-daten/)

Der Chi quadrat-Test (X2) beruht auf der Chi quadrat-Verteilung, die bei Null beginnend asymmetrisch verläuft und nur einen Freiheitsgrad hat (siehe Abbildung 29: Chi quadrat-Verteilungen für verschiedene Freiheitsgrade v). Der Chi quadrat-Test vergleicht nicht sehr spezifisch empirisch beobachtete und theoretisch erwartete Häufigkeiten auf der Basis einer annähernd Chi quadrat-verteilten Prüfgröße und weist immer eine einseitige Fragestellung auf. Dabei sind zwei Alternativen nutzbar: • Beim Chi quadrat-Anpassungstest handelt es sich um ein nicht-parametrisches Testverfahren zur Überprüfung der Anpassungsgüte der Verteilung der Stichprobenrealisation an eine vorgegebene und vollständig spezifizierte Verteilungsfunktion beliebiger Struktur. Es soll also festgestellt werden, ob zwei Verteilungen miteinander übereinstimmen. • Beim Chi quadrat-Unabhängigkeitstest handelt es sich um ein nicht-parametrisches Testverfahren zur Überprüfung der Unabhängigkeit nominal skalierter Merkmale durch Vergleich des empirischen Wertes mit einem theoretischen Tabellenwert nach Signifikanzniveau und Freiheitsgrad. Es soll also festgestellt werden, ob zwei Merkmale voneinander unabhängig sind oder nicht. Der Freiheitsgrad ergibt sich, indem in der Arbeitstabelle die Anzahl der um 1 verminderten Zeilenzahl mit der ebenfalls um 1 verminderten Spaltenzahl multipliziert wird (bei vier Feldern z. B. ((2 − 1)) × ((2 − 1)) = 1). Dabei kann es sich um zwei Segmente aus einer Stichprobe, die Stichprobe aus der Grundgesamtheit oder Stichproben zu verschiedenen Zeitpunkten handeln,

96

Kap. II: Offline-Auswahlverfahren

indem die beobachteten absoluten Häufigkeiten der Merkmalspaarungen den bei Gültigkeit der Nullhypothese zu erwartenden absoluten, völlig zufällig verteilten Häufigkeiten gegenüber gestellt werden. Ist der empirische Wert größer als der theoretische, muss die Nullhypothese, meist die Unabhängigkeit zweier Variabler, abgelehnt werden. Die Variablen sind vielmehr als abhängig anzusehen. Voraussetzung sind jeweils reine Zufallsmuster, nur absolute Werte und größere Fallzahlen. Die Testdurchführung erfolgt in folgenden Schritten: • Formulierung der Null- und der Arbeitshypothese, • Wahl der geeigneten Testart, • Festlegung des Signifikanzniveaus, • Bestimmung des kritischen Chi quadrat-Werts, abhängig von Zahl der Freiheitsgrade und dem gewünschten Vertrauensbereich, • Berechnung des empirischen Chi quadrat-Werts, • Vergleich des empirischen mit dem kritischen Chi quadrat-Wert, • Interpretation des Ergebnisses. Die OC-(Operations Characteristic-)Kurve zeigt an, wie ein Testverfahren im Einzelnen funktioniert, unabhängig davon, ob es im spezifischen Fall zweckmäßig ist oder nicht.

4. Verzerrungsmöglichkeiten bei der Erhebung Hinsichtlich der Fehlermöglichkeiten bei der Auswahl gibt es Stichprobenausfälle und Stichprobenfehler. Bei Stichprobenausfällen gibt es unechte Ausfälle, die stichprobenneutral sind und daher die Aussage nicht weiter verzerren, sowie echte Ausfälle, die zu Ergebnisverzerrungen führen. Leider ist die Realität durch echte Fehler bei Stichprobenausfällen gekennzeichnet. Bei Stichprobenfehlern gibt es zufällige Fehler als zufallsähnliche Messfehler und Stichprobenfehler i. e. S., die nur bei Teilerhebung mit Zufallsauswahlverfahren auftreten und zumindest den Vorteil haben, dass Abweichungen der Ergebnisse der Stichprobe gegenüber einer Vollerhebung in der Grundgesamtheit statistisch ausgewiesen werden können. Sowie systematische Fehler als Auswahlfehler und sonstige, nicht stichprobenbedingte Fehler, die auch bei Vollerhebung und bewusster Auswahl auftreten und nicht wahrscheinlichkeitstheoretisch erfassbar sind, da sie in Unzulänglichkeiten in der Versuchsanlage begründet liegen. Zufällige und systematische Fehler ergeben gemeinsam den Gesamtfehler. Systematische Fehler haben mehrere Ursachen. Durch den Träger der Untersuchung hervorgerufene Fehler entstehen bei der Erhebungsplanung, u. a. bei unpräziser Definition des Untersuchungsziels, falscher Formulierung des Untersuchungsgegenstands, unklarer Abgrenzung der Grundgesamtheit, aus der Verwendung unkorrekter, veralteter Unterlagen, aus unzweckmäßiger Auswahl und Kombination der Methodenelemente, mangelhaftem Fragenprogramm etc. Sie entstehen bei der Erhebungstaktik, u. a. durch falsche Zusammensetzung des Interviewerstabs, unzweckmäßige Fragebogengestaltung, unklare Instruktionen zur Erhebung, unangemessene Operationalisierung der zu erhebenden Sachverhalte, nicht valide und reliable Messinstrumente etc. Sie entstehen durch die Anwendung ungeeigneter Auswahlverfahren mit Strukturungleichheit von Grundgesamtheit und Auswahlgrundlage oder lückenhafter Auswahlbasis. Und sie entstehen durch die Verfahrensumsetzung selbst, z. B. durch Rechen- und Rundungsfehler, Auswertungs-, Darstellungs- und Interpretationsfehler, Codierfehler, falsch angewandte Analyseverfahren. Fehler bei der Erhebungsdurchführung entstehen u. a. aus mangelhafter Organisation der Feldarbeit und deren ungenügender Kontrolle, ungünstigen Zeitumständen, verspäteter Ausführung etc. Durch den Interviewer hervorgerufene Fehler entstehen u. a. infolge Verzerrung des Auswahlplans durch Manipulation und Falschauswahl, durch Quotenfehler bzw. Verzerrung der Antworten bei Beeinflussung der Auskunftspersonen, durch Erscheinungsbild und soziale Differenz zwischen Befrager und Befragtem als

98

Kap. II: Offline-Auswahlverfahren

Auftrittsfehler, durch suggestives Vorbringen von Fragen, Betonung, Stimmlage und durch selektive / nachlässige Antwortregistrierung bzw. Falscheintrag infolge Übertragungsfehler. Durch Probanden hervorgerufene Fehler entstehen u. a. durch Non responseFälle, aus Gründen wie interviewende Person wird nicht angetroffen, Antwort wird verweigert, Person ist antwortunfähig etc., und Falschbeantwortung, z. B. infolge Überforderung, Prestige, Affekt, Erinnerungslücke, Drittbeeinflussung. Hinzu tritt das Problem, dass Teilausfälle infolge nur unvollständiger Beantwortung einzelner Fragen gegeben sind als Missing values. Kommen kumulativ mehrere dieser Fehlerquellen zusammen, also unvollständige Ausgangsdaten oder ungültige Adressen, Verzicht auf Ansprache abwesender Personen, Verweigerungsquote etc., leidet die Aussagefähigkeit der Forschung erheblich. Insofern ist es wichtig zu berücksichtigen, dass Forschungsdaten trotz elaborierter Verfahren nur mehr oder minder gute Anhaltspunkte sind, keineswegs jedoch bis auf die Kommastelle genau genommen werden dürfen. Daher ist vor Entscheidungen immer eine Plausibilitätskontrolle wichtig, und wenn „Bauchgefühl“ und Daten einander widersprechen, sollte man dem Bauchgefühl folgen oder die Daten zumindest noch einmal kritisch hinterfragen. Insgesamt entsteht eine ganze Reihe von Problemen, die an der Aussagefähigkeit der gewonnenen Informationen zweifeln lassen: • unvollständige Informationsbasis bei den Auskunftspersonen, • fehlendes Erinnerungsvermögen an beurteilungsrelevante Informationen, • Unfähigkeit, aufgeforderte Antworten zu formulieren, • als zu hoch angesehener Aufwand für die Mitarbeit, • fehlender Zusammenhang zwischen Frage und konkreter Lebenssituation, • keine eigene Erfahrung oder keine Meinung bei fehlender Kategorie „weiß nicht“ o. Ä., • mehrdeutige oder zu elaborierte Fragenformulierung und / oder Antwortvorgaben, • bewusste Falschantworten, etwa bei Überforderung oder sensiblen Themen bzw. bewusste Antwortverweigerung, • einzelne Fragen werden übersehen und versehentlich nicht ausgefüllt, • Fragen werden nicht verstanden (inhaltlich oder sprachlich), • fehlende Motivation zur sorgfältigen Beantwortung von Fragen, • Zeitprobleme bei großem Fragenumfang, • Filterführung unübersichtlich, so dass man sich im Fragebogen verheddert.

Kapitel III

Offline-Erhebungsverfahren Bei Offline-Erhebungsverfahren handelt es sich um die Formen der Befragung, der Beobachtung und abgeleitet des Experiments. Befragungen erfolgen traditionell in den Modalitäten mündlich, telefonisch, schriftlich sowie modern computergestützt. Sonderformen betreffen die Omnibuserhebung, die Gruppenbefragung, die Gemeinschaftsuntersuchung und die Kohortenanalyse. Beobachtungen können ebenfalls in verschiedenen Ausprägungen erfolgen. Das Experiment ist eine spezielle Anwendungsform der Befragung oder Beobachtung. Entsprechend dieser Themen ergeben sich die Unterkapitel Primärerhebung (1.), Sonderformen der Befragung (2.), Befragungsdurchführung (3.), Beobachtung (4.) und Experiment (5.). Zumeist wird implizit von der Befragung als Erhebungsform ausgegangen. Dies verkennt jedoch die Tatsache, dass sich die meisten ökonomisch relevanten Sachverhalte einer verbalen Erfassung entziehen. Auskunftspersonen sind sich dieser etwa nicht bewusst oder vermeiden es, dazu, erst recht fremden Dritten gegenüber, Stellung zu beziehen. Dies auch, weil Halb- und Unwahrheiten bei Marktforschungsprojekten i. d. R. ungerügt bleiben. Daher kann es sehr sinnvoll sein, auf Verfahren der Beobachtung zu setzen, zumal dazu ein großes und wachsendes Instrumentarium zur Verfügung steht. Bei beiden kann verfahrensoffen vorgegangen werden oder planmäßig zur Widerlegung bzw. Bestätigung vorab aufgestellter Hypothesen. Dabei handelt es sich dann um die Erhebungsform des Experiments.

1. Primärerhebung Die Primärerhebung betrifft die Ermittlung originär neuer Daten und kann als Befragung, Beobachtung oder in Sonderform als Experiment angelegt sein. Welches Erhebungsverfahren eingesetzt wird, ist von vielfältigen Faktoren abhängig, u. a. dem Untersuchungsziel, der Auskunftsquelle, der Häufigkeit etc., die im Folgenden erläutert werden und vom Einzelfall abhängen. Hinsichtlich der Erhebungsverfahren kann grundsätzlich zwischen der Form der (verbalen) Befragung und der der (visuellen) Beobachtung unterschieden werden. Hinsichtlich der dazu herangezogenen Medien kann zwischen real (offline) und virtuell (online) unterschieden werden. Entsprechend ergeben sich folgende Kombinationen (siehe Abbildung 30: Konstellationen der Primärerhebung): • realer und verbaler Informationsaustausch als Offline-Befragung, • realer und visueller Informationsaustausch als Offline-Beobachtung, • virtueller und verbaler Informationsaustausch als Online-Befragung, • virtueller und visueller Informationsaustausch als Online-Beobachtung.

verbale Kommunikationsmodalität

visuelle Kommunikationsmodalität

Offline (klassisch)

Reale Befragung

Reale Beobachtung

Online (modern)

Virtuelle Befragung

Virtuelle Beobachtung

Abbildung 30: Konstellationen der Primärerhebung (eig. Darst.)

Bei Befragungen sind zwischenzeitlich Online-Interviews vor computergestützten Telefon-Interviews am verbreitetsten. Weiterhin gängig sind mündliche Befragungen, schriftliche Befragungen hingegen spielen nurmehr eine untergeordnete Rolle. Hinzu kommen seit geraumer Zeit App-Befragungen. Häufig werden auch Mixed mode-Befragungen genutzt, also solche mit Einsatz kombinierter Befragungsarten. Gründe dafür sind vor allem eine bessere Ausschöpfung der Stich-

101

1. Primärerhebung

probe, eine schnellere Verfügbarkeit von Daten und niedrigere Kosten. Die Ausrichtung erfolgt am jeweiligen Verhalten der Teilnehmer, und eine Befragungsart übernimmt sinnvollerweise die Führung. Ansonsten besteht die große Gefahr, dass die auf verschiedene Arten erhobenen Daten untereinander nicht vergleichbar sind. So ist bekannt, dass der Einsatz von Online-Medien das Befragungsergebnis gegenüber mündlicher Erhebung verzerrt. Das gleiche gilt in Relation der anderen Erhebungsarten. Wenn aber die Stichprobe nicht über eine Erhebungsart hinreichend erschlossen werden kann, bleibt nur, die mediale Verzerrung in Kauf zu nehmen.

1.1 Arten der Befragung

mündlich

Gruppeninterview

telefonisch/ fernmündlich

Einzelinterview

computergestützt

schriftlich

CAPI

CASI

CATI

Abbildung 31: Modalitäten der Offline-Befragung

Die Befragung ist das am häufigsten angewandte und wichtigste Erhebungsverfahren der Primärforschung. Dabei lassen sich mehrere Befragungsarten unterscheiden so nach: • der Kommunikationsform in mündlich, fernmündlich, schriftlich, computergestützt (siehe Abbildung 31: Modalitäten der Offline-Befragung), • dem Standardisierungsgrad in absteigender Abstufung als vollstandardisiert, strukturiert, teilstrukturiert oder frei, • der Art der Fragestellung in direkt oder indirekt bzw. offen oder geschlossen, • dem Befragungsgegenstand in Einthemen-(Spezial-)befragung und Mehrthemen(Omnibus-)befragung, • der Befragtenanzahl in Einzelinterview, also nur eine Person gleichzeitig, oder Gruppeninterview, also mehrere Personen zugleich, • dem Befragtenkreis in Verbraucher, Experten, Haushaltsvorstände, Mitarbeiter etc., • der Befragungshäufigkeit in einmalig, wiederholt, regelmäßig. Diese Kriterien lassen sich beinahe beliebig miteinander kombinieren. Demnach gibt es eine nicht zu überblickende Vielzahl von Befragungsformen, von denen im Weiteren die wichtigen, für die Praxis relevanten beleuchtet werden.

102

Kap. III: Offline-Erhebungsverfahren

In Bezug auf die Offline-Befragung sind wiederum verschiedene Ausprägungen möglich. Im Regelfall gibt es dabei • ein Thema, zu dem relevante Informationen erhoben werden sollen, • eine wie auch immer ausgewählte Person, die befragt werden soll, • eine einmalige Befragungsausführung (ad hoc), • einen Auftraggeber als Initiator der Befragung. Von diesem Regelfall wird im Folgenden ausgegangen. Anschließend werden dann Sonderformen betrachtet. Hinsichtlich des Standardisierungsgrads des mündlichen Interviews lassen sich das standardisierte, das strukturierte und das explorative (Tiefen-)Interview unterscheiden (siehe Abbildung 32: Einzelinterviewarten). Dabei ist ein Trade-off zwischen hoher Vergleichbarkeit der Antwortergebnisse und Eingehen auf die Individualität der Befragungssituation zu lösen. Das heißt, je größer die Individualität, desto geringer die Vergleichbarkeit et vice versa. niedrig

Vergleichbarkeit

hoch standardisiert

vollstrukturiert teilstrukturiert explorativ

Abbildung 32: Einzelinterviewarten (eig. Darst.)

1.2 Mündliche Befragung 1.2.1 Interviewarten 1.2.1.1 Standardisiertes Interview Beim standardisierten Interview liegt ein genauestens ausformulierter Fragebogen vor, der die Reihenfolge der einzelnen Fragen exakt vorgibt, ebenso wie jede erlaubte Erklärung. Es ist vorgegeben, ob diese Erläuterung in jedem Fall gegeben werden muss und ob weiterführende Erläuterungen gegeben werden dürfen. Der Interviewer muss sich jeglichen Kommentars enthalten, darf bei den Antworten

1. Primärerhebung

103

weder Überraschung, noch Zustimmung oder Missbilligung zeigen. Er soll jedoch Interesse an der Meinung des Befragten bekunden (siehe Abbildung 33: Frage­ bogen für ein standardisiertes Interview).

Abbildung 33: Fragebogen für ein standardisiertes Interview (Ausschnitt)

Als wesentliche Merkmale sind dabei folgende zu nennen. Es besteht eine Kontrolle über Form und Ablauf des Interviews, die eine Quantifizierung der insgesamt durchgeführten Erhebungen und damit deren Vergleichbarkeit erlaubt. Dies wiederum ist zwingende Voraussetzung für die Generalisierbarkeit gewonnener Informationen und deren datenverdichtende Auswertung. Der Interviewereinfluss wird auf ein Mindestmaß begrenzt, da die Fragen bei sämtlichen Auskunftspersonen den gleichen Wortlaut haben und in derselben Reihenfolge gestellt werden. Allerdings sind nach wie vor alle non-verbalen Beeinflussungsgefahren, etwa durch Auftreten, Aussehen, Umgebungssituation etc., gegeben. An Interviewer werden vergleichsweise geringe Anforderungen gestellt, so dass zugleich eine Interviewerüberlastung vermieden wird. Betriebswirtschaftlich erlaubt dies den Einsatz fachlich weitgehend ungeschulter Interviewer. Darunter leidet aber zugleich die Professionalität der Erhebung. Die Auswertung der Fragebögen ist relativ einfach zu bewerkstelligen. Alle Fragen können gleichartig verarbeitet werden. Dies wirkt vor allem bei der Codie-

104

Kap. III: Offline-Erhebungsverfahren

rung und Dateneingabe rationalisierend. Gleichzeitig wird die Fehlerquote durch Übungseffekte bei der Übertragung verringert. Begrenzend wirkt die mangelnde Anpassung an individuelle Situationen. Dies kann nur durch eine Lockerung des strikten Standardisierungsgrades erfolgen. 1.2.1.2 Strukturiertes Interview Das strukturierte Interview kann in voll- oder teilstrukturierter Form angelegt werden. Beim vollstrukturierten Interview liegt ein ausformulierter Fragebogen vor, der die Reihenfolge der Fragen und deren Wortlaut vorgibt. Die Reglementierung ist jedoch nicht so streng wie beim standardisierten Interview, so dass Freiräume für das Eingehen auf Einzelfälle bestehen bleiben. Darunter leidet entsprechend die Vergleichbarkeit der Befragungsergebnisse untereinander. Jedoch kann dadurch besser auf die Individualität des Befragten eingegangen werden. Dies ist wichtig zur Steigerung dessen Auskunftsfähigkeit und -willigkeit. Von non-direktiver Technik spricht man, wenn sich der Interviewer bei der Befragung stark zurückhält und nur unauffällig lenkt, von semi-direktiver Technik, wenn der Interviewer flexibel und durchaus auch straffer im Sinne des Ergebnisziels führt, und von direktiver Technik, wenn der Interviewer das Gespräch dominiert und sagt, wo es langgeht. Ziel ist in jedem Fall die Ermittlung hypothetischer, unzugänglicher und normativer Sachverhalte. Beim teilstrukturierten Interview liegt dem Interviewer nur ein Frageleitfaden vor, der die wichtigsten Punkte enthält, die im Interview angesprochen werden sollen. Formulierung und Reihenfolge der Fragen sind nicht festgelegt. Der Interviewer kann nach eigenem Ermessen Fragen auslassen und / oder Zusatzfragen stellen, er kann eigene Erklärungen abgeben und auf die verschiedenen Aspekte mehr oder minder vertieft eingehen. Damit wird eine natürliche Gesprächssituation simuliert. Es ist jedoch kein Vergleich der Ergebnisse mehrerer Befragungen unterschiedlicher Personen möglich. Denn jedes Interview ist individuell auf die Befragungsperson zugeschnitten und läuft anders als das nächste. Die individuelle Informationsausbeute dürfte also höher sein, deren Bewertung erweist sich jedoch als schwieriger. Der Interviewer hat als alleinige und dominante Bezugsperson einen starken Einfluss auf den Gesprächsverlauf und -inhalt. Insofern kommt es bei Einsatz verschiedener Befrager zu weiteren Verzerrungen. Daher ist der Einsatz erfahrenerer Interviewer angezeigt, was sich wiederum auf die Kostensituation auswirkt. Eine Auswertung ist nur über Audiomitschnitt oder Protokoll durch eine zweite Person möglich, wobei beides Verzerrungsgefahren birgt, im ersten Fall durch mindere Aufmerksamkeit, im zweiten durch Ablenkung der Befragten.

1. Primärerhebung

105

1.2.1.3 Exploratives Interview Beim explorativen Interview (auch freies Tiefeninterview) erfolgt eine psychologische, offene Interaktion in kleinen Fallzahlen, bei der von der Auskunftsperson neben der Antwort die Lösung und Behandlung vorgegebener Problem- und Auf­ gabenstellungen erwartet wird. Deshalb steht hier nur das Thema der Befragung fest, der Ablauf des Interviews liegt jedoch vollständig beim geschulten Interviewer. Ein Tiefeninterview ist ein besonders intensiv geführtes Gespräch, bei dem aufgrund der freien Form dem Befragten erheblicher Freiraum für die Einbringung von Gedanken und Gefühlen gelassen wird. Ziel ist dabei die Gewinnung von Einblicken in die Motivstruktur der Befragten. Oft wird dieses Verfahren auch als Pilotstudie eingesetzt, wenn nur wenig verwertbare Kenntnisse vorliegen und neue Einsichten gewonnen werden sollen. Dies erlaubt die Konkretisierung, Präzisierung und Priorisierung von Tatbeständen, die dann später durch eher standardisierte Verfahren erhoben werden. Dazu sind 20–30 Interviews vollauf ausreichend. Als wesentliche Merkmale sind folgende zu nennen. Es kann auf die Individualität der Befragungsperson mühelos eingegangen werden. Dadurch entsteht eine gewisse Vertrauensbeziehung zwischen Befrager und Befragtem, die weitergehende Erkenntnisse ermöglicht, aus denen wichtige Ergebnisse abgeleitet werden können. Die Reihenfolge der getätigten Äußerungen sowie deren Art und Intensität geben ebenso wichtige Erkenntnishinweise. Diese Möglichkeiten bleiben bei stärker vorgegebenen Interviewabläufen verschlossen. Zum Beispiel ist davon aus­zugehen, dass zuerst genannte Inhalte subjektiv bedeutsamer sind als später genannte. Es kommt zu einer gesteigerten Aussagewilligkeit, verbunden mit spontanen, anderweitig unreflektierten Äußerungen und vielfältigen Einsichten in die Denk-, Empfindungs- und Handlungsweise der Befragten (sog. Insights). Damit entstehen wertvolle Hinweise. Es sind jedoch psychologisch geschulte Fachleute für die Durchführung eines Tiefeninterviews erforderlich. Kurzfristig geschulte Interviewer reichen dafür bei Weitem nicht aus. Vielmehr geht es um Profis, welche die Ergebnisqualität bestimmen. Die Vergleichbarkeit von Aussagen aus verschiedenen Interviews ist eng begrenzt. Im Grunde genommen handelt es sich um monadische, untereinander nicht bezugsfähige Einzelfallstudien, die letztlich wenig valide sind, sondern von den Eigenheiten einzelner Personen abhängen. Die Protokollierung der Aussagen parallel zur Führung des Interviews ist anspruchsvoll. Nachträgliche Aufzeichnungen sind unvollständig und verzerrend, wörtliche Protokolle aufwändig. Üblich sind daher Ton- oder Bild-Ton-Aufnahmen, die allerdings einen verzerrenden Charakter auf die Auskünfte haben können. Die Auswertung ist schwierig. Sie impliziert Deutungsspielräume. Vor allem ist das womöglich begrenzte Formulierungs- und Ausdrucksvermögen der Testper-

106

Kap. III: Offline-Erhebungsverfahren

sonen zu berücksichtigen. Hinzu kommt deren nur mehr oder minder ausgeprägte Kommuni­kationsfreudigkeit. Das Verfahren bedingt einen deutlich höheren Kosteneinsatz als bei quantitativen Erhebungen. Dies ist auch durch die Dauer des Tiefeninterviews bedingt, die schon deshalb größer ist, da zunächst die tiefen Bewusstseinsschichten erreicht werden müssen. Zudem ist ein erheblicher qualitativer Spielraum in Untersuchungsanlage, -­abwicklung und -auswertung gegeben, so dass Ergebnisse verschiedener Forscher kaum vergleichbar und damit letztlich auch statistisch nicht belastbar sind. 1.2.2 Wesentliche Vorteile Die mündliche Befragung kommt der natürlichen Gesprächssituation je nach Anlage recht nahe. Allerdings sind Antworten nur mehr oder minder gute Indika­ toren für Meinungen, Einstellungen, Wünsche etc., aber vermutlich nicht identisch mit der Realität. Die Identität der Befragungsperson lässt sich mühelos feststellen. Dies ist durchaus nicht bei allen Erhebungsarten möglich. Dadurch kann, was entscheidend ist, von den Aussagen unmittelbar auf die dahinter stehende Person rückgeschlossen werden. Durch mehrmaliges Besuchen und durch Erläuterung des Untersuchungszwecks kann die Verweigerungsquote niedrig gehalten werden. Insofern kommt es zu einer guten Stichprobenausschöpfung und zu vergleichsweise geringen, verweigerungsbedingten, also ungewollten Verzerrungen. Spontane Reaktionen der Befragten bei der Fragestellung und ggf. die Beantwortungszeit können durch den Interviewer beobachtet und entsprechend vermerkt werden. Dies bietet interessante Aufschlüsse über die reine Fragestellung hinaus, die bei anderen Befragungsmodalitäten verloren gehen würden. Die Umfeldeinflüsse (situative Faktoren) sind, wenn schon nicht kontrollierbar, so doch zumindest feststellbar. Insofern handelt es sich um eine, wenngleich nur in Grenzen, kontrollierte Erhebungssituation. Vor allem besteht die Möglichkeit, Störfaktoren einzudämmen. Bei Nichtverstehen von Fragen können vom Befragten Rückfragen gestellt werden, bei ungewollten Mehrdeutigkeiten kann der Interviewer ggf. aufklärende Erläuterungen zur Zielrichtung von Fragen geben. Dadurch steigt die Aussagefähigkeit der Erhebung. Visuelle Hilfsmittel wie Vorlagen, Muster, Skalen etc. können problemlos eingesetzt werden. Dies vereinfacht und präzisiert die Befragungsinhalte. Damit sind auch differenzierte Fragestellungen möglich. Vor allem können Auskunftsthemen konkretisiert werden.

1. Primärerhebung

107

Der Umfang der Befragung kann größer angelegt sein, da dem Befragten notwendigerweise der Überblick darüber fehlt. Somit sind auch Zusatzfragen einzubeziehen, die sich erst aus dem Fragenablauf ergeben. Dies führt ansonsten leicht zur Antwortverweigerung. Sofern Ermüdungserscheinungen auftreten, sind diese erkennbar und es kann versucht werden, ihnen gezielt durch Motivation (z. B. Auflockerung, Anreize, Pausen) entgegen zu wirken. Dazu ist allerdings eine gewisse Flexibilität der Befragung hilfreich. Durch den Aufbau einer Vertrauensbasis können ehrlichere Antworten erreicht werden, selbst zu heiklen Themen. Begünstigt wird dies durch die natür­ liche Umgebung für die Befragungsperson. Dadurch erhöht sich ihre Bereitschaft zur Mitteilung. Interviewer-Einstufungen der Auskunftsperson (auch Soziale Fremdeinstufung / ​ SFE) und seines Umfelds, z. B. Stadtteil, Wohnungsgröße, Möblierung, sind darstellbar und liefern wichtige Kontextinformationen. Wenngleich dabei Vorsicht geboten ist, weil es dafür meist an einer einheitlichen Bezugsbasis mangelt. Es ist eine genaue Steuerung der Fragenreihenfolge und, in Maßen, auch der Antworten möglich. Dies kommt unmittelbar der Vergleichbarkeit von Antworten zugute. Außerdem können dadurch methodische Prinzipien verfolgt und taktische Vorteile erzielt werden. 1.2.3 Wesentliche Nachteile Es ist im Regelfall eine relativ große Zahl von Interviewern erforderlich. Dadurch schnellen die Personalkosten der Erhebung in die Höhe. Dies gilt besonders, soll eine hinreichende räumliche Streuung der Erfassung gewährleistet sein. Es ist eine intensive, fachkundige Schulung der Interviewer erforderlich, damit diese sich komplexen Befragungssituationen gewachsen zeigen. In der Praxis werden hier aus Ersparnisgründen aber oft ungeschulte, unqualifizierte Interviewer eingesetzt. Oft sind mehrmalige Kontaktaufnahmen erforderlich, ehe eine Auskunftsperson tatsächlich erreicht werden kann. Selbst dann sind hohe Ausschöpfungsquoten, wie wünschenswert, nur mit großem Zeit- und Kostenaufwand realisierbar. Der Anteil schwer erreichbarer Personengruppen steigt, z. B. Singles, beruflich mobile Personen, Doppelverdiener-Haushalte. Damit kommt es zu systematischen Verzerrungen bei der Probandenauswahl zu eher immobilen Personengruppen. Interviewer können leicht einzelne Fragen oder den gesamten Fragebogen fälschen. Eine Interviewerkontrolle stößt an enge Praktikabilitätsgrenzen und ist zudem recht kostenaufwändig. So sind allenfalls Stichprobenkontrollen realisierbar.

108

Kap. III: Offline-Erhebungsverfahren

Auch durch den Interviewer selbst können Verzerrungen in den Antworten der Befragten auftreten. Seine Gegenwart stört die Anonymität der Befragung und provoziert evtl. Antworten gemäß sozial erwünschtem Verhalten oder auch bloße Gefälligkeitsantworten.

1.3 Telefonische Befragung 1.3.1 Bedeutung Die Mehrzahl der Befragungen wird tatsächlich via Telefon durchgeführt. Folgende Faktoren begünstigen das Telefoninterview. Die Auftraggeber setzen immer knappere Termine und verlangen besonders zeitsparende Erhebungsmethoden. Die Auskunftsbereitschaft des Publikums steigt, man ist womöglich eher bereit, am Telefon zu antworten als Face to face. Die Telekommunikationstechnologie hat erhebliche Komfortfortschritte in der Nutzung gebracht. Die Telefoniegebühren werden für Ferngespräche immer günstiger bei grenzüberschreitenden Erhebungen, im Inland unterliegen sie ohnehin einer Flatrate. Für die erfolgreiche Durchführung der telefonischen Befragung ist eine Reihe von Aspekten beachtenswert. Unbedingt sollte Respekt vor der angerufenen Person, auch ihren Einschränkungen, bestehen. Der Beginn des Telefonats besteht immer aus einer „ordentlichen“ Begrüßung, mindestens mit Grußformel nach Tageszeit, Nennung des Nachnamens, Nennung des Vornamens, Firma / Institut, Ort / Geschäftssitz. Dann sollte der Anrufgrund erläutert werden. Dabei ist eine nutzenstiftende Formulierung aufzugreifen. Des weiteren ist die Zeitverfügbarkeit zu klären, dabei reicht ein ungefährer Zeitumfang aus. Ebenso sind ungestörte situative Bedingungen abzuklären. Falls dies nicht gegeben ist, ist um Klärung zu bitten oder eine neue Anrufzeit zu vereinbaren. Verbreitet sind Kontaktwiderstände anzutreffen, die es zu überwinden gilt, etwa • „keine Zeit“, hier auf kurzen Zeitbedarf hinweisen oder neuen, besser passenden Termin anbieten, • „keine Ahnung“, es sind keine Vorkenntnisse erforderlich, ganz im Gegenteil, • „kein Interesse“, individuellen späteren Nutzen der Befragungsergebnisse herausstellen, • „Sorge um Anonymität“, strikte Zusicherung, allein schon wegen Gesetzeslage, • „kenne Sie doch gar nicht“, Rückruf am Geschäftssitz anbieten, alternativ Internet-Suche, • „wieso gerade ich?“, viele Einzelinterviews, die erst in der Summe repräsentativ sind,

1. Primärerhebung

109

• „ich kaufe nichts“, keine Sorge, hier wird nichts verkauft, sondern nur gefragt, • „was bekomme ich dafür?“, Ihre Auskünfte kommen Ihnen als Produktverbesserungen zugute. Für das Gespräch ist ein bedächtiges Sprechtempo sinnvoll, wegen kognitiver Fähigkeiten, evtl. auch Sprachverständnis, und fehlender anderer Wahrnehmungsmodalitäten wie Gesichtsausdruck, Körperhaltung o. Ä. beim Angerufenen. Ebenso sollte die Lautstärke tendenziell höher sein, auch wegen Übertragungsqualität und Aufmerksamkeits-Trigger. Wichtig ist eine „freundliche“ Stimme („Lächeln“) am Telefon, evtl. kontrolliert durch einen Spiegel. Es versteht sich von selbst, dass alle Unterlagen in Griffweite sein müssen, also Fragebogen, Schreibgerät, Erhebungserläuterungen etc. Dabei sind alle Interviewnormen einzu­halten (vollstandardisiert, strukturiert, frei). Ablenkende Nebentätigkeiten verbieten sich ebenso. Ausufernde und nicht zur Frage gehörige Einlassungen sind freundlich einzugrenzen. Auf suggestive Formulierungen ist immer zu verzichten. Vor Gesprächsende ist die Vollständigkeit der Bearbeitung zu prüfen. Falls möglich, kann angefragt werden, ob die angerufene Person später für ein weiteres Interview zur Verfügung steht. In jedem Fall ist eine freundliche Verabschiedung obligatorisch. Vor dem nächsten Telefonat ist die Zuordnung aller Informationen zum abgelaufenen Interview sicherzustellen. Dann sind alle Unterlagen für das nächste Interview vorzubereiten. Von Zeit zu Zeit ist eine Reflektion hilfreich, wie der Verlauf der Telefonate taktisch optimiert werden kann. Zunehmend werden telefonische Befragungen computergestützt durchgeführt (s. u.). 1.3.2 Wesentliche Vorteile Die telefonische Befragung ist kostengünstig im Nah- wie im Fernbereich durchführbar. Sie eignet sich insofern besonders für Blitzumfragen und zur Nachbefragung bei Unklarheiten mündlicher Umfragen, aber auch zur effektiven Interviewerkontrolle. Bei Nichtzustandekommen eines Interviews entstehen keine Wegstrecken und damit auch keine Zeitverluste für Fehlversuche wie das bei mündlichen Befragungen der Fall wäre. Diese Effizienzerhöhung ist das wichtigste praktische Argument für eine telefonische Befragung. Es besteht womöglich eine höhere Teilnahmebereitschaft durch Wahrung einer gewissen Anonymität seitens der Befragten. Auch ist es wahrscheinlicher, dass der Hörer abgenommen als dass die Tür geöffnet wird, da ein höheres Maß an Sicherheit gewahrt wird. Durch ein neutralisierendes Medium werden womöglich offenere und ehrlichere Antworten wahrscheinlich. Die Befragungsperson muss sich weniger ihrem

110

Kap. III: Offline-Erhebungsverfahren

Gesprächspartner gegenüber offenbaren und hat daher eine höhere Auskunfts­ bereitschaft. Es entsteht ein geringerer Interviewereinfluss als bei mündlicher Befragung, da z. B. das äußere Erscheinungsbild des Befragers keine Rolle mehr spielt, also Alter, Hautfarbe, Haartracht, Kleidung etc. Allerdings bleiben noch Stimme, Betonung, Dialekt etc. als Einflussfaktoren. Das direkte Gespräch ermöglicht beiderseitige Rückfragen, also, falls gewünscht, einen Dialog. Dadurch kann Missverständnissen vorgebeugt werden und die Aussagefähigkeit des Interviews ist höher. Insofern entsteht eine bessere Verwertbarkeit der Befragungsergebnisse. Der Interviewer kann die befragte Person, den Befragungszeitpunkt und ggf. die Fragetaktik bestimmen. Dies ist abhängig von der Anlage des Interviews und kann, analog zur mündlichen Form, vollstandardisiert, strukturiert, teilstrukturiert oder auch frei erfolgen. Auch können mehrere Versuche zur Kontaktaufnahme erfolgen, ohne dass die Kosten wesentlich steigen. Damit kommt es zu einer höheren Ausschöpfungsquote der Stichprobe und insgesamt zu weniger systematischen Verzerrungen. Es reichen vergleichsweise weniger Interviewer aus, so dass ein hohes Maß an Wirtschaftlichkeit im Personalbereich erreicht wird. Zudem ist eine weitgehend freie Zeiteinteilung im Nebenberuf möglich. Oft ist sogar ein Anruf außerhalb der Arbeitszeit wegen der Erreichbarkeit der zu Befragenden sinnvoller. Es wird, bei entsprechendem Einverständnis des Angerufenen, eine Ton­ aufzeichnung von Gesprächen darstellbar, die eine intensivere Auswertung und Kontrolle ermöglichen. Dadurch entfällt das Mitschreiben und eine volle Konzentration auf den Gesprächsablauf ist gegeben. Außerdem ist nur auf diese Weise ein hinlänglich einheitlicher Erhebungsstichtag realisierbar. Dies ist besonders bei aktualitätsanfälligen Themen von Bedeutung, bedingt dann aber auch eine größere Anzahl von Interviewern, die parallel eingesetzt werden. 1.3.3 Wesentliche Nachteile Die telefonische Befragung ist begrenzt in der Dauer des Interviews und damit in der Anzahl abzufragender Inhalte. Durch die Distanz wird Unmut schneller ausgedrückt, weil die Hemmschwelle sinkt. Das kann zum vorzeitigen Interviewabbruch durch Belästigung oder Überforderung führen. Die Anonymität führt auch zu einer leichteren Antwortverweigerung, vor allem bei tabuisierten Themen. Daher bleiben Fragethematiken, die fernmündlich abfragbar sind, eingeschränkt. So wird häufig der Mitschnitt von Telefongesprächen gefürchtet, um diese in ihrem Zweck zu entfremden.

1. Primärerhebung

111

Es sind keine unterstützenden Abbildungen, Skalierungen etc. einsetzbar. Visuelle Hilfsmittel fördern aber entscheidend die Aufklärung von Informationen und dienen der Klarheit und Eindeutigkeit von Themeninhalten. Ein Bild sagt auch hier mehr als tausend Worte. Als Kommunikationsmittel dient nur der Ton, genauer die Stimme, non-verbale Reaktionsindikatoren können nicht registriert werden. Diese belegen jedoch die geäußerte Meinung überzeugender als Sprachsignale, die einer höheren kognitiven Kontrolle unterliegen. Situative Einflüsse, wie Anwesenheit Dritter, häusliche Verhältnisse etc., sind nicht feststellbar. Damit können auch entsprechende Einwirkungen weder neutralisiert noch überhaupt registriert werden. Dies geht zulasten der Erhebungsqualität. Ebenso ist es nur gering möglich, die Auskunftsdaten durch Angaben über den persönlichen Eindruck des Befragten und seines Umfelds zu ergänzen. Allerdings sind diese ohnehin nur von begrenztem Nutzen, da sie auf subjektiver Einschätzung beruhen, die interpersonell stark abweichen dürfte. Der Anruf erfolgt womöglich zu unpassender Zeit, so dass der Befragte ihn als Störung empfindet oder abgelenkt ist. Dann ist ein Interview nur schwerlich durchführbar. Ein Wiederholungsanruf wird oft abgeblockt, da man ihn an der Rufnummer erkennen und sperren und somit eine langwierige Befragung vermeiden kann. Eine eindeutige Legitimation des Interviewers ist nicht möglich. Damit bleiben Zweifel an der Seriosität der Untersuchung auf Seiten des Befragten bestehen. Zumal Misstrauen gegenüber unbekannten, zudem noch „unsichtbaren“ Anrufern besteht. In Einzelfällen ist die Gesamtheit der Telefonbesitzer nicht repräsentativ für die Grundgesamtheit, etwa nicht bei Studierenden, Zuwanderern, Obdachlosen etc. Dann kommt es zu einer systembedingten Verzerrung der Befragungsergebnisse vor allem bei mobilen Zielgruppen. Das Auswahlmaterial ist nicht vollständig und aktuell. So fehlt oft die Eintragung von Neuanschlüssen bzw. die Löschung von Altanschlüssen. Einige Telefonnummern hingegen sind doppelt aufgelistet, z. B. geschäftlich und privat, Doppelnamen, Erst- und Zweitwohnung, andere gar nicht wie Geheimnummern, die ca. 25 % aller Anschlüsse ausmachen. 25 % der Haushalte sind zudem nur noch unter einer Mobilfunknummer zu erreichen (vor allem junge), die nicht verzeichnet ist. Die zunehmende Verbreitung von Telefonanrufbeantwortern im privaten Bereich behindert zudem die Kontaktaufnahme. Man dringt erst gar nicht mehr zur Befragungsperson durch. Dies dürfte zudem zu systematischen Verzerrungen zwischen Angerufenen führen.

112

Kap. III: Offline-Erhebungsverfahren

1.4 Schriftliche Befragung 1.4.1 Fragebogenaufmachung Die schriftliche Befragung bedient sich, wie die mündliche, verbaler Statements als Stimuli, um Stellungnahmen zu erzeugen. Jedoch ist das Kommunikationsmedium nicht der Interviewer, sondern ein Fragebogen. Diesen erhalten Personen mit der Bitte um Durchlesen, Ausfüllen und Zurückgeben. Schriftliche Befragungen machen nur einen kleinen Teil der Umfragen aus, sind jedoch im Bereich der Facherhebungen recht verbreitet (dort werden sie jedoch zunehmend durch geeignete Online-Befragungen verdrängt). Zentrales Element ist der Fragebogen, Zustellung wie auch Rückgabe erfolgen postalisch oder durch Verteilung. Ein entscheidender Erfolgsfaktor der schriftlichen Befragung ist die Fragebogengestaltung. Selbstverständlich sollte er optisch ansprechend sein, was angesichts DTP-Ausstattung kein Problem mehr darstellt. Komplizierte Fragebogendesigns, wie sie für mündliche Befragungen durchaus Interviewern zuzumuten sind, verbieten sich für schriftliche Befragungen. Eine übersichtliche, gut gegliederte Darstellung ist hingegen unverzichtbar. Wo immer möglich, sollte mit grafischen Elementen anstelle von textlichen gearbeitet werden. Auch sollen die gewählten Antwortprinzipien und Skalen durchgängig über alle Fragen beibehalten werden. Die Filterführung im Fragebogen muss so einfach wie möglich gehalten sein. Auf komplizierte Fragebogenfilter, die komplette Passagen überspringen, sollte ganz verzichtet werden. Es versteht sich von selbst, dass Fragebögen so kurz wie möglich gehalten werden sollen. In jedem Fall bedarf auch die schriftliche Befragung eines ausführlichen Tests vorweg, um anderweitig leicht zu übersehenden Durchführungsbarrieren zuvorzukommen. Formal hat sich die Anwendung von weniger, dafür größeren Seiten bewährt, z. B. Doppel-DIN-4-Bogen. Zumal einzelne Blätter, wenn sie nicht fest verbunden sind, leicht verloren gehen. Dieser Gefahr unterliegt im Übrigen auch der Antwortumschlag. Bei der Schriftgröße liegt die Verlockung nahe, eine kleinere Typo zu verwenden, um mehr Text auf einer gegebenen Fläche unterzubringen. Dabei sollte man jedoch nicht die verbreitete Weitsichtigkeit schon ab mittlerem Alter in der Bevölkerung vergessen. Farbiges Papier bzw. farbige Fonds mögen zwar aufmerksamkeitssteigernd wirken, zugleich verschlechtern sie aber auch die Lesbarkeit des Textes. Zudem mag die Farbe nicht gerade als Zeichen erhöhter Seriosität des infrage stehenden Projekts gedeutet werden. Auch die Papierqualität ist ein wichtiges Signal. Aus Portokostengründen wird hier oft leichtes (Florpost-)Papier verwendet, das aber die vorgebliche Bedeutung der Umfrage in den Augen der Zielpersonen konterkarieren dürfte. Die Wahl von Typografie, Farbigkeit und Papierart setzt zudem wichtige, non-verbale Signale in Bezug auf den Initiator der Befragungsaktion und sein Verständnis über die Auskunftspersonen. Daher sind diese Variablen mit Bedacht auszuwählen.

1. Primärerhebung

113

Bei der Formulierung der Fragen gelten alle Anforderungen der mündlichen Befragung. Für die Antwortangabe ist das Ankreuzen von Antwortalternativen hilfreich, nicht nur wegen einer evtl. maschinellen Auswertung, sondern auch wegen verbreiteter Problematiken der Handschriftlesbarkeit bzw. Ausdrucksfähigkeit. Zwar gilt eine Mehrthemenbefragung grundsätzlich als methodisch vorteilhaft, bei schriftlichen Befragungen führt sie jedoch gerade zu längeren, abschreckend wirkenden Fragebögen und ist damit kontraproduktiv. Allgemein ergeben sich bei der Beantwortung schriftlicher Fragebögen verschiedene Fehlerquellen: • Nonresponder sind Personen, die zwar zur Stichprobe gehören, aber erst gar nicht in den Fragebogen einsteigen, • Lurker sind Personen, die einen Fragebogen lediglich in Augenschein nehmen, ohne ihn letztlich zu bearbeiten, • Answering drop-outs sind Personen, die einen Fragebogen zu bearbeiten beginnen, dann aber aussteigen, • Item-Nonresponder sind Personen, die den Fragebogen zurückschicken, ohne alle Fragen vollständig auszufüllen. Nur Complete responder sind Personen, die einen Fragebogen vollständig bearbeiten und ausfüllen. Einflussfaktoren stellen u. a. folgende dar: • Erhebungsthema, hier geht es vor allem um die persönliche Betroffenheit als Involvement, • Zeitfaktor, hier sind Nachfassaktionen (Reminder) angezeigt, sofern diese erfolgversprechend scheinen, • kognitive Restriktionen, dem kann durch übersichtliches Fragebogendesign entgegengewirkt werden, • sprachliche Kompetenzen der Befragungspersonen, hier hilft ein einfacher Aufbau des Fragebogens, • Motivation, hier können, allerdings umstritten, Incentives hilfreich sein, aber auch eine persönliche Ansprache. 1.4.2 Ursachen des Rücklaufproblems und dessen Lösung Trotz dieser sorgfältigen Gestaltung des Fragebogens, einer klaren Strukturierung mit leichten Einstiegsfragen, einfachem Fragenablauf und ansprechender optischer Aufbereitung gilt ein besonderes Augenmerk der Steigerung der Rücklaufquote, die bestenfalls 20 % beträgt, regelmäßig aber weit darunter liegt. Die Halbwertzeit des Rücklaufs beträgt erfahrungsgemäß 10–14 Tage, d. h., bis dahin

114

Kap. III: Offline-Erhebungsverfahren

ist etwa die Hälfte des insgesamt zu erwartenden Rücklaufs erfolgt. Gründe für ein Rücklaufproblem sind, dass • der Fragebogen abwesende, verreiste, verzogene, verstorbene Adressaten erst gar nicht oder außerhalb des Erhebungszeitraums erreicht, • eine Verwechslung der Erhebungsunterlagen mit unverlangt zugesandten Werbesendungen vorliegt, die ungelesen entsorgt werden, • die Auskunftsperson nur gering involviert ist, folglich herrscht Desinteresse, Misstrauen, Bequemlichkeit vor, und sich als nicht-betroffen bzw. nicht-zuständig erachtet, • die Auskunftsperson antwortunfähig ist, etwa geistig überfordert, körperlich behindert, sprachunkundig, analphabetisch etc., • ein weit verbreitetes Misstrauen gegen personenbezogene Informationsabgabe besteht, gerade auch aus Gründen des Datenschutzes, • in der Befragung Tabubereiche angesprochen werden, zu denen man sich nur ungern äußert, wenn es sich denn vermeiden lässt (z. B. sexuelle Orientierung), • der formale Aufbau des Fragebogens und die Gestaltung der Fragen einen erhöhten Schwierigkeitsgrad vermuten lassen, dem man sich nicht gewachsen glaubt oder aussetzen will, • Befragungsunterlagen verloren gehen oder verlegt werden, wie das im täglichen Durcheinander leicht passieren kann, • der Ergebniseintrag aufgeschoben und schließlich vergessen bzw. das Abgabedatum überschritten wird, weil Zeitmangel vorliegt oder vorgeschoben wird. Möglichkeiten für Maßnahmen zur Rücklaufverbesserung sind etwa folgende: • Glaubwürdige und neutrale Berichte über das entsprechende Forschungsvorhaben, welche die Seriosität unterstreichen, • handgeschriebene Zusätze, die von Individualität zeugen, so dass nicht unbedingt der Eindruck einer Massenaussendung entsteht, • Zugabe positiv wirkender Fotos über das Projekt, denn Bilder wirken informativ und motivierend und verbessern damit die Teilnahmebereitschaft, • postalischer Versand trotz Kostenvorteil nicht als Drucksache, da damit eine Aussonderungsgefahr bereits im Posteingang besteht, sondern als „normaler“ Brief, • Versand an postschwachen Tagen (montags), nicht zu Stresszeiten (Jahresende) oder in der Kernferienzeit, um eine erhöhte Beachtung zu erreichen, • Wahl von Sonderbriefmarken zum Portofreimachen, anstelle von Freistemplern oder „normalen“ Briefmarken, dadurch erscheint die Sendung individueller,

1. Primärerhebung

115

• Nachfassaktion über Telefon oder schriftlicher Nachfass als Reminder, auch mehrmalig, wenn es erforderlich scheint, • evtl. nochmaliger Versand des gleichen Fragebogens mit geändertem Anschreiben, um die Bearbeitungschance zu erhöhen, • „Androhung“ eines Interviewerbesuchs, falls die Beantwortung nicht erfolgt, so dass Probanden das kleinere Übel zu wählen geneigt sind, • Setzung einer relativ knappen Deadline zur Rücksendung, dies ist allerdings problematisch bei Überschreiten der Deadline, da die Rücksendung selbst ausgefüllter Fragebögen dann als nicht sinnvoll erachtet wird, • telefonische oder schriftliche Vorankündigung und Angabe einer Kontakttelefonnummer zur Rückfrage bei Unklarheiten, um vermeidbare Abbruch- oder Zurückweisungsquellen zu beheben, • Begleitschreiben mit persönlicher Anrede (Zusicherung der Anonymität, Vorausdank, Erklärung des Befragungszwecks), evtl. von einer „Autorität“, die abhängig von der intendierten Auskunftsgruppe ist, verfasst, • Beifügung eines freigemachten Rückumschlags oder Gebühr-bezahlt-Empfänger-Vermerks, so dass Kosteneinwendungen aufgefangen werden können, • genaue Angabe des Rückempfängers, möglichst durch Eindruck, so dass das Ausfüllen der Adresse erspart bleibt und Arbeit vermieden wird, • Kopplung mit kleinen Geschenken oder Gewinnanreizen, allerdings ist dies umstritten, weil dadurch Gefälligkeitsantworten wahrscheinlich sind und die Anonymität der Befragten verloren geht, • Zusage der Ergebnisberichterstattung als Feedback, damit der Befragte von der gesammelten Information profitiert, vor allem sinnvoll bei Facherhebungen, • Kombination mit Garantiekartenrücksendung oder Produktbeilage bei Käufern, wobei daraus nicht unerhebliche Verzerrungen folgen können. 1.4.3 Sonderformen der schriftlichen Befragung Als Sonderformen der schriftlichen Befragung sind vor allem folgende zu nennen. Bei der Klassenzimmerbefragung werden an eine Anzahl in einem Raum versammelter Personen Fragebögen verteilt, die von diesen simultan auszufüllen sind. Dadurch können wesentliche Vorteile der mündlichen und schriftlichen Befragung kombiniert und zugleich deren wesentliche Nachteile vermieden werden. Das Ausfüllen erfolgt unter Anleitung als Inhall-Befragung. Es sind klärende Nachfragen möglich. Der Interviewereinfluss wird minimiert. Eine eindeutige zeitliche und personelle Zurechenbarkeit der Ergebnisse ist gegeben, ebenso vollständiges Ausfüllen und hohe Ausschöpfungsquote.

116

Kap. III: Offline-Erhebungsverfahren

Bei der Caravan-Befragung wird der Raum durch ein mobiles Befragungsstudio ersetzt, in dem mündliche oder schriftliche Interviews durchgeführt werden. Der Vorteil liegt in der räumlichen Variabilität. So können zufällig vorbeikommende, quotenkonforme Personen unmittelbar nach dem „Baggern“ befragt werden. Außerdem können leicht unterschiedliche Standorte abgedeckt werden. Die POS-Befragung (Shop survey) schließlich erfolgt durch das Ausfüllen von Fragebögen am Einkaufsort selbst durch Kunden / Besucher (also im Laden / am Point of sale). Dort kann je nach Bedarf bei Käufern oder Nichtkäufern erhoben werden. Dabei ist der Einfluss des Kaufentscheids oder dessen Ablehnung noch besonders frisch, was je nach Lage der Dinge erwünscht sein oder verzerrend wirken kann. Eine weitere Sonderform besteht in der Ergänzung eines längeren Face to face-Interviews durch einen zweiten Fragebogen, welcher der Zielperson im Anschluss an das persönliche Interview als Selbstausfüller hinterlassen wird. Dieser schriftliche Fragebogen wird entweder durch den Veranstalter zu einem späteren Zeitpunkt wieder abgeholt oder durch die Zielperson per Post zurückgesandt. Typische Anwendungsbeispiele für diese Art der Kombinationsmethode liefern groß angelegte Media-Studien. Eine Befragung via Telefax ist schneller und kostengünstiger als ein postalischer Fragebogen und sein Beachtungswert ist oft höher. Vor allem in internationalen Business to business-Bereich oder im Öffentlichen Dienst mit nahezu 100 %iger Fax-Abdeckung empfiehlt sich diese Befragungsvariante noch bei mangelnder Internet-Abdeckung / Digitalisierung.

1.4.4 Wesentliche Vorteile Es entstehen vergleichsweise geringe Kosten, da ein erheblicher Zeitaufwand bei geografisch weit verstreuten Erhebungseinheiten vermieden werden kann. Insofern spielt die räumliche Entfernung keine Rolle, z. B. bei Auslandsmarktforschung. Allerdings muss die Effizienz durch die weitaus geringere Rücklaufquote relativiert werden. Außerdem entfällt die Verzerrungsmöglichkeit durch fehlenden Interviewereinfluss. Damit entfallen auch Antwortfälschungen. Insofern sind zwei wesentliche Verzerrungsquellen neutralisiert und die Aussagefähigkeit einer schriftlichen Befragung ist womöglich höher als die einer vergleichbaren mündlichen / telefonischen. Die postalische Zustellung der Fragebögen erhöht die Erreichbarkeit der Auskunftspersonen. So können auch schwer erreichbare Personen, die ansonsten leicht als Stichprobeneinheiten ausfallen, kontaktiert werden, z. B. Schichtarbeiter, Landwirte, Außendienstmitarbeiter.

1. Primärerhebung

117

Die befragten Personen haben genügend Zeit, die einzelnen Fragen zu beantworten. Die Auskunft wird damit überlegter und präziser, was meist im Sinne des Auftraggebers ist, jedoch auch erhebliche, kognitiv bedingte Verzerrungen impliziert. Bei Zeitmangel kann die Bearbeitung unterbrochen und zu einem späteren Zeitpunkt wieder aufgenommen werden. Damit wird das Problem der Befragungsunterbrechung vermieden, die ansonsten zum Abbruch und zur Aussonderung aus der Stichprobe führt. Die Zusicherung der Anonymität der Auskunftspersonen steigert deren Auskunftsbereitschaft gerade bei sensiblen Themen, zu denen man sich Face to face nur ungern äußert. Wenngleich immer versteckte Kennzeichnungen auf dem Fragebogen vermutet werden und auch tatsächlich vorzufinden sind. Es sind sehr hohe Fallzahlen mit begrenztem Aufwand erreichbar. Die Abwicklung des Versands der Fragebögen ist weitgehend mechanisierbar, so dass selbst große Aussendungen schnell und kostengünstig handhabbar sind. Bei Standardinhalten von Briefsendungen können zudem kostengünstige Tarife in Ansatz gebracht werden.

1.4.5 Wesentliche Nachteile Unvollkommenheiten im Fragebogen, die ein Interviewer ausgleichen könnte, bleiben ohne Korrekturmöglichkeit. Der Gegenstand der Befragung beschränkt sich somit auf einfache, klare und leicht verständliche Sachverhalte. Dies schränkt die Einsetzbarkeit der schriftlichen Befragung mehr oder minder ein. Es ist eine gewisse Schreibgewandtheit der Auskunftspersonen vorauszusetzen, was nicht in allen Bevölkerungsschichten ohne Weiteres selbstverständlich ist. Außerdem ist die Lesbarkeit bei Antworten offener Fragen oft zweifelhaft, zumindest aber mühsam. Fehlinterpretationen durch falsch verstandene Sachverhalte können nicht aufgeklärt werden und führen so zu unkontrollierten Falschantworten oder Ausfällen, welche die Aussagefähigkeit einer Erhebung grundsätzlich gefährden. Die Reihenfolge der Beantwortung der Fragen ist nicht kontrollierbar. Von daher können auch keine Kontrollfragen gestellt werden. Umgekehrt sind Fragen, deren Beantwortung von anderen Fragen abhängig ist, nur schwerlich einsetzbar. Dadurch ist die Fragebogentaktik stark eingeschränkt. Es gibt kaum Stimuli zur Erhöhung der Auskunftsbereitschaft. Dazu ist allenfalls das Fragebogenlayout in begrenztem Maße in der Lage. Insofern kommt es leicht zu Ermüdungserscheinungen bei Befragten und zum Verschieben der Bearbeitung oder zum Abbruch.

118

Kap. III: Offline-Erhebungsverfahren

Ebenso fehlt die Beobachtung von Reaktionen der Teilnehmer beim Ausfüllen des Fragebogens, z. B. in Form von Spontanreaktionen, sowie die Registrierung von Umfeldeinflüssen. Dabei ist vor allem die mögliche Anwesenheit Dritter beim Ausfüllen des Fragebogens nicht kontrollierbar. Evtl. wird der Fragebogen nicht von der Zielperson, sondern durch diese Dritten, oder zumindest gemeinsam mit diesen, ausgefüllt. Damit ist die Repräsentanz der Antworten nicht mehr gegeben. Es entsteht ein erhebliches Identitätsproblem. Allgemein werden überlegtere Antworten gegeben, damit ist ein höherer kognitiver Anteil verbunden, der zu Verzerrungen gegenüber der Realität, die eher durch affektive Einschätzungen geprägt ist, führt. Dies entwertet die Ergebnisse zu einem gewissen Anteil. Sofern in einer Voranfrage die Bereitschaft zur Teilnahme an einer schriftlichen Befragung abgeklärt wurde, besteht die Gefahr systematischer Fehler, wenn zu vermuten ist, dass reagierende und nicht-reagierende Personen sich in Bezug auf die zu untersuchenden Merkmale systematisch unterscheiden. Der Umfang des Fragebogens ist begrenzt, da eine unmittelbare Konfrontation mit dem gesamten Fragenumfang stattfindet. Je mehr Fragen die Person dabei gegenwärtig wird, desto wahrscheinlicher ist eine zögerliche Bearbeitung. Es können keine verschleiernden Zielsetzungen durch Fragestrategie angestrebt werden, da der gesamte Fragebogen genutzt wird und es nicht auszuschließen ist, dass die Befragungsperson sich durch kursorische Durchsicht einen ersten Überblick über die anstehenden Themen verschafft. Das Adressmaterial kann unvollständig sein und allein schon dadurch eine Einschränkung der Grundgesamtheit darstellen. Verzerrungen entstehen durch verzögerte Wohnsitzmeldung, Umzug, Auslandsaufenthalt, Zweitwohnsitz etc. Der Zeitpunkt der Beantwortung eines Fragebogens kann meist weder bestimmt werden noch ist er einheitlich. Dies ist bei stichtagsbezogenen Erhebungen sehr hinderlich. So können kurzfristige Einflüsse auf die Beantwortung einwirken, etwa bei politischen Themen. Komplizierte und aufwändige Nachfassaktionen machen den Kostenvorteil der schriftlichen Befragung ganz oder teilweise wieder zunichte, wenn die erwartete Rücklaufquote nicht erreicht wird. Insofern bleibt die Anwendung auf bestimmte Zielgruppen begrenzt.

119

1. Primärerhebung

1.5 Computergestützte Befragung 1.5.1 Bildschirmbefragung 1.5.1.1 Darstellung Bildschirmbefragung (CAPI)

Computerbefragung (CASI)

Telefonbefragung (CATI)

Abbildung 34: Computergestützte Befragungen

Bei der computergestützten Befragung sind mehrere Ausgestaltungsformen zu unterscheiden. Im Wesentlichen handelt es sich um die Bildschirmbefragung als moderne Form der mündlichen Befragung (CAPI), die computergestützte Telefonbefragung als moderne Form der telefonischen Befragung (CATI) und die Computerbefragung als moderne Form der schriftlichen Befragung (CASI). Zunächst zur Bildschirmbefragung (siehe Abbildung 34: Computergestützte Befragungen). Als Bildschirmbefragung (Computer Assisted Personal Interviewing / CAPI) bezeichnet man eine Form, bei welcher der Fragebogen durch ein PC-Display ersetzt wird und der manuelle Eintrag durch eine PC-Tastatur. Dabei liest der Interviewer Fragen vom Bildschirm ab und tippt die Antworten der Auskunftsperson über ein alphanumerisches Keyboard ein. In diesem Zusammenhang sind zahlreiche Verfeinerungen denkbar. So ist neben der Sprachausgabe der Fragen auch die Spracheingabe der Antworten möglich. Der Interviewer kann auch mehreren Personen im Teststudio eine Frage vortragen, und diese geben ihre Antworten parallel selbst an ihrem PC ein. Auch können die Antwortalternativen auf eine vorgetragene Frage als Strichcodes auf einem Vordruck ausgewiesen sein, die mit einem Lesestift abgetastet und dadurch eingegeben werden (Scanning). Bei der Bildschirmbefragung werden folgende wichtige Formen unterschieden: • Simultane Mehrpersonenbefragung. In einem Studio werden dazu mehrere Personen durch einen Interviewer befragt. Die Antworten werden von ihnen über eine alphanumerische Eingabetastatur oder optische Datenerfassungsgeräte (z. B. Handscanner mit Strichcodevorgabe für die Antwortalternativen) parallel an ihren Plätzen eingegeben. • Unabhängige Mehrpersonenbefragung. Dabei werden mehrere Personen getrennt voneinander erhoben. Der Interviewer liest die Fragen jeweils vor und gibt die Antworten der Auskunftspersonen nach Einzelabfrage per Tastatur ein. Denkbar ist auch die zeitgleiche Abgabe von Fragen an alle beteiligten Probanden.

120

Kap. III: Offline-Erhebungsverfahren

1.5.1.2 Wesentliche Vorteile Jeweils sind durch leichte Handhabung auch komplexe Befragungsformen und längere Befragungen möglich. Die Befragungsdurchführung kann zudem indivi­ duell auf die Auskunftsperson zugeschnitten werden, so dass Besonderheiten Rechnung getragen werden kann. Splits und Filterführungen werden automatisch vollzogen. Abhängig von der jeweils gegebenen Antwort wählt das Programm die Folgefrage. Dadurch sind auch kompliziertere Abläufe darstellbar. Zugleich wird der Interviewer von dieser Steuerung entlastet. Offene Fragen sind einsetzbar, denn ausführliche Antworten können vollständig aufgenommen werden. Eine Kürzung des Antworttextes aus Platzgründen ist nicht erforderlich und die Eingabe über die PC-Tastatur leicht vorzunehmen. Die Antworten auf offene Fragen können automatisch kategorisiert und codiert werden. Die Codepläne zur Auswertung werden parallel zur Befragung entwickelt und lassen sich sukzessiv vervollständigen. Dies ist vor allem in der Pilotphase außerordentlich hilfreich. Signifikanzkriterien können laufend beachtet werden. Stichproben sind sequenziell ziehbar und Zwischenauswertungen jederzeit abrufbar. Über begleitende Datenstabilitätsprüfungen kann ermittelt werden, ob die vorliegende Fallzahl bereits für ein gesichertes Ergebnis ausreicht, selbst wenn die Stichprobe noch nicht vollständig ausgeschöpft ist. Eine relativ schnelle Datenverarbeitung mit automatischer, integrierter Auswertung der Ergebnisse ist gegeben. Die Kosten für eine manuelle Übertragung der Daten entfallen. Dabei ist die Datenerfassung zugleich sicherer, da Übertragungsfehler vermieden werden, wie sie bei der Vercodung durch Nachlässigkeiten leicht vorkommen können. Außerdem werden bei vollstandardisierten Fragen weniger Interviewer benötigt, weil sich die Interviewdauer verkürzt und somit in einer gegebenen Zeitspanne mehr Fälle bearbeitet werden können. Dadurch ist eine hohe Erhebungseffizienz darstellbar. Es ist ein mobiler Einsatz machbar. Denn kompakte Laptops oder Notebooks sind portabel und ohne großen Aufwand arbeitsfähig. Sowohl Größe als auch Gewicht stellen kein Problem mehr dar und auch die Bedienung ist komfortabel und leichtgängig. Der Interviewer-Bias wird minimiert. Der Interviewer wird entlastet und kann sich stärker auf den Interviewpartner konzentrieren, da ihm wesentliche Arbeiten durch den PC abgenommen werden. Dies verbessert die Atmosphäre in der Befragung und damit die Kooperationsbereitschaft der Befragungspersonen. Es sind ständige Plausibilitätskontrollen auf Fehler, Inkonsistenzen etc. möglich. Dies erfolgt durch programmierten Rückgriff auf vorangegangene Antworten.

1. Primärerhebung

121

Widersprüchliche Ergebnisse werden so erkannt, ungültige Eingaben zurückgewiesen und Zusatzfragen zur Korrektur erzeugt. Parallel können weitere Testsysteme über Datenbus angeschlossen werden. So ist eine unmittelbare, integrierte Auswertung der Ergebnisse möglich. Die Datenauswertung wird damit beschleunigt und kann befragungsbegleitend optimiert werden. Die Frage- und Antwortkategorien sind randomisierbar / rotierbar, wodurch Positionseffekte ausgeschaltet werden. Dies erfolgt durch zufallsgesteuerte Rotation von Interview zu Interview. ohne dass der Interviewer dazu eingreifen müsste. Bildvorlagen können durch Einscannen eingebunden werden. Peripheriegeräte können befragungssynchron gesteuert werden. Allerdings entsteht dabei ein gewisser Handlingaufwand für Inbetriebnahme und Vernetzung. 1.5.1.3 Wesentliche Nachteile Es entstehen relativ hohe Investitionskosten. Zwar fallen die Preise der Technik kontinuierlich, doch zugleich verkürzt sich auch der Lebenszyklus der Technologien, so dass zügige, dann aber wieder teure Neuanschaffungen erforderlich sind, um up to date zu bleiben. Eine intensive Interviewerschulung ist erforderlich, um eine kompetente, persönliche Betreuung zu ermöglichen. Die Technik muss so sicher beherrscht werden, dass sie möglichst wenig Aufmerksamkeit bindet und keine Fehler verursacht. Ein hoher Stromverbrauch ist gegeben, mobil entsprechend eine hohe Akkulast. Dadurch ist der Aktionsradius des Einsatzes begrenzt. Dies gilt vor allem für optische und mechanische Bauteile. Hilfen sind Power banks und Aufladungen im Fahrzeug, Die Geräte sind empfindlich in Transport und Einsatz. Daher sind nicht selten Operator-Kenntnisse beim Interview erforderlich, um Störungen zu beheben, oder aber Rückfragen im Help-Center. Dies birgt Fehlerquellen, verursacht aber zumindest einen Zeitverlust. Eine komplexe Datenübertragungskoordination ist erforderlich. Dabei können Datenträger offline oder Datenleitungen online genutzt werden, in jedem Fall ist perfekte Kompatibilität erforderlich. Mobil sind zudem häufig keine stabilen Netze und Netzabdeckungen vorhanden. Es ist immer noch nur vergleichsweise wenig Anwendungs-Software verfügbar (z. B. Rogator, Google consumer survey, Lime survey, Meineumfrage.com, Questback, Respondi, Smart munk, Survey monkey, Zappi). Und diese sind nicht immer als ausgereift zu betrachten, so dass systembedingte Limitationen in Kauf zu nehmen sind. Zudem entsteht eine Abhängigkeit von Updates und Releases zur Aktualisierung.

122

Kap. III: Offline-Erhebungsverfahren

Für jedes Projekt entsteht ein hoher Programmieraufwand. Die Programmierung betrifft die Eingabe von Fragen und Antwortkategorien, die Festlegung der Filterführung, die Rotation und Randomisierung, die Planung von Rückgriffsequenzen auf Vorantworten, die Eingabe von Intervieweranweisungen und Hilfsinformationen, die Gestaltung von Bildschirmlayout, Hintergrund und Hervorhebungen. Es sind weitgehend nur standardisierte Fragen anwendbar. Denn offene Fragen erfordern durch ihren nach wie vor hohen Eingabeaufwand Zeit und Aufmerksamkeit, die für die eigentliche Interviewführung fehlen. In dieser Beziehung ergibt sich kein Vorteil. Die bisher durchgeführten Untersuchungen sind noch nicht hinreichend validiert. Dazu bedarf es erst ausgiebiger Vergleiche mit herkömmlichen Befragungen (extern) und zahlreicher mit Bildschirmbefragung durchgeführter Interviews (intern). Es steht jedoch zu befürchten, dass die Auskunftsfreudigkeit und -ehrlichkeit durch die Tatsache der Tastatureingabe nicht gerade gesteigert wird. Die Vorlage von Bildern, Skalen etc. ist nur eingeschränkt möglich. Allerdings werden diese und andere technischen Probleme immer geringer. Dafür sorgt der technische Fortschritt, z. B. über Zweitmonitor, Kompaktbeamer, externe Lautsprecher.

1.5.2 Telefonbefragung 1.5.2.1 Darstellung Die computergestützte Telefonbefragung (Computer Assisted Telephone Interviewing / CATI) ist eine Sonderform der telefonischen Befragung. Dabei werden vom Interviewer die vor ihm auf dem Bildschirm erscheinenden Fragen dem Befragten am Telefon vorgelesen und dessen Antworten wieder über die PC-Tastatur eingegeben. Daraufhin wird vom Programm entsprechend des Fragebogenaufbaus die nächste Frage am Bildschirm generiert. Unzulässige Antworten werden reklamiert. Verzweigungen im Fragenablauf werden in Abhängigkeit von den jeweiligen Antworten unmittelbar eingeschlagen. Der Computer übernimmt also als Hilfsmittel den gesamten technischen Ablauf der Befragung von der Anzeige der Telefonnummer bis zur automatischen Anwahl der Zielpersonen. Nicht erreichte Personen werden vermerkt oder neu angezeigt und angewählt. Abgebrochene Interviews können gespeichert und zu einem festgesetzten Zeitpunkt fortgesetzt werden. Da parallel zur Datengewinnung eine Datenanalyse erfolgt, muss der Stichprobenumfang nicht von vornherein festgelegt werden. Die Befragung kann vielmehr so lange durchgeführt werden, bis sich eine Stabilisierung der Ergebnisse einstellt. Die computergestützte Telefonbefragung erfordert allerdings eine vorherige Programmierung des Fragebogens und der Fragenabläufe. Die Möglichkeiten der

1. Primärerhebung

123

Fragestellung sind insofern eingeschränkt, als man sich im Wesentlichen auf standardisierte Fragen beschränkt, ferner können Bilder, Grafiken oder Muster nicht vorgelegt werden. Dennoch hat die Möglichkeit der schnellen und kostengünstigen Durchführung dazu geführt, dass diese Befragungsform die verbreitetste ist. Eine Sonderform der Telefonbefragung nutzt Voice computer. Dabei ist ein Interviewer zu erübrigen, vielmehr stellt ein Chatbot via Telefon Fragen und identifiziert die Antworten der Zuhörer auf Basis von Big Data (= Wissensdatenbank). Dabei erfolgt sowohl eine Spracheingabe wie -ausgabe. Allerdings sind Fehlerkennungen ein Problem, etwa aufgrund von Tonstörungen, Dialekt, unbekannten oder antonymen Wörtern (z. B. Zug) etc. Alternativ ist auch die Erfassung über (Tonwahl-)Tastatursignal (auch Touchstone data entry) möglich. Die Anwahl erfolgt ebenfalls computergestützt. Dies eignet sich vor allem für Kurzumfragen (auch Polls), da nur wenige Fragen auf diese Weise zumutbar sind. Die Tonwahl basiert auf dem Mehrfrequenzverfahren (auch Frequenzwahlverfahren) der analogen Telefonie und eignet sich noch für Teilnehmer ohne IP-Telefonie-Abdeckung. 1.5.2.2 Wesentliche Vorteile Es ist eine leichte Handhabung sowohl aus Sicht des Interviewers wie auch aus Sicht des Interviewten möglich. Der Interviewer kann sich voll auf die Gesprächsführung konzentrieren, administrative Tätigkeiten werden ihm weitgehend abgenommen. Die Möglichkeit für automatische Splits und Filterführungen besteht, die am Operator-Monitor leicht nachvollziehbar sind. Die jeweils nächste zutreffende Frage wird dabei automatisch aufgerufen, so dass Fehlern und Ungenauigkeiten vorgegriffen werden kann. Auch offene Fragen sind möglich, da Antworten dazu über die Tastatur eingegeben werden können. Dabei ist darauf zu achten, dass der Operator dabei keine unbeabsichtigten Verzerrungen der Inhalte vornimmt. Insofern stellt sich dieselbe Anforderung wie bei der mündlichen Befragung. Eine Kategorisierung der Antworten wird für den Operator durch automatisch generierte Vorschläge aus Hintergrundprogrammen erleichtert. Dadurch werden Codierungsfehler vermindert und Unklarheiten im Gesprächsablauf vermieden. Begleitend zur Befragungsdurchführung kann mit Hilfe schneller Datenverarbeitung eine Datenstabilitätsprüfung erfolgen. Dadurch kann die Erhebung bei Ergebnisstabilisierung auf einem vordefinierten Niveau ressourcenschonend abgebrochen werden. Der Interviewer-Bias ist durch die Beschränkung auf die Modalität Sprache minimiert. Dennoch können erläuternde Informationen gegeben werden, wo dies

124

Kap. III: Offline-Erhebungsverfahren

von der Anlage her zulässig ist. Dabei ist wiederum jede Einflussnahme auf die Befragungsperson zu unterlassen. Die Durchführung der Erhebung ist vergleichsweise kostengünstig, da keine Fahrtkosten und keine Spesen anfallen sowie pauschalierte Telefongebühren gegeben sind. Hinzu kommt, dass die Erhebung ökologisch korrekt ist, da Emissionen vermieden werden. Die Befragungstempo kann individuell auf die Akzeptanz der jeweilig Befragten abgestimmt werden. Somit wird der Komfortgrad aus Sicht der Befragten erhöht und die Gefahr daraus resultierender Interviewabbrüche vermindert. Falls gewünscht, ist eine näherungsweise Antwortzeitmessung möglich. Startzeitpunkt ist die Beendigung der Frage durch den Interviewer, Endzeitpunkt ist der Beginn der Antwort durch die Befragungsperson. Dies lässt Rückschlüsse auf die Meinungssicherheit in der Auskunft zu. Die Befragung kann jederzeit unterbrochen und an der abgespeicherten Stelle später nach Vereinbarung mit der Befragungsperson weitergeführt werden. Durch diese Flexibilität entsteht eine bessere Stichprobenausschöpfung und eine höhere Belastbarkeit der Ergebnisse. 1.5.2.3 Wesentliche Nachteile Es fallen immer noch absolut hohe Investitionskosten an, um eine professionelle Arbeitsumgebung darzustellen. Dies betrifft vor allem Fixkosten durch die Arbeitsplatzausstattung, aber auch variable Kosten wie Büromiete, Strom, H ­ eizung etc. Eine intensive Interviewerschulung ist erforderlich, da die Arbeitssituation ein hohes Maß an Komplexität aufweist. Daher können nur besonders qualifizierte Interviewer eingesetzt werden, die höhere Personalkosten verursachen und damit einen Teil des Rationalisierungseffekts wieder aufbrauchen. Die Datenverarbeitungskoordination (IT) ist nicht trivial. Insofern ist jede Feld­ erhebung heute zu großen Anteilen IT-lastig. Abhilfe schaffen hier Probeläufe zur Fehlerbehebung, eine Standardisierung des Vorgehens und komplexitätsarme Projektausführungen. Standard-Software wird häufig dem individuellen Forschungsdesign nicht gerecht. Individual-Software erfordert hingegen bis zur einwandfreien Lauffähigkeit meist einen hohen Programmieraufwand. Eine Anpassung der Standardumgebung an die individuellen Anforderungen braucht den Vorteil der Standard-Software auf und schafft Fehlerquellen, die gerade vermieden werden sollen. Die externe Validität ist fraglich, d. h. die Vergleichbarkeit von Ergebnissen bei CATI-Erhebung zu solchen Ergebnissen aus anderen Erhebungsformen, damit

1. Primärerhebung

125

also das erhebungsformbedingte Ausmaß der Verzerrung. Aussagen hierzu sind nicht eindeutig. Die situativen Bedingungen auf Befragtenseite sind weiterhin unkontrollierbar und wirken als erheblicher Störfaktor. So ist die Anwesenheit Dritter nicht kon­ trollierbar, Elemente wie Ablenkung, etwa durch Kinder, oder Zeitdruck können nicht erkannt werden. Das Vorlesen der Fragen bewirkt bei Befragten eine hohe kognitive Beteiligung, die sich in den Antworten womöglich widerspiegelt. Dies ist etwa in lauten Umgebungsgeräuschen, Hörproblemen, wie sie nicht nur bei älteren Personen vorzufinden sind, Nicht-Muttersprachlichkeit etc. begründet. Es gibt unverändert ein Identitätsproblem hinsichtlich der Befragungsperson. So ist nicht kontrollierbar, ob die Antwortperson diejenige ist, als die sie sich ausgibt, ob die demografischen und sonstigen Auswahlkriterien wirklich zutreffen. Dies gefährdet akut die Belastbarkeit der Ergebnisse. Die Befragungsdauer ist prinzipiell begrenzt, da ein Telefonat womöglich leichter abgebrochen wird als ein Face to face-Gespräch. Insofern sind unvollständige Interviews wahrscheinlich. Daher sind nur kürzere Befragungen sinnvoll sowie verbale Motivationsanreize. Es gibt erhebliche Akzeptanzprobleme seitens der Befragten, da unaufgeforderte Telefonanrufe ein schlechtes Image haben und häufig mit Verkaufstätigkeiten verwechselt werden. Insofern ist die Auskunftsbereitschaft allgemein als gering einzuschätzen. 1.5.3 Computerbefragung 1.5.3.1 Darstellung Als Computerbefragung (Computer Assisted Self Interviewing / CASI) bezeichnet man eine Form, bei welcher der Interviewer durch einen PC „ersetzt“ wird. Auskunftspersonen lesen Fragen also selbst auf dem PC-Display ab und geben ihre Antworten auch selbst, oder durch Helfer unterstützt, über die Tastatur ein. Auch dabei sind zahlreiche Verfeinerungen denkbar. So können Abfrageplätze derart vernetzt sein, dass ein Zentral-Computer die Fragen ausgibt und mehrere Personen dezentral, an einem oder mehreren Orten, aber parallel ihre Antworten eingeben. Die Antworterfassung kann auf Datenträger offline erfolgen oder online über Datenleitung. Die Computerbefragung ist eine Form der schriftlichen Befragung. Bei der Computerbefragung werden folgende wichtige Formen unterschieden: • Gruppenbefragung über Videobildschirm. Dabei werden die Fragen einer Gruppe von Teilnehmern auf einem Videobildschirm angezeigt. Die Probanden geben ihre Antworten dazu an einem getrennten Terminal zeitgebunden ein.

126

Kap. III: Offline-Erhebungsverfahren

• Bei Prepared data entry werden anstelle eines Fragebogens USB-Stick / SDKarte postalisch übersandt, welche die Befragungsperson auf ihrem Computer öffnen, bearbeiten, speichern und wieder postalisch zurücksenden. Dies erleichtert gegenüber herkömmlichen schriftlichen Befragungen die Auswertung bei, in Spezialfällen interessierenden, Offliner-Haushalten / Personen. Diese machen aktuell immerhin ca. 10 Mio. Deutsche (= 16 % der Gesamtbevölkerung, vor allem ältere Personen) aus. Gründe sind „kein Interesse am Internet“, „ist mir zu kompliziert“, „kein erkennbarer Nutzen“, „Medienangebot reicht auch so aus“, Sicherheits-/Datenschutzbedenken, Zugriff bei Bekannten / Verwandten, falls erforderlich. 1.5.3.2 Wesentliche Vorteile Jeweils ist eine Kostenersparnis sowohl im Vergleich zur herkömmlichen Befragung als auch zur stationären Bildschirmbefragung gegeben. Dies liegt vor allem in der weitgehenden Ersparnis der Personalkosten für Interviewer begründet. Es entsteht kein Interviewerbias. Der Interviewerstab kann zudem minimiert werden. Der Einfluss von sozialer Erwünschtheit und Prestige bei Antworten wird merklich reduziert, denn der Computer ist ein anonymer Interaktionspartner. Eine schnelle Verarbeitung und Zentralkoordination bzw. Auswertung wird möglich. Dies betrifft die datenverarbeitungstypischen Vorteile. Der Spieltrieb bzw. der Spaß an der Bedienung des elektronischen Geräts wird gefördert. Bei der Beantwortung herrscht dabei durch die eigenständige Bedienung autonome Entscheidungsfreiheit. Fragen können in sämtlichen Sprachen und Schriften dargeboten werden. Damit sind einmal erstellte Programme auch international einsetzbar, sowie in einem Land auch ausländische Bewohner erreichbar. Ebenso wird Fehlsichtigkeit kompensiert. Die Antwortperson kann das Befragungstempo selbst bestimmen. Insofern spielen unterschiedliche Ausbildungs- und Persönlichkeitsmerkmale, wie die Auffassungsgabe der Befragten, keine Rolle mehr, und es entstehen keine Verunsi­ cherungseffekte. Bei Bedarf können zu einzelnen Fragen erläuternde Informationen aufgerufen oder Kommentare und Anmerkungen eingegeben werden. Dazu gibt es eine entsprechende Hilfe-Funktion, denkbar sind auch ein Help-Center oder eine Telefon-Hotline. Reihenfolgeeffekte können durch Randomisierung oder systematische Rotation vermieden werden. Dies gilt sowohl für Themen als auch für Fragen und Antwortkategorien. Die Steuerung erfolgt im Hintergrund, so dass die Antwortperson davon nicht tangiert wird.

1. Primärerhebung

127

Es können keine Fragen versehentlich übergangen werden, da der Fragenabruf automatisiert gesteuert ist. Dadurch wird eine optimale Standardisierung und damit Vergleichbarkeit des Befragungsablaufs erreicht. Insofern entfällt ein wesentlicher Verzerrungsgrund. Der Abbruch bei Ergebnisstabilisierung anhand der bereits vorliegende Rückläufe ist möglich, sobald statistische Güteanforderungen erfüllt sind. Auch die Zulässigkeit von Antworten kann sofort überprüft und ggf. Fehlermeldung gegeben werden. Zur korrekten Erfassung von objektiven Informationen wie Hersteller, Marke etc. können Hintergrunddateien angelegt werden, die eine automatische Antwortprüfung vornehmen und falsche Antworten zurückweisen. Allerdings kann dadurch auch eine Antwortbeeinflussung entstehen. Die Antwortzeit einzelner Fragen lässt sich ermitteln, wodurch Rückschlüsse zur Interpretation der Ergebnisse möglich sind. Dazu misst die interne Uhr den Zeitabstand zwischen Fragenaufruf am Bildschirm und Antworteingabe auf der Tastatur. Das Interview kann jederzeit und beliebig oft unterbrochen und an jeder Stelle wieder aufgenommen werden. Vorausgegangene Antworten können dabei wieder vorgelegt und Falscheingaben korrigiert werden, der Befragungsverlauf wird dann entsprechend angepasst. Die Dokumentation des Befragungstages, des Interviewbeginns und -endes und der Unterbrechungen schließt diesbezügliche Fragebogenfälschungen nahezu aus. Die Interviews haben tatsächlich stattgefunden und Ergebnisse sind nicht frei erfunden. 1.5.3.3 Wesentliche Nachteile Die Beantwortung erfolgt unter weitgehend unkontrollierten Bedingungen, vor allem kann der Spieltrieb (Gamification) auch überzogen werden. Er führt dann zur Ablenkung von der eigentlichen Thematik und zur Unübersichtlichkeit des Ablaufs. Das Lesen der Fragen zwingt den Befragten zur Konzentration auf die Frageninhalte, was zu gegenstandsbezogeneren Antworten durch kognitive Filterung führt. Die ganze Atmosphäre ist sachlicher, rationaler, weniger spontan und emotional. Vor allem besteht ein Identitätsproblem bei der Befragung, da ungewiss ist, welche Person im Einzelnen die Antworteingaben vorgenommen hat. Dies entwertet den Wahrheitsgehalt der Stichprobenauswahl und verzerrt Ergebnisse in kaum kontrollierbarer Weise. Die Komplexität der Befragung kann Antwortschwierigkeiten bei weniger versierten Personen hervorrufen. So geht der Kontext der Fragen leichter verloren

128

Kap. III: Offline-Erhebungsverfahren

und ein einfaches Vor- oder Zurückblättern ist nicht möglich. Darunter leidet die Auskunftswilligkeit und Ergebnisklarheit. Es ist eine reduzierte Lesbarkeit der Fragen bei Sehproblemen gegeben. Dies gilt zumal für die relativ kleinen Displays portabler Computer. Hier können die Schriftenwahl und das Seitenlayout zwar Abhilfe schaffen, dennoch entstehen dabei Ermüdungs- und Konzentrationsprobleme. Die Befragungsdauer ist begrenzt, was bei differenzierten Themen hinderlich ist. Es ist schwierig, entsprechende Anreize zu setzen und den Motivationsgrad hoch zu halten, zumal der Interviewer, der dabei ansonsten hilft, nicht vorhanden ist. Bei Unverständnis oder Zeitproblemen kommt es zum Befragungsabbruch, denn es besteht keine Möglichkeit des Nachfragens bei nicht verstandenen Fragen sowie ein hoher Eingabeaufwand bei offenen Fragen, was den empfundenen Anstregungsgrad erhöht. Es entstehen psychologische Konflikte durch Akzeptanzprobleme. Dies gilt vor allem bei Berührungswiderständen mit Technik allgemein und Elektronik im besonderen. Dies ist in weiten Teilen der Bevölkerung immer noch verbreitet und je nach Zielgruppe relevant. Es sind weitgehend nur standardisierte Fragen möglich, wenn keine Fingerfertigkeit in der Eingabe besteht. Dies ändert sich erst mit, derzeit immer noch geringer Verbreitung von Spracheingabe oder Handschrifterkennung in den Haushalten. Die Validität dieser Befragungsform durch Vergleich mit herkömmlichen Befragungen ist nicht hinreichend gesichert. Noch auf einige Zeit hin besteht eine eingeschränkte Repräsentanz für Massenumfragen aufgrund unvollständiger Verbreitung von Hardware und Datenleitungen. Zudem gibt es technische Probleme mit Prozessor-Generationen und Betriebssystemebenen in Abwärts-/Aufwärtskompatibilität, so dass die erforderliche, korrekte Wiedergabe des Fragebogens und seiner Anlagen verhindert oder zumindest eingeschränkt werden kann. Die Anforderungen an Auskunftspersonen sind nicht trivial, vor allem Bewegtbild-Darbietung erhöht den Handlingaufwand. Entsprechende Bedienungskenntnisse sind selbst bei erfahrenen Computernutzern nicht unbedingt vorauszusetzen.

2. Sonderformen der Befragung Neben dem Regelfall der Befragung mit einer Person, einem Thema und einmaliger Durchführung gibt es verbreitet auch Sonderfälle mit • mehreren Befragungsthemen als Omnibuserhebung, wobei die Themen gleichgewichtig oder ungleichgewichtig eingebunden sind und vom selben oder verschiedenen Auftraggebern stammen können (2.1), • mehreren Auskunftsgebern als Gruppenbefragung, genauer Gruppendiskussion bei simultaner Anlage oder Gruppenexploration bei qualitativer Anlage, diese können fallweise (ad hoc) oder wiederholt erfolgen (2.2), • zwei oder mehr Auftraggebern als Gemeinschaftsuntersuchung (auch Multi client-Untersuchung), dies geschieht im Regelfall, aber nicht bindend, für ein gemeinsames Thema (2.3), • wiederholten Befragungsdurchläufen (Kohortenanalyse), dies kann jeweils in regelmäßigen Abständen als Tracking (auch Wellenerhebung) bei vergleichbaren Personen oder als Panel bei gleichen Personen, erfolgen (2.4).

Themenanzahl Personenzahl Auftraggeber

Frequenz

Regelfall (1)

Sonderfall (>1)

EinthemaErhebung

MehrthemenErhebung

EinzelpersonErhebung

MehrpersonenErhebung

befragung

ein Auftraggeber

zwei und mehr Auftraggeber

Gemeinschaftsuntersuchung

einmalige

mehrmalige

Kohorten-

Erhebung

Erhebung

analyse

Omnibuserhebung Gruppen-

Abbildung 35: Sonderfälle der Befragung (eig. Darst.)

Auf diese Sonderformen wird im Folgenden eingegangen (siehe Abbildung 35: Sonderfälle der Befragung). Zunächst zur Omnibuserhebung mit zwei oder mehr Themeninhalten.

130

Kap. III: Offline-Erhebungsverfahren

2.1 Omnibuserhebung Die Omnibuserhebung ist eine Mehrthemenbefragung, d. h., in einem einzigen Erhebungszyklus werden mehrere Themen von verschiedenen Auftraggebern abgefragt. Sie steht damit im Gegensatz zur Spezialbefragung als Normalfall, die nur ein Thema beinhaltet. Es wird zwischen Verbraucher-, Haushalts-, Handels- und Sonder-Omnibussen unterschieden. Oft werden solche Omnibusse turnusmäßig selbstständig von Forschungsinstituten „abgefahren“, wobei die Ergebnisse nachher potenziellen Interessenten zur Verwertung angeboten werden. Es kann sich aber auch um für mehrere Auftraggeber individuell zusammengestellte Themenkomplexe handeln (Beteiligungsuntersuchung / echter Omnibus) oder um ein einheitliches Fragengerüst, das durch auftraggeberspezifische Sonderfragen ergänzt wird (Eingliederungsuntersuchung / unechter Omnibus). Zu diesen werden potenzielle Auftraggeber zur Subskription eingeladen, der Ergebnisbericht ist dann mit wesentlichem Preisnachlass zu beziehen. Ablaufbezogene Elemente einer Mehrthemenbefragung beziehen sich auf die • Themenkomposition, d. h. Art und Inhalt der in einer Mehrthemenbefragung eingebrachten Themen. Dadurch kann es zu einer Auflockerung der Befragung kommen, da sich die Befragungsdauer auf zwei oder mehr Themen verteilt. • Themensequenz, d. h. Abfolge der einzelnen Themen in einem Fragebogen. Bei ungeschickter Zusammenstellung kann es hier zu einer verzerrenden Überstrahlung von vorgelagert behandelten zu nachgelagerten Themen kommen. Wesentliche Vorteile der Omnibuserhebung sind folgende: • Die Abwicklung wird durch die weitgehende Standardisierung der Befragungsanlage wesentlich beschleunigt und erlaubt eine schnelle und unkomplizierte Durchführung. Dies gilt vor allem für den Fall nicht allzu spezifischer Erhebungsinhalte und nicht zu spezieller Erkenntniserwartungen. • Ein Kostenvorteil entsteht, da sich die technischen Kosten auf mehrere Beteiligte verteilen, dabei kann man durchaus von einem Faktor 30 gegenüber der Einthemenbefragung ausgehen. Dies demokratisiert die Möglichkeit einer repräsentativen Massenumfrage. Dies gilt vor allem, wenn nur wenige Fragenkomplexe zu behandeln sind, die den Aufwand einer eigenen Erhebung kaum rechtfertigen. • Der Untersuchungsablauf kann abwechslungsreicher gestaltet werden. Daraus folgen ein geringerer Ermüdungseffekt und eine erhöhte Auskunftsbereitschaft. Außerdem werden Lerneffekte, wie bei Spezialisierung auf ein Thema, gemindert. Von daher werden Spezialbefragungen aus methodischen Gründen gerne ein oder mehrere, weitere Themen zugemischt, so dass diese zu unechten Omni­ bussen werden. • Mit der routinierten Koordination durch Marktforschungsinstitute ist ein hohes Maß an Professionalität gewährleistet. Daher ist trotz niedriger Kosten ein hoher Forschungsstandard mit Aussagefähigkeit der Ergebnisse gewährleistet.

2. Sonderformen der Befragung

131

• Daher ist eine Nutzbarkeit auch für Interessenten mit kleinem Budget und nur wenig Forschungserfahrung gegeben. Dies gilt etwa für klein- und mittelständische Auftraggeber, die anderweitig auf diese Erkenntnisse verzichten müssten. Nachteile sind hingegen folgende: • Die Anzahl der Fragen je Themenbereich ist beschränkt und abhängig von der gesamten Fragebogenlänge und der Anzahl der Teilnehmer an der Befragung. Damit bleibt der Erkenntnisumfang begrenzt. Sollen weitergehende Erkenntnisse erreicht werden, steht nur der Weg zur Spezialbefragung offen. • Es dürfen keine Themenbereiche kombiniert werden, die eine gegenseitige Beeinflussung vermuten lassen. Allerdings können verschiedene Fragenkomplexe wenigstens durch Pufferfragen getrennt werden. Dabei ist schwierig einzuschätzen, welche Themenbereiche einander wie stark beeinflussen und ob die Puffer ausreichend trennen oder nicht. • Der Auftraggeber ist im Timing an den Erhebungsturnus des Omnibusses gebunden. Befragungen können nur zu den dort festgesetzten Terminen stattfinden. Allerdings sind die Abstände zwischen den einzelnen Runden so gering, dass daraus keine Probleme entstehen sollten. Zudem sind immer mehrere Anbieter mit zu verschiedenen Zeitpunkten startenden Omnibussen unterwegs.

2.2 Gruppenbefragung 2.2.1 Darstellung Die Gruppenbefragung kann als parallele mündliche oder schriftliche Befragung (hier nicht betrachtet) sowie als Diskussion oder Exploration ausgestaltet sein. Die Gruppendiskussion ist eine explorative Methode der Befragung und dient oft zu Beginn eines Forschungsprojekts zur einleitenden Aufklärung. Dazu diskutiert eine Fokusgruppe von meist sechs bis acht Personen der Zielgruppe oder von Experten oder Mitarbeitern unter Führung eines psychologisch geschulten Diskussionsleiters bis zu max. drei Stunden über eine vorgegebene Problemstellung, die einleitend erläutert wird. Die Gruppendiskutanten werden zur Stellungnahme aufgefordert. Dabei ist der Gefahr vorzubeugen, dass einzelne Teilnehmer die gesamte Meinung dominieren oder der Diskussionsleiter die Meinungsbildung beeinflusst. Ersterem kann durch Steuerung der Diskussionsbeiträge entgegengewirkt werden, letzterem durch weitgehende Standardisierung der Moderation anhand eines Diskussionsleitfadens. Die Diskussion soll dabei die Meinungsbildung im alltäglichen, informellen Gespräch verknappt nachempfinden. Eine heterogene Gruppenzusammensetzung hilft, möglichst unterschiedliche Ansichten kennen zu lernen, eine homogene Gruppenzusammensetzung hilft, gegenseitige Beeinflussungen zu erkennen. Durch gruppendynamische Prozesse und mangelnde Re-

132

Kap. III: Offline-Erhebungsverfahren

präsentanz der Gruppe können die Gesprächsergebnisse zwar nicht quantifiziert werden. Die Gruppendiskussion liefert jedoch gute Anhaltspunkte für relevante Problemaspekte und brauchbare Hinweise auf marktliche Umsetzungen. Der Diskussionsleiter soll Spontaneität und Aktivität der Gesprächsteilnehmer fördern und erkennbare Verzerrungen ausgleichen. Als Sonderfall kann eine Person in die Gruppe einbezogen werden, welche die übrigen Personen bewusst provoziert, um die Stabilität deren Einstellungen und Meinungen zu testen (kontradiktorische Gruppendiskussion). Oder eine Person des Auftraggebers, die gezielt auf interessierende Aspekte hinleiten kann. Das Beispiel des Videowalkman (Sony GV-8) aus der Praxis des Autors illustriert den Ansatz der Gruppendiskussion. Dabei handelte es sich um ein beinahe schuhkartongroßes Gerät, das einen kippbaren, kleinen 3-Zoll-Farb-LCD-Monitor mit Lautsprecher, ein 8 mm-Betamax-Minilaufwerk und einen TV-Tuner mit Antenne enthielt. Der Kasten war etwas über ein Kilo schwer und netzunabhängig. Der Preis lag bei knapp 4.000 DM (ca. 2.000 €). Zweifellos eine revolutionäre Innovation. Aber das Display war klein und kontrastschwach, das Betamax-System kaum verbreitet und der TV-Empfang verrauscht. Die Frage war also: „Wozu braucht man ein solches Gerät? Wer kauft so etwas? Und vor allem zu diesem Preis?“ Keiner der Manager hatte eine plausible Idee, die Geräte waren allerdings schon auf dem Seeweg nach Deutschland. Es musste also schnell gehen, für elaborierte Marktforschung war keine Zeit. Daher wurden durch ein Institut zwei Gruppendiskussionen organisiert. Die Teilnehmer sollten Videofreaks sein, männlich und mit intensivem Hobbyismus. Diese Personen wurden in der Kölner Fußgängerzone gebaggert und in ein Teststudio eingeladen. Dort gab es ein nicht funktionsfähiges Dummy des Geräts zur Anschauung. Ein erfahrener Moderator stellte daran den GV-8 vor und erläuterte dessen Funktionen. Die anschließende Diskussion wurde videoaufgezeichnet. Vertreter des Herstellers verfolgten die Diskussion in einem abgedunkelten Nebenraum (Einwegspiegel). Und tatsächlich, für die Teilnehmer der Gruppendiskussionen war sonnenklar, wozu man dieses Gerät unbedingt brauchte. Sie nannten zahlreiche, im Vor-Online-Zeitalter sehr einleuchtende Beispiele, auf die man nur als Video-Freak kommt (z. B. damals samstagnachmittags Sportschau auf dem Segelboot sehen oder Wahlergebnisse auf dem Golfplatz verfolgen). Aus diesen Ideen wurde ein achtseitiger LeporelloProspekt für den POS erstellt und die zugeteilten Videowalkmen waren durch Vorbestellungen schneller weg als jemals erträumt. Für einen solchen Fall sind Gruppendiskussionen ergiebig und effizient. Wenn es um quantitativ verwertbare Ergebnisse geht, kommen sie hingegen nicht in Betracht. Je nach Tiefe der Befragung kann eine Gruppenexploration entstehen, d. h. die gleichzeitige, interaktive Untersuchung von Einstellungen, Wünschen, Motiven etc. bei verschiedenen Personen. Dabei werden tiefere Bewusstseinsebenen und emotionale Zusammenhänge erforscht, die sich ansonsten einer direkten Abfrage entziehen. Angenommen wird, dass Gruppenexplorationen mehr Informationen liefern als Einzelinterviews mit derselben Befragtenzahl, dass sie alltägliche Kom-

2. Sonderformen der Befragung

133

munikationsstrukturen besser nachbilden als Einzelgespräche und dass sie zu tiefer gehenden Erkenntnissen führen als diese. Vorausgesetzt wird allerdings die freie Interaktion der Gruppe ohne soziale Hemmungen und Konformitätsdruck. Dazu ist in jedem Fall ein psychologisch geschulter Moderator erforderlich, ebenso sind adäquate Räumlichkeiten und Atmosphäre zu schaffen. Eine Variante sind Gruppen-Workshops mit stärkerer Interaktion als bei Gruppenexploration. Teilweise werden dabei kreative Ideen generiert. Die Gruppe wird vom Forscher zusammengestellt oder besteht bereits als formelle oder informelle Gruppe. Die Aufzeichnung erfolgt durch Audio- oder Video­ mitschnitt, um verbale und non-verbale Äußerungen zu erfassen. So kann sich der Moderator voll auf den Gesprächsverlauf konzentrieren. Die Fragen werden vollständig erfasst, so dass Gedanken- und Assoziationsketten sichtbar werden und keine Informationen verloren gehen. Alternativ sind Transcripts denkbar, d. h. vollständige Mitschriften des Gesprächsinhalts durch eine dritte Person. Voraussetzungen für den Erfolg sind eine intensive Auseinandersetzung mit der Aufgabenstellung, Szenarien relevanter Aspekte durch vorherige Hypothesenbildung, aufgabenspezifisch differenzierte Leitfäden, sorgfältige Auswahl der Gesprächsteilnehmer, systematische Auswertung, sorgfältige Interpretation und umfassende Dokumentation. Der Ablauf erfolgt generell in folgenden Phasen: • Festlegung von Zeitpunkt und Ort der Gruppenbefragung, • Vorbereitung der Räumlichkeiten (Medientechnik, Catering, Möblierung etc.), • Begrüßung der Teilnehmer, Vorstellung, Erklärung von Sinn und Zweck des Gesprächs, • Einstimmung der Teilnehmer auf die Thematik durch den Gesprächsleiter, Aufwärmphase, • Festlegung der Spielregeln für das Gruppengespräch, • Stimuluspräsentation, z. B. Neuprodukt, Werbekampagne, PR-Statement, • Rückkopplung der Teilnehmer in Bezug auf ihre individuelle Sicht der vorgestellten Thematik („Erzählphase“), • Präzisierung der Aussagen durch gezielte Nachfragen des Gesprächsleiters, • Zusatzfragen des Gesprächsleiters, die sich aus den geleisteten Beiträgen ergeben, • Dank an die Teilnehmer, evtl. Präsent, • Verabschiedung der Teilnehmer, • Sichtung und Auswertung der Ergebnisse, Präsentation, Empfehlungen. Wichtig ist dabei, dass der Gesprächsleiter sich thematisch neutral verhält, sowohl verbal als vor allem auch non-verbal und er die Wertschätzung für die, ihm möglicherweise auch unqualifiziert erscheinenden, Beiträge der Teilnehmer aus-

134

Kap. III: Offline-Erhebungsverfahren

drückt. Er darf keine Selbstdarstellung betreiben und soll keine Monologe halten (geringer Gesprächsanteil). Sonderformen der Gruppenbefragung sind: • kombinierte Gruppendiskussionen, bei denen jeder Teilnehmer der Gesprächsrunde zusätzlich vor- oder nachher einzeln interviewt wird, • kumulierte Gruppendiskussionen, bei denen die Ergebnisse einer Gesprächsrunde der nachfolgenden als Ausgangsbasis dienen, • problemzentrierte Gruppendiskussionen, denen ein detaillierter Leitfaden zugrunde liegt, • gelenkte Gruppendiskussionen, die zur Erarbeitung von Lösungskonzepten führen sollen. 2.2.2 Wesentliche Vorteile Die unmittelbare Beobachtbarkeit der spontanen Reaktionen der Teilnehmer ist möglich. Diese Reaktionen gehen bei Einzelinterviews durch meist hohen Standardisierungsgrad für gewöhnlich verloren, sind jedoch unschätzbare Hilfen, um einen Eindruck der Auseinandersetzung relevanter Gruppen mit dem Meinungsobjekt zu gewinnen. Die entstehende intensive Auseinandersetzung schafft vielfältige Einsichten. Es wird eine weitaus größere Tiefe der Beschäftigung mit dem Meinungsobjekt erreicht, als dies ansonsten bei einer eher passiven Befragung zu erreichen ist. Dadurch wird der Informationstransfer zum Auftraggeber begünstigt. Durch Interaktion in der Gruppe kommt es zu einer großen Vielschichtigkeit der Beschäftigung. Durch Rede und Gegenrede, durch gegenseitige Anregung und Präzisierung ist das Ergebnis des Gruppeninterviews zumindest in dieser Hinsicht wertvoller als die Summe einer entsprechenden Zahl von Einzelinterviews. Die Verfolgung der Adaptation von Argumenten ist möglich. Dadurch wird der andernfalls verborgen bleibende Meinungsbildungsprozess im sozialen Umfeld nachvollziehbar. Zugleich ergeben sich damit Hinweise auf besonders häufig vorkommende oder wirksame Argumente zur Verunsicherung oder Überzeugung von Zielpersonen. Ein unmittelbares, ungefiltertes Hören der Zielgruppensprache entsteht geradezu zwangsläufig. Dies ist umso wertvoller, je weiter die betrieblichen Entscheider sich de facto bereits von ihrer Zielgruppe entfernt haben. Ausdrücke, die später durch Forschersprache verklausuliert verschüttet werden, bleiben auf diese Weise erhalten und sind verwertbar. Hohe Schnelligkeit in der Vorbereitung und Durchführung wirkt begünstigend. Gruppeninterviews brauchen keine langen Vorlaufzeiten. Auch die Organisation

2. Sonderformen der Befragung

135

ist unkompliziert. Ort und Zeit sind weitgehend flexibel wählbar. Darin liegen allerdings auch Tücken, die zu mangelnder Vorbereitung und nachlässiger Rekru­ tierung verleiten können. Eine beliebige Wiederholbarkeit durch Aufzeichnung ist machbar. Erst im Verlauf der weiteren Beschäftigung bedeutsam werdende Gesprächspassagen lassen sich in Bild, Ton und / oder Schrift nachvollziehen. Der Informationsverlust durch Übertragung bleibt dadurch gering. Es besteht eine absolute Kostengünstigkeit, denn der finanzielle Aufwand bleibt überschaubar. Werden allerdings zur besseren Validierung der Ergebnisse mehrere Gesprächsrunden veranstaltet, was in jedem Fall empfehlenswert ist, laufen bald doch hohe Kosten zur Informationsgewinnung auf. Das Verfahren schließt die Berücksichtigung gruppendynamischer Aspekte ein. Dadurch können etwa soziale Aspekte des Käuferverhaltens ansatzweise erfasst werden. Die Verzerrung durch Meinungsbildner ist nicht so gravierend wie es scheint, ist doch auch das reale Umfeld durch solche Personen gekennzeichnet. Die Interviewsituation wird in den Hintergrund gedrängt, im Vordergrund steht das gemeinsame Gespräch. Dadurch wird der kognitive Anteil der Meinungsäußerung zurückgedrängt, der meist auch in der späteren Marktsituation, selbst im Business-Bereich, nur eine begrenzte Rolle spielt. Das Gespräch kann zu weitergehenden Informationen genutzt werden, z. B. Werbemitteltest. Dies dient einer weiteren Rationalisierung. Allerdings darf dabei nicht vergessen werden, dass es zu Ausstrahlungseffekten zwischen den behandelten Themen kommt, von denen ungewiss ist, ob sie real auch so stattfinden.

2.2.3 Wesentliche Nachteile Die Suggestibilität des unmittelbaren Eindrucks kann zu verzerrter Wirklichkeitssicht führen. Das hautnah miterlebte Gespräch hat erfahrungsgemäß eine sehr viel stärkere Beeinflussungswirkung als die eher abstrakte Datenauswertung von nicht präsenten Einzelgesprächen. Doch der prägnante Eindruck des Gruppengesprächs kann gravierend täuschen. Die Ergebnisse sind interpretationsbedürftig. Die Meinungsäußerung unterliegt situationsbedingt sozialer Kontrolle und weist daher immanente Verzerrungen auf. Es bedarf großen Sachverstands, die Gesprächsergebnisse um diese Verzerrungen zu bereinigen und nicht dem spontanen Eindruck zu erliegen. Das Verfahren ist kein Ersatz für gründliche eigene Recherche auf breiterer Basis. Denn der Output ist durch den definitionsgemäß limitierten Input eng begrenzt. Gruppeninterviews sind wertvoll als Einstieg in Entscheidungssituationen, sie sind aber keineswegs für diese als Informationsgrundlage ausreichend.

136

Kap. III: Offline-Erhebungsverfahren

Es ergibt sich eine fehlende Repräsentanz und damit Hochrechenbarkeit auf die Zielgruppe. Das Gruppeninterview kann aufgrund seiner Anlage (geringe Fallzahl) keinerlei Anspruch auf Repräsentanz in der Zusammensetzung für eine Grundgesamtheit erheben. Damit ist es auch nicht zulässig, dessen Ergebnisse in irgendeiner Weise hochzurechnen. Eine Vergleichbarkeit zwischen mehreren Veranstaltungen ist wegen mangelnder Standardisierung nicht gegeben. Jedes Gruppengespräch hat nur Gültigkeit für sich selbst, weil prinzipbedingt auf die jeweiligen Besonderheiten jeder Gruppe eingegangen wird. Erfahrungswerte sind dabei mit Vorsicht zu behandeln. Die breite Relevanz von genannten und ungenannten Aspekten ist schwer einschätzbar. Der Gesprächsverlauf ist in gewisser Weise willkürlich, so dass es vorkommen kann, dass wichtige Argumente nicht genannt, unwichtige jedoch vertieft werden. Dem kann durch eine Checklist in jedem Fall anzusprechender Aspekte vorgebeugt werden. Meinungsführer können die Ergebnisse erheblich beeinflussen, ohne dass dieser Verzerrungseffekt exakt zu isolieren ist. Durch den Gesprächsleiter ist dieser Einfluss nur begrenzt neutralisierbar. Hier sind vor allem Männer als Gesprächsteilnehmer anfällig für Dominanzstreben. Die Gesprächsteilnahme und -intensität korrelieren meist mit dem Bildungsgrad. Da vor allem auf die sprachliche Ausdrucksfähigkeit abgestellt wird, sind solche Personengruppen überpräsent, die aufgrund ihrer Ausbildung oder Berufstätigkeit damit vertraut sind, ihre Meinung im Kreis meist fremder Anderer zu vertreten. Erfasste Verhaltensäußerungen sind nicht immer eindeutig interpretierbar. Dazu ist eine Nachfrage erforderlich, die allerdings im Gesprächskontext wiederum nicht möglich ist. Allerdings hat die Wissenschaft hier Methoden entwickelt (z. B. Facial action coding technique), um Verhalten Meinungen recht sicher zuordnen zu können. Die Anwendung quantitativer Auswertungsmethoden bleibt versagt. Aufgrund des qualitativen Charakters der Erhebung sind alle Datenverdichtungsversuche sinnlos. Gerade diese geben jedoch wichtige Hinweise für die aus der Erhebung notwendig folgenden Entscheidungserfordernisse. Schließlich kommt es meist auch zu recht oberflächlichen Aussagen. Dies hat mit der spezifischen Gesprächssituation und dem eher unreflektierten Behandeln des Untersuchungsthemas zu tun. Dadurch wird hinsichtlich des Erkenntnishintergrunds oft zu kurz gesprungen.

2. Sonderformen der Befragung

137

2.3 Gemeinschaftsuntersuchung 2.3.1 Kooperationsformen Hierbei handelt es sich um Untersuchungen, die von mehreren Trägern gemeinschaftlich realisiert werden (z. B. Markt-Media-Analysen). Eine solche Kooperation ist eine aktive, vertragliche Verbindung von zwei oder mehr Initiatoren bei Erhalt ihrer rechtlichen, aber unter Aufgabe ihrer wirtschaftlichen Selbstständigkeit in Bezug auf den Kooperationszweck, hier die Marktforschung (auch Verbundforschung). Ziel ist die Nutzung einander ergänzender bzw. die Verstärkung gleicher Leistungspotenziale zur Verbesserung der Marktstellung bzw. zur Rationalisierung der Wertschöpfung (Kostensenkung / Leistungssteigerung). In der Marktforschung können damit Kapazitäts- und Kompetenzrestriktionen durch verbessertes Marktstanding und Arbeitsteilung überwunden werden. Dies gilt vor allem für branchentypisch klein- und mittelständische Beteiligte. Die Zusammenarbeit kann dabei im Einzelnen in vielfältigen Formen erfolgen: • vertraglos bei hohem Vertrauensvorschuss oder vertraglich, evtl. auch gestützt durch Rechtsformengründung, • vertikal durch einander ergänzende, komplementäre Kooperationspartner oder horizontal durch gleichartige, substitutive Partner, • nach der Intensität häufig als Erfahrungsaustausch, Aufgabenabstimmung, wechselseitige Spezialisierung, Poolung von Kompetenzen o. Ä., • die Anzahl kann zwei (bilateral) oder mehr Teilnehmer (multilateral) vorsehen, • die Relation der Teilnehmer untereinander kann gleichberechtigt oder ungleich berechtigt ausgelegt sein, • nach dem Zeitrahmen kann es sich um eine dauerhafte, um eine kurzfristige oder auch um eine einmalige oder fallweise Zusammenarbeit handeln, • die Partner können aus der selben Region, aus dem selben Land oder international auch aus verschiedenen Ländern stammen. Es lassen sich temporäre und dauerhafte Auslegungen unterscheiden sowie solche auch mit Außenwirkung oder nur mit Innenwirkung. Eine temporäre Auslegung meint, dass Marktforschungsprojekte einmalig oder zeitlich begrenzt, eine dauerhafte Auslegung, dass sie im Zeitablauf stetig oder wiederholend angegangen werden werden. Außenwirkung meint, dass die Kooperation extern erkennbar ist bzw. ausgewiesen wird, Innenwirkung meint, dass sie nur im Back office-Bereich stattfindet. Nicht gemeint ist hier der Zukauf (Outsourcing) von Leistungen. Die rechtliche Form der kooperativen Untersuchung erfolgt ohne oder mit eigener Rechtspersönlichkeit. Dabei ergeben sich folgende temporäre Formen. Ohne Rechtspersönlichkeit ist eine Werkgemeinschaft gegeben, homogen in gleicher

138

Kap. III: Offline-Erhebungsverfahren

Funktion oder heterogen in anderer Funktion, z. B. nach Datenverarbeitung, Feldarbeit, Testprocedere. In Bezug auf die Wertschöpfung findet die Zusammenarbeit gleichstufig, vorwärts- oder rückwärtsgerichtet statt. Die Intensität der Zusammenarbeit kann straff oder locker sein, national oder auch international ausgelegt sowie zentral oder dezentral gesteuert. Die Zusammenarbeit erfolgt durch schuldrechtlichen Vertrag. Sofern die Zusammenarbeit mit einem gesellschaftsrechtlichen Vertrag unterlegt wird, entsteht eine Partizipation. Auch hierbei ist keine Außenwirkung gegeben. Dennoch sind wettbewerbsrechtliche Grenzen zu beachten. Jeder Partizipient handelt in eigenem Namen, aber auch gemeinschaftliche Rechnung, d. h. Erlöse gehen an die Gesellschaft und werden dann nach einem vereinbarten Schlüssel verteilt. Mit eigener Rechtspersönlichkeit entsteht die Arbeitsgemeinschaft (Arge). Rechtsbeziehungen bestehen nur zwischen der Arge selbst und Auftraggebern bzw. Abnehmern, nicht jedoch zwischen den einzelnen beteiligten Unternehmen / Instituten. So können auch Aufgaben angegangen werden, die jeder Beteiligte allein nicht stemmen kann oder will. Bei Arge’s sind umfangreiche formaljuristische Regelungen zur Haftung, Geschäftsführung, Leistungsverrechnung etc. zu treffen, was diese Form nicht ganz pflegeleicht werden lässt. Das Konsortium schließlich ist eine Projektgesellschaft mit eigener Rechtspersönlichkeit (meist GbR) zur Poolung gleichartiger oder ergänzender Leistungen der Konsorten. Nach außen treten dabei entweder alle Konsorten eigenständig oder aber nur ein Konsorte als Konsortialführer auf. Dieser haftet im Außenverhältnis gegenüber Auftraggeber bzw. Abnehmern, im Innenverhältnis sind jedoch alle Beteiligten haftbar. Ein Generalunternehmer (Pilot contractor) erbringt Teilleistungen selbst, ein Generalübernehmer leistet nur die Koordination der Gruppe. Zu den dauerhaften Formen gehören etwa folgende. Wirtschaftsverbände übernehmen für ihre Mitglieder nach Branchen oder Regionen auch Marktforschungsaufgaben. Dies dient u. a. als unmittelbare Gegenleistung für Mitgliedsbeiträge und auch zur Berechtigung der Verbandsinstitution. Die Mitgliedschaft in Wirtschaftsverbänden ist freiwillig, aber mit Mitgliedsbeiträgen bewehrt. Ihre wesentliche Aufgabe liegt in der politischen Repräsentation ihrer Interessen, z. B. bei Arbeitgeberverbänden als Gegenpol zu Gewerkschaften, wenn es um Personalmarktforschung geht. Im wesentlichen dem gleichen Zweck dient die Marktforschung der Wirtschaftskammern. Dies sind Selbsthilfeorganisationen, die im Rahmen des Subsidiaritätsprinzips vor allem hoheitliche Aufgaben unter staatlicher Aufsicht erfüllen. Dabei handelt es sich um Industrie- und Handelskammern, Handwerkskammern, Landwirtschaftskammern sowie die Kammern der Freiberufler (Notare, Ärzte, Rechtsanwälte, Architekten, Apotheker, Steuerberater, Wirtschaftsprüfer etc.). In der internationalen Marktforschung sind zudem Außenhandelskammern tätig. Typisch ist durch die Zwangsmitgliedschaft die Einziehung von Zwangsbeiträgen.

2. Sonderformen der Befragung

139

Hier können übernommene Marktforschungsaufgaben als Gegenleistung für Kammermitglieder angesehen werden. Da Informationen als Kernerfolgspotenzial anzusehen sind, ist Marktforschung als zentrale Aktivität zu bezeichnen. Eine sachlich begrenzte Zusammenarbeit zwischen zwei oder mehr rechtlich selbstständigen Unternehmen, die aktuelle oder potenzielle Konkurrenten sind und die in diesem Fall im gegenseitigen Austausch von betriebswichtigen Leistungen durch Poolung bzw. gegenseitigen Zugang zu speziellen Kernkompetenzen durch Arbeitsteilung besteht, wird als Strategische Allianz bezeichnet. Hierbei sind wettbewerbsrechtliche Aspekte unbedingt be­ achtenswert. Ein Beispiel ist die Star Alliance großer Linienfluggesellschaften zur Abstimmung der Flugpläne nach Kunden-, Markt- und Wettbewerbsaspekten unter Zuhilfenahme von gemeinsamen Marktforschungserkenntnissen. Eine abgewandelte Form ergibt sich als Strategisches Netzwerk. Dabei nehmen die Partner nur bestimmte Aufgaben entsprechend ihrer Kernkompetenzen wahr und bilden ansonsten ein virtuelles Unternehmen. Im Unterschied zum Konzern gibt es keine einheitliche Leitung, allerdings ist meist ein Partner als fokales Unternehmen koordinierend tätig. Jedes Unternehmen ist als Teil einer Wertschöpfungskette auf eine Stufe spezialisiert, wobei ein Unternehmen sich auf Marktforschungsaufgaben kapriziert und von seinen internen Auftraggebern mit entsprechender Recherche, Erhebung und Auswertung beauftragt wird sowie seinerseits an deren Teilleistungen partizipiert. 2.3.2 Kritische Bewertung Wesentliche Vorteile einer kooperativen Untersuchung können folgende sein: • Es ist möglich, Aufgaben anzugehen, die jedes einzelne kooperierende Unternehmen kapazitativ (Expertise, Zeit etc.), aber auch wirtschaftlich (Finanzen, Kosten etc.) überfordern würde. Dies ist vor allem eine große Chance für klein- und mittelständische Unternehmen, die dadurch Zugriff auf professionelle Methodiken erhalten. • Die Nutzung von kumulativem Spezialisten-Know-how (Synergie) wird möglich, so dass sich die Qualität der Arbeitsergebnisse verbessert. Damit können jeweilige Kernkompetenzen genutzt und für ein Marktforschungsprojekt instrumentalisiert werden. • Kooperative Untersuchungen schaffen ein höheres Maß an Neutralität, da davon auszugehen ist, dass Partikularinteressen einzelner Beteiligter ausgeglichen werden. Vor allem ist davon auszugehen, dass alle Beteiligten darauf achten, dass gut austarierte Forschungsbedingungen gegeben sind. • Das Markt-Standing von Kooperativen verbessert sich gegenüber Alleinanbietern von Mafo-Leistungen. Dies führt zu einer Erweiterung des Angebotsspek-

140

Kap. III: Offline-Erhebungsverfahren

trums und zu Vorsprüngen im Wettbewerb, aber auch auf allgemeinem Markt­ niveau. • Es können Kostenrationalisierungen erreicht werden, etwa in Bezug auf einmalige Rüstkosten und kontinuierliche Skaleneffekte. Rüstkosten verteilen sich auf alle Beteiligten, Fixkosten legen sich bei mehreren Initiatoren nur anteilig zu den variablen Kosten um. • Aus der Kooperation kann die Erschließung neuer Geschäftspotenziale folgen. Dies kann sich auf die Multiplizierung solcher Forschungsprojekte beziehen, aber auch auf die Arrondierung eines Projekts um verwandte Untersuchungsfelder. • Es ist eine gegenüber Einzeluntersuchungen erhöhte Teilnahme- und Informationsbereitschaft der Auskunftspersonen zu erwarten, da die gebündelte Bekanntheit und Reputation der Veranstalter ihrem Vorhaben mehr Gewicht und Anerkennung verleiht. Als wesentliche Nachteile sind hingegen folgende zu nennen: • Der einzelne Teilnehmer muss sich im Zweifel dem Kompromiss der Interessen aller seiner Partner unterwerfen. Solche Kompromisse sind nicht immer kon­ struktiv, sondern laufen regelmäßig auf den kleinsten gemeinsamen Nenner hinaus, was dem Anliegen nicht unbedingt dienlich sein muss. • Kooperationen erfordern aufwändigere Abstimmungsprozesse an den Schnittstellen als autonomes Handeln, dies kostet Zeit und damit Wettbewerbsfähigkeit. Energien und Ressourcen werden dann nicht mehr für den eigentlichen Forschungszweck eingesetzt, sondern dienen nur der internen Koordination. • Betriebs- und Geschäftsgeheimnisse werden zu einem gewissen Anteil offengelegt und bleiben dies auch nach Beendigung gemeinsamer Aktivitäten. Ehemalige Kooperationspartner können somit leicht zu späteren Konkurrenten werden. • Zur Schaffung von Rechtssicherheit sind umfangreiche vertragliche Vereinbarungen sinnvoll und auch erforderlich. Mängel an dieser Stelle können sich später rächen und erhebliche finanzielle Konsequenzen haben. Entsprechend hoch ist der Formalaufwand. • Interessendivergenzen bedürfen der aufwändigen Streitschlichtung innerhalb der Kooperative. Daher bedarf es Mechanismen bzw. Institutionen, die diese Aufgabe übernehmen und allseits als vertrauenswürdig und neutral angesehen werden. • Die wirtschaftlichen Vorteile sind für jeden Partner um dessen materielle und immaterielle Beiträge zur Kooperative als Nettonutzen zu relativieren. Der Gemeinschaftsnutzen ist ebenso nicht beitragslos zu haben, sondern mit den Partnern zu teilen, es zählt nur der Saldo. • Es besteht eine Abhängigkeit von den Partnern in Bezug auf gemeinsame Marktforschungsprojekte. Vor allem der Ausfall einzelner Partner kann kaum kurzfristig angemessen ausgeglichen werden, so dass Projektkrisen häufig vorzufinden sind.

2. Sonderformen der Befragung

141

2.4 Kohortenanalyse 2.4.1 Wellenerhebung Unter Kohortenanalyse werden allgemein Untersuchungen verstanden, bei denen eine nach unterschiedlichen Kriterien gebildete Personengesamtheit im Zeit­ablauf erhoben wird. Als ein solches Kriterium dient meist ein gleiches Ereignis im gleichen Zeitintervall, z. B. Geburt, Berufseinstieg, Zuzug, Erstkauf. Dabei sollen Effekte heraus gearbeitet werden, die das Verhalten dieser Personen bestimmen, und zwar der: • Alterseffekt, der auf der Tatsache beruht, dass Personen mit dem natürlichen Reifungs- und Alterungsprozess auch einem psychosozialen und behavioralen Veränderungsprozess unterliegen. Dies betrifft sowohl innere Prozesse, z. B. den Ernährungsbedarf, als auch äußere Prozesse, z. B. das Familienlebenszyklus­ stadium. • Generationseffekt, der auf generationsspezifischen Lebensstilen beruht. So weisen Personen gleichen Lebensalters zu verschiedenen Zeitphasen durchaus vergleichbare Denk- und Verhaltensmuster auf. Daraus entstehen neben anderen Lebensstiltypen (z. B. Generationen „X“, „Y“, „Z“). • Periodeneffekt, der auf Ereignissen beruht, die alle Personen einer Population unabhängig von ihrem Lebens- und Zeitalter betreffen, die aber zeitpunkt- und -raumbezogen sind. Dies gilt z. B. für die Einführung von Neuprodukten. Denkbar ist, dass verschiedene Kohortenmitglieder unterschiedlichen Alters zu einem Zeitpunkt verglichen werden, dass verschiedene Kohortenmitglieder desselben Alters zu verschiedenen Zeitpunkten verglichen werden oder dass identische Kohortenmitglieder zu verschiedenen Zeitpunkten miteinander verglichen werden. Abzugrenzen ist die Kohortenanalyse von der Querschnittanalyse, die verschiedene Personen zum gleichen Zeitpunkt untersucht, und von der Längsschnittanalyse, die gleiche Personen zu verschiedenen Zeitpunkten untersucht. Bei echten Kohorten handelt es sich tatsächlich um identische Personen. Von unechten Kohorten spricht man, wenn zwar nicht identische, aber gleichartige Personen beobachtet werden. Ersteres trifft auf Panels zu, letzteres auf Wellenerhebungen. Unter Wellenerhebung (Tracking) versteht man die Erhebung wechselnder, im Unterschied zum Panel, aber jeweils repräsentativer Personen der Zielgruppe in regelmäßigen Abständen, im Unterschied zur Ad hoc-Untersuchung, zum gleichen Thema und zum Monitoring in wechselnden Zeitabständen. Meist handelt es sich um die kontinuierliche Erfassung der Marktentwicklung auf Verbraucher- (und Handels-)Ebene mit Rückschluss auf die Durchsetzungsfähigkeit von Werbung. Die Ergebnisse dienen zur Erstellung von Zeitreihen, um maßnahmenbegleitend Veränderungen feststellen zu können. Eine beliebte Form des Tracking ist die sog. Sonntagsfrage („Wenn nächsten Sonntag Wahlen wären, welcher Partei würden

142

Kap. III: Offline-Erhebungsverfahren

Sie Ihre Stimme geben?“). Dabei werden immer wahlberechtigte Personen, die repräsentativ für die Gesamtbevölkerung stehen, erhoben, aber bei jeder Runde jeweils andere. Eine verbreitete Anwendung im Marketing sieht die Begleitung von aktuellen oder potenziellen Abnehmern im Zeitablauf in Abhängigkeit von Marketing-MixVeränderungen vor. Dabei kann es sich vor allem um Anlässe handeln wie: • Produktmodifikation, Produktvariation, Produktinnovation, Packungsänderung, Kundendienstangebot, • Preiserhöhung / -senkung, Preis-Promotion, Couponing-Aktion, Einführung von Preisbündelung / -baukasten, • Werbedruckänderung, Neu- / Umpositionierung, Mediaplanänderung, Werbemitteländerung, Media-Mix, • Distributionsaufbau/-änderung, Platzierungsänderung, POS-Aktion, Multi channel- / ​Online-Absatz etc. Die Ergebnisse können sich auf Größen wie Probierraten, Markenwechsel, Kaufintensität, Einkaufsstättenwahl, Sorten-/Gebindepräferenz etc. beziehen. Durch die zeitliche Kopplung von vermutetem Anlass und interessierendem Ergebnis können Input-Output-Analysen oder zumindest Zusammenhangsvermutungen aufgestellt bzw. überprüft werden. Problematisch ist dabei immer die Zuordnung erhobener Wirkungen zu zugrunde liegenden Ursachen, diese ist eigentlich nur unter Ceteris paribus-Bedingungen möglich, also wenn andere relevante Einflussfaktoren ausgeschlossen oder zumindest neutralisiert werden können. Sofern die Ursachen den Erhebungspersonen bekannt und präsent sind, können sie durch Befragung festgestellt werden, meist jedoch bleiben ihnen diese Ursachen verborgen, so dass sie darüber auch keine belastbare Auskunft geben können. Dann sind Plausibilitätsüberlegungen möglich. Wenn also z. B. eine Veränderung der Tracking-Ergebnisse mit einer Marketing-Mix-Veränderung koinzidiert und andere Einflüsse nicht ersichtlich sind, kann durchaus fundiert angenommen werden, dass die Ergebniswirkung auf die Anlassursache zurückzuführen ist. Dies gilt insb., wenn im Zeitablauf eine angenäherte Anpassung zwischen beiden zu konstatieren ist. Dennoch können auch andere Einflüsse ursächlich sein wie eine nicht als relevant erachtete Änderung der Erhebungsmethode, kumulierte Einflussfaktoren, deren Anteile nicht hinreichend separierbar sind, Markt-/Konkurrenzänderungen, außerwirtschaftliche Ereignisse wie Krisen etc. Eine häufig zu vermutende Irritation kann durch die Abweichung der Stichprobe im Zeitablauf entstehen, daher werden in bestimmten Fällen Panels eingesetzt, die mit im Grundsatz gleichbleibender Stichprobe arbeiten.

2. Sonderformen der Befragung

143

2.4.2 Panelerhebung 2.4.2.1 Erhebungsanlage Bei Panelerhebungen können zwei Dimensionen unterschieden werden. Nach den Teilnehmern kann es sich um private oder gewerbliche Endabnehmer handeln (siehe Abbildung 36: Arten von Panels):

Industriepanel Herstellerpanel

Handelspanel Einzelhandelspanel

Vorverbraucherpanel Verbraucherpanel

Spezialpanels

Haushaltspanel

Mediennutzungspanel

Individualpanel

Online-Panel

Abbildung 36: Arten von Panels

• Beim Herstellerpanel handelt es sich um gewerbliche Produzenten oder Vorverarbeiter, die über Transaktionen an andere Wertschöpfungsstufen reporten. Dabei handelt es sich um Weiterverarbeiter oder Wiederverkäufer. Herstellerpanels sind in der Gesamtwirtschaft und nach Branchen angelegt. Sie erfassen allgemein betriebswirtschaftliche Daten wie Auftragseingang, Umsatzentwicklung, Investitionsvolumen etc., diese werden oft auf gesetzlicher Basis ermittelt, haben im Marketing jedoch meist nur geringe Bedeutung. • Beim Konsumentenpanel kann der einzelne private Ge- und Verbraucher erhoben werden, dann handelt es sich um ein Individualpanel, oder die konsumierende Einheit zusammenlebender Personen, dann handelt es sich um ein Haushalts­ panel. Im Individualpanel berichtet der Teilnehmer z. B. über seine eigenen Einkäufe / für seinen eigenen Bedarf. Dies bietet sich an, wenn Informationen erhoben werden sollen, die unmittelbar nur das einzelne Haushaltsmitglied betreffen. Im Haushaltspanel berichten die Teilnehmer über die Einkäufe der Haushaltsmitglieder / für den Haushaltsbedarf, also die Beschaffung von haushaltsbezogenen Daten. • Bei Wiederverkäufern handelt es sich um Zwischenabnehmer, als Großhändler (B-t-b), vor allem aber Einzelhändler (B-t-c). Wegen der intermediären Stellung

144

Kap. III: Offline-Erhebungsverfahren

sind dabei sowohl Einkäufe als auch Verkäufe interessant sowie der Trade marketing-Mix am Handelsplatz. Dabei wird angenommen, dass die Einzelhandelsaktivitäten entscheidenden Einfluss auf das Kauf- und Konsumverhalten von Endabnehmern haben, zugleich finden diese Aktivitäten außerhalb der Einflusssphäre des Herstellers statt und bleiben ihm daher weitgehend verborgen oder werden ihm nur sporadisch bekannt, so dass sein Interesse an deren systematischer Erhebung naheliegt. Nach der Erhebungsform kann es sich um eine traditionelle oder moderne Pa­ nelanlage handeln: • Traditionell bedeutet, dass sich das Panel der Mittel der schriftlichen Befragung bedient. Dazu liegt ein Fragebogen, auch in Form eines Kalendariums mit Produktoptionen, vor, der von den Panelteilnehmern ausgefüllt und abgegeben (eingesandt, abgeholt etc.) wird. Es liegt nahe, dabei etliche Verzerrungen hinsichtlich der Erfassungssorgfalt von Daten, der Vollständigkeit der Erfassung, des zeitnahen Ausfüllens etc. anzunehmen. Dafür erschließt sich diese Er­ hebungsform auch für Einheiten, denen sich die technischen Bedingungen einer modernen Anlage verschließen. • Modern bedeutet, dass elektronische, insb. telekommunikative Mittel der Erhebung eingesetzt werden. Dies erleichtert u. a. die Eingabe von Daten, vermeidet Eintragungsfehler, bietet eine höhere Sicherheit und ist auch kostengünstiger. Wegen der zunehmenden Verbreitung und Akzeptanz der technischen Bedingungen setzt sich diese Form immer mehr durch, vor allem im gewerblichen Bereich (B-t-b). Die Befragung wandelt sich dabei in eine apparative Fremdbeobachtung am POS. Hinzu kommen Spezialpanels, wie Großverbraucherpanels oder nicht konsumbezogene Panels, z. B. Media-Panels zur Beobachtung der TV-Nutzung in der Mediaforschung. Diese Dimensionen sind kombinierbar, so dass folgende Formen entstehen: • traditionelles Verbraucher- bzw. Haushaltspanel, • (modernes) Scanner-Verbraucher- bzw. Haushaltspanel, • traditionelles Händler- bzw. Herstellerpanel, • (modernes) Scanner-Händler- bzw. Herstellerpanel. Unter Panelerhebungen versteht man Untersuchungen, die bei einem bestimmten, gleichbleibenden Kreis von Untersuchungseinheiten, z. B. Personen, Haushalten, Handelsgeschäften, Unternehmen, in regelmäßigen zeitlichen Abständen wiederholt zum gleichen Untersuchungsgegenstand vorgenommen werden. Das Panel stellt damit eine Längsschnittanalyse in der Zeit dar. Das Kriterium des gleichbleibenden Personenkreises darf allerdings nicht zu eng ausgelegt werden. Ausfälle und Grundgesamtheitsveränderungen haben kontinuierliche Anpassun-

2. Sonderformen der Befragung

145

gen in der Stichprobe zur Folge. Gleiches gilt für das Kriterium des gleichen Erhebungsgegenstands. Denn Veränderungen im Marktangebot führen zwangsläufig auch zu Veränderungen im Zeitablauf. Je schneller sich die Untersuchungsgegenstände in dynamischen Märkten wandeln, desto notwendiger wird eine laufende Beobachtung der eingetretenen Veränderungen. Da dieses Phänomen typisch für modernes Marketing ist, ist auch die Bedeutung von Panels unverändert hoch. Aufgrund der meist erheblichen organisatorischen Vorkehrungen und des hohen Kosteneinsatzes werden sie von großen Forschungsinstituten getragen. Und sind für diese laufende Einnahmequelle durch Verkauf der jeweils aktuellen Daten an beliebig viele Auftraggeber. Ein Panel bedarf laufender Kontrolle und Betreuung. Für die Qualität der Daten sind der Grad der Repräsentanz, die Genauigkeit der Erhebung bzw. Bearbeitung und die Schnelligkeit der Auswertung ausschlaggebend. Die Untersuchungsintervalle richten sich nach der Marktdynamik und den Erhebungskosten. Gleiches gilt für die Stichprobengröße. Panels lassen sich nach verschiedenen Kriterien unterscheiden. Nach der zu untersuchenden Warengruppe wird zwischen Gebrauchsgüter- und Verbrauchsgüter-Panels differenziert. Gebrauchsgüter, wie Weiße und Braune Elektrogeräte etc., werden infolge der größeren Anschaffungsintervalle nur in längeren Zeitabschnitten abgefragt. Verbrauchsgüter, wie Lebensmittel, Drogeriewaren etc., müssen hingegen wegen des begrenzten Erinnerungsvermögens der Abnehmer in kurzen Zeitabständen erhoben werden.

2.4.2.2 Konsumentenpanel Das Konsumentenpanel erhebt quantitative Bedarfe, teils auch qualitative Einstellungen, individuell und aggregiert. Traditionelle Konsumentenpanels erfolgen über Eintrag in Berichtsbögen („Haushaltsbuchführung“). Sie sind für Einheiten ohne Internetzugang gedacht. Die Genauigkeit der dabei gewonnenen Informationen hängt von den Eintragungen ab. Da die Erinnerung eine große Rolle spielt, werden die Eintragungen meist wöchentlich abgefragt. Die Auswahl der Teilnehmer gehorcht der Repräsentanzanforderung. Die Meldebögen werden, incl. sonstiger Unterlagen wie Rückumschlag, Gratifikation etc., vor jedem Berichtstermin verteilt. Die Auswertung der Ergebnisse erfolgt durch Übertragung der Daten aus den zurückgesandten Berichtsbögen auf Datenträger. Formale Fehler werden dabei korrigiert, wobei im Zweifel beim Panelteilnehmer/-haushalt rückgefragt wird, logische Fehler werden durch Prüfprogramme versucht zu identifizieren. Die Angaben betreffen im Einzelnen Größen wie Packung, Preis, Einkaufsstätte, Einkaufsort, Einkaufsanlass, Einkaufsperson, Anzahl der Käufe, Menge / Wert

146

Kap. III: Offline-Erhebungsverfahren

pro Kopf je Produktart und Marke, Erstkäufer / Wiederholungskäufer, Kauffrequenz, Marktanteile nach Menge / Wert für die eigene und konkurrierende Marken, Nichtkäufer, räumliche Abweichungen, Einkaufstage, Einkaufsdatum, Markentreue, Käuferwanderung, Sonderangaben wie Mediennutzung, soziodemografische Daten etc. Diese Angaben werden zu Standardauswertungen und Sonderauswertungen verarbeitet. Moderne Konsumentenpanels erfolgen durch Einscannen über Homescanner, meist aber Smartphone / Tablets mit entsprechender App, anhand der GTIN-Codes auf eingekauften Produkten. Dazu müssen noch ergänzende Daten über die PCTastatur manuell eingegeben werden. Dennoch ist der Erfassungsaufwand erheblich niedriger, so dass Verbraucher eher und länger zur Mitarbeit zu motivieren sind. Die Speicherung erfolgt auf Datenträger oder Microchip, die abgeholt werden, oder zumeist im Computer mit Online-Überspielung an den Panel-Initiator. Problematisch sind vor allem die Rekrutierung vertrauenswürdiger Teilnehmer und deren bestandsverlängernde Betreuung. Das GfK-Haushaltspanel umfasst 30.000 Privathaushalte zur laufenden Beobachtung von Märkten, Marken, Käufern und Kaufvolumina bzw. deren Veränderungen. Es identifiziert damit Kaufverhaltensmuster für 300 Warengruppen (Categories) von Produkten des täglichen Bedarfs (FMCG), unterteilt nach Getränken, Körperpflege und Sauberkeit, Nahrungsmitteln und Hartwaren (Nonfood). Das GfK-Verbraucherpanel ConsumerScope umfasst 20.000 Teilnehmer, die in vier gleich große Gruppen aufgeteilt sind. Nicht abgedeckt werden Personen in ausländischen Haushalten, in Altenheimen, Gefängnissen, Klöstern, bei der Bundeswehr etc. Erfasst werden soziodemografische Daten wie Bundesland, Ortsgröße, Alter, HHNE, Haushaltsgröße, Berufstätigkeit, Schulbildung, Kinderzahl, Wohnverhältnisse etc. Weiterhin hat das Konsumentenpanel mit zahlreichen Problemen zu kämpfen. Dies betrifft zunächst die Panelsterblichkeit. Darunter versteht man das Ausscheiden von Teilnehmern aus dem Panel infolge Fluktuation oder Ermüdung. Fluktuation ist durch Geburt, Todesfall, Heirat, Umzug etc. verursacht. Ermüdung führt zur Verweigerung der weiteren Teilnahme. Dies macht bis zu 50 % Ausfallrate p. a. aus. Es kommt zur Panelroutine, d. h., Einkäufe werden nicht mehr tagesgenau erfasst und sind damit ungenau und unvollständig. Zuweilen wird die Erfassung auch als lästig empfunden. Insofern kommt es zu Verzerrungen, die über die gesamte Laufzeit des Panels bestehen bleiben. Daher wird jedes Panel mit Reserve gefahren, d. h., es wird zusätzlich ein Personenkreis, der nach bewusster Auswahl die jeweils ausscheidenden bzw. zu ersetzenden Panelteilnehmer ersetzt, in genau gleicher Weise erhoben, deren Daten Lücken in der auswertungsrelevanten Panelbasismasse, die nach dem Zufallsprinzip ausgewählt wird, füllen. Das Zufallspanel wird damit jedoch sukzessiv zu einem Quotenmodell umgewandelt. Weitere Probleme entstehen durch das weitgehende Fehlen von Migranten-Haushalten,

2. Sonderformen der Befragung

147

etwa infolge mangelnder deutscher Sprach- und Schreibkenntnisse, Misstrauen oder Unkenntnis. Weiterhin gibt es den Paneleffekt. Darunter versteht man die Veränderung des Kaufverhaltens unter dem Eindruck der Erfassung, d. h., Änderungen beruhen nicht auf der Variation der Bedingungen, sondern auf dem Wissen um die Beobachtung (auch Hawthorne-Effekt). Dies führt zu Lern- und Bewusstseinsprozessen, die ein Abweichen vom normalen, unbeobachteten Verhalten bewirken. Allein die Veranlassung zu kontinuierlichen Berichten führt dazu, dass der Einkauf in den Bewusstseinsvordergrund tritt. Lernprozesse entstehen durch die Reflektion über dokumentiertes vergangenes Einkaufsverhalten für die Zukunft. Evtl. kommt dem Berichtsbogen mit der Aufführung verschiedener Warengruppen sogar ein Aufforderungscharakter für Probierkäufe zu. Vor allem kommt es dabei zu zwei Effekten: • Als Overreporting werden angegebene Käufe bezeichnet, die tatsächlich nicht getätigt worden sind. Ausschlaggebend dafür können die soziale Erwünschtheit solcher Käufe, z. B. Körperpflegeprodukte, oder auch Prestigegründe sein (z. B. demonstrativer Konsum). • Als Underreporting werden nicht angegebene Käufe bezeichnet, die tatsächlich getätigt worden sind. Die Nichtangabe kann auf bewusstem Verschweigen, z. B. Tabuprodukte, oder einfachem Vergessen beruhen, z. B. Einkäufe auf Reisen oder während der Arbeitszeit. Diesen Problemen wird versucht, durch drei Ansätze entgegenzuwirken: • Durch Panelrotation erfolgt ein periodischer, gewollter Austausch der Teilnehmer. Pro Jahr werden so ca. 10 % der Panelteilnehmer anlasslos ausgetauscht. Dafür wird ein Quotenüberhang an Haushalten vorgehalten. Allerdings führt dies zur Panelerstarrung, d. h., die soziodemografischen Merkmale des Panels entsprechen insgesamt immer weniger der Grundgesamtheit und erfüllen damit nicht mehr die Voraussetzungen statistischer Repräsentanz. • Durch Gratifikation sollen Belohnungen und Anreize zur motivierten Mitarbeit gegeben werden (z. B. Honorar je Bericht). Allerdings können dadurch Verhaltensänderungen herbeigeführt werden, etwa durch das Gefühl der Dankbarkeit oder durch vermehrte Kaufkraft. Besser sind daher immaterielle Zuwendungen (z. B. Gewinnspielteilnahme) • Durch Vorschalten einer „Anlernphase“ wird erhofft, dass sich die geschilderten verzerrenden Effekte währenddessen legen. Insofern setzt man auf ein Wiedereinkehren des Alltagstrotts nach einer mehr oder minder langen Bewusstseinsphase. Erst danach werden die Ergebnisse dann wirklich verwertet. Schließlich sind nicht alle Verbräuche in Haushaltspanels erfasst, so nicht die von Großverbrauchern, für Außer-Haus-Konsum, etwa am Arbeitsplatz, ­unterwegs etc.

148

Kap. III: Offline-Erhebungsverfahren

Wesentliche Auswertungen betreffen vor allem Standardanalysen wie: • Einkauf in Menge / Wert jedes Haushalts je Periode, • Einkauf Menge in % der übergeordneten Produktgruppe, • Preis pro Menge als durchschnittlicher Einkaufspreis, • Anzahl der Kaufakte je Produkt, sofern dieses mindestens einmal in der Pe­riode gekauft wurde, • Käuferpenetration als Anteil der Käufer des Produkts an allen Käufern der Produktgruppe, • Käuferreichweite als Anteil der Käufer des Produkts an allen Panelteilnehmern, • Anzahl der Wiederkäufer, die mindestens zweimal in der Periode gekauft haben, • Anzahl der Wiederkäufer in % sowie Anteil der Wiederkäufer an allen Käufern des Produkts, • Bedarfsdeckungsrate als Anteil des Produkts an allen Einkäufen des Haushalts, • Einkauf in Menge / Wert pro Käufer als Durchschnittswert. Hinzu kommen zahlreiche Sonderanalysen wie u. a. folgende: • Käuferstruktur nach soziodemografischen Kriterien der Käufer, • Einkaufshäufigkeit als Anzahl der Käufe je Periode, • Mengenintensität als Anteil der Intensivverwender an der Einkaufsmenge, • Nebeneinanderverwendung von zwei oder mehr Produkten einer Warengruppe, • kombinatorische Auszählung nach Sorten, Varianten etc., • Bedarfsdeckung als Anteil des Produkts am Warengruppenbedarf, • Markentreue / Markenwechsel, also Wiederkauf / Abwanderung im Längsschnittvergleich, • Käuferkumulation als Anzahl der Käufer, die mindestens einmal das Produkt gekauft haben, pro Planungszeitraum, • Käuferpenetration als Anteil der Käufer des Produkts an allen Käufern der Warengruppe, • Wiederkaufrate durch Käufer je Periode, die bereits vorher das Produkt gekauft haben, • kumulierte Wiederkäufer als Käufer je Periode, die in der Warengruppe, aber ein anderes Produkt gekauft haben, • Käuferwanderung infolge Käuferzuwanderung von bzw. Käuferabwanderung zu anderen Produkten,

2. Sonderformen der Befragung

149

• Warenkorbanalyse aller Produkte, die in einem gemeinsamen Einkaufsvorgang gekauft wurden, • Auswirkungen einer Preisänderung auf den Absatz anderer Produkte der Warengruppe (Kreuzpreiselastizität), • Ableitung einer Preis-Absatz-Funktion aus vorhandenen Preis- und Mengendaten, • Auswirkungen einer Preisänderung auf den Absatz des eigenen Produkts (Preiselastizität der Nachfrage), • Preisabstandsanalyse als Art und Intensität der Konkurrenzbeziehung bei unterschiedlichen Preisabständen.

2.4.2.3 Händlerpanel Händlerpanels dienen zur Ermittlung der Entwicklung von Warenbewegungen und Lagerbeständen der einbezogenen Handelsgeschäfte. Auch dabei gibt es traditionelle und moderne Panels. Bei traditionellen Händlerpanels verpflichten sich die stationären Handelsgeschäfte gegenüber den durchführenden Forschungsinstituten vertraglich zur Mitarbeit, was die Zulassung einer periodischen, zweimonatlichen Bestandszählung am Handelsplatz und den Einblick in Liefereingangspapiere impliziert. Als Gegenleistung werden den zugehörigen Handelsketten der Panelläden Marktinformationen zur Verfügung gestellt und Erhebungsgebühren gezahlt. Problematisch ist, dass die Erhebung der Stichprobengeschäfte nicht genau im Zweimonatsrhythmus erfolgen kann. Dadurch kommt es zu Verschiebungen in den Erhebungsdaten. Daher werden die Mengen künstlich auf einen mittleren Erhebungsstichtag umgerechnet. Dies geschieht, indem der Idealabstand (61 Tage) durch den tatsächlichen Abstand der Erhebung dividiert wird. Die erhobenen Daten werden dann entsprechend aufgewichtet, wenn der tatsächliche unter dem idealen Zeitabstand liegt und umgekehrt. Allerdings liegen darin Verzerrungsmöglichkeiten, zumal auch der Preis stichtagsbezogen ist. In modernen Scanner-Panels werden Daten aus Geschäften, deren Check-out mit Scanner-Kassen versehen ist, direkt aus dem System abgerufen. Dadurch ist eine kontinuierliche Erhebung möglich, anstelle einer nur fallweisen in ZweiMonats-Rhythmen. Der Berichtszeitraum kann auf tagesgenaue Daten verkürzt werden, und es werden die tatsächlichen Abverkäufe ausgewiesen, somit ist eine indirekte Ermittlung durch Inventur und Belege nicht mehr notwendig. Zugleich erhält man statistisch geglättete Daten, die zu einer höheren Genauigkeit führen. Die Ergebnisse werden online überspielt und sind kurzfristig verfügbar. Es ergeben sich deutlich niedrigere Kosten als beim traditionellen Händlerpanel, da die

150

Kap. III: Offline-Erhebungsverfahren

Paneldaten, also Artikelart, Menge, Preis etc., praktisch als Nebenprodukt beim Kassiervorgang anfallen. Vor allem entfällt die personal- und kostenintensive Detailerhebung in den Stichprobengeschäften. Der Ausweis des Abverkaufs erfolgt durch Skontrahierung (Warenbestand am Periodenanfang, Warenbestand am Periodenende, zugleich Anfang der nachfolgenden Periode, Erfassung der Einkäufe des Handels während der Periodenlaufzeit). Die Bestände werden durch das lokale Warenwirtschaftssystem, unterteilt nach Zweit- und / oder Sonder-, Regal-, Lager- und Kassenplatzierungen, erfasst. Daraus ergeben sich auch die Verkaufspreise, die den Einkaufspreisen gegenübergestellt werden. Gelistet werden diese Werte für alle Einheiten der untersuchten Warengruppen, also Produkte, Marken, Packungsgrößen, Duftnoten, Farben, Geschmacksrichtungen etc. Darüber hinaus werden Sondererhebungen vorgenommen für verwendetes Displaymaterial, Aktionsteilnahme, Außendienstbesuche der Hersteller, Lagerflächen- und Regalflächenaufteilung, Produktfrischedaten etc. Die Stichprobe der erhobenen Händler ist geschichtet und dysproportional nach Quotaverfahren zusammengesetzt. Quotierungsmerkmale sind dabei Standort, Betriebsform, Organisationseinbindung, Verkaufsfläche und Umsatz. Diese Quoten stehen für eine Reihe im Weiteren nicht-quotierbarer Kriterien wie Sortimentsinhalt, Kundenart etc., zu denen ein enger Zusammenhang unterstellt wird. Im übrigen wird durch die Quotierung der hohen Verweigerungsrate zum Mitmachen vorgebeugt. Die Dysproportionalität rührt aus der erheblichen Diskrepanz zwischen Anzahl der Handelsbetriebe in Numerik und deren Umsatzbedeutung in Gewichtung her. Umsatzstarke Handelsoutlets sind überproportional häufig vertreten, ihre Ergebnisse werden bei der Auswertung entsprechend abgewichtet. Händlerpanels gibt es für Verbrauchsgüter wie Food / Nearfood im Lebensmitteleinzelhandel, im Fachhandel bei Gesundheits-/Körperpflegeprodukten, Süßwaren, Spirituosen, Tabakwaren, Bastel-/Heimwerkerbedarfen, Papier-/Schreibwaren, Gartenartikeln, Arzneimitteln, Reformhauswaren und in der Gastronomie etc. Für Gebrauchsgüter gibt es Händlerpanels u. a. für Haushaltsgeräte, Foto-/Videoartikel, Elektrokleingeräte, Sportartikel, Spielwaren, Braune / Weiße UE, Glas / Porzellan / Keramik, Kfz-Zubehör, Telekommunikations-/Kopiergeräte, Büroausstattung, Werkzeuge / DIY, Möbel, Schmuck / Uhren, Gartengeräte, Sanitärprodukte, Farben / Lacke, Brillen / Kontaktlinsen etc. Beides erfolgt sowohl auf Einzelhandelsals auch auf Großhandelsebene. Die Einteilung der Warengruppen ist dabei sehr detailliert. So besteht die Warengruppe (Category) „Alkoholische Getränke“ aus den Untergruppen Klarer Schnaps, Bier, Likör, Radler, Rum, Sekt, Sherry, Softspirituosen, Wein, Weinbrand, weinhaltige Getränke und Whisky. Die Untergruppe „Klarer Schnaps“ wiederum umfasst Produkte wie Steinhäger, Doppelkorn, Korn, Wacholder, Aquavit, Obstbrände, Wodka, Gin, Grappa, Ouzo und Tequila. Diese sind jeweils exakt definiert und abgegrenzt. Eine Ebene darunter wird dann erst die tatsächliche Marke nach Größe, Geschmacksrichtung, Preis etc. erfasst.

2. Sonderformen der Befragung

151

Die Berichterstattung bei Auftraggebern erfolgt in schriftlicher und mündlicher Form, außerdem über Datenfernübertragung und durch Einrichtung einer zentralen Datenbank im Forschungsinstitut, wo vom Auftraggeber auf geschützte Datenbestände (Extranet) zugegriffen werden kann. Alle Daten werden auf Wunsch zusätzlich persönlich präsentiert und in einem Berichtsband dokumentiert. Ein Problem stellt die Marktabdeckung (Coverage) von Panels dar, d. h. die oft mangelnde Repräsentanz der in das Panel einbezogenen Untersuchungseinheiten für die Grundgesamtheit, über die Aussagen getroffen werden sollen. Dies gilt sowohl für nicht erfasste Verkäufe (z. B. Beziehungshandel) als auch für nicht erfasste Geschäfte wie Kioske / Trink- und Imbisshallen, Bäckereien / Konditoreien, Getränkeabholmärkte, Fastfood-Betriebe, Kantinen, Tabakwarengeschäfte, Hotels / Pensionen / Cafés, Verkaufsautomaten, eingeschränkt auch Tankstellen, Drogeriemärkte, Spielwarenfachgeschäfte, Sportfachgeschäfte, Discounter, Heimdienste. Auch Wanderungsbewegungen der Käufer zwischen verschiedenen Panelstichproben können kaum erfasst werden. Der wachsenden Bedeutung durch E-Commerce wird durch Online-Handels­ panels Rechnung getragen. Diese erfassen die Abverkaufsdaten der derzeit noch wenigen, beteiligten Online-Händler wie amazon.de, dm.de, rossmann.de zumindest auf der Absatzseite. Dazu werden dort Abverkaufsdaten bis hinunter auf GTIN-Level ausgewertet. Daraus sind Verlagerungen von Umsatzanteilen vom stationären auf den virtuellen Handel, aber auch innerhalb der Beteiligten im Online-Handel erkennbar. Im gleichen Maße wie der E-Commerce-Anteil am Absatz im vielen Produktgruppen wächst, nimmt die Aussagefähigkeit der im stationären Handel basierten Panels ab. Dies betrifft gerade Lebensmittel-Produktgruppen verstärkt durch Online-Händler, Bringdienste etc. Die komprimierten Standardcharts weisen folgende Inhalte auf (jeweils je Doppelmonat): • Verkäufe der Handelsbetriebsform (Menge / Wert) incl. Veränderung gegenüber der Vorperiode und der Vorjahresvergleichsperiode (in %) auf Basis gewichteter Mittelwerte, • Zukäufe der Handelsbetriebsform (Menge / Wert) incl. Veränderung gegenüber der Vorperiode und der Vorjahresvergleichsperiode (in %), • Preis pro Mengeneinheit sowie Preisabstand absolut / relativ, gemessen am Durchschnittspreis, • Lagerbestand (Menge), davon im Lager, im Verkaufsregal, in Zweitdisplays, • Vorratsdauer der Lagerbestände, wenn nicht nachgekauft wird und der Absatz konstant bleibt (Monate), • durchschnittlicher Absatz (Menge), • durchschnittlicher Preis je Einheit (€),

152

Kap. III: Offline-Erhebungsverfahren

• numerischer Distributionsgrad (Anteil der Geschäfte, welche das beobachtete Produkt führen, an allen Geschäften, welche die Warengruppe führen), davon ohne Vorrat, • gewichteter Distributionsgrad (Umsatzanteil der Geschäfte, welche das beobachtete Produkt führen, am Umsatz aller Geschäfte, welche die Warengruppe führen), davon ohne Vorrat, • Verkäufe in Menge / Wert in führenden Geschäften je Periode, • Verkäufe in Menge / Wert in verkaufenden Geschäften je Periode, • Zukäufe in Menge / Wert in zukaufenden Geschäften je Periode, • Bestand in Menge / Wert pro bevorratendem Geschäft je Periode auf Basis der gesamten Distribution. Weitere Auswertungen beziehen sich auf folgende Größen: • Distributionsqualität: Quotient aus gewichteter und numerischer Distribution (soll möglichst > 1 sein), • Distributionspotenzial: Bestandsdistribution eines Artikels relativ zur numerischen Distribution der zugehörigen Warengruppe (Quotient soll möglichst nahe 1 sein), • aktive Verkaufsdistribution: numerischer Anteil der Geschäfte, die einen Artikel, den sie führen, tatsächlich seit der letzten Messung verkauft haben (soll möglichst nahe 1 sein), • aktive Zukaufdistribution: numerischer Anteil der Geschäfte, die einen Artikel, den sie führen, tatsächlich seit der letzten Messung zugekauft haben, • Umsatzverlust durch Distributionslücke: Multiplikation aus Anzahl der Geschäfte mit vorgefundener Distributionslücke und Umsatz pro verkaufendem Geschäft und Periode mit dem fehlenden Artikel, • Artikel pro Geschäft: Anteil der in einem Geschäft geführten Artikel an allen möglichen Artikeln der Warengruppe (Sortimentsdichte). Differenzierte Analysen betreffen folgende Kennzahlen: • Zukaufüberhang, d. h. mehr Menge eingekauft als verkauft, z. B. infolge Lageraufbau oder trotz Lagerabbau, • Bevorratungsdauer für ein Produkt in Monaten bei konstantem Absatz, • Bevorratungsdauer für ein Produkt in Tagen auf Basis von 26 Verkaufstagen, • Umschlaggeschwindigkeit des Bestands gesamt im Erhebungszeitpunkt, z. B. wichtig für die Kapitalbindung, • Lagerproduktivität Menge als Umschlag des Lagerbestands in der Periode, • Lagerdruck Menge als Abverkaufsgeschwindigkeit, gebildet durch Kehrwert der Lagerproduktivität Menge,

2. Sonderformen der Befragung

153

• Lagerkapitalbindung als Lagerdruck in Wert, z. B. wichtig für die Kapitalbindung, • Kapitalbindungsdauer für Lagerbestand und Verkaufsraumbestand eines Produkts, • normierte Verkäufe Menge / Wert je Periode (ohne Unterscheidung der Geschäftsgröße) auf Basis der numerischen / gewichteten Distribution, • normierte Verkäufe Menge eines Produkts pro Monat, • Marktanteil in führenden Geschäften als Anteil eines Produkts an der Produktgruppe, • 100 €-Umsatz in Tagen für die Zeitspanne, die nötig ist, 100 € zu erlösen, • Aktionseinkauf Menge / Wert als Anteil der Aktion am gesamten Einkauf des Produkts, • Aktionseinkauf Menge / Wert in % der Gesamteinkäufe als Anteil der Aktion an der zugehörigen Warengruppe des Produkts, • Aktionspreis durch Einkaufspreis des Produkts im Durchschnitt. Hinzu kommen zahlreiche Sonderanalysen wie u. a. folgende: • Vertriebsstruktur als Vergleich der Vertriebsstruktur des Produkts mit der Vertriebsstruktur der zugehörigen Warengruppe, • Distributionsüberschneidung als Distribution exklusiv relativ zu Distribution zugleich mit Hauptkonkurrenten, • Distributionsdichte als Steigerung des Umsatzes durch gleichzeitige Distribution mehrerer eigener Produkte, • Distributionswanderung als Wiederkaufrate eines einmal gelisteten Produkts im Handel, • Distributionspotenzial als Vergleich der eigenen Distribution / durchschnittlichen Abverkäufe pro Geschäft mit dem Hauptkonkurrenten, • Sortimentsmatrix als Wachstumsrate des eigenen Produkts relativ zur Wachstumsrate der Warengruppe je Geschäft (Abszisse) und Warengruppenanteil des Geschäfts am Gesamtmarkt (Ordinate), • Absatzmittlermatrix als Marktanteil des Produkts je Geschäft relativ zum Gesamtmarkt (Abszisse) und Preisdifferenz (Ordinate), • Aktionshäufigkeit als Anzahl der Aktionen in der Warengruppe, • Aktionsprofil gemäß der Art der Aktionen, • Aktionsbedeutung als Anteil der Menge, die über Aktion verkauft wird, an der Gesamtmenge des Produkts, • Aktionsindex durch Vergleich der Ergebnisse einer Aktion mit ihrer Zielsetzung.

154

Kap. III: Offline-Erhebungsverfahren

2.4.2.4 Kommerzielle Panelprodukte Die drei großen Anbieter von Panels sind A. C. Nielsen Company, GfK (Gesellschaft für Konsumforschung) und G & I (GfK und Infratest). G & I ist ein Haushaltspanel, Nielsen und GfK sind reine Handelspanels, erstere tendenziell eher für Verbrauchsgüter, letztere tendenziell eher für Gebrauchsgüter. Außerdem bestehen kombinierte Handels- und Haushaltspanels, Single source-Panels, weil die Daten für Handels- wie Haushaltsaussagen dann aus einer gemeinsamen Quelle parallel erhoben werden und damit eine verzerrende Umrechnung erübrigen (z. B. ERIM von GfK).

Abbildung 37: Nielsen-Gebiete (Quelle: A. C. Nielsen)

Nielsen ist noch dadurch auffällig, dass dieses Mafo-Institut alle Länder, in denen es tätig ist, nach Nielsen-Gebieten aufteilt (siehe Abbildung 37: NielsenGebiete). Diese dienen im Marketing zur geografischen Kennzeichnung. In Deutschland handelt es sich um folgende Einteilung (innerhalb der Gebiete werden nochmals Ballungsräume unterschieden, in denen mindestens 1.000 Einwohner pro qkm leben): • Nielsen I: Schleswig-Holstein, Bremen, Hamburg, Niedersachsen, • Nielsen II: Nordrhein-Westfalen, • Nielsen IIIa: Hessen, Rheinland-Pfalz, Saarland,

2. Sonderformen der Befragung

155

• Nielsen IIIb: Baden-Württemberg, • Nielsen IV: Bayern, • Nielsen V a+b: Berlin (West / Ost), • Nielsen VI: Brandenburg, Mecklenburg-Vorpommern, Sachsen-Anhalt, • Nielsen VII: Sachsen, Thüringen. Ballungsräume sind in • Nielsen I: Hamburg, Bremen, Hannover, • Nielsen II: Ruhrgebiet, • Nielsen III: Rhein-Main, Rhein-Neckar, Stuttgart, • Nielsen IV: Nürnberg, München, • Nielsen VI / VII: Halle / Leipzig, Chemnitz / Zwickau, Dresden. Das Markt-Daten-Kommunikations-System (Madakom) beruht auf einem Abkommen zwischen 250 Verkaufsstellen im Lebensmitteleinzelhandel aus 30 Handelsorganisationen und der Industrie und liefert Rohabverkaufsdaten über Verkaufsstellen, Zeitraum (Woche / Jahr), Preis und Verkaufsmenge sowie Verkaufsaktion (Aktionspreis, Werbung, Sonderplatzierung). Die Daten werden für 700.000 Käufer pro Woche mit über 36 Mio. Kaufakten wöchentlich und verkaufsstellengenau bereit gestellt. Untersucht werden Bonuspacks, Preisaktionen, Displays im Eingangs- und Kassenbereich, Displays am Regalende, sonstige Displays, Propagandisten, Außen- und Innenwerbung, Handzettel / Kundenzeitschrift ohne / m it Produktabbildungen, Händleranzeigen etc.

2.4.2.5 Gain & loss-Analyse Gain & loss-Analysen haben die Käuferwanderungen für alle Produkte über jeweils zwei Zeiträume im Vergleich auf Basis von Paneldaten zum Inhalt. Untersucht werden Mengen- und Wertbewegungen. Dabei geht es darum, wie viel Produkte untereinander verlieren bzw. gewinnen und wie diese Gewinne / Verluste zustande kommen: • Zuwanderer sind dabei Neukäufer, die in der Vorperiode keine Produkte der betreffenden Kategorie gekauft haben, • Abwanderer sind Käufer, die in der Folgeperiode eine andere Marke der Produktkategorie kaufen, • Intensitätsänderung bedeutet, dass von der gesamten Produktkategorie in einem Zeitraum mehr / weniger als im anderen gekauft wurden (Minderkauf / Mehrkauf).

156

Kap. III: Offline-Erhebungsverfahren

• Wiederkäufer sind Personen / Haushalte, die in der Folgeperiode dieselbe Marke kaufen wie in der Vorperiode, • Nurkäufer sind Personen / Haushalte, die in der Folgeperiode keine Produkte der betreffenden Produktkategorie mehr kaufen. Dazu ein Rechenbeispiel (in Anlehnung an Günther et alii). Gegeben sind drei Produkte (A, B, C), Intensitätsänderungen und Wiederkäufer werden dabei nicht betrachtet. Für Produkt A gilt: • In Periode 2 wandern mutmaßlich infolge der Werbung 1.000 Käufer von Produkt B zu. • In Periode 2 wandern mutmaßlich infolge der Werbung 600 Käufer von Produkt C zu (insgesamt 1.600). • In Periode 2 wandern 200 Käufer zu Produkt B mutmaßlich aufgrund dessen erfolgreicher Werbung ab. • In Periode 2 wandern 800 Käufer zu Produkt C mutmaßlich aufgrund dessen erfolgreicher Werbung ab (insgesamt 1.000). • Die Gesamtzahl der Käufer von Produkt A in Periode 2 beträgt 1.800. Für Produkt B gilt: • In Periode 2 wandern mutmaßlich infolge der Werbung 200 Käufer von Produkt A zu. • In Periode 2 wandern mutmaßlich infolge der Werbung 200 Käufer von Produkt C zu. • In Periode 2 wandern 1.000 Käufer zu Produkt A mutmaßlich aufgrund dessen erfolgreicher Werbung ab (insgesamt 400). • In Periode 2 wandern 200 Käufer zu Produkt C mutmaßlich aufgrund dessen erfolgreicher Werbung ab (insgesamt 1.200). • Die Gesamtzahl der Käufer von Produkt B in Periode 2 beträgt 800. Für Produkt C gilt: • In Periode 2 wandern mutmaßlich infolge der Werbung 800 Käufer von Produkt A zu. • In Periode 2 wandern mutmaßlich infolge der Werbung 200 Käufer von Produkt B zu (insgesamt 1.000). • In Periode 2 wandern 600 Käufer zu Produkt A mutmaßlich aufgrund dessen erfolgreicher Werbung ab.

157

2. Sonderformen der Befragung

• In Periode 2 wandern 200 Käufer zu Produkt B mutmaßlich aufgrund dessen erfolgreicher Werbung ab (insgesamt 800). • Die Gesamtzahl der Käufer von Produkt C in Periode 2 beträgt 1.200 Käufer. Unterstellt wird eine unveränderte Gesamtzahl der Käufer in Periode 2 gegenüber Periode 1 (3.800). Die Wanderungen betreffen insgesamt 1.500 Käufer. Die tabellarische Auflösung sieht dann wie folgt aus: Summe der Käufer … … von Periode 1 auf 2

zu A

zu B

zu C

Verlust

Saldo in Periode 2

Summe der Käufer in Periode 1

von A



200

800

1.000

+ 600

1.200

von B

1.000



200

1.200

− 800

1.600

von C

800

+ 200

1.000

600

200



Zugewinn

1.600

400

1.000

Summe der Käufer in Periode 2

1.800

800

1.200

3.000 3.800

Auswertung für Produkt A: • Zugewinn insgesamt: 1.600 (1.000 von Produkt B und 600 von Produkt C). • Verlust insgesamt: 1.000 (200 an Produkt B und 800 an Produkt C). • Saldo: In Periode 2 wandern mutmaßlich werbebedingt 600 Käufer dem Produkt A zu. • Schlussfolgerung: Die Werbekampagne von Produkt A arbeitet sehr gut, es wandern vor allem Käufer von Produkt B zu. • Empfehlung: Möglich ist, entweder die Zuwanderung von Produkt B zu verstärken oder nunmehr Produkt C anzugehen Auswertung für Produkt B: • Zugewinn insgesamt: 400 (je 200 von Produkt A und Produkt C). • Verlust insgesamt: 1.200 (1.000 an Produkt A und 200 an Produkt C). • Saldo: In Periode 2 wandern mutmaßlich werbebedingt 800 Käufer von Produkt B ab. • Schlussfolgerung: Die Werbekampagne von Produkt B arbeitet sehr schlecht, es wandern vor allem Käufer zu Produkt A ab. • Empfehlung: Hier besteht dringender Handlungsbedarf, vor allem in Bezug auf Produkt A (andere Kampagne, mehr Werbedruck, andere Positionierung etc.), um dessen Käufer zurück zu gewinnen.

158

Kap. III: Offline-Erhebungsverfahren

Auswertung für Produkt C: • Zugewinn insgesamt: 1.000 (800 von Produkt A und 200 von Produkt C). • Verlust insgesamt: 800 (600 an Produkt A und 200 an Produkt B). • Saldo: In Periode 2 wandern mutmaßlich werbebedingt 200 Käufer dem Produkt C zu. • Schlussfolgerung: Die Werbekampagne von Produkt C arbeitet gut, es wandern vor allem Käufer von Produkt A zu, aber auch zu Produkt B ab. • Empfehlung: Insofern besteht kein dringlicher Handlungsbedarf.

3. Befragungsdurchführung Die Befragungsdurchführung betrifft die Fragestrategie sowie Zeit- und Kostenplanung. Innerhalb der Fragestrategie sind bevorzugt die Aspekte der Fragearten, der Fragefunktionen, der Frageformulierung und auch der Interviewerbedeutung dabei zu klären. Dazu dienen die nachfolgenden Ausführungen, die sich zunächst auf das Einzelinterview konzentrieren (siehe Abbildung 38: Elemente der Fragestrategie).

Fragearten

Frageformulierung

Fragefunktionen

Interviewerbedeutung

Abbildung 38: Elemente der Fragestrategie

3.1 Fragestrategie 3.1.1 Fragearten 3.1.1.1 Auslegung Soll eine mündliche Umfrage initiiert werden, können in Bezug auf die Frage­arten mehrere Auslegungen unterschieden werden (siehe Abbildung 39: Fragearten). Es gibt offene, inkategoriale Fragen sowie geschlossene, kategoriale Fragen. Letztere lassen sich wiederum in solche mit zwei Antwortalternativen als Alternativfragen sowie mehr als zwei Antwortoptionen als Selektivfragen unterteilen: • Alternativfragen haben nur ein „Ja“ oder „Nein“ als Antwortmöglichkeit. Eine Kategorie „Weiß nicht“ (trichotome Frageform) ist problematisch, weil sie Ausweichbewegungen provoziert und bei der späteren Auswertung Probleme bereitet. Außerdem besteht eine latente Ja-Tendenz bei den Antworten. • Selektivfragen bieten eine Mehrfachauswahlmöglichkeit (Multiple Choice). Dabei sind Inkosistenzen durch Mehrfachnennungen bei einander ausschließenden Optionen vermeidbar. Dabei ist sicherzustellen, dass die Möglichkeiten gegeneinander sauber abgegrenzt und eindeutig formuliert sind. Dabei sind auch Optionsabstufungen möglich.

160

Kap. III: Offline-Erhebungsverfahren

Offene Fragen (inkategorial)

direkte Fragen

Geschlossene Fragen (kategorial)

indirekte Fragen

Alternativfragen Selektivfragen Kategorienneutralität/-inneutralität Sequenzneutralität/-inneutralität ein-/zweiseitig begrenzte Nennungen fixierte/freie Zahl von Nennungen Abbildung 39: Fragearten (eig. Darst.)

Bei Selektivfragen ergibt sich folgende weitere Unterteilung: • Kategorialneutral sind solche Fragen, die alle denkbaren Antwortmöglichkeiten abdecken. Allerdings ist zumeist zu bezweifeln, dass alle denkbaren Antworten auch wirklich ausgewiesen werden können. • Kategorialinneutral sind solche Fragen, die nicht alle denkbaren Antworten abdecken. Darin liegt eine erhebliche Gefahr für Verzerrungen allein daraus, dass nicht alle Meinungsäußerungen anwählbar sind. Werden die Antwortvorgaben dabei innerhalb der Befragung rotiert, handelt es sich um sequenzneutrale Fragen, erfolgt keine Rotation der Antwortvorgaben, um sequenzinneutrale Fragen. Auch darin liegt eine Verzerrungsgefahr insofern, als es zu Positionseffekten (Primacy / Recency) und gegenseitiger Überstrahlung (Irradiation) kommen kann. So beeinflussen vorhergehende Antwortmöglichkeiten nachfolgende. Die Anzahl der Nennungen kann frei wählbar sein, oder es kann eine bestimmte Zahl eingegrenzt werden. Diese kann: • fixiert sein, d. h. eine vorgegebene Anzahl beinhalten, dabei soll aus einer Liste eine definierte Anzahl von Antwortalternativen ausgewählt werden, • einseitig begrenzt sein, d. h. Mindest- oder Höchstangaben enthalten, dabei soll aus einer vorgegebenen Liste eine nach unten oder oben begrenzte Anzahl zulässiger Nennungen ausgewählt werden („mindestens“/„höchstens“),

3. Befragungsdurchführung

161

• zweiseitig begrenzt sein, d. h. Angaben zwischen Minimum- und Maximum­ spanne enthalten, dabei soll aus einer vorgegebenen Liste eine Bandbreite zulässiger Nennungen ausgewählt werden („von – bis“). Die Erfassung der Antworten kann durch wörtliche Niederschrift / Eingabe, vornehmlich bei offenen Fragen, Feldverschlüsselung durch Markierung der Antworten in gedruckten / elektronischen Formularen, vornehmlich bei geschlossenen Fragen, oder durch Feldbewertung durch den Interviewer erfolgen. Letzteres wird u. a. als Soziale Fremdeinstufung (SFE) bezeichnet und ggf. bei Verweigerung von soziodemografischen Angaben, z. B. zum Haushaltsnettoeinkommen, angewandt. Eine weitere Unterscheidung betrifft die in direkte oder indirekte Fragearten. Bei direkten Fragen gibt die Auskunftsperson offenkundig und für sie erkennbar ihre eigene Meinung wieder. Die Antworten lassen direkt auf die interessierenden Sachverhalte schließen. Bei heiklen, tabuisierten und normenbeladenen Themen treten dabei allerdings oft Hemmungen auf. Dann werden indirekte Fragen eingesetzt, die sich projektiver oder assoziativer Techniken bedienen. Die Auskunftsperson gibt dabei scheinbar nicht Auskunft über sich selbst, sondern über Dritte. Dadurch kann ihre Antwortbereitschaft und -fähigkeit gesteigert werden. Allerdings muss der forscherische Zusammenhang zwischen nachgefragtem Indiz und eigentlichem Frageobjekt eindeutig sein. Häufig angewandte Formen sind dabei folgende: • Die interviewte Person wird als Experte befragt („Wie beurteilen Sie als erfahrene Hausfrau denn die Tatsache, dass …“), • es werden Satzergänzungs- oder Wortassoziationsverfahren angewendet („Welche Begriffe fallen Ihnen spontan zur Marke X ein?“), • eine dritte (fiktive) Person soll anhand ihrer Einkaufsliste charakterisiert werden, • bestimmten Personentypen sollen bestimmte Produkte zugeordnet werden, • Formulierungen wie „… darüber wird ja mittlerweile ganz offen gesprochen.“, „… das ist ja schon die Norm heute.“, • absichtliche Verharmlosung in der Frage, etwa „Jeder von uns hat doch schon einmal …“. 3.1.1.2 Offene Fragen Offene Fragen sind solche, die eine vom Befragten frei formulierte Antwort zulassen, meist als W-Fragen, also Was, Wer, Welche, Wann, Wo, Wie. Scheinbar offene Fragen haben Suggestivcharakter und weisen daher eine deutliche JaTendenz auf wie z. B. die Frage: „Ist das Fahrzeug wendig im Stadtverkehr?“ bei einem Kleinwagen. Wesentliche Vorteile sind folgende. Die Auskunftsperson wird in ihrer Informationsabgabe und -bereitschaft nicht eingeschränkt und hat daher mehr Ent-

162

Kap. III: Offline-Erhebungsverfahren

faltungsmöglichkeiten für aussagefähige Ergebnisse. Dadurch kommt es zu einer genaueren Erfassung von Antworten. Die Auskunftsperson wird nicht durch vorgegebene Antwortkategorien zu einer teilweise unpassenden oder gar falschen Antwort veranlasst, die verzerrend wirkt. Dies gilt umso mehr, je komplexer und differenzierter ein Befragungsgegenstand ist. Antworten werden nicht durch Vorgaben „programmiert“, d. h. in eine bestimmte Richtung verzerrt. Darin liegt eine große Gefahr, etwa durch die Formulierung oder Anzahl vorgegebener Antwortalternativen, wobei es nicht auf die Sicht des Marktforschers, sondern allein auf die der Befragten ankommt. Es erfolgt keine Überbetonung durch überschneidende Mehrfachformulierungen einer Antwortart im Antwortkatalog. Denn dadurch steigt automatisch die Wahrscheinlichkeit ihrer Nennung und damit die Gefahr der Verzerrung des Antwortspektrums. Der Befragungsgegenstand wird vollständig abgebildet, weil keine Gefahr durch ausgelassene Antwortkategorien besteht. Damit können alle Facetten eines Objekts erfasst werden. Daher bietet sich auch bei geschlossenen Fragen eine offene Antwortoption an, damit Inhalte nicht verloren gehen. Wesentliche Nachteile sind hingegen folgende. Die Antworten der Auskunftspersonen hängen stark von deren Ausdrucksvermögen ab. Dies erfordert mehr geistige Anstrengung und führt zu überlegteren Antworten oder auch zur Antwortverweigerung. Insofern ergeben sich Verzerrungen durch Bildungsgrad, Muttersprachlichkeit, Lebenserfahrung etc. Die Ausführungen der Auskunftsperson treffen oft nicht den Kern der Frage und schweifen in irrelevante Nebenbereiche ab. Ihre Verwertbarkeit ist dann mehr oder minder stark eingeschränkt. Entsprechend werden verwertbare Antworten vereitelt oder fehlen möglicherweise auch ganze Interviews. Bei der späteren Klassifizierung von Antworten entstehen Schwierigkeiten hinsichtlich ihrer Zuordnung. Denn die Vielzahl differenzierter Antworten muss zur Auswertung letztlich wieder in passenden Kategorien zusammengefasst werden. Dies induziert Fehlinterpretationen. Der Vergleich von Antworten untereinander gestaltet sich schwierig, wenn die Klassifizierung nicht einwandfrei gelingt. Es besteht die Gefahr, dass Angaben „passend gemacht werden“, so dass Fehlinterpretationen zu falschen Ergebnissen führen. Eine maschinelle Auswertung ist erst nach aufwändiger Codierung möglich. Dazu müssen die Antworten zunächst einmal alle gesichtet und dann nach passenden Untersuchungspunkten gruppiert werden. KI vermag dies, zumindest derzeit, nur in sehr eingeschränktem Umfang zu leisten.

3. Befragungsdurchführung

163

Antworten werden nur unvollständig oder verkürzt registriert, wenn es sich um lange, wortreiche Einlassungen der Befragten handelt. Damit geht aber ein Teil der durch offene Fragen eigentlich gewünschten Differenzierung wieder verloren. 3.1.1.3 Geschlossene Fragen Geschlossene Fragen sind generell nur nach Vorstudien mit offenen Fragen empfehlenswert, da ansonsten entscheidende Antwortaspekte mangels angebotener Kategorie verloren gehen können. Wesentliche Vorteile sind folgende. Die Antwortvorgabe reduziert die erforderliche Denk- und Arbeitsleistung der Auskunftsperson und erleichtert ihr damit die Antwort. Die Ergebnisse sind besser auf dem Punkt gebracht als bei offenen Fragen und darüber hinaus auch klar kategorisierbar. Es sind keine besonderen Ansprüche an das Ausdrucksvermögen der Auskunftsperson zu stellen. Denn dieses limitiert oft die aussagefähige Verwertung von Antworten und führt zu Fehlinterpretationen. Insofern wird ein verzerrender Faktor ausgeglichen. Ebenso sind keine besonderen Anforderungen an die Interviewer im Hinblick auf deren Schreib- und Aufnahmekapazitäten zu stellen. Sie können sich vielmehr voll auf die konstruktive Gesprächsführung und den erfolgreichen Ablauf konzentrieren. Eine schnelle Protokollierung der Ergebnisse ist gewährleistet. Dies verkürzt Befragungszeiten und führt zu geringerer Abbruchquote bzw. zu mehr bearbeitbaren Inhalten je Interview. Insofern wird eine Effizienzsteigerung in der Erhebung erreicht. Bei der Auswertung ist eine Rationalisierung durch Zeit- und Kostenersparnisse gegeben. Die Antworten können unmittelbar, evtl. schon im Fragebogen, für die maschinelle Erfassung codiert werden. Es bleiben keine Einzelfälle, die aufwändig manuell zugeordnet werden müssen, übrig. Die Auswertung kann schnell und unter Einsatz technischer Hilfsmittel, also IT-Hardware und -Software, erfolgen. Außerdem erlaubt bereits ein kurzer Blick über die Fragebögen einen ersten nachvollziehbaren Eindruck von der Tendenz der Ergebnisse. Die Antworten verschiedener Auskunftspersonen können problemlos miteinander verglichen werden, da sie alle auf denselben, vorformulierten Antwortkategorien beruhen. Fehlinterpretationen sind weitestgehend ausgeschlossen. Allerdings kann es zum Fehlverständnis bei Antwortvorgaben kommen, was dann zu Verzerrungen führt. Wesentliche Nachteile sind hingegen folgende. Es besteht die Gefahr, dass einzelne Antwortoptionen unbemerkt weggelassen werden. In diesem Fall ist eine

164

Kap. III: Offline-Erhebungsverfahren

erhebliche Verzerrung gegeben, da Auskunftspersonen ihre Meinungsposition gar nicht erst repräsentiert sehen und ihre Meinung dazu im Weiteren untergeht. Die Anzahl der zur Auswahl stehenden Optionen ist oft nicht ausgewogen. Überwiegen positive oder aber negative Statements, kommt es zwangsläufig zu einer Verlagerung der Gesamtaussagen in diese Richtung. Die Tendenz kann durchaus unbeabsichtigt aus Sicht der Befragten entstehen. Die Formulierung der Antwortvorgaben ist nicht neutral gehalten. Es fällt leichter, etwas zu bejahen als zu verneinen. Zudem weisen Suggestivfragen eine explizite Ja-Tendenz auf. Dies ist allenfalls bei Auftrags-Marktforschung möglich, die vorgefasste Meinungen wunschgemäß bestätigen soll, wie dies in der Praxis durchaus häufiger vorkommt. Die Reihenfolge der Nennung der Antwortoptionen führt ggf. zu gegenseitiger Überstrahlung. Dadurch werden Antworten verzerrt, indem vorlaufende Vorgaben nachfolgende beeinflussen (Positionseffekt). Abhilfe wird durch zufällige Rotation der Vorgaben erreicht. Dennoch spielen geschlossene Fragen die größte Rolle in jeder mündlichen Erhebung. Die genannten Nachteile können durch Beachtung einiger Regeln vermieden werden: • Die Alternativenzahl soll bei geschlossenen Fragen nicht zu klein sein, um dem Antwortenden genügend Entfaltungsspielraum zu belassen. So kann trotz der Vorgaben eine differenzierte Meinungserfassung erfolgen. • Die Antwortkategorien sollen alle realistisch denkbaren Antwortmöglichkeiten abdecken. Vor allem ist wichtig, dass die Antwortvorgaben aus der Sicht der Befragten tatsächlich zur Frage passen und nicht zu abstrakt wirken. • Alle Antwortoptionen sollen sich möglichst in der gleichen Dimension bewegen. Sollen mehrere Dimensionen abgedeckt werden, sollen diese annähernd ausgewogen oder auf mehrere geschlossene Fragen verteilt sein. • Seltene Antwortkategorien sollen in einer Kategorie „Sonstiges“ zusammengefasst werden. Diese wird dann als offene Kategorie betrachtet. • Eine offene Antwortoption soll Raum für Antworten lassen, die durch die Vorgaben nicht abgedeckt sind. Dadurch gehen vom Befragten als wichtig erachtete, jedoch nicht explizit vorgegebene Antworten nicht verloren. • Bei der Reihenfolge der Antwortpositionen sind Verzerrungen durch Rotation der Reihenfolge zu vermeiden. So können Überstrahlungseffekte, wenn schon nicht vermieden, so doch zumindest ausgeglichen werden.

3. Befragungsdurchführung

165

3.1.2 Fragefunktionen 3.1.2.1 Instrumentalfragen Im Fragebogenablauf nehmen einzelne Fragen bestimmte Funktionen wahr (siehe Abbildung 40: Fragefunktionen). Es handelt sich im Einzelnen um Instrumentalfragen, Ergebnisfragen und Sonderfragen. Instrumentalfragen

Ergebnisfragen

Analytische Fragen Korrelationsfragen

unmittelbar (direkte Befragung)

Erhebungskontrollfragen

mittelbar (Assoziation / Projektion)

Auskunftskontrollfragen Ablaufordnungsfragen Filterfragen Gabelungsfragen Methodische Fragen Kontaktfragen Unterweisungsfragen

Sonderfragen Vorlagenfragen Vortragsfragen Zitatfragen Dialogfragen Indikatorfragen

Ablenkungsfragen

Skalierungsfragen

Ausgleichsfragen

Personenfragen Abbildung 40: Fragefunktionen

Die Gruppe der Instrumentalfragen besteht aus Fragen, die keine unmittelbare Aussage über bestimmte Sachverhalte zulassen, aber für den Erfolg der Erhebung entscheidend sind. Dazu gehören im Einzelnen analytische Fragen, Ablaufordnungsfragen und methodische Fragen. Analytische Fragen sind solche, die den Befragungsgegenstand betreffen. Zu unterscheiden ist in: • Korrelationsfragen. Sie bilden die Grundlage für Untergruppen und Kreuztabellierungen. Dies betrifft vor allem die Soziodemografie der Befragten, die in Zusammenhang mit auswertbaren Ergebnisfragen gestellt wird.

166

Kap. III: Offline-Erhebungsverfahren

• Erhebungskontrollfragen. Sie stellen die Sorgfalt der Interviewdurchführung sicher. Meist handelt es sich um Fälscherfragen, die feststellen sollen, ob Antworten an verschiedenen Stellen des Fragebogens einander widersprechen. Dies deutet auf Fälschungen hin. • Auskunftskontrollfragen. Sie stellen Inkonsistenzen in den Antworten der Befragten fest. Die Ergebnisse der betreffenden Personen sind dann kritisch zu durchleuchten. Es steht zu vermuten, dass bei den Antworten nicht immer die Wahrheit angegeben worden ist. Ablaufordnungsfragen sind solche, die den Befragungsvorgang selbst steuern. Zu unterscheiden ist in: • Filterfragen. Sie beenden die Befragung bzw. scheiden Personen aus der weiteren Befragung zu einem Thema aus. Damit werden unsinnige Fragestellungen vermieden. Zum Beispiel richten sich Fragen zu Tierfutter nur an Personen, von denen vorher erhoben wurde, dass sie tatsächlich ein Haustier halten. Alle anderen überspringen diesen Fragenkomplex. • Gabelungsfragen. Sie steuern den Ablauf, indem je nach Antwortkategorie an einer anderen Stelle im Fragebogen weitergearbeitet wird. Somit werden Untergruppen der Befragungsgesamtheit definiert und dann mit jeweils spezifischen Fragefolgen bedient. Zum Beispiel werden gewerbliche und private Nutzer von Hochdruckreinigern getrennt nach ihren jeweiligen Anforderungen an einen Gerätetyp befragt. Methodische Fragen sind solche, die dem Bereich der Fragetaktik zuzurechnen sind. Zu unterscheiden ist dabei in: • Kontaktfragen (auch Eisbrecherfragen). Sie bauen die Scheu des Befragten gegenüber dem Interview ab und schaffen günstige Voraussetzungen für einen konstruktiven Befragungsablauf. Sie dienen der Auflockerung der Atmosphäre und der Überbrückung anfänglicher Befangenheit. Den Ergebnissen kommt meist „Wegwerf“-Charakter zu. • Unterweisungsfragen. Sie sichern die notwendige Grundeinstellung und sensibilisieren Auskunftspersonen für den betreffenden Gegenstand. Sie werden auch Lern- oder Trainingsfragen genannt. So kann ein angeführtes Beispiel den Befragten helfen, besser zu verstehen, wie eine Frage gemeint ist. • Füllfragen (auch Pufferfragen). Sie grenzen Themenkomplexe innerhalb einer Befragung gegeneinander ab und verhindern so eine gegenseitige Beeinflussung dieser Komplexe durch Haloeffekte, d. h. Überstrahlungen vom vorherigen Thema auf das nachfolgende. • Ablenkungsfragen. Sie sollen den eigentlichen Fragebogeninhalt verdecken. Dadurch soll eine nicht-durchschaubare Fragesituation erreicht werden, in der die Befragungsperson keine Auskunftsverzerrungen einbringen kann, weil ihr verborgen bleibt, was das eigentliche Ziel der Befragung ist.

3. Befragungsdurchführung

167

• Ausgleichsfragen. Sie sind für den Teil der Befragten gedacht, die nach einer Filterfrage von einem Fragenkomplex freigestellt sind. Damit soll verhindert werden, dass Befragte lernen, welche Antworten zur eher unliebsamen Verlängerung über weitere Fragen und welche zur willkommenen Verkürzung des Interviews durch Frageauslassung führen. 3.1.2.2 Ergebnisfragen Die Gruppe der Ergebnisfragen beinhaltet Fragen, die unmittelbar auf bestimmte Sachverhalte und funktionelle Verknüpfungen schließen lassen. Dazu gehören Präzisionsfragen und Maßstabsfragen. Präzisionsfragen sind solche, die zu erhebende Tatbestände unmittelbar durch direkte Befragung erfassen oder mittelbar durch • Assoziationsfragen, die auf die mit einem Untersuchungsgegenstand verknüpften Vorstellungen abzielen (z. B. Satzergänzung, Wortassoziation, Satzlückenvervollständigung) oder • Projektionsfragen, welche die Auskunftsperson veranlassen sollen, Informationen abzugeben, die sie bei direkter Befragung nicht offenbaren kann oder will. Hilfreich sind hier Projektionstechniken wie Personifizierung des Befragungsobjekts (Produkt / Marke / Unternehmen), Zuordnung von Symbolen (Tiergattung, Farben etc.), Zuordnung von fiktiven Zitaten, Zuordnung von Prominenten, „Familienbildung“ verwandter Objekte (Ähnlichkeit), Storytelling zu einer vorgegebenen Bildvorlage, Erstellung einer Zeichenskizze etc. Maßstabsfragen halten demgegenüber Unterschiede zwischen verschiedenen Befragten in Bezug auf einen Sachverhalt bzw. zwischen verschiedenen Sachverhalten bei einer Befragungsperson fest. Dies erfolgt durch Skalen auf unterschiedlichen Niveaus. 3.1.2.3 Sonderfragen Die Gruppe der Sonderfragen beinhaltet mehrere Formen: • Vorlagenfragen verbinden Text-, Bild- oder Originalvorlagen mit der Frageformulierung. Oft dienen diese als zusätzliche Gedächtnisstütze. Dies ist etwa bei der Abfrage in der Media-Analyse durch Vorlage von Sed-Karten mit den Logos von Werbeträgern bei der Abfrage nach deren Nutzung der Fall. • Vortragsfragen werden ohne stützende Vorlagen gestellt und führen somit zu „härteren“ Ergebnissen. Damit kann z. B. die aktive Bekanntheit von Produkten / ​ Marken erfragt werden, die spontan in Zusammenhang mit der Frage präsent sind.

168

Kap. III: Offline-Erhebungsverfahren

• Zitatfragen beinhalten die wörtliche Äußerung einer fiktiven oder realen Person, zu welcher der Befragte Stellung nehmen soll. Häufig handelt es sich um Personen des öffentlichen Lebens, deren Aussagen durch die Medien bereits bekannt sind. • Dialogfragen geben einen Gesprächsaustausch zweier fiktiver Personen wieder und fordern die Befragungsperson auf, einer von ihnen zuzustimmen. Dies wird vor allem bei komplexen Sachverhalten angewandt, die das Ausdrucksvermögen von Probanden ansonsten überfordern. • Indikatorfragen dienen der Operationalisierung von theoretischen Konstrukten, z. B. Motive, Wünsche, Bedarfe, und sollen Hinweise auf das Vorhandensein und die Ausprägung dieser Konstrukte geben. • Skalierungsfragen bedienen sich Maßeinteilungen, um Einstellungen, Beurteilungen, Meinungen oder andere verdeckte Inhalte zu messen. Ihr Ziel ist die Quantifizierung qualitativer Sachverhalte. • Personenfragen werden für gewöhnlich am Ende des Interviews gestellt und dienen der Erfassung soziodemografischer Daten, die dann mit anderen Ergebnissen korreliert werden können.

3.1.3 Frageformulierung Bei der Frageformulierung sind die Grundsätze der Einfachheit, Eindeutigkeit und Neutralität zu beachten. Einfachheit bedeutet, dass der Fragebogen mit einem minimalen Wortschatz auskommen sollte. Die Fragen sollen kurz und einfach gehalten sein. Dabei sollte ein allgemein verständlicher Stil eingehalten werden, wobei sich das sprachliche Niveau immer an der Umgangs- bzw. Fachsprache der jeweiligen Befragtengruppe ausrichtet. Fragen sollen Wissensstand, Bildungsniveau und Erinnerungsfähigkeit der Befragten nicht überfordern. Fremdwörter, Abkürzungen, Eigennamen etc. sind zu vermeiden oder zu erläutern. Eindeutigkeit meint, dass eine Frage so gestellt sein sollte, dass sie von mehreren Befragten gleichartig verstanden werden kann. Mehrdeutigkeiten sind zu vermeiden, auch in Bezug auf Orts- und Zeitangaben. Dazu bedarf es einer präzisen, semantisch eindeutigen und logisch klaren Formulierung. Es darf dabei zu keiner Vermischung verschiedener Frageaspekte kommen. Neutralität bedeutet, dass jede Beeinflussung der Antwort durch die Fragestellung ausgeschlossen sein sollte. Suggestionen entstehen bereits bei unterschiedlichen Formulierungslängen von Alternativantworten, durch den Einsatz wertender Wörter, durch Ungleichheit positiver und negativer Ausprägungen der Antworten, durch Betonung in Text oder Vortrag etc. Gleiches gilt für die implizite Nahelegung von Antworten durch den Forscher.

3. Befragungsdurchführung

169

Als weitere Anforderungen an die Frageformulierung sind folgende zu nennen: • genaue Bestimmung des Fragengegenstands, am besten nach den W-Wörtern wer, was, wann, wo, wie, warum, • verständliche Formulierung der Fragen, normalerweise also keine Fremdwörter oder Fachbegriffe, es sei denn, es handelt sich um eine Expertenbefragung, • Vermeidung unterschiedlicher Bezugsebenen, z. B. keine Abfrage von zwei Auskunftsaspekten gemeinsam in einer Frage, • Vermeidung unklarer Interview-Anweisungen, die dazu führen, dass die Fragetaktik verschieden ausgelegt wird. Allgemein gilt, dass die Fragen nicht als lästig empfunden werden dürfen und leicht verständlich sein sollen. Es sollen so wenig Fragen wie möglich gestellt werden, diese müssen klar formuliert sein. Sie sollen so kurz und präzise wie möglich sein und dürfen keinen inquisitorischen Charakter haben. Der Fragenablauf soll eine motivierende Dramaturgie aufweisen und jegliche Monotonie vermissen lassen. Es sind sowohl eine Aufwärmphase mit Eisbrecherfrage etc. als auch zwischenzeitliche Motivationsphasen für den Probanden erforderlich, etwa durch Themenwechsel. Abhilfe für daraus entstehende Probleme kann mehrfach geschaffen werden: • Die Frageformulierung wird mit konkretem Bezug ausgestattet, damit kein sozial erwünschtes Verhalten wiedergegeben wird (also nicht: „Wie gestalten Sie normalerweise so Ihren Feierabend?“, sondern: „Wie haben Sie den gestrigen Abend verbracht?“). • Die Antwortvorgaben werden möglichst bestimmt formuliert, um Interpretationsspielraum zu nehmen (also nicht: „Stricken Sie selten, gelegentlich, häufig, regelmäßig?“, sondern „Stricken Sie mehr als 10 mal, 5–10 mal, weniger als 5 mal im Monat oder überhaupt nicht?“). • Es werden eindeutige Frageformulierungen verwendet (also nicht: „Welche Heimwerkergeräte besitzen Sie?“, sondern: „Besitzen Sie eine Oberfräse, Stichsäge oder Schlagbohrmaschine?“ bzw. „Welche Marken verwenden Sie bevorzugt bei diesen Heimwerkergeräten?“). • Bei Tabuthemen werden gezielt suggestive Formulierungen verwendet (also nicht: „Haben Sie jemals aus Geldmangel gebastelt?“, sondern: „Ist es Ihnen schon passiert, dass Ihnen ein Fertigteil im Laden zu teuer war und Sie statt dessen auf Do it yourself zurückgegriffen haben?“). Die Auskunftswilligkeit soll durch thematische Abwechslung und Variation der Fragetechniken gesteigert werden. Hilfreich ist auch eine einigermaßen konstante Befragungssituation, um Ungleichheiten in der Erhebung vorzubeugen. Vor allem

170

Kap. III: Offline-Erhebungsverfahren

sollen Störeffekte ausgeschaltet werden, die etwa durch Überstrahlung von Antwortalternativen zustande kommen. Dabei handelt es sich um: • Präsenzeffekte, d. h., vorangegangene Fragen aktualisieren bestimmte Vorstellungen und Denkraster und engen dadurch den Antwortspielraum für nachfolgende Fragen ein, • Konsequenzeffekte, d. h., der Befragte sieht seine Antwort in Zusammenhang und bemüht sich um interne Widerspruchsfreiheit, obgleich er ansonsten anders antworten wollte, • Lerneffekte, d. h., vorangegangene Fragen vermitteln Wissen, etwa über den Fragenablauf, und verzerren Antworten durch mangelnde Unvoreingenommenheit. Fragetaktische Elemente betreffen vor allem die: • Fragetypenkomposition im Befragungsablauf, d. h. die Art der überhaupt eingesetzten Fragetypen im Fragebogen. Hier ist eine Abwechslung durch Einsatz unterschiedlicher Fragetypen sinnvoll, um Ermüdungserscheinungen und Lerneffekten vorzubeugen. • Fragetypensequenz im Befragungsablauf, d. h. die Abfolge der einzelnen Fragetypen im Fragebogen. Häufig kommt es zur sozialen Erwünschtheit, d. h. Personen antworten so, wie sie glauben, dass es von ihnen erwartet wird, und Prestigeantworten, d. h. Personen überzeichnen ihren Status im realen Leben. Die Länge des Fragebogens ist abhängig von Befragungsgegenstand, erwartetem Interesse der Befragten, Interviewergeschick, erwarteter Befragungssituation und Honorierung. Letztere ist höchst umstritten, provoziert sie doch womöglich Gefälligkeitsantworten, um das Honorar nicht zu gefährden. Realistisch ist, sofern es sich nicht um professionelle Zielgruppen handelt, eine Dauer von 30–45 Minuten je Interview, das bedeutet ca. 15–25 Fragen. 3.1.4 Interviewerbedeutung 3.1.4.1 Interviewerauswahl Die Interviewerbedeutung ist für die Qualität der Befragungsergebnisse als sehr hoch anzusetzen. Eine unerlässliche Voraussetzung sind somit die Auswahl hoch geeigneter Interviewer, konkrete Vorgaben für deren Arbeitseinsatz und ihre Schulung. Als hilfreiche Charaktermerkmale gelten dabei Kontaktfähigkeit, ein gesundes Maß an Pedanterie, Interesse für Menschen und moralische Widerstandskraft. Interviewer müssen zur ungezwungenen Führung eines präzisen Gesprächs fähig sein. Bei der Auswahl sind Extremtypen zu vermeiden. Was als extrem anzusehen ist, ist abhängig von der sozialen Norm der Befragten, z. B. nach Alter, Klassenzugehörigkeit, Erscheinungsbild, Bildungsgrad, Auftreten, Sprache. Ebenso sind soziale Randgruppen wegen der Verweigerungsgefahr zu vermeiden. Auch sollte

3. Befragungsdurchführung

171

keine persönliche Betroffenheit durch das Befragungsthema vorliegen, z. B. ein ausländischer Interviewer zum Thema der Erbringung einfacher Dienstleistungen durch Gastarbeiter. Wichtig ist die Beherrschung der situativen Faktoren des Interviews und die Induzierung sozialer Interaktion zwischen Interviewer und Befragtem. Zu den situativen Faktoren gehören etwa die Vermeidung von Zeitdruck bei Interviewer oder Befragtem oder der Anwesenheit Dritter bei der Befragung. Ausgleichend wirkt hier meist die Zufälligkeit der Erhebungsumstände. Zur sozialen Interaktion gehört die Gesprächsentwicklung, die zu Beginn ein bestimmtes Bild vom jeweils anderen vermittelt, das zu Vorurteilen führen kann, die verzerrend wirken. Ausgleichend wirken hier in gewissem Rahmen Fragetaktik und Intervieweranweisung. Interviewer sollen das Verhalten anderer gut beobachten und sich darauf einstellen können. Sie sollen psychisch belastbar sein und können auf kontroverse Reaktionen von Befragungspersonen konstruktiv reagieren. Sie sollen über hohe Anpassungsfähigkeit verfügen und sich auf unterschiedliche Situationen gut einstellen können. Sie sollen eine gute Allgemeinbildung haben und können ihr eigenes verbales und nonverbales Verhalten gut kontrollieren. Sie sollen ausreichend selbstkritisch sein und aus Fehlern angemessene Konsequenzen ziehen. Insofern sind relevante Schlüsselqualifikationen erforderlich. Häufig sind Interviewer für mehrere Institute parallel tätig oder kombinieren ihr Interview mit Verkaufstätigkeiten, was natürlich inakzeptabel ist. Als sehr hoch ist auch die Fälscherquote einzuschätzen. Interviewer (Dorroch) berichten von Zirkeln, innerhalb derer sie Fragebögen untereinander austauschen und ausfüllen, um Kontrollen zu umgehen. Oder von der Neuanmeldung unter einem anderen Namen, wenn ein Interviewer wegen Fälschungen aus dem Stab eines Instituts entfernt worden ist. Dies ist vor allem problematisch, wenn sich Männer unter Frauennamen getarnt anmelden und wie geschehen mit der Abfrage sensibler Themen beauftragt werden (wie Geschlechtskrankheiten). Ein Mittel, solchen Verzerrungen entgegen zu wirken, ist die Verteilung der Fragebögen auf eine größere Interviewerzahl, so dass diese Effekte sich ausgleichen.

3.1.4.2 Interviewereinsatz Für den häufigen Fall, dass eine mündliche, standardisierte Befragung durchgeführt werden soll, umfasst eine Intervieweranweisung für den Einsatz sinnvollerweise Vorgaben zu folgenden Bereichen: • Ungefragte und exakte Ausweisung der Person, alle Forschungsinstitute stellen dafür Interviewerausweise aus, die vorgezeigt werden sollen, allerdings unterliegen diese auch Täuschungsansätzen, so dass von zunehmendem Misstrauen auszugehen ist, • Interview nur mit fremden Personen, also keine Freunde, Bekannte, Verwandte, da dann von Antwortverzerrungen auszugehen ist, wobei der Anreiz der leichte-

172

Kap. III: Offline-Erhebungsverfahren

ren Erreichbarkeit / Auskunftseinholung verlockend wirkt, ein Abgleich ist allenfalls zwischen mehreren Projekten eines Interviewers möglich, • Interviews nicht räumlich geballt vornehmen, um Klumpungseffekte zu vermeiden, auch hier führen Kosten- und Zeitvorteile zur Versuchung, dennoch räumlich konzentriert vorzugehen, dies ist als Täuschung nur sehr schwer zu erkennen, • freundliches Auftreten und sympathische Ausstrahlung zeigen, so dass sich die Akzeptanz zur Teilnahme an der Befragung erhöht, insofern sind soziale Kompetenzen gefragt, so dass eigentlich eine persönliche Auswahl unumgänglich ist, aber aus Kostengründen durchweg unterbleibt, • entspannte Durchführung des Interviews ohne Zeitdruck, dem Befragten Zeit zum Nachdenken und Antworten geben und nicht hetzen, dagegen spricht der häufige Zeitdruck von Interviewern, die, weil mit den Frageinhalten vertraut, Auskunftspersonen hetzen, • verständliches Formulieren von Fragen und genaue Vorlage von Hilfsmitteln, damit die Antworten aussagefähig sind, der damit verbundene höhere Handlingaufwand wird jedoch häufig zu vermeiden gesucht, so werden immer wieder „Abkürzungen“ im Interviewablauf gesucht, • keine Fragen selbst interpretieren, bei Unverständnis die Frage im Zweifel exakt vorlesen und dann vom Befragten selbst interpretieren lassen, damit die Vergleichbarkeit der Antworten erhalten bleibt, es sei denn, dies ist ausdrücklich anders vorgesehen, • genaue Einhaltung der Fragereihenfolge, da damit eine Fragendramaturgie verbunden ist, die ebenso zur Vergleichbarkeit der Antworten unerlässlich ist, aber auch im Regelfall unerwünschte Überstrahlungseffekte neutralisieren hilft, • Antworten immer wörtlich aufnehmen, nicht mit eigenen Worten vermerken, da dies zu Fehldeutungen führen kann, dies gilt auch für zunächst unverständlich erscheinende Einlassungen von Befragten, es sei denn, dies ist anders vorgesehen, • Antworten leserlich ausführen (Schrifterkennung) und exakt immer nur in der dafür zutreffenden Rubrik eintragen, ansonsten entstehen aufwändige, wirtschaftlich nicht tragfähige Nachkontrollen durch manuelle Bearbeitung der Antworten, • auch unaufgeforderte Antworten zur Sache notieren, obgleich dies zur Umsetzung des Fragebogens nicht zwingend erforderlich wäre, solche Kommentare geben realistische Einblicke in die Denk- und Gefühlswelt der Befragten, • das Interview an Ort und Stelle auf Vollständigkeit und Gültigkeit überprüfen und keine Kompromisse in Bezug auf die Qualität eingehen, Lücken und Unklarheiten sofort klären, ansonsten besteht die Gefahr, dass einzelne Interviews nicht verwertet werden können, • keine Interviewbögen selbst vervollständigen, dies sollte selbstverständlich sein, ist aber in der Praxis immer wieder vorzufinden, da nur vollständige Fragebö-

3. Befragungsdurchführung

173

gen vom Veranstalter honoriert werden, unvollständige damit vergebener Zeiteinsatz sind, • keine persönlichen Ansichten in die Befragung einbringen, denn dann wird die Meinung der Interviewer und nicht, wie beabsichtigt, die der Interviewten erfasst, verzerrende Signale können bereits von Betonung oder Mimik ausgehen, • immer nur ein Befragungsprojekt zu gleicher Zeit durchführen, obgleich es naheliegt, einen Befragten auch mit anderen Befragungsprojekten zu tangieren, zumal viele Personen anzusprechen sind, ehe man eine auskunftswillige trifft, • Befragungen auf keinen Fall mit anderen Tätigkeiten kombinieren, z. B. Verkauf, Beratung, wie das gelegentlich für Nebeneinnahmen der Interviewer nicht unüblich ist, solche Fehltritte kommen allerdings häufig nur durch Zufall zum Vorschein, • keine dritten Personen zum Interview mitnehmen, da die Antworten dann anders ausfallen dürften und nicht mehr vergleichbar und aussagefähig sind, also auch kein Anlernen von neuen Interviewern, indem diese Interviewer bei ihrer Arbeit begleiten, • auf keinen Fall von der vorgegebenen Stichprobenstruktur abweichen, obgleich in der Praxis Fälle durchaus „passend“ gemacht werden, damit die Honorierung nicht gefährdet ist, dies rüttelt jedoch an den Grundfesten einer Studie. • jede Person nur einmal befragen, da ansonsten die Repräsentanz der Stichprobe für die Grundgesamtheit leidet, weil eine ungewollte Gewichtung entsteht, auch dies ist von fundamentaler Bedeutung für die Studienseriosität, • beim Ausfüllen nicht vom Befragten „über die Schulter schauen“ lassen, da dies zu Verzerrungen im Interview führen dürfte, ebenso nicht den Fragebogen mit den nachfolgenden Fragen oder die vorherigen Antworten lesen lassen. 3.1.4.3 Interviewerkontrolle Zur Kontrolle der Einhaltung dieser Anweisungen und zur Vermeidung von Fälschungen dienen folgende Maßnahmen: • Einbau von Fangfragen in das Interview, um Widersprüchlichkeiten zwischen früheren und späteren Angaben im Verlauf des Fragebogens festzustellen, allerdings sind auch „echte“ Interviews nicht frei von Inkonsistenzen in der Beantwortung. • Quittierung des Interviews durch den Befragten, allerdings besagt dies noch nichts über den vollständigen und sachgerechten Ablauf des Interviews, zudem führt dies leicht zu Misstrauen bei Befragten („nichts unterschreiben wollen“). • telefonischer Nachfass im Anschluss an das Interview, allerdings kann dabei kaum die Achtsamkeit in der Befragung nachgeprüft werden, außerdem sind nicht alle

174

Kap. III: Offline-Erhebungsverfahren

Personen telefonisch erreichbar oder wollen dazu am Telefon Auskunft geben (Misstrauen). • Einstreuung gefälschter Adressen in die Stichprobendaten, kommen von diesen Dummy-Adressen Fragebögen zurück, liegt eindeutig eine Fälschung vor, dies ist noch eine der wirksamsten Kontrollmaßnahmen zumindest bei bestimmten Auswahlverfahren. • Durchführung echter Nachinterviews mit gleichen Fragen, allerdings ist damit ein hoher Zeit- und Geldaufwand verbunden, zudem besteht keine Gewähr, dass das Nachinterview zuverlässiger ist, und es kommt zu einer hohen Verweigerungsquote beim Zweitbesuch. • Auswahl hoch motivierter Interviewer, Beschränkung deren Zeitdrucks und leistungsfördernde Honorierung, die Praxis ist hier jedoch durch harte Konkurrenz der Initiatoren und Rentabilitätsdruck aufgrund knapp kalkulierter Angebote gekennzeichnet. • Verzicht auf unzuverlässige oder „übererfahrene“ Interviewer, wobei allerdings ein Identifizierungsproblem besteht und hohe laufende Kosten für Schulung und Training neuer Interviewer anfallen, welche die Wettbewerbsfähigkeit ver­ mindern. • Beschränkung der Anzahl der Interviews, die auf jeden Interviewer entfallen, um etwaige Verzerrungen durch deren große Zahl zu neutralisieren, auch dies ist eine pragmatische Möglichkeit zur Limitierung von Fälschungseinflüssen. 3.1.4.4 Interviewerqualifizierung Die Qualifizierung der Interviewer bezieht sich auf folgende Bereiche: • Erläuterung des Erhebungsziels, ohne allerdings zu genau auf die Hintergründe der Befragung einzugehen. Bei Kenntnis des allgemeinen Befragungsziels kann der Interviewer besser und sachkundiger auftreten. Eine zu genaue Einweisung ist jedoch zu vermeiden, weil sie das Ergebnis verzerren kann. • Übungsinterviews, vor allem bei neuen Interviewern. Dabei werden wichtige Fertigkeiten eingeübt, wie immer nur eine Person zur gleichen Zeit interviewen, nur ein Interview pro Adressat durchführen, wörtliches Vorlesen der Fragen etc. • Erläuterung der Auswahlmethoden und evtl. der Quotenmerkmale. Die Auswahlmethode muss zweifelsfrei genannt sein, ebenso ist der zu befragende Personenkreis abzugrenzen, allerdings sollte keine „Überinformation“ der Interviewer eingegangen werden. • räumliche Abgrenzung des Arbeitsgebiets, möglichst außerhalb des Wohnsitzes des Interviewers, so dass die Voraussetzungen für Verzerrungen verringert werden, allerdings sind Ortsangaben schwierig und nur mühsam zu verifizieren.

3. Befragungsdurchführung

175

• zeitliche Abgrenzung der Erhebung, inkl. Empfehlung günstiger Erhebungstage oder Tageszeiten, damit wird nicht nur ein einheitlicher Erhebungszeitraum erreicht, sondern durch Erfolgserlebnisse auch eine gesteigerte Motivation der Interviewer. • Art und Weise der Vorstellung, der Bekanntmachung und des Gesprächseinstiegs. Hier sind bereits die entscheidenden Faktoren zum Gelingen eines Interviews angelegt, wobei der Anteil der non-verbalen den der verbalen Kommunikation klar übersteigt. • Art und Umfang der festzuhaltenden Beobachtungen bei Personen, Haushalten etc. Dies schärft die Wahrnehmung der Interviewer und erhöht damit die Aussagefähigkeit der Ergebnisse. Allerdings besteht auch die Gefahr, unzutreffenderweise von den eigenen Normen aus auf andere zu schließen. • Feststellung der Angaben zur befragten Person, da ansonsten wichtige Auswertungsmöglichkeiten entfallen. Die Angaben sind dabei durchaus auf Plausibilität hin zu hinterfragen, z. B. hinsichtlich Alter, Ausbildungsstand, Einkommen. • Hinweis auf die Überwachung der Interviewertätigkeit durch den Einsatzleiter für das Projekt. Er fungiert aber nicht nur als Kontrolleur, sondern steht tatsächlich als professioneller Partner für Erläuterungen / Hilfen zur Verfügung. • Modalitäten der Vergütung. Hier ist die Normierung einer Mindestzahl erforderlicher Interviews denkbar, um eine schnellere zeitliche Durchführung zu erreichen. Dies ist wichtig unter dem Gesichtspunkt eines möglichst einheitlichen Erhebungsstichtags. Ein wichtiges Subziel der Interviewerqualifizierung ist die Minimierung von Interviewverweigerungen, da diese bei Bewusstauswahlverfahren nicht ohne Weiteres erkennbar sind. Dazu bietet sich die Einübung der Einwandbehandlung an, d. h. häufig genannter Bedenken der Probanden gegen eine Befragung. Im Folgenden Beispiele. • „Ich weiß zu wenig zu diesem Thema.“ – „Das macht gar nichts, denn es kommt bei dieser Befragung nicht auf das Wissen an, sondern ausschließlich auf Ihre Meinung.“ • „Ich habe kein Interesse an einem Interview.“ – „Für die Durchführung dieser Erhebung bin ich auf Ihre Mitarbeit angewiesen, da die Ergebnisse ansonsten nicht repräsentativ sind.“ • „Nachher steht mein Name in der Auswertung.“ – „Ich kann Ihnen zusichern, dass die Erhebung vollständig anonymisiert erfolgt, Sie brauchen also in dieser Richtung keinerlei Befürchtungen zu haben.“ • „Bin ich denn verpflichtet, da mitzumachen?“ – „Nein, natürlich nicht, Ihre Teilnahme ist vollkommen freiwillig, aber gerade deshalb ist Ihre Meinung so wichtig.“

176

Kap. III: Offline-Erhebungsverfahren

• „Welche Meinung ich dazu habe, geht doch niemanden etwas an.“ – „In der Auswertung sind die Personen, die befragt wurden, nicht erkennbar, es kann also nicht von einer Antwort auf Sie als Person zurück gerechnet werden. Das ist allein schon aus Rechtsgründen so vorgeschrieben.“ • „Ich habe grundsätzlich etwas gegen diese Umfragen.“ – „Ich kann Ihre Vorbehalte durchaus verstehen, aber diese Befragung trägt mit ihren Ergebnissen zur Vermehrung des Wissens über Käuferverhalten bei. Davon können Sie später persönlich profitieren.“ • „Ich möchte nicht hier auf der Straße interviewt werden.“ – „Ihre Einschätzung teile ich, aber ich versichere Ihnen, dass das Interview wie ein normales Gespräch abläuft, also keinerlei Aufsehen erregen wird.“ • „Ich habe für so etwas überhaupt keine Zeit.“ – „Ich respektiere Ihre Zeitknappheit, daher ist das Interview auch so kurz wie eben möglich gehalten. Sie werden also nicht unnötig aufgehalten.“ • „Da kann ja jeder kommen und mich interviewen wollen.“ – „Ihre Vorsicht ist nur zu verständlich, ich darf Ihnen hier meinen Interviewerausweis mit Namen, Bild und Auftraggeber zeigen, damit Sie sich von der Seriosität meines Anliegens selbst überzeugen können.“ • „Welchem Zweck dient denn diese Befragung?“ – „Das sage ich Ihnen gern nachher, aber jetzt würde diese Information Einfluss auf Ihre Antworten haben und damit die Befragung entwerten.“

3.2 Zeit- und Kostenplanung Wesentliche Aspekte bei der Durchführung jeder Befragung sind ihr Timing und ihr Costing. Der Zeitablauf der Befragungsplanung stellt sich chronologisch wie folgt dar: • Abstimmung der Untersuchungskonzeption mit Arbeitshypothesen, • Ausarbeitung und Festlegung des anzuwendenden Auswahlverfahrens, • Prüfung der Repräsentanz der Stichprobe für die Grundgesamtheit, • Festlegung der anzuwendenden Erhebungsverfahren, • Ausarbeitung des Fragebogens, • ggf. Programmierung des Fragenablaufs, • Ausarbeitung sonstiger Befragungsunterlagen wie der Interviewerinstruktion, • Durchführung des Auswahlverfahrens, • Durchführung einer Pilotstudie,

3. Befragungsdurchführung

177

• Auswahl der einzusetzenden Interviewer, • Überarbeitung des Fragebogens anhand der Ergebnisse des Pretests, • Überarbeitung der Befragungsunterlagen aufgrund der Ergebnisse des Pretests, • Überarbeitung der Interviewerinstruktion auf Basis des Pretests, • Entwurf des Interviewer-Beauftragungsschreibens, • Produktion der Fragebögen, sonstiger Befragungsunterlagen und der Interviewerinstruktion, • Übergabe / Übersendung der Unterlagen an die Interviewer, • Interviewdurchführung im Feld, • Auswertung der rücklaufenden Fragebögen und Ausfallmeldung, • automatisierte Plausibilitätskontrolle, Interviewerkontrolle, • Bestimmung der anzuwendenden Datenverarbeitungs- und -analyseverfahren, • Installation des Auswertungsprogramms, • Erstellung des Codeplans, falls erforderlich Verschlüsselung der Fragebögen, • Probezählung, Endauszählung, • Verdichtung der erhobenen Daten, • Testverfahren zur Absicherung der Aussagefähigkeit, • Hypothesenprüfung als Basis für Schlussfolgerungen und Ergebnissicherheit, • Hochrechnung der Ergebnisse von der Stichprobe auf die Grundgesamtheit, • Festlegung der anzuwendenden Darstellungsverfahren, • Prüfung der Plausibilität von Aussagen, • Begrenzungsfaktoren der Information, • Kommunikation der Ergebnisse und interne oder externe Abrechnung. Der Kostenaufbau der Befragungsplanung stellt sich wie folgt dar: • Administrations- und Personalkosten, • Verbrauchsmaterialien, Druck-/Programmierkosten für Fragebögen, • ggf. Portokosten für Versand der Fragebögen bzw. Verteilungskosten, Interviewerinstruktionen, • Interviewertraining und -überwachung, • Telcom-Kosten für Abstimmung, • Reisekosten für Interviewer, • Datenverarbeitungs- und -übertragungskosten, • Interviewerhonorare.

4. Beobachtung Eine weitere Form der Primärerhebung neben der Befragung ist die Beobachtung. Man unterscheidet die naive Beobachtung, die eher unsystematisch, planlos und ohne klar erkennbares Erkenntnisziel bleibt. Sie ist als unprofessionell zu bezeichnen. Und die wissenschaftliche Beobachtung, die einen genau umschriebenen Forschungszweck betrifft, ein planmäßiges Vorgehen zeigt und ein bestimmtes Erkenntnisziel verfolgt. Sie wird systematisch aufgezeichnet und auf allgemeinere Urteile bezogen, statt auf Einzelfälle abzustellen. Außerdem wird sie wiederholten Prüfungen auf Gültigkeit, Zuverlässigkeit und Genauigkeit unterworfen. Dabei können verschiedene Varianten der Beobachtung eingeteilt werden (siehe Abbildung 41: Arten der Beobachtung). Vergleichbarkeit

Inklusion des Beobachters

standardisiert (hoch)

teilnehmend

individuell (niedrig)

nicht-teilnehmend

Anlage

Bewusstseinsgrad

Fremdbeobachtung

offen

Selbstbeobachtung

verdeckt

Erfassungsform

Umgebung

persönlich

Feld

apparativ

Labor

Abbildung 41: Arten der Beobachtung

4.1 Darstellung Hinsichtlich der Vergleichbarkeit lassen sich Beobachtungen unterscheiden, die nur Sachverhalte erfassen, die in angegebene Kategorien als standardisierte Beobachtung fallen, also z. B. Vornahme eines Preisvergleichs am Regal, und solche, die vom Beobachter subjektiv ausgewählte Kategorien als individuelle Beobachtung erfassen, also z. B. erkennbarer Ablauf einer Kaufentscheidung. Es kann auch eine Teilstrukturierung vorliegen.

179

4. Beobachtung

Nach der Anlage kann zwischen Fremdbeobachtung und Selbstbeobachtung unterschieden werden. Erstere untersucht Vorgänge, die außerhalb der Person des Beobachters liegen, also z. B. Verweildauer vor dem Schaufenster. Dabei kann es sich um eine oder mehrere Beobachtete handeln, diese können zufällig oder zusammengestellt entstehen. Letztere untersucht Vorgänge, welche die eigene Person betreffen, also z. B. Wahrnehmung und Einfluss von POS-Werbemitteln. Dabei wirken allerdings vielfältige subjektive Wertungen auf das Erhebungsergebnis ein. Nach der Erfassungsform kann zwischen persönlicher und unpersönlicher, apparativer Beobachtung unterschieden werden. Erstere erfolgt durch die Person des Beobachters selbst. Letztere bedient sich zur Kategorisierung der Art, Dauer und Intensität von Reaktionen und zur Erfassung seelischer Erregungszustände technischer, direkter oder indirekter Hilfsmittel, die intrapersonale oder interpersonale Tatbestände aufzeichnen und speichern. Dabei handelt es sich um Audio-, Video-, Foto-Ausrüstungen oder spezielle Apparaturen, die allerdings in ihrer Anwendung sehr umstritten sind. Denkbare weitere Geräte sind Lichtschranke, Zählkreuz, Augenkamera, Blickaufzeichnung, Tachistoskop, Schnellgreifbühne, Psychogalvanometer, Stimmfrequenzanalysator, Programmanalysator etc. Zudem gibt es rechtliche Restriktionen, wonach es sowohl unzulässig ist, unbefugt ein Bild von einem anderen anzufertigen, als auch das nicht-öffentlich gesprochene Wort unbefugt aufzunehmen, zu verwenden und weiterzugeben. Nach der Inklusion des Beobachters unterscheidet man teilnehmende und nichtteilnehmende Beobachtungen. Bei der teilnehmenden Beobachtung bewegt sich der Beobachter auf einer Ebene mit den beobachteten Vorgängen. Eine aktive Teilnahme liegt vor, wenn der Beobachter auf die am Beobachtungsort zur Beobachtungszeit stattfindenden Abläufe Einfluss nimmt. Damit ist allerdings die Gefahr der Verzerrung durch die Interaktion des Beobachters gegeben. Denkbar sind Scheinberatungen und -käufe durch Mystery shopper etwa als Außendienstler in der Industriegüterbranche oder als Kunden im Konsumgüterhandel. Eine passive Teilnahme liegt vor, wenn der Beobachter zwar am Ort und zur Zeit der stattfindenden Abläufe anwesend ist, auf diese aber keinerlei Einfluss ausübt. Wissen um den Versuchszweck offene Situation nicht durchschaubare Situation quasi-biotische Situation voll-biotische Situation

vorhanden nicht vorhanden nicht vorhanden nicht vorhanden

Wissen um die Wissen um die Versuchsaufgabe Versuchssituation vorhanden

vorhanden

vorhanden

vorhanden

nicht vorhanden nicht vorhanden

vorhanden nicht vorhanden

Abbildung 42: Beobachtungssituationen nach Bewusstseinsgrad

180

Kap. III: Offline-Erhebungsverfahren

Nach dem Bewusstseinsgrad der Beobachtung lassen sich unterscheiden (siehe Abbildung 42: Beobachtungssituationen nach Bewusstseinsgrad): • offene, durchschaubare Situationen, bei denen der Proband sowohl von der Beobachtung als auch dem Untersuchungszweck weiß, hier ist allerdings die Gefahr von Verzerrungen hoch, etwa aus Gründen sozialer Erwünschtheit oder kognitiver Übersteuerung. Daher ist diese Variante weitgehend wertlos für Erkenntnisse, • nicht durchschaubare Situationen, bei denen der Proband zwar vom Untersuchungszweck weiß, nicht jedoch von der Tatsache der aktuellen Beobachtung, z. B. erfolgt die Beobachtung bereits in einer vorgeblichen Wartezimmersituation, • quasi-biotische Situationen, bei denen der Proband zwar von der Beobachtung weiß, nicht jedoch vom Untersuchungszweck, ihm wird also eine falsche, verdeckte Zielsetzung der Beobachtung vorgegeben. Dadurch kann die Beobachtung wertvolle Erkenntnisse liefern, • voll-biotische Situationen, bei denen der Proband weder um die Beobachtung noch um den Untersuchungszweck weiß, diese Form zeitigt meist die besten Ergebnisse, ist jedoch in der Praxis am schwierigsten herzustellen. Je geringer der Bewusstseinsgrad der Beobachtung, als desto geringer ist auch ein möglicher Beobachtungseffekt einzuschätzen. Eine voll-biotische Testsituation verspricht daher, die geringsten Versuchseffekte zu verursachen. Daher kann am ehesten erwartet werden, dass die Ergebnisse der Versuchssituation mit solchen übereinstimmen, die sich ergeben würden, wäre eine Messung auch ohne Versuchssituation möglich. Allerdings ist eine solche Situation nur schwer herstellbar, und zwar umso weniger, je eher technische Verfahren zum Einsatz kommen, die Ergebnisse gleich beim Probanden erheben. Andererseits resultiert ein Verzicht auf diese personennahe Erhebung in weniger aussagefähigen Ergebnissen, etwa weil Randbedingungen variieren, internale Faktoren nicht erkannt werden, Variationen der Testbedingungen nicht durchsetzbar sind. Nach der Umgebung unterscheidet man Feld- und Laborbeobachtungen. Bei der Feldbeobachtung erfolgt die Aufzeichnung der Vorgänge und Verhaltensweisen in der gewohnten, natürlichen Umgebung des Probanden, bei der Laborbeobachtung erfolgt die Erfassung in einer künstlich geschaffenen Situation. Daraus resultieren dann mögliche Beobachtungseffekte. Bei der Bestandsaufnahme werden physische Erhebungen durchgeführt, z. B. als Pantry check oder Basket check, wo bei der Spurenanalyse im Vorratsraum oder Abfalleimer Indikatoren für Ge- und Verbrauch erhoben werden, z. B. weggeworfene Zigarettenpackungen nach einem Rock-Konzert. Nach diesen Kriterien lässt sich das jeweilige Beobachtungsdesign in Abstimmung mit dem Beobachtungszweck zusammenstellen. Insofern kann man aus Vergleichbarkeit, Beobachtungssubjekt, Beobachtungsform, Teilnahme des Beobachters, Bewusstseinsgrad und Beobachtungsumgebung das für den jeweiligen Untersuchungszweck bestgeeignete Design wählen.

4. Beobachtung

181

Weiterhin kann nach der Anzahl der Beobachtungen zwischen einmalig oder wiederholt, letztere wiederum anlassbezogen oder regelmäßig, unterschieden werden. Bekannte Beobachtungsverfahren betreffen: • Zählverfahren, z. B. bei Passantenströmen für die Standortanalyse im Einzelhandel oder bei der Bewertung von Außenwerbungsstellen, für die Anzahl der Messestandsbesuche oder den Einfluss von Regalplatzierungen, • Einkaufsbeobachtungen im Hinblick auf Kauf- und Nichtkaufverhalten, z. B. stationär im SB-Handel, virtuell auf der Website von Online-Shops, • Verwendungsbeobachtungen, die Teil- oder Vor- und Nachbereitungshandlungen bei Produktverwendung betreffen, z. B. Handhabung, Fahrverhalten, Automatenbenutzung, Verweildauer auf Messeständen, • Anzahl der Besucher im stationären Handel etwa durch Lichtschrankenmessung, TV-Zuschauermessung, Eintrittskartenzählung bei Kinos etc. Beobachtungen sind daher ein in weiten Teilen des Marketing verbreitetes und wichtiges Erhebungsinstrument. Eine breite Anwendung finden Kundenlaufstudien über die Konfrontation von Personen mit angebotenen Waren. Daraus weiß man, dass es abweichende Regalwertigkeiten am Handelsplatz (POS) gibt (siehe Abbildung 43: Kundenlaufbeobachtung im stationären Einzelhandel (Beispiel)). Basis sind dabei das Ladenlayout (Floor plan) mit geeigneten Beobachtungspunkten. Der Eintrag kann händisch in einen Ausdruck erfolgen, modern aber durch digitale Positionsbestimmung der Besucher über WLAN oder NFC bei eingeschaltetem Smartphone. Da diese jedoch räumlich ungenau sind bzw. bei großen Läden in der Reichweite nicht ausreichen, werden häufig Sender an den Einkaufswagen

Abbildung 43: Kundenlaufbeobachtung im stationären Einzelhandel (fiktives Beispiel)

182

Kap. III: Offline-Erhebungsverfahren

oder an der Kleidung von Besuchern angebracht, die über Empfänger an der Ladendecke geortet werden (Light fidelity-Technik). Dabei können allerdings Interaktionen nicht im Detail verfolgt werden, sondern eben nur Standorte. Zudem ist die Technik komplex und nach wie vor aufwändig. Daher werden häufig KameraBeobachtungen eingesetzt, indem Aufzeichnungen übereinander geblendet und die Ergebnisse ausgewertet werden. Dabei kann bestenfalls auch eine Auswertung der Mimik und Gestik erfolgen. Dazu ist ggf. eine ausdrückliche Zustimmung der Besucher erforderlich, die diese allerdings oft verweigern. Zu den Vorzugsplätzen im Einzelhandel gehören etwa folgende: • horizontal leicht rechts aus der Mitte versetzt im Warenträger der Produktkategorie, • vertikal in Sicht- oder Griffhöhe (80–160 cm), nicht im Bück- ( 160 cm), • in der Bremszone hinter dem Ladeneingang, • vor der Kassenzone am Check-out, • in Laufrichtung entlang der rechten Regalseite, • in der Kopfzone der Regalreihen, • in Sonderplatzierungen außerhalb des Regals (off-the-shelf). Das Ladenlayout folgt daher den Erfordernissen des Kundenlaufs: • am Kopfende des Ladens sind „Magnetabteilungen“ (Frischwaren) platziert, • die Anordnung der Regale folgt dem normalen Tagesablauf der Einkaufsplanung, • die Regalreihen sind unterbrochen, um „Fluchtwege“ zu eröffnen, • die Platzierung der Produkte bleibt möglichst lange unverändert (Mental map), • der Laufweg durch den Laden erfolgt entgegen dem Uhrzeigersinn, • der Ladeneingang ist rechts der Front, • die Kassenzone ist links in der Fläche.

4.2 Wesentliche Vorteile Geschehnisse können während ihres spontanen Vollzugs erfasst und dabei gleichzeitig die spezifischen Umweltsituationen aufgenommen werden. Von daher wird deutlich, in welchem Kontext sich bestimmte Beobachtungen ergeben. Die Beobachtung ist zudem unabhängig von der Auskunftsbereitschaft der Erhebungspersonen. Damit lassen sich selbst ohne Zustimmung, allerdings rechtlich

4. Beobachtung

183

eng restringiert, Auskünfte erheben, weil die beobachtete Person entweder nicht um die Beobachtung weiß oder ihre ablehnende Haltung nicht durch ein völlig anderes Verhalten äußern kann. So treten sogar Sachverhalte zutage, die ihr selbst nicht einmal bewusst sind. Es entsteht zumindest bei verdeckter Beobachtung kein Erhebungseinfluss durch Interviewer auf Ergebnisse. Dadurch entfällt eine große Verzerrungsquelle, wie sie etwa bei Befragungen gegeben ist. Zu denken ist hier an tabuisierte Sachverhalte, zu denen eine Auskunft verweigert würde, die aber ggf. gut zu beobachten sind. Beobachtungen lassen sich unabhängig vom Ausdrucksvermögen des Beobach­ ters und der beobachteten Person durchführen. Damit können z. B. Sprachbarrieren problemlos überwunden werden, Formulierungen und Wortwahl sind ohne Bedeutung. Beobachtungen können andere Erhebungsmethoden ergänzen oder verifizieren. Damit kommt es zu einer Kontrolle deren Ergebnisse oder zu einer zusätzlichen Datenermittlung. Denkbar ist die Erfassung durch Beobachtung während einer mündlichen (Studio-)Befragung. Bestimmte Sachverhalte sind nur durch Beobachtung feststellbar, z. B. die Blickbewegung. Auch können auf diese Weise non-verbale Äußerungen in Gestik, Mimik etc. erfasst werden. Diese sind oft sogar aussagefähiger als verbale Äußerungen, da sie ehrlicher sind. Es lassen sich Sachverhalte erheben, die sich auf mehrere Personen beziehen. Gruppenverhalten ist für viele marketingrelevante Vorgänge typisch, etwa bei Buying centers im gewerblichen oder Familienentscheiden im privaten Bereich.

4.3 Wesentliche Nachteile Es treten Beobachtungseffekte auf, die aus dem Wissen um die Erhebung entstehen. Das Verhalten ist dann reflektierter, zweckmäßiger, rationaler. Weitere Verzerrungen ergeben sich bei aktiver Teilnahme, etwa als Mystery shopper beim Testeinkauf. Die Erfassung verborgener, qualitativer Sachverhalte (sog. theoretische Konstrukte) wie Einstellungen, Meinungen, Präferenzen, Kaufabsichten und anderer subjektiver Vorgänge, ist kaum möglich, denn diese sind durch äußere Inaugenscheinnahme nicht feststellbar, dennoch aber ausschlaggebend für Kauf- bzw. Nichtkaufentscheide. Diesen Mangel können auch apparative Hilfsmittel nicht heilen. Es sind nur gegenwartsbezogene Gegebenheiten erfassbar. Vorgeschichten und Konsequenzen bedürfen der zusätzlichen Beobachtung zu den dann gegebenen Zeitpunkten oder bleiben verborgen. Insofern ergeben sich keine Aufklärungen über Beweggründe / Motive, diese bleiben eine Black box.

184

Kap. III: Offline-Erhebungsverfahren

Die beobachteten Merkmale sind unterschiedlich interpretierbar. So kann ein und dasselbe Verhalten (z. B. langes Betrachten einer Anzeige) in mehrere Richtungen gedeutet werden (besonderes Interesse bzw. Unverständlichkeit) und führt damit zu mehrwertigen Ergebnissen. Es besteht die Gefahr, dass die subjektiven Vorstellungen des Beobachters in die Ergebnisse mit einfließen. Insofern ist dann keine Objektivität in der Erhebung gegeben. Dies gilt auch für die Auswertung apparativer Ergebnisse. Die Beobachtungskapazität von Personen ist, vor allem bei komplexen Sachverhalten, beschränkt, da nur vergleichsweise wenige Merkmale zugleich erfasst werden können. Daher sind Arbeitsteilung oder Systembeschränkung erforderlich, um alle relevanten Sachverhalte simultan festzuhalten. Die Beobachtungsmerkmale sind in der durch die Beobachtungssituation gegebenen zeitlichen Reihenfolge determiniert und können nicht anders angeordnet werden, auch wenn dies aus Gesichtspunkten des Forschungsdesigns wünschenswert wäre. Die Beobachtung muss im Zeitpunkt des Geschehens erfolgen (uno actu). Dies ist vor allem misslich, wenn es sich um selten eintretende Phänomene handelt, die eine lange Zeit der Inaktivität bedingen. Eine identische Beobachtungssituation ist nicht wiederholbar. Damit sind auch Ergebnisse mehrerer Beobachtungen untereinander nicht ohne Weiteres vergleichbar. Es sei denn, die Einflussfaktoren des Umfelds werden künstlich reduziert. Repräsentativität ist bei der Beobachtung nur schwierig herbeizuführen, da man auf die Personen angewiesen ist, die in der Beobachtungssituation agieren. Insofern ist keine Zufallsauswahl, sondern nur eine systematische, bewusste Auswahl möglich.

5. Experiment Beim Experiment handelt es sich um kein eigenständiges Erhebungsverfahren, sondern um eine spezifische Ausprägung der experimentellen Befragung und der experimentellen Beobachtung. Beim Befragungsexperiment wird die Wirkung eines Faktors auf einen anderen mittels Interview festgestellt, beim Beobachtungsexperiment mittels Observation. Daher wird vielfach das Experiment auch nicht als eigenständiges Erhebungsinstrument, sondern nur als spezifische Ausprägung der Erhebungsinstrumente Befragung und Beobachtung angesehen. Wegen der hohen Bedeutung im Marketing soll das Experiment hier jedoch als dritte Erhebungsform betrachtet werden. Dabei werden die Grundformen des Experiments als informale oder formale Anlage dargestellt sowie spezielle Ausprägungen im Marketing als Tests.

5.1 Grundformen Unter Experiment versteht man eine wiederholbare, unter kontrollierten, vorher festgelegten Umweltbedingungen durchgeführte Versuchsanordnung, die es mit Hilfe der Wirkungsmessung eines oder mehrerer unabhängiger Faktoren auf die jeweilige abhängige Variable gestattet, aufgestellte Kausalhypothesen empirisch zu überprüfen. Bedingungen sind die Identifizierung der Variablen und ihre Isolierung / Kontrolle, ihre Manipulierbarkeit und die Wiederholbarkeit des Experiments. Das Experiment dient der empirischen Überprüfung einer Hypothese durch wiederholte Versuchsanordnung unter kontrollierten, vorher festgelegten Umfeldbedingungen zur Messung der Wirkung unabhängiger auf abhängige Faktoren. Es liegt vor, wenn in einer vorangegangenen Phase der Tatbestand, über den ermittelt wird, erst herbeigeführt wurde. Es dient der Überprüfung einer Kausalhypothese, wobei eine oder mehrere unabhängige Variable durch den Experimentator bei gleichzeitiger Kontrolle aller anderen Einflussgrößen isoliert variiert werden, um die Wirkung der unabhängigen auf die abhängige Variable messen zu können. Damit sollen Ursache-Wirkungs-Beziehungen aufgedeckt werden. Dabei hat man immer mit Störfaktoren zu kämpfen, die Ergebnisse verzerren, und nach Möglichkeit auszuschalten, sofern dies nicht gelingt, wenigstens aber zu kontrollieren sind. Dies kann etwa durch den Vergleich der Experimentalgruppe mit einer strukturidentischen Kontrollgruppe geschehen, die dem experimentellen Stimulus nicht ausgesetzt ist. Als Störgröße ist dann jedoch wiederum die Vergleichbarkeit beider Gruppen anzusehen. Das experimentelle Design ist der Versuchsplan zum Test signifikanter Unterschiede in Bezug auf die abhängige Variable zwischen

186

Kap. III: Offline-Erhebungsverfahren

unterschiedlichen Kategorien eines oder mehrerer Faktoren. Tests im Marketing unterscheiden sich bei puristischer Sicht von, etwa naturwissenschaftlichen, Experimenten dadurch, dass nicht alle Einflussfaktoren kontrolliert werden können.

Experimentalobjekte

kontrollierte Variable

Abbildung 44: Elemente des Experiments

Die Variablen jedes Experiments sind allgemein folgende (siehe Abbildung 44: Elemente des Experiments): • Experimentalobjekte, an denen Experimente ausgeführt werden sollen, z. B. Produkte, Läden, Kunden, sie sind Basis für zielführende Aussagen, • unabhängige Variable, deren Einfluss auf die abhängige Variable gemessen werden soll, z. B. Marke, Packung, Preis, sie werden zu Experimentalzwecken bewusst variiert, • abhängige Variable, an denen die Wirkung der unabhängigen Variablen gemessen werden soll, z. B. Umsatz, Marktanteil, Einstellung, dies sind die Zielgrößen, • kontrollierte Variable, die direkt beeinflussbar sind, deren Einfluss aber nicht untersucht wird und die daher beherrscht werden müssen, z. B. Werbeaufwand, Platzierung, Qualität, • Störgrößen, die nicht direkt beeinflussbar sind, aber daneben Einfluss auf die abhängige Variable nehmen, z. B. Konjunktur, Konkurrenz, Kaufkraft. Dazu gehören aber auch Artefakte wie zwischenzeitliches Geschehen, Messeffekte, Veränderungen im Messinstrument, Laborsituation, Reifung der Probanden etc. Um Störgrößen auszuschalten oder zumindest zu beherrschen und damit experimentelle Versuchsanordnungen herzustellen, werden folgende Techniken angewendet: • Konstanthaltung der Störgrößen durch gleiche Versuchsbedingungen für Experimental- und Kontrollgruppe, dadurch sind allerdings weniger Informationsgehalt und Generalisierbarkeit der Ergebnisse gegeben, zumindest aber enthalten alle Ergebnisse einen gleichen Anteil von Verzerrung, sind also dennoch zumindest untereinander vergleichbar,

187

5. Experiment

• Einbau in das Design als unabhängige Variable bei gleicher Häufigkeit aller relevanten Merkmale in beiden Gruppen durch Kovarianzanalyse, was zu mehrfaktoriellen Versuchsplänen führt, insofern kann die Verzerrung heraus gerechnet werden, allerdings entsteht dadurch ein hoher Komplexitätsgrad. Ebenso muss eine Ausgangsannahme getroffen werden, die ein Wissen voraussetzt, das möglicherweise durch das Experiment erst gewonnen werden soll. • Matching, wobei Paare von Untersuchungseinheiten mit gleicher Störgrößenausprägung verschiedenen Bedingungen, etwa Experiment- und Kontrollgruppe, zugewiesen werden, dann sind die Ergebnisse auf kleinerer Basis aussagefähig. Allerdings ist auch hierbei wohl ein Vorwissen erforderlich, das wahrscheinlich noch nicht belastbar vorliegt. Weiterhin können Drittvariable einwirken. • Randomisierung, wobei die Störgrößen nach dem Zufallsprinzip, z. B. nach (Anfangs-)Buchstaben, durch (Zufalls-)Zahlen, Untersuchungseinheiten zugewiesen und die Treatmentstufen darüber hinaus zufällig den Untersuchungseinheiten zugeordnet werden. Gelingt dies, werden zumindest systematische Verzerrungen vermieden. Allerdings setzt dies eine große Fallzahl voraus, da sich nur dann die Störeffekte ausgleichen. • Blockbildung durch gleichartige Testbedingungen, indem bekannte Störgrößen Blöcken von Untersuchungseinheiten zugewiesen werden, die nach den Ausprägungen der Störgrößen gebildet werden. Insofern kann dann zumindest je Block eine belastbare Messung erfolgen. • Parallelisierung bedeutet, dass die Untersuchungsgruppen in Bezug auf die Störgrößen in Experimental- und Kontrollgruppe vergleichbar gemacht werden. Dies erfolgt anhand der Ermittlung von Mittelwerten und Streuungen in den Gruppen. Entsprechend werden die Gruppen zusammengesetzt. Umfeld

Zeiteinsatz simultan

Studio

sukzessiv

informal formal

Abbildung 45: Experimentaloptionen

Es können verschiedene Optionen von Experimenten nach Umfeld, Zeiteinsatz und Durchführung unterschieden werden (siehe Abbildung 45: Experimentaloptionen). Nach dem Umfeld gibt es Realexperimente, die sich in einer natürlichen

188

Kap. III: Offline-Erhebungsverfahren

Umgebung vollziehen, und Studioexperimente, die in einer künstlichen, speziell für das Experiment geschaffenen Umgebung erfolgen. Vorteile des Feldexperiments liegen in seiner Realitätsnähe mit entsprechend hoher externer Validität und der möglichen Ausschaltung von Beobachtungseffekten. Seine Nachteile liegen in der beschränkten Reproduzierbarkeit durch den Einfluss von Störgrößen und den hohen Kosten- und Zeitaufwand. Vor allem wird die Ceteris paribus-Bedingung zur Konstanthaltung aller außer der untersuchten Variablen verletzt. Beim Laborexperiment ist dies genau umgekehrt, es ist eine hohe Reliabilität bei niedriger Validität gegeben. Störeinflüsse können weitgehend ausgeschaltet werden, auch sind technische Hilfsmittel einfacher einsetzbar. Die Anwendung ist flexibler und erlaubt Geheimhaltung. Zudem sind die Kosten meist niedriger. Dafür sind Beobachtungseffekte unvermeidlich. Nach dem Zeiteinsatz können Anlagen, bei denen Veränderungen experimentalbegleitend auf ihre Kausalität hin untersucht werden (= Simultanexperimente), und Anlagen unterschieden werden, bei denen Kausalitäten erst im Nachhinein abgeleitet werden (= Sukzessivexperimente). Projektive Experimente konfrontieren also Personen mit der durch experimentelle Bedingungen speziell geschaffenen Situation, die der Forscher bewusst ex ante herbeigeführt hat. Die Veränderung wird dann begleitend verfolgt. Ex post facto-Experimente beruhen hingegen auf unabhängigen Variablen, die bereits in der Vergangenheit aufgetreten sind, während abhängige Variable erst in der Gegenwart gemessen werden. Insofern wird das Experiment erst nachträglich aus einer vorgefundenen Situation und deren Bedingungen konstruiert. Dabei ist allerdings die Kausalitätszuweisung problematisch, so dass die Zweckeignung fraglich bleibt. Nach der Durchführung lassen sich informale und formale Experimente unterscheiden. Informalexperimente nehmen eine zeitliche Differenzbetrachtung bei der Experimental- (und evtl. noch Kontroll-)Gruppe vor, indem diese jeweils vor dem Experimentaleinsatz und danach gemessen wird (werden). Dementsprechend ergeben sich aus Kombinationen Testdesigns. Dabei wird darauf verzichtet, Zufallseinflüsse durch Anwendung geeigneter statistischer Verfahren zu analysieren, die Wirkung einer unabhängigen Variablen auf eine abhängige Variable wird durch reine Differenzenbildung zwischen zwei Zeitpunkten oder zwei Gruppen ermittelt. Unechte Informalexperimente können in vorexperimentelle Designs und QuasiExperimente unterschieden werden: • Vorexperimentelle Designs verzichten auf eine explizite Berücksichtigung von Störfaktoren und unterstellen damit, dass diese auf alle Experimentaleinheiten gleichartig einwirken. Dies ist jedoch eine gewagte Annahme. • In Quasi-Experimenten werden Störfaktoren explizit berücksichtigt und kontrolliert und man bildet danach Gruppen im Zufallsprinzip. Formalexperimente differenzieren die abhängige Variable nach ihren Einflussgrößen verursachungsgerecht. Dazu werden bekannte Störgrößen einbezogen und in der Versuchsanlage (Testdesign) berücksichtigt. Ziel ist die verursachungsge-

5. Experiment

189

rechte Aufspaltung der Ergebnisstreuung in Einflüsse von Störgrößen, Zufälligkeiten und der eigentlich interessierenden unabhängigen Variablen. Zufallseinflüsse werden dazu mit Hilfe der Varianzanalyse im Detail analysiert. Voraussetzungen für Experimente sind: • ihre Repräsentanz, d. h., die Ergebnisse müssen sich von der Experimentalgruppe auf die Grundgesamtheit übertragen lassen, • die Isolierbarkeit von Außeneinflüssen bzw. wo dies nicht möglich ist, die Kontrolle dieser Außeneinflüsse (s. u.), • die Messbarkeit von Wirkungen durch geeignete Erfassungsinstrumente, die bestimmten Anforderungen zu genügen haben. Grenzen des Experiments ergeben sich vielfach: • durch die praktische Beschränkung auf die Messung kurzfristiger Einflüsse und Wirkungen, • durch die schwierige Kontrolle möglicher Störgrößen bei elaborierte Experimentaldesigns, • durch die nur unzureichende Nachempfindbarkeit der Komplexität der Realität der Märkte, • Veränderungen der abhängigen Variablen können auf die Wirkung einer Vormessung zurückzuführen sein, statt auf die unabhängige Variable, • eine Reifung biologischer und psychischer Prozesse kann unabhängig von äußeren Einflüssen die abhängige Variable verändern, • externe, im Experiment nicht erfasste Einflüsse können auf die abhängige Variable einwirken, • das Messinstrument kann sich im Zeitablauf verändern und Ergebnisse damit verzerren, • womöglich bestehen für die unabhängige und / oder abhängige Variable relevante Strukturunterschiede zwischen den verschiedenen Experimentalgruppen, • Verweigerungen der Probanden, am Experiment teilzunehmen, führen zu Veränderungen im Zeitablauf, • bei Probanden kann durch eine Vormessung ein sensibilisierender Effekt auf die Wirkungsänderung der unabhängigen Variablen entstehen, • die abhängige Variable kann durch die künstliche Experimentalsituation und / ​ oder das Verhalten des Marktforschers beeinflusst sein, • abhängige Variable können gemessen werden, wenn diese noch nicht bzw. schon nicht mehr die Wirkung der unabhängigen Variablen wiedergeben. Durch besondere Experimentaldesigns wird versucht, diese Fehlerquellen zu vermeiden, zu neutralisieren oder zumindest auszuweisen.

190

Kap. III: Offline-Erhebungsverfahren

5.2 Informale Experimente 5.2.1 Vorexperimentelle Designs

Abbildung 46: Auslegung von Experimenten

Informale Experimente basieren auf Zeitvergleichsmessungen und verzichten auf anderweitige, differenzierte Wirkungszuordnungen (siehe Abbildung 46: Auslegung von Experimenten). Die Zeit wird als einzige Einflussgröße angesehen, in der sich alle anderen Größen widerspiegeln. Es handelt sich also um Einfaktorenexperimente. Sie unterscheiden sich nach der Zahl der ausdrücklich im Designtyp einbezogenen Störvariablen als Effekte. Weiterhin sind sie dadurch gekennzeichnet, dass keine Kontrolle über den Experimentalfaktor besteht oder die Testeinheiten nicht nach dem Zufallsprinzip ausgewählt bzw. auf Gruppen verteilt werden können oder die experimentelle Behandlung nicht per Zufallsprinzip Gruppen zugewiesen werden kann. Es wird unterstellt, dass die Störgrößen voneinander unabhängig sind, ihr Einfluss also additiv ist, und dass alle Testelemente von ihnen mit gleicher Intensität betroffen sind. Sie berücksichtigen im Einzelnen die • Experimentalgruppe (E), an der ein Experiment ausgeführt wird, • Kontrollgruppe (C), die zur Kontrolle der Ergebnisse im Vergleich mitläuft, • Messung vor Einsatz des Experimentfaktors (B), also im „Nullzustand“,

5. Experiment

191

• Messung nach Einsatz des Experimentfaktors (A), also im Messzustand, • evtl. parallele zusätzliche Gruppen (E’, C’). Alternativ dazu ist auch eine andere Notation vorzufinden, der hier aber nicht gefolgt wird: • experimenteller Faktor, dessen Wirkung zu untersuchen ist (X), z. B. Packung, Preis, Regalfläche, • Messgröße als Reaktion auf die Einwirkung des experimentellen Faktors (Y), z. B. Absatz, Umsatz, Marktanteil, • Zeitablauf des Experiments durch Indices (X1 / Y1, X2  / Y2). Im Wesentlichen können bei informalen Experimenten Vorexperimente, QuasiExperimente und Zeitexperimente unterschieden werden (siehe Abbildung 47: Informale Experimentaldesigns).

Abbildung 47: Informale Experimentaldesigns

Bei vorexperimentellen Designs handelt es sich um eine EA-Messung (One shot) und eine Eingruppen-Vorher-Nachher-Messung (EBA) (nach Altobelli). Das EA-Design mit Messung einer Experimentalgruppe (E) erst nach Einsatz des Wirkfaktors (A) kann nur sehr eingeschränkt als Experiment bezeichnet werden, da der Einfluss von Störvariablen ausgeblendet bleibt, ebenso fehlt es an einer Kontrollgruppe, zeitliche Entwicklungseffekte sind nicht messbar und die Faktorwirkung ist nicht exakt ermittelbar. Die dadurch gewonnenen Aussagen sind also wenig zielführend. Dafür handelt es sich um ein „quick & dirty“ Design.

192

Kap. III: Offline-Erhebungsverfahren

Beim EBA-Design handelt es sich um ein Sukzessivexperiment B  – A) mit einer Versuchsgruppe (E). Diese wird mit Marketingmaßnahmen konfrontiert. Es werden zwei Messungen vorgenommen, von denen eine zeitlich vor Eintritt des Wirkungsfaktors in das Geschehen liegt, die andere zu einem Zeitpunkt, an dem der Wirkungsfaktor seinen Einfluss bereits geltend gemacht hat. Eine Messung der Faktorwirkung erfolgt durch den Vergleich der Wirkungsgrößen vor Beginn und nach Beendigung des Experiments. Die Vormessung liefert den Bezugswert, die nach der Faktorauswirkung erfolgende Nachmessung den Endwert. Es entsteht eine Vernachlässigung von störenden zeitlichen Carry over-, räumlichen Spill overund personellen Entwicklungseffekten. Außerdem muss die Möglichkeit zur Vormessung gegeben sein. Problematisch ist auch das Fehlen einer Kontrollgruppe. 5.2.2 Quasi-Experimente Bei Quasi-Experimenten handelt es sich um eine Vorher-Nachher-Messung (CB-EA / EBA-CA) oder nur eine Nachhermessung (EA-CA) jeweils in zwei Gruppen. Beim CB-EA-Design handelt es sich um ein Sukzessivexperiment mit zwei Gruppen. Die Vormessung (B) findet in einer Kontrollgruppe (C) statt und liefert den Bezugswert, die Nachmessung findet in der Versuchsgruppe (E) statt und liefert den Endwert (A). Dabei besteht zwar die Gefahr von störenden personellen Entwicklungs-, nicht aber die von zeitlichen Carry over-Effekten. Auch hier muss die Möglichkeit zur Vormessung gegeben sein. Problematisch ist außerdem die Vernachlässigung von Störvariablen, ebenso ist keine echte Kontrollgruppe ge­ geben. Eine Anwendung des EBA-CA-Designs besteht in der Tendenzfrage. Dabei wird eine Frage in gleichem Wortlaut in regelmäßigen Abständen jeweils anderen, aber repräsentativen Personengruppen gestellt, um Trends festzustellen und auch abzusichern. Beim EA-CA-Design handelt es sich um ein Simultanexperiment mit mindestens zwei Gruppen (E  – A), ohne dass eine Vormessung stattfindet (auch ohne Randomisierung einsetzbar). Die Experimental- und die Kontrollgruppe werden jeweils nur nach Einfluss des Experimentalfaktors gemessen. Der Verzicht auf die Anfangsmessung ist meist in Kostengründen zu suchen. Allerdings ist sicher zu stellen, dass beide Gruppen gleichen Anfangsbedingungen unterliegen. Die Kontrollgruppe liefert dabei den Bezugswert, die Experimentalgruppe den Endwert. Es besteht keine Gefahr von zeitlichen Entwicklungseffekten. Zeitliche Carry over- und räumliche Spill over-Effekte können zwar auftreten, machen sich jedoch infolge der speziellen Anordnung nicht störend bemerkbar. Problematisch ist die Vernachlässigung von Störvariablen, ebenso die Unterstellung gleicher Ausgangslagen zu Beginn des Experiments in Experimental- und Kontrollgruppen.

193

5. Experiment

5.2.3 Echte Experimente 5.2.3.1 Einfache Formen

Experimentalgruppe

Kontrollgruppe

EBA-CA Vormessung CB-EA EBA

Nachmessung

EA

EA-CA

Abbildung 48: Gängige Designkombinationen

Anliegen echter Experimente ist u. a. die Ausschaltung von bei Experimenten auftretenden Störeffekten. Dabei handelt es sich um folgende (siehe Abbildung 48: Gängige Designkombinationen): • Carry over-Effekt bedeutet, dass Maßnahmen und Ereignisse in die Untersuchungsperiode einwirken können, obgleich diese nicht auf den Einfluss der unabhängigen Variablen zurückzuführen sind, also einen nicht-kontrollierten Störfaktor darstellen. Zum Beispiel kann eine Werbekampagne durch aktuell negative Berichterstattung über den Werbungtreibenden in den Medien in ihrer Kraft gemindert werden. • Entwicklungseffekt bedeutet, dass im Verlauf des Experiments Lernwirkungen eintreten können, die nicht allein auf die Wirkung der unabhängigen Variablen zurückzuführen sind. Dadurch ändern sich die Messvoraussetzungen. Dies ist bei Sukzessivexperimenten (before – after) problematisch. Zum Beispiel kann eine Werbekampagne erst im Zeitablauf infolge sozialer Interaktion zu Wirkungen führen, die tatsächlich nicht in der Marketingmaßnahme veranlagt sind. • Spill over-Effekt bedeutet, dass parallele Maßnahmen und Ereignisse von anderen als der untersuchten Variablen, also außerhalb der experimentellen Anordnung (extern), auf diese einwirken können. Dadurch kommt es zu Ergebnisverzerrungen als Einfluss externer Faktoren. Zum Beispiel können Personen, die in einem anderen als dem Testgebiet eine Werbekampagne wahrgenommen haben, ihre Käufe dennoch im Testgebiet tätigen, oder umgekehrt.

194

Kap. III: Offline-Erhebungsverfahren

• Gruppeneffekt bedeutet, dass Experimental- und Kontrollgruppen bereits vor Beginn des Experiments strukturelle Unterschiede bezüglich relevanter Variabler aufgewiesen haben. Dann ist auch die Interpretation der Ergebnisse problematisch. Dies ist bei Simultanexperimenten mit Kontroll- und Experimentalgruppen gegeben. Zum Beispiel können die Gruppen in Bezug auf Werbung verschiedenen sensibel (affin oder avers) sein. Um echte Experimente handelt es sich vor allem bei der randomisierten Vorher-Nachher-Messung mit Kontrollgruppe (EBA-CBA), dem Drei-Gruppen-Design (E’A-EBA-CBA) und dem Vier-Gruppen-Design (EBA-CBA-E’A-C’A) (nach Solomon). Beim EBA-CBA-Design ist ein simultanes Sukzessivexperiment mit zwei Gruppen, die drei Bezugswerte und einen Endwert erbringen, gegeben. Hier wird die Experimentalgruppe mit der Marketingmaßnahme konfrontiert und eine strukturgleiche Kontrollgruppe gebildet, die diese Konfrontation nicht erfährt. Sowohl die Experimentalgruppe (E) als auch die Kontrollgruppe (C) werden also sowohl zum Testbeginn (B) als auch nach der Konfrontation mit der Marketingmaßnahme zum Testende (A) gemessen. Die Faktorwirkung wird durch die Differenz der Wirkungen beider Gruppen errechnet. Dies bietet sich an, wenn man nicht sicher sein kann, dass die beiden Gruppen vor der Experimentdurchführung hinsichtlich der Ausprägung aller Variabler völlig gleich sind. Zeitliche Carry overbzw. räumliche Spill over- und parallele Entwicklungseffekte können zwar auftreten, infolge der speziellen Anordnung machen sich erstere jedoch nicht störend bemerkbar  und letztere lassen sich zumindest berechnen. Allerdings muss die Möglichkeit zur Vormessung gegeben sein. Ebenso werden keine Störvariablen berücksichtigt. Als Experimentfaktor kann z. B. eine einzusetzende Werbekampagne, eine Preisänderung, ein neues Produktdesign, eine veränderte Platzierung am POS oder eine neue Packungsgestaltung, fungieren. Dieser wirkt in der Experimentalgruppe ein und wird zu zwei Zeitpunkten, vorher und nachher, gemessen. Die Entscheidung anhand des daraus entstehenden Bruttoeffekts ist aber problematisch, da unklar bleibt, inwieweit autonome Wirkungen in dieses Ergebnis eingehen, also solche, die auch ohne die Einwirkung des Experimentalfaktors entstanden wären. Diese sind durch monadischen Zeitvergleich (EBA-Testdesign) nicht zu isolieren. Daher wird für die Ermittlung des Nettoeffekts eine zur Experimentalgruppe strukturgleiche Kontrollgruppe (C) vorgesehen. Auch in dieser erfolgt je eine Messung zum Zeitpunkt der Ausgangssituation (CB) und der Ergebnissituation (CA), jedoch, ohne dass dazwischen der Experimentalfaktor einwirkt. Die Differenz dieser Werte ergibt die Bezugsgröße, also die Ergebnisveränderung, die eintritt, auch ohne dass es zur Einwirkung des Experimentalfaktors gekommen ist. Es finden also insgesamt vier Messungen in zwei Gruppen statt, je eine Ex ante- und eine Ex post-Messung sowohl in der Experimental- als auch in der Kontrollgruppe.

195

5. Experiment

Der absolute Nettoeffekt ergibt sich somit als Differenz aus Bruttoeffekt und Bezugsgröße: absoluter Netto-Effekt = (EA – EB) – (CA – CB) Dieser ist jedoch nur aussagefähig, wenn die Messungen in der Ausgangssituation in der Experimentalgruppe und der Kontrollgruppe gleiche Ergebnisse aufweisen. Weichen die Ex ante-Ergebnisse beider Gruppen jedoch bereits dann voneinander ab, kann nur der relative Nettoeffekt aussagefähig sein. Dazu wird die Differenz der Werte aus jeder Gruppe auf deren jeweiligen Ausgangswert bezogen und das Ergebnis in Prozent ausgewiesen: relativer Nettoeffekt = ((EA − EB) : EB × 100) − ((CA − CB) : CB × 100) Tabelle 1 Rechenbeispiel Markttest In einem informalen Markttest soll die Leistungsfähigkeit einer neuen Packungsgestaltung getestet werden. Dazu wird in den Teilmärkten 1–3 nunmehr die neue Packung (Experimentalgruppe), und im Vergleich dazu in den strukturgleichen Teilmärkten 4–6 (Kontrollgruppe)  weiterhin die alte Packung distribuiert. Es ergeben sich die folgenden Absätze (in Stück) (siehe Tabelle 1): Experimentalgruppe: Teilmärkte

1

Ex ante-Wert (Absatz) alte Packung

Einsatz der Wirkgröße neue Packung

Ex post-Wert (Absatz)

440

(neue Packung)

480

Zuwachs

40

2

360

(neue Packung)

396

36

3

320

(neue Packung)

370

50

Zwischensumme

1.120 (EB)

1.246 (EA)

126

Kontrollgruppe: Teilmärkte

Ex ante-Werte (Absatz) alte Packung

kein Einsatz der Wirkgröße alte Packung

Ex post-Wert (Absatz)

1

400

(alte Packung)

410

10

2

340

(alte Packung)

340

0

330

(alte Packung)

340

10

3 Zwischensumme

1.070 (CB)

1.090 (CA)

Zuwachs

20

Brutto­effekt:

1.246 − 1.120 = 126

absoluter Netto-Effekt:

(1.246 − 1.120) − (1.090 − 1.070) = 126 − 20 = 106

relativer Netto-Effekt:

((126 : 1.120)  ×  100) − ((20 : 1.070)  ×  100) = 11,25 % − 1,87 % = 9,38 %

196

Kap. III: Offline-Erhebungsverfahren

5.2.3.2 Erweiterte Formen Die Testanlage E’A-EBA-CBA-Design (auch Solomon-Drei-Gruppen-Plan) sieht ein simultanes Sukzessivexperiment mit drei Gruppen, neben der Experimentalund der Kontrollgruppe also einer weiteren Parallel-Experimentalgruppe, die zur näheren Analyse getrennt zum Vergleich erhoben wird, vor. Es finden also fünf Messungen statt. Bei der ersten Experimental- und der Kontrollgruppe wird die Messung der Wirkung sowohl vor als auch nach der Konfrontation mit der Marketingmaßnahme vorgenommen. Die zweite Experimentalgruppe wird nur danach gemessen. Der Vorteil liegt darin, dass mögliche zeitliche Entwicklungseffekte isoliert und getrennt ausgewiesen werden können. Gleiches gilt für etwaige Gruppeneffekte. Eine Verbrauchermarktkette will im Rahmen eines E’A-EBA-CBA-Experiments wissen, ob ein Prospekt / Flyer als Tageszeitungsbeilage oder als Haushaltsverteilung den höheren Werbeerfolg für identische Produktangebote am gleichen Ort und im gleichen Zeitraum generiert. Dazu wird eine Tageszeitung (TZ) als Werbeträger bestimmt. Zugleich werden die Daten von Kundenkarten der Verbrauchermarktkette genutzt. Das Experimentaldesign sieht folgende Elemente vor: • Festlegung des Testgebiets (Kriterien: mittlere Größe, vergleichsweise hoher Abonnenten-Anteil der Tageszeitung, Verbrauchermarkt-Standorte), • Auswahl des Timing (tagesgenau gleichzeitiger Einsatz von TZ-Beilage und Haushaltsverteilung), • Auswahl des Beileger-/Verteilungs-Themas (möglichst repräsentativ). Für die Datenerhebung im Feld stehen dann folgende Ausgangsgruppen zur Verfügung: • 1. Bevölkerung im ausgewählten Testgebiet, die weder Kundenkarten-Halter noch TZ-Abonnenten sind (diese im Weiteren irrelevant), • 2. Halter von Kundenkarten der Verbrauchermarktkette, die nicht im Testgebiet wohnen und keine TZ-Abonnenten sind, • 3. Abonnenten der infrage stehenden Tageszeitung, die keine KundenkartenHalter sind und nicht im Testgebiet wohnen (mangels Auswertbarkeit ebenso irrelevant), • 4. Schnittmenge der Halter von Kundenkarten und der TZ-Abonnenten, jedoch nicht Bevölkerung im Testgebiet (im Weiteren irrelevant), • 5. Schnittmenge der Halter von Kundenkarten und der Bevölkerung im Testgebiet, jedoch nicht zugleich Abonnenten der Tageszeitung,

5. Experiment

197

• 6. Schnittmenge der Bevölkerung im Testgebiet und der TZ-Abonnenten, jedoch nicht zugleich Halter von Kundenkarten (mangels Auswertbarkeit irrelevant), • 7. Schnittmenge der Halter von Kundenkarten und TZ-Abonnenten und Bevölkerung im Testgebiet. Als Testgruppe (E) wird die Gruppe 5 für die Haushaltsverteilung ausgewählt. Dazu ist die Selektion aller Haushalte, die im Testgebiet wohnen und eine Kundenkarte haben und zugleich keine TZ-Abonnenten sind, erforderlich. Als Basis dienen der Datenbestand aller Kundenkarten-Halter im Testgebiet, ein Datenmatch mit allen TZ-Abonnenten im Testgebiet und die Eliminierung von Dopplern, also Kundenkarten-Haltern und zugleich TZ-Abonnenten. Die Testgruppen-Größe beträgt ca. 4.000 Fälle. Als zweite Testgruppe (Split run / E’) wird die Gruppe 7 mit Beilage in der Tageszeitung ausgewählt. Dazu ist die Selektion aller Haushalte, die im Testgebiet wohnen und eine Kundenkarte haben und TZ-Abonnenten sind, erforderlich. Als Basis dienen der Datenmatch aller Kundenkarten-Halter im Testgebiet mit allen TZ-Abonnenten im Testgebiet und die Auswahl von Dopplern. Die Vergleichsgruppengröße beträgt ca. 4.000 Fälle. Als Vergleichskontrollgruppe (C) wird die Gruppe 2 definiert, d. h. Kundenkarten-Halter, die nicht im Testgebiet wohnen und auch keine Abonnenten der infrage stehenden Tageszeitung sind. Danach erfolgt der Roll-out mit identischen Prospekten am selben Tag (donnerstags). Dabei werden alle Häuser für die Haushaltsverteilung eliminiert, in denen ein TZ-Abonnent wohnt. Parallel erfolgt ein Monitoring des auf die im Prospekt beworbenen Artikel bezogenen Kaufverhaltens der Haushalte in den Test- und Vergleichsgruppen (Dauer: vier Wochen). Außerdem wird ein Monitoring des sonsti­ gen, nicht auf die beworbenen Artikel bezogenen Kaufverhaltens der Haushalte in der Test- und Vergleichsgruppe vorgenommen. Alle Gruppen werden in einer Nullmessung hinsichtlich ihres Konsumverhaltens erhoben (B). Die Auswertung der erhobenen Felddaten erfolgt nach Testende in allen Gruppen (A). Dabei werden relevante soziodemografische Abweichungen der TZ-Abonnenten (Gruppe 3) gegenüber den Kundenkarten-Haltern (Gruppe 2) zur Korrektur berücksichtigt. Die Testanlage im EBA-CBA-E’A-C’A-Design (auch Solomon-Vier-GruppenPlan) entspricht der beim EBA-CBA-Experiment, jedoch mit einer Parallel-Experimentalgruppe, die getrennt zum Vergleich erhoben wird sowie einer ParallelKontrollgruppe. Hier werden also jeweils zwei Experimental- und Kontrollgruppen gebildet. Bei der ersten Experimental- und auch der ersten Kontrollgruppe wird

198

Kap. III: Offline-Erhebungsverfahren

eine Messung der Wirkung sowohl vor als auch nach Konfrontation mit der Marketingmaßnahme vorgenommen. Durch Einschaltung einer weiteren Experimentalgruppe (E’) soll sichergestellt werden, dass Gruppeneffekte ausgewiesen werden können. Durch Einschaltung einer weiteren Kontrollgruppe (C’) können Entwicklungseffekte ausgeschaltet werden, da diese weder an der Vormessung noch am Treatment, also der Marketingmaßnahme, teilnimmt. Insofern gibt es sechs Messpunkte.

5.3 Formale Experimente Die Differenzenbildung informaler Experimente ist jedoch keine Gewähr für eine exakte Messung von Wirkungen. Vielmehr wirken eine Vielzahl situativer Faktoren ein. Daher werden formale, statistische Experimente eingesetzt. Deren Ziel ist es, eine weiterreichende und genauere Differenzierung der gemessenen Veränderung einer abhängigen Variablen nach ihren Einflussgrößen zu erreichen. Dies geschieht durch die Einbeziehung von bekannten Störvariablen und ihre Berücksichtigung in der Versuchsanlage. Gelingt es, die festgestellte Streuung verursachungsgemäß aufzuspalten, lassen sich Einflüsse von Störvariablen, Zufallseinflüsse und Auswirkungen der eingesetzten unabhängigen Variablen messen und gegenüberstellen. Das Design formaler Experimente kann dabei symmetrisch oder asymmetrisch angelegt sein. Ersteres bedeutet, dass jedes Merkmal ausnahmsweise die gleiche Anzahl von Ausprägungen besitzt, letzteres, dass nicht jedes Merkmal die gleiche Anzahl von Ausprägungen besitzt. Mögliche asymmetrische Pläne sind folgende: • Beim vollständigen Zufallsplan finden Störeinflüsse allenfalls indirekt dadurch Berücksichtigung, dass für die verschiedenen Treatments wiederholte, randomisierte Messungen durchgeführt werden. Dabei wird eine Variable berücksichtigt. Die Untersuchungseinheiten werden den verschiedenen Treatmentstufen zufällig zugeordnet. Der vollständige Zufallsplan erfolgt ohne Berücksichtigung von Störvariablen. Bei vier Treatmentstufen (z. B. Handyhüllen in schwarz, gemustert, rosa, metallic) und fünf Replikationen ergeben sich so 20 Messzellen für die Einschätzung des potenziellen Absatzerfolgs. • Der zufällige Blockplan arbeitet mit zwei Variablen. Falls bekannt, wird dabei der Störfaktor explizit berücksichtigt, indem nach den Ausprägungen dieses Faktors Blöcke gebildet werden. Die Wirkungen ergeben sich getrennt nach den Ausprägungen eines Störfaktors. Voraussetzung ist dabei, dass die Varianz innerhalb dieser Blöcke geringer ist als zwischen ihnen. Dann kann auf Replikationen verzichtet werden. Der zufällige Blockplan erfolgt unter Ausschaltung einer Störvariablen (siehe Abbildung 49: Vollfaktorielles Experimentaldesign (Prinzip)).

199

5. Experiment

Eine zufällige Stichprobe wird gemäß der vermuteten Störvariablen in Blöcke aufgeteilt, die zeitlich parallelisiert dem gesamten Treatment unterzogen werden, statt das Treatment nach Einflussgrößen aufgesplittet zu replizieren.

Testzeitraum 1 mit Enderhebung Version Discounter (I)

Supermarkt (II)

Testzeitraum 2 mit Enderhebung

Testzeitraum 3 mit Enderhebung

a

b

c

a

b

c

a

b

c

I1a

I1b

I1c

I2a

12b

I2c

I3a

I3b

I3c

II2c II3a

II3b

II3c

II1a II1b II1c II2a II2b

Version a: bisheriges Angebotsprogramm ohne Neuprodukte 1 und 2

Abbildung 49: Vollfaktorielles Experimentaldesign (Prinzip) (eig. Darst.)

Die o. g. Optionen vollständiger Zufallsplan und zufälliger Blockplan untersuchen alle konkret möglichen Kombinationen als vollständiges, faktorielles Design. Vollständige Designs weisen damit sowohl den Einfluss jedes Testfaktors auf die abhängige(n) Variable(n) als Haupteffekte aus als auch den Einfluss der Testfaktoren untereinander als Interaktionseffekte. Bei solchen Mehrfaktorenexperimenten mit Replikation werden zwei oder mehr unabhängige Experimentalvariable zugleich variiert, wobei jede Variable in mehreren Ausprägungen vorliegen kann. Die Bildung von Kontrollgruppen kann dabei entfallen. Die experimentellen Lösungen werden mit Hilfe der Varianzanalyse auf ihre Einflussstärke auf eine abhängige Variable hin untersucht. Dabei werden alle Ausprägungen aller unabhängigen Variablen spezifischen Testeinheiten zugewiesen. Daraus ergibt sich die Schätzung von Haupt- und Interaktionseffekten, die über Tests auf ihre Signifikanz hin überprüft werden. Mit zunehmender Merkmals- und Ausprägungszahl wächst jedoch die Menge der Teststimuli erheblich an und überfordert leicht die Urteilsfähigkeit und -willigkeit der Testpersonen. Demgegenüber besteht zur Rationalisierung in unvollständigen, fraktionellen Designs die Möglichkeit, sich nur auf diejenigen Kombinationen zu beschränken, die für den Experimentator interessant sind. Solche reduzierte Designs konzentrieren sich nur auf zweckmäßige Teilmengen, die das vollständige Design realistisch repräsentieren. Unvollständige Designs weisen aber nur die Haupteffekte aus, also den Einfluss jedes Testfaktors auf die abhängige(n) Variable(n), nicht hingegen die Interaktionseffekte, also den Einfluss der Testfaktoren untereinander. Dazu

200

Kap. III: Offline-Erhebungsverfahren

gehören als nur symmetrisch mögliche Pläne das Lateinische Quadrat und das Griechisch-lateinische Quadrat. Das Lateinische Quadrat kommt zu übersichtlicheren Ergebnissen, indem in der Matrix jede Variable nur je einmal in Zeile und Spalte vorkommt, sofern die Zahl der Ausprägungen bei den Variablen gleich ist (siehe Abbildung 50: Lateinisches Quadrat). Da auf diese Weise nur die Faktoren-Haupteffekte auf die abhängige Variable geschätzt werden, nicht hingegen die Interaktionseffekte zwischen den unabhängigen Variablen, weil keine Replikationen erfolgen, besteht die Gefahr, dass gerade nicht untersuchte Kombinationen wichtige Erkenntnisse für Experimentwirkungen haben. Das Lateinische Quadrat hat drei Variable, darunter zwei auszuschaltende Störvariablen. Das Design kommt durch zyklische Permutation einer Folge von Variablen zustande, wobei jeweils das erste Elemente der Reihe an das Ende derselben gesetzt wird und die anderen Elemente entsprechend vorrücken. Denkbar ist etwa die Untersuchung der Faktoren Preis, Qualität und Form auf den Absatz eines Produkts. Dazu wird jeder Faktor dreifach variiert, der Preis in niedrig, mittel, hoch, die Qualität in unterdurchschnittlich, durchschnittlich, überdurchschnittlich, die Form in traditionell, zeitgemäß, avantgardistisch. Im vollständigen Design ergeben sich bei drei unabhängigen Variablen mit je drei Ausprägungen auf die abhängige Variable somit 3 × 3 × 3 = 27 Zellen, im unvollständigen Design wird hingegen eine Reduzierung auf neun Zellen erreicht. Das Griechisch-lateinische Quadrat (in allgemeiner Form auch hyperlateinische Quadrate) ist ebenfalls eine Anordnung, bei der jede Variable genau je einmal in Zeile und Spalte vorkommt, wobei dann vier Variable, darunter drei Störvariable, berücksichtigt werden. Bei je vier Ausprägungen entstehen so 16 Messzellen. Allerdings wird die Versuchsanlage rasch schwer anwendbar. Testzeitraum 1 mit Enderhebung Testgeschäft Warenhaus

Testgeschäft Supermarkt

Testgeschäft Discounter

bisheriges Angebotsprogramm ohne Neuprodukte

Testzeitraum 2 mit Enderhebung bisheriges Angebotsprogramm,

Testzeitraum 3 mit Enderhebung bisheriges Angebotsprogramm,

Neuprodukt 2

Neuprodukt 1

Neuprodukt 1

bisheriges Angebotsprogramm ohne Neuprodukte

bisheriges Angebotsprogramm,

bisheriges Angebotsprogramm,

bisheriges Angebotsprogramm,

Neuprodukt 2

Neuprodukt 1

bisheriges Angebotsprogramm ohne Neuprodukte

bisheriges Angebotsprogramm,

Neuprodukt 2

Abbildung 50: Lateinisches Quadrat (eig. Darst.)

201

5. Experiment Tabelle 2 Noreen-Modell der Werbeerfolgsmessung

Als Beispiel kann die Werbeerfolgsmessung im Noreen-Modell angesehen werden. Dabei geht es um die Messung des Absatzes bei vier verschiedenen Werbeprogrammen (A–D) in vier verschiedenen Perioden (1–4). Die Daten sind wie folgt (siehe Tabelle 2): Periode 1: Periode 2: Periode 3: Periode 4:

Programm A (A1) Programm B (B2) Programm C (C3) Programm D (D4)

Programm B (B1) Programm C (C2) Programm D (D3) Programm A (A4)

Programm C (C1) Programm D (D2) Programm A (A3) Programm B (B4)

Absatz bei Werbeprogramm A während vier Perioden (A1 – A4): Absatz bei Werbeprogramm B während vier Perioden (B1 – B4): Absatz bei Werbeprogramm C während vier Perioden (C1 – C4): Absatz bei Werbeprogramm D während vier Perioden (D1 – D4): Mittelwert für Programm A: 144 : 16 = Mittelwert für Programm B: 168 : 16 = Mittelwert für Programm C: 192 : 16 = Mittelwert für Programm D: 160 : 16 = Durchschnittswert über alle Programme: relativer Werbeerfolg Programm A: 9  − 10,375 = relativer Werbeerfolg Programm B: 10,5 − 10,375 = relativer Werbeerfolg Programm C: 12  − 10,375 = relativer Werbeerfolg Programm D: 10  − 10,375 = Das effizienteste Werbeprogramm ist demnach C.

Programm D (D1) Programm A (A2) Programm B (B3) Programm C (C4) 144 Einheiten 168 Einheiten 192 Einheiten 160 Einheiten

9 10,5 12 10 10,375 − 1,375 0,125 1,625 − 0,375

Allerdings gelten dafür rigide Modellprämissen in Bezug auf die Testmärkte (gleiche Branche, gleiche Programmstruktur, gleiche Umsatzausgangshöhe, Kundenstruktur, Konkurrenzstruktur).

Nach der Zielrichtung von Experimenten können generell verschiedene unterschieden werden: • Bei Kausalexperimenten werden die Auswirkungen der kontrollierten Veränderung einer oder mehrerer Einflussgrößen auf eine bekannte Ausgangssituation überprüft. • Bei Vergleichsexperimenten werden Aussagen über die Unterschiede zwischen zwei oder mehr Einflussgrößen angestrebt. • Bei Suchexperimenten werden neuartige Lösungen für ein bestimmtes Problem gesucht. • Bei Messexperimenten werden Informationen über den Zustand von Merkmalen angestrebt. Die häufigste Form der Durchführung von Experimenten im Marketing bezieht sich auf die Messung der Wirkung der Marketinginstrumente. Dies wird Test

202

Kap. III: Offline-Erhebungsverfahren

genannt. Die häufigsten Anwendungen von Tests sind Konzepttests, welche die Überprüfung der Anmutungs- und Verwendungseigenschaften von Produkten mit dem Ziel testen, zu klären, ob die Produktleistung gegenüber Abnehmern bestehen kann, und Kommunikationstests, welche die Werbewirkung von Maßnahmen testen, um ein Werbecontrolling zu ermöglichen (s. u.).

Kapitel IV

Online-Auswahl- und Erhebungsverfahren Bisher wurden implizit Offline-Erhebungen unterstellt, also solche, die durch Simplex- oder Halbduplex-Kommunikation von Mensch zu Mensch, also mündlich im Präsenzprinzip, d. h., Sender und Empfänger sind am selben Ort, oder medial, also geprintet / schriftlich oder elektrisch / telefonisch, jeweils auch computergestützt, im Distanzprinzip, d. h., Sender und Empfänger sind an verschiedenen Orten, stattfinden. Alternativ dazu oder auch additiv können Online-Erhebungen eingesetzt werden, die durch Vollduplex-Kommunikation von Mensch zu Maschine bzw. Maschine zu Mensch im Distanzprinzip mit Hilfe von Telekommunikation, also Computernetzen, erfolgen. Diese nehmen praktisch einen immer größeren Raum in der Marktforschung ein. Im Folgenden werden die Aspekte der Zuordnung der Online-Kanäle (1.), der Sekundärerhebung (2.), der Auswahlverfahren der Online-Primärerhebung (3.), der Online-Erhebungsverfahren Befragung (4.), Beobachtung (5.) und Experiment (6.) sowie des Social Media-Monitoring (7.), der Mobile-­Erhe­ bung (8.) und der Sicherung der Online-Datenqualität (9.) näher erläutert. Erkenntnisse und Erfahrungen der Offline-Auswahl- und Erhebungsverfahren können nicht ohne Weiteres auf Online-Verfahren übertragen werden. Aufgrund der besonderen Rahmenbedingungen ergeben sich vielmehr sowohl neue, systemerweiternde Möglichkeiten als auch herausfordernde Restriktionen. Dies gilt vor allem für die Übertragbarkeit online-erhobener Informationen auf Schlussfolgerungen außerhalb des Online-Bereichs. Eine solche Überschreitung der Systemgrenzen führt zumeist zu notleidenden Ergebnissen.

1. Einordnung Bei der Online-Primärforschung werden die zur jeweiligen Problemstellung erforderlichen Informationen unmittelbar von den Probanden durch Befragung oder Beobachtung erhoben. In der Primärforschung wird das Internet als Erhebungsobjekt der marktforscherischen Befragung oder Beobachtung, auch experimentell, genutzt, dies neben oder anstelle von Offline-Erhebungen. In der Sekundärforschung wird das Internet als Erhebungsquelle genutzt, vor allem zur Recherche. Die Bedeutung von Online-Medien wächst in allen Wirtschaftsbereichen, getrieben durch das Zusammenwachsen von Telekommunikation durch Netzbetreiber, Vermittlungstechnik, Internet etc., Informationstechnik durch Hardware, Endgeräte, Server etc., Medien durch TV, Film, Audio etc. und Elektronik durch Speicher, Bildschirme, Laufwerke etc. zum TIME-Sektor. Dadurch verschmelzen Inhalte, Packaging, Übertragung, Navigation, Mehrwertdienste (VAS), Endgeräte etc. in der Wertschöpfungskette. Das Internet als Trägermedium bedarf daher der marktforscherischen Durchdringung. Eine Unterteilung geht vom bidirektionalen Web 1.0 aus, das primär kommerziell ausgelegt ist (nur top down oder bottom up, d. h., der Nutzer reagiert auf ein Anbieterangebot und kann es nur für sich beeinflussen) sowie vom multidirektionalen Web 2.0, das sozial ausgerichtet ist i. S. v. Kommunikation innerhalb der Nutzerebene, d. h., der Nutzer beeinflusst das Angebot für alle und generiert dieses auch selbst (UGC) statt eines vorgegebenen Content. Gerade dies bietet tiefe Einblicke für die Marktforschung. Prinzipien sind vor allem die Nutzbarmachung kollektiver Intelligenz, nutzergenerierte Inhalte und Werte, die Abschaffung des Software-Lebenszyklus, leichtgewichtige Programmiermodule, Cross over-Anwendungen bei Endgeräten, intuitive Nutzerführung etc. Im Web 1.0 lassen sich verschiedene Dienste im Rahmen der Marktforschung einsetzen. Dabei handelt es sich nicht nur um das WWW, sondern auch andere Internet-Netzwerke: • E-Mail nutzt verschiedene Protokolle wie SMTP (Simple Mail Transfer Protocol), POP3 (Post Office Protocol), IMAP (Internet Message Access Protocol) und MIME (Multipurpose Internet Mail Extensions) zur Übertragung von elektronischer Post. E-Mail ist einer der ältesten Internet-Dienste und gehört nach wie vor zu den meistgenutzten. • Usenet nutzt das NNTP-Protokoll (Network News Transfer Protocol) zum Transport von Newsgroup-Nachrichten. In solchen öffentlichen Diskussionsforen kom-

1. Einordnung

205

munizieren Internetnutzer asynchron, also zeitversetzt, über beliebige Themen. Zur Beteiligung werden teilweise News clients genutzt, die in vielen ­E-MailProgrammen oder Internet browsers bereits eingebaut sind. • IRC (Internet Relay Chat) nutzt das Protokoll, um zeitsynchrone, also realtime, Diskussionsgruppen im Internet zu ermöglichen. Solche Diskussionen finden meist in Chatrooms und unter Pseudonymen (Nicknames) statt. Teilweise laufen die Chats auch WWW-basiert. • Instant Messaging (IM) sind Dienste (z. B. ICQ), die eine direkte, zeitsynchrone und schriftliche Kommunikation zwischen Nutzern erlauben. Über verschiedene proprietäre Protokolle können Kurznachrichten sofort zwischen Usern übermittelt werden. Je nach System ist auch eine Übertragung von Dateien oder Streams (Audio / Video) möglich. Voraussetzung ist, dass die Partner zeitgleich aktiv sind und eine direkte Verbindung miteinander anstreben. Der Empfänger einer Textnachricht kann darauf direkt reagieren. • Voice over-IP ist ein Dienst (z. B. Skype) zum Telefonieren über das Internet, teilweise mit eigenen Protokollen. Zur Kommunikation werden neben der Software auch Hardware-Komponenten wie Mikrofon, Lautsprecher, Headset o. Ä. benötigt. Multimedial sind auch Video-Call und Video-Conference technisch dar­stellbar. • Peer to peer-Systeme erlauben den direkten Austausch von Dateien zwischen Nutzern, die Rechner sind dabei gleichzeitig Client und Server. Beispiele sind die Dienste File Transfer Protocol (FTP) für die Übertragung großer Datenmengen, Telnet für die Emulation von Terminals zur Fernbedienung oder Filesharing in Intra-/Extranets (Geschlossene Benutzer-Gruppen). • WWW (World Wide Web) nutzt die Protokolle HTTP (Hypertext Transfer Protocol) und für gesicherte Verbindungen HTTPS (Hypertext Transfer Protocol Securer) zur Übertragung von Websites. Durch Web-Browsers werden die einzelnen Seiten einer Site grafisch am Bildschirm dargestellt. Das Web 2.0 nutzt hingegen diverse Soziale Medien im WWW (s. u.). Das Internet arbeitet allgemein nach dem Client-Server-Prinzip, d. h., Daten sind auf Servers hinterlegt und können von Nutzern dort abgerufen oder hochgeladen werden. Die Übertragung (Routing) funktioniert paketorientiert über unterschiedliche Übertragungswege (Gateways) nach dem Internet Protocol (IP). Das Transmission Control Protocol (TCP) identifiziert die eineindeutige Adresse, dargestellt durch vier Zahlengruppen. Diese Adresse ist die Domain, bestehend aus Name, Pfad und Endung (TLD). Der Traffic wird durch Online-Dienste oder Service providers organisiert. Die Verbindung ist immer virtuell. Die Online-Primärforschung beschafft und analysiert originär für einen Untersuchungszweck erhobene Daten, typischerweise in Stichproben. Dabei stellt sich wie schon bei der Offline-Erhebung, die Frage der Auswahl bzw. Rekrutierung der

206

Kap. IV: Online-Auswahl- und Erhebungsverfahren

Auskunftseinheiten. Beide werden im Folgenden dargestellt (siehe Abbildung 51: Online-Erhebungsformen). Hinsichtlich der Primärforschung werden, wie bei der Offline-Erhebung, die Formen der Befragung und Beobachtung eingesetzt. Befragungen nutzen als Kanäle WWW, E-Mail, Newsgroup, IRC und Bewegtbild. Beobachtungen beziehen sich auf Logfile und Themenorientierung (Issue). Beide Formen sind auch in experimenteller Form vorzufinden. Die Online-Sekundärforschung beschafft und analysiert Informationen aus zu anderen Problemstellungen bereits vorhandenen Daten. Hier eignet sich die Recherchequalität des Internet hervorragend zum Einsatz. Um die Teilnahme an Online-Primärerhebungen zu steigern, werden Anreize eingesetzt. Diese bestehen etwa aus Software, Geschenken, Geldbeträgen oder Informationen, die von der Erhebungsperson auch im Wege der Selbstselektion ausgewählt und abgerufen werden können.

Online-Befragung WWW-Befragung E-Mail-Befragung Newsgroup-Befragung IRC-Befragung Video-Befragung Online-Beobachtung WWW-Logfile-Analyse Themenorientierte Beobachtung Online-Experiment

Abbildung 51: Online-Erhebungsformen

2. Sekundärerhebung Das Internet stellt eine kaum ausschöpfbare Quelle an Informationen zur Verfügung, die bereits anderweitig erhoben worden sind und insofern eine Primär­ recherche erübrigen oder zumindest erleichtern. Insofern gehört bei jedem OnlineProjekt zunächst einmal die Recherche des bereits vorhandenen Wissensstands dazu. Damit diese Daten im unübersichtlichen Geflecht des WWW überhaupt gefunden werden können, ist die Nutzung von Suchmaschinen beinahe unerlässlich und auch im alltäglichen Gebrauch üblich. Als Untersuchungsobjekt spielt zudem die WWW-Logfile-Analyse eine hervorgehobene Rolle.

2.1 Funktionen von Suchmaschinen Zur Recherche in Suchmaschinen geben Nutzer den oder die Suchbegriff(e) in eine dort hinterlegte Datenbank ein, die daraufhin alle Eintragungen durchsucht und die Online-Adressen ausweist, in denen der / die Suchbegriff(e) vorkommt oder die damit in Verbindung stehen. Dabei können vier Typen von Suchmaschinen unterschieden werden, Volltextsuchmaschinen, Web-Kataloge und Meta-Suchmaschinen sowie Spezialsuchmaschinen vor allem im Einkauf wie Wer liefert was? (wlw. de), Europages (europages.com), Hoppenstedt (hps.de), Seibt (seibt.com), Gelbe Seiten Business (businessdeutschland.de), Thomas Global Register (thomas-global. de), Kompass (kompass.com), Die Deutsche Industrie (diedeutscheindustrie.de). Beim Indexieren des Webseitentextes durch Suchmaschinen wird zunächst der Titel einer Seite durch die Suchmaschine erfasst und ausgewertet. Dieser bildet das wichtigste Kriterium bei der Bestimmung der Relevanz eines Suchergebnisses für die Anfrage des Nutzers und entscheidet darüber, ob man mit seiner Adresse oben oder unten in einer Suchliste ausgewiesen wird. Auch die folgenden Abschnitte des Textes werden durch die Suchmaschine erfasst. Dabei wird die Inhaltsangabe, die bei der Ausgabe der Adressenliste mitgeliefert wird, automatisch erstellt. Somit ist die Formulierung des ersten Absatzes einer Seite wichtig, dabei muss diese Formulierung nicht unbedingt auf dem Bildschirm sichtbar sein. Durch Metatags, die eine Seite inhaltlich beschreiben, aber durch den Browser nicht sichtbar gemacht werden, können Schlüsselwörter auch als relevanter als vielleicht tatsächlich im Text gegeben, ausgewiesen werden. Verzeichnisse erlauben den Eintrag von Website-Inhabern in entsprechenden Kategorien. Dazu gibt es meist ein Anmeldeformular, das neben den Inhalten auch eine Charakterisierung der Seite ermöglicht. Dazu sollten Anmelder eine kurze Be-

208

Kap. IV: Online-Auswahl- und Erhebungsverfahren

schreibung des Seiteninhalts hinterlegen, die zusammen mit der Adresse nach Anfrage in einer Ergebnisliste des Verzeichnisnutzers ausgegeben wird. Um möglichst weit oben auf der Ergebnisliste platziert zu sein, ist es hilfreich, wenn der Titel einer Website das vom User vorgegebene Suchwort enthält. Dies macht die tatsächliche Nutzung wahrscheinlicher, da Nutzer die Liste für gewöhnlich von oben beginnend anwählen und ihre Suche einstellen, wenn sie die ihnen geeignet erscheinende Information gefunden haben. Je weiter unten ein Eintrag daher auf der Liste platziert ist, desto wahrscheinlicher ist es, dass er nicht mehr aufgerufen wird, weil das zugrunde liegende Informationsproblem bereits gelöst ist. Die Anmeldung wird durch den Verzeichnisanbieter geprüft und dann in das Verzeichnis aufgenommen. Hybride Suchmaschinen bieten zusätzliche Verzeichnisse mit den Seiten aus dem Hauptindex an. So wird vermieden, dass Inhalte deshalb nicht gefunden werden, weil sie dem falschen Index zugewiesen worden sind. In hybriden Suchmaschinen kann man daher zwischen Verzeichnissen wechseln und dort jeweils erneut suchen. Der Eintrag in die diversen Verzeichnisse ist zeitaufwändig. Daher bieten Dienstleister die Übernahme des Eintrags in die gängigen Suchmaschinen an. Möglich ist auch die automatische Anmeldung durch entsprechende Registrierungs-Software, dabei ist allerdings kein Feintuning des Eintrags möglich, so dass erhebliche Chancen vergeben werden. Dafür können Zeit und Geld eingespart werden. Website-Optimierer verbessern die Platzierung durch Website-Analyse über Sichtbarkeit der Inhalte, Logfile, technische Analyse, durch Optimierung der Website, durch Anmeldung zur Indexierung und Beobachtung der RankingRegeln bei Veränderung. Suchmaschinen erfassen mittels Suchrobotern (Crawlers) alle bei der Suchmaschine verfügbaren URLs und folgen dort den Links in Abhängigkeit von den jeweils zugeteilten Ressourcen bis zu einer bestimmten Tiefe, meist bis zur dritten Click-Ebene, um zu weiteren Seiten zu gelangen. Alle gesammelten Seiten werden analysiert und indexiert. Horizontale Suchmaschinen suchen alle Websites, z. B. eines Landes oder einer Sprache, ab. Vertikale Suchmaschinen suchen nur in einem Themenbereich. Bei Google werden Quellen nach ca. 200 verschiedenen Kriterien, die im Einzelnen geheim sind, durchsucht. Die vom Crawler gefundenen Seiten werden regelmäßig an einen zentralen Indexer übertragen und dort zu einem durchsuchbaren Index verarbeitet. Aus diesem Index werden Nutzeranfragen entsprechend den Ranking-Kriterien der Suchmaschine mit einer geordneten Liste von URLs und deren Beschreibungen beantwortet. Die Indexierungstiefe gibt an, wie weit die Linkverfolgung ausgehend von den Websites der oberen Hierarchieebene geht. Die Indexierungshäufigkeit gibt die Aktualität der Inhalte der Website an. Ein relevantes Problem stellen dabei die Daten des Deep web dar. Darunter versteht man nicht frei zugängliche Inhalte (password-geschütztes Private web),

2. Sekundärerhebung

209

Inhalte, die von Suchmaschinen nicht indexiert werden können (z. B. weil sie grafisch verschlüsselt sind) und dynamisch-erstellte Inhalte (PHP o. Ä.), die sich zeitabhängig seit der letzten Indexierung verändert haben. Man schätzt, dass diese Inhalte ca. 80 % der gesamten Web-Inhalte ausmachen. Das Deep web entsteht verschiedenartig, so etwa infolge • des Aussperrens von Crawlers durch Website-Betreiber, die dazu automatisiert erkannt werden, • durch nicht-aussagefähige Metatags, die also keinen Sinnzusammenhang zu den Inhalten bieten, • Passwort-Schutz für die Seiten, so dass ein Einlogvorgang erforderlich ist, • dynamische Programmierungen (Datenbanken), die sich der Auswertung versperren, • Echtzeit-Seiteninhalte, deren Inhalte unmittelbar nach Einsicht inaktuell werden, • fehlende Verlinkung von und zu anderen Seiten, wodurch sie der Erfassung entgehen, • zahlungspflichtigen Zugangs wie bei Abo-Angeboten, • Campuslizenzen, die nur im Extranet zugänglich sind. Diese wichtigen Inhalte bleiben damit „verborgen“. Teilweise kann das Deep web durch Fachdatenbanken erschlossen werden. Letztlich aber bleibt dieser wichtigste Teil des Web außen vor. Dies gilt auch, in einem ganz anderen Kontext, für das Darknet, einen verschlüsselten Bereich des Internet, das allerdings häufig für kriminelle Praktiken missbraucht wird. Zur Auswertung werden auch Bildinhalte interpretiert. Durch ein Claim review-System ist eine Faktenprüfung möglich. Es notiert die Person und die zu überprüfende Behauptung sowie deren Richtigkeit. Dazu werden Primärquellen recherchiert wie Dokumente, Statistiken, Studien, Augenzeugenberichte, Wissenschaftsmeinungen etc. Die Kriterien zur Bewertung der Relevanz von Ergebnissen sind von Suchmaschine zu Suchmaschine verschieden. Diese Kriterien bleiben geheim, um Index-Spamming zu erschweren, das versucht, durch manipulierte Angaben Topplatzierungen zu erreichen. Für die Qualität der Ergebnisse sind die Menge der ausgelieferten Suchergebnisseiten bzw. die Nutzungsreichweite der Suche ausschlaggebend. Die Zahl der Suchergebnisseiten gibt die Kapazität der Suchmaschine an, die Nutzungsreichweite die Anzahl der Nutzer innerhalb eines bestimmten Zeitraums.

210

Kap. IV: Online-Auswahl- und Erhebungsverfahren

Wichtige Rankingfaktoren, damit eine Webseite gefunden wird, sind (nach Melnik): • Content-Qualität in Bezug auf Hochwertigkeit, Nützlichkeit für die Suche, Formatierung (viele Absätze), • Verlinkungen, Rechtschreibung als Indikator für Qualität, Schreibstil, z. B. durch Wortschatz, • Content-Länge als Indikator für thematische Tiefe, • Keywords im Title tag, in Überschriften, im URL, im Lauftext, gefettet / kursiviert, als Bildname etc., • Content updates nach Alter seit letzter Aktualisierung und Regelmäßigkeit, • Vermeidung von kopiertem Content, also Unique content (möglichst durch Canonical tag markiert), • Exaktheit und Aussagefähigkeit relevanter Begriffe, • User experience, also Bedienbarkeit einer Seite, z. B. durch kurze Ladezeit, einfache Navigation, • Klickrate, also Aufruf einer Seite durch Nutzer der Suchmaschine, Direktaufruf, wiederkehrende User etc., • Verweildauer auf der entsprechenden Site (Time to site), • Zeitdauer bis zum Verlassen der Seite (Absprungrate / Return to SERP), • Responsive design für mobile Endgeräte / verschiedene Monitordiagonalen, • Scroll-Tiefe als Website-Ebenen (flache Site-Struktur) in der User journey, • Multimedia-Content wegen des vermuteten, höheren Nutzwertes, • Stringenz und Übersichtlichkeit der Webseiten-Architektur (Design), • Externe Links, also auf andere Site / Domain gerichtet, nach Anzahl und Relevanz der Zieldomain, • Backlinks, also von anderer Site / Domain kommend, nach Anzahl und Relevanz der Ausgangsdomain, • Interne Links, also innerhalb der Site nach Anzahl und Relevanz der Domain, • Vorschautexte (Snippets) nach Aussagefähigkeit und Attraktivität, • Vertrauenswürdigkeit der Links bzw. der Quelle, • technische Zuverlässigkeit der Verlinkung, • Vielfalt der Linkquellen, • Social signals wie Tweets nach Anzahl und Gewichtung, Facebook Likes / Shares nach Anzahl und Gewichtung,

2. Sekundärerhebung

211

• Brand signals wie Alleinstellung, Bekanntheit, Erwähnungen, • Sitemap-Struktur wegen der Übersichtlichkeit, • länderspezifische Enddomains, • Ladezeit der Webseite, • viele abgespeicherte Seiten einer Site (Search engine saturation). Wichtige Rankingfaktoren für die Inhalte einer Webseite sind folgende: • Position des Suchworts in der Seite (Keyword prominence), • Nähe der Suchbegriffe zueinander (Keyword proximity), • Häufigkeit des Suchwortes (Keyword frequency), • Suchwort-Dichte (Keyword density), • Suchwort im Domain-(URL), Verzeichnis- oder Dateinamen, • Hervorhebung des Suchwortes durch Formatierung, • Suchwort in Links, die auf die Seite verweisen, • Nutzung von Synonyma (Latent semantic indexing), • Link-Verbreitung einer Seite (Link popularity).

2.2 WWW-Logfile-Analyse Die WWW-Logfile-Analyse beruht auf abgespeicherten Aufzeichnungen über Server-Verbindungsdaten. Deren systematische Auswertung liefert Erkenntnisse über die Gewohnheiten von Internet-Nutzern. Logfiles stellen eine Vollerhebung dar, diese erfolgt ohne ausdrückliche Zustimmung des Nutzers. Da diese Daten aus technischen Gründen zwingend erhoben werden müssen, entstehen für die Forschung keine zusätzlichen Kosten. Problematisch ist, dass der rein technische Zugriff nichts über die Aufmerksamkeit des Nutzers aussagt. Das Logfile enthält folgende Informationen: • Name des zugreifenden Rechners bzw. dessen neunstellig IP-Adresse oder sein Domain-Name, • bei Zugriff von einem Unix-Rechners u. U. Registrierung des Login-Namens, • bei WWW-Angeboten, die einen Einlog-Vorgang vorsehen, wird der Log-inName des jeweiligen Nutzers verzeichnet, die Authentifizierung, • Datumsstempel im Format TT:MM:JJ:HH:MM:SS sowie Abweichung von GMT, jeweils Anfangs- und Endzeiten (Übertragungszeit),

212

Kap. IV: Online-Auswahl- und Erhebungsverfahren

• Identifizierung des Client-Rechners über die User-ID und des Anfragebefehls aus der Request-Nachricht, • Methode des Zugriffs, also Get, Put, Post, Head, • Provider mit Name, Herkunftsland, Empfänger-/Absenderadresse bei E-Mail, • genauer Pfad und Name des angeforderten Dokuments, Besuchsverlauf mit Reihenfolge der aufgerufenen Web-Seiten, • Port des Server, Return code des Server, IP-Adresse des Besuchers, • verwendetes Übertragungsprotokoll wie z. B. HTTP, POP, SMTP, • Status code der Übertragung, z. B. bei Problemen, • Übertragungsvolumen des angeforderten Dokuments in Bytes, • Referrer, d. h. URL des vorausgegangenen Zugriffs, • Betriebssystem und Browser-Version, • Konfiguration des Rechners, z. B. Bildschirmauflösung, Cookie-Akzeptierung, • detaillierte Informationen z. B. zu Zeitpunkt der Abfrage, abfragender Domain, abfragendem Browser, zuvor besuchter Internet-Seite, Dauer der Sitzung, abgefragten Inhalten. Die WWW-Beobachtung ist durch den Einsatz von Proxy-Servern behindert, die der Reduktion des Datenübertragungsvolumens dienen. Dazu fragt der NutzerBrowser eine Seite beim Access provider an. Die Daten werden komplett an den zwischengeschalteten, lokalen Proxy-Server übersandt, von dort über den Access server und an den Nutzer-Browser. Bei einem erneuten Aufruf der Seite werden alle statischen, seit dem letzten Aufruf durch den Nutzer unveränderten Seiten direkt vom Proxy-Server aus bedient, eine komplette neue Datenübertragung erübrigt sich so. Die Original-URL erscheint dabei aber gar nicht mehr im Logfile. Dies ist nur der Fall, wenn dynamische Daten einbezogen sind, die sich also seit dem letzten Aufruf durch den Nutzer verändert haben. Dann werden die dynamischen Inhalte vom Site host bedient und eingebunden, die statischen kommen weiterhin vom Proxy-Server und werden dort kombiniert. Es kommt also immerhin zu einer Entlastung der Datenübertragung. Eine weitere Verzerrung stellen Suchmaschinen dar, die durch Robots o. Ä. ständig und selbsttätig Web-Seiten aufrufen, auf die sie über Hyperlinks auf zuvor aufgerufenen Seiten gelangen, um Informationen einzusammeln. Diese automatischen Aufrufe werden im Logfile als normale Besuche erfasst. Hier bedarf es einer Bereinigung um irrelevante Einträge. Eine Möglichkeit ist die Nutzung von Indikatoren auf Robot-Abfragen, etwa Uhrzeit, Länderursprung, Wiederholungsrate etc., eine andere der Einsatz von Captchas (Completely automated public Turing test to tell computers and humans apart / „Ich bin kein Roboter.“).

2. Sekundärerhebung

213

Ebenso sind Offline-Seitenaufrufe aus dem Cache-Speicher nicht ohne Weiteres zu erkennen. Hier bedarf es der Pfadvervollständigung, um Effizienzdaten (Metrics) zutreffend auszuweisen. Dies gilt nicht nur bei unveränderter IP-Quelle, sondern auch für unveränderte Datenvolumina. Der Cache ist ein temporärer Speicher geringer Kapazität, in dem häufig verwendete Daten abgelegt werden. Neuere Daten überschreiben dabei ältere, meist nach dem FiFo-Prinzip. Jeder Nutzer hat nicht notwendigerweise bei jeder Einwahl eine identische IP, sondern Provider mieten einen Pool von IP-Adressen an und weisen jedem Nutzer eine gerade freie IP zu, insofern verbergen sich hinter dieser IP ganz verschiedene Nutzer, die Adressen sind nicht dediziert. Dies spart dem Provider Kosten, da immer nur ein Anteil aller Kunden gleichzeitig aktiv ist, er also nicht für jeden von ihnen eine IP-Adresse unterhalten werden muss, sondern nur für soviele, wie erfahrungsgemäß gleichzeitig online sind. Ebenso entsteht eine erhebliche Verzerrung durch die Einschaltung von Firewalls. Dies sind Rechner, die zwischen Internet und Intranet geschaltet sind, um Störungen von außerhalb nach innen abzufedern. Bei der Einwahl aus einem firewall-geschützten Rechner wird im Logfile daher die Adresse des Firewall-Computers angezeigt, nicht hingegen die Adresse des tatsächlichen Nutzers. Dies gilt nicht für Personal firewalls, die auf demselben System arbeiten wie das Endgerät selbst. Die Firewall-Software schützt angeschlossene Arbeitsstationen durch Analyse des eingehenden Datenverkehrs mithilfe zahlreicher Filter, z. B. Paketfilter, Contentfilter. Schließlich wird die Intensität der Nutzung (Frequenz, Dauer) falsch ausgewiesen, wenn Webinhalte als Datei lokal abgespeichert und dann am Computer offline genutzt werden. Dies gilt etwa für heruntergeladene Inhalte größeren Umfangs, die nicht bei laufender Abfrage gesichtet werden sollen / können, sondern zu einem späteren Zeitpunkt ohne erneuten Adressaufruf aus dem lokalen Computerspeicher geladen werden.

2.3 Clickstream-Analyse Unter einer Clickstream-Analyse versteht man die systematische Aufzeichnung der Aktivitätsdaten von WWW-Nutzern. Site-centric-Daten ergeben sich dabei aus den Abrufen von und den Eingaben in eigene Webseiten. Diese Daten können pseudonymisiert ohne Nutzerzustimmung erfasst und ausgewertet werden. Usercentric-Daten ergeben sich aus der Erfassung von Abrufen und Eingaben auf eigenen und fremden Webseiten. Sie dienen der Auswertung als User journey. Diese bezeichnet die chronologische Abfolge der Kontaktpunkte (Touchpoints) von Nutzern mit einem Online-Angebot in dessen Präsenz direkt, aber auch in fremden Präsenzen indirekt auf Basis von Tracking, z. B. Cookies, solange diese sich im virtuellen Bereich befinden.

214

Kap. IV: Online-Auswahl- und Erhebungsverfahren

Die Erkenntnisse dieser Analyse dienen der Verbesserung des Nutzererlebnisses als User experience, der Erhöhung der Transaktionsverkettung im Sales funnel, der Optimierung von Werbeplatzierungen bei Banner ads, der Forcierung der Aktionsumwandlungen als Conversion rate sowie, kanalübergreifend, der Verzahnung der Marketing- und Vertriebsaktivitäten. So ist es typisch für Nutzerverhalten, dass verschiedene Online-Kontakte kombiniert werden, etwa Anbieter-Website, Bewertungsportale, Nutzerforen, Experten-Blogs, aber diese auch mit Offline-Kontakten, etwa POS-Besuch, Beratungsgespräch, Werbespot / Anzeige / Plakat. Auswertungen dieser Informationen sind nach verschiedenen Kriterien möglich: • Referrer, d. h. Seite, von der ein User auf die zu analysierende Webseite gelangt ist, • Bounce-Rate, d. h. Verlassen einer Webseite bereits nach sehr kurzer Zeit (z. B. Fehl-Klick, Log-in-Wall), • Hits, d. h. Zugriff auf eine Datei des Webserver durch den Browser, • Page impression / Page view, d. h. Aufruf einer kompletten Website ohne Split nach Site-Bereichen, • Visit als Besuch mindestens einer Seite der Site, • Page impression pro Visit als Maß für die Nutzungsintensität einer Seite der Site, • Verweildauer (Stickiness) für die Zeitdauer des Verbleibs auf einer ­Website, • Unique visitor als Anzahl der verschiedenen Nutzer einer Website in einem definierten Zeitraum, • Anzahl Visits pro Unique visitor, d. h. Nutzungsintensität der Seite durch einen ­Nutzer, • Conversion rate, d. h. Umwandlungsrate von Clicks in gewünschte Aktion, • räumliche Verteilung der Zugriffe auf eine Website, • zeitliche Verteilung der Zugriffe auf eine Website, • Verteilung der Nutzung der Webseiten innerhalb der Website, • häufige Einstiegsseiten (Entry pages) in die Website, • Suchmaschinen-Keywords, die zur betreffenden Seite geführt haben, • genutzte Funktionalitäten auf einer Website wie Landingpage-Aufruf, Download, Newsletter, Rückruf, Weiterleitung an Zahlungsdienstleister, Plug-in, falls erforderlich, etc., • Navigationsabbrüche nach Webseiten (Exit pages), z. B. bei Rücksprung innerhalb der Website mit Datenverlust,

2. Sekundärerhebung

215

• Nutzung der internen Suchfunktion in der Website, • Nutzerstruktur der Website nach Betriebssystem, Browserversion etc., • soziodemografische Analyse der Nutzer aus Registrierungen. Online-Untersuchungen beziehen sich auf eine Vielzahl weiterer Quellen, zu nennen sind u. a. • Gästebucheinträge auf Webseiten, diese sollen die guten Erfahrungen von Besuchern / Kunden auf weitere Webseiten-Besucher übertragen, sie geben einen Einblick in den Kreis der Website-Besucher und sind daher aussagefähig in Bezug auf das Umfeld, • Auswertungen von Meinungsportalen, etwa mit Test- und Erfahrungsberichten zu Anbieterprodukten, teils erfolgen diese auch gegen Honorierung, außerdem sind Bewertungen der Einträge üblich, verbreitet ist ein Link zu Preisvergleichsportalen, • Text mining als automatisierte Gewinnung von Informationen aus Textdokumenten durch morphologische Analyse bzgl. Wörtern / Wortbestandteilen (Terme), syntaktische bzgl. grammatikalische Satzbestandteile und semantische bzgl. des Bedeutungskontextes etc. durch deren Sammlung und Auswertung, vor allem als Sentiment-Analyse zur Erfassung von Stimmungen.

3. Online-Auswahlverfahren Auch im Online-Bereich stellt sich die Frage der geeigneten Auswahl der Auskunftseinheiten. Denkbar und üblich sind dafür mehrere Formen (siehe Abbildung 52: Gängige Online-Auswahlverfahren). Wie bei der Offline-Auswahl ergeben sich die Optionen der Zufallsauswahl einerseits und der Bewusstauswahl andererseits. Die Zufallsauswahl kann wiederum nach reinem oder gesteuertem Prinzip erfolgen, die Bewusstwahl mit Online- oder Offline-Rekrutierung. Dabei tauchen jedoch jeweils erhebliche methodische Probleme auf, die es bei der Beurteilung zu berücksichtigen gilt.

Reine Zufallsauswahl der Teilnehmer

Bewusste Online-Auswahl der Teilnehmer

Intercept-Auswahl

(Bulk-)E-Mail-Auswahl

Inverse Auswahl

Suchmaschineneintrag Soziale Netzwerke

Gesteuerte Zufallsauswahl der Teilnehmer

Bewusste Offline-Auswahl der Teilnehmer

Banner-Auswahl

Briefsendung

Internetforen-Auswahl

SMS-Nachricht

Newsgroup-Auswahl

Telefonkontakt

Abbildung 52: Gängige Online-Auswahlverfahren

3.1 Zufallsauswahl 3.1.1 Reine Zufallsauswahl Zufall bezieht sich hierbei auf das Pull-Prinzip der Online-Medien, d. h., die Möglichkeit zur Erhebungsteilnahme wird in geeignet erscheinenden Umfeldern annonciert, wobei aber nicht gesteuert werden kann, welche Nutzer damit kontaktiert werden, sondern dies vom Zufall abhängt. Als Auswahlbasis dient die

3. Online-Auswahlverfahren

217

Gesamtheit der WWW-Nutzer. Es kann jedoch nicht von einer Zufallsauswahl im statistischen Sinne gesprochen werden, da einerseits nicht alle Elemente dieser Grundgesamtheit die gleiche, von Null verschiedene Chance haben, in die Stichprobe einzugehen und andererseits diese Grundgesamtheit nicht zwangsläufig die Gesamtheit aller überhaupt interessierenden Fälle abdeckt. Dabei können eine aktive Rekrutierung durch Bewusstauswahl oder eine passive Rekrutierung durch Zufallsauswahl vorgenommen werden, letztere wiederum als reine Zufallsauswahl unter allen im Internet gerade aktiven Personen oder eine gesteuerte Zufallsauswahl in einem vordefinierten Nutzersegment. Eine zufällige Auswahl im WWW erfolgt zumeist auf folgenden Wegen. Bei der Intercept-Auswahl (n-th-viz) wird der Online-Nutzungsvorgang durch Aufforderung zur Teilnahme an einer Erhebung, meist durch Öffnen eines neuen Browserfensters, unterbrochen. Die Aufforderung erscheint bei jedem n-ten Besucher, analog zur systematischen Zufallsauswahl. Damit sind statistische Auswertungen möglich, ebenso wie der Ausweis der Ausschöpfungsquote. Allerdings sind nennenswerte Abweichungen zwischen Teilnehmern und Nicht-Teilnehmern zu vermuten, ebenso ist die Grundgesamtheit auf die Nutzer der Trägerseiten begrenzt, so dass auch nur für diese eine Aussage getroffen werden kann. Zudem verhindern Browser häufig das Öffnen neuer Fenster durch Pop up-Blocker. Dadurch kann nicht ausgewiesen werden, ob ein Nutzer wissentlich die Beteiligung verweigert oder erst gar keine Chance hatte, in die Stichprobe einzugehen. Immer häufiger wird auch der umgekehrte Weg eingeschlagen. Marktforschungsinstitute stellen Erhebungen ins Internet, für die weder ein Auftrag noch, daraus folgend, eine konkrete Zielgruppe gegeben sind. Die Veranstalter setzen vielmehr auf die Interaktionsfreude häufig gelangweilter oder auch sich selbst überschätzender Nutzer im Internet und sammeln so Umfrageergebnisse ein, für die sie dann zur kommerziellen Verwertung erst Interessenten suchen. Naturgemäß kann es sich dabei nur um unspezifische Fragestellungen handeln, die aber von Entscheidern oft zur ersten Orientierung als ausreichend angesehen werden. Da die Erhebung nur sehr geringe Kosten verursacht und weitestgehend automatisiert gesteuert wird, entstehen dennoch lohnende Spannen aus der Verwertung. Allerdings ist eine reine Zufallsauswahl im Internet kaum realisierbar, denn die Chance aller Nutzer, die zum Zeitpunkt der Aufforderung zur Mitarbeit an einer Erhebung nicht online sind, ist immer gleich Null. Dasselbe gilt für alle Nutzer, die zwar zeitgleich online sind, sich aber auf anderen Präsenzen als denen, die zur Aufforderung zur Mitarbeit an einer Erhebung genutzt werden, bewegen. Sofern Aussagen nicht nur über Internetnutzer, sondern alle Personen einer Grundgesamtheit gewünscht sind, ist der Anteil der Nicht-Internetnutzer naturgemäß ebenfalls Null. Unter den Internetnutzern haben diejenigen mit intensivem Online-Verhalten zudem die höhere Chance, in die Stichprobe einzugehen als diejenigen mit extensivem Online-Verhalten. Insofern besteht die Gefahr der Verzerrung, da von Aussagen dann nur auf die Gruppe der Online-Intensivnutzer geschlossen werden

218

Kap. IV: Online-Auswahl- und Erhebungsverfahren

könnte, nicht aber auf die der Extensivnutzer. Hinzu kommt, dass der Übergang nicht disjunkt, sondern graduell ist. Außerdem ist das Nutzungsverhalten in Bezug auf unterschiedliche Websites erheblich abweichend, so dass Nutzer von Sites, auf denen die Auswahl annonciert wird, eine höhere Chance auf Eingang in die Stichprobe haben als Nutzer von anderen Sites.

3.1.2 Gesteuerte Zufallsauswahl Bei einer gesteuerten Zufallsauswahl wird nicht allein das Zufallsprinzip als Basis der Auswahl genutzt, sondern der Zufall wird zweiphasig korrigiert. In der ersten Phase wird eine Eingrenzung vorgenommen. Diese erfolgt etwa nach dem Konzentrationsprinzip durch Vorwahl eines oder mehrerer interessierender Nutzersegmente innerhalb der Grundgesamtheit. Da diese Segmente aber dennoch für eine Vollerhebung nicht zur Verfügung stehen, werden innerhalb dieser dann nach Zufallsauswahl die zur Erhebung gewünschten Einheiten bestimmt. Naturgemäß können dann auch nur über diese Segmente Aussagen getroffen werden. Problematisch ist aber die Ausschöpfung dieser Segmente, denn aus vielfältigen Gründen können einzelne Stichprobeneinheiten häufiger / intensiver mit dem Erhebungsanliegen adressiert werden als andere und haben damit auch eine höhere Wahrscheinlichkeit der Teilnahme. Außerdem ist nicht bekannt, ob die Angehörigen eines Segments annähernd gleichartig auf dieses Anliegen reagieren. Auch für eine gesteuerte Zufallsauswahl ist es statistisch erforderlich, dass alle Elemente dieser Grundgesamtheit bekannt und auch adressierbar sind. Diese Anforderung ist aber kaum realisierbar, da aufgrund veralteter Datenbasis, unzutreffender Angaben, unzureichender Abgrenzung etc. nicht gewährleistet ist, dass alle Elemente tatsächlich bekannt sind. Und vor allem, dass diese auch zuverlässig adressierbar sind, etwa aufgrund von Provider-Wechsel, Landes-/Berufswechsel, Interessen-/ Finanzstatusänderung etc. Insofern bestehen auch hier erhebliche methodische Bedenken. Die Aufforderung zur Mitarbeit an einer Erhebung erfolgt zumeist über Werbemittel wie der Banner-Auswahl. Dabei wird ein Display-Werbeelement auf bestimmten Webseiten installiert, das sich nach Anklicken öffnet und die Teilnahme ermöglicht. Durch die Wahl der Webseiten kann die Zielgruppe eingegrenzt werden. Da aber der Nutzer aktiv über die Teilnahme entscheidet, liegt im engeren Sinne keine Zufallsauswahl vor, somit auch keine Berechnungsmöglichkeit. Die Erhebung ist vielmehr selbstrekrutierend. Soll nur eine bestimmte Zielgruppe erhoben werden, wird das Banner nur in eine für diese hoch affine Seite integriert. Die Klickrate dieser Banner ist jedoch allgemein sehr gering. Vielmehr werden solche Unterbrechungen / Ablenkungen in der Online-Nutzung als störend empfunden. Zudem fehlt es an der Motivation zur Einbringung, Aufhänger wie „Sie wurden ausgewählt“ o. Ä. verfangen hier schon lange nicht mehr. Generell fehlt es an der Banner-Sichtbarkeit (Visibility). Werden Klicks ausgeübt, stammen diese häufig

3. Online-Auswahlverfahren

219

von Robots oder entstehen versehentlich (Fat finger). Zudem geraten Reagierer in die Datei der Marktforschungsinstitute und werden bei geeigneten Aufgabenstellungen wiederholt adressiert, so dass die Gefahr besteht, dass immer wieder dieselben, letztlich damit atypischen Einheiten Auskunft geben. Vor allem bleibt auch die Identität der Auskunftsgeber unklar. Die Internetforen-Auswahl bedient sich Diskussionsplattformen im WWW, die nach Themen gruppiert sind. Daher kann auch hier eine zielgruppenspezifische Auswahl vorgenommen werden. Auf der Startseite eines themenadäquaten Internetforums kann ein Link zur Startseite der Erhebung integriert werden, ohne den Dienst verlassen zu müssen. Damit ist auch eine recht zielgenaue Adressierung möglich. Allerdings besteht keine klare Abgrenzung der Grundgesamtheit, denn die Gesamtheit der Forums-Nutzer ist unbekannt und ob diese die „tatsächliche“ Grundgesamtheit ist, ist fraglich. Berechnungsmöglichkeiten bestehen im strengen Sinne nicht. Da jedoch die Gesamtheit der Forums-Nutzer extern unbekannt bleibt, kann die Grundgesamtheit nicht klar abgegrenzt werden, somit ist auch keine mathematisch-statistische Nachvollziehbarkeit gegeben. Bei der Newsgroup-Auswahl im Usenet ist eine offene Online-Gruppe (auch Community) mit E-Mail-Registrierung der Teilnehmer gegeben. Dort kann eine Aufforderung zur Teilnahme an einer Erhebung mittels eines Link platziert (gepostet) werden. Auch hier ist die Abgrenzung der Grundgesamtheit unmöglich, die Teilnehmer selektieren sich selbst. Die breite Streuung von Postings verstößt zudem gegen die Netiquette der Community, der gezielte Versand in themenspezifische Newsgroups kann jedoch erfolgversprechend sein.

3.2 Bewusstauswahl 3.2.1 Online-Rekrutierung Bewusstauswahl bezieht sich hierbei auf ein Push-Prinzip der Online-Medien, d. h., es werden gezielt einzelne Elemente der Grundgesamtheit annonciert, wohingegen andere Elemente davon gar nicht erst erfahren. Als Grundgesamtheit dient dabei die Internet-Nutzerschaft in den vordefinierten Diensten. Wiederum ist die Grundgesamtheit nicht als Gesamtheit der überhaupt interessierenden Fälle gemeint, sondern lediglich als Summe vordefinierter Fälle. Inwieweit diese in der Lage ist, ein zutreffendes Bild der interessierenden Grundgesamtheit abzugeben, ist jedoch fraglich. Die bewusste Auswahl in anderen Online-Medien vollzieht sich zumeist wie folgt. Per E-Mail werden bekannte Adressaten, die anhand ihres Profils als relevant vorqualifiziert worden sind, kontaktiert und zur Teilnahme an einer Online-Erhebung eingeladen. Dies ist ausgesprochen problematisch. So ist nicht bekannt, wer unter der angegebenen Mail-Adresse die Nachrichten öffnet, liest, weiterleitet etc.

220

Kap. IV: Online-Auswahl- und Erhebungsverfahren

Viele dieser Einladungen enden, da von wenig vertrauten Absendern stammend, in scharf eingestellten Spam-Filtern, eine Vorankündigung ist hier wenig hilfreich, da auch diese im Spam-Filter landet. Die Öffnungsrate von Nachrichten, die unerwartet eingehen und von wenig vertrauten Absendern stammen, ist sehr gering. Der Anteil der positiven Reaktionen darauf ist noch viel geringer. Hinweise in Piggyback-Newsletters oder Nachrichten von bekannten Multiplikatoren gehen in der Informationsfülle leicht unter. Insofern besteht die große Gefahr, dass es schon in dieser Auswahlphase zu einer irreparablen Verzerrung bei den Auskunftseinheiten kommt. Für die Bulk-E-Mail-Auswahl besteht zwar kein zentrales Register aller E-MailNutzer, jedoch kann man E-Mail-Adressen von Listbrokers kaufen, häufig von aufgelösten Net-Unternehmen, verbunden mit Einladungen zur Teilnahme an einer Erhebung. Denkbar, wenngleich hoch problematisch, ist die zufallsgenerierte Kombination von Buchstaben / Wörtern und Domains, in der Hoffnung, damit tatsächlich existierende Adressen zu treffen. Denn dies erfüllt den Tatbestand des Spamming, das nicht nur gegen die Netiquette verstößt, sondern auch rechtlich problematisch, wenn vorher keine Freigabe der Adresse durch die Halter eingeholt worden ist. Da keine hinreichende Abgrenzung der Grundgesamtheit gegeben ist, ist das Ergebnis zudem notleidend. Auch ist die Responsequote sehr gering. Die zufallsgenerierte Kombination von Buchstaben / Silben und Domains in der Hoffnung, dadurch auf tatsächlich existierende Adressen zu treffen, verstößt allerdings gegen Gesetz. Bei der Suchmaschinen-Auswahl erfolgt der Eintrag der Startseite einer Erhebung in möglichst vielen Suchmaschinen als Werbung oder unter entsprechend themenaffinen Stichworten. Die Teilnehmer rekrutieren sich dann im Wege der Selbstselektion, denn diese Seiten sind nur relevant für Nutzer, welche die Absicht haben, an einer Erhebung teilzunehmen. Dann melden sich vor allem solche Nutzer, die an einer Teilnahme aktiv interessiert sind, inwieweit diese repräsentativ für alle relevanten Personen sind, ist fragwürdig. Die Selbstselektion entspricht gerade einer Willkürauswahl. Ein weiterer Anspracheweg besteht über Soziale Netzwerke (Web 2.0), vor allem für kurze Erhebungen und jugendliche Zielgruppen. Hier ist die Auskunftsbereitschaft erstaunlich hoch, was für eine gewisse Naivität im Umgang mit sensiblen Auskünften spricht, die Nachteile bergen kann.

3.2.2 Offline-Rekrutierung Denkbar ist auch eine Kontaktierung potenzieller Teilnehmer einer OnlineErhebung über Offline-Medien wie Brief als „Schneckenpost“. Eine Repräsentanz wird dann aufgrund von Listendaten oder mikrogeografischer Beschreibung zu erreichen gesucht. Dagegen sprechen aber Nachteile in Kosten, Zeit, Erreich-

3. Online-Auswahlverfahren

221

barkeit etc. Und wenn schon einmal der Kontakt hergestellt ist, könnte auch gleich die schriftliche Erhebung folgen, statt einen Medienwechsel auf Online einzuleiten. Dadurch können ansonsten unterrepräsentierte Zielgruppen gezielt kontaktiert werden. Eine verbreitete Form der Anfrage zur Mitarbeit an einer Erhebung ist die SMS-Nachricht bzw. eingeschränkt die Messenger-Nachricht (z. B. WhatsApp) bei Smartphones. Interessenten können dann darauf reagieren. Allerdings gelten unverlangte Nachrichten im Medium als unseriös. In gleicher Weise ist die aktive Rekrutierung per Telefon für eine Online-Erhebung problematisch. So ist die Identität des Angerufenen fraglich, vielfach arbeiten Anrufbeantworter als Blocker. Die Erreichbarkeit per Telefon ist gerade bei aktiven, im Beruf oder in der Freizeit engagierten Personen gering. Anrufe von unbekannten Anrufnummern werden wegen schlechter Erfahrungen häufig weggedrückt bzw. nicht aktiviert. Ein beträchtlicher Anteil der Rufnummern ist zudem nicht öffentlich zugänglich. Bei einer Rufnummerngenerierung liegt aber gerade keine Bewusstauswahl mehr vor. Die Bereitschaft zur sofortigen Mitarbeit an einer Erhebung ist sehr gering ausgeprägt, bei Zusagen zu einer späteren Mitarbeit handelt es sich häufig um Gefälligkeitsäußerungen. Bei unbekannten Anrufern ist ein hohes Misstrauen verbreitet. Und generell stellt sich auch die Frage nach der Motivation zur Mitarbeit. Insofern besteht auch hier die Gefahr der Atypik bereits in der Auswahl.

3.3 Generelle methodische Probleme Bei den jeweiligen Formen der Online-Auswahlverfahren ergeben sich relevante Stichprobenprobleme wie folgt: • Die Abgrenzung der Grundgesamtheit ist generell problematisch, es gibt kein Verzeichnis aller Online-Anschlüsse, die Gesamtheit aller Personen / Organisationen mit Online-Zugang ist unbekannt und nicht abgrenzbar, daher stellt sich die Frage, für welches Aggregat Stichprobenergebnisse aussagefähig sein sollen. • Eine Coverage-Problematik besteht, da nicht alle Personen / Haushalte über Internet-Anschlüsse verfügen bzw. den Zugang unterschiedlich intensiv nutzen und personenbezogene Daten gefälscht sein können. Dabei sind vor allem demografische Verzerrungen in Bezug auf Alter, Geschlecht, Wohnortgröße, Bundesland, Ausbildung etc. gegeben. • Sampling-Fehler sind unvermeidlich, da die Verteilung der interessierenden Werte in der Grundgesamtheit unbekannt ist, daher kann im streng methodischen Sinne eigentlich nicht mit Bewusstauswahlverfahren gearbeitet werden.

222

Kap. IV: Online-Auswahl- und Erhebungsverfahren

• Es besteht ein Selbstselektionsproblem durch passive Auswahl, deshalb kann nicht von der Stichprobe auf die Grundgesamtheit geschlossen werden, weil sie atypisch für diese ist oder sein kann, etwa in Bezug auf Motivation, Kontaktchance, Nutzungsintensität, Interessen etc. • Entstehende systematische Verzerrungen bleiben unerkannt, da die Ausfallquote nicht ausgewiesen werden kann. Insofern ist keine Hochrechnung möglich, da anzunehmen ist, dass reagierende und nicht-reagierende Fälle sich systematisch unterscheiden. • Mehrfachteilnahmen der selben Probanden sind durch dynamische IP-Adressen und Blockung von Cookies oder mehrere URLs kaum nachvollziehbar, dadurch kommt es zu Verzerrungen durch Overcoverage, etwa durch Incentive-Jäger, auch wird die Ausfallquote verzerrt, wenn ein Proband, der bereits teilgenommen hat, bei weiteren Ansprachen nicht mehr teilnimmt. • Die tatsächliche Teilnehmerschaft bleibt durch Falschangaben, die durch die Anonymität des Internet nicht überprüft werden können, mehr oder minder unbekannt. Dadurch bestehen nicht-kontrollierbare Störeinflüsse wie Ungewissheit über die Personenidentität von angemeldeter und tatsächlich teilnehmender Person bei einer Erhebung. • Verzerrungen durch abweichende Nutzungsintensität des Internet als Auswahl mit ungleichen Wahrscheinlichkeiten sind unvermeidlich, dadurch werden Nerds / ​ Digital natives bevorzugt, die aber untypisch für die interessierende Grundgesamtheit sein dürften. Es kann versucht werden, die genannten Verzerrungen auf mehrerlei Art zu verringern, und zwar durch folgende Maßnahmen: • Prä-Gewichtung bei einer Quota-Auswahl, dies setzt allerdings eine Kenntnis über die Verteilung interessierender Merkmale in der Grundgesamtheit voraus, die entweder eben nicht bekannt ist oder an der mangelnden Abgrenzung der Grundgesamtheit scheitert, • Post-Gewichtung, hier erfolgt ein Redressement der unter- bzw. übergewichteten Merkmale der tatsächlichen Stichprobe im Vergleich zu den quotierten Merkmalen, die Merkmale werden dabei gemäß ihrer Abweichung vom Vorgabewert herunter- oder hochgewichtet, dadurch kommt es aber zu erheblichen Verzerrungen, weil künstliche, tatsächlich nicht vorkommende Fälle hinzukommen und reale Fälle ausscheiden können, • aktive Ansprache von Teilnehmern, dadurch wird zwar die Selbstselektion vermieden, dafür sind Auswahlwahrscheinlichkeiten nicht mehr berechenbar, ebenso ist unklar, inwieweit die einer Erhebung zustimmenden Fälle repräsentativ für alle Fälle sind, über die eine Aussage getroffen werden soll,

3. Online-Auswahlverfahren

223

• Rekrutierung über Offline-Medien im Wege herkömmlicher Auswahlverfahren, dann findet lediglich die Erhebung online statt, nicht aber mehr die Stichprobenziehung, bei dieser Form der hybriden Auswahl gehen pragmatische Vorteile von Online-Erhebungen allerdings verloren. Vor allem das Problem der Mehrfachteilnahme kann angegangen werden, indem Cookies gesetzt werden, allerdings setzt dies eine entsprechende Browsereinstellung voraus. Außerdem geraten Cookies unter Datenschutzaspekten immer mehr in die Kritik, zumindest in Bezug auf Third party cookies. Denkbar ist auch die Überprüfung der IP-Adresse, wodurch allerdings lediglich der technische Endgeräteanschluss identifiziert wird, nicht jedoch der Nutzer selbst (am selben Endgerät können durchaus zwei oder mehr Nutzer „hängen“). Zudem entstehen Probleme bei dynamischen IP-Adressen, die von Providers als Vorratsadressen den jeweils aktuellen Nutzern zugewiesen werden, oder FirewallRechnern, die das tatsächlich genutzte Endgerät verbergen. Hilfsweise kann ein nachträglicher Ausgleich unterrepräsentierter Fallgruppen durch aktive Teilnehmerrekrutierung erfolgen. Ebenso kann das Problem der mangelnden Identifizierung von Auskunftsgebern nur durch Verifizierung einer angegebenen Adresse (Mixed mode) oder ein paralleles Telefoninterview gelöst werden. Damit soll eine Authentifizierung der Teilnehmer erreicht werden, zugleich geht damit jedoch die Anonymität der Teilnahme unter.

4. Online-Befragung Das Computer Assisted Web Interviewing (CAWI) ist die Form der Erhebung im Internet als Online-Befragung. Für CAWI sprechen eine Reihe von Vorteilen, so der Zeitvorteil, die erhöhte Datenqualität, weil Interviewereinflüsse fehlen, erweiterte Abfragemöglichkeiten durch Filterführung, die Bild- oder Tonvorgabe und Plausibilitätsprüfung, die zeit- und raumunabhängige Befragungsmöglichkeit. Dem stehen Nachteile wie die Beschränkung auf bestimmte Zielpersonen, die dem Leseverhalten am Bildschirm notwendigerweise angepasste Fragestellung und erhöhter Programmieraufwand gegenüber. CAWI kann im einzelnen durch verschiedene technische Modalitäten zustande kommen.

4.1 WWW-Befragung 4.1.1 Anlage Die Online-Befragung erfolgt im Wesentlichen als WWW-, E-Mail-, Newsgroup- oder IRC-Befragung. Zur Durchführung von WWW-Befragungen (Online-Befragung i. e. S.) können aufgrund der HTML-Struktur der WWW-Dokumente Formularfelder mit automatischem Versand an eine vorgegebene Adresse eingeführt werden. Allerdings müssen die vorgesehenen Teilnehmer infolge des Pull-Charakters des WWW selbst auf das Befragungsangebot zugreifen. Daher ist zweierlei zu leisten, erstens der Kontakt zur entsprechenden Website und zweitens die Ausfüllung des Fragebogens. Ersteres wird durch Bekanntmachung der Befragung über verschiedene Internet-Dienste und Werbemittel im WWW erreicht. Hinzu kann die Bekanntmachung auch in klassischen (Offline-)Medien treten (s. o.). Alle Besucher einer Homepage werden gebeten, den Fragebogen zu bearbeiten. Dies ist meist verbunden mit einer Registrierung der Besucher, die dazu persönliche Informationen abgeben. Durch Anklicken eines Button gelangt der Besucher dann auf die Fragebogen-Seite. Denkbar ist auch, jeden n-ten Besucher einer Website automatisch auf die Fragebogen-Seite umzuleiten. Damit ist dann zugleich ein auf den Nutzerkreis begrenztes Zufallsauswahlverfahren realisiert. Allerdings ist die Akzeptanz dieses Vorgehens fraglich, da es für Teilnehmer eine Unterbrechung des Nutzungsvorgangs bedeutet. Der WWW-Fragebogen selbst ist ein HTML-Formulardokument zum Eintrag von Antworten durch den Befragten. Hinsichtlich der Befragungstaktik in der On-

4. Online-Befragung

225

line-Marktforschung ergeben sich Stellgrößen in Bezug auf die Fragetypen, die Frageabfolge und die Antwortreihenfolge. Üblich sind dabei folgende Fragetypen: • Einfachauswahl, d. h. eine Antwortoption aus verschiedenen Antwortoptionen, dies erlaubt allerdings nur ein enges Antwortspektrum, • Dropdown-Feld, d. h. Klick auf eine Leiste zum Aufklappen der Antwortoptionen, die dann angewählt werden, insofern also eine zweistufige Anwahl, • Mehrfachauswahl, d. h. zwei oder mehr mögliche Antworten aus verschiedenen Antwortoptionen, meist als Anklicken eines / mehrerer Auswahlbuttons, z. B. runde Radio-Buttons zur Anwahl, eckige Check-Buttons zum Ankreuzen, • Auswahllisten, d. h. zwei oder mehr mögliche Antwortoptionen werden aus einer aufgeklappten Liste vorgewählt, wiederum mit zweistufiger Anwahl, • Volltexteingabe, d. h. Freieingabe der Antwort, problematisch ist hierbei die Schreibfähigkeit der Auskunftspersonen, aber auch die Verständlichkeit, zudem ist eine automatisierte Auswertung im Ergebnis fraglich, • Autocomplete-Texteingabe, d. h. nach den ersten Buchstaben wird ein Wortanfang als Vorschlag automatisch vervollständigt, hierdurch kann eine erhebliche Verzerrung der Antworten entstehen, • Matrixfrage, d. h. mehrere Zeilen von Merkmalen mit mehreren Spalten von Antwortangeboten, z. B. als Multi item-Profil, auch als Doppel- oder Multimatrix, problematisch ist dabei der hohe Komplexitätsgrad bei der Beantwortung, • Schieberegler (Slider), d. h. freie Bewegung entlang einer Skala für kontinuierliche Abstufung, im Hintergrund laufen numerische Werte mit, diese beziehen sich z. B. auf Zustimmung, Wichtigkeit, Zufriedenheit, Häufigkeit, Intensität, Wahrscheinlichkeit, Sympathie, Kompetenz, • Rankingfrage, d. h. Skala auf ordinalem Skalenniveau z. B. mit Smileys als ­KuninSkala, dies erlaubt allerdings keine metrische Auswertung, wichtig ist dabei eine aussagefähige Beschriftung / Bezifferung der Optionen, • Konstantsummenskala, d. h. Verteilung einer festen Punktezahl auf Antwortangebote, dies ist im Allgemeinen eine empfehlenswerte Form, um zu Präferenzdaten zu gelangen. Für die Frageabfolge erfolgt eine Filterführung in Abhängigkeit von: • der vorherigen Frage / Eingabe, zu der logisch verknüpft wird, • zufallsgesteuertem Filter, ohne logischen Bezug, • zeitbezogenem Filter, nach Monat, Wochentag, Tageszeit etc., • der jeweils rekrutierenden Website, z. B. um Unterschiede zu eruieren, • der Anzahl der bereits eingesammelten Antworten (Ausfülldauer).

226

Kap. IV: Online-Auswahl- und Erhebungsverfahren

Die Antwortreihenfolge kann dabei verschiedenartig angelegt sein: • Bei gleichbleibender Antwortreihenfolge besteht die Gefahr von Verzerrungen durch Positionseffekte der Auswahloptionen untereinander. • Bei rotierender Antwortreihenfolge wechseln mehrere vordefinierte Sequenzen in den Fragebögen einander ab, dies vermindert Positionsverzerrungen. • Bei zufallsgesteuerter Antwortreihenfolge werden die Auswahloptionen nach Zufallsmechanismen angeordnet, dies vermeidet Positionsverzerrungen. • Bei alphabetischer Antwortreihenfolge kann sowohl eine Neutralisierung als auch eine zu vermeiden gesuchte Verzerrung entstehen. Umstritten ist, ob ein Antwortzwang (Forced choice) vorgesehen werden soll, einerseits bewirkt dies eine gewünschte Vollständigkeit der Angaben, andererseits aber auch Teilnahmeabbrüche. Unbedingt sinnvoll ist hingegen eine Konsistenzprüfung der Antworten bzgl. Zahlenangaben, Zahlen statt Buchstaben, gültiges Datum etc. durch ein Skript-Programm im Hintergrund. Hilfreich ist auch, einen Rücksprung zu sperren, damit keine nachträglichen Korrekturen an vorherigen aufgrund folgender Fragen möglich sind. Hinzu kommt die Kontrolle der Antwortgeschwindigkeit als Indiz für die Gründlichkeit, möglicherweise aber auch die Überzeugtheit des Teilnehmers. Als Erfahrungswerte für die Fragebogenlänge gelten im WWW 20 Fragen, bei B-t-c-Kunden 25, bei B-t-b-Kunden 30 und mobil allenfalls 10 Fragen. Um unerwünschte Mehrfachteilnahmen zu verhindern, kann der Fragebogen codegeschützt versandt werden, die Bearbeitung verbraucht dann diesen Code, ein erneuter Aufruf sperrt hingegen den Zugang. Ebenso kann die Teilnahme bei Deadline-Überziehung durch Code-Verbrauch gesperrt werden. Denkbar ist auch eine Identifizierung durch Cookie, der allerdings endgerätegebunden ist oder einen IP-Filter zur Identifizierung des Internet-Anschlusses (Zugriffskontrolle). Mit dem Ausführungsbutton wird entweder eine Eingabebox gelöscht, die Bearbeitung abgebrochen oder durch Versand an den Veranstalter planmäßig beendet. Wichtig ist, dass der Fragebogen auf allen gängigen Web-Browsers richtig dargestellt und ausgeführt wird (z. B. in HTML5). Multimedia-Elemente wie Animationen sollten jedoch im Sinne kurzer Ladezeiten zurückhaltend eingesetzt werden. Einen Sonderfall der WWW-Befragung stellt der WWW-Opinion poll dar. Dabei werden eine oder wenige Fragen an zufällig ausgewählte bzw. jeden Nutzer über Bildschirmbuttons gestellt bzw. diese dort zur Teilnahme am Poll eingeladen. Ein Beispiel ist die amateurhafte Anlage einer Internet-Befragung der EU zur Zeitumstellung (Normalzeit / Sommerzeit vs. einheitliche Zeit). Aus dem Ergebnis kann keineswegs eine mehrheitliche Ablehnung der Umstellung abgelesen werden, wie von Laien behauptet, denn erstens war die Teilnehmerzahl gemessen an der betroffenen EU-Bevölkerung ausgesprochen gering, zweitens lag hier eine klas-

4. Online-Befragung

227

sische Selbstselektion der Teilnehmer vor, d. h. es dürften vor allem solche Personen teilgenommen haben, die an einer Umstellung interessiert sind, um ihrem Anliegen Nachdruck zu verleihen, drittens dürften jede Menge unkontrollierter Mehrfachteilnahmen vorliegen, wodurch eine ungewollte Gewichtung der Antworten entstand, viertens war die Fragestellung unvollständig, da die Möglichkeit der Umstellung von Sommer- auf Normalzeit unterdrückt wurde, fünftens lag dem Ergebnis eine groteske Ländergewichtung zugrunde (die mit Abstand meisten Teilnehmer kamen bezeichnenderweise aus Deutschland), sechstens wurde der Zugang zur Umfrage nur selektiv kommuniziert, so dass viele Zielgruppen keine Berücksichtigung fanden. In der Würdigung ist zu vermuten, dass WWW-Befragungen im Common interest-Bereich noch auf Jahre hinaus nicht tragfähig sein werden, es besteht ein Bias hin zu besser gebildeten, großstädtischen, jungen, weißen Männern. Anders sieht dies im Special interest-Bereich aus, hier ist bereits heute eine hohe Praktikabilität gegeben. Allgemein ist für die Anlage des Online-Fragebogens zu berücksichtigen, dass keine Spontanreaktionen erhebbar sind. Auch sprachliche Unklarheiten können nicht geklärt werden. Bei internationalem Einsatz ist evtl. eine Übersetzung ins Englische erforderlich. Bei langen Fragebögen kann es zu vorzeitigem Teilnahme­ abbruch kommen. Eingebundene Audio- und Videodateien motivieren zwar die Teilnehmer, erhöhen aber gleichzeitig das Datentransfervolumen. Unbedingt sind die unterschiedlichen Bildschirmdarstellungen verschiedener Browser / -generationen auszutesten. Benutzerhilfen sollten bei Unklarheiten im Moderator-Fenster eingeblendet werden. Bei komplizierten Abläufen ist die automatische Filter­ führung sehr hilfreich. Individuelle Fragebögen können zwischenzeitlich mit entsprechender Software vom Veranstalter selbst entwickelt werden (z. B. Umfrage online, Pinpoll, Empirio, Crowdsignal, Google Forms, Maq-online, ­Survey Gizmo, Typeform, OnlineUmfragen). Diese werden zu meist niedrigen Preisen zum Kauf oder im Abo angeboten, teils auch kostenfrei. Das Fragebogendesign ist dabei individuell anpassbar. Problematisch ist generell, dass die Identität der Teilnehmer meist unklar bleibt. Daher führen Web-Befragungen allgemein zu hoher subjektiv wahrgenommener Anonymität und geringer sozialer Präsenz. Folglich sind Kontexthinweise reduziert. Es entsteht eine erhöhte Selbstaufmerksamkeit bei gleichzeitig verminderter öffentlicher Aufmerksamkeit. Diese Ego-Zentrierung führt zu verringerter Sorge um soziale Bewertungen, damit zu einer geringen Bindung an soziale Normen. Dadurch entstehen geringe Effekte der sozialen Erwünschtheit sowie Effekte der Überbetonung individueller Aspekte.

228

Kap. IV: Online-Auswahl- und Erhebungsverfahren

4.1.2 Wesentliche Vorteile Wesentliche Vorteile von WWW-Befragungen sind vor allem folgende: • Die WWW-Befragung erlaubt eine zügige Durchführung. Dies ist angesichts häufig starken, teils auch selbstverursachten Zeitdrucks bei marktforschungsgestützten Entscheiden von hoher praktischer Bedeutung, darf jedoch nicht zulasten der Aussagefähigkeit gehen. • Die Darstellungsmöglichkeiten sind durch Einbindung von Grafiken, Audio- und Videosequenzen vorteilhaft. So können umfangreiche auditive und visuelle Elemente eingesetzt werden. Dies sorgt für Erklärung und auch Abwechslung bei Teilnehmern. • Durch das Medium Internet werden die Kosten des Interviewereinsatzes sowie die Kosten für den Fragebogendruck/-versand erspart, dafür entstehen Kosten für die Programmierung. Dies öffnet diese Form auch für Unternehmen / Organisation ohne großen Marktforschungsetat, speziell auch Start-ups und KMUs. • Zudem entsteht kein Interviewereinfluss, so dass auch sensible Themen abfragbar sind und ein vergleichsweise geringes Maß an Verzerrung gegeben ist. Bestehen bleiben allerdings Einflüsse auf Seiten der Auskunftsperson. Außerdem bestehen nur eingeschränkte Möglichkeiten der Rückfrage. • Die Befragung kann vollstandardisiert stattfinden, die Filtersteuerung erfolgt automatisch. Insofern ist eine hohe Vergleichbarkeit der Ergebnisse gegeben. Dafür kann auf die Individualität der Teilnehmer nur begrenzt eingegangen werden. • Da zwischen der Initiierung und der Umsetzung der Forschung nur eine geringe Zeitspanne vergeht, ist ein hohes Maß an Aktualität der Ergebnisse gegeben. Dies kann gewünscht, aber auch nicht viel mehr als eine „Momentaufnahme“ sein. • Die Durchführung ist, wenn gewünscht, international möglich. Naturgemäß setzt dies die angemessene Übersetzung der Fragen, Antworten und Erläuterungen voraus. Dies trägt der zunehmenden Bedeutung globaler Themen Rechnung. • Die Bearbeitung des Fragebogens kann von Auskunftspersonen flexibel gestaltet werden, z. B. in Bezug auf Tempo, Unterbrechung. Dies erhöht die Wahrscheinlichkeit der Teilnahme und vor allem auch die Chance zur Vollständigkeit der Ergebnisse. Allerdings kann darunter auch die Vergleichbarkeit leiden. • Die Steuerung über komplexe Filterführungen ist möglich, etwa unter Anwendung von Fragenrotationen und Randomisierungen oder anderen algorithmusgesteuerten Techniken. Dies führt zu einer Optimierung des Befragungsumfelds, etwa auch durch Plausibilitätsprüfungen. • Datenerfassungsfehler werden durch Automatisierung vermieden, zudem können zahlreiche begleitende Informationen erfasst werden, die aufschlussreich sind. Zu denken ist etwa an die Antwortdauer, die Antwortzeit, den geostationären Standort etc.

4. Online-Befragung

229

• Es besteht eine hohe Projekttransparenz für die Auswertung, die auch für Auftraggeber gut nachvollziehbar ist. Die Möglichkeiten zur Manipulation von Prozessen oder Ergebnissen bleiben begrenzt. 4.1.3 Wesentliche Nachteile Wesentliche Nachteile von WWW-Befragungen sind hingegen folgende: • Prospektive Teilnehmer müssen den Fragebogen aus eigener Initiative durch Selbstselektion suchen und finden. Allein diese Hürde sorgt für Verwerfungen in der Struktur der Stichprobe. So gehen die Ergebnisse von Internet-Intensivnutzern mit höherer Gewichtung ein als die von Extensivnutzern. • Zudem kann jeder Teilnehmer beliebig häufig an einer Befragung teilnehmen (Multisite entry) und somit deren Ergebnis verzerren. Abhilfe ist eingeschränkt nur durch technische Vorkehrungen zur Sperrung oder zumindest Erkennung von Mehrfachteilnahmen möglich. • Die Objektivität der Ergebnisse bleibt fraglich aufgrund unterschiedlicher Darstellung der Erhebungsfragen und Vorlagen durch Betriebssystemunterschiede, verschiedene Browser, abweichende Grundeinstellungen im Browser zwischen den Teilnehmern. • Eine hohe wahrgenommene Komplexität des Fragebogens führt bei geringer Involvierung leicht zur Überforderung der Teilnehmer infolge Verständnisproblemen, diese sind zudem nicht ohne Weiteres erkennbar. Das Resultat sind dann häufig Teilnahmeabbrüche. • Die Realibilität bleibt ebenso fraglich durch mögliche Anwesenheit Dritter beim Ausfüllen des WWW-Fragebogens, durch Bedienprobleme beim Ausfüllen und durch fehlende Einträge infolge Abbruchs der Befragung, hier wirkt auch ein Oversampling nicht ausgleichend. • Auch die Validität der Ergebnisse bleibt fraglich wegen erfahrungsgemäß verbreiteter Willkürantworten infolge Anonymität des Mediums. Insofern sinkt die Fallzahl nach Bereinigung dieser Unstimmigkeiten meist drastisch. Grund sind häufig gebotene Anreize, die ein unreflektiertes Durchhecheln der Fragen provozieren. • Die Teilnahmequote ist gering und es besteht keine Identifizierungsmöglichkeit der Teilnehmer. Die Teilnahmeausschöpfung durch Anreize ist umstritten, da diese wiederum zu Antwortverzerrungen führt. Eine Identifizierung ist kaum möglich. • Die Ansprachechancen sind von der Einstellung der Nutzer zu marktforscherischen Befragungen abhängig. Denkbar sind Vorbehalte wegen schwer einzuschätzender Absender, die Einschätzung der eigenen Meinung als unwichtig, Zeitmangel o. Ä.

230

Kap. IV: Online-Auswahl- und Erhebungsverfahren

• Die Repräsentativität der Teilnehmer ist somit auf Dauer notleidend, sowohl in Bezug auf Nicht-Internetnutzer, als auch Extensivnutzer, aber selbst bei Internetnutzern durch die Selbstselektion der Teilnahme, weil Personen über viel Zeit verfügen, die Träger-Website besonders schätzen oder sich darüber ärgern, sie an Gewinnen / Incentives interessiert sind, ihre Meinung für wichtig halten o. Ä. • Die Antwortquoten sind dementsprechend gering, so dass die Stichprobe klein und die Ergebnisstreuung entsprechend groß wird. Dies hat negative Folgen für die Aussagefähigkeit, die prinzipbedingt weniger belastbar ist. • Es ist keine direkte Adressierung von Auskunftspersonen möglich (im Unterschied etwa zur E-Mail-Befragung als Push-Medium). Allenfalls über die Wahl der Werbeträger (Webseiten) kann darauf Einfluss genommen werden, dies gilt vor allem bei hoch spezialisierten Zielgruppen, die anderweitig nur schwer zu erschließen sind. • Durch Multiplikationswirkung (Schneeballeffekt) entstehen leicht Klumpungseffekte mit für die intendierte Grundgesamtheit atypischen Ausprägungen. Diese können extern kaum zutreffend identifiziert und damit auch nur schwer vermieden werden.

4.2 E-Mail-Befragung 4.2.1 Anlage Jede E-Mail-Nachricht besteht aus zwei Komponenten, den Header-Anweisungen über den rein technischen Transport der Nachricht mit Empfängeradresse, Kopie-Adressen, Absenderadresse, Betreffzeile etc. und der eigentlichen, textbasierten Nachricht als Body. Mailing-Listen können realisiert werden, indem Teilnehmer, die sich über ein bestimmtes Thema informiert halten wollen, diese Mailing-Liste abonnieren. Nachrichten an die Mailing-Liste werden automatisch, umgehend, kostengünstig und einfach an alle Abonnenten distribuiert. Im Unterschied zum WWW über Internet-Provider ist der E-Mail-Dienst jedem InternetNutzer zugänglich. Damit E-Mail-Nachrichten nicht von ungebetenen Dritten gelesen oder verfälscht werden, werden sie meist vor Versand verschlüsselt. Um sich vor unerwünschtem E-Mail-Versand (Spamming) zu schützen, filtern viele Postprogramme die eingehenden Nachrichten nach vorgegebenen Kriterien und blenden diese z. B. zum Schutz vor Viren ungelesen aus. Dies betrifft regelmäßig auch Fragebögen. Daher sollten E-Mail-Befragungen immer angekündigt werden, indem mindestens über das Befragungsziel, die Dateigröße und den Veranstalter informiert wird, und durch eine aussagefähige Betreffzeile kenntlich gemacht werden. Wichtig ist, die Nachricht kurz zu halten und die einwandfreie Darstellung auf verschiedenen E-Mail-Client-Programmen zu sichern. Aber auch dann muss die folgende Mail aktiv aus dem Spam-Ordner aufgerufen werden.

4. Online-Befragung

231

Als Adressaten kommen vor allem Kunden und Interessenten in Betracht. Der eigentliche Fragebogen wird meist als Anhang im HTML-Format versandt. Die Beantwortung ist sowohl im Medium, also durch Ausfüllen des Fragebogens und Rücksendung an den Absender oder eine andere vordefinierte Adresse, als auch unter Medienwechsel, also per Post oder Fax möglich. Der Fragebogen ist so kurz wie möglich zu halten. Ausreichende Zwischenräume für Antworten sind unerlässlich. Eine E-Mail-Mitteilung sollte nicht mehr als 65 Zeichen pro Zeile enthalten und keine Tabstops vorsehen, da diese nicht von allen Betriebssystemen einheitlich gelesen werden. Hilfreich ist die Anführung eines Beispiels für die E-Mail-Beantwortung. Im Header ist die Adresse des Forschers anzugeben. Die Anonymität beim Versand kann zugesichert werden, indem die Adresse im Blind copy-Feld eingetragen wird. Evtl. kann auch ein Anonymisierungsservice zwischengeschaltet werden. Durch Filtereinsatz wird der Eingang der Antwort entsprechend dem Inhalt gleich im richtigen E-Mail-Ordner abgespeichert. Für die Durchführung einer E-Mail-Befragung sind einige Anregungen hilfreich. Die Probanden sollen individuell eingeladen werden, der Forscher und das Projekt müssen dabei authentisch vorgestellt werden. Die Anfrage soll kurz und sachlich formuliert sein, das Angebot von Incentives ist durchaus möglich, ebenso wie allgemeine Motivation, z. B. kein Vorwissen erforderlich, keine falschen Antworten möglich, Schreibfehler sind egal. Anonymität kann zugesichert werden. Der genaue Umgang mit dem Fragebogen ist zu erläutern und der Einsatz von Emoticons anzuregen. Deutlich ist das Timing (Deadline)  bekannt zu machen. Sinnvollerweise prüft man das Design zunächst in einem Pretest, evtl. kann im Roll-out eine Hotline-Nummer für Support angegeben werden. Die Frageformulierungen sind eineindeutig zu fassen, auf einen abwechslungsreichen, knappen Aufbau des Fragebogens ist zu achten. Nicht antwortende Teilnehmer können erinnert werden, evtl. wird eine Reserve für ausfallende Probanden gefahren, um die Mindestfallzahl zu sichern. 4.2.2 Wesentliche Vorteile Wesentliche Vorteile von E-Mail-Befragungen (Electronic mail surveys) sind vor allem folgende: • E-Mail-Befragungen sind kosteneffizient durchführbar. So entfallen Druck und Versand von Fragebögen. Daraus resultieren auch ökologische Entlastungen, ein in diesen Zeiten kaum hoch genug einschätzbarer Vorteil, der sich auch betriebswirtschaftlich auswirkt. • Es entstehen erhebliche zeitliche Vorteile, etwa bei der Notwendigkeit, Änderungen einzuarbeiten. Werden Unzulänglichkeiten im Fragebogen erkannt, können diese rasch und unkompliziert für die restliche Auflage nachgebessert werden.

232

Kap. IV: Online-Auswahl- und Erhebungsverfahren

• E-Mail-Befragungen setzen zur Anlage keine Programmierkenntnisse voraus. Es ist bewährte Software verfügbar, die als teilautomatisierte Vorlage für Fragebögen dienen kann. Allerdings ist eine individuelle Prüfung auf Vollständigkeit, Ablauflogik und gute Anwendbarkeit hin erforderlich (z. B. Zurückweisung von Falscheingaben). • E-Mail-Befragungen haben in spezifischen Zielgruppen eine höhere Akzeptanz und Teilnahmebereitschaft als vergleichsweise traditionelle Befragungen. Allerdings bestehen große Vorbehalte gegen Anhänge und Landing pages, so dass sich die Frage der optimalen Darstellung des Fragebogens stellt. • Die Anonymität der Teilnehmer bewirkt aussagefähigere Antworten. Vor allem sind offenere, ehrlichere Antworten zu erwarten. Jedoch wird verbreitet gefürchtet, dass Auskünfte trotz E-Mail-Weiterleitung doch einer bestimmten Person zugeordnet oder zumindest Daten gehackt werden können. • Probanden und Unternehmen sind voneinander zeitlich und räumlich weitgehend unabhängig. So kann die E-Mail bearbeitet werden, wenn es dem Adressaten gerade passt. Dabei besteht die Gefahr, dass der Erhebungszeitraum verpasst wird und damit an sich auskunftswillige Personen keinen Zugang mehr finden. • Eine Auswertung der Ergebnisse ist laufend während und unmittelbar nach Ende jeder Befragung möglich. Entsprechend liegen auch realtime die Ergebnisse vor. Bei einer breiten zeitlichen Streuung des mittleren Erhebungsstichtags ist dies aber nicht unbedingt dienlich. • Online-Fragebögen können mittels multimedialer und interaktiver Darstellungen attraktiv und motivierend gestaltet werden, sofern sie nicht im Body der E-Mail stattfinden. Dort besteht eine Beschränkung auf die vergleichsweise statische ASCII- oder HTML-Wiedergabe. • Erfassungs- und Übertragungsfehler werden erkannt und können selbsttätig durch automatische Plausibilitätskontrolle oder nach Rückfrage korrigiert werden. Dies erfordert jedoch ein Back office, das sich zeit- und kostenaufwändig gestaltet und somit einen Teil der Vorteile von E-Mail-Erhebungen kompensiert. • Es können auch Personen erreicht werden, die speziellen Zielgruppen angehören oder für ein persönliches bzw. telefonisches Interview aus welchen Gründen auch immer nicht oder nur schwer zu gewinnen sind, wohl aber für eine Online-Befragung. • Es besteht die Möglichkeit, auch Personen zu erreichen, die sich besser schriftlich als mündlich ausdrücken oder sich nicht in einer bestimmten Sprache artikulieren können. Diese Personen sind mündlichen bzw. fernmündlichen Befragungen nur schwer zugänglich. • Antwortlatenzen erlauben auch die Befragung bildungsferner Personengruppen, die mehr Zeit zum Nachdenken und zur Formulierung der Antwort benötigen

4. Online-Befragung

233

und in einer synchronen Situation rasch überfordert sind. Hinzu kommen HilfeFunktionen, die aufrufbar sind. • Teilnehmer können durch die asynchrone Kommunikation an einem ihnen vertrauten Ort am Interview teilnehmen und einen individuellen Zeitpunkt zur Beantwortung selbst wählen. Die erhöht die Antwortrate und die Konzentrations­ fähigkeit. • Bei Störungen kann das Interview jederzeit unterbrochen und später wieder fortgesetzt werden. Dies erhöht die Bequemlichkeit der Teilnahme und vermindert Interview-Abbrüche, deren Ergebnisse, auch nicht anteilig, in die Auswertung übernommen werden dürfen. • Es gibt keinen Interviewerbias durch Körpersprache, Aussehen, Kleidung, Auftreten, Stimmlage etc. Allerdings fällt es vielen Menschen leichter, sich einer anderen Person in Bezug auf den Untersuchungszweck anvertrauen zu können. • E-Mails sind leicht in der Handhabung, sowohl für den Forscher wie auch für den Adressaten. Insofern bestehen keine Technikhürden oder Anpassungsschwierigkeiten, die eine Teilnahme am Befragungsprojekt erschweren könnten. 4.2.3 Wesentliche Nachteile Wesentliche Nachteile von E-Mail-Befragungen sind hingegen folgende: • Die gefühlte Anonymität ist gering, da die Nutzer sich überwiegend der Auswertung ihrer Daten im Hintergrund bewusst sind. Zwar werden Breite und Tiefe der Messungen i. d. R. erheblich unterschätzt, dennoch ahnt man, dass der Datenschutz nicht weit genug reicht, um dennoch aussagefähige Rückschlüsse auf das Profil des Nutzers erlauben. • Die Nutzung dieser Befragungsform setzt die Verfügbarkeit von Kontaktadressen potenzieller Teilnehmer voraus. Dabei entstehen hohe Streuverluste, weil die Qualität dieser Daten häufig stark schwankt oder im Vorhinein kaum abschätzbar ist. • Die Befragung erfordert fallweise den Opt-in der Teilnehmer, wodurch der Teilnehmerkreis eingeschränkt bleibt. Insofern sind zwei Barrieren zu überwinden, erstens die der Einwilligung potenzieller Teilnehmer und zweitens die des Vollzugs der Befragung. • Die tatsächlichen Teilnehmer sind nicht eindeutig identifizierbar, dies beeinträchtigt die Aussagefähigkeit der Ergebnisse sehr stark. Gleiches gilt für Umfeldeinflüsse, die in vielfacher Weise abweichen und zudem unerkannt bleiben. • Probanden können mehrfach an einer Befragung teilnehmen. Dies zu identifizieren ist technisch sehr aufwändig. Dadurch kommt es zur ungewollten Gewich-

234

Kap. IV: Online-Auswahl- und Erhebungsverfahren

tung der Ergebnisse, die diese verzerrt. Dies gilt besonders für anreizgestützte Erhebungsprojekte. • Die Repräsentanz der Teilnehmer ist fraglich. Dieses Problem kann allerdings durch eine bewusste Gewichtung der Teilnehmer analog zur Struktur der infrage stehenden Grundgesamtheit, sofern diese bekannt ist, zumindest abgeschwächt werden. • Die Selbstselektion der Teilnehmer führt zu systematischen Verzerrungen der Stichprobe gegenüber der Grundgesamtheit, weil die Personen, die sich zur Teilnahme „drängen“ systematisch von solchen abweichen, die sich einer Teilnahme verweigern. Insofern kann von den Teilnehmern nur bedingt auf die Grund­ gesamtheit hochgerechnet werden. • Der Teilnehmerkreis ist de facto auf solche Personen begrenzt, die Zugang zum Computer haben und mit E-Mail vertraut sind, dies dürfte zwar verbreitet sein, aber es gibt immer noch einen großen Anteil von Offlinern, die auf diese Weise nicht erreicht werden können. • Es können keine spontanen Reaktionen erhoben werden, da zwischen dem Lesen eines Auskunftsersuchens und dessen Beantwortung eine kognitive Verarbeitung zur Umsetzung von Gedanken in Sprache erfolgt, die Spontaneität vereitelt. • Teilnehmer sind nicht adressierbar, weil Einladungen gelöscht werden oder die E-Mail-Adresse sich geändert hat / nicht mehr existiert, dann erfolgt ein Hard bounce, wenn das Postfach voll ist, erfolgt ein Soft bounce, oder aber der Spamfilter ist zu scharf eingestellt. • Die Bearbeitung von Nachfragen ist relativ aufwändig, weil E-Mails sperrig zu handeln sind, ebenso ist die Aggregation der Ergebnisse aufwändig, da Zwischenschritte notwendig sind, wenn auf einen Anhang verzichtet wird, was durchaus sinnvoll ist. • Non-verbale Informationen der Teilnehmer können nicht erfasst werden. Gerade diese sind aber herausragend aussagefähig in Bezug auf Einschätzungen, die verbalisiert nur unvollständig zum Ausdruck gebracht werden (können). • Die Ergebnisse sind mehrdeutig, z. B. kann eine offengelassene Frage bedeuten, dass der Proband keine Zeit zur Antwort hatte, dass er die Antwort verweigert, dass technische Probleme bei der Eingabe aufgetreten sind, dass die Frage nicht verstanden worden ist, dass der Proband keine Meinung dazu hat etc. Abhilfe können hier Emoticons schaffen. • Die Einbindung von Grafik ist problematisch, da die korrekte Darstellung nicht bei jedem Empfänger gesichert ist. Dies liegt neben abweichenden Bildschirmformaten an unterschiedlichen Mail-Providers, abweichenden Browsertypen und auch Betriebssystemen. • Bei offenen Fragen können abschweifende Antworten auftreten, die schwierig auszuwerten sind oder nicht zum Thema gehören. Insofern ist die Auswertung

4. Online-Befragung

235

aufwändig, ggf. sind sogar Rückfragen erforderlich. Eine Alternative besteht nur in der Nutzung von geschlossenen Fragen. • Die Gestaltungs- und Formatierungsmöglichkeiten sind kanalbedingt begrenzt. So können mutmaßlich nur einfache Sachverhalte abgefragt werden. Insgesamt ist eine eher geringe Antwortbereitschaft im Durchschnitt der Teilnehmer anzunehmen.

4.3 Newsgroup-Befragung 4.3.1 Anlage Newsgroup-Befragungen nutzen Diskussionsforen im Usenet nach dem Prinzip des Schwarzen Bretts, in die eingetragene Teilnehmer für alle sichtbar mittels eines Newsreader Nachrichten eingeben, auf die alle anderen Teilnehmer, wiederum für alle sichtbar, oder auch verdeckt, reagieren können. Newsgroups sind nach Themengebieten und Regionen in Untergruppen aufgeteilt als Baumstruktur. Die Software ist im Browser bereits integriert. Newsgroups eignen sich auch sehr gut zur Sekundärforschung. Zweckmäßigerweise registriert man über einen längeren Zeitraum die Umgangsformen und Interessen der Teilnehmer einer bestimmten Newsgroup. Der Fragebogen wird dann mit einem aussagefähigen Titel, einer ansprechenden Gestaltung und der Aufforderung zur Beantwortung versehen an eine oder mehrere Newsgroups versandt. Zu beachten ist, dass die Nachrichten vom News-Server in regelmäßigen kurzen Abständen gelöscht werden, so dass für eine länger laufende Befragung erneute Versendungen erforderlich sind. Auch ist die regionale / nationale Verbreitung der jeweiligen Newsgroup zu beachten. Es dürfen nicht zu viele Newsgroups adressiert werden, da Überwachungs-Software ein unkontrolliertes Crossposting unterbindet. Newsgroups ähneln marktforscherisch den traditionellen Gruppendiskussionen, finden aber nicht „realtime“ statt. Die Befragung kann statt in der Newsgroup selbst auch durch Einladung zur Befragung auf einem anderen Weg wie E-Mail, WWW, „Schneckenpost“ erfolgen. Zur Verwendung im Usenet muss der Fragebogen selbst im ASCII-Code ohne Sonderzeichen erstellt sein. Auch ist auf die Einhaltung der maximalen Zeilenbreite zu achten, da es sonst zu ungewollten Zeilenumbrüchen kommt. Der Fragebogen sollte wiederum so kurz wie möglich gehalten sein. Durch die Einteilung der Newsgroups lassen sich spezielle Personengruppen zielgenau ansteuern. Beispiele sind comp. für Computer, misc. für Allgemeines, news für Nachrichten, rec. für Freizeit, sci für Wissenschaft, soc. für Social, talk für Tratsch, alt. für Sonstiges, biz. für Geschäftliches, humanities für Kultur. Zum jeweiligen Thema ist zudem ein hohes Interesse und damit eine hohe Antwortbereitschaft der Teilnehmer vorauszusetzen. Allerdings arbeitet das Usenet textorientiert. Zudem besteht keine Möglichkeit, Antwortverweigerer zu erfassen. Hilfreich

236

Kap. IV: Online-Auswahl- und Erhebungsverfahren

sind eine aussagefähige Überschrift für das Befragungsprojekt, außerdem Angaben zum Forschungsleiters, Sinn und Zweck der Untersuchung, Fragebogenlänge (in Min.), Zusicherung der Anonymität und Ergebnisfeedback. Wichtig ist auch die Einhaltung der Netiquette. Zunehmend erfolgt jedoch eine Verdrängung durch andere Formen als Internetforen (auch Bulletin boards, Communities) im WWW, diese sind zumeist chronologisch sortiert. 4.3.2 Wesentliche Vorteile Vorteile der Newsgroup-Befragung sind vor allem folgende: • Wird Sprach- und Bewegtbildkommunikation eingesetzt, herrschen nahezu die gleichen Ausgangsbedingungen wie bei klassischen Gruppendiskussionen. Insofern können deren generische Vorteile in ähnlicher Weise genutzt werden. • Marktforscher sowie Diskussionsteilnehmer sparen nicht nur Zeit, sondern auch Geld, etwa für Fahrtkosten, Catering etc., dies erhöht die Effizienz und erlaubt Einsparungen oder die Durchführung zusätzlicher Gesprächsrunden. • Die Diskussionsteilnehmer sind örtlich ungebunden und zeitlich flexibel. Auch räumlich weit entfernt liegende Teilnehmer können technisch kostengünstig zusammengeführt werden. Ebenso sind Vielbeschäftigte und ansonsten schwer erreichbare Teilnehmer einbindbar. • Die Anonymität, die durch physische Abwesenheit der Diskussionsteilnehmer sowie durch die Verwendung von Spitznamen (Nicknames) gegeben ist, wirkt sich in der Regel positiv auf den Diskussionsverlauf aus, da die Teilnehmer nicht mehr direkt angreifbar sind, wie dies bei der traditionellen Gruppendiskussion der Fall ist. • Online sind bestimmte Zielgruppen erreichbar, die mit konventionellen Marktforschungsmethoden nicht so leicht zu erfassen sind. Ein Extrembeispiel stellt die Befragung von Hackern oder Aktivisten dar. Gruppen wie diese fühlen sich durch diese Methode geschützt und geben somit Auskünfte, die sie sonst so nicht geben würden. • Effekte der sozialen Erwünschtheit sinken. Denn Teilnehmer geben durch die verfahrensbedingte Anonymität nicht mehr Antworten, von denen sie glauben, dass der Moderator oder andere sie hören wollen. Unterschiede hinsichtlich Erscheinungsbild und / oder sozialem Status der Teilnehmer werden nivelliert. Dies fördert eine offene und vorurteilsfreie Diskussion. • Durch Einspielen von Sounds, Bildern oder Filmen lassen sich internetbasierte Gruppendiskussionen spannend gestalten und können mehr Spaß machen als klassische Befragungsformen. Außerdem können Ergebnisse sofort dokumentiert und weitergeleitet werden.

4. Online-Befragung

237

• Die Teilnehmer können alle Beiträge durchschauen und reflektieren, damit ist eine gute Gruppendynamik erzielbar. Die Beiträge sind besser durchdacht und können im Zeitablauf korrigiert werden. Auch ausführliche Beiträge sind mög­ lich. • Die Teilnahmequote für einzelne Themen zeigt deren Relevanz aus Sicht der Teilnehmer an. Auch die Themenstrukturierung erfolgt eigenständig und indiziert die Relevanz. Insofern können daraus wichtige Schlussfolgerungen gezogen werden. • Die Meinungsbildung in der Gruppe wird durch Dokumentation nachvollziehbar. Dabei muss keine Protokollierung erfolgen, sondern die Entwicklung wird technisch dokumentiert. So kann ein Moderator sich voll auf die Gesprächsführung konzentrieren. • Eine hohe Motivation der Teilnehmer, durch Selbstselektion, ist vorauszusetzen, dadurch auch eine hohe Datenqualität. Dies zahlt sich besonders bei Special interest-Themen aus, für die allein die Rekrutierung von Präsenzteilnehmern schon schwierig ist. 4.3.3 Wesentliche Nachteile Dem stehen jedoch folgende Nachteile gegenüber: • Die Aussagefähigkeit von Online-Gruppendiskussionen hängt stark von der Erfahrung und der Qualifikation des Moderators ab. Hierfür ist ein größerer Zeitbedarf zur Einführung / Vorstellung und Übung der Teilnehmer einzurechnen. • Es ist zu befürchten, dass bei der Moderation von Online-Gruppendiskussionen Schwierigkeiten durch den nicht mehr vorhandenen persönlichen Kontakt zwischen Moderator und Interviewteilnehmern entstehen. Wichtige Erkenntnisse dazu liefern Erfahrungen mit Home office-Anwendungen. • Zwar lässt sich die Rekrutierung kontrollieren, doch weiß der Moderator nicht mit letzter Sicherheit, ob tatsächlich die Person teilnimmt, die sie vorgibt zu sein. Der Marktforscher kann außerdem nicht sicher sein, ob im Zeitablauf der Interaktion eine andere, zweite Person die erste ablöst, so dass Zuordnungsprobleme entstehen. • Gestik und Mimik als wichtige Ausdrucksmittel fehlen. Dadurch ist die Spontaneität und Individualität der Antworten beeinträchtigt. Als Indikatoren können aber verbale Signale wie Sprechgeschwindigkeit, Lautstärke, Tonhöhe etc. dienen. • Schwierigkeiten im Umgang mit der Tastatur wirken als Barrieren und führen damit zu unerwünschten Verzerrungen. Fehlende Medienkompetenz der Teilnehmer, vor allem in höheren Altersklassen, bei geringerer formaler Bildung, in unteren Einkommensklassen etc., kann so zu reduzierten und verzerrten Antworten führen.

238

Kap. IV: Online-Auswahl- und Erhebungsverfahren

• Es kommt zu weniger interpersoneller Kommunikation, da die Teilnehmer im Wesentlichen nebeneinander her kommunizieren und womöglich nur begrenzt interagieren. Insofern sind die wünschenswerten gruppendynamische Prozesse weniger ausgeprägt. • Die Asynchronität der Anlage, also entweder senden oder empfangen, kann die Durchführung beeinträchtigen. Dies gilt etwa in Bezug auf die Stabilität des Teilnehmerkreises, die Interaktionsrate zwischen den Teilnehmern und den Bezug der Beiträge. • Längst nicht alle Zielgruppen sind über Newsgroups erreichbar, im Gegenteil, die Mehrzahl der Zielgruppen bewegen sich außerhalb. Insofern ist die Effizienz schwierig einschätzbar. Monetäre Incentives sind dabei problematisch.

4.4 IRC-Befragung 4.4.1 Anlage Bei IRC-Befragungen können durch ein Chat-Programm zwei bis meist sechs Personen meist unter Pseudonym schriftlich von Computer zu Computer realtime über das Befragungsthema kommunizieren. Für die Befragung ist es sinnvoll, die Teilnehmer vorab zu selektieren und über Geschlossene Benutzergruppen vor Zugriffen Externer geschützt miteinander kommunizieren zu lassen. Ein Moderator kann die Diskussion stumm verfolgen und sich die Ergebnisse anzeigen lassen oder in einem Bildschirmfenster einzelnen Teilnehmern gezielte Nachrichten / Fragen direkt zukommen lassen (sog. Flüstern) und auch moderieren. Die Dauer beträgt meist zwei bis drei Stunden. Der Ablauf lässt sich in die Orientierungsphase zum gegenseitigen Kennenlernen, die eigentliche Meinungsaustauschphase und die Schlussphase zum Ausstieg einteilen. Der Zugang wird durch Password geschützt, es können mehrere, themenorientierte Kanäle eröffnet / unterhalten werden. Der IRC-Chat ähnelt marktforscherisch daher einer Expertenbefragung. Durch die alphanumerische Tastatureingabe sind die Antworten oft überlegter. Außerdem müssen die Teilnehmer während der gesamten Diskussion online bleiben. Je nach Browser werden nicht alle Beiträge immer sofort aktualisiert. Außerdem muss die Menüsprache des IRC-Client beherrscht werden, dies setzt die Kenntnis der IRC-Befehle voraus. Stimmungen sind durch die Angabe von Emoticons interpretierbar. Jedoch bestehen einige Anforderungen an geeignete Software. So muss die Möglichkeit zur Speicherung aller Beiträge mit Protokollfunktion bestehen. Eine differenzierte Rechtevergabe für Moderator und Teilnehmer ist erforderlich. Der Zugang für Beobachter (Lurker), die nicht aktiv am Chat teilnehmen, muss gegeben sein. Eine Flüstermöglichkeit zwischen Moderator und Teilnehmern muss verfügbar sein, nicht aber eine solche unter den Teilnehmern. Für verschiedene Themen

4. Online-Befragung

239

müssen separate „Räume“ eingerichtet werden können. In der Textablage muss man auf einen Leitfaden zugreifen können. Eine Upload-Funktion für Dateien / Bilder muss vorhanden sein, ebenso eine Einspielfunktion für multimediale Stimuli. Auch eine übersichtliche Bildschirmoberfläche ist wichtig. 4.4.2 Wesentliche Vorteile Vorteile einer IRC-Erhebung mit Einzelpersonen oder in Gruppen liegen in folgenden Aspekten: • Damit lassen sich vor allem technikaffine Personen zur Teilnahme an einer Erhebung gewinnen. Dies ist für viele Themen interessant. Zugleich gibt es jedoch große Zielgruppen und weite Themenbereiche, die dabei nicht abdeckbar sind. • Die Anonymität der Teilnahme bleibt im Gespräch / in der Diskussion gewahrt. Dadurch spielen soziale Erwünschtheit, Konsensbildungsdrang etc. eine geringere Rolle. Zugleich kann jedoch am Wahrheitsgehalt der so erfolgenden Statements gezweifelt werden. • Durch die Synchronität von Aktivität und Erfassung werden auch spontane Reaktionen ausgewiesen, die bei anderweitigen Befragungen häufig verloren gehen. Diese helfen bei der zutreffenden Interpretation von Äußerungen. • Es entstehen Zeit- und Kostenvorteile gegenüber herkömmlichen Erhebungen sowohl für den Veranstalter als auch für die Teilnehmer. Zu denken ist an ersparte Zeit und Wegekosten, an überflüssige schriftliche Dokumentationen, an Verbesserung des Carbon-Footprint etc. • Es liegt wenig gegenseitige Beeinflussung der Teilnehmer vor, so dass die Tendenz zu Offenheit und Auskunftsbereitschaft steigt. Die nur mediale Verbindung schafft einerseits gewünschte Distanz, bedeutet aber andererseits auch fehlende Nähe. • Die Interaktion findet in einer dem Probanden vertrauten Umgebung statt, er fühlt sich sicher. Ein weiteres Vertrauensverhältnis kann durch die Moderation aufgebaut werden. Je besser Teilnehmer sich im Gespräch fühlen, desto ertragreicher sind Erhebungen. • Auch sensible, stigmatisierte Themen lassen sich gut und offen diskutieren, da die Entfernung einen Schutzwall darstellt. Bei persönlichem Kontakt hingegen bestehen hier Hemmungen, ein Ausweg können in vielen Fällen geschlechtergetrennte Gesprächsrunden sein. • Es können beliebig viele unsichtbare Teilnehmer als Beobachter partizipieren, dies gilt etwa für Mitarbeiter des Auftraggebers der Erhebung. Diese nehmen indirekten Einfluss auf Inhalt und Ablauf der Erhebung. Verdeckte Teilnehmer des Auftraggebers können in der Runde sogar direkten Einfluss nehmen.

240

Kap. IV: Online-Auswahl- und Erhebungsverfahren

• Es können auch räumlich weit verteilte Teilnehmer, etwa grenzüberschreitend, partizipieren, dies ist ein generischer Vorteil von Online-Erhebungen. Gleichfalls ist eine schnelle Datenverfügbarkeit gegeben. Dies rationalisiert die Datensichtung und -auswertung. • Die Protokollierung des Gesprächs / der Diskussion erfolgt automatisch durch den Chat-Verlauf, so dass keine gesonderte Erfassung erforderlich ist. Durch Sichtung noch während der Befragung kann darauf zudem leicht Zugriff genommen werden. • Es kommt zu einer „Demokratisierung“ des Gesprächs / der Diskussion, also geringe Dominanz einzelner Teilnehmer und weniger Hierarchiebildung mit Meinungsführern, welche die Durchführung an sich reißen und andere subordinieren. 4.4.3 Wesentliche Nachteile Nachteile der IRC-Erhebung mit Einzelpersonen oder in Gruppen liegen in folgenden Aspekten: • Nonverbale Hinweise auf Auskunftselemente fehlen bei Text-Chats, dadurch wird die Verständlichkeit der Kommunikation erschwert. Und zwar nicht nur während der Erhebung, sondern auch im Nachhinein bei der Analyse der Ergebnisse. • Die Umgebungssituation der Befragten ist nicht kontrollierbar. So ist nicht bekannt, ob Dritte im Raum anwesend sind, ob die Teilnehmer während der Erhebung wechseln, ob sie fortlaufend anwesend sind, ob sie durch andere Tätigkeiten abgelenkt werden etc. Insofern bleibt die akzeptierte Zeitdauer der Erhebung begrenzt. • Ironie, Humor, Sarkasmus etc. können falsch verstanden werden, da es an Mimik und Gestik fehlt. Daher sind Emojis hilfreich. Sie ersetzen die fehlende Transaktionsebene der verschriftlichten Kommunikation und helfen bei einer zutreffenden Interpretation. • Bei zeitgleicher Eingabe mehrerer Antworten entstehen Probleme in der Zuordnung von Fragen und Antworten der einzelnen Teilnehmer. Dies erschwert das Transkribieren des Interaktionsverlaufs aus Frage und Antwort. • Die Lese- und Schreibgeschwindigkeit der Teilnehmer wirkt beeinflussend auf den Verlauf, möglicherweise entsteht auch eine Überforderung auf Seiten der Teilnehmer durch gleichzeitiges Lesen, Denken, Tippen etc. Dies hat negative Auswirkungen auf die Erhebungsqualität. • Die Interaktion der Teilnehmer bleibt begrenzt, es kommt zu weniger Gruppendynamik, weil keine physische Präsenz, keine nonverbale Kommunikation etc. besteht. Insofern ist es schwieriger, in tiefere Schichten des Gedankenaustauschs reflektierender Kommunikation vorzudringen.

4. Online-Befragung

241

• Die Teilnehmer müssen über ein Mindestmaß an Medienkompetenz verfügen, da dies Voraussetzung für eine planvolle Teilnahme ist. Dies ist nicht bei allen Zielgruppen vorauszusetzen, so dass der Einsatz in der Breite limitiert ist. • Die fehlende bzw. unsichere Teilnehmeridentifikation erschwert Auswertungen in Bezug auf die Zuordnung von Aussagen zu bestimmten Personengruppen. Dies ist aber gerade wichtig, um zu verwertbaren Ergebnissen zu gelangen.

4.5 Video-Befragung 4.5.1 Anlage Aufgrund fortgeschrittener Technik sind Online-Video-Befragungen verbreitet möglich und werden für die Marktforschung auch verstärkt genutzt. Dabei können zwei Arten unterschieden werden: • Beim Video-Call (auch Bildtelefonie, z. B. Line, Viber, ICQ, Spike) interagieren typischerweise zwei Personen in einer Point to point-Verbindung online in Frage und Antwort. Der Video-Call kombiniert dabei die Vorteile von Face to faceInterview und Telefoninterview, zugleich werden einige wesentliche Nachteile beider vermieden. Es handelt sich typischerweise um eine Einzelbefragung. • Bei der Video-Conference (auch Telemeeting, z. B. Zoom, MS Teams, Teamviewer, FaceTime, WeChat) interagiert eine Mehrzahl von Personen mit vermaschter Online-Verbindung unter Anleitung eines Moderators. Dies kombiniert die Vorteile von Gruppenbefragung und Newsgroup, zugleich werden einige wesentliche Nachteile vermieden. Es handelt sich typischerweise um eine Gruppen­ befragung. Die Interaktion erfolgt jeweils über Bewegtbild und Ton von festen oder mobilen Endgeräten. Die Übergänge zwischen bei den Anwendungen der IP-Telefonie sind jedoch fließend und gehen zunehmend zulasten der Mobiltelefonie. Für die Durchführung ist die Verfügbarkeit leistungsfähiger Technik, insb. in Bezug auf Ton und Licht, bedeutsam. Die Teilnehmer sollten sich in Räumlichkeiten ohne störende Hintergrundgeräusche bzw. mit schallschluckender Wandbekleidung aufhalten. Wichtig ist auch die Wahl einer geeigneten Kameraausrüstung, bei kurzem Kameraabstand mit Weitwinkelobjektiv, bei weitem Kameraabstand mit Zoomoptik. Die Kamera sollte auf Augenhöhe postiert und zentriert ausgerichtet werden. Das Mikrofon dient der Toneingabe, Lautsprecher / In ear-Kopfhörer dienen der Tonausgabe. Hierzu reichen die im PC integrierten Geräte oft nicht aus. Die Beleuchtung sollte ringförmig ausgelegt sein, um unerwünschte Lichtreflexe zu vermeiden. Die Einrichtung erfolgt durch Eintrag eines Interviewtermins. Dazu werden die Teilnehmer und deren Namen / E-Mail-Adressen vermerkt. Durch Senden werden die eingeladenen Teilnehmer benachrichtigt, durch Bestätigung der Teilnahme

242

Kap. IV: Online-Auswahl- und Erhebungsverfahren

entsteht der technische Kontakt. Das Bild der Teilnehmer ist groß auf dem Monitor zu sehen, das Bild des Interviewers klein in einer Ecke. Zwingend ist ein Test der Software vor deren Einsatz. Die Dauer des Interviews sollte 60 Minuten nicht überschreiten. Möglich sind das Teilen / Ü bersenden und Scannen von Dokumenten, der Austausch von Chats und die (automatisierte) Simultanübersetzung. 4.5.2 Wesentliche Vorteile Vorteile der Online-Video-Einzelbefragung (Video-Call) liegen vor allem in Folgendem: • Die Teilnahmebereitschaft ist wegen des geringeren Aufwands als höher einzuschätzen als bei anderen Formen der Online-Befragung. Die Auskunftspersonen sind mobil erreichbar oder im Zweifel in ihren eigenen vier Wänden. Das erhöht den Response. • Spontane Reaktionen der Teilnehmer können erfasst werden, und zwar über Mimik und eingeschränkt auch über Gestik. Diese helfen bei der Interpretation der Ergebnisse und sind in vielen Fällen aussagefähiger als das gesprochene Wort selbst. • Situative Einflüsse können zumindest ansatzweise erfasst und gesteuert werden. So können die verbalisierten Auskünfte in Grenzen um Eindrücke von der Auskunftsperson ergänzt werden (Kleidungsstil, Haartracht, Umgebung etc.). • Rückfragen zur Klärung sind unmittelbar möglich, sofern die Art der Befragung dies zulässt. Damit können beiderseitig Unklarheiten bereits im Vorfeld beseitigt werden. Dies dient der Verbesserung der Ergebnisqualität der Befragung. • Visuelle Hilfsmittel können problemlos eingesetzt werden. Dies betrifft sowohl Bild- als auch Textvorlagen, aber auch das Zeigen von Produktmustern, Anwendungen etc. Teilweise sind auch Dateiübertragungen (z. B. Fotos, Präsentationen) oder Textnachrichten bzw. E-Mails möglich. • Die Vertrauensbasis ist trotz medialen Kontakts wegen der persönlichen Präsenz (Face to face) vergleichsweise hoch ausgelegt. Dies erhöht die Chance auf aussagefähige Auskünfte, indem die Anonymität der Teilnehmer ein Stück weit zurückgenommen wird. • Die Beantwortungszeit von Fragen kann erfasst und damit auch ausgewertet werden. Sie gilt etwa als Indikator für die Überzeugtheit der Auskunftsperson in Bezug auf einen Erhebungsgegenstand. Je kürzer die Antwortzeit, desto bestimmter die Überzeugung. • Es entstehen keine Wegekosten und Zeitverluste für Fehlversuche der Kontaktaufnahme. Diese können vielmehr bei Bedarf und individuell leicht und standortneutral wiederholt werden. Dies erleichtert die Rekrutierung von Teilnehmern.

4. Online-Befragung

243

• Die Protokollierung ist durch Mitschnitt in Bild und Ton vollumfänglich verfügbar. Dadurch wird der Interviewer in der Gesprächsführung entlastet, und es entsteht keine Irritation bei der Auskunftsperson. • Durch die Erhebungsrationalisierung sind Befragungsprojekte schneller durchführbar und damit aktueller in ihren Ergebnissen. Dies ist insb. bei zeitkritischen Projekten, wie sie im Wirtschaftsalltag dominieren, von hoher Bedeutung. • Zusätzliche Informationen, etwa zum Standort, sind, wenn nicht nutzerseitig im Browser deaktiviert, verfügbar und können ausgewertet werden. Dies erlaubt spezifische Auswertungen und hilft bei der Interpretation von Aussagen. Vorteile der Online-Video-Gruppenbefragung (Video-Conference) liegen vor allem in folgendem: • Eine Erhebung ist raumunabhängig überall, auch international, möglich. ­Dadurch entfallen Reisekosten und Fahrtzeiten sowie damit verbundene ökologische Belastungen. Zugleich erleichtert dies auch die Rekrutierung der Teilnehmer. • Eine Erhebung ist jederzeit auch kurzfristig möglich (24/7), unabhängig von langen Planungen und kann auch beliebig wiederholt oder verlängert werden. So können auch aktuelle Entwicklungen bei schon länger zurückliegender, sonstiger Erhebung berücksichtigt werden. • Die Erhebungssituation ist multimedial unterstützt durch Bewegtbildübertragung und Ton. Dies erlaubt die Verfolgung der Mimik der Teilnehmer und eingeschränkt auch deren Gestik als wichtige Parameter der Körpersprache. • Es ist im Regelfall kein Extra-Equipment erforderlich, die übliche Büro-/Home office-Ausstattung reicht dazu völlig aus. Vor allem ist keine Tastatur zur Teilnahme wichtig wie ansonsten bei verschriftlichten Formen der Online-Befragung. • Ein Gesprächsprotokoll ist durch Mitschnitt ohne zusätzlichen Aufwand realisierbar. Dies entlastet die Gesprächsführung und lenkt den Moderator und damit auch die Teilnehmer nicht weiter ab. Volle Konzentration auf die Gesprächsthematik ist möglich. • Die Einbindung von Bewegt- oder Standbildvorlagen zur Stützung ist im Gespräch jederzeit möglich. Dies schließt auch Handhabungen etc. mit ein. Dies erhöht die Aussagekraft erheblich und erweitert auch den Einsatzbereich des Verfahrens. • Die Durchführung ist kostengünstig bzw. gratis sowohl in der Anschaffung als auch im Unterhalt. Daher ist von einer raschen Verbreitung im Feld auszugehen und damit von einem verbesserten Zugriff auf potenzielle Teilnehmer. • Die Reaktionen der Teilnehmer sind unmittelbar beobachtbar. Dies betrifft die Adaptation von Argumenten ebenso wie das ungefilterte Hören der Zielgruppensprache. Damit entfällt ein wichtiger Bias bereits bei der Erhebung.

244

Kap. IV: Online-Auswahl- und Erhebungsverfahren

• Im Regelfall muss sich nur der Initiator der Videokonferenz, also der Marktforscher, registrieren und lädt dann über einen Konferenz-Link die weiteren Teilnehmer ein. Insofern entstehen für diese nur geringe Hürden zum Einstieg in das Gespräch. 4.5.3 Wesentliche Nachteile Nachteile der Online-Video-Befragung als Video-Call liegen vor allem in Folgendem: • Der Zugriff auf Video-Call-Hardware und -Software ist zwingend Voraussetzung für jede Teilnahme. Dies engt den Teilnehmerkreis jedoch erheblich sein, so dass marktforscherisch interessante Zielgruppen dabei ausgeschlossen sein können. • Die Identität des Gesprächspartners ist schwierig zweifelsfrei nachprüfbar. Legitimationen, etwa durch Ausweiskontrolle, wirken in Gesprächen häufig befremdlich, da Teilnehmer dies als Misstrauen empfinden oder andere zwecke dahinter vermuten können. • Interviewer müssen fachkundig auf diese Erhebungsform geschult werden, da ihr Verzerrungspotenzial durch die mediale Präsenz, also Aussehen, Alter, Kleidung, Umgebung etc., größer ist als etwa bei telefonischen Erhebungsformen. • Die Stichprobenausschöpfung ist im Regelfall geringer, da nur ein mehr oder minder großer Anteil der Zielpersonen über die technischen Voraussetzungen verfügt (mobiles / stationäres Endgerät, App, Bedienung etc.). Darunter leidet auch die Repräsentanz. • Die Bereitschaft zur unbefangenen Beantwortung sensibler Fragen sinkt durch die fehlende Anonymität. So kann auch die Antwortverweigerungsrate steigen. Daher kann für sensible Phasen die Bildübertragung ausgeschaltet werden. • Eine eindeutige Legitimation des Interviewers ist letztlich nicht möglich. Dies schürt Misstrauen bei Auskunftspersonen und vermindert die Teilnahmebereitschaft vor allem bei sicherheitsbewussten Personen oder solchen, die bereits schlechte Erfahrungen mit Online-Interaktionen gemacht haben. • Die Auswahlbasis für Mobiltelefon-Anschlüsse ist nicht vollständig erfassbar und auch nicht aktuell. Insofern liegt keine abgrenzbare Grundgesamtheit vor, aus der eine wie auch immer berechenbare statistische Aussage berechenbar wäre. • Es kann typischerweise nur eine Person zur Zeit interviewt werden. Dies birgt zeitliche Limitationen in der Anzahl der Interviews. Insofern ist dieses Verfahren tendenziell eher für kleine Zielgruppen und qualitative Erhebungen geeignet. • Die Teilnehmer müssen im Regelfall im zugrunde gelegten Videotelefoniedienst angemeldet sein. Zur Kontoeinrichtung sind teilweise persönliche Daten zu hinterlegen, dies entfällt nur bei Browser-Nutzung der Video-Call-Software.

4. Online-Befragung

245

• Angerufene können die Annahme des Anrufs verweigern, etwa wenn der Absender ihnen unbekannt ist, dies erschwert die Kontaktaufnahme seitens des Marktforschers und führt damit zu Stichprobenausfällen, die wiederum verzerrend wirken. Nachteile der Online-Video-Befragung als Video-Conference liegen vor allem in Folgendem: • Die erforderliche Technik ist noch auf weitreichende Zeit nicht ohne Weiteres als verfügbar vorauszusetzen, sondern bleibt auf spezifische Zielgruppen begrenzt. Dies engt die praktische Einsetzbarkeit der Video-Conference in erheblichem Maße ein. • Das Verfahren ist, selbst wenn Zugang zur Technik besteht, nicht für jedermann selbsterklärend, so dass Implementierungshürden bestehen, die den Teilnehmerkreis beschränken, etwa auf Berufstätige, Jüngere, besser Ausgebildete etc. • Ein medialer Kontakt ersetzt nicht den Face to face-Kontakt, vor allem mangelt es am Entstehen einer Gruppendynamik wie sie ansonsten in der interpersonalen Kommunikation gegeben ist. Man kennt diese Einschränkung zur Genüge aus der beruflichen Sphäre. • Der Interaktionsgrad der Teilnehmer bleibt geringer, die Kommunikation erfolgt nicht parallel miteinander, sondern tatsächlich sukzessiv nebeneinander. Dadurch wird meist weniger Gesprächstiefe erreicht als bei physischer Präsenz der Teilnehmer. • Je nach verwendeter Software besteht eine mehr oder minder große Datenschutzproblematik, was bei vertraulich zu behandelnden Projekten, etwa im B-t-bBereich, durchaus von Bedeutung ist. Leitungen und Programme sind selten abhörsicher. • Das Gespräch erfordert eine geschulte Moderation und vereinbarte Spielregeln, damit es funktional verlaufen kann. Schon ein Teilnehmer kann beabsichtigt oder unbeabsichtigt Unruhe in die Gruppe bringen, auch indem er unbewusst gegen Durchführungsregeln verstößt. • Die Relevanz, Repräsentativität und Vergleichbarkeit der Eindrücke aus der Online-Video-Befragung sind schwer einschätzbar. Sie ersetzen keine eigene Recherche, sondern bleiben kasuistisch, wenngleich ihnen häufig eine hohe Eindrucksqualität zukommt. • Meinungsführer können das Gespräch dominieren und damit verzerren. Diese gilt es daher, höflich aber bestimmt einzugrenzen. Dies ist im virtuellen Raum wegen der, teilweise behaupteten, geringeren Sensibilität allerdings schwieriger als bei realem Kontakt. • Eine andere Ansicht ist, dass Effekte der sozialen Erwünschtheit durchschlagen, da ein Auditorium aus mehreren Personen einbezogen ist, so dass die Bereitschaft

246

Kap. IV: Online-Auswahl- und Erhebungsverfahren

zur Abgabe auch sensibler Auskünfte sinkt. Dies verringert die Aussagefähigkeit dieser Erhebungsform. • Die Identität der Teilnehmer lässt sich nur schwer zweifelsfrei klären. Umständliche Identitätsprüfungen wirken in diesem Zuge irritierend. Damit aber ist nicht auszuschließen, dass die teilnehmende Person einen ganz anderen Background aufweist als sie vorgibt. • Die Videokonferenzanbieter finanzieren sich für gewöhnlich aus dem Sammeln von Veranstaltungsdaten und deren Weiterverkauf an interessierte Dritte. Wenn das nicht gewünscht ist, entsteht ein Problem hinsichtlich der Einsetzbarkeit dieser Technik.

5. Online-Beobachtung Wie bei der Offline-Erhebung ist auch bei der Online-Erhebung die Beobachtung vorzufinden. Dabei handelt es sich vor allem um die Panel-Beobachtung, die Blog-Beobachtung und die themenorientierte Beobachtung. Die Beobachtung kann teilnehmend sein, d. h. der Beobachter interagiert in der Beobachtungssituation, oder nicht-teilnehmend, d. h., der Beobachter greift in die vorzufindende Situation nicht ein. Ersteres erlaubt zwar eine bessere Steuerung, birgt zugleich aber auch eine Verzerrungsgefahr, et vice versa. Eine Teilnahme selbst ist bei OnlineErhebung einfacher zu realisieren als offline. Gegenstand der Beobachtung sind Soziale Medien wie Weblogs oder Microblogs. Fraglich ist, inwieweit Teilnehmer über die Beobachtung in Kenntnis gesetzt werden. Dies kann das Verhalten verzerren, ohne Inkenntnissetzung bestehen aber ethische Bedenken der Manipulation, rechtliche Bedenken treten hingegen bei offenen Kanälen nicht ein, sofern kein Gesetzesverstoß vorliegt. Bei geschlossenen Kanälen stellen sich die Probleme der Stich­probenabgrenzung und der Teilnehmerrekrutierung. Viele Teilnehmer neigen zudem zu Dominanzäußerungen, andere schweifen progressiv vom Thema ab, die Teilnehmergröße und -struktur schwankt und die Identität der Teilnehmer ist unklar. Insofern gibt es tatsächlich wichtige methodische Probleme, welche die Aussagefähigkeit der Online-Beobachtung erheblich einschränken.

5.1 Web-Panel-Beobachtung Die Panel-Beobachtung ist eine direkte Kohorten-Erhebung. Dazu ist eine genaue Definition der Grundgesamtheit, über die Aussagen getroffen werden sollen, erforderlich. Daraus wird dann eine repräsentative Stichprobe gezogen und im Zeitablauf beobachtet. Die Teilnehmer lassen sich registrieren und erhalten ein Kennwort zur Erhebung, dies kann eine tatsächliche Verhaltensbeobachtung oder die Beobachtung der Veränderung von Befragungsergebnissen sein. Damit der Teilnehmerkreis möglichst unverändert bleibt, also eine geringe Panelsterblichkeit entsteht, werden regelmäßige finanzielle und / oder ideelle Anreize geboten, z. B. in Form von Sammelpunktsystemen. Auf der Website sind allgemeine Informationen, das Registrierungsformular für Neuanmeldungen und ein password-geschützter Raum für die eigentliche Erhebung aufrufbar. Dazu bedarf es seitens des Veranstalters eines leistungsfähigen Web-Server mit Datenbankanbindung. Die Teilnehmer werden aufgefordert, neben ihren Eingaben auch regelmäßig ihre Stammdaten zu aktualisieren. Bei nicht-beachteten Untersuchungseinladungen (Non response) kann eine Online-Nachfass-

248

Kap. IV: Online-Auswahl- und Erhebungsverfahren

aktion durchgeführt werden. Denkbar ist auch die Aufnahme von Offline-Kontaktversuchen zum Nachfass oder zur Identitätskontrolle. Wegen der unvermeidlichen Mortalität ist eine kontinuierliche Panelpflege erforderlich. Vorteile des Online-Panels sind vor allem folgende: • Relevante Fragestellungen lassen sich zügig auf Basis auch sehr hoher Teilnehmer­ zahlen untersuchen. Dies rationalisiert die Erhebung und bietet gegenüber traditionellen Panel-Erhebungen einen hohen Vorteil, indem eine breitete Aussagebasis möglich ist. • Aus einer bestehenden Panelstichprobe können spezielle Unterstichproben gezogen werden, die dem jeweiligen Untersuchungsgegenstand entsprechen. Dies setzt allerdings genügend große Fallzahlen in einer Unterstichprobe voraus. Dabei entstehen vergleichsweise geringe Streuverluste durch gezielte Adressierung. • Die Responsequote kann exakt bestimmt werden, da der Stichprobenumfang, im Unterschied zu Online-Befragungen, bekannt ist. Dies ist wichtig, da systematische Unterschiede zwischen partizipierenden und nicht-partizipierenden Teilnehmern anzunehmen sind, vom Rücklauf also nicht ohne Weiteres auf größere Aggregate geschlossen werden kann. • Die Teilnahmebereitschaft der Panelteilnehmer ist zumeist höher als bei Studien mit jeweiliger Neurekrutierung der Auskunftseinheiten. Gründe können das Interesse am Untersuchungsthema, die Wichtigkeit der eigenen Meinung etc. sein. • Online-Panels sind kostengünstiger durchführbar als traditionelle (Offline-)Panels. Zudem unterliegen sie keinerlei räumlicher Begrenzung. Insofern bieten sie systemische Vorteile, die über die reine Kostenersparnis hinausgehen. • Es sind wenig Antwortausfälle und geringe Abbruchraten gegeben. Insofern ist die Effizienz von Online-Panels als vergleichsweise hoch einzuschätzen. Dies ist bei allen methodischen Nachteilen ein wichtiger pragmatischer Vorteil. Dem stehen jedoch folgende Nachteile gegenüber: • Die erstmalige Einrichtung eines Panels ist sehr kostenaufwändig, unabhängig davon, ob ein Unternehmen sie selbst organisiert oder diese Aktivitäten outsourct. Unzulänglichkeiten dabei wirken sich dann im gesamten weiteren Untersuchungsverlauf beeinträchtigend aus. • Panellisten möglicher Teilnehmer im Untersuchungsprojekt müssen verfügbar sein, wobei die Datenqualität mehr oder minder stark schwankt. Insofern determiniert der Input der Teilnehmer den Output der Ergebnisse (Garbage in – garbage out). • Die Repräsentativität des Panels ist fraglich und nimmt im Zeitablauf für gewöhnlich stetig ab, da ausgetauschte Einheiten in der Regel zulasten der Stichprobenneutralität gehen. Das heißt, die gegebene Struktur der Teilnehmer weicht tendenziell von der wünschenswerten ab.

5. Online-Beobachtung

249

• Konsistenz und Sorgfalt der Teilnehmer bei der Bearbeitung des Erhebungsanliegens sind, vor allem im Zeitablauf, fraglich. So ist von sinkendem Engagement, weniger Sorgfalt, geringerer Pünktlichkeit, nachlassender Genauigkeit der Meldungen auszugehen. • Trotz allem entstehen absolut hohe Rekrutierungskosten, so dass sich OnlinePanels oft nur für große Marketers oder in horizontaler Kooperation darstellen lassen. Teilweise generieren auch Marktforschungsinstitute eigenständige Online-Panels, deren Datenverkauf den Unterhalt finanziert.

5.2 Blog-Beobachtung Eine weitere Form der Beobachtung ist die von Weblogs (auch Blogs). Ein Blog ist eine regelmäßig aktualisierte Website, auf der ein Autor (Blogger) persönliche Sichtweisen, Erlebnisse und Informationen in chronologisch absteigender Folge veröffentlicht. Die Führung eines Blogs erfordert keine HTML-Kenntnisse, ist kostenlos, inhaltlich nicht begrenzt, frei zugänglich und dialogisch ausgelegt. Der Blogger verfolgt zumeist das Ziel, dass seine Einträge, die Blogposts, von möglichst vielen anderen gesehen und konstruktiv kommentiert werden. Dazu findet eine starke, globale Vernetzung in der Blogosphäre statt. Dadurch können Dialoge entstehen, die Gedanken, Lob, Kritik etc. enthalten. Blogs weisen kurze Texte, hohe Aktualität und schnelle Verbreitung auf. Diese Verbreitung erfolgt durch Linksammlungen in Blogs, die Blogroll, Permalinks als statische URLs für bestimmte Blog-Inhalte, Trackbacks für automatische Verweise zu anderen Blogs und RSSFeeds als Benachrichtungsdienste von anderen Blogs. Da Blogs die Persönlichkeit ihrer Autoren widerspiegeln, gelten sie als in hohem Maße authentisch. Das macht sie zur Beobachtung im Rahmen der Marktforschung besonders geeignet, etwa für die Inhaltsinterpretation (Content-Analyse). Vorteile der Blog-Beobachtung sind vor allem folgende: • Die Erfassung persönlicher Motive und Einstellungen der Autoren und Kommentatoren im Blog ist möglich, ohne diese speziell erfragen oder interpretieren zu müssen. Insofern besteht eine unkomplizierte Zugänglichkeit zu diesen Inhalten. • Anhand der chronologischen Einträge kann die Entwicklung von Meinungen im Feld der untersuchten Beobachtungseinheiten detailliert verfolgt werden. Die Ergebnisse sind intersubjektiv nachprüfbar, auch als Zeitreihenanalysen, weil sie durch die Blogeinträge dokumentiert und abrufbar sind. • Die Aussagefähigkeit der auszuwertenden Inhalte steigt durch verbreitete Anreicherung mit Bildern, Videos, Tondateien etc. in den Blogs. Dies veranschaulicht Inhalte plastisch und macht sie damit extern besser nachvollziehbar. • Über Kommentare kann auf die aktuelle Entwicklung eingewirkt werden. Allerdings entsteht dabei die Gefahr der Manipulation der Erhebungssituation. Zu-

250

Kap. IV: Online-Auswahl- und Erhebungsverfahren

gleich wird das Ergebnis verzerrt, da nicht feststellbar ist, wie die Entwicklung ohne diesen Eingriff verlaufen wäre. • Die Ergebnisauswertung ist begleitend zur Erhebung möglich. Dazu dient eine automatisierte Quellenaufnahme durch Zeichenerkennungssysteme für Text, Bild, Sprache etc. Insofern sind zeitnahe Auswertungen in Bezug auf das Untersuchungsziel möglich. • Ein teilautomatisiertes Suchen und Vercoden, Sammeln und Verknüpfen von Textstellen ist möglich, sofern dies zumindest stichprobenartig manuell kontrolliert wird. Dies erleichtert die Erfassung der Inhalte und rationalisiert die Erhebung ungemein. • Es handelt sich im Original um authentisches Material, keine Forschungs-Artefakte, die Interpretationen und Vorurteilen der Forscher folgen. Das heißt, die Blogeinträge sind nicht Ergebnis marktforscherischer Aktivitäten, sondern entstehen autonom. • Die verbreitete Anonymität der Nachrichten und auch der Kommentare führt zu mehr Offenheit in den Stellungnahmen. Zugleich treten diese prägnanter hervor. Daher sind bei der Interpretation entsprechend Abstriche erforderlich. Dem stehen folgende Nachteile gegenüber: • Die Selbstdarstellung der Autoren kann Überhand nehmen. Dies entspricht einem weit verbreiteten Trend zu Narzismus bei den Akteuren. Daher gilt es, die Inhalte für eine Interpretation zu relativieren und in ein Bezugssystem zu setzen. • Spontaneität und Ausführlichkeit leiden durch die Umsetzungsform als Texte. Insofern kommt es wohl unvermeidlich zu kognitiven Verzerrungen, da Denkprozesse zunächst bewusst verschriftlicht werden müssen, statt sie verbal ausdrücken zu können. • Bei längerer Führung eines Blogs nimmt die Routine Überhand, auch besteht die Gefahr des Abbruchs des Blogs bzw. der Abwanderung der Kommentatoren zu anderen Schauplätzen. Damit verliert der Blog an Relevanz und sein Stellenwert sinkt. • Es besteht Ungewissheit über die Identität der Eintragenden, so etwa in Bezug auf sozio-demografische, psychologische und soziologische Merkmale. Daher ist eine aufschlussreiche Zuordnung unmöglich, was die Aussagefähigkeit erheblich mindert. • Es besteht die Gefahr, dass Implizites und Nicht-Erwähntes in der Erfassung untergeht, viele Informationen sind zudem nur kontextabhängig aussagefähig. Zu denken ist an Szene-Sprache und -Attitüde, die sich Außenstehenden nicht ohne Weiteres erschließen. • Die Blog-Teilnehmer können nur einen mehr oder minder kleinen Ausschnitt aus der gesellschaftlichen Wirklichkeit darstellen. Und diese dürfte untypisch

5. Online-Beobachtung

251

für weite Teile der Bevölkerung sein, so dass nur der Rückschluss auf spezielle Segmente möglich ist. • Es kommt rasch zu einer Überflutung mit Informationen infolge enger PostingFrequenz, die zumindest manuell nicht adäquat zu verarbeiten sind. Dies gilt vor allem für Spitzenzeiten der Kommunikation infolge gegebener Anlässe. • Die Grundgesamtheit der Internetquellen ist ungewiss, damit ist auch die Stichprobenziehung fragwürdig und damit auch deren Repräsentativität. Es handelt sich also um eine rein qualitative Anlage der Untersuchung, was ihren prognostischen Wert einschränkt. • Online-Quellen sind flüchtig und müssen daher archiviert werden, da immer mit Löschungen von Eintragungen gerechnet werden muss und dann die Dokumentierung scheitert. Entsprechende Speicherkapazitäten und -automatismen sind daher vorzuhalten.

5.3 Themenorientierte Beobachtung Bei der themenorientierten Online-Beobachtung handelt es sich um eine empirische Methode zur systematischen, intersubjektiv nachvollziehbaren Erfassung inhaltlicher und formaler Merkmale von Online-Mitteilungen. Durch Inhaltsanalyse sollen Interpretationen auch mitteilungsexterner Sachverhalte erfolgen. Diese werden häufig vor und nach Eintreten relevanter Ereignisse vorgenommen. Die Beobachtung bezieht sich hier auf Online-Medien, deren Auswertung durch die Dynamik der Inhalte, die Multimedialität der Darstellung, die Verlinkung innerhalb und außerhalb der Website, die Interaktion innerhalb und außerhalb des Kanals etc. erschwert wird. Die Beobachtung kann sich auf die Medieninhalte und / oder die Nutzersituation beziehen. Ziel sind generalisierende Aussagen über relevante Positionen, mediale Quellen, zeitlichen Wandel und soziokulturelle Zusammenhänge sozialer Phänomene. Denkbar sind eine passive oder aktive Auslegung. Bei ersterer erfolgt nur eine Beobachtung, bei letzterer unternimmt der Marktforscher Ansätze zur näheren Eruierung der Mitteilungsinhalte. Vorteile sind dabei vor allem folgende: • Auf Wunsch ist eine einfache Teilnahme für den Forscher über die Registrierung möglich. Dabei muss entschieden werden, ob der Beobachter sich als Marktforschungsinteressent zu erkennen gibt oder für andere verdeckt als Teilnehmer interagiert. • Die lediglich virtuelle Präsenz des Marktforschers vermeidet die, auch unbewusste, Beeinflussung der beobachteten Situation, im Gegensatz zu einer realen Präsenz. Insofern führt sie auch zu keiner daraus bedingten Verzerrung. • Die Anonymität erlaubt im Falle aktiver Auslegung das unerkannte Austesten von Möglichkeiten. Dabei muss zwischen Steuerung und Manipulation unterschie-

252

Kap. IV: Online-Auswahl- und Erhebungsverfahren

den werden, erstere ist im Sinne des Forschungsprojekts durchaus erwünscht, letztere ist unbedingt zu vermeiden. • Bei der Interpretation ist immer fraglich, ob „versteckte“ Signale nur als solche gedeutet werden oder tatsächlich so gedacht sind. Insofern ist die ausschließlich semantische Beurteilung anfällig für Verzerrungen aus dem Kontext, dem Absenderhinweis oder der Kohorte. • Die generischen Kosten- und Zeitvorteile von Online-Beobachtungen entstehen aus den spezifischen Beobachtungsbedingungen, zumal hier das Internet als Forschungsgegenstand und nicht nur als Forschungsmittel eingesetzt wird. • Es werden medienaffine Zielgruppen, vor allem in unteren Altersklassen, einbezogen, die im realen Umfeld nur begrenzt erfasst werden können. Diese stellen zwar nur eine geringe Anzahl von Fällen dar, gelten jedoch traditionell in der Markt­forschung als wichtig, um zukünftige Entwicklungen zu antizipieren. • Bei passiver Beobachtung ist ungefilterte Meinungsäußerung erfassbar, zumal sich die Teilnehmer im Schatten der (vermeintlichen) Anonymität weniger Selbstbeschränkungen auferlegen als ansonsten üblich. Dem stehen folgende Nachteile gegenüber: • Es entsteht eine ethische Problematik durch Instrumentalisierung der Teilnehmer, sofern die Beobachtung verdeckt erfolgt. Auch rechtlich ist es sicherer, die Teilnehmer im Nachhinein um Genehmigung der Verwendung der Erhebungsergebnisse zu bitten. • Rückschlüsse von beobachtetem virtuellen Verhalten auf reales Verhalten sind nur begrenzt möglich. Zum Glück ist vieles, was im Internet stattfindet, nicht auf die Realität übertragbar. Insofern stellt sich die Frage der Relevanz dort gewonnener Erkenntnisse für die Marktrealität. • Es besteht häufig keine Möglichkeit zur Überprüfung der Identität der beobach­ teten Personen. Daher können nur Vermutungen über den Zusammenhang zwischen der Beobachtung und soziodemografischen sowie erst recht anderen qualitativen Merkmalen gezogen werden. • Eine automatische Dechiffrierung ist schwierig. Dies erhöht den administrativen Aufwand, da Inhalte im Einzelfall gedeutet und bewertet werden müssen. Bei der immensen Kommunikationsdichte im Internet entsteht daraus ein profundes Erfassungsproblem. • Zur manuellen Auswertung müssen die Inhalte transkribiert werden. Dies ist fehleranfällig durch subjektive Verzerrungen, unbewusste Auslassungen, unnötige Gewichtungen etc. und erschwert die Erlangung belastbarer Ergebnisse. • Generisch sind Meinungsäußerungen von Nicht- oder Selten-Onlinern nicht bzw. schwer auswertbar. Dabei ist immer noch vor allem an ältere Personen zu den-

5. Online-Beobachtung

253

ken, die sowohl kopfzahl- als auch kaufkraftmäßig in fast allen Märkten in der Überzahl sind. • Bei passiver Beobachtung bestehen Bedenken hinsichtlich des Datenschutzes, da Aussagen professionell ausgewertet werden, von denen die Urheber nicht wissen, dass es diese Auswertung überhaupt gibt, von wem sie ggf. vorgenommen wird und welchem Zweck sie dient.

6. Online-Experiment Wie jedes Experiment ist auch das Online-Experiment eine wiederholbare, unter kontrollierten, vorher festgelegten Umfeldbedingungen durchgeführte Versuchsanordnung. Online-Experimente als Zweck beziehen sich zumeist auf die Nutzung von Webseiten und -diensten und die Wirkung der verschiedenen Gestaltungselemente, vor allem von Displaywerbung. Im Internet können dazu pragmatisch rasch und kostengünstig auch große Stichproben generiert werden. Verbreitet werden dabei, auch von den großen Internet-Playern, zwei oder mehr Versionen einer Webseite simultan oder sukzessiv ins Netz gestellt, um z. B. zu eruieren, welche davon die meisten Konversionen erzielen, also Klicks, Anmeldungen, Aufrufe etc. Dies entspricht einem Trial & error-Vorgehen, methodisch sind daher Vorbehalte angebracht. So fehlt es etwa an der Explizierung von Ausgangshypothesen und eindeutigen Anforderungen an die Signifikanz von Ergebnissen bzw. das zu testende Signifikanzniveau. Online-Experimente als Mittel beziehen sich auf die Durchführung von realen Experimenten. Das Internet dient dabei als Kommunikationsweg anstelle mündlicher oder schriftlicher Wege. Dadurch kann die Abwicklung vereinfacht und beschleunigt werden. Gegen dieses pragmatische Argument stehen wiederum nennenswerte methodische Bedenken. Viele Teilnahmeverweigerungen und hohe Abbrecherquoten führen dazu, dass die Experimentalsituation letztlich wenig belastbar ist. Dies bezieht sich sowohl auf die Probandenauswahl wie auch auf das Design solcher Experimente. Davon ausgenommen sind besonders internet-affine Zielgruppen, die dann aber noch für geraume Zeit nur für einen Ausschnitt der Marktwirklichkeit stehen. Beim WWW-Experiment führt eine Versuchsperson am eigenen PC das Experiment über die grafische Nutzeroberfläche des Web-Browser aus, indem sie Kontakt zum zentralen Labor-Computer aufnimmt und unterhält. Dabei werden alle Mausklicks, Zeigerbewegungen, Audio- und Videosignale, Texteingaben oder Dokumentenabfragen vom Web-Server ebenso aufgezeichnet wie Antwortzeiten, Adresse / Standort des Nutzers oder Art des verwendeten Web-Browser. Als Grundvoraussetzungen für den Erfolg eines WWW-Experiments sind die Angabe des Veranstalters, der Forschungszweck und Hinweise auf die zu erwartende Bearbeitungszeit zu nennen. Hinzu kommen das Angebot von Incentives und eine attraktive Gestaltung der Experimentalmaterialien. Um die Ladezeiten zu minimieren, werden zunächst die mächtigen Dateien übersandt und danach die weniger mächtigen, also zuerst die Web-Labor-Seite, dann die allgemeinen Instruktionen,

6. Online-Experiment

255

danach die experimentspezifische Instruktion und dann erst die eigentlichen Experimentalmaterialien. Um Teilnehmer zu selektieren, kann ein Abgleich zwischen E-Mail- und IP-Adresse vorgenommen werden. Außerdem können erforderliche Funktionalitäten erst auf Anforderung zur Bearbeitung bereitgestellt werden. In Communities ist diese Form durch Bulletin board-Experiment möglich. Dazu ist eine Registrierung als Mitglied, teilweise auch eine Akzeptierung der Anmeldung, erforderlich, zumindest um den vollen Funktionsumfang der Community zu nutzen. Die Teilnehmer melden sich unter Pseudonym an, so dass eine Verifizierung unmöglich ist. Insofern ist eine Rekrutierung nur bei uneinschränkter Zufallsauswahl bzw. Zufallsaufwahl innerhalb der gesamten Online-Nutzerschaft überhaupt sinnvoll. Beim Newsgroup-Experiment (Usenet / nntp) ist eine aktive Variation der Experimentalbedingungen durch den Marktforscher oder die passive Auswertung gegebener Bedingungen möglich. Ersteres kann etwa durch Einstellung eines positiven, alternativ dazu eines negativen Artikels zu einem Produkt / einer Marke / einem Unternehmen erfolgen, indem die jeweiligen Reaktionen der Teilnehmer darauf ausgewertet werden. Letzteres erfolgt durch Auswertung der Reaktionen auf anderweitig veröffentlichte Artikel in der Newsgroup. Von Vorteil sind der Verzicht auf geografische Eingrenzungen und der kurze Erhebungszeitraum. Es erfolgt eine automatische Datenspeicherung. Die Erhebung auch non-reaktiver Daten ist möglich, ebenso wie die Einbindung von Multimedia-Modalitäten. Generisch entstehen Kosten- und Zeitvorteile gegenüber traditionellen Experimenten. Zudem ist eine internationale Abdeckung, wenn gewünscht, leicht möglich. Lese- und Schreibfunktionen werden vom Newsreader bereitgestellt. Von Nachteil sind die hohe Verweigerungsquote und die Selbstselektion der Teilnehmer. Dadurch bleibt die Repräsentanz fraglich. Dies ist allein schon dadurch gegeben, dass die Abgrenzung der Grundgesamtheit meist unklar ist. Außerdem können Störfaktoren einwirken wie Diskussionen in der Gruppe über Erhebungsabsichten und -inhalte. Generisch besteht eine Überrepräsentanz online-affiner Zielgruppen, so dass auch nur für diese Aussagen möglich sind. Die Aufmerksamkeitsspanne ist verkürzt, auch der Umfang ist begrenzt, da die Zeilenanzahl ausgewiesen wird (je höher, desto unwahrscheinlicher ist eine Teilnahme). Die Beliebtheit von Online-Experimenten kommt also durch eine Abwägung von pragmatischen Erleichterungen in der Versuchsumsetzung einerseits und strukturell fundierten Problemen in der Versuchsanordnung andererseits zustande. In der Praxis überwiegen augenscheinlich erstere. So ist es nicht verwunderlich, dass die Aussagefähigkeit solcher Experimente vermutlich gering ist.

7. Social Media-Monitoring Ein immer größerer Teil der Internet-Aktivität verlagert sich in das Web 2.0 (Social Media). Motive sind z. B. sozialer Kontakt in Social Networks, Mitteilungsdrang, z. B. Bewertungsportale, oder Eskapismus, z. B. Metaversum. Das Web 2.0 ist durch Aspekte wie Nutzbarmachung kollektiver Intelligenz, nutzergenerierte Inhalte und Werte, Abschaffung des Software-Lebenszyklus, leichtgewichtige Programmiermodule, Verkettung von Endgeräten und Nutzerführung gekennzeichnet. Zu den Sozialen Medien gehören vor allem folgende Gattungen: • Spiele, Reisen, Music / Streaming (wie Spotify, Deezer, Apple Music, Amazon Music, Google Play), Video / Streaming (wie Amazon Prime, Maxdome, Apple ­iTunes, Netflix, Google Play, Sky Ticket), Nahrung / Kochen, Fotos (wie Flickr, Pinterest), Bewertungen (wie Ciao), Gesundheit / Fitness (wie Jameda, Fitbit), Sports Talk, Social commerce, Crowdsourcing, Work collaboration (wie Evernote), BloggerPlatformen (wie Tumblr), Online-Dating (wie Parship), Nachrichten (wie Focus Online), Chatbots, Private Soziale Netzwerke (wie Facebook), Professionelle Soziale Netzwerke (wie Xing, LinkedIn), Messenger (wie Skype), MonitoringWerkzeuge (wie Klout), Sharing Plattformen (wie Airbnb, Uber), Video-Plattformen (wie YouTube, Vimeo), Präsentationen / Dokumente (wie Prezi, Slideshare). Social Media können zur Primär- oder Sekundärrecherche genutzt werden. Sekundär erfolgt die freie Recherche über Suchmaschinen, Themenverzeichnisse, Link-Listen etc., in kommerziellen (Wirtschafts-)Datenbanken, durch Web mining als Datenanalyse des Nutzungsverhaltens oder Social Media-Monitoring.

Soziale Netzwerke

Filesharing (Video/Foto/Audio etc.)

private Adressaten

Video/Foto

berufliche Adressaten

Sound/Sprache Chart/Animation

Weblogs

Content-Aggregation

öffentliches „Tagebuch“ Microblogs (Kurznachrichten)

Wikis Bewertungsportale Social bookmarking

Abbildung 53: Social Media-Monitoring

7. Social Media-Monitoring

257

Bei Web 2.0-Anwendungen stellt der Nutzer Inhalte für andere zur Verfügung und nutzt die Inhalte dieser anderen. Dies geschieht im Einzelnen in mindestens vier Formen durch Soziale Netzwerke, Weblogs, Filesharing und Content-Aggregatoren (siehe Abbildung 53: Social Media-Monitoring).

7.1 Formen Soziale Netzwerke wie Facebook, Stayfriends etc. sind Nutzergemeinschaften von Webdiensten, die entweder auf bestimmte Personengruppen beschränkt sind oder jeden einschließen. Jedes Mitglied kann sich eine persönliche Seite als Profil einrichten, um sich anderen Mitgliedern mit abgestuften Sichtbarkeitseinstellungen zu präsentieren. Das einfache Empfangen und Senden von Nachrichten ist über Kontaktlisten / Adressbücher nach bestimmten persönlichen Merkmalen machbar. Das Versenden von internen Nachrichten und die Bildung von Interessengemeinschaften sind gezielt möglich. Gleichgesinnte können so gemeinsame Aktivitäten planen. Soziale Netzwerke finanzieren sich neben Mitgliedsbeiträgen vor allem durch Werbung / Sponsoring. Unternehmen können dort Fanseiten unterhalten, um Markenbotschaften zu verbreiten und durch Verlinkung den Traffic auf ihre Seite zu erhöhen. Da die Nutzer intensiv und engmaschig kommunizieren, sind sehr informative Nutzerprofile vorhanden. Doch gerade diese kommerzielle Nutzung der Mitgliederdaten gerät zunehmend in die Kritik, vor allem aus datenschutzrechtlicher Sicht. Der Erfolg ist in der Marktforschung nur schwer messbar, aber durch „Zuhören“ anhand von Schlüsselwörtern wie Fachbegriffen, Marken- / Firmen- oder Trend­ themen dennoch möglich. Wichtig ist hier eine Sentiment-Analyse hinsichtlich der Tonalität, dies ist wiederum schwierig bei Ironie, Redewendungen, Abkürzungen, Slang, gängigen Rechtschreibfehlern, doppelten Verneinungen, Mehrdeutigkeiten etc. Besonders wichtig ist die Identifikation von Meinungsführern. Messungen sind durch plattformseitig angebotene Analysetools möglich. Neben diesen privaten Netzwerken sind berufliche Netzwerke verbreitet. Solche Karrierenetzwerke wie Xing, LinkedIn etc. haben sich im professionellen Umfeld etabliert. Hier geht es um berufliche Kontakte und das Kennenlernen „interessanter“ Professionals, die Kontaktpflege zu Kollegen, Geschäftspartnern, potenziellen Kunden etc., also um berufs- und geschäftsrelevante Inhalte. Weblogs (Blogs) wie Tumblr, Blogspot etc. sind häufig aktualisierte Webseiten, die Inhalte jeglicher Art in chronologisch absteigender Reihenfolge darstellen. Alle Inhalte sind in der Regel mit anderen Webseiten verlinkt und können vom Benutzer direkt kommentiert werden. Weblogs können thematisch organisiert und Kategorien zugeordnet werden. Der Autor ist entweder eine einzelne Person oder eine Gruppe. Der Begriff Weblog setzt sich aus „WWW“ und „Logbuch“ zusammen. Eine eigene Software zum Erstellen von Beiträgen, die Blogware, sorgt dafür, dass jeder als Autor („Blogger“) ohne Webspace und Programmierkenntnisse

258

Kap. IV: Online-Auswahl- und Erhebungsverfahren

eine Internetpräsenz in Form eines elektronischen Tagebuchs erstellen kann. Die Veröffentlichung ist kostenlos, inhaltlich nicht begrenzt, sondern nach Kategorien strukturiert, frei zugänglich, dialogorientiert und global möglich. Innerhalb der Blogosphäre gibt es eine starke Vernetzung untereinander, die Kommunikation ist direkt und persönlich. Elemente eines Weblogs sind der Beitrag selbst (der Blogpost), Kommentare dazu, permanente, unveränderliche Links (die Permalinks), ein Trackback, d. h. Rückverweis auf die ursprüngliche Adresse über die Weiterverwendung der Inhalte, eine Blogroll, d. h. eine Sammlung von Links mit angebotenen Verweisen auf Kate­ gorien, Tags, d. h. häufig verwendete Schlagworte sowie der Administrations­bereich und die RSS-Newsfeed-Funktion. Tag-Clouds stellen automatisch die im Blog vorkommenden Begriffe grafisch so dar, dass die häufigeren Begriffe in größerer Schrift erscheinen. So lässt sich die persönliche Relevanz eines Blogs schnell und einfach erkennen. Man unterscheidet zwischen Textblogs, Fotoblogs, Audioblogs, Videoblogs / Vlogs, aber auch Linkblogs, Wahlblogs, Sportblogs, Watchblogs, etc. Microblogging (Twitter) ist ein Kurznachrichtendienst, der von einem stationären oder mobilen Standort im Internet abgerufen werden kann. Die Besonderheit ist, dass Textnachrichten nur eine begrenzte Anzahl von Zeichen haben dürfen (280 Zeichen), aber auch Bildnachrichten können eingebunden werden. Es handelt sich um ein Echtzeitmedium, das Schreiben von Texten wird allgemein als Tweeten bezeichnet. Tweets sind dann die Nachrichten. Nutzer können Nachrichten abonnieren, die referenzierte Wiederholung solcher Nachrichten wird als Retweet bezeichnet. Die Abonnenten sind Follower. Die Autoren sind Twitterer. Sie können entscheiden, welchem Follower-Kreis sie ihre Nachrichten zur Verfügung stellen. Die Suchfunktion kann durch Hashtags (#) im Text unterstützt werden. Damit kann die Popularität von Beiträgen verfolgt werden. Hashtags werden auch verwendet, um Texte durch Querverweise zu kommentieren. Texte werden in chronologischer Reihenfolge absteigend in einem Protokoll als Tagebuch ähnlich wie bei Weblogs angezeigt. Twitter sammelt persönliche Daten, indem jeder Teilnehmer registriert wird. Durch den Verkauf dieser Daten werden Erträge generiert. So können Unternehmen gezielt Kontakt zu Nutzergemeinschaften aufbauen und pflegen. Analytische Tools ermöglichen die Messung des Werbeeinsatzes. Die forscherische Auswertung von Weblogs ist sehr zeitaufwändig, so dass es ratsam ist, diese Aufgabe an Dritte auszulagern. Abgesehen davon sind Weblogs kostengünstig und ortsunabhängig nutzbar, einfach zu bedienen, interaktiv, schnell, unzensiert, inhaltlich vielfältig und plattformunabhängig einsetzbar. Allerdings gibt es auch jede Menge Datenmüll, viele Urheberrechtsverletzungen und verzerrte oder verfälschte Inhalte (Fakenews), so dass vor der unreflektierten Auswertung zu warnen ist. Auf Filesharing-Plattformen wie Instagram, Pinterest, Snapchat, Flickr, Slide Share, YouTube, Vimeo etc. kann jeder Nutzer Videos / Fotos / Sound / Sprache / ​Charts / ​ Animationen hochladen und andere Videos / Fotos / Sound / Sprache / ​Charts / ​Anima­

7. Social Media-Monitoring

259

tionen kommentieren. Die Mediendateien können auch herunter geladen und in andere Webseiten integriert oder per E-Mail verschickt werden. Damit ist es möglich, sie in Firmenpräsentationen, Produktinformationen etc. zu integrieren. Es ist auch möglich, Mediadateien von bestimmten anderen Nutzern zu abonnieren. Für Präsentationszwecken sind Videos besonders nützlich. Diese wiederum werden hauptsächlich als Tutorials angeboten, zum Beispiel in Form von Bedienungsanleitungen, Anwendungsbeispielen oder Schnellkursen. Für die Downloads ihrer Dateien erhalten die Autoren über ein Partnerprogramm ihre Provision. Der Anzeige von Videos ist oft Werbung vorangestellt, die nur mit Werbeblockern ausgeschaltet bzw. als Pre-roll (Bumper) ads nach fünf Sekunden geskipt werden kann. Digitale Fotos eignen sich u. a. für Foto-Blogs oder als Vorlagen für Printing-on-­demand. Sie können mit einer meist eingebetteten Bildverwaltungs-Software erfasst, organisiert und abgerufen werden. Weit verbreitet sind auch virtuelle Pinnwände für Lieblingsfotos, die öffentlich einsehbar sind. Chart-Präsentationen werden vor allem für professionelle Zwecke eingesetzt. Audios hingegen werden hauptsächlich zu Unterhaltungszwecken genutzt. Aus Marktforschungssicht ergeben sich vor allem zwei Auswertungen, erstens in Bezug auf die Ballung bestimmter Themen im Internet. Daraus kann auf aktuelle Meinungsbildungen, aber auch den Stellenwert von Themen geschlossen werden. Zweitens lassen sich in Bezug auf die Relevanz Aufruf-Statistiken auswerten. Diese werden entweder konkret angegeben oder lassen sich aus Besucherzahlen ableiten. Rankings geben Hinweise auf die Beliebtheit und Kompetenz der Betreiber. Daraus wiederum kann auf Meinungsmacher (Market mavens) geschlossen werden. Zu den Content-Aggregatoren gehören vor allem Wikis kollektiver Intelligenz, Bewertungsportale und Bookmarking-Dienste. Ein Wiki (z. B. Wikipedia) ist allgemein ein Hypertext-System von Webseiten, deren Inhalte von den Nutzern nicht nur gelesen, sondern auch online neu eingegeben oder verändert werden können. Dem liegt die „Weisheit der Vielen“ als Schwarmintelligenz zum Wissensmanagement zugrunde. Meist findet eine themenorientierte, auf allgemeine oder spezielle Interessen ausgerichtete Gestaltung statt. Die Software für Wikis, ein vereinfachtes Content-Management-System (CMS), die Wiki-Engine, ist frei verfügbar, so dass jeder Website-Betreiber sein eigenes Wiki einrichten kann. Wikis werden auch unternehmensintern betrieben, zum Beispiel im Innovationsmanagement. Sie können auf Workstations, in lokalen Netzwerken oder in Extranets installiert werden. Hier ist die Versionsverwaltung von großer Bedeutung. Außerdem ist eine kritische Masse an Nutzern und Beiträgen erforderlich. Offene Wikis sind in der Regel werbefrei und werden durch Spenden finanziert. Geschlossene Wikis sind ein zunehmend wichtiges Mittel zur internen Kommunikation. Im Gegensatz zu Blogs sind die Einträge thematisch und nicht chronologisch geordnet. Wikis eignen sich naturgemäß sehr gut für die Sekundärrecherche. Allerdings sei auch hier gemahnt. Wikis enthalten häufig auf Dauer unwahre, vor allem un-

260

Kap. IV: Online-Auswahl- und Erhebungsverfahren

vollständige, inaktuelle Inhalte, und zwar umso mehr, je ausgefallener das betref­ fende Themenfeld ist. Denn dann kennen sich nur wenige damit gut aus und diese wiederum sehen wenig Anreiz darin, ihr rares Wissen unentgeltlich wem auch immer zur Verfügung zu stellen. Daher ist immer ein Crosscheck angezeigt. In Bewertungsportalen wie Spickmich, mein.Prof, Kununu, Jameda, Anwalt etc. bewerten Nutzer online Produkte, Dienstleistungen, Unternehmen und Or­ ganisationen. Die Verschmelzung von Kartendiensten und Bewertungsinhalten ist üblich (z. B. Qype, Yelp, Foursquare). Online-Rezensionen werden immer wichtiger, eine große Anzahl von Nutzern zieht sie vor Kaufentscheidungen zu Rate. Aber auch Anbieter nutzen sie als Grundlage für die Verbesserung ihres Angebots. Empfehlungsportale veröffentlichen nur positive Bewertungen, Rezensionsportale leiten Bewertungen ohne Veröffentlichung an die Betroffenen zur Auswertung weiter. Bei missbräuchlicher oder unwahrer Kritik von Mitbewerbern besteht ein Anspruch auf Löschung des Eintrags. Häufig sind Gateways zu Preisvergleichsportalen (z. B. billiger, idealo, Check24, Holidaycheck, HRS, Trivago) zu finden. Diese greifen außerdem selektiv auf Informationen aus Metasuchmaschinen zu, um einem Produkt die Preise verschiedener Anbieter zuzuordnen. Darüber hinaus gibt es Informationen zu Lieferfähigkeit, Testberichten, Ökologie, Sicherheit etc. Allerdings sind die Informationen oft veraltet, verfälscht oder nicht vergleichbar. Auch hier sind Sekundärrecherchen in der Marktforschung gängig. Dabei geht es nicht nur um die Auswertung eigener Daten, sondern auch die relevanter fremder, vor allem konkurrierender Akteure. Allerdings leidet die Aussagefähigkeit unter der Verzerrung der Angaben durch verbreitet gekaufte / gefakete Bewertungen. Websites, die als persönliche Favoriten gelten, können durch Internet-Lesezeichen markiert und von anderen Nutzern übernommen oder über Server im Extranet oder Intranet mit ihnen geteilt werden, so dass sich die Nutzer gegenseitig auf interessante Websites hinweisen können. Zu diesem Zweck werden solche Links beim Social bookmarking als „öffentlich“ gekennzeichnet (z. B. Digg, Stumble­ Upon). Diese kollaborativen Indexierungen werden von Suchmaschinen registriert und verbessern so über Backlinks das Ranking der referenzierten Seiten. Darin liegt gleichzeitig eine Möglichkeit des Missbrauchs, so dass Bewertungen von Bookmarks eingeführt wurden. Die Indexierung kann nach Stichworten, Kategorien oder Nutzern erfolgen. Es gibt auch Favoriten-Rankings. Die Listen können per RSS-Feed verfolgt werden. Bookmarks sind also ein probates Mittel, um die Popularität der eigenen Website zu steigern.

7. Social Media-Monitoring

261

7.2 Durchführung Social Media-Monitoring erfolgt durch Recherche in Foren, Weblogs, Communities etc. über nutzergenerierte Inhalte. Neben der Beobachtung kommt auch die Befragung in Online-Panels bei aktiv rekrutierten Teilnehmern oder durch passive Selbstzuordnung, durch Pop up-Tools über zufallsgenerierte Fenster, die zur Teilnahme an einer Befragung auffordern oder Online-Focus-Gruppen in Chatrooms in Betracht. Wichtige Ansatzpunkte des Monitoring sind das „Zuhören“ und das Messen. Beim „Zuhören“ werden geeignete Keywords wie Fachtermini, Konkurrenzbezeichnungen etc. verfolgt. Dies bezieht sich dann auf folgende Elemente: • Produktmonitoring in Bewertungsportalen, Produktforen, Produktblogs, Videos, Tweets etc., • Unternehmensmonitoring, allerdings schwierig bei häufigen / sehr ähnlichen Firmierungen, • Themen- / Trendmonitoring nach sog. Issues, Hot topics etc., • Sentiment-Analyse nach Tonalität von Beiträgen positiv, neutral, negativ, dazu ist eine semantische Auswertung erforderlich, allerdings entstehen derzeit Probleme bei Ironie, Redewendungen, Abkürzungen, Slang, Rechtschreibfehlern, Negationen, Mehrdeutigkeiten etc. (Web 3.0), • Meinungsführer-Identifizierung und -Kontaktierung (z. B. renommierte B ­ logger). Beim „Messen“ werden KPIs analysiert. Beim Social Network Facebook sind dies etwa die Facebook-Insights wie Übersicht, Gefällt-mir, operationalisiert durch Fans bzw. Freunde von Fans, absolut und prozentual, Reichweite als Anzahl der Personen, die mit der betreffenden Seite verknüpft sind bzw. Abonnenten, Personen, die darüber sprechen, operationalisiert durch z. B. innerhalb der letzten sieben Tage etc. Beim Microblog Twitter sind dies etwa Follower, Follower von Followern, Retweets, @-Erwähnungen, Favorisierungen (Zustimmung), Häufigkeit von Hashtags (#) etc. Messungen beziehen sich allgemein auf folgende Elemente: • Förderung des Dialogs durch Share of voice, Zielgruppenengagement, Anzahl der Diskussionsteilnehmer etc., • Identifizierung von Befürwortern und ihre Förderung als Markenbotschafter, Anteil der Markenbefürworter etc., • Verbesserung des Kunden-Support durch Anzahl der Kundenanforderungen, Anzahl zufriedener Kunden etc., • Initiierung von Innovation durch Anzahl der Markenerwähnungen, der Trenderwähnungen, positiver Erwähnungen etc.

262

Kap. IV: Online-Auswahl- und Erhebungsverfahren

Daraus lässt sich mit Hilfe von Tools, z. B. Social mention, Klout, Facebook Minilytics, Twitter Twazzup, der Social Media return on influence als AufwandsNutzen-Relation ermitteln. Allgemeine Social Media-bezogene Kennzahlen beziehen sich auf folgende Größen: • Share of voice: Anzahl der Erwähnungen eines Unternehmens / einer Marke / eines Produkts relativ zur Konkurrenz, aktuelle Konversationen (Indikator für ContentRelevanz / Aufmerksamkeit), • Share of audience: Reichweite der eigenen Social Media-Aktivitäten relativ zur Konkurrenz, • Sentiment-Analyse: Stimmungsbild in der Nutzerschaft aufgrund von positiven / ​neutralen / negativen Erwähnungen, allerdings schwierig auszuweisen (Text ­mining), • Click Through Rate (CTR): Klicks auf einen Link im Social Media Post relativ zur Anzahl der gesamten Impressions, • absolute Reichweite (Anzahl der Fans, Anzahl der Posts, Likes je Periode) als Indikator für die Dynamik der Verbreitung, • Stay-in rate als Indikator für die Zufriedenheit der User mit dem Content-Absender bzw. den Medieninhalten bzw. dem gewählten Ansprachekanal, • Sichtkontakte (Impressions) als Anzahl der Sichtkontakte von Social Media-Teilnehmern an einem Online-Werbeobjekt (Produkt, Werbemittel, Person etc.), • Engagement rate als Anteil der Personen mit Interaktionen wie Likes, Kommentare, Shares o. Ä. an der Reichweite des Mediums, dies misst die Anzahl der Personen mit direkter oder indirekter Social Media-Präsenz des Anbieters, • Anzahl der Followers / Fans / Abonnenten in Social Media-Kanälen als zentrale Kennzahl für die allgemeine Reichweite einer Social Media-Botschaft, • Hashtag-Verbreitung nach Bestand und Entwicklung, spezifisch bei Instragram, Twitter, • Shares und Retweets nach Bestand und Entwicklung, spezifisch bei Facebook, Twitter, • Video-Views nach Bestand und Entwicklung, spezifisch bei YouTube, • Total story views / Total story completions nach Bestand und Entwicklung, spezifisch bei Snapchat, • Interaktionsrate (Likes / Kommentare) als Anzahl der Follower / Reichweite von Posts / Anzahl der Video views, dies misst die Anzahl der Interaktionen mit einer direkten oder indirekten Social Media-Präsenz des Anbieters, • Social Media-Wachstum als Anteil neuer Fans und Followers an der Empfängerliste, wichtige Kennzahl für den Erfolg von Social Media-Aktivitäten.

8. Mobile-Erhebungen Für die Marktforschung wird zunehmend die mobile Nutzung relevant. Die Netzabdeckung ist verbessert, eine ortsunabhängige, bequeme Erreichbarkeit ist gegeben. Nutzer können lokalisiert (z. B. für Mehrwertdienste) und Inhalte personalisiert werden. Treiber sind hier u. a. verbesserte Übertragungsstandards wie LTE/5G, Fototechnik etc., größere Displays, mehr Akkuleistung und höhere Rechenkapazität in den Endgeräten, verbreitete Datendienste wie SMS, EMS, MMS, WAP etc. Mobile Befragungen bedienen sich dabei folgender Formen (nach Altobelli): • Bei der Interactive Voice Response-Befragung / IVR werden die Fragen vorab aufgezeichnet und über ein Sprachdialogsystem automatisiert wiedergegeben, etwa zur Erfassung der Kundenzufriedenheit. Die Beantwortung erfolgt über die Tastatureingabe des Mobiltelefons. Der Einsatz von Interviewern entfällt damit. Die erhobenen Daten werden dem Auftraggeber in gängigen Formaten dargestellt, alternativ auch live über ein Online-Dashboard. • Die SMS-Befragung erfolgt über kurze Textnachrichten (max. 160 Zeichen) im Push-Prinzip auf Mobiltelefone. Die so Kontaktierten können darauf unkompliziert antworten. Dies eignet sich vor allem für Blitzumfragen. Allerdings wirken die unidirektionale Kommunikation und fehlende Grafikmöglichkeiten limitierend. Abhilfe können hier MMS (Multimedia Messaging Service) schaffen. • Beim Mobile Code Reading / MCR wird ein QR-Code mit der Mobilkamera fotografiert, dies führt zu einer mobilen Landing page, auf welcher der Fragebogen zum Ausfüllen hinterlegt ist. Danach kann der Fragebogen zurückgeschickt werden. Dabei sind zusätzliche Informationen verfügbar, etwa über Positionsdaten. • Eine synchrone Web-Befragung erfolgt über den im Mobiltelefon installierten Web-Browser im xHTML-, WML-, HTML-Format. Allerdings wird dabei eine einheitliche Darstellung erschwert. Auch die Usability und die Fragebogengestaltung sind eingeschränkt. Dabei wird der WAP-Push-Dienst (Wireless Application Protocol) zur Einladung / Teilnahmeaufforderung genutzt. Dann kann der Link zur Befragungs-Website aufgerufen und der Browser geöffnet werden. • Bei einer asynchronen Web-Befragung wird der Fragebogen auf das Mobiltelefon gesendet. Die Ausfüllung erfolgt dann von dort aus offline. Danach kann der Fragebogen vom mobilen Endgerät aus rückübersendet werden. Bei App-Befragungen werden generell schlanke Software-Applikationen anstelle komplexer Websites zur Erhebung genutzt. Dadurch kann ein Fragebogen

264

Kap. IV: Online-Auswahl- und Erhebungsverfahren

auch offline ausgefüllt und danach erst online übersandt werden. Dies vereinfacht die Nutzung und spart Kosten / Kapazität. Die Anforderung erscheint auf dem Home­screen als Push-Nachricht, so dass eine hohe Aufmerksamkeit gegeben ist. Problematisch sind die Vielzahl der App-Systeme und die Unwilligkeit von Nutzern, Apps am mobilen Endgerät langfristig zu installieren und zu nutzen. Bei einer Befragungs-App lädt die teilnahmewillige Auskunftsperson eine Applikation auf ihr Smartphone, über die diverse Umfragen angeboten werden. Die grafische Darstellung ist an das Displayformat und die Funktionalitäten des Mobiltelefons angepasst. Zur Aktivierung werden gemeinhin materielle Anreize geboten wie Wertgutscheine oder Gewinnverlosungen. Denkbar ist auch die Registrierung der Nutzer, so dass auf Wunsch ein mobiles Panel entsteht. Die Einstiegsfrage engt für gewöhnlich den Kreis der gewünschten Teilnehmer ein (z. B. Tierhalter, junge Frauen, Autobesitzer). Die Gefahr liegt nahe, dass Teilnehmer diese Frage bewusst falsch beantworten, um nicht aus der Umfrage und damit den Genuss des Anreizes auszuscheiden (Screener bias). Außerdem sind eine übermäßig schnelle Bearbeitung der Fragen, um Zeit zu sparen (z. B. durch wiederholtes Anklicken derselben Skalenausprägung / One lining), sowie Gefälligkeitsantworten, um den Anreiz nicht zu gefährden (Sponsoring-Effekt), anzutreffen. Bei offenen Fragen werden meist keine oder nicht aussagefähige Antworten formuliert (z. B. „gut“ bei Frage nach dem Zufriedenheitsgrad und Verbesserungsmöglichkeiten). Eine Software, die über die Ergebnisse läuft, kann diese Fälle bereinigen, jedoch wird die Nettostichprobe dann rasch sehr klein. Die Verursacher solcher Ausfälle können für spätere Umfragen gesperrt werden. Das erfordert allerdings eine ständige Neurekrutierung von Teilnehmern. Außerdem sind auf diese Weise nur kurze Befragungen möglich, da die Teilnehmer dann schon zum nächsten Ereignis springen. Insgesamt sind die methodischen Nachteile so ausgeprägt, dass die Zeit-, Raumund Kostenvorteile der App-Befragung dahinter zurückstehen. Tauglich ist diese nur für populäre Pseudo-Umfragen, etwa von Privat-TV-Sendern. Für den Fragebogen ist eine ansprechende optische Gestaltung obligatorisch (Farbe, Form, Lesbarkeit, Ordnung etc.), außerdem eine hohe Usability und eine konstruktive Teilnehmerführung. Dabei ist die Fragebogenlänge eng begrenzt, hinzu kommen umständliche Dateneingaben und heterogene technische Plattformen. Es gelten die üblichen Anforderungen an Frageformulierungen, also vor allem • genaue Definition des Fragegegenstands, verständliche Formulierung (keine Fremdwörter / Fachbegriffe), Vermeidung mehrdeutiger Formulierungen, Vermeidung unterschiedlicher Aspekte in einer Frage, keine Suggestivfragen, Vermeidung unklarer Anweisungen, Konkretisierung des Frageninhalts. Vorteile von mobilen Umfragen entstehen vor allem durch folgende Aspekte: • Der Trend zur Mobilkommunikation sorgt dafür, dass der Umgang mit Mobiltelefonen immer selbstverständlicher wird. Damit ist eine gute Erreichbarkeit

8. Mobile-Erhebungen

265

der Teilnehmer möglich. Diese können die Umfrage etwa in Pausen / Wartezeiten erledigen. • Die hohe zeitliche Flexibilität erlaubt kurze Befragungszyklen, gerade auch als Befragung an Ort und Stelle (z. B. am POS nach dem Supermarkteinkauf). • Möglich ist die Stiftung von Mehrwert für Befragte (z. B. durch Zugriff auf Spiele). Jedoch muss dabei beachtet werden, dass die Befragungsergebnisse verzerrt sein dürften. • Es ist eine sehr schnelle Durchführung der Umfrage möglich, die zur Erleichterung der Steuerung und Kontrolle realtime verfolgt werden kann. Auch ergeben sich Schlussfolgerungen aus dem Zeitpunkt / der Uhrzeit der Teilnahme. • Die Durchführungskosten einer Umfrage sind vergleichsweise günstig. Dagegen stehen allerdings die höheren Programmierkosten, auch bei allfälligen Updates sowie die hohen Kosten einer App-Store-Präsenz. • Die Responsegeschwindigkeit ist allgemein schneller als bei Online-Erhebungen und erst recht als bei konventionellen Fragebögen. Idealerweise wird der Fragebogen gleich nach dem Download ausgefüllt. • Die App baut auf der Integration von Smartphone-Funktionen wie Kamera, Lagesensor, GPS, Beschleunigungsmesser etc. auf, so dass sich erweitere Auswertungsmöglichkeiten ergeben, sofern der Zugriff darauf nicht blockiert wird. • Die App erlaubt bei Freigabe durch den Nutzer den Zugriff auf interne Daten­ banken wie Adressbuch, Push-Nachrichtenliste etc., die ebenso ausgewertet werden können. • Die Funktionalitäten der App können bei Bedarf auf das individuelle Nutzererleb­ nis abgestimmt werden und verbessern so den Einsatz. Bei mobilen Befragungen sind außerdem erhebliche methodische Bedenken gegeben. Diese Nachteile beziehen sich vor allem auf Aspekte: • Es besteht womöglich nur eine geringe Abdeckung der Untersuchungszielgruppe als Coverage internetfähige Mobiltelefone in verschiedenen Bevölkerungsschich­ ten, Altersgruppen, Wohnortgebiete, Ausbildungsstände etc. • Es ist eine unklare Stichprobenziehung in Bezug auf verfügbare, evtl. mehrfache Mobiltelefonnummern mit Einwilligung der Nutzer bzw. deren subjektive Fähigkeit, mobile Befragungen zu bearbeiten, gegeben. • Die Abbruchraten als Nonresponse erreichen je nach Struktur der jeweils Kontaktierten erhebliche Höhen. Ein weiteres Problem stellen die regelmäßig sehr geringen Antwortquoten dar, so dass anzunehmen ist, dass sich die Teilnehmer strukturell von Nchtteilnehmern unterscheiden. • Apps werden zwar häufig heruntergeladen, aber nur selten benutzt. Daher gerät eine Umfrage-App recht schnell in Vergessenheit. Wenn an der Umfrage nicht

266

Kap. IV: Online-Auswahl- und Erhebungsverfahren

gleich nach dem Download teilgenommen wird, verringern sich die Chancen erheblich. • Die Nutzung ist betriebssystem-abhängig, so dass höhere Kosten für die potenzielle Erreichung aller Mobilfunknutzer anfallen. Der Einsatz auf stationären Endgeräten ist ohnehin beschränkt. • Der Erstellungsaufwand einer App-Umfrage ist höher als vergleichsweise der für eine Website-Umfrage. Auch sind Umfrage-Apps in Suchmaschinen weniger prominent vertreten als entsprechende Websites (geringere Visibilität). • Damit eine Umfrage-App im App-Store gefunden werden kann, sind sowohl eine individuelle Optimierung der App-Struktur (App-Store-Optimization / ASO) als auch womöglich eine gesonderte Bewerbung der App (App-Store-Adver­ tising / ASA) erforderlich. • Bei wenig technikaffinen Zielgruppen ergeben sich bei Apps höhere Zutrittsbarrieren als bei anderen Online-Erhebungsformen. Daher ist der Adressatenkreis als noch spezieller anzusehen und die Hochrechnungsbasis entsprechend schmal. Mobile Beobachtungen beziehen sich auf Vorgänge und Ergebnisse, die während der Beobachtung anfallen, wohingegen Sekundärinformationen erst nach ihrem Vorliegen ausgewertet werden. Dafür gibt es vielfältige Beispiele: • Üblich ist die Wiedergabe mehrerer Objekte auf dem Display, unter denen die Beobachtungsperson mit Zeitlimit eines auszuwählen hat (analog zur Schnellgreifbühne). Dies gilt als Indikator für die komparative Durchsetzungsfähigkeit bzw. Appetenz dieses Objekts (Logo, Packung, Produkt etc.) beim Betrachter. Dies ist wichtig wegen der durchweg kurzen Nutzungszeit virtueller Inhalte. • Weiterhin werden analog zu Heatmaps bei Webseiten Clickmaps erstellt und analysiert. Diese beziehen sich auf die Lage der ausgeführten Klicks auf einer dargestellten Mobile-Seite. Daraus können präferierte Platzierungen für Buttons o. Ä. abgeleitet werden, die zu Interaktionen führen sollen. • Ähnliche Auswertungen ermöglicht ein Motionplayer, der die Cursor-Bewegungen auf dem Display aufzeichnet. Daraus lässt sich eine Abfolge der Aktivitäten der Beobachtungsperson während einer Session ermitteln. Dies dient der Optimierung des mobilen Seitenlayouts. • Aufgrund des begrenzten Displayformats ist der Ausweis des Scroll-Verhaltens vor allem in Bezug auf Above the fold- vs. Below the fold-Elemente wichtig. Scrollen wird nach Möglichkeit vermieden, so dass Elemente, die erst durch vertikales (oder auch horizontales) Scrolling sichtbar werden, weniger Aufmerksamkeit erfahren. Dies wird in Visibility maps angezeigt. Mobile Experimente nehmen, wie stationäre auch, die systematische Variation einer oder mehrerer unabhängiger Variabler durch den Forscher unter kontrollierten Bedingungen zur Überprüfung von Kausalhypothesen vor. Zusätzliche Er-

8. Mobile-Erhebungen

267

kenntnisse aus mobiler Anwendung ergeben sich vor allem aus der Möglichkeit zur Standortermittlung über GPS / N FC / COO, woraus Erkenntnisse, etwa nach lokalen / regionalen Gesichtspunkten entstehen. Dies erweitert das Einsatzspektrum: • GPS nimmt eine Satellitenortung vor. Dazu muss Sichtkontakt zu drei geostationären Satelitten für die Bewegungserfassung bestehen sowie zu einem vierten zur Zeitbasierung für die Ermittlung von Geschwindigkeiten. Geostationär bedeutet, dass sich der Satellit in einer Umlaufbahn von ca. 20.000 km Höhe so schnell dreht, dass seine Position relativ zur Erdoberfläche unverändert bleibt. Damit kann ein mobiles Endgerät, das eingeschaltet ist und damit turnusmäßig seine Statusmeldung absetzt, geortet werden. • NFC dient der Nahfeldkommunikation und löst, im Unterschied zum vergleichbaren Bluetooth-System, bei Kontakt mit einem aktivierten mobilen Endgerät selbsttätig eine Aktion aus. Damit können z. B. Bewegungsprofile angelegt werden, weil die Übermittlung der Aktionsdaten dokumentiert wird. Einen ähnlichen Effekt hat die Absetzung einer Stillen SMS, ähnlich einem PING-Signal, die auf dem Display nicht sichtbar und deren Eingang auch nicht hörbar ist, aber mit den Verbindungsdaten beim Mobilfunk-Provider erfasst wird. • Cell of Origin (COO) ist ein Ortungsverfahren innerhalb einer Mobilfunkzelle. Damit werden alle dort zu einem Zeitpunkt eingeschalteten Mobilfunkgeräte erfasst. Allerdings hängt die Genauigkeit der Position von der Größe der Zelle ab, die sich dynamisch verändert. In dichter besiedelten Räumen (mit mehr Endgeräten) sind die Zellen kleiner, um die Funkkapazität nicht zu überlasten. Eine Ortung ist entsprechend genauer (ca. 300 m Streubereich). Zellen mit weniger aktivierten Endgeräten sind größer und Ortungen damit ungenauer.

9. Sicherung der Datenqualität Um die Online-Datenqualität zu sichern, werden mehrfache Kontrollen vorgesehen. Kontrollen während der Erhebung beziehen sich z. B. auf die Bearbeitungszeit. Fragebögen unter einer Mindestbearbeitungszeit werden damit vor Auswertung zusätzlich überprüft. Auch können selbsttätige Fehlerkorrekturen im Programm eingebaut werden, die z. B. Falscheingaben zurückweisen oder unvollständige Angaben nicht akzeptieren. Eine zentrale Kontrollgröße ist die Rücklaufquote. Der Server registriert bei jedem Fragebogenaufruf automatisch den aufrufenden Rechner und seine InternetAdresse. Ebenso wird beim Absenden eines ausgefüllten Fragebogens der Inhalt der Adresse auf dem Server gespeichert. Dadurch können die Fragebogenaufrufe in Relation zu den Fragebogeneinsendungen gestellt werden, daraus ergibt sich die Rücklaufquote. Allerdings werden Wiederholungsaufrufe über den Proxy-Server dabei nicht erkannt. Die Auswertung der Protokolldatei gibt zudem Aufschluss über die regionale Verteilung und den Zeitraum der Erhebung. Die Güte der erhobenen Daten wird meist anhand der Kriterien Objektivität, Reliabilität und Validität beurteilt. Die Durchführungsobjektivität von Internet-Erhebungen ist als sehr hoch einzuschätzen, da keine Interviewerbeeinflussung vorliegt. Durch die Standardisierung der Datenerfassung ist auch eine hohe Auswertungsobjektivität gegeben. Die Interpretationsobjektivität bleibt hingegen fraglich. Die Reliabilität ist insgesamt hoch einzuschätzen, da die äußeren Einflüsse durch die Erhebung nicht verändert werden, weil kein Interviewer anwesend ist und freie Ortswahl und Anonymität der Beantwortung gegeben sind. Allerdings können veränderte Einstellungen der Erhebungspersonen durch die Auseinandersetzung mit dem Geschehen sowie Lerneffekte aus der Erhebungssituation entstehen, welche die Reliabilität, je nach Lage der Dinge, verbessern oder beeinträchtigen. Tendenzen sozialer Erwünschtheit in den Antworten bleiben vermutlich gering. Auch die interne Validität ist grundsätzlich hoch einzuschätzen, da eine falsche Protokollierung oder Codierung der Ergebnisse ausgeschlossen werden kann und zudem Mehrdeutigkeiten in der Erhebungssituation durch vorlaufende Filterung minimiert werden können. Die externe Validität ist jedoch sehr fraglich, da eine Verallgemeinerung der durch Internet-Erhebung erfassten Tatbestände nicht möglich ist, und zwar nicht nur nicht aus der Stichprobe auf die Gesamtbevölkerung, sondern auch nicht von der Stichprobe auf alle Internet-Nutzer. Zudem bestehen Verzerrungen durch Selbstselektion als Erhebungsperson über den Aufruf des Fragebogens und mehrfache Teilnahmen.

9. Sicherung der Datenqualität

269

Zur Gewährleistung einer fehlerfreien Datenübertragung und zur Vermeidung von Datenmissbrauch dienen mehrere Vorkehrungen. Der Zugriff auf schützenswerte Daten wird durch geeignete Passwörter erreicht. Die Auswertung schützenswerter Daten kann trotz unberechtigten Zugriffs durch Verschlüsselungsalgorithmen gesichert werden (z. B. PGP). Befragungen, Beobachtungen oder Experimente sind grundsätzlich von der Einwilligung bzw. Erlaubnis der Erhebungsperson abhängig. Allerdings werden vielfältige technische Daten während der Kommunikation erfasst, ohne dass die Erhebungsperson dies unbedingt weiß oder genehmigt. Hinsichtlich des Beurteilungskriteriums Aktualität ist festzustellen, dass die Aufforderung zur Teilnahme zeitpunktbezogen versandt werden kann. Teilnehmer, die täglich ihre Mailbox leeren, erhalten daher den Fragebogen zum Stichtag. Der Erhebungszeitraum ist exakt kontrollierbar. Allerdings kann nicht festgestellt werden, wann innerhalb dieses Zeitraums ein Fragebogen tatsächlich ausgefüllt worden ist. Die Rücklaufquote ist themenabhängig und liegt bei Selbstrekrutierung erfahrungsgemäß unter 2 %, bei aktiver Ansprache potenzieller Teilnehmer zwischen 10 und 30 %. Der Umfang des Fragebogens sollte 15–20 Fragen nicht überschreiten, damit keine Interviewabbrüche provoziert werden. Hilfreich ist zudem eine möglichst ansprechende Aufmachung des Fragebogens. Online-Erhebungen sind allgemein tendenziell durch folgende Vorteile gekennzeichnet: • Es ist eine schnelle Rekrutierung der Probanden möglich. Dies ist vor allem bei zeitkritischen Forschungsprojekten von großer Bedeutung auch für die Ergebnisqualität i. S. d. Aktualität. Dafür bieten sich Online-Erhebungen ihrer Natur nach an. • Durch eine zügige Projektdurchführung fallen Verzerrungen aus dynamischen Veränderungen zwischen den ersten und den letzten Erhebungen eines Projekts deutlich geringer aus als bei Offline-Erhebungen, bei denen die Spanne um den mittleren Erhebungsstichtag i. d. R. wesentlich breiter ausfällt. • Die Kontrolle der Feldarbeit ist in „Echtzeit“ realisierbar. Dadurch kann bei Fehlentwicklungen sofort gegengesteuert werden. Dies schont die Ressourcen und erhöht damit die Effizienz der Erhebung, ein bei knappen Budgets nicht unerhebliches Argument. • Es herrscht eine hohe Transparenz des Erhebungsverfahrens, der Studienergebnisse und der Auswertung bzgl. Anzahl vollständiger Fragebögen, Anzahl Abbrecher, Verteilung Rücklauf etc. vor. Dadurch kann die Belastbarkeit von Daten unter den gegebenen Einschränkungen gut nachvollzogen werden. • Iterative Abläufe erlauben den vorzeitigen Abbruch der Studie bei Vorliegen eindeutiger Trends. So können Zeit- und Kostenvorteile realisiert werden. Dies mag zwar methodisch umstritten sein, ist pragmatisch aber durchaus nachvollziehbar.

270

Kap. IV: Online-Auswahl- und Erhebungsverfahren

• Abbildungen, Anzeigen, multimediale Konzepte o. Ä. können nach Zufallsauswahl Zielgruppensegmenten vorgelegt werden, so dass sich etwa Positionseffekte, wie sie bei Offline-Erhebungen häufig vorkommen, neutralisieren lassen. • Bei hohen Fallzahlen entsteht ein degressiver Verlauf der Erhebungskosten, d. h. hohen Initialkosten folgen sehr niedrige Durchführungskosten. Damit ist auch ein breiter Roll-out in der Erhebung bei begrenztem Budget möglich. • Sofern unpersönliche Erhebungsverfahren eingesetzt werden, fehlt ein Interviewerbias weitgehend, der für mehr oder minder hohe Verzerrungen verantwortlich sein dürfte. Dies gilt allerdings auch für viele Formen der Offline-Erhebung. • Die Untersuchungsobjekte können zielgruppengerecht angepasst werden. So kann vermuteten oder manifesten Profilen entsprochen und die Ergebnisqualität verbessert werden. Dabei ist eine Gratwanderung zur Suggestion einzuhalten. Zu den allgemeinen Nachteilen gehören hingegen folgende: • Eine vollständige Abdeckung der Zielgruppe ist häufig nicht realisierbar, da es, nach Alter, Geschlecht, Region etc., immer noch an einer hinlänglich gleichmäßigen Ausdeckung von Online-Nutzern fehlt. Selbst bei höherer Ausdeckung weicht immer noch die Nutzungsintensität ab. • Es entsteht ein hoher Aufwand, um die Identität der Probanden eindeutig sicherzustellen, wenn dies überhaupt gelingt. Dies ist für Zuordnung und Klassifizierung von Ergebnissen wichtig, aber auch für die Vorbeugung gegen Mehrfachteilnahmen. • Die Erfassung der Körpersprache fehlt (Mimik, Gestik etc.), wobei gerade diese vielfach unterstützend oder sogar allein aussagefähig für eine Antwort sein kann. Ebenso ist die Messung der Antwortzeit auf Fragen nur messbar, sofern die Bearbeitung nicht unterbrochen wird. • Nachfragen oder Hilfestellungen durch den Interviewer sind nicht möglich, sofern auf unpersönliche Erhebungsverfahren abgehoben wird. Aber es können Hilfefenster angeboten werden, welche die Befragungsperson konkret anleiten. Ebenso können Beispiele für Antworten am Anfang des Fragebogens erklärend wirken. • Die Beeinflussung durch Dritte bei der Beantwortung ist möglich und im Weiteren nicht kontrollierbar. Diese dürfte gerade bei mobilen Befragungen gegeben sein, da auch allgemein rasch wechselnde Umfeldfaktoren gegeben sind. • Zwar entfallen die Kosten für Interviewereinsatz, Interviewerschulung, Versandporto etc. Dafür können direkte oder indirekte Kosten auf Seiten der Befragten für Telefoniegebühren anfallen, die durch Incentives o. Ä. ausgeglichen werden sollten.

Kapitel V

Statistische Datenauswertung In Anschluss an die Datenerhebung folgt logisch die Datenauswertung. Diese vollzieht sich im Rahmen der Marktforschung mit Hilfe statistischer Verfahren. Dazu ist es erforderlich, sich mit den Grundprinzipien der Statistik zu beschäftigen, was im Folgenden weitgehend ohne mathematische Formeln zu erreichen versucht wird. Dennoch handelt es sich um eine vergleichsweise sperrige Materie. Um sich dieser zumindest ansatzweise zu nähern, werden die folgenden Unterkapitel ausgewiesen: Verfahrenseinteilung (1.), Datenskalierung (2.), univariate Häufigkeitsanalyse (3.) bivariate Dependenz- (4.) und Interdependenzanalysen (5.), multivariate Dependenz- (6.) und Interdependenzanalysen (7.) sowie Datendarstellung (8.). Die statistische Datenauswertung dient vor allem der Komplexitätsreduktion und der Herausarbeitung zentraler Erkenntnisse aus den Ursprungsdaten. Die dabei eingesetzten Techniken weisen überwiegend ein hohes Abstraktionsniveau auf und basieren auf dezidierten Rechengrundlagen. Bei Einsatz automatisierter Auswertungs-Tools werden programmgesteuert immerhin diesbezügliche Inkonsis­ tenzen unterbunden.

1. Verfahrenseinteilung Für die statistische Auswertung sind verschiedene Einteilungen möglich. Im Folgenden wird die Einteilung nach Geltungsbereich, Variablenzahl und Partitionierung zugrunde gelegt. Nach dem Geltungsbereich wird in deskriptive, beschreibende Verfahren oder inferente, schließende Verfahren unterschieden. Erstere haben zum Ziel, die marktforscherisch gewonnene Daten übersichtlich darzustellen und strukturell aufzubereiten, letztere versuchen Schlüsse von einer Zufallsstichprobe auf die ihr erwartungsgemäß zugrunde liegende Grundgesamtheit zu ziehen. Dies kann durch Testverfahren untermauert werden. Innerhalb der deskriptiven Datenauswertung sind wiederum mehrere Einteilungen möglich. Nach der Anzahl der Variablen ergeben sich die univariate, bivariate und multivariate Analyse: • Bei der univariaten Datenanalyse wird nur eine einzige Variable untersucht. Dabei geht es um die Verteilung jeder Ausprägung eines Merkmals mit relativer Häufigkeit. Zur Datenreduktion werden Lage- und Streuparameter sowie Formund Konzentrationsparameter zur Charakterisierung genutzt. • Bei der bivariaten Datenanalyse werden die Beziehungen zwischen zwei Variablen bzw. je einer abhängigen und unabhängigen Variablen untersucht. • Und bei der multivariaten Datenanalyse werden mehr als zwei Variable diesbezüglich untersucht. Die Abtrennung der Verfahren in bi- und multivariate ist allerdings nicht immer eindeutig, da es die Mehrzahl der bivariaten auch in multivariater Ausprägung gibt. Bei diesen Analysen wird auch nach der Partitionierung bzw. Kausalität und Koinzidenz der Datenmatrix unterschieden in: • Verfahren der Dependenzanalyse, diese untersuchen Abhängigkeiten (Kausa­ litäten), d. h., innerhalb der Datenmenge werden unabhängige Variable gesehen, von denen abhängige Variable beeinflusst werden. Bei Abhängigkeit wird die Variablenmenge in abhängige und unabhängige Variable aufgeteilt, d. h. einer oder mehreren Variablen werden andere gegenüber gestellt und deren Einflüsse darauf untersucht. Dabei wird allerdings lediglich rein formal ermittelt, nicht aber in Bezug auf Kausalität bewertet, die nach wie vor durch Logik zu prüfen ist. • Verfahren der Interdependenzanalyse, diese untersuchen Zusammenhänge, d. h. innerhalb der Datenmenge werden keine einseitigen Abhängigkeiten angenom-

273

1. Verfahrenseinteilung

men, sondern wechselseitige (Koinzidenz). Bei Zusammenhang wird die Varia­ blenmenge nicht weiter in abhängige und unabhängige unterteilt. Vielmehr werden Wechselwirkungen der Variablen untereinander untersucht. Die Kriterien Variablenzahl und Variablenbeziehung können zur univariaten Häufigkeitsanalyse, zur vorwiegend bivariaten Dependenz- und Interdepen­ denzanalyse sowie zur multivariaten Dependenz- und Interdependenzanalyse kombiniert werden (siehe Abbildung 54: Ausprägungen der deskriptiven Datenauswertung).

univariate Datenanalyse

bivariate Datenanalyse

multivariate Datenanalyse

Lokalisationsparameter Dispersionsparameter Formparameter Konzentrationsparameter





Analyse von Abhängigkeiten



Regressionsanalyse Kontingenztafel

Varianzanalyse Diskriminanzanalyse Kontrastgruppenanalyse Kausalanalyse

Analyse von Zusammenhängen



Korrelationsanalyse Kreuztabellierung

Faktorenanalyse Cluster-Analyse Multidimensionale Skalierung

Analyse von Häufigkeiten

Abbildung 54: Ausprägungen der deskriptiven Datenauswertung (eig. Darst.)

Denkbar wären durchaus auch andere Einteilungen, die hier aber nicht verfolgt werden, z. B. nach: • der Zielrichtung in Unterschiedsverfahren oder Ähnlichkeitsverfahren, bei ersteren handelt es sich u. a. um Varianzanalyse, Kovarianzanalyse, Diskriminanzanalyse, Cluster-Analyse, bei letzteren u. a. um Korrelationsanalyse, Regressionsanalyse, Faktorenanalyse. Bei ersteren ist das Ziel die Suche nach trennenden Aspekten, bei letzteren die Suche nach gemeinsamen Aspekten. • dem Auswertungszweck in Verfahren der Datenreduktion durch uni- und multivariate Anlage, Verfahren der Klassifikation wie Cluster-, Diskriminanzanalysen, MDS, Verfahren der Messung von Beziehungen wie Korrelations-, Kontingenz-, Varianz-, Regressionsanalysen oder Verfahren der Messung von Präferenzen wie Conjoint-Analyse, Multidimensionale Skalierung. Klassifikationsverfahren streben eine Einteilung von Objekten nach vorgegebenen Merkmalen an, Verfahren der Beziehungsmessung die Stärke dieser Beziehung bzw. deren Richtung und Verfahren der Präferenzmessung Aussagen zur Vorziehenswürdigkeit.

274

Kap. V: Statistische Datenauswertung

• der Datenkompression in auf Variable gerichtete Verfahren oder auf Elemente / ​ Objekte gerichtete Verfahren. Zu ersteren gehören etwa Regressionsanalyse, Varianzanalyse, Kanonische Analyse, (R-)Faktoren-Analyse und Multidimensionale Skalierung. Zu letzteren gehören etwa Diskriminanzanalyse, Klassifikationsanalyse, AID-Analyse, Cluster-Analyse und (Q-)Faktoren-Analyse. • dem Ausgangspunkt der Auswertung in strukturprüfende, konfirmatorische Verfahren oder strukturentdeckende, explanatorische Verfahren, erstere prüfen, ob ein Datensatz den durch Hypothesen postulierten Beziehungen entspricht, z. B. als Regressionsanalyse, Varianzanalyse, Diskriminanzanalyse, Kontingenzanalyse, Conjoint-Analyse, letztere decken Beziehungen im Datensatz auf, z. B. Faktorenanalyse, Cluster-Analyse, mehrdimensionale Skalierung, AID-Analyse, Neuronale Netze, Entscheidungsbäume, Assoziationsanalysen. • der Verteilung in parametrische oder nicht-parametrische Verfahren, erstere sind auf einzelne Kenngrößen einer Verteilung gerichtet und unterstellen dabei eine Wahrscheinlichkeitsverteilung (häufig Normalverteilung), letztere auf die Verteilung als Ganzes, ohne dass dabei Annahmen über Verteilungen zugrunde liegen.

2. Skalierung von Daten Innerhalb der statistischen Datenauswertung ist zunächst die Skalierung von Daten Voraussetzung zur Interpretation. In der Praxis wird diese entscheidende Stellgröße allzu häufig vernachlässigt und führt dann zu unzutreffenden Auswertungen. Von Interesse sind vor allem die Skalierungstechnik als solche und die Skalierungsverfahren der Selbsteinstufung und der subjektiven Fremdeinstufung.

2.1 Skalierungstechnik 2.1.1 Begrifflichkeiten Die Skalierungstechnik umfasst Vorschriften zur Konstruktion von Skalen und zur Durchführung der Messung des Erhebungsgegenstands. Ziel ist es, auf diese Weise selbst nicht beobachtbare, aber indirekt messbare Größen über Zahlen als Indikatoren darzustellen. Diese werden Items genannt. Dabei handelt es sich um Fragen, Aufgaben, Aussagen, Meinungen, Beschreibungen etc., als Reaktionen sind Ablehnung, Zustimmung, Rangordnung, Wertangabe etc. möglich. Sie werden codiert und numerisch festgehalten, sie erhalten Itemwerte, die in einer bestimmten Relation zueinander stehen. Weisen die Zahlenwerte die gleichen inhaltlichen Relationen auf wie ihre Messwerte, verhalten diese sich isomorph. Isomorphie bedeutet eine umkehrbar eindeutige, genauer eineindeutige Beziehung. Zum Beispiel hat jedes zugelassene Automobil genau ein Kennzeichen und zu jedem Kennzeichen gehört genau ein zugelassenes Automobil. Eine nicht umkehrbar eindeutige Beziehung nennt man homomorph. Zum Beispiel hat jeder Mensch ein bestimmtes Alter, aber es gibt verschiedene Menschen gleichen Alters. Dann ist es möglich, aus den Relationen der Zahlen auf die der dahinter stehenden Objekte zu schließen. In welcher Weise dieser Schluss statthaft ist, hängt vom Messniveau der Skala ab. Das Messen von Untersuchungsmerkmalen setzt eine Maßskala voraus. Unter Skala versteht man eine gesetzmäßige Klassifikationsvorschrift zur Differenzierung von Eigenschaften einer Menge von Untersuchungseinheiten. Sie ist ein Messinstrument, mit dessen Hilfe Objekten / Merkmalsausprägungen quantitative oder qualitative Werte / Zahlenfolgen zugeordnet werden. Der nach festgelegten, streng formalen Regeln durchgeführte Aufbau einer Skala heißt Skalierung. Die Messung der Sachverhalte kann unterschiedlich präzise erfolgen, dazu ist die Angabe des Skalenniveaus (auch Messniveau) erforderlich. Die Aufgabe der Skalierung ist eine zweifache. Erstens soll sie anhand der Angaben einer Stichprobe von

276

Kap. V: Statistische Datenauswertung

Auskunftspersonen mit Hilfe eines geeigneten Verfahrens eine Skala entwickeln, die als geeichtes Messinstrument zur Messung des Merkmals auch bei Personen außerhalb der Stichprobe dienen kann. Zweitens soll sie verdeutlichen, welche Unterschiede in Bezug auf die Ausprägungen des gemessenen Merkmals zwischen den Auskunftspersonen innerhalb der Stichprobe bestehen. Skalen müssen dabei zuverlässig, gültig, trennscharf und effizient sein. Die Messung der Sachverhalte kann unterschiedlich präzise erfolgen. Als Messung werden zwar nur isomorphe Zuordnungen bezeichnet, dies bedeutet jedoch nicht, dass immer alle Relationen zwischen den Zahlen auch für die Objekte gelten müssen. Vielmehr ist dazu die Angabe des Skalenniveaus erforderlich. Maßgeblich sind dafür nicht die mathematischen Eigenschaften der erhobenen Zahlen, sondern die in der Realität vorgefundenen Relationen zwischen den beobachteten Objekten. Je nach Merkmalsart gibt es unterschiedliche Skalierungsverfahren, deren Messniveau sich unterscheidet. Dies ist deshalb wichtig zu beachten, weil das Messniveau darüber entscheidet, welche statistischen Methoden angewendet werden dürfen und welche nicht. Dabei kann jedes „höhere“ Messniveau auf ein „niedrigeres“ Messniveau reduziert werden. Wegen des hierarchischen Aufbaus dieser Skaleneinteilungen ist es statthaft, bei einem gegebenen Skalenniveau die statistischen Auswertungsverfahren eines niedrigeren Skalenniveaus anzuwenden, nicht jedoch deren Skalentransformationen, also solche mathematischen Veränderungen einer Skala, welche die hinter der Skala stehenden empirischen Relationen zerstören, im IT-Bereich würde man von Abwärtskompatibilität sprechen. 2.1.2 Skalenniveaus Hinsichtlich ihres Niveaus können Nominal-, Ordinal-, Intervall- und Ratioskalen unterschieden werden. Man fasst Nominal- und Ordinal-Skalenniveaus meist unter kategorialer oder nichtmetrischer Skalierung zusammen, Intervall- und Ratio-Skalenniveaus unter kardinaler oder metrischer Skalierung (siehe Abbildung 55: Alternative Skalenniveaus).

Nominalskala

Intervallskala

Ordinalskala

Ratioskala

Abbildung 55: Alternative Skalenniveaus

Die Nominalskala teilt ein Messkontinuum in einander wechselseitig ausschließende Merkmalsklassen auf und bezeichnet diese mit numerischen oder alphanumerischen Werten. Die Zuordnung erfolgt dabei nach Gleichheit / Verschiedenheit.

2. Skalierung von Daten

277

Die Einschätzung beschränkt sich auf zwei gegensätzliche Pole ohne die Möglichkeit einer Zwischenabstufung. Werden dabei Zahlen zugeordnet, haben diese lediglich symbolischen, nicht jedoch numerischen Charakter. Die Nominalskala erlaubt also nur eine Einstufung in dem Sinne, dass eine vordefinierte Merkmalsausprägung vorhanden oder nicht vorhanden ist. Alle Objekte, die hinsichtlich des erhobenen Merkmals gleich sind, werden der gleichen Kategorie zugeordnet. Die Merkmalsklassen schließen einander aus. Eigentlich handelt es sich eher um eine Klassifikation als um eine Skala. Beispiele sind Kontonummer, Geschlecht, Postleitzahl, Autokennzeichen etc. Die Ordinalskala teilt ein Messkontinuum in einander wechselseitig ausschließende Merkmalsklassen auf und bezeichnet diese mit Zahlenwerten. Höhere Zahlenwerte kennzeichnen dabei höhere Positionen auf dem Messkontinuum. Es kommt zu einer Bestimmung der Rangfolge. Für eine Reihe einander ausschließender Merkmale wird angegeben, an welcher Stelle in einer Reihenfolge die einzelnen Merkmale platziert sind. Ordinalskalen besitzen weder gleiche Intervalle, noch verfügen sie über einen absoluten Nullpunkt. Die Begriffe sind nur komparativer Natur. Die Abstände zwischen den einzelnen Positionen sind nicht fest definiert. Es ist demnach nicht möglich, nach der Intensität von Unterschieden zwischen erhobenen Objekten zu unterscheiden. Beispiele sind Härteskala, Richterskala, Tabellenstand, Schulnote, Windstärke etc. Die Intervallskala teilt ein Messkontinuum in einander wechselseitig ausschließende Merkmalsklassen auf und bezeichnet diese mit Zahlenwerten. Höhere Zahlenwerte kennzeichnen höhere Positionen auf dem Messkontinuum. Die Abstände zwischen den Merkmalsklassen sind gleich groß, Zahlenwertdifferenzen können daher miteinander verglichen werden. Es ist demnach eine Gleichheit von Intervallen und Unterschieden bei einem willkürlich festgelegten Nullpunkt gegeben. Damit repräsentieren gleiche Intervalle zwischen den Zahlen auch gleiche Abstände im Hinblick auf die gemessene, empirische Eigenschaft. Allerdings sind keine Aussagen über absolute Merkmalsausprägungen möglich, da die Skala keinen natürlichen Nullpunkt aufweist. Jede positive lineare Transformation, d. h. Multiplikation / Division mit einer positiven Konstanten oder Addition / Subtraktion einer Konstanten, ist zulässig. Die Intervalle können miteinander addiert und subtrahiert werden, nicht jedoch miteinander multipliziert oder dividiert. Beispiele sind Temperatur (nicht Kelvin), Kalenderdatum, Intelligenzquotient etc. Die Ratioskala (auch Verhältnisskala)  teilt ein Messkontinuum in einander wechselseitig ausschließende Merkmalsklassen auf und bezeichnet diese mit Zahlenwerten. Höhere Zahlenwerte kennzeichnen höhere Positionen auf dem Messkontinuum. Die Abstände zwischen den Merkmalsklassen sind gleich groß, Zahlenwertdifferenzen können daher miteinander verglichen werden. Darüber hinaus ist ein absoluter Nullpunkt gegeben, weshalb sich auch Zahlenwertverhältnisse miteinander vergleichen lassen. Die Zahl Null hat hier eine empirische Bedeutung

278

Kap. V: Statistische Datenauswertung

und darf nicht verschoben werden, denn sie besagt, dass das gemessene Merkmal dort nicht vorhanden ist. Alle vier Grundrechenarten sind anwendbar. Beispiele sind Länge, Zeit, Volumen, Preis, Einkommen, Währungseinheiten, Alter, Menge, Kundenzahl etc.

2.2 Skalierungsverfahren 2.2.1 Einteilung Skalierbare Merkmale können ein- oder mehrdimensional sein. Eindimensional skaliert wird ein Merkmal, wenn der größte subjektive Unterschied zwischen drei Objekten gleich der Summe der beiden kleineren Unterschiede ist. Die Darstellung erfolgt also auf einer Geraden. Mehrdimensionale Merkmale können in mehrere eindimensionale zerlegt werden, indem immer nur eine paarweise Beziehung der Komponenten untersucht wird, oder aggregiert werden, indem stark korrelierende Komponenten durch Datenreduktionsverfahren zu einer neuen künstlichen Komponente zusammengezogen werden. Die Darstellung erfolgt also in einem Koordinatensystem.

Selbsteinstufungsverfahren Fremdeinstufungsverfahren subjektive Fremdeinstufung objektive Fremdeinstufung Single item Multi item Abbildung 56: Skalierungstechniken

Es lassen sich drei Gruppen von Skalierungsverfahren unterscheiden (siehe Abbildung 56: Skalierungstechniken): • Skalierungsähnliche (Selbsteinstufungs-)Verfahren sind solche, die keine Vorschrift darüber enthalten, wie die Itemwerte in Skalenwerte übersetzt werden sollen. Dieses Bewusstsein wird vielmehr bei den Befragungspersonen bereits vorausgesetzt. Die Testpersonen tragen dazu die wahrgenommenen Ausprägungen eines Merkmals auf einem Zahlenkontinuum in Form der Ratingskala ein. Daher kann mit Paarvergleich, Rangordnung etc. gearbeitet werden, oder allgemeiner mit ordinaler Messung.

2. Skalierung von Daten

279

• Single item-Skalierungsverfahren stellen nur eine Dimension dar, meist die affektive Einstellung als hypothetisches Konstrukt, das empirisch allein noch nicht messbar ist. Eindimensionale Skalierungsverfahren beziehen nur einen Aspekt der Einstellung ein, Thurstone und Likert betrachten nur die affektive Komponente der Einstellung, Coombs und Guttman nur die konative. Die daraus entstehenden Skalen folgen hinsichtlich Itemselektion und Reaktionsinterpretation objektiv nachvollziehbaren und empirisch abgesicherten Kriterien als probabilistische (Thurstone / Likert) oder deterministische Messmodelle (Coombs / Guttman). • Multi item-Skalierungsverfahren werden der Komplexität des Objekts durch mehrere Merkmale gerecht, meist affektive und kognitive Einstellungen. Diese können auf ein subjektives, eindimensionales Kontinuum reduziert als Index oder in objektiven, mehrdimensionalen, geometrischen Räumen dargestellt werden als Multiattributivmodelle wie Semantisches Differenzial, Polaritätenprofil, Fishbein-Skala, Trommsdorff-Skala. Dabei konstruiert der Forscher die eigentliche Messskala aus der Verknüpfung von Einzelwerten, auf der dann Befragte positioniert werden. Die Itemselektion betrifft die Auswahl und Zusammen­ stellung der Itembatterie, mit der Befragte konfrontiert werden. Die Reaktionsinterpretation betrifft die Positionierung der Befragten auf der eigentlichen Messskala. 2.2.2 Selbsteinstufung 2.2.2.1 Ratingskala Ratingskala Rangordnung Magnitudeskala Paarvergleich Imagery-Differenzial

Abbildung 57: Verfahren der Selbsteinstufung

Skalierungsähnliche Verfahren erfolgen als Selbsteinstufung der Auskunfts­ personen (siehe Abbildung 57: Verfahren der Selbsteinstufung). Im Wesentlichen handelt es sich um Rating- und Magnitude-Skalen, Rangordnung und Paar­ vergleich. Dabei handelt es sich um nicht-metrische, komparative Skalierungen. Daneben gibt es verschiedene metrische, nicht-komparative Verfahren wie nach Likert, Guttman, Thurstone etc., die meist zur Einstellungsmessung eingesetzt werden (s. u.).

280

Kap. V: Statistische Datenauswertung

Die Ratingskala ist ein Kontinuum von in gleichen Abständen aneinander gefüg­ ten numerischen Werten, in das eine Auskunftsperson die von ihr an einem Objekt wahrgenommenen Merkmalsausprägungen einträgt. Sie ermöglicht es dem Befragten, durch die Vorgabe abgestufter Antwortkategorien die Intensität seiner Antwort anzugeben. Meist erfolgt die Messung bei verbalen Skalen auf Nominalniveau, bei unipolaren Skalen auf Ordinalniveau. Meist werden vier bis sieben Stufen vorgegeben, um das Unterscheidungsvermögen der Befragten nicht zu überfordern. Beim forcierten Rating wird eine eindeutige Angabe verlangt, ansonsten bleiben Ausweichkategorien (wie „Weiß nicht“/„keine Angabe“). Die Werte mehrerer Personen können summiert und als Durchschnitt wiedergegeben werden (siehe Abbildung 58: Ratingskala (Beispiel)). Wir beurteilen Sie die Kofferraum-

wenden Sie bei

modells X?

die Marke Y?

sehr gut gut befriedigend mehrmals monatl. knapp ausreichend

einmal monatlich

mangelhaft

seltener so gut wie nie / nie

Abbildung 58: Ratingskala (Beispiel) (eig. Darst.)

Die Skala kann mehrere Ausprägungen haben (siehe Abbildung 59: Unipolare, bipolare, verbale, numerische Skala): • Gleitend bedeutet, dass Intensitäten durch Abstufungen ausgedrückt werden können, polar bedeutet, dass es nur extreme Ausprägungen gibt. Dabei ist es sinnvoll, bei einer Skalenabfrage im Zeitablauf bzw. bei mehreren Skalenabfragen zugleich die Skalenpole zu wechseln (invertieren), um gleichförmigem Antwortverhalten entgegen zu wirken. Allerdings kann es dabei auch zu Verwechslung oder Überforderung der Auskunftspersonen kommen. • Unipolar bedeutet, dass die Abstufungen sich auf die Ausprägungen eines Merkmals als Stapelskala beziehen, also nur positive Zahlen umfassen, d. h. Intensitätsabstufungen nur einer Bezeichnung, der in mehr oder minder ausgeprägtem

281

2. Skalierung von Daten

Unipolare Skala Die Produkte der Marke XYZ sind besonders praktisch im Gebrauch! trifft nicht zu

trifft zu

Bipolare Skala Die Produkte der Marke XYZ sind ... kostspielig

preis-

Verbale Skala Die Produkte der Marke XYZ sind besonders praktisch im Gebrauch! stimme voll und ganz zu

wiegend zu

stimme eher zu

lehne eher ab

wiegend ab

lehne ganz und gar ab

Numerische Skala Die Produkte der Marke XYZ sind besonders praktisch im Gebrauch! stimme voll und ganz zu

1 2

3

4

5

6 7

8

9

lehne ganz und gar ab

Abbildung 59: Unipolare, bipolare, verbale, numerische Skala (eig. Darst.)

Maße zugestimmt werden kann bzw. die mehr oder minder abgelehnt werden kann (z. B. sehr gut – nicht so gut / stimme zu – stimme nicht zu). Bipolar bedeu­tet, dass sie sich auf zwei, diametral entgegen gesetzte Ausprägungen eines Merkmals beziehen, also positive und negative Zahlenwerte um den Nullpunkt haben, zwischen denen in Abstufungen zu wählen ist (z. B. gut – schlecht / billig – teuer, aktiv – passiv, stark – schwach). • Ungegliedert (auch kontinuierlich) bedeutet, dass Auskunftspersonen zwischen zwei Endwerten einen beliebigen Punkt markieren können. Damit sind theoretisch unendlich viele Skalenwerte denkbar. Dies spiegelt jedoch eine Scheingenauigkeit vor, denn tatsächlich sind Auskunftspersonen damit meist überfordert. Gegliederte Skalen (auch diskontinuierlich) vermeiden dieses Problem, indem sie einzelne Skalenpunkte zur Anwahl vorgeben.

282

Kap. V: Statistische Datenauswertung

• Verbal bedeutet, dass die einzelnen Punkte der Skala durch verbale Umschreibung der Intensitätsgrade ergänzt oder durch diese ersetzt sind. Problematisch ist dabei die Wahl geeigneter Statements. Verbale Antworten bergen oft das Problem der semantischen Ausbalancierung positiver und negativer Kategorien (z. B. stimme voll und ganz zu, stimme zu, stimme nicht zu, stimme ganz und gar nicht zu). Non-verbale Skalen vermeiden dieses Problem indem die Kategorien durch Symbole angegeben sind. Häufig handelt es sich dabei um Farben, geometrische Figuren etc. • Numerisch bedeutet, dass die Anzahl der Skalenpunkte durchgezählt ist, und zwar mit ungerader oder gerader Zahl von Optionen. Meist sind vier bis sieben Abstufungen vorgegeben. Dabei ist eine gerade Anzahl von Skalenpunkten wegen der Tendenz zur Indifferenz („Fluchtpunkt“) gegenüber einer ungeraden Anzahl der Skalenpunkte zu bevorzugen. Allerdings gibt es erfahrungsgemäß eine Häufung um den Mittelwert. Ähnliches gilt für das Weglassen einer Ausweichkategorie (Weiß nicht) bei Forced choice-Ratings. Grafisch bedeutet, dass Wertungen nicht durch Numerierung, sondern unter Verwendung von Bildern erfolgen, etwa durch vertikale Einteilung (Thermometer), größer werdende Flächen / Kreise oder Symbole wie freundlicher werdende Gesichtsikonen (Kunin-Scale). Probleme liegen darin, dass fraglich ist, ob die Skala von Probanden als intervall- oder ordinalskaliert begriffen wird. Meist werden ordinale Angaben wie metrische behandelt, weil unterstellt wird, dass die Abstände auf der Skala von Befragten als gleiche Intervalle aufgefasst werden. Außerdem ist keine Anpassung an individuell unterschiedliche Wahrnehmungsspektren möglich. So können nahe beieinander liegende, jedoch differenzierte Wahrnehmungen auf gleiche Skalenwerte gesetzt und Wahrnehmungen jenseits der vorgegebenen Skalenwerte nicht mehr platziert werden. Ebenso gibt es intersubjektiv wohl erhebliche Abweichungen hinsichtlich der Zuordnung von Wahrnehmungen zu Messwerten. Zudem stellt sich immer die Frage, welche Stimuli für welche Aufgabe wirklich relevant sind und ob nicht irrelevante beinhaltet und relevante ausgelassen sind. 2.2.2.2 Magnitudeskala Die Magnitude-Skala dient zur Messung von Wahrnehmungsintensitäten. Grundannahme ist dabei, dass eine Person die Größe ihrer Empfindungsintensitäten unmittelbar in ein Kontinuum bestimmter Werte umsetzen kann. Es wird verlangt, dass einem Stimulus mit doppelter Stärke als ein anderer auch der doppelte Wert zugeordnet wird. Insofern können die Probanden ihre zustimmende oder ablehnende Haltung wesentlich feiner differenzieren als dies bei verbalen Antwortkategorien oder numerischen Vorgaben möglich ist. Bei der Wahl des ersten Messwertes ist der Proband frei, alle folgenden müssen sich jedoch relativ dazu verhalten. Maßstab sind etwa Linienlänge, Tondauer, Lichtstärke, Kreisgröße etc. (siehe Abbildung 60: Magnitude-Skala).

2. Skalierung von Daten

283

Es soll also eine proportionale Beziehung zwischen der Ausübung eines physikalischen Reizes und dessen Wahrnehmung gemessen an der Reaktion wiedergegeben werden. Dadurch sollen die Nachteile der Rating-Skala vermieden werden. Die Ergebnisse können am ehesten als metrisch-skaliert angenommen und entsprechenden Rechenprozeduren unterworfen werden. Ebenso lässt sich die Validität der Skalierung prüfen. Allerdings erfordert die Anwendung der Modalitäten wie Lichtstärke, Tonlänge etc. technische Geräte und damit Studiosituationen mit ihren immanenten Problemen.

Item 1

Item 2

Item 3

Item 4

unterschiedliche Zustimmung zu Items 1–4

Abbildung 60: Magnitude-Skala (eig. Darst.)

2.2.2.3 Imagery-Differenzial Darunter versteht man ein non-verbales Messinstrument, dem ein Werturteil über die überragende Wirkung von Bildern bei der Wahrnehmung gegenüber Texten zugrunde liegt. Allerdings sind die Wirkungen von Bildern im Einzelnen schwer kontrollierbar. Daher muss ein anderes Messinstrument eingesetzt werden. Es handelt sich dabei um Dimensionen zur Beschreibung innerer Bilder, vor allem Klarheit, Gefallen, Intensität, Reichhaltigkeit, Informationsgehalt, Vertrautheit etc. Zur Kennzeichnung werden keine Begriffe, sondern unverfängliche, die jeweilig zu erhebende Eigenschaft widerspiegelnde Bilder genutzt. So steht etwa eine flache Straße für die polaren Dimensionen „klar“ – „neblig“, ein Baum für „blühend“ – „kahl“, ein Haus für „nah“ – „fern“ etc. Dadurch wird die Messung jedoch weiter verkompliziert, so dass sich fragt, ob dies wirklich einen Vorteil bringt.

284

Kap. V: Statistische Datenauswertung

2.2.2.4 Rangordnung Bei der Rangordnung werden keine absoluten, sondern nur ordinale Angaben benötigt. Dazu ordnet die Versuchsperson eine Menge von Objekten in aufsteigender oder abfallender Rangordnung in Reihenfolge des Ausmaßes, in dem sie das untersuchte Merkmal besitzen, an. Dies setzt das Vorhandensein mehrerer Stimuli voraus, die gerangreiht werden können. Dabei wird jedoch nichts über den Abstand zwischen einzelnen Rängen ausgesagt. Das heißt, ein Objekt, das von Probanden an einer bestimmten Rangstelle platziert wird, kann um Vieles oder nur um Weniges besser oder schlechter sein als das nachfolgende oder vorausgehende Objekt. Dadurch ergeben sich Interpretationsunsicherheiten. Auch können Auskunftspersonen durch die Anordnung überfordert werden. Daher wird häufig auf das Q-SortVerfahren zurückgegriffen, dabei sind die Beurteilungsobjekte nach vorgegebenen Kriterien (z. B. Zustimmung) durch Auskunftspersonen in Stapel zu sortieren. Die Kriterien können wiederum vorab nach ihrer Bedeutung gerankt werden. 2.2.2.5 Paarvergleich Beim Paarvergleich handelt es sich um eine messtechnisch weiterentwickelte Form des Rangordnungsverfahren. Aus einer Menge von Objekten gebildete Objektpaare werden von der Versuchsperson dahingehend beurteilt, welches Objekt das jeweils andere im Hinblick auf das Ausmaß des untersuchten Merkmals dominiert. Aus der Anzahl der Dominanzen einzelner Objekte ist die Bildung einer Rangordnung in Bezug auf das Merkmal möglich. Der höchste Rang steht dann für das Objekt, das am häufigsten im Paarvergleich als merkmalsdominant angesehen wird. Werden alle möglichen Paare gebildet, kommt es so zu n × (n−1)halben Urteilen, was eine große Hürde darstellen kann. Allerdings kann es dabei zu einer Verletzung der Transitivitätsbedingung kommen (a > b, b > c, c > a). Auch hängt das Ergebnis womöglich von der Reihenfolge der Präsentation der Objektpaare ab. Die Realität ist zudem häufig nicht durch Alternativen (n = 2), sondern durch Optionen (n > 2) gekennzeichnet. Weiterhin sagt Präferenz nichts über den Abstand der vorgefundenen Alternative zum gedachten Ideal aus. Je mehr Objekte daran beteiligt sind, desto unübersichtlicher wird insofern die Einordnung. Deshalb wird dieser Vorgang meist in eine Vielzahl von Einzelvergleichen aufgelöst. Bei der Fremdeinstufung werden subjektive, autonome und objektive, abfolgebedingte Verfahren unterschieden. Letztere unterteilen sich in Bezug auf die Attribute wiederum in Single item- und Multi-item-Verfahren, erstere bzgl. nur eines Attributs (auch Objekt / Element), letztere bzgl. mehrerer Attribute (siehe Abbildung 61: Verfahren der Fremdeinstufung).

2. Skalierung von Daten

285

Subjektive Fremdeinstufung Indexbildung Konstantsummen Objektive Single item-Fremdeinstufung Likert Thurstone Coombs Guttman Objektive Multi item-Fremdeinstufung dekomponierende Verfahren Semantisches Differenzial Polaritätenprofil komponierende Verfahren Fishbein Trommsdorff

Abbildung 61: Verfahren der Fremdeinstufung

2.2.3 Subjektive Fremdeinstufung 2.2.3.1 Indexbildung Befragungspersonen werden anhand unterschiedlicher Items auf der eigentlichen Messskala positioniert. Sie „sehen“ die Messskala gar nicht, sondern diese ergibt sich erst durch fremde Konstruktion der Einzelmesswerte. Die Probanden positionieren sich also nicht selbst, sondern werden durch den Forscher positioniert. Problematisch ist dabei die Itemselektion, d. h. die Auswahl und Zusammenstellung der Itembatterie, und die Reaktionsinterpretation, d. h. die Verknüpfung der Antworten auf der eigentlichen Messskala. Bei der Indexbildung werden diese Probleme nach subjektiven, pragmatischen Gesichtspunkten des Forschers und nicht mit einem streng formalisierten Kalkül

286

Kap. V: Statistische Datenauswertung

gelöst (siehe Abbildung 62: Indexbildung (gewichtet). Demnach sollen Sachverhalte, die ihrem Wesen nach mehrdimensional sind (z. B. Kundenzufriedenheit), durch eine einzige Messzahl, eben den Index, ausgedrückt werden. Dabei wird für jede der verschiedenen Teildimensionen ein Index gebildet und nach Kombination durch eine vom Forscher nach sachgemäßem Ermessen festgelegte Vorschrift auf einem eindimensionalen Messkontinuum abgebildet. Dabei können auch Gewichtungen zwischen den Variablen eingeführt werden. Fraglich ist allerdings, ob die Teildimensionen addiert werden dürfen, dies wäre nur erlaubt, wenn Intervall- oder Ratioskalenniveau unterstellt wird.

Zufriedenheit mit der Hautverträglichkeit einer Seife

Zufriedenheit mit der Reinigungskraft einer Seife

niedrig (0)

mittel (2)

hoch (4)

niedrig (0)

0

2

4

mittel (1)

1

3

5

hoch (2)

2

4

6

Abbildung 62: Indexbildung (gewichtet)

2.2.3.2 Konstantsummenskala Die Konstantsummenskala setzt eine feste Anzahl zu beurteilender Objekte voraus. Dabei wird eine bestimmte Anzahl von Präferenzen repräsentierenden Einheiten, z. B. Punkte, Geldbeträge, Zahlenperlen, nach vorgegebenen Kriterien den einzelnen zu beurteilenden Objekten zugewiesen. Je mehr Punkte einem Objekt zugeteilt werden, desto besser wird dieses in Bezug auf das Kriterium im Vergleich zu konkurrierenden eingestuft (siehe Abbildung 63: Konstantsummenskala). Damit wird der häufig anzutreffenden Tendenz von Befragten entgegengewirkt, alle zu bewertenden Objekte als besonders wichtig, attraktiv etc. zu beurteilen, statt realistische Präferenzordnungen anzugeben. Basis sind also Präferenzen als ganzheitliche Vorziehenswürdigkeitsurteile, die Ergebnisse von Lernen, Übernahme von anderen Personen oder Entscheidungsprozessen sind. Bei einer größeren Zahl von Beurteilungsobjekten sind die Probanden allerdings rasch in ihrer Urteilsfähigkeit überfordert, so dass oft eine bestimmte Anzahl von Punkten für einen Referenzreiz vorgegeben wird, an dem sich dann die anderen Stimuli orientieren können. Insgesamt handelt es sich hierbei um eine

287

2. Skalierung von Daten

sehr praktikable Form der Messung. Sie zwingt Auskunftspersonen zu einer Bewertung bei begrenzten Ressourcen wie das in der Realität üblich ist. Befragter A:

Befragter B:

Welche Zigarettenmarke bevorzugen Sie (max. 10 Pkte. sind zu vergeben)?

Welche Zigarettenmarke bevorzugen Sie (max. 10 Pkte. sind zu vergeben)?

Marlboro: 5

Marlboro: 1

HB: –

HB: 3

West: 2

West: –

Camel: 1

Camel: –



Cabinet: 3

Cabinet:

Lucky Strike: 2 Reval: –

Lucky Strike:



Reval: 3

Abbildung 63: Konstantsummenskala

2.2.4 Objektive Single item-Fremdeinstufung 2.2.4.1 Likert-Skala Bei der Likert-Skala (auch Verfahren der summierten Schätzungen) geben Probanden ihre Urteile über Einstellungsobjekte durch verschiedene Grade der Zustimmung zu oder Ablehnung von verbalen Äußerungen zum Meinungsgegenstand ab (siehe Abbildung 64: Likert-Skala (Beispiel)). Der Gesamtwert der Einstellungen einer Auskunftsperson zum Objekt ergibt sich aus der Addition der Skalenwerte aller Items. Die Zustimmung / Ablehnung für ein Item wird für jede Antwortperson mit einer Ratingskala gemessen. Aus einer Vielzahl von Statements, die je zur Hälfte eindeutig positiv und negativ formuliert sind, wird dann eine Handvoll trennschärfster Statements extrahiert, die am besten zwischen Personen mit unterschiedlichen Einstellungen diskriminieren. Die restlichen Statements werden mit der ursprünglichen Ratingskala erhoben. Es handelt sich um ein personenzentriertes Messen, d. h., es liegen unterschiedliche Personen und Reize vor. Insgesamt folgt daraus sowohl eine materielle als auch formale Einschränkung der Anwendbarkeit. Die Vorgehensweise ist dabei im Einzelnen wie folgt. Im ersten Schritt erfolgt die Formulierung einer Reihe von Statements, die zu gleichen Teilen eine extrem positive bzw. negative Einstellung zum Untersuchungsobjekt darstellen. Daraus

288

Kap. V: Statistische Datenauswertung

folgt die Einnahme einer entweder extrem positiven oder extrem negativen Position auf dem Messkontinuum (= Statements mit monotoner Funktionscharakteristik).

Die Produkte der Marke XYZ stimme voll stimme überund ganz zu wiegend zu

2

1

Mittelwert der durchschnittlichen Bewertung durch die Gruppe der

bin unentschieden

wiegend ab

lehne ganz und gar ab

0

−1

−2

Mittelwert der durchschnittlichen Bewertung durch die Gruppe der starken Ablehner Item A Item B Item C Item D Item E Item F Item G Item H Item I Item J etc.

MittelwertDifferenz

Abbildung 64: Likert-Skala (Beispiel) (eig. Darst.)

In einer Voruntersuchung werden die Statements Befragten vorgelegt. Diese geben dann den Grad ihrer Zustimmung bzw. Ablehnung zu jedem Statement an Hand einer fünfstufigen grafisch dargestellten Ratingskala an. Die Skala reicht von „stimme voll und ganz zu“ über „unentschieden“ bis zu „lehne ganz und gar ab“. Die Zahlenwerte (Beurteilungswerte) werden den einzelnen Antwortmöglichkeiten zugeordnet. Hierbei ist auf eine einheitliche Richtung zu achten. Bei positiv formulierten Statements wird z. B. für die Antwort „stimme voll und ganz zu“ der numerische Wert 5 vergeben, für „unentschieden“ der Wert 3 und für „lehne ganz und gar ab“ der Wert 1. Bei negativ formulierten Statements erfolgt die Zuordnung der numerischen Werte entgegengesetzt. Für die Antwort „lehne ganz und gar ab“ wird der Wert 5 vergeben, und für „stimme voll und ganz zu“ der Wert 1. Durch dieses Verfahren wird sichergestellt, dass hohe Werte eine entschiedene Einstellung zum Untersuchungsobjekt repräsentieren. Für jeden Befragten der Voruntersuchung wird die Summe seiner Beurteilungswerte über alle Statements ermittelt. Die 25 % der Testpersonen mit den höchsten

289

2. Skalierung von Daten

Summen der Beurteilungswerte bilden die obere Extremgruppe (1. Quartil), die 25 % der Testpersonen mit der niedrigsten Summe der Beurteilungswerte stellen die untere Extremgruppe dar (3. Quartil). Für jedes Statement, getrennt nach oberer und unterer Extremgruppe, die Werte der mittleren 50 % der Testpersonen bleiben dabei bewusst außer acht, wird das arithmetische Mittel errechnet, das heißt, pro Statement liegt ein arithmetisches Mittel der oberen Extremgruppe und eines der unteren Extremgruppe vor. Die Differenz der beiden arithmetischen Mittel je Statement gilt als Maß für die Trennschärfe des Statements, also sein Diskriminanzvermögen, damit seine Fähigkeit, unterschiedliche Meinungen zu messen. Die Statements mit dem höchsten Diskriminanzvermögen, bei denen also die beiden arithmetischen Mittel der beiden Extremgruppen am weitesten auseinander liegen, werden für die endgültige Skala herangezogen. In der Hauptuntersuchung werden die Befragten gebeten, den Grad ihrer Zustimmung bzw. Ablehnung zu den ausgewählten Statements an Hand einer fünfstufigen Skala anzugeben von „stimme voll und ganz zu“ bis „lehne ganz und gar ab“. Es erfolgt eine Zuordnung von Zahlenwerten zu den einzelnen Beurteilungen nach dem Prinzip der „Einheitlichkeit der Richtung“. Die Summe der Beurteilungswerte über alle Statements stellt die Position des Befragten auf dem Messkontinuum dar. Daher die Bezeichnung „Methode der summierten Schätzungen“. 2.2.4.2 Thurstone-Skala Die Thurstone-Skala (auch Verfahren der gleich erscheinenden Intervalle) misst Einstellungen, indem Probanden ihr Urteil durch pauschale Zustimmung zu oder Ablehnung von verbalen Äußerungen zum Meinungsgegenstand kundtun (siehe Abbildung 65: Thurstone-Skala (Beispiel)). Dabei repräsentiert jedes Statement einen bestimmten, auf der Grundlage von Expertenurteilen gebildeten und den Auskunftspersonen nicht bekannten Intensitätswert auf einem ungeradzahligen Einstellungskontinuum. Der Gesamtwert der Einstellungen ergibt sich aus dem Durchschnitt der Skalenwerte derjenigen Statements, denen der Proband zugestimmt hat. Der individuelle Skalenwert wird als Summe der Items ermittelt, denen zugestimmt wird, wobei jedes Item mit dem zugewiesenen Skalenwert gewichtet ist. Die Produkte der Marke XYZ sehr negativ

neutral

Abbildung 65: Thurstone-Skala

sehr positiv

290

Kap. V: Statistische Datenauswertung

Die Vorgehensweise ist dabei im Einzelnen wie folgt. Im ersten Schritt wird eine mögliche große Anzahl von Aussagen zu einem Untersuchungsobjekt formuliert, die möglichst viele verschiedene Einstellungen widerspiegeln (= Statements mit nicht-monotoner Funktionscharakteristik). Die Statements sollen möglichst viele unterschiedliche Punkte auf dem Messkontinuum darstellen. Die Beurteilung der Statements erfolgt durch eine Expertengruppe. Jedes Mitglied der Expertengruppe stuft auf einer meist elfstufigen grafisch dargestellten Ratingskala individuell jedes einzeln formulierte Statement daraufhin ein, ob es bei einer Zustimmung eine sehr negative (= 1), eine neutrale (= 6) oder eine sehr positive (= 11) Einstellung zum Einstellungsobjekt widerspiegelt. Die Experten sind dazu angehalten, nicht ihre eigene Einstellung wiederzugeben, sondern sich in den Befragten hinein zu versetzen. Die Einstufungen werden bei einigen Statements sehr ähnlich sein, bei anderen wiederum sehr verschieden. Im dritten Schritt erfolgen die Berechnung des arithmetischen Mittels und der Streuung (Varianz / Standardabweichung) für jedes Statement über die Beurteilungswerte aller Experten. Das arithmetische Mittel eines Statements wird als Skalenwert bezeichnet. Es erfolgt eine Auswahl von elf Statements aus der gesamten Statementliste. Dies folgt der Anforderung, dass die Streuung der Urteilswerte der Experten um den Skalenwert möglich gering sein muss, da bei einer hohen Streuung auf einen geringen Konsens der Experten und damit auf fehlende Validität geschlossen werden kann. Die Skalenwerte der ausgewählten Statements müssen sich gleichmäßig über das Messkontinuum verteilen, so dass (einheitlich wäre getrennt geschrieben) die Intervalle zwischen den Statements so weit wie möglich gleich groß sind. Daher auch die Bezeichnung „Verfahren der gleich erscheinenden Intervalle“. Die verbleibende Statementliste bildet die fertige Skala und wird den Befragten in der Untersuchung in zufälliger Reihenfolge ohne Nennung der Skalenwerte vorgelegt. Die Befragten sollen die Statements auswählen, die ihre Einstellung gegenüber dem Untersuchungsobjekt am besten wiedergeben. Für jeden Befragten wird das arithmetische Mittel aus den Skalenwerten der von ihm ausgewählten Statements errechnet und als Position des Befragten auf dem Messkontinuum interpretiert. Vorteile liegen im geringen erhebungstechnischen Aufwand. Eine kompakte Itembatterie lässt sich schnell und ohne besondere Ansprüche an Interviewer wie Befragte abarbeiten. Es handelt sich außerdem um ein reizzentriertes Messen, d. h., es liegen unterschiedliche Reize bei gleichen Personen vor. Von Nachteil ist jedoch der erhebliche Vorbereitungsaufwand zur Skalenkonstruktion und Itemselektion durch Expertenformulierung. Zudem werden extrem positiv und extrem negativ eingestellte Personen zu negativ bzw. zu positiv eingestuft, da es zu einer Durchschnittsbildung kommt.

291

2. Skalierung von Daten

2.2.4.3 Coombs-Skala Die Coombs-Skala (auch Unfoldingtechnik) geht davon aus, dass der genaue Ort des Idealpunkts, den eine Versuchsperson auf einer Skala einnimmt, einem hypothetischen Wert entspricht. Alle gegebenen Punkte auf der Skala kommen diesem nur mehr oder minder nahe. Die Präferenzordnung, die aus den Urteilen eines Probanden entsteht und angibt, welches von zwei Objekten dem eigenen Standpunkt näher kommt, ist somit nichts anderes als die im Orte des Idealpunkts (Cutting point) gefaltete Skala. Diese Skala heißt I-Skala, im Gegensatz zur entfalteten Skala, auf der sich die Objekte und der Idealpunkt befinden, die J-Skala heißt. Es handelt sich somit um eine interne Präferenzanalyse, bei der sowohl Wahrnehmungsraum als auch Präferenzraum unbekannt sind und gemeinsam geschätzt werden (siehe Abbildung 66: Coombs-Skala (Beispiel)). Bei einer externen Präferenzanalyse sind hingegen die Reizkoordinaten des Wahrnehmungsraums bekannt und werden nur um die Präferenzparameter der Urteilspersonen ergänzt. Werden die Ergebnisse auf zwei Dimensionen reduziert, ist die Darstellung in Form eines Koordinatensystems möglich, das die Präferenzordnungen der Auskunftspersonen in Bezug auf Meinungsgegenstände grafisch darstellt. Es handelt sich dann um „Präferenzlandkarten“ (Mappings), die dem Prinzip der Feldtheorie folgen. Daraus ist vor allem ersichtlich, wie jeder Meinungsgegenstand hinsichtlich zweier Beurteilungsdimensionen eingeschätzt wird, wie die relative Position verschiedener Meinungsgegenstände innerhalb dieser beiden Beurteilungsdimensionen zueinander ist und wie die relative Position eines Idealmeinungsgegenstands der Auskunftspersonen innerhalb dieser beiden Beurteilungsdimensionen ist.

Einkaufspassage in dieser Stadt genannt. hohe Preise

Auswahl

erreichen

hektisch

freundliche

1

2

3

4

5

Abbildung 66: Coombs-Skala (Beispiel) (eig. Darst.)

Die Vorgehensweise ist im Einzelnen wie folgt. Die Befragten bringen Items entweder nach dem Grad ihrer persönlichen Zustimmung / Ablehnung in Rangordnung oder nach zunehmender / abnehmender Präferenz. Es handelt sich also um komparative Inputdaten auf Ordinalniveau.

292

Kap. V: Statistische Datenauswertung

Aus der Kenntnis der Reaktionsschemata kann der Forscher unmittelbar auf den Standort der Auskunftsperson auf einem Einstellungskontinuum schließen. Der Umschlagpunkt (Cutting point) liegt allerdings nicht in einer Itemposition, sondern genau in der Mitte zwischen zwei Positionen. Dieser wird dadurch bestimmt, dass einzelne Auskunftspersonen je nach ihrem individuellen Standort auf dem Messkontinuum Items als unterschiedlich weit entfernt von der eigenen Position erleben. Die Distanzen zwischen dem eigenen feldtheoretischen Ort und den Orten der infrage stehenden Items bestimmen dann deren Rangordnung. Als je geringer die Distanz erlebt wird, desto höher ist der Rangplatz des betreffenden Items. Damit wird auch einsichtig, warum die Rangordnungen genau in der Mitte zwischen zwei Idealpunkten umschlagen, denn dabei ändert sich jeweils die geometrische Distanzrelation benachbarter Räume. Problematisch sind wissentlich oder (meist) unwissentlich inkonsistente Antworten der Befragten. Daraus resultierende inkorrekte Reaktionsschemata können vermieden werden, indem nicht-skalierbare Stimuli aus der Itemanalyse eliminiert werden oder zu einer mehrdimensionalen Analyse übergegangen wird, wenn dem Reaktionsmuster mehr als ein zu messendes latentes Kontinuum zugrunde liegt. Das Arbeitsprinzip der Entfaltungstechnik lässt sich durch ein Beispiel veranschaulichen. Die zu messende Dimension sei durch eine Schnur dargestellt, in die in bestimmten Abständen Knoten geschlungen sind. Diese Knoten repräsentieren die Orte der Items auf dieser Dimension. Eine Auskunftsperson fasst nunmehr die Schnur genau an der Stelle, die ihrem eigenen Ort auf dem Kontinuum entspricht und hebt die Schnur dort in die Höhe. Die beiden herabhängenden Enden lassen dann ihre individuelle Präferenzordnung erkennen. Mit mehreren Schnüren für die Dimensionen und Probanden ergibt sich so ein Bild der Einstellungen. Bei der Messung wird dieser Vorgang umgekehrt. Gegeben sind die Auskunftspersonen mit ihren Reaktionsschemata, bildlich gesehen also den zusammen gefassten Messkontinua der Schnur mit Knoten. Erhebungsaufgabe ist es, die den Kontinua zugrunde liegenden Strukturen aufzudecken, also die Schnur zu entfalten oder bei mehreren Dimensionen, ein Tuch mit Markierungspunkten. Die Auskunftsperson hebt dabei das Tuch genau an der Stelle in die Höhe, die ihrer eigenen Position zum Untersuchungsgegenstand entspricht und presst es zu einem Strang zusammen.

2.2.4.4 Guttman-Skala Die Guttman-Skala (auch Skalogramm-Analyse) nimmt eine gleichzeitige Einstufung von Antwortkategorie (Item) und Antwortperson (Proband) auf einer eindimensionalen Skala vor (siehe Abbildung 67: Guttman-Skala (Beispiel)). Sie dient zur Messung von Einstellungen, bei der Probanden ihre Urteile durch pauschale Zustimmung oder Ablehnung von verbalen Äußerungen zum Meinungsgegen-

293

2. Skalierung von Daten

stand kundtun. Die Items müssen dazu nach ihrem Ausprägungsgrad möglichst konsistent geordnet sein (monoton abgestufte Itemcharakteristik). Dabei werden die Statements so ausgewählt, dass in einer Rangfolge der Items die Zustimmung zu bzw. Ablehnung von einer Aussage die Zustimmung bzw. Ablehnung bezogen auf alle rangniedrigeren Aussagen einschließt. Der Rangplatz des höchsten Statements, dem ein Proband zustimmt, repräsentiert dann dessen Einstellungswert, denn eine Person, die dem extremsten Statement zustimmt, stimmt implizit auch allen anderen in abgeschwächter Form formulierten Statements zu.

Item 3 Item 1 Item 4 Item 2 1. Pl. 2. Pl. 3. Pl. 4. Pl.

Item 1 Item 2 Item 3 Item 4 Proband A Proband B Proband C Proband D Proband E

1

0

1

0

1

1

1

1

0

0

0

0

1

0

1

1

0

0

1

0

Proband C Proband E Proband A Proband D Proband B

0

0

0

0

1

0

0

0

1

1

0

0

1

1

1

0

1

1

1

1

1 = Zustimmung / 0 = Ablehnung Ungeordnete Antworten

Idealtypisch geordnete Antworten

Abbildung 67: Guttman-Skala (eig. Darst.)

Die Vorgehensweise ist im Einzelnen wie folgt. Im ersten Schritt wird eine möglichst große Anzahl von Statements formuliert, von denen angenommen wird, dass sie alle unterschiedliche Punkte auf einem Messkontinuum darstellen. Die Statements werden im Rahmen einer Voruntersuchung in willkürlicher Reihenfolge Testpersonen vorgelegt. Hier zeigt sich, ob sie sich wirklich in hierarchisch ansteigender Form anordnen lassen, und es sich damit bei diesen Statements um für eine Guttman-Skalierung geeignete handelt. Die Befragten sollen angeben, ob die Statements für sie zutreffen (ja = 1) oder nicht (nein = 0). Aus den Antworten wird eine Matrix erstellt, welche die Antworten der einzelnen Befragten als Zeilen und die Statements als Spalten enthält. Eingetragen werden die Antworten pro Befragtem und pro Statement. Die Matrix wird so gestaltet, dass die Statements von links nach rechts mit abnehmender Häufigkeit testpositiver Reaktion und die Befragten von oben nach unten mit zunehmender Häufigkeit testpositiver Reaktion angeordnet sind.

294

Kap. V: Statistische Datenauswertung

Handelt es sich um perfekte Guttman-Statements, zeigt die Matrix das idealtypische Skalenmuster. Zustimmende Antworten (1) und ablehnende Antworten (0) liegen innerhalb genau abgegrenzter Skalenfelder. Es treten aber auch Matrizen auf, die nicht das Idealmuster aufweisen. Dann wird solange umgruppiert, bis die außerhalb ihrer jeweiligen Skalenfelder liegenden Antworten ein Minimum erreichen, ggf. werden einzelne Statements eliminiert. Eine fehlerhafte Matrix wird auch dann noch anerkannt, wenn nicht mehr als 10 % der Antworten außerhalb ihres Skalenfeldes liegen. Die so entstandene Matrix bildet die Guttman-Skala. In der endgültigen Matrix wird jedem Reaktionsschema ein Rangplatz aufsteigend von unten nach oben zugeordnet. Das Reaktionsschema, das nur ablehnende Antworten auf die Statements beinhaltet (nur 0), erhält den niedrigsten Rangplatz, und jenes, das nur zustimmende Antworten auf die Statements aufweist (nur 1) erhält den höchsten Rangplatz. Die Rangplätze kennzeichnen die Position des Reaktionsschemas auf dem Messkontinuum. In der Hauptuntersuchung werden den Befragten die Rangplätze zugeordnet, die ihrem jeweiligen Reaktionsschema entsprechen. Der Rangplatz wird am ranghöchsten Statement gemessen, dem der Befragte zustimmt, da davon ausgegangen wird, dass er dann automatisch den darunter liegenden auch zustimmt. Der Vorteil dieses Verfahrens liegt darin, dass Items in ihrer äußeren Form nahezu jede erhebungstechnisch realisierbare Gestalt annehmen können und dies in beliebiger Kombination innerhalb derselben Itembatterie. So sind Alternativ-, Mehrfachauswahl-, Skalen-, Vorlagenfragen etc. einsetzbar. Dies ermöglicht eine abwechslungsreiche Gestaltung der Erhebung und die Verteilung dieser Frageformen über die gesamte Erhebung. Es handelt sich außerdem um ein reaktionszentriertes Messen, d. h., es liegen unterschiedliche Personen, aber gleiche Reize vor. Nachteilig ist jedoch die mögliche Inkonsistenz der Antworten der Befragten. Dabei muss es sich nicht einmal um bewusstes Lügen handeln, sondern vielmehr nur um subjektiven Irrtum, also ohne dass diesen ihr inkonsistentes Handeln bewusst oder vorzuhalten ist. 2.2.5 Objektive Multi item-Fremdeinstufung 2.2.5.1 Semantisches Differenzial Multiattributive Skalierungstechniken beziehen mehrere Aspekte der nachfragerorientierten Einstellung ein, also sowohl kognitive als auch affektive und konative Komponenten. Dabei lassen sich zwei Arten unterscheiden, solche, die dekomponierend arbeiten, dabei handelt es sich vor allem um Semantisches Differenzial und Polaritätenprofil, und als solche, die komponierend arbeiten, vor allem das Fishbein- und das Trommsdorff-Modell. Erstere beziehen globale Messwerte auf konkrete Eigenschaften und Merkmale eines Meinungsobjekts, letztere setzen gewonnene Einzeleindrücke zu einem Gesamteindruck zusammen.

295

2. Skalierung von Daten

Das Semantische Differenzial (nach Osgood) ist eine mehrdimensionale Skalierung zur Messung von Einstellungen und Personen. Dabei geben Auskunftspersonen ihre Einordnung des Urteilsobjekts auf einem Satz meist fünf- bis neunstufiger Merkmalskontinua an, deren Pole mit gegensätzlichen Eigenschaften umschrieben sind (= bipolare Ratingskala). Eine fallweise Drehung der Pole verhindert Verzerrungen dadurch, dass mögliche positive Bewertungen immer nur auf einer Seite zu finden sind. Am besten werden mehrere, wechselnde Teilauflagen von Fragebögen erstellt. Die Begriffe haben nur metaphorischen, konnotativen Charakter und keine objektbezogene, denotative Bedeutung (siehe Abbildung 68: Semantisches Differenzial (Beispiel)). Sie sollen jedoch wesentlich für das zu beurteilende Objekt sein. Was wesentlich ist und was nicht, wird in Pilotstudien zu ermitteln versucht. Jedoch darf die Auswahl keinesfalls willkürlich erfolgen, denn wesentliche Dimensionen betreffen die Bewertung, die Stärke und die Aktivität. Errechnet man je Statement den jeweiligen Mittelwert und verbindet die zugeordneten Skalenwerte für ein Objekt auf sämtlichen, untereinander angeordneten Skalen, so ergibt sich das Profil des Objekts. Zur Auswertung dient der grafische Vergleich von Profilverläufen mehrerer Objekte sowie der Vergleich der Profilverläufe desselben Objekts bei verschiedenen Probanden, also Side by side. Denkbar ist auch der Soll-Ist-Vergleich, d. h. erhobene Werte relativ zu gewünschten Werten. Die Ergebnisse können nach Mittelwert und Streuungsmaß ausgewertet werden. Vorher werden die Skalen noch nach einheitlicher links / rechts-Ausprägung angeordnet. +3

+2

+1

0

−1

−2

−3 hochpreisige Produkte

vorteilhafte Infrastruktur

schwierige Infrastruktur geringe Auswahl

fundierte Beratung transparentes Angebot

schwache Beratung intransparentes Angebot

Abbildung 68: Semantisches Differenzial (Beispiel) (eig. Darst.)

Als Kritik werden die erzwungene Urteilsabgabe (Forced choice), der nur konnotative, also bewertende / interpretierende, Bezug zwischen Urteilsobjekt und Item sowie die fehlende unmittelbare Umsetzungsmöglichkeit der Ergebnisse angeführt. Eine Modifikation erfolgt in Form der (vertikalen) Stapel-Skalierung. Dabei werden Eigenschaften jeweils mit positiven und negativen Messpunkten vorgegeben, bei denen die Auskunftsperson jeweils die Ausprägung angibt, die auf sie zutrifft. Es handelt sich um Single item-Skalen, die einfacher zu handhaben sind.

296

Kap. V: Statistische Datenauswertung

2.2.5.2 Polaritätenprofil -4

-3

-2

-1

+1

+2

+3 +4

weich

hart

heiter

traurig

verschwommen stark

klar schwach sparsam

passiv

aktiv

verspielt

ernst offen

hilfsbereit

egoistisch

triebhaft

gehemmt

redselig

verschwiegen

friedlich

aggressiv

zerfahren

geordnet

streng

nachgiebig gesellig

robust

zart misstrauisch

wild

sanft

starr

beweglich

leise

laut

frisch gesund

herrisch krank

Abbildung 69: Polaritätenprofil (Hofstätter) (eig. Darst.)

Das Polaritätenprofil (nach Hofstätter) ist ein aus dem Semantischen Differenzial abgeleitetes, multidimensionales Verfahren zur Messung von Einstellungen. Die Besonderheit besteht darin, dass dieses mit einer feststehenden Anzahl von 24 stets identischen Eigenschaftspaaren arbeitet, unabhängig vom Objekt, das es gerade zu beurteilen gilt (siehe Abbildung 69: Polaritätenprofil (Hofstätter)). Es handelt sich um eine Mischung aus affektiv-wertenden und sachlich-rationalen

2. Skalierung von Daten

297

Items. Dadurch ergibt sich die Möglichkeit von Profilvergleichen unterschiedlicher Objekte, um diese in Stimmungskomplexe einzuordnen. Dabei geht es nicht nur um die bloße Distanzbewertung der Eigenschaftspaare, sondern um eine mathematisch bestimmbare Ähnlichkeit der Profile. Kritik bezieht sich darauf, dass nicht mehr gewährleistet ist, dass die Eigenschaften metaphorischen (also konnotativen) Charakter in Bezug auf das Untersuchungsobjekt haben. So ist das Eigenschaftspaar „heiß / kalt“ konnotativ in Bezug auf Einrichtungsgegenstände, aber denotativ, d. h. beschreibend, identifizierend, in Bezug auf servierte Speisen. Oft wird zwischen Einstellungsobjekt und Item von den Auskunftspersonen kein Zusammenhang gesehen. Die Aneinanderreihung von Eigenschaftspaaren wird vielmehr als willkürlich empfunden. Die Items unterliegen zudem einem Bedeutungswandel in Abhängigkeit vom Einstellungsobjekt. Fraglich ist auch, ob die genannten Gegensätze auch aus der Sicht der Befragten als Gegensätze verstanden werden. Ebenso bleibt offen, ob wirklich alle Dimensionen in gleicher Gewichtung abgefragt werden. Um Halo-Effekten vorzubeugen, wird eine horizontale Abfrage empfohlen, d. h., zuerst werden alle Objekte hinsichtlich des ersten Beurteilungskriteriums erhoben, dann alle hinsichtlich des zweiten Kriteriums etc. Zudem ist nicht sicher, dass alle einstellungsrelevanten Kriterien in jedem Einzelfall wirklich erfasst werden. Zudem fehlt es an der erforderlichen Operationalisierung. Sollen zwei oder mehr Beurteilungsobjekte über alle oder ausgewählte Items nach Ähnlichkeit / Unähnlichkeit ausgewertet werden, ist eine Distanzmessung im Polaritätenprofil erforderlich. Dies erfolgt gemeinhin über das Euklid’sche Distanz­maß. Negative wie positive Abweichungen werden dabei gleich behandelt. Je kleiner das Distanzmaß, umso ähnlicher sind sich die Objekte et vice versa. Das Ergebnis ist ein dimensionsloser Wert, daher ist der Vergleich mit anderen dieser Werte erforderlich. 2.2.5.3 Fishbein-Skala Multiattributivmodelle identifizieren die für das Untersuchungsobjekt relevanten Eigenschaften und messen dafür sowohl deren affektive als auch kognitive Einstellungen. Je nach Verknüpfung können vor allem das Fishbein-Modell (mit Vorläufer Expectacy value-Modell) und das Trommsdorff-Modell unterschieden werden. Vorläufer des Fishbein-Modells ist das Expectancy value-Modell (nach Rosenberg). Danach setzt sich der Eindruckswert einer Person gegenüber einem Objekt aus der Summe der Eindruckswerte, bezogen auf einzelne beurteilungsrelevante Eigenschaften des Objekts, zusammen.

298

Kap. V: Statistische Datenauswertung

Die Mechanik ist wie folgt: • Vermutung hinsichtlich des Vorhandenseins einer Eigenschaft beim Objekt (+ 1: ja / −1: nein), • Bewertung der jeweiligen Eigenschaft (+1: positiv/−1: negativ), • multiplikative Verknüpfung (– × – gibt +, – × + gibt –, + × – gibt –, – × – gibt +). Das Fishbein-Modell geht in seiner kognitiven Struktur davon aus, dass zwischen der Einstellung eines Individuums zu einem ausgewählten Objekt und der kognitiven bzw. affektiven Basis dieser Person ein funktionaler Zusammenhang besteht. Aus der subjektiven Einschätzung der Auskunftsperson über die Wahrscheinlichkeit der Existenz der betreffenden Eigenschaft eines Objekts (= indirekt gemessene kognitive Komponente)  und der Bewertung der betreffenden Eigenschaftsausprägung durch die Messung der subjektiven Wertschätzung (= direkt gemessene affektive Komponente) wird der Gesamtwert der Einstellungen einer Auskunftsperson zum Untersuchungsgegenstand ermittelt, indem die Werte miteinander multipliziert über alle Faktoren summiert werden (siehe Abbildung 70: Fishbein-Skala (Beispiel)).

Beurteilungskriterien

Subjektiv vermutete Wahrscheinlichkeit Vorhandensein der jeweiligen Eigenschaften (-3 bis +3)

Subjektive Bedeutung des Vorhandenseins dieser Eigenschaft beim Person (0 bis 6)

Einstellung der Person zum jeweiligen Objekt (Multiplikation)

A

+2

6

+ 12

B

-3

3

-9

C

+1

2

+2

D

+1

1

+1 Gesamtwert: + 6

Abbildung 70: Fishbein-Skala (Beispiel)

Je höher der berechnete Zahlenwert, desto positiver ist die Gesamteinstellung. Diese ergibt sich wie folgt: • Vermutung hinsichtlich des Vorhandenseins einer Eigenschaft beim Objekt (+ 3 bis − 3), • Bewertung der jeweiligen Eigenschaft (Wichtigkeit) (0 bis 6), • multiplikative Verknüpfung.

2. Skalierung von Daten

299

Das Fishbein-Modell impliziert, dass jedes Objekt nur einige wenige Merkmale aufweist, die für die Einstellung gegenüber dem Objekt ausschlaggebend sind. Die Erhebung bezieht sich auf Merkmale, anhand derer ein Objekt gekennzeichnet werden kann. Als einstellungsrelevant sind jene Merkmale anzusehen, die als erstes genannt werden. Die Einstellung zu einem Objekt besteht aus der subjektiven Kenntnis der relevanten Merkmale und ihrer Bewertung. Ersteres lässt sich messen, indem die Frage gestellt wird, für wie wahrscheinlich das Vorhandensein verschiedener, vorgegebener Merkmale bei einem Objekt gehalten wird. Letzteres wird gemessen, indem abgefragt wird, wie dieses Merkmal zu bewerten ist. Aus beiden Komponenten, der subjektiven Wahrnehmung von Objekteigenschaften und ihrer Bewertung, wird der Einstellungswert berechnet, indem diese Werte miteinander multipliziert werden. Grundlage sind also nicht unterschiedliche wahrgenommene Eigenschaften, sondern zwei verschiedene Arten der psychischen Verarbeitung gleicher Eigenschaften. Die Gesamteinstellung gegenüber einem Objekt ergibt sich als Summe über die Einschätzungen der einzelnen Eigenschaften. Das Modell basiert auf vier, im Einzelnen recht umstrittenen Prämissen: • Die Multiplikativitätsprämisse besagt, dass Eigenschaftsausprägung und Eigenschaftsbewertung voneinander unabhängig sind. Tatsächlich ist aber die Wertkomponente durchaus mit der Eigenschaftsausprägung verknüpft, d. h., eine bestimmte Ausprägung ist mit einer bestimmten Wertung versehen. • Die Additivitätsprämisse besagt, dass die einzelnen Komponenten isoliert unabhängig voneinander wirken, die Eindruckswerte der einzelnen für wichtig erachteten Eigenschaften also addiert werden können. Dies widerspricht aber etwa den Erkenntnissen der Ganzheitspsychologie, wonach das Ganze mehr ist als die Summe seiner Einzelteile. • Die Linearitätsprämisse besagt, dass eine rein proportionale, lineare Veränderung des einzelnen Einstellungswerts zur Änderung seiner Eigenschaftsausprägung besteht. Nur relativ wenige Eigenschaften eines Objekts sind damit für die Einstellung wichtig. Tatsächlich aber können solche Zusammenhänge durchaus nicht-linear sein. • Die Kompensationsprämisse besagt, dass eine niedrige Eigenschaftsausprägung bei einem Kriterium durch eine hohe Eigenschaftsausprägung bei einem anderen ausgeglichen werden kann. Es gibt also keine Ausschlusskriterien oder geforderte Mindestniveaus. Vorteile liegen im geringen erhebungstechnischen Aufwand, denn eine kompakte Itembatterie lässt sich schnell und ohne besondere Ansprüche an Interviewer wie Befragte abarbeiten. Es handelt sich um ein itemzentriertes Messen, d. h., es sind gleiche Reize und gleiche Personen gegeben. Von Nachteil ist jedoch der erhebliche Vorbereitungsaufwand zur Skalenkonstruktion.

300

Kap. V: Statistische Datenauswertung

2.2.5.4 Trommsdorff-Skala Das Trommsdorff-Modell (auch Idealpunktskala)  rückt von der vorgestellten Idee ab, das Wissen über ein Merkmal und die Bewertung dieses Merkmals auf zwei getrennten Rating-Skalen zu messen. Vielmehr wird bei jedem relevanten Merkmal direkt nach der wahrgenommenen Merkmalsausprägung gefragt. Zusätzlich wird die ideale Ausprägung dieses Merkmals abgefragt. Beide Werte, die subjektive Einschätzung der Auskunftsperson über die real wahrgenommene graduelle Ausprägung der betreffenden Eigenschaft als direkte Messung und die Bewertung der betreffenden Eigenschaftsausprägung bei einem als vorbildlich angesehenen idealen Objekt im Vergleich dazu als indirekte Messung, werden als Distanzen ermittelt und über alle Variablen summiert (siehe Abbildung 71: Trommsdorff-Skala (Beispiel)). Je niedriger der Zahlenwert, d. h. je kleiner die Distanz zwischen Realund Idealeindruck, desto positiver ist die Einstellung der Käufer gegenüber dem Objekt. Folglich entfällt auch die direkte Abfrage von Bewertungen. Allerdings ist bei den Eigenschaften darauf zu achten, dass sie die für die subjektiven Einstellungen der Befragten relevanten Aspekte widerspiegeln, und dass sie voneinander unabhängig sind, um Verzerrungen durch Mehrfachberücksichtigung bei der Addition zu vermeiden. Die Bewertungsmaßstäbe der Testperson werden durch die Angabe der subjektiv als ideal empfundenen Merkmalsausprägungen relativiert und transparent. Dann kann versucht werden, das Realangebot an das subjektiv empfundene Idealbild heranzuführen oder aber eine Veränderung dieses Idealbilds in Richtung des Realangebots herbeizuführen.

sehr umfangreich

wenig umfangreich

Wenn Sie sich nun die ideale Zeitschrift vorstellen, wie umfangreich ist darin die Information der Redaktion? sehr umfangreich

wenig umfangreich

Abbildung 71: Trommsdorff-Skala (Beispiel)

Die Ausprägung einer Eigenschaft bei einem Objekt wird von der Auskunftsperson direkt mit einem Rating eingeschätzt. Danach wird die ideale Ausprägung der Eigenschaft bei vergleichbaren Objekten festgelegt. Der Eindruckswert ergibt sich dann als Distanz zwischen wahrgenommener Ausprägung und idealer Ausprägung. Mittelwerte können je Skala oder durch Gruppenbildung ausgewiesen werden.

3. Univariate Häufigkeitsanalyse Zur statistischen Auswertung werden Daten monovariabel (univariat), dualvariabel (bivariat) oder mehrvariabel (multivariat) analysiert, bei letzteren kann zudem noch zwischen ein- oder mehrseitigen Abhängigkeiten (Dependenz) und beid- oder allseitigen Zusammenhängen (Interdependenz) unterschieden werden (siehe Abb. 72: Strukturierungsverfahren für Daten).

Univariate Analyse (vorwiegend) Bivariate Analyse Bivariate Dependenzanalyse Bivariate Interdependenzanalyse (vorwiegend) Multivariate Analyse Multivariate Dependenzanalyse Multivariate Interdependenzanalyse

Abbildung 72: Strukturierungsverfahren für Daten

Bei der univariaten Häufigkeitsanalyse wird aus der Datenmatrix nur eine Spalte herausgegriffen und die Verteilung der einzelnen Ausprägungen untersucht (siehe Abbildung 73: Verfahren der univariaten Analyse). Man unterscheidet absolute, relative und kumulierte Häufigkeiten. Häufigkeitsverteilungen ergeben sich nach mehreren Stufen. Zunächst liegt eine ungeordnete Beobachtungsreihe der erfassten Merkmalsausprägungen vor. Diese Einzelwerte werden der Größe nach aufgereiht. Ordnet man den möglichen Beobachtungswerten ihre zugehörigen Auftrittshäufigkeiten zu, ist eine Auszählung möglich, absolut als Zahlenwert und / oder relativ als einzelner Zahlenwert in Relation zu allen ermittelten Zahlenwerten. Dann erfolgt die grafische Veranschaulichung der Daten durch Ordinatendiagramm oder Häufigkeitspolygon. Beobachtungswerte können auch zu Klassen zusammengefasst werden. Dabei kommt es allerdings auf die Wahl der Klassenbreite sowie die Wahl des Ausgangs- und Endpunkts an. Die grafische Darstellung erfolgt durch

302

Kap. V: Statistische Datenauswertung

Stab-, Säulen- oder Kreisdiagramme. Die Verteilungsfunktion ergibt sich aus den kumulierten Häufigkeiten. Danach kann die eigentliche Auswertung beginnen. Lokalisationsparameter

Formparameter

Dispersionsparameter

Konzentrationsparameter

Abbildung 73: Verfahren der univariaten Analyse

3.1 Lokalisationsparameter Lokalisationsparameter sind Lagemaße, die diejenige Ausprägung eines Untersuchungsmerkmals kennzeichnen, die für die ermittelte Häufigkeitsverteilung am typischsten ist. Dadurch wird eine Ordnung von Datenmaterial nach absoluten und relativen Häufigkeiten zur Feststellung von Verdichtungen und der Homogenität der Datenmenge vorgenommen. Als Maße kommen je nach Lage der Dinge jedoch durchaus verschiedene Werte in Betracht (siehe Abbildung 74: Lokalisationsparameter). Generell ist ihre Berechnung nur bei eingipfligen Häufigkeitsverteilungen sinnvoll.

Dichtester Wert Harmonisches Mittel Zentralwert Quartile Arithmetisches Mittel Bereichsmitte Geometrisches Mittel

Abbildung 74: Lokalisationsparameter

Der Modus wird auch dichtester (auch häufigster) Wert genannt. Er stellt den Punkt mit der größten Merkmalskonzentration in einer Reihe nominaler Daten dar, kommt also in einer Häufigkeitsverteilung am häufigsten vor. Bei symmetrischer Verteilung fallen Zentralwert, dichtester Wert und arithmetisches Mittel zusammen. In allen anderen Fällen liegen die Werte mehr oder minder auseinander. Außerdem wird der Modus nicht durch Extremwerte als Ausreißer aus der Reihe tangiert. Er ist schnell und einfach zu ermitteln. Bei nicht-klassierten Daten ist der Modus direkt ablesbar, bei klassierten Daten über eine Formel leicht zu bestimmen. Er setzt mindestens Nominalskalenniveau voraus. Bei unimodaler Verteilung gibt es einen, bei multimodaler Verteilung mehrere häufigste Werte. Eingipflige

3. Univariate Häufigkeitsanalyse

303

Verteilungen lassen sich rasch als solche identifizieren. Andere Werte außer dem häufigsten, gehen jedoch nicht ein, so dass Aussageverzerrungen entstehen können. Der Modus bietet sich bei nominalen Daten an. Beispiel: 1, 3, 0, 1, 1, 2, 0, 4, 1, 5, 3, 7 – Modalwert = 1 (häufigster Wert) Der Median (Zentralwert) halbiert eine Reihe von Merkmalswerten. Voraussetzung ist eine geordnete Zahlenreihe gleichartiger Werte in auf- oder absteigender Folge, die mindestens ordinalskaliert ist. Er steht bei einer ungeraden Reihe von Zahlen immer in deren Mitte. Bei gerader Anzahl der Ursprungswerte bildet der Median immer das arithmetische Mittel zwischen den beiden mittleren Zahlen. Sind diese bereits zu Klassen verdichtet, ist die Klasse, bei der die 50 %-Grenze gerade übersprungen wird, die Einfallsklasse. Bei Häufigkeitstabellen ergibt sich der Median als Addition der Ursprungswerte multipliziert mit ihrer Häufigkeit, dividiert durch die Anzahl der Ursprungswerte. Er ist unanfällig gegen Extremwerte, welche die Verteilung verzerren, und daher besonders für Reihen weniger Werte geeignet. Allerdings kann er auch ein theoretischer Wert sein, der in den Ursprungsdaten so gar nicht vorkommt. Bei nicht-klassierten Daten ist der Median nach Ordnung der Reihe schnell abzählbar, bei klassierten Daten über eine Formel leicht zu bestimmen. Der Median bietet sich bei ordinalen Daten an. Die Berechnung des Median erfolgt wie folgt: 1. Gerade Anzahl von Beobachtungen n: Beispiel: – ungeordnete Werte: 1, 3, 0, 1, 1, 2, 0, 4, 1, 5, 3, 7 (geradzahlig) – geordnete Werte: 0, 0, 1, 1, 1, 1, 2, 3, 3, 4, 5, 7 – Median (zwischen 1 und 2) = 1,5 (mittlerer Wert) 2. Ungerade Anzahl von Beobachtungen n: x = Merkmalsausprägung in einer nach Größe geordneten Folge von Merkmalsträgern

Beispiel: – ungeordnete Werte: 1, 3, 0, 1, 1, 2, 0, 4, 1, 5, 3 (ungeradzahlig) – geordnete Werte: 0, 0, 1, 1, 1, 1, 2, 3, 3, 4, 5 – Median = 1 Das einfache arithmetische Mittel ist der Quotient aus der Summe aller Einzelwerte und deren Anzahl. Es kann nur ermittelt werden, wenn die einzelnen Glieder der Reihe gleichwertig sind. Es teilt eine Reihe in zwei gleiche Hälften. Die Summe aller Werte oberhalb dieses Werts ist gleich der Summe aller Werte unterhalb dieses

304

Kap. V: Statistische Datenauswertung

Werts, die Differenz dieser Werte ist gleich Null. Die Summe der Quadrate der Differenzen aller Werte oberhalb und unterhalb des arithmetischen Mittels ist minimal. Die Summe der Differenzen aller Werte von ihrem Mittelwert ist gleich Null. Setzt man an die Stelle jedes Merkmalwerts jeweils das arithmetische Mittel, bleibt die Summe der gesamten Reihe konstant. Addiert man zu jedem Merkmalswert den gleichen Wert x hinzu, ändert sich das arithmetische Mittel um diesen Wert. Dasselbe gilt bei Subtraktion, Multiplikation oder Division. Bei klassierten Daten ist die Berechnung des arithmetischen Mittels mit Hilfe der Klassenmittelwerte leicht möglich. Voraussetzung sind metrisch-skalierte (kardinale) Daten. Nachteilig ist, dass Werte, die im Vergleich zu den übrigen Werten einer Reihe extrem hoch oder niedrig ausfallen, den Mittelwert übermäßig beeinflussen. Außerdem macht er wenig Sinn bei mehrgipfligen und asymmetrischen Verteilungen sowie sehr kleinen Stichproben. Das einfache arithmetische Mittel gilt als 1. Moment der Verteilung.

x1, x2, …, xn = Merkmalsausprägung n = Anzahl der Beobachtungen

Beispiel: – Ausgangswerte: 1, 3, 0, 1, 1, 2, 0, 4, 1, 5, 3, 7 – arithmetisches Mittel = 28 : 12 = 2,33 Das einfache arithmetische Mittel ist in gewisser Weise der Sonderfall des gewogenen arithmetischen Mittels, bei dem alle Merkmalswerte gleich gewichtet sind. Außerdem besteht aber beim gewogenen arithmetischen Mittel die Möglichkeit, die einzelnen Merkmalswerte einer Reihe unterschiedlich zu gewichten. Das gewogene arithmetische Mittel ist der Quotient aus den mit der Häufigkeit jedes Merkmalswerts multiplizierten Einzelwerten und der Summe ihrer Gewichte. Es ist höchstens so groß wie das arithmetische Mittel. Dazu werden alle Einzelwerte zuvor mit ihrem Gewicht multipliziert und dann erst summiert, bevor sie durch die Anzahl der Einzelwerte geteilt werden. Durch Logarithmieren wird es zum arithmetischen Mittel. Die Anfälligkeit gegenüber Extremwerten ist gering, da deren Bedeutung häufig durch ihr geringes Gewicht relativiert wird. Das gewogene arithmetische Mittel ist z. B. dann von Bedeutung, wenn ein durchschnittlicher Preis bei abweichenden Mengenzuordnungen berechnet werden soll. Bei klassierten Werte wird zudem angenommen, dass die Klassenmitte die Klasse repräsentiert, so dass die Multiplikation der Klassenmitte mit ihrer Besetzungszahl oder der Häufigkeit der Klasse den Gesamtwert für die Klasse ergibt. Die Berechnung des gewogenen arithmetischen Mittels erfolgt wie folgt:

3. Univariate Häufigkeitsanalyse

und wegen

305

 , lässt sich dafür schreiben:

n = Anzahl der Beobachtungen k = Anzahl der dabei aufgetretenen verschiedenen Ausprägungen, wobei k ʺ n

Beispiel: – Ausgangswerte: 1, 3, 4, 2, 2, 2, 5, 4 – Gewichtungsfaktor 1 für Werte 1, 3, 4, 2 – Gewichtungsfaktor 2 für Werte 2, 2, 5, 4, – gewogenes arithmetisches Mittel: (10 + 26) : (4 + 8) = 3 Beim einfachen geometrischen Mittel wird jeder Einzelwert einer Reihe mit dem folgenden Wert multipliziert. Aus dem Produkt aller n-Werte wird dann die n-te Wurzel gezogen. Zur Errechnung des gewogenen geometrischen Mittels wird jeder Einzelwert einer Reihe zuerst mit seinem Gewicht potenziert. Die sich daraus ergebenden Werte werden miteinander multipliziert. Aus dem Produkt wird dann entsprechend der Summe der Gewichte die Wurzel gezogen. Voraussetzung sind ratioskalierte / kardinale Daten. Das geometrische Mittel bietet sich an, wenn die Abstände einer Messwertreihe sich untereinander proportional zur Größe der Messwerte verhalten (z. B. Wachstumsraten). Es kann nicht berechnet werden, wenn einer der Werte negativ ist, da dann das gesamte Produkt negativ ist, oder wenn einer der Werte Null ist, da dann das gesamte Produkt Null ist. Außerdem kann die Anfälligkeit gegenüber Extremwerten durch die Art der Berechnung relativiert werden. Die Berechnung des geometrischen Mittels erfolgt wie folgt: 1. Einfaches geometrisches Mittel:

2. Gewogenes geometrisches Mittel:

x1, x2, …, xn = Merkmalsausprägung n = Anzahl der Beobachtungen

Beispiel: – Ausgangswerte: Umsatz (Ausgangsgröße: 100) – Zuwachsrate 2017: + 10 % = 1,1 – Zuwachsrate 2018: + 20 % = 1,2

306

Kap. V: Statistische Datenauswertung

– Zuwachsrate 2019: + 5 % = 1,05 – Zuwachsrate 2020: + 8 % = 1,08 – Zuwachsrate 2021: + 15 % = 1,15 5-te Wurzel aus 1,1 × 1,2 × 1,05 × 1,08 × 1,15 = 1,1147 = 11,47 % durchschnittliche Zuwachsrate Das harmonische Mittel ergibt sich als reziproker Wert des arithmetischen Mittels der reziproken Werte der einzelnen Merkmalsbeträge. Es wird relativ selten verwendet und zwar nur dann, wenn die reziproken Werte von Reihengliedern von Interesse sind. Es kann gewogen oder ungewogen ausgewiesen werden. Als Basis dienen kardinale Daten. Die Berechnung des harmonischen Mittels erfolgt wie folgt: 1. Einfaches harmonisches Mittel:

2. Gewogenes harmonisches Mittel:

x1, x2, …, xn = Merkmalsausprägung n = Anzahl der Beobachtungen k = Anzahl der dabei aufgetretenen verschiedenen Ausprägungen, wobei k  0 in unterschiedlicher Häufigkeit beginnen. Dann liefert der Median ein verzerrtes Bild. Beispiel: 1, 3, 5, 7, 8, 9, 11, 12, 14, 16, 18, 20 = (1 + 20): 2 = 10,5

3.2 Dispersionsparameter Dispersionsparameter werden auch Streuungsmaße genannt und beschreiben die Verteilung der Einzelwerte einer Häufigkeitsverteilung um ihren Mittelwert. Sie charakterisieren damit zugleich die Variabilität von Datenmengen, so dass ersichtlich wird, wie repräsentativ der Mittelwert für die Gesamtheit tatsächlich ist. Die Daten müssen mindestens intervallskaliert, besser metrischskaliert sein. Es gibt verschiedene Arten von Dispersionsparametern (siehe Abbildung 75: Dispersionsparameter). Spannweite

Varianz

Mittlere Abweichung

Standardabweichung

Quartilsabstand

Variationskoeffizient

Abbildung 75: Dispersionsparameter

Die Spannweite (auch Variationsbreite) ist die Differenz zwischen dem größten und dem kleinsten Wert einer Reihe. Innerhalb dieses Streubereichs liegen alle betrachteten Merkmalswerte. Unterschiedliche Datenreihen können gleiche Mittelwerte haben, sich aber dennoch wesentlich voneinander in Bezug auf ihre Spann-

308

Kap. V: Statistische Datenauswertung

weite unterscheiden. Problematisch ist die Empfindlichkeit dieses Maßes gegen Ausreißer (Extremwerte). Daher kann die Spannweite nur zum schnellen Überblick über Häufigkeitsverteilungen dienen. Sie wird für ordinale Daten angewendet. Beispiel: – Ausgangswerte: 1, 3, 0, 1, 1, 2, 0, 4, 1, 5, 3, 7 – Spannweite = 7 − 0 = 7 Die mittlere (auch durchschnittliche) Abweichung ist das arithmetische Mittel aller Abweichungen einer Reihe im Verhältnis zu deren Mittelwert. Dazu wird der Durchschnitt aus den einfachen Abweichungen vom Mittelwert berechnet, wobei es sich auch um den Zentralwert handeln kann. Wichtig ist, dass die Abweichung aus den absoluten, nicht aus den quadratischen Abweichungen ermittelt wird, wobei negative Vorzeichen ignoriert werden. Es ist sowohl der gewogene als auch der ungewogene Fall möglich. Zugrunde liegen jeweils metrische Daten. Die Berechnung der mittleren Abweichung erfolgt wie folgt: 1. Absolute mittlere Abweichung:

2. Relative mittlere Abweichung: x̄ = Mittelwert n = Stichprobenumfang j = Summationsindex

Beispiel: Ausgangswerte: 1, 3, 5, 9, 12 – arithmetisches Mittel: 6 – mittlere Abweichung: (|1–6| + |3–6| + |5–6| + |9–6| + |12–6|) = 18 : 5 = 3,6 Der Quartilsabstand ergibt sich aus der Differenz des 3. und des 1. Quartils. Durch diesen werden die mittleren 50 % aller Elemente einer statistischen Masse begrenzt. Er ist ein Maß für die Streuung mindestens intervallskalierter Daten, ausnahmsweise auch bei Verteilungen mit gleicher zentraler Tendenz für ordinalskalierte Daten. Beispiel (s. o.): 1, 3, 5, 7, 8, 9, 11, 12, 14, 16, 18 1. Quartil = 11 × 0,25 = 3. Wert = 5 3. Quartil = 11 × 0,75 = 9. Wert = 14 = 14 − 5 = 9 Mittlerer Quartilsabstand: (14 − 5): 2 = 4,5, d. h. zwischen dem mittleren Wert und dem 1. und dem 3. Quartil liegt der Wert jeweils bei 4,5.

3. Univariate Häufigkeitsanalyse

309

Die Varianz ist die Summe der quadratischen Abweichungen der Einzelwerte von ihrem Durchschnitt (= arithmetisches Mittel), dividiert durch die Anzahl der Merkmalswerte. Sie kann nur von metrischen, kardinalen Daten bestimmt werden. Für die Quadrierung gibt es vor allem zwei Gründe, erstens ergibt die einfache Summation der Abweichungen den Wert Null, weil sich die Abweichungen über und unter dem arithmetischen Mittel genau ausgleichen, was gerade der Sinn des arithmetischen Mittels ist, und zweitens werden durch die Quadrierung weiter entfernt liegende Werte stärker berücksichtigt, größere Abweichungen also strenger ausgewiesen. Die Varianz ist stets ein positiver Wert, außer es liegt überhaupt keine Streuung vor, dann ist sie gleich Null. Es ist sowohl der gewogene als auch der ungewogene Fall möglich. Berechnung der Varianz

Beispiel: Ausgangswerte: 1, 3, 5, 9, 12 arithmetisches Mittel = 6 Varianz = ((1 − 6)2 + (3 − 6)2 + (5 − 6)2 + (9 − 6)2 + (12 − 6)2) : 5 = (25 + 9 + 1 + 9 + 36) : 5 = 80 : 5 = 16 Die Standardabweichung (auch mittlere quadratische Abweichung) ist die positive Quadratwurzel aus der Varianz. Die ungewogene Standardabweichung errechnet sich aus den Quadraten der einzelnen Differenzen der Werte zum Mittelwert einer Reihe, die addiert werden. Diese Summe wird durch die Anzahl der Einzelwerte, vermindert um 1, dividiert. Aus dem Ergebnis wird dann die Quadrat­wurzel gezogen. Diese Berechnung gibt den hohen Abweichungswerten einen stärkeren Einfluss auf das Ergebnis. Dadurch wird eine gute Repräsentanz für die Ursprungswerte erreicht. Die Standardabweichung lässt sich einfacher inhaltlich interpretieren als die Varianz, da sie in derselben Einheit vorliegt wie die Daten und deren Mittelwert. Die Standardabweichung ist das 2. Moment einer Verteilung, sie gilt für metrische / kardinale Werte. Berechnung der Standardabweichung

Beispiel: Ausgangswerte: 1, 3, 5, 9, 12 arithmetisches Mittel = 6 Varianz (s. o.) = 16 Standardabweichung = 16 = 4

310

Kap. V: Statistische Datenauswertung

Der Variationskoeffizient (auch mittlere relative Abweichung) ist der Quotient aus Standardabweichung und zugehörigem Mittelwert. Er gibt das prozentuale Verhältnis der absoluten Streuung zu einem Durchschnitt an, von dem die Streuung berechnet wurde, und relativiert diese damit. Dadurch kann die Streuung von Variablen mit unterschiedlicher Niveaulage, also unabhängig von der absoluten Größe, vergleichbar gemacht werden. Der Variationskoeffizient ist dimensionslos, so dass auch Streuungen von Merkmalswerten, die in verschiedenen Dimensionen gemessen werden, vergleichbar sind. Er gilt für metrische / kardinale Werte. Berechnung des Variationskoeffizienten x̄ = Mittelwert S = Standardabweichung

Beispiel: Ausgangswerte: 1, 3, 5, 9, 12 arithmetisches Mittel = 6 Standardabweichung (s. o.) = 4 Variationskoeffizient = 4 : 6 = 0,667 = 67 %

3.3 Formparameter Das Schiefemaß (nach Pearson) errechnet sich aus der Differenz zwischen dem arithmetischen Mittel und dem Modus, die durch die Standardabweichung dividiert wird. Die Schiefe kennzeichnet die Symmetrie oder Asymmetrie von Häufigkeitsverteilungen. Fallen Modus, Median und arithmetisches Mittel zusammen, ist die Verteilung vollkommen symmetrisch. Kommen Modus, Median und arithmetisches Mittel nacheinander, handelt es sich um eine linksschiefe Verteilung, bei umgekehrter Reihenfolge um eine rechtsschiefe Verteilung. Eine Verteilung ist demnach linksschief bzw. rechtssteil eingipflig, wenn die Mehrzahl der Ursprungswerte unter dem Mittelwert liegt. Eine Verteilung ist hingegen rechtsschief bzw. linkssteil eingipflig, wenn die Mehrzahl der Ursprungswerte über dem Mittelwert liegt. In diesen Fällen spricht man von einer unimodalen Verteilung. Mehrgipflige Verteilungen nennt man bi- oder polymodal. Die durchschnittlichen potenzierten Abweichungen der Merkmalswerte vom Nullpunkt oder dem arithmetischen Mittel sind ein Maß für die Schiefe der Verteilung (siehe Abb. 76: Schiefe von Verteilungen). Werte > 0 indizieren eine rechtsschiefe, Werte 0), • mesokurtischer Verteilung bei mittelhohem und mittelbreitem Verlauf der Verteilungskurve (Kurtosis < 0), • leptokurtischer Verteilung bei hohem und engem Verlauf der Verteilungskurve.

312

Kap. V: Statistische Datenauswertung

Der Exzess ist das 4. Moment der Verteilung. Man unterscheidet somit vier Momente jeder Verteilung: Erstens das arithmetische Mittel für die Lage, zweitens die Standardabweichung für die Streuung, drittens die Schiefe für die Symmetrie und viertens den Exzess für die Wölbung.

3.4 Konzentrationsparameter In vielen Fällen ist die Aufteilung der gesamten Merkmalssumme auf die einzelnen statistischen Einheiten interessant. Diese Erkenntnisse erbringen Konzentrationsparameter. Maßzahlen der absoluten Konzentration sind Konzentrationsziffern. Man unterscheidet diskrete numerische Konzentrationsmaße wie Konzentrationsrate, Linda-Index und summarische numerische wie HirschmannHerfindahl-Index, Rosenbluth-Index, Entropie-Index, Horvath-Index sowie numerische Disparitätsmaße wie Gini-Koeffizient, die durch die Lorenzkurve grafisch dargestellt werden. Zur grafischen Darstellung der relativen Konzentration wird meist die LorenzKurve herangezogen. Auf der Abszisse als Horizontale eines kartesischen Koordinatensystems werden dazu die kumulierten Anteile der Merkmalsträger abgetragen, auf der Ordinate, der Vertikalen, die zugehörigen kumulierten Anteile an der gesamten Merkmalssumme, aufsteigend vom kleinsten Anteil. Der Streckenzug aus der Verbindung aller Kombinationspunkte, beginnend im Koordinatenursprung, wird als Lorenz-Kurve bezeichnet. Je stärker die Kurve gekrümmt ist, desto höher ist der Konzentrationsgrad. Maximal ist die Konzentration, wenn die Kurve orthogonal über Abszisse und Abszissenendwert verläuft, minimal, wenn sie als Gerade zwischen Nullpunkt und Endwert verläuft (= Gleichverteilungsgerade). Die Lorenzkurve läuft immer unterhalb der Gleichverteilungsgeraden (= Winkelhalbierenden). Dies ist die schlüssigere Version (siehe Abbildung 78: Beispiel einer Lorenz-Kurve). Denkbar ist aber auch eine Konzentrationskurve. Sie folgt zwar derselben Einteilung, beginnt jedoch mit dem größten Anteilswert. Die Konzentrationskurve liegt daher immer oberhalb der Gleichverteilungsgeraden. Die Fläche zwischen dieser Gleichverteilungsgerade und der tatsächlich sich ergebenden Lorenz-Kurve wird als Maß für die relative Konzentration herangezogen. Dieser Wert heißt Gini-Koeffizient und liegt zwischen Null und Eins, bei = 0 herrscht Gleichverteilung (45°-Gerade) vor, bei = 1 totale Konzentration. Allerdings ist die Interpretation nicht eindeutig, denn zwei gleich große Flächen können durch zwei verschiedene Sachverhalte entstehen und damit auch durch zwei verschiedene Kurvenverläufe. Insofern ist keine eindeutige Zuordnung möglich.

3. Univariate Häufigkeitsanalyse

Abbildung 78: Beispiel einer Lorenz-Kurve (Quelle:lai.fu-berlin.de/e-learning/projekte/vwl_basiswissen/ Umverteilung/Gini_Koeffizient/index.html) (Einkommensverteilung)

313

4. Bivariate Dependenzanalyse Im Folgenden werden zwölf wesentliche bi- und multivariate Analyseverfahren kurz erläutert. Teilweise weisen diese komplexe, quantitativ-methodische Ausprägungen auf, auf die im Rahmen eines Textes zum Marktforschungs-Management nur kursorisch eingegangen werden kann. An dieser Stelle geht es vorwiegend um die Anwendungsmöglichkeiten dieser Verfahren. Eine Strukturierung kann, allerdings nicht überschneidungsfrei und auch nur schwerpunktmäßig zuordnend, folgende Einteilung vorsehen, die im Folgenden zugrunde gelegt wird: • bivariate Analysen mit zwei Variablen, davon einer abhängigen Variablen und einer metrischskalierten unabhängigen Variablen (z. B. Regressionsanalyse) oder nichtmetrischskalierten unabhängigen Variablen (z. B. Kontingenztafel), • multivariate Analysen mit mehr als zwei Variablen, mindestens einer abhängigen Variablen und mindestens zwei metrischskalierten unabhängigen Variablen (z. B. Diskriminanzanalyse) oder nichtmetrischskalierten unabhängigen Variablen (z. B. Kontrastgruppenanalyse). • Außerdem gibt es zwischen Dependenz- und Interdependenzanalysen angesiedelt die Kausalanalyse als multivariates Verfahren (hier ersterem zugeschlagen).

4.1 Regressionsanalyse 4.1.1 Vorgehensweise Typische Fragestellungen der Regressionsanalyse sind etwa folgende: • Wie verändert sich der Markenbekanntheitsgrad, wenn das Werbebudget verringert wird? • Wie verändert sich die Absatzmenge, wenn der Preis für Produkt X um 1,5 % gesenkt wird? • Wie verändert sich der Markenbekanntheitsgrad im Zeitablauf? • Wie lässt sich der Bedarf an OLED-Fernsehgeräten für die nächsten Jahre ­schätzen? • Wie verändert sich die Produktnachfrage, wenn die Werbespendings um 5 % erhöht werden? • Hängt das Ausmaß der Marketingaktivitäten eines Anbieters von der Rechtsform des Unternehmens und der Anzahl der Mitarbeiter ab?

315

4. Bivariate Dependenzanalyse

• Wie verändert sich die Absatzmenge, wenn die Werbeausgaben um 10 % gekürzt werden? • Hat das Investitionsvolumen der Pharma-, Verpackungs- und Spielzeugindustrie Auswirkungen auf die Absatzmenge eines Chemiekonzerns? • Wie lässt sich der Preis für Baumwolle in den nächsten sechs Monaten schätzen? • Hat das Investitionsvolumen der Automobil-, Werft- und Bauindustrie einen Einfluss auf die Stahlnachfrage?

Variable

Soll die Beziehung zwischen einer abhängigen und einer oder mehreren unabhängigen Variablen auf jeweils metrischem Skalenniveau geprüft werden, eignet sich die Regressionsanalyse. Sie kann auch für multivariate statistische Aufgaben genutzt werden. Multiple Regressionen können auf vereinfachte, bivariate zurückgeführt werden durch blockweisen Einschluss nach Auswahl aufgrund von Vorwissen bzw. schrittweise Elimination, indem nacheinander die jeweils am wenigsten nützlichen Variablen entfernt werden.

Abweichung erwarteter Wert

Zeit

Abbildung 79: Prinzip der Regressionsanalyse

Die Regressionsanalyse untersucht die Abhängigkeit zwischen einer oder mehreren zu erklärenden, metrisch skalierten, abhängigen Variablen als Regressanden und einer oder mehreren erklärenden, metrisch skalierten, unabhängigen Variablen als Regressoren (siehe Abbildung 79: Prinzip der Regressionsanalyse). Aus den Relationen werden für die vorgegebene Funktionsform die Parameter der Funk-

316

Kap. V: Statistische Datenauswertung

tion durch Koeffizienten geschätzt, die den Zusammenhang am besten abbilden. Es wird also eine Verknüpfung gesucht, welche die zwischen den Variablen bestehende Abhängigkeit möglichst gut wiedergibt und die dadurch auch zur Vorhersage der interessierenden Zielgröße herangezogen werden kann. Welche Variable dabei als unabhängig und welche als abhängig angesehen wird, unterliegt allein der Plausibilität. Ziel ist sowohl die Vorhersage der interessierenden Größe als auch die Überprüfung der empirischen Beziehungen. Bei der Vorhersage ist die unabhängige Variable die Prädiktor-Variable, die abhängige die Kriteriums-Variable. Die Regressionsparameter als Koeffizient oder Steigungsmaß, zugleich Neigung der Kurve, und Konstante oder absolutes Glied, zugleich Schnittpunkt mit der Ordinate, werden meist über die Methode der Kleinstquadrat-Abweichung ermittelt. Dazu werden die Merkmalsausprägungen auf Abszisse und Ordinate eines Koordinatensystems abgetragen, in dem die Anzahl der Beobachtungswerte als Punkte entsprechender Koordinaten eingezeichnet sind. Es entsteht ein Streuungsdiagramm. Daraus ergibt sich die Formulierung einer Funktionsgleichung derart, dass die Summe der quadrierten Abweichungen der Funktionsgleichungswerte von den Ursprungswerten minimiert wird. Sie repräsentiert die zugrunde liegenden Daten am besten. Dabei werden Abweichungen immer parallel zur Ordinate gemessen, so dass es entscheidend ist, welche Variable auf der Abszisse und welche auf der Ordinate abgetragen wird. Das Streuungsdiagramm gibt bereits erste Hinweise auf Abhängigkeiten: • Ist die Punktwolke dispers, besteht mutmaßlich keine Abhängigkeit der Daten. • Ist die Punktwolke gerade gerichtet, besteht mutmaßlich eine lineare Abhängigkeit in den Daten. • Ist die Punktwolke gekrümmt gerichtet, besteht mutmaßlich eine nicht-lineare Abhängigkeit. Weitere Aussagen betreffende folgende: • Aus der Richtung der Punktwolke lässt sich ablesen, ob es sich um eine gleich gerichtete oder gegenläufige Abhängigkeit handelt. • Aus der Stärke der Ausrichtung der Punktwolke lässt sich ablesen, ob es sich um eine ausgeprägte oder schwache Abhängigkeit handelt. • Aus der Lage der Punktwolke lassen sich der Absolutwert und das Steigungsmaß einer funktionalen Formulierung der Abhängigkeit ableiten. • Liegt die Punktwolke parallel zu Ordinate oder Abszisse, sind die untersuchten Größen voneinander unabhängig. Die Vorgehensweise der bivariaten Regressionsanalyse erfolgt in folgenden Schritten: • Festlegung der Variablen als abhängige Variable und unabhängige Variable, dies wird nicht durch das Verfahren geleistet, sondern muss durch den Forscher bestimmt werden,

4. Bivariate Dependenzanalyse

317

• Festlegung der Regressionsgeraden nach der Funktion y = a + bx, wobei y die unabhängige Variable ist, a die Ordinatenabschnittskonstante, b der Steigerungswinkel der Geraden entlang der Abszisse und x die unabhängige Variable, • Schätzung der Regressionsparameter, meist durch Kleinstquadratabweichung der empirisch ermittelten von den theoretisch zu erwartenden Werten (s. o.), • Überprüfung der Güte der Regressionsfunktion mittels des Bestimmtheitsmaßes r2 (= Quotient aus funktional erklärter Streuung zu Gesamtstreuung), der Rest kommt dann durch andere Einflussgrößen als die betrachtete zustande, • Prüfung der Modellannahmen. Die Regressionsanalyse ist auch als multivariate Form, also mit mehr als zwei unabhängigen Variablen möglich. Die Vorgehensweise ist aber ähnlich der bivariaten Form, also • zunächst Modellspezifikation durch Funktionsgleichung, dann Parameterschätzung nach Kleinstquadratmethode, danach Modellbeurteilung anhand von Testverfahren, meist X2-Test oder F-Test, und schließlich Interpretation der Ergebnisse. 4.1.2 Ausprägungen

eine

zwei oder mehr

Variable

Variable

linearer Funktionstyp zur Beschreibung

einfache, lineare Regression

mehrfache, lineare Regression

nicht-linearer Funktionstyp zur Beschreibung

einfache, nichtlineare Regression

mehrfache, nichtlineare Regression

Abbildung 80: Arten der Regressionsanalyse

Denkbar ist sowohl die Bestimmung einer linearen wie auch einer nichtlinearen Funktion, also mit nicht-metrischen Variablen. Liegt nicht mindestens Intervallskalenniveau vor, müssen dann Dummy-Variable eingeführt werden, die erst eine regressionsanalytische Behandlung erlauben. Ebenso kann es sich um eine einfache, univariate oder mehrfache, multivariate Regression handeln (siehe Abbildung 80: Arten der Regressionsanalyse):

318

Kap. V: Statistische Datenauswertung

• Das Grundprinzip der einfachen linearen Regression besteht darin, eine lineare Funktion zu bestimmen, welche die konstante Beziehung je einer abhängigen und unabhängigen Variablen möglichst gut wiedergibt. Man kann unterstellen, dass nicht-lineare Funktionen innerhalb einer gewissen Variationsbreite als linear approximiert werden können. Außerdem können nicht-lineare Funktionen auch durch Logarithmieren linearisiert werden. • Eine einfache nichtlineare Regression liegt vor, wenn die abhängige Variable zwar als nur von einer unabhängigen Variablen beeinflusst angesehen, aber angenommen wird, dass diese Abhängigkeit nicht stetig ist. Dabei entsteht das Problem, welcher Funktionstyp sich am besten den Beobachtungswerten anpasst. Häufig ist der Polynomansatz als Funktion zweiten Grades als Parabel anzutreffen. Oft ist es sogar vorteilhafter, eine Transformation einer einfachen nicht-linearen Regression in eine mehrfache lineare Regressionsgleichung vorzunehmen, um Fehlaussagen infolge der Wahl des falschen Funktionstyps vorzu­ beugen. • Das Prinzip der mehrfachen, linearen Regression liegt dann vor, wenn nicht eine, sondern mehrere metrisch-skalierte abhängige Variable gleichzeitig von der metrisch-skalierten unabhängigen Variable beeinflusst werden. Dabei ist es möglich, den Einfluss zu bestimmen, den jede einzelne von mehreren betrachteten unabhängigen Variablen auf die abhängige Variable ausübt. Partielle Regressionskoeffizienten geben an, welche absolute Änderung der abhängigen Variablen von einer um eine Einheit veränderten unabhängigen Variablen zu erwarten ist, unter der Voraussetzung, dass alle anderen unabhängigen Variablen konstant gehalten werden. • Die mehrfache, nichtlineare Regression ist gegeben, wenn mindestens zwei Einflussgrößen auftreten, wobei der Zusammenhang zwischen ihnen und der Zielgröße nur durch einen nicht-linearen Funktionstyp beschrieben werden kann. Sind unterschiedliche Dimensionen der unabhängigen Variablen gegeben, müssen diese Koeffizienten zu Beta-Gewichten als Quotient aus der Standardabweichung zweier Variabler standardisiert werden, um Aussagen über die relative Wichtigkeit der unabhängigen Variablen für die Ausprägung der abhängigen Variablen zu erhalten. Die Standardisierung erfolgt, indem alle Variablen so umgerechnet werden, dass ihr Mittelwert über alle Ausprägungen gleich 0 und ihre Varianz gleich 1 ist. Allerdings gehen dabei die Rohdateninformationen verloren. Bei der stufenweisen Regression werden mehrere unabhängige Variable nicht direkt zur Bestimmung der abhängigen Variablen herangezogen, sondern über Bildung von Kausalketten, wobei jeweils eine unabhängige Variable durch eine andere erklärt wird. So entsteht eine univariate Regression mit mehreren, miteinander kausal verknüpften unabhängigen Variablen. Die Variablen können additiv oder multiplikativ miteinander verknüpft sein. Bei n unabhängigen Variablen sind allerdings n + 1 Funktionsgleichungen erforderlich, um durch Einsetzen zu Ergebnissen zu gelangen.

4. Bivariate Dependenzanalyse

319

Eine simultane Regressionsanalyse bestimmt die Regressionsgleichung unter gleichzeitiger Einbeziehung aller Regressoren. Die sukzessive Regressionsanalyse bestimmt die Inklusion bzw. Elimination von Regressoren in der Regressionsgleichung nach Erfüllung vorgegebener Kriterien wie z. B. Erklärungsbeitrag bzw. -zuwachs der einzelnen Variablen, statistische Signifikanz oder Obergrenze der Variablenzahl. Praktisch geht man dazu wie folgt vor: • Einbeziehung der unabhängigen Variablen mit dem höchsten Wert des einfachen Bestimmtheitsmaßes, • Aufnahme der Variablen mit dem höchsten partiellen Bestimmtheitsmaß (s. u.) und Signifikanzmessung (F-Test), • Durchführung eines partiellen t-Tests für die bereits in der Regressionsgleichung befindlichen Variablen, um festzustellen, ob eine in einem früheren Stadium aufgenommene Variable noch in der Regressionsgleichung verbleiben soll oder aufgrund der Korrelation mit anderen, später aufgenommenen Variablen entfernt werden kann, • Aufnahme der nächsten Variablen mit dem danach höchsten partiellen Bestimmtheitsmaß, solange, bis ein kritisches Signifikanzniveau unterschritten wird. Außerdem kann eine partielle Regressionsanalyse vorgenommen werden, indem die abhängige Variable als Funktion nur einer unabhängigen Variablen angesehen wird, während alle anderen Variablen konstant gehalten werden. Allerdings ist dabei der Erklärungsbeitrag der einzelnen Variablen nicht, wie sinnvoll, von der Reihenfolge ihrer Einbeziehung abhängig, sondern dieser Erklärungsbeitrag wird erst durch die schrittweise Einbeziehung bestimmt. Dem Regressionsmodell liegen im Einzelnen die Annahmen der Normalverteilung von Störgrößen und deren Erwartungswert von Null, der Homoskedastizi­ tät, der paarweisen Unkorreliertheit und der Nicht-Stochastizität der Einflussgrößen zugrunde. Die Verletzung dieser Prämisse führt zur Autokorrelation und zur Heteroskedastizität: • Autokorrelation bedeutet, dass die Residuen voneinander abhängig sind bzw. die Reihenwerte mit sich selbst korrelieren. Residuen sind die Abweichungen der beobachteten von den durch die Regression vorhergesagten Werten, von denen im Verfahren unterstellt wird, dass sie in der Grundgesamtheit rein zufällig verteilt sind. • Heteroskedastizität bedeutet, dass die Residuen auch von der abhängigen Varia­ blen abhängen, also ungleich streuen. Hier wird im Verfahren hingegen unterstellt, dass eine einheitliche Varianz in den unterschiedlichen Teilmengen der Grundgesamtheit gegeben ist. Besteht eine hohe Interkorrelation zwischen den Regressanden, ist Multikollinearität gegeben. Im Grenzfall der totalen Abhängigkeit eines Regressanden von einem anderen ist das System der Normalgleichungen überbestimmt und damit

320

Kap. V: Statistische Datenauswertung

nicht mehr eindeutig lösbar. Allerdings sind Variable immer mehr oder minder kollinear, so dass auch Lösungsansätze wie die Verwertung von Informationen aus früheren Stichprobenerhebungen, die Vergrößerung der Stichprobe, die Verwendung von Teilstichproben, die Eliminierung von Variablen im Modell oder der Ersatz erklärender Variabler problematisch sind. Die Güte der Anpassung der durch eine berechnete Regressionsfunktion geschätzten Werte an die tatsächlichen empirischen Werte wird durch das Bestimmt­ heitsmaß angegeben. Es bestimmt sich aus der Relation der erklärten Abweichung zur zu erklärenden Abweichung, genauer dem relativen Anteil der Varianz der abhängigen Variablen, der durch die unabhängige(n) Variable(n) erklärt wird, und variiert zwischen Null und Eins. Der Grenzwert 1 wird erreicht, wenn sämtliche Beobachtungswerte im Streuungsdiagramm auf einer Geraden liegen, die beobachteten und geschätzten Werte also zusammenfallen. Die Regressionsgleichung erklärt dann die Ursprungswerte vollständig. Der Grenzwert 0 wird erreicht, wenn die Ursprungswerte um eine parallel zu Abszisse oder Ordinate verlaufende Regressionsgerade streuen, die beiden Regressionsgeraden orthogonal aufeinander stehen oder sich bei ihren jeweiligen Mittelwerten schneiden. Die Regressionsgleichung liefert dann keinerlei Erklärungsbeitrag für die abhängige Variable. Werte dazwischen geben an, inwieweit die Regressionsgerade es vermag, die empirischen Werte zu repräsentieren. Das Komplement zum Bestimmtheitsmaß ist das Unbestimmtheitsmaß, das die nicht-erklärte Abweichung angibt, genauer den relativen Anteil der Varianz, der durch die lineare Regressionsfunktion nicht erklärt wird. Niedrige Werte für das Bestimmtheitsmaß können mehrere Gründe haben: • Es können starke Zufallsschwankungen vorliegen. • Die gewählte Einflussgröße beeinflusst nur sehr geringfügig die Zielfunktion, damit hat sich die Arbeitshypothese, wonach die Zielgröße in starkem Maße von der Zufallsgröße abhängt, als falsch erwiesen. • Der Zusammenhang kann durch eine lineare Regressionsfunktion nur unzureichend repräsentiert werden, daher ist ein nichtlinearer Funktionsverlauf anzunehmen. • Es gibt neben der untersuchten noch weitere Einflussgrößen, welche die Zielgröße wesentlich beeinflussen, daher ist eine mehrfache Regression einzusetzen. Berechnung des Bestimmtheitsmaßes B:

yi = empirische Merkmalsausprägung der abhängigen Variablen y yˆi = über die Regressionsfunktion berechnete Merkmalsausprägung der abhängigen Variable y ȳ  = Mittelwert der abhängigen Variablen y R = Korrelationskoeffizient nach Bravais-Pearson

4. Bivariate Dependenzanalyse

321

Das multiple, totale Bestimmtheitsmaß bringt zum Ausdruck, inwieweit eine abhängige Variable durch die Gesamtheit der berücksichtigten unabhängigen Variablen bestimmt wird, es ist eine Prüfgröße für die Güte der geschätzten Regressionsfunktion (Varianzanteil). Die Quadrierung des multiplen Bestimmtheitsmaßes ergibt den multiplen Korrelationskoeffizienten. Das partielle Bestimmtheitsmaß zeigt den absoluten Zuwachs des multiplen Bestimmtheitsmaßes an, d. h. die zusätzliche Erklärung der Gesamtvarianz, wenn eine weitere Variable berücksichtigt wird, mithin die Wirkung einer einzelnen unabhängigen Variablen. Das adjustierte Bestimmtheitsmaß betrifft den Vergleich verschiedener Bestimmtheitsmaße untereinander. Berechnung des Unbestimmtheitsmaßes U:

yi = empirische Merkmalsausprägung der abhängigen Variablen y yˆi = über die Regressionsfunktion berechnete Merkmalsausprägung der abhängigen Variable y ȳ  = Mittelwert der abhängigen Variablen y R = Korrelationskoeffizient nach Bravais-Pearson

4.2 Kontingenztafel Beispiele sind folgende: • Hängt die Wahl einer Waschmittelmarke signifikant vom Geschlecht ab oder ist dessen Einfluss nur von untergeordneter Bedeutung? • Unterscheidet sich der Grad der Erinnerung an eine Werbekampagne deutlich nach dem Alter der Befragungspersonen? • Bestimmt die allgemeine Parteipräferenz auch das Wahlverhalten auf kommunaler Ebene? • Liegt die Lebenserwartung von Krankenkassenmitgliedern tatsächlich, d. h. überzufällig, unter der von Krankenversicherungskunden? • In welchem Maße hängt das Risiko der Erwerbslosigkeit von dem jeweils vorzufindenden Bildungsabschluss ab? • Wie stark ist die Gesundheitsprognose eines Patienten abhängig von der Regelmäßigkeit seiner Medikamenteneinnahme? Soll das Vorhandensein einer Abhängigkeit zwischen Variablen untersucht werden, eignet sich die Kontingenztafel (siehe Abb. 81: Prinzip der Kontingenztafel). Dabei wird von nicht-metrischen Variablen ausgegangen. Sie basiert auf einem deskriptiven, explorativen Analyseverfahren zur Kennzeichnung der Beziehung zwischen zwei, ausnahmsweise auch mehr, nominal skalierten, qualitativen Erhe-

322

Kap. V: Statistische Datenauswertung

bungsmerkmalen unter gleichzeitiger Berücksichtigung eines oder mehrerer anderer Merkmale. Es geht um die Frage, ob zwei nominal skalierte Variable als voneinander abhängig oder unabhängig anzusehen sind, d. h. Unterschiede zwischen ihnen signifikant sind oder nicht. Die Unterscheidung in abhängige und unabhängige Variable ist nur für die Interpretation der Ergebnisse, nicht jedoch für die Analyse selbst, von Bedeutung. Somit werden aus eindimensionalen Verteilungen zwei- (biva­ riate) oder mehrdimensionale (multivariate). Allerdings eskaliert die Anzahl der Kombinationsmöglichkeiten schnell, bei n-Variablen schon n über 2-Kombinationen.

Werbeerinnerung bei Zielpersonen > 30–50 Jahre

Werbeerinnerung bei Zielpersonen > 50–70 Jahre

Einsatz von Werbekampagne 1

Werbeerinnerung bei Werbeerinnerung bei Zielpersonen Zielpersonen

Einsatz von Werbekampagne 2

Werbeerinnerung bei Werbeerinnerung bei Zielpersonen Zielpersonen

Werbekampagne 1

Werbekampagne 2

Werbekampagne 1

Werbekampagne 2

Abbildung 81: Prinzip der Kontingenztafel

Bei zwei Variablen mit je zwei Ausprägungen ergibt sich eine Vierfelder-Kontingenztafel (Matrix). Unter Matrix versteht man dabei allgemein ein rechteckiges, aus Zeilen und Spalten bestehendes Schema von Zahlen zur Darstellung von linearen Beziehungen. Die Spalten enthalten meist die Variablen und die Zeilen die Elemente (Fälle). Ist die Zahl der Zeilen gleich jener der Spalten, handelt es sich um eine quadratische Matrix. Matrizen mit gleicher Dimension können addiert, subtrahiert und multipliziert werden. Der Spaltenvektor enthält alle Elemente einer Spalte, der Zeilenvektor alle Elemente einer Zeile. Bei mehr Variablen und / oder Ausprägungen ergeben sich entsprechend Mehrfeldertafeln, z. B. als Neunfeldertafel, deren Abhängigkeitsstrukturen nur noch über log-lineare Modelle analysierbar sind. Dazu werden die Logarithmen der Erwartungswerte als lineare Funktion von Parametern dargestellt, die dem Einfluss der Variablen und ihrer Wechselwirkungen entsprechen. Eine unvollständige Kontingenztafel entsteht, wenn einzelne Zellen der Matrix unbesetzt bleiben. Insgesamt wird die Analyse dann aber unübersichtlich.

5. Bivariate Interdependenzanalyse Verfahren der Interdependenzanalyse unterscheiden nicht in abhängige und unabhängige Variable, sondern untersuchen Wechselwirkungen zwischen zwei oder mehr Variablen. Dabei sind folgende verbreitet: • Interdependenzanalyse mit zwei metrischskalierten Variablen (bivariat): Korrelationsanalyse, • Interdependenzanalyse mit zwei nichtmetrischskalierten Variablen (bivariat): Kreuztabellierung, • Interdependenzanalyse mit mehr als zwei metrischskalierten Variablen (multivariat): Cluster-Analyse, Faktorenanalyse, Korrelationsanalyse, • Interdependenzanalyse mit mehr als zwei nichtmetrischskalierten Variablen (multivariat): Multidimensionale Skalierung, Cluster-Analyse. Außerdem gibt es die Präferenzanalyse als multivariates Verfahren, das zwischen Dependenz- und Interdependenzanalysen angesiedelt ist (hier letzteren zugeschlagen) und sowohl metrisch- als auch nichtmetrischskalierte Variablen aufweist. Diese Einteilung wird im Folgenden zugrunde gelegt.

5.1 Korrelationsanalyse Typische Fragestellungen der Korrelationsanalyse sind etwa folgende: • Hängen Kaufentscheidungen für Eigentumswohnungen stärker von der Preisoder der Einkommensentwicklung ab? • Wie stark ist der Zusammenhang zwischen Ausbildungsgrad und Computerbesitz im Haushalt? • Verändert sich das Ausmaß der Fernsehnutzung positiv oder negativ mit dem Ausbildungsgrad der Fernsehnutzer? • Gibt es einen Zusammenhang zwischen dem Alter von Personen und deren Gewicht und wie stark ist dieser ggf. ausgeprägt? • Hängen die Anzahl der Sonnentage in einem Jahr und das Ausmaß des Schädlingsbefalls von Pflanzen zusammen oder nicht? • Steigt bei Angestellten mit zunehmender Arbeitszeit ihr Einkommen oder hängen beide Größen nicht erkennbar zusammen?

324

Kap. V: Statistische Datenauswertung

• Haben Kinder, in schon früh die ersten Sätze sprechen, später einen höheren Schulerfolg als Kinder, bei denen dies nicht der Fall ist? • Wie stark hängt der Schädlingsbefall einer Pflanzenart von der Anzahl der Regentage am Standort ab? 5.1.1 Vorgehensweise Sollen die Existenz, die Richtung und die Stärke des Zusammenhangs zwischen zwei oder mehr Variablen untersucht werden, eignet sich die Korrelationsanalyse. Dabei wird von metrisch skalierten Variablen ausgegangen. Sie kann auch für multivariate statistische Aufgaben genutzt werden, hier wird aber die bivariate Form dargestellt. Korrelation bezeichnet allgemein den Zusammenhang zwischen ordinal oder metrisch messbaren Merkmalen. Die Korrelationsanalyse ist ein Verfahren zur Messung des Ausmaßes von Wechselbeziehungen zwischen zwei oder mehr statistischen Reihen. Je nach Anzahl der untersuchten Variablen unterscheidet man zwischen einfacher Korrelation mit zwei Variablen und multipler Korrelation mit mehr als zwei Variable. Dabei kann es immer nur um den Nachweis des formalstatistischen Zusammenhangs gehen, nicht aber um die Schlussfolgerung eines materiell-logischen oder kausalen Zusammenhangs.

r=0

r=0

r = -1

r = +1

r = + 0,6

r = - 0,2

Abbildung 82: Alternative Korrelationskoeffizienten (eig. Darst.)

Die Stärke des Zusammenhangs wird durch den Wert des Korrelationskoeffizienten gemessen. Die Richtung des Zusammenhangs wird durch dessen Vorzeichen angegeben, positive Werte weisen auf einen gleich gerichteten Zusammenhang hin, negative auf einen gegenläufig gerichteten Zusammenhang. Alle Korrelationskoeffizienten sind zwischen + 1 und − 1 normiert, bei = 0 ist kein

5. Bivariate Interdependenzanalyse 

325

Zusammenhang zwischen den Variablen gegeben (siehe Abbildung 82: Alternative Korrelationskoeffizienten). Hinsichtlich der Richtung gilt: • positiver Wert = gleich gerichteter Zusammenhang vorhanden, • negativer Wert = entgegen gesetzter Zusammenhang vorhanden, • Wert nahe 0 = kaum erkennbarer Zusammenhang vorhanden. Hinsichtlich der Höhe des Korrelationskoeffizienten (r) gilt: • r  0 haben, gekauft zu werden. Das bedeutet, Zielpersonen sind zu einem Kauf auch bereit, wenn ein Produkt Abweichungen gegenüber dem von ihnen so gesehenen Ideal aufweist. Nur sinkt

479

6. Positionierung

die Kaufwahrscheinlichkeit dieses Produkts dann mit steigender Entfernung von dessen Ideal. Bevor Kunden auf den Nutzen des Idealangebots ganz verzichten, wählen sie mangels Alternative lieber ein Realangebot, das diesem Ideal möglichst nahe kommt. Sobald jedoch ein Angebot am Markt auftaucht, das ihrem Ideal entspricht oder doch näher kommt, wechseln sie zu diesem. Man spricht dann von einer latenten Marktnische, d. h., es gibt Platz am Markt aus dem Potenzial, das derzeit, jedoch ohne Involvement, andere Angebote kauft. Die Interpretation der Positionen ist durchaus topographisch, also geometrisch exakt, gemeint. Für die Auswertung stehen statistische Programme zur Verfügung. Für viele Fälle ist es aber durchaus ausreichend, eine heuristische Ein­ ordnung vorzunehmen, zumal die statistisch exakten, normativen Verfahren häufig eine Scheingenauigkeit vorspiegeln, die in der Realität so nicht gegeben ist, z. B. infolge Erhebungs-, Mess- oder Auswertungsfehlern. Eine anschauliche ­Lösung dazu bietet die Feldtheorie (Lewin). In der Ausprägungen von Spiegel ergeben sich dabei drei Ansatzpunkte (siehe Abbildung 130: Feldtheoretische Optionen).

Angebot alt

Angebot alt

Angebot neu

Angebot neu

Zusatznutzen

Zusatznutzen Grundnutzen

N

Steigerung Grundaufforderungswert

Grundnutzen

N

Steigerung Zusatzaufforderungswert

Angebot

N

Nachfrage neu

N

Nachfrage alt

Abbildung 130: Feldtheoretische Optionen (eig. Darst.)

Erstens kann der Grundaufforderungswert des betreffenden Angebots gegenüber dem Mitbewerb erhöht werden, d. h. die gattungstypische Leistung wird betont, um dem Angebot eine Prominenz in der Wahrnehmung der Zielpersonen zukommen zu lassen. Das Problem dabei ist, dass diese Strategie in gleichem Maße allen Mitbewerbern zugute kommt, die denselben Grundnutzen stiften können.

480

Kap. VII: Marktinformationen

Daher kann zweitens der Zusatzaufforderungswert des betreffenden Angebots erhöht werden, d. h. die spezifische Leistung wird betont, um das „neue“ Angebot gegenüber dem „alten“ abzugrenzen. Dies setzt freilich ein relevantes Alleinstellungsmerkmal voraus, über das Mitbewerber des selben Relevanten Markts so nicht verfügen. Drittens kann eine Präferenzumwertung bei Zielpersonen vorgenommen bzw. versucht werden, d. h., Zielpersonen sollen Angebotsmerkmale, die für sie seither nur von geringerer Bedeutung waren bzw. über die das „alte“ Produkt nicht verfügte, über die aber das „neue“ Produkt verfügt, nunmehr als wichtiger ansehen bzw. Produktmerkmale, die für sie seither von hoher Bedeutung waren und über die der Mitbewerb disponiert, nicht aber das relaunchte eigene Produkt, nunmehr als weniger wichtig ansehen. Eine solche Präferenzumwertung gelingt jedoch nur selten.

6.3 Positionsoptionen Bei aller gewollten Verschiedenheit der Angebotspositionen, können dennoch einige übergreifende Positionierungsoptionen unterschieden werden (siehe Abbildung 131: Möglichkeiten zur Positionierung). Die wichtigsten von ihnen werden im Folgenden kurz dargestellt.

faktische Alleinstellung

Positionszuspitzung

kommunikative Alleinstellung

breite Bedarfsabdeckung Marktschnittstelle

Abbildung 131: Möglichkeiten zur Positionierung

Am bekanntesten ist die faktische Alleinstellung eines Angebots als Unique selling proposition (USP). Hoch problematisch dabei ist jedoch, dass die eigene Positionierung sich dabei im Wesentlichen aus dem ergibt, was der Mitbewerb am Markt noch unbesetzt gelassen hat. Dies entspricht aber einer reaktiven Sichtweise (Outside-in / Porter). Insofern steht zu vermuten, dass die potenzialstärksten Positionen bereits vergeben sind und ein prospektiver Markterfolg daher begrenzt bleibt. Zudem ist die Fortschrittsgeschwindigkeit in den Märkten so hoch, dass Alleinstellungen von heute morgen bereits getoppt sein können und dann zu Konkurrenznachteilen mutieren. Insofern ist die USP-Denkweise sehr bedenklich. Beispiele finden sich im Zahncreme-Markt. Als USP wurde zunächst die Weiße der Zähne behauptet (Strahler 70/P & G), dann frischer Atem (Ganz nah / Unile-

6. Positionierung

481

ver), dann Kariesprophylaxe (Signal / Unilever), dann Parodontose-Prophylaxe (Blend-a-med / P & G) und dann Zahnstein-Prophylaxe (Anti-Belag / P & G). Als dies nicht mehr ausreichte, kam die Ablösung durch 2-in-1-Zahncremes und 3-in1-Zahncremes (Odol-med3/GSK). Zwischenzeitlich ist man bei 5-in-1 angekommen (Blend-a-med / P & G). Dass dies in einem toten Rennen enden muss, ist nahe liegend. Eine Alternative dazu ist eine kommunikative Alleinstellung des eigenen Produkts auf der Wahrnehmungsebene als Unique communications proposition (UCP). Solche Alleinstellungsbehauptungen müssen nur relevant und plausibel sein, dann sind sie für Konkurrenten gesperrt, selbst wenn diese mit gleicher Berechtigung diese Alleinstellungsbehauptung aufgreifen könnten. Im Unterschied zum USP ist der UCP also besser zu verteidigen und wird erst hinfällig, wenn er für Zielpersonen nicht mehr relevant ist oder vom Anbieter nicht mehr aktiv besetzt wird. Ein Beispiel bieten Apple-Geräte. Obwohl diese technisch weitgehend gleichartig zu allen anderen Endgeräten und diese zwischenzeitlich sogar im Details leistungsüberlegen sind, ist der entscheidende Unterschied dennoch das AppleLogo. Andere Anbieter haben im Design gleichgezogen und auch in der Bedienerfreundlichkeit, teils wohl unter Verletzung Gewerblicher Schutzrechte, und gleichwohl generiert der Absender Apple ein Preispremium von gut 30 % bei Desktop-PCs, Laptops, Mobiltelefonen und Tablet-PCs. Denkbar ist auch eine künstliche Alleinstellung durch ein Angebotsmerkmal, das nur wegen der Alleinstellungsabsicht, also nicht aus sachlichen Gründen, in das Angebot aufgenommen wird und durch seine Ingredienz eine Alleinstellung erlaubt. Auch hierbei kommt es zentral auf Relevanz und Plausibilität an. Ein Beispiel sind die Jod-S-11-Körnchen im Sittichfutter Trill (Effem). Körnerfutter ist nur von geringer Wertanmutung, um dennoch eine hohe Preisbereitschaft in der Zielgruppe zu generieren, wurde es zu „Functional food“ hochstilisiert, das den Sittich gegen die lebensbedrohliche Vergrößerung der Schilddrüse schützt. Um diesen entscheidenden Vorteil kommunizierbar zu machen, wurden die JodS-11-Körnchen „erfunden“. Sie dienten als Differenzierungsanker. Denkbar ist aber auch eine prägnante Zuspitzung der Positionierung, also die freiwillige Beschränkung auf ein kleines Marktsegment in der Annahme, dieses geschützt ausschöpfen zu können oder im Umfeld dieser attraktiven Positionierung weitere Zielpersonen einzusammeln. Beispiele für ersteres sind Senior- oder Premium-Petfood-Waren, für letzteres After Eight-Süßwaren oder Fishermen’s Friend. Die Idee ist dabei, dass die überspitzte Positionierung sich im Markt ohnehin glattschleift und auf ein zumutbares Maß reduziert wird oder umgekehrt, ohne diese Zuspitzung das Profil des Angebots ohnehin flach bleiben würde. Der Gegenpol der breiten Bedarfsabdeckung ist heute kaum mehr anzutreffen. Dies ist vielmehr Angeboten vorbehalten, die zu Zeiten die Märkte beherrschten, als diese noch nicht so dicht besetzt waren wie heute. Das Angebot konnte mehr oder minder undifferenziert an den Markt gegeben werden. Die Kunst besteht heute

482

Kap. VII: Marktinformationen

eigentlich darin, diese omnipotente Position in die Gegenwart zu retten, etwa bei Nivea für Hauptpflege oder Volkswagen für Pkw. Dabei ergeben sich erhebliche Probleme, weil durch Line extensions und Flankers die Positionskompetenz überdehnt wird und der Angebotskern nicht mehr genügend Zugkraft bereitstellen kann (z. B. Milka / K JS). Relaunches werden denn auch vorwiegend genutzt, um eine Zuspitzung des nachfolgenden gegenüber dem vorausgehenden Angebot zu erreichen. Eine aussichtsreiche Option ist die Re-Positionierung von Angeboten an der Schnittstelle von Märkten. Geht man davon aus, dass alle Markträume heute dicht besetzt und weitgehend chancenvergeben sind, ist dort eine erfolgreiche Re-Positionierung kaum mehr möglich. Jedoch haben die Markträume Berührungspunkte zueinander, man spricht von Substitutionsketten. Wenn es gelingt, eine Position an einer solchen Kontaktstelle zwischen zwei Märkten aufzubauen, können damit Angebotsmerkmale verbunden werden, die den Angeboten in den beiden Einzelmärkten verwehrt bleiben und daraus eine Überlegenheit etablieren. Dies wiederum kann bei Erfolg zu einem neuen eigenständigen Marktraum führen, in dem der Schnittstellenanbieter bereits dominiert. Beispiele dafür sind Knusperriegel aus Keks und Schokoriegel, Pralinenbonbons, Rinpoos aus Shampoo und Spülung, SUV aus Offroader und Limousine, Eisriegel als portioniertes Eis in Riegelform oder Sportlimousinen wie Mercedes CLS, Audi GT oder BMW GT.

7. Stakeholder-Analyse Eine Positionierung des Unternehmens ist aber nicht nur auf der Absatzseite erforderlich, sondern gegenüber jedweden Interessenhaltern im Umfeld. Daher ist es Aufgabe der Marktforschung, nicht nur die Verhältnisse zu Markt und Wettbewerb vorzuklären, sondern auch zu diesen Stakeholders. Dazu gehören verschiedene Gruppen mit untereinander abweichenden Interessen und ausgeprägten Machtmitteln sowie dem erklärten Willen zu deren Durchsetzung. Die Stakeholder-Analyse untersucht daher allgemein die Beziehungsstruktur zwischen gewerblichen Anbietern und privaten oder gewerblichen Interessengruppen aus Personen oder Institutionen. Grundlage dafür sind Geschäftsbeziehungen als von ökonomischen Zielen geleitete Interaktionen mit personalen / medialen Kontakten in strategischer Ausrichtung durch Bereitstellung investiver Mittel. Dafür gibt es mehrere Ausprägungen nach: • den Trägern solcher Beziehungen unterscheidet man (unverbundene) Unternehmen, (staatliche oder nicht-staatliche) Institutionen, (formale oder informelle) Gruppen, (einflussstarke) Individuen etc., • dem Inhalt unterscheidet man die Behandlung von Sachproblemen, aber auch von Einstellung, Verhalten, Motivation etc., • der Intensität kann man in verschiedene Grade der Dauer (kurz, mittel, lang) und Bedeutung von Beziehungen (schwach, medium, stark) unterscheiden, • der Symmetrie unterscheidet man Beziehungen gleich berechtigter Partner und solche ungleich berechtigter, überlegener oder unterlegener Partner, • der Richtung unterscheidet man organisationsinterne, direkte Beziehungen (interne Stakeholders) oder -externe, indirekte Beziehungen mit Dritten (externe Stakeholders). Es können verschiedene Stakeholder-Gruppen unterschieden werden (siehe Abb. 132: Stakeholder-Gruppen). Zu den direkten Stakeholders, zu denen interne Leistungs-Gegenleistungs-Beziehungen bestehen und deren Relation in der Marktforschung daher verstärkt zu untersuchen ist, zählen folgende: • Mitarbeitende fordern z. B. leistungsgerechte Bezahlung oder produktive Ar­ beitsatmosphäre. Ihre Machtmittel sind Gewerkschaftsunterstützung, die Mobilisierung der Öffentlichkeit, Dienst nach Vorschrift etc. • Eigentümer / Aktionäre fordern z. B. höhere Dividenden oder Kurspflege der Aktien (Shareholder value). Ihre Machtmittel sind Hauptversammlungsauftritt, die Prüfung der Geschäftsbücher, Unternehmensaufspaltung etc.

484

Kap. VII: Marktinformationen

direkte Stakeholder

indirekte Stakeholder

intern

Konkurrenten

Mitarbeitende

Umfeldakteure

Eigentümer

Medien

extern

Politiker

OEM-Kunden

Behörden

private Abnehmer

private Institutionen

Absatzmittler Lieferanten Kreditoren

Abbildung 132: Stakeholder-Gruppen

Hinzu kommen direkte Stakeholders, zu denen externe Leistungs-Gegenleistungs-Beziehungen bestehen: • Gewerbliche Abnehmer fordern z. B. faire Geschäftspraktiken oder zuverlässige Leistungen. Ihre Machtmittel sind die Abwanderung zur Konkurrenz, Boykott von inakzeptablen Angeboten, Aufbau eigener Ressourcen etc. • Private Endabnehmer fordern z. B. Schutz sozialer Werte und Risikominderung. Ihre Machtmittel sind Ausübung von Druck auf die Regierenden, Sanktionen gegenüber einzelnen Unternehmen etc. • Absatzmittler fordern z. B. zeitgemäße Leistungen zu vernünftigen Preisen oder Leistungen, die hohe Nachfrageakzeptanz aufweisen. Ihre Machtmittel sind Zuliefererwechsel bei schlechten Vertragsbedingungen, der Boykott von nicht reagierenden Anbietern etc. • Lieferanten fordern z. B. regelmäßigen Auftragseingang oder Unterlassung der Nachfragemacht. Ihre Machtmittel sind die Zurückweisung von Aufträgen bei unzumutbaren Vertragsbedingungen, die Belieferung von Konkurrenten etc. • Kreditoren fordern z. B. pünktliche Zins- und Tilgungszahlungen oder Bonitätssicherung. Ihre Machtmittel sind die Rückforderung von Darlehen / Streichung von Kreditlinien, falls Zahlungen ausbleiben, Verweigerung zusätzlicher Kredite etc.

7. Stakeholder-Analyse

485

• Gewerkschaften fordern z. B. Einhaltung der Tarifbedingungen, Arbeitsschutz, Ermöglichung der Betriebsratswahl. Ihre Machtmittel sind Streik / Warnstreik, Zahlung von Streikgeld, Medienpräsenz, Lobbying etc. Zu den indirekten Stakeholders, zu denen nur Kommunikationsbeziehungen bestehen, nicht hingegen Leistungs-Gegenleistungs-Beziehungen, die damit aber als nicht minder bedeutsam anzusehen sind, zählen folgende: • Konkurrenten fordern z. B. solide Marktstrategien oder stärkere Branchensolida­ rität. Ihre Machtmittel sind Innovationen, die andere zum Nachziehen oder aufgeben zwingen, Preisunterbietung etc. • autonome Umfeldakteure fordern z. B. Wohlverhalten i. S. d. eigenen Ziele. Ihre Machtmittel sind meinungsstarke Präsenz wie Influencer, Initiierung / Verstärkung gesellschaftlicher Trends wie Diversität etc. • Medien fordern z. B. bessere Informationsbereitstellung oder mehr Kontrolle der Unternehmenstätigkeit. Ihre Machtmittel sind Veröffentlichungen, die das Publi­ kum negativ beeinflussen können, Zurückweisung von Medieneinschaltungen etc. • Politiker fordern z. B. Beschäftigung ortsansässiger Arbeitnehmer oder mehr Rücksicht auf Umwelt und Infrastruktur. Ihre Machtmittel sind die Vergabe / Einschränkung laufender Genehmigungen, die Einflussnahme auf Behörden etc. • Behörden fordern z. B. bessere Steuermoral oder wirtschaftliches Wachstum. Ihre Machtmittel sind Regulierungen / Sanktionen, Verbote / Genehmigungen, Verfahrens- und Prozessregularien etc. • Non governmental organizations (NGOs) fordern z. B. nachhaltigere Unterstützung bei der Anpassung an veränderte Umweltbedingungen und mehr Solidarität. Ihre Machtmittel sind die Unterstützung sich wohl verhaltender Unternehmen, Veröffentlichungen etc. Aussagen zu Märkten können nur belastbar getroffen werden, wenn diese Stakeholder-Strukturen bekannt und berücksichtigt sind. Ansonsten kann es zu gefährlichen Fehleinschätzungen der Lage kommen (z. B. Brent Spar / Shell). Ziel der Erkenntnisse ist die Justierung einer Balance zwischen dem Unternehmen und seinen Stakeholders. Dabei haben diese mehr oder minder stark abweichende Interessen und sehen mehr oder minder großen Anlass zum Einsatz von Machtmitteln. Jeder Stakeholder-Gruppe soll daher soweit entsprochen werden, dass sie die Beziehung zum Unternehmen positiv bewertet und zugleich andere Gruppen dies gleichermaßen tun. Dies ist bereits schwierig genug, erschwerend kommt aber hinzu, dass sowohl die Interessen des Unternehmens als auch die Interessen seiner Stakeholders bzw. zwischen ihnen sich dynamisch verändern, so dass immer wieder eine neue Justierung erforderlich ist. Je besser der Wissensstand über diese Situation, desto effektiver kann das Beziehungsmanagement erfolgen. Die Machtbasis von Stakeholders ist hoch, wenn die Gruppe

486

Kap. VII: Marktinformationen

• straff organisiert und entschlossen handelnd ist, dies trifft eher auf kleine Gruppen zu, die vergleichsweise homogen sind und nur so eine Chance zur Durchsetzung ihrer Anliegen sehen, • groß und systemrelevant („too big to fail“) ist, dann besteht die wirtschaftliche Notwendigkeit, sich mit deren Anliegen zu beschäftigen, • gegenüber dem Unternehmen eine starke Markt-/Konkurrenz- und Abnehmerstellung hat, letzteres gilt z. B. für Key accounts, deren wirtschaftliche Bedeutung durchschlägt, • selbst unter Druck ihrer Stakeholders steht und diesen weitergibt, dies ist besonders gefährlich, da aus der vermeintlichen Schuldlosigkeit an dieser Situation häufig ein besonders rigoroses Vorgehen folgt, • ihre Forderungen mit Ultimatum oder Sanktion unterlegen kann, dies erhöht den Zeitdruck zur Reaktion und macht, besonders bei unzureichender Vorbereitung, fehleranfällig, • Unterstützung durch andere Gruppen organisieren und sich somit in ihrer Bedeutung „aufblähen“ kann, etwa indem sie für eigene Vorteile nennenswerte Nachteile für diese anderen Gruppen in Kauf nimmt, • sich medial gut darstellen kann, etwa im öffentlich-rechtlichen Fernsehen oder in meinungsbildenden Printmedien, und damit die schweigende Mehrheit übertönt, • von einem charismatischen Anführer geprägt wird, welcher die Gruppe und ihre Anliegen in der öffentlichen Wahrnehmung hervorhebt. Aufgabe der Marktforschung ist es, Stakeholders zu beobachten und ihre Dispositionen zu analysieren, daraus strategische Erfolgspositionen für das Unternehmen zu identifizieren und Maßnahmen zu deren Nutzung abzuleiten.

Kapitel VIII

Wettbewerbsinformationen Wettbewerbsinformationen (Competitive intelligence)  umfassen die Mitbewerbserkundung (1.) im Strategischen Geschäftsfeld, in der Strategischen Gruppe und im Konkurrenzumfeld, die Mitbewerbsanalyse (2.) mit Stärken / Schwächen, Chancen / Risiken, die Konzeptionsanalyse (3.) mit den Elementen Nachfragestimulierung, Marktparzellierung, Rollenverständnis und Innovationstiming sowie die Konzeptbewertung (4.). Wettbewerbsinformationen stellen sich angesichts erkennbarer Wachstumsgrenzen, liberalisierter Marktordnungen und steigender Professionalisierung der Anbieter zunehmend als Erfolgslimitationen heraus. Daher ist es geradezu existenznotwendig, möglichst aussagefähige Informationen über Konkurrenten zu recherchieren, vorzuhalten und diese bei eigenen Entscheidungen einzuarbeiten. Nur noch selten ist ein individuell wünschenswertes, monopolistisches Verhalten darstellbar. Vielmehr ist gegenseitige Verdrängung kennzeichnend für Marktsituationen, die einzelbetriebliches Wachstum nurmehr zulasten kompetitiver A ­ kteure zulässt.

1. Mitbewerbsforschung Als zentrale Frage ist hier zu klären, wer denn konkret als Mitbewerber anzusehen ist. Dabei ist es die Aufgabe der Marktforschung, vor allem das relevante Strategische Geschäftsfeld abzugrenzen und dann innerhalb dieser Arena die Strategischen Gruppen, vor allem die primäre Strategische Gruppe der „Marktgegner“. Denn wenn unklar ist, in welcher Arena man antritt und folglich auch unklar bleibt, welche Gegner die relevanten sind, wird sich kaum Erfolg einstellen. Insofern handelt es sich hier um vitale Informationen.

1.1 Strategisches Geschäftsfeld

eindimensionale Abgrenzung objektive Abgrenzung physikalisch-chemisch-technisch funktional subjektive Abgrenzung Kundenverhalten Kundenurteile Anbietersicht zweidimensionale Abgrenzung (Triffin) dreidimensionale Abgrenzung (Abell) multidimensionale Abgrenzung (v. Stackelberg)

Abbildung 133: Abgrenzung des Strategischen Geschäftsfelds

Die Geschäftsfeldabgrenzung ist von zentraler Bedeutung für die Aussagefähig­ keit jeder marktforscherischen Analyse. Dessen zweckmäßige gedankliche Ab-

1. Mitbewerbsforschung

489

grenzung ist jedoch eine der schwierigsten Aufgaben überhaupt, zumal davon weitreichende Konsequenzen für strategische Erfolgspositionen abhängen. Dafür gibt es im Einzelnen ein-, zwei-, drei- und multidimensionale Konzepte (siehe Abbildung 133: Abgrenzung des Strategischen Geschäftsfelds). Die eindimensionale Abgrenzung kann auf objektiver oder subjektiver Basis erfolgen: • Objektiv erfolgt die Abgrenzung anhand der physikalisch-chemisch-technischen Austauschbarkeit von Produkten. Das analysierte SGF besteht demnach aus allen Produkten gleicher Form, technischer Gestaltung, Verarbeitung oder stofflicher Zusammensetzung. Problematisch ist dabei, dass gerade auch objektiv unterschiedliche Produkte zahlreich für gleiche Verwendungszwecke genutzt werden wie z. B. Tapete, Farbe, Holz, Gips zur Wandverkleidung. Auch die Abgrenzung bei Dienstleistungen ist aufgrund ihrer konstitutiven Immaterialität schwierig. Daher ist alternativ eine Abgrenzung auf Basis der funktionalen Austauschbarkeit denkbar. Das analysierte SGF besteht danach aus allen Produkten / Diensten, welche die gleiche Funktion erfüllen, unabhängig von ihrer Form, Gestaltung, Verarbeitung oder Zusammensetzung, z. B. Linderung von Muskelschmerzen durch Tabletten, Salben, Tinkturen, Bestrahlung, Massage, Physiofitness. Problematisch dabei ist jedoch, dass erhebliche subjektive Auffassungsunterschiede bei Abnehmern darüber bestehen können, ob und wie eine funktionale Austauschbarkeit von Produkten konkret gegeben ist. Folglich bleibt diese Abgrenzung unbestimmt. • Eine subjektive Abgrenzung kann aus Anbietersicht oder aus Nachfragersicht erfolgen. Aus Nachfragersicht sind ihr wiederum Kundenverhalten oder Kundenurteile zugrunde zu legen. Beim Kundenverhalten besteht das analysierte SGF aus allen Produkten / Diensten, die für ein und denselben Verwendungszweck tatsächlich beschafft werden. Problematisch ist dabei, dass es sich um vergangenheitsbezogene Daten handelt, ein konstantes Verhalten vorausgesetzt wird und Einfluss durch zahlreiche Störfaktoren wie Verfügbarkeit, Finanzkraft etc. besteht. Auch ist dieser Ansatz nur für Produkte mit hoher Verbrauchsintensität geeignet. Alternativ ist eine Abgrenzung auf Basis von Kundenurteilen denkbar. Dabei wird das analysierte SGF aus allen Produkten / Diensten gebildet, die von Abnehmern als für denselben Zweck geeignet angesehen werden. Dabei stellt sich jedoch das Problem der Informationserhebung, vor allem bei Neuprodukten, bei denen Abnehmer notwendigerweise auf keine Erfahrungswerte zurückgreifen können. Bei einer Abgrenzung aus Anbietersicht besteht das analysierte SGF aus allen Produkten / Diensten, die Anbieter als für den selben Zweck geeignet ansehen. Dabei ergibt sich jedoch das Problem, ob Anbieter eine zutreffende Sichtweise einnehmen und zweckmäßig antizipieren können. So waren historisch die ersten

490

Kap. VIII: Wettbewerbsinformationen

Steiff-Teddybären als Nagelkissen für Näherinnen gedacht, stellten sich aber erst danach als famoses Kinderspielzeug heraus. Die zweidimensionale Abgrenzung erfolgt auf Basis der Kreuzpreiselastizität des Angebots und der Nachfrage (Triffin’scher Koeffizient). Das analysierte SGF umfasst dabei alle Produkte / Dienste mit hohem positiven wie negativen Koeffizienten. Dieser ergibt sich als Quotient aus der Mengenänderung eines Produkts A aufgrund der Preisänderung eines Produkts B. Gehören beide zum selben Markt, bedeutet eine Preiserhöhung von Produkt A einen Mengenzuwachs bei Produkt B. und umgekehrt, weil Käufer von A nach B ab-/zuwandern. Problematisch ist dabei vor allem die Datenbeschaffung, die nur unter engen Voraussetzungen in Markttests möglich ist. Auch wird vorausgesetzt, dass Nachfrager den Preis als einziges Entscheidungskriterium für den Kauf / Nichtkauf betrachten, was zu bezweifeln ist. Selbst wenn die Kreuzpreiselastizität zu bestimmen ist, stellt sich die Frage, ab welchem Schwellenwert von getrennten Teilmärkten auszugehen ist und bis zu welchem Schwellenwert von einem gemeinsamen Markt (Marktketten / Robinson). Insofern ist diese Abgrenzung zwar theoretisch sauber, praktisch aber wenig nutzbar. Die dreidimensionale Abgrenzung erfolgt auf Basis der kumulativen Parameter Funktion, Zielgruppe und Technologie (Abell). Danach werden alle Produkte / Dienste als einer gemeinsamen SGF zugehörig angesehen, die eine identische Zielgruppe aufweisen, dort die gleiche Funktion erfüllen, und mit derselben Technologie realisiert werden. Sobald ein Angebot in einem dieser drei Dimensionen abweicht, liegen hingegen getrennte Märkte vor. Diese Abgrenzung ist recht komplex und zugleich angreifbar. Im Beispiel Zahnreinigung würden demnach Handzahnbürsten und elektrische Zahnbürsten getrennten Märkten angehören. Sie haben zwar eine identische Zielgruppe und nehmen dort die gleiche Funktion wahr, aber dies mit abweichender Technologie. Tatsächlich dürften Verbraucher jedoch vor der Wahl stehen, eine Handzahnbürste oder elektrische Zahnbürste zu kaufen, Zahnzwischenraumbürstchen oder Mundduschen etc., mithin diese Produkte dem selben Markt zuzurechnen sein. Die multidimensionale Abgrenzung geht schließlich von der Voraussetzung totaler Konkurrenz aus, d. h., jedes Angebot steht mit jedem anderen Marktangebot in Wettbewerb um die knappe Ressource Kaufkraft / Budget der privaten / gewerblichen Nachfrager (nach v. Stackelberg). Dies ist zwar sinnvoll, aber wenig hilfreich. Daher wird praktisch eine Eingrenzung in zeitlicher oder räumlicher Hinsicht vorgenommen. Das heißt, zu einem gemeinsamen Markt gehören alle Angebote, die zum selben Zeitpunkt, bei der konkreten Kaufentscheidung, verfügbar sind oder in einem gemeinsamen Absatzgebiet. Damit wechselt dann allerdings die Zuordnung zum Strategischen Geschäftsfeld vielfach. Alle Optionen kranken an mangelnder Operationalität der Abgrenzung. Als generelle Empfehlung ergibt sich die Tendenz zu einer eher weiten Abgrenzung von Märkten ohne „Marketing myopia“/Levitt. So können auch neue Einsichten über

1. Mitbewerbsforschung

491

das Angebot gewonnen werden, beispielsweise Duplo / Ferrero als längste Praline der Welt oder Obstgarten / Gervais als gesunder Ersatz für das Mittagessen. Insofern kommt es hier auf eine pragmatische Vorgehensweise an.

1.2 Strategische Gruppe Innerhalb des vorab abgegrenzten Strategischen Geschäftsfelds wird die Gesamtheit der Marktanbieter in Gruppen eingeteilt, die aus mehreren Unternehmen bestehen, die gleiche oder stark ähnliche Ausgangssituationen in Bezug auf wettbewerbsrelevante Faktoren aufweisen, diese bilden eine Strategische Gruppe. Ähnlich wie es Marktbarrieren zwischen einzelnen Branchen gibt, die einen beliebigen Ein- und Ausstieg in / aus Märkte(n) behindern, gibt es auch Mobilitätsbarrieren innerhalb einer Branche, die einen Wechsel von Gruppe zu Gruppe behindern. Stärkend für eine Strategische Gruppe sind allgemein alle Faktoren, die Mobilitätsbarrieren aufbauen und dadurch die Gruppe schützen, weiterhin Faktoren, welche die Verhandlungsstärke der Gruppe gegenüber ihren Marktpartnern erhöhen und Faktoren, die eine Gruppe vor der Rivalität anderer Unternehmen abschirmen. Strategische Gruppen im Pkw-Markt lassen sich etwa nach den beiden Dimensionen Autoklassen (Mini / Kleinwagen, Kompaktklasse, Untere / Obere Mittelklasse, Oberklasse, SUVs, Mini-/Großraum-Vans, Sportwagen etc.) sowie nach Herkunftsländern der Hersteller (Deutschland, Westeuropa, Südeuropa, Osteuro­pa, Südkorea / China, Japan, USA etc.) abgrenzen. Die Stufen zur sachkundigen Einschätzung der Lage hinsichtlich der Strategische Gruppe sind folgende: • Feststellung der wesentlichen Angebote im zu analysierenden Markt. Dabei fällt eine Marktabgrenzung immer schwerer, da die Grenzen der Märkte verschwimmen. So sehen sich traditionelle Automobilhersteller völlig neuen Mitbewerbern gegenüber, etwa Tesla / BYD für Elektroantrieb, Waymo / Google für autonomes Fahren, Uber / Lyft für Carsharing. Insofern steigt die Bedeutung der potenziellen Konkurrenz enorm. • Anordnung der relevanten Mitbewerber in zwei oder mehr Cluster. Dies ist wichtig, um die Selbstähnlichkeit konkurrierender Angebote zum eigenen Angebot festzustellen. Die Position entspricht dann dem jeweils so gesehenen Selbstverständnis eines Angebots. Dabei sollten „ehrliche“, objektivierte Einschätzungen, etwa als Mittelwert mehrerer fachkundiger Personen, einbezogen werden. • Position des eigenen Angebots in diesen Markt. Den jeweiligen Konkurrenzpositionen wird die eigene Position gegenübergestellt. Aus der „Entfernung“ dieser Positionen zueinander kann auf die Nähe der Angebote geschlossen werden. Dabei kommen immer mehr partielle Überschneidungen zum Tragen. Die

492

Kap. VIII: Wettbewerbsinformationen

Einteilung kann statistisch exakt vollzogen werden, zumeist reicht aber eine näherungsweise intuitive Einteilung. • Bestätigung der Intrahomogenität und Interheterogenität dieser Cluster. Für Anbieter mit vergleichbaren Positionen ist anzunehmen, dass diese derselben Strategischen Gruppe zugehörig sind et vice versa. Hinsichtlich des Verhaltens in Strategischen Gruppen sind vier Optionen gegeben: • Die Dominanz innerhalb der bestehenden Strategischen Gruppe zielt darauf ab, die Gruppenführung zu übernehmen und damit die Marktmechanik zu beeinflussen. Ein Beispiel dafür ist der Wettlauf zwischen Telekom und Vodafone im Mobilfunkmarkt. • Der Wechsel in eine andere Strategische Gruppe erfolgt, weil diese als günstiger als die bestehende eigene angesehen wird. Freilich sind dazu zunächst Austrittsbarrieren der bestehenden Gruppe sowie Eintrittsbarrieren der optierten Gruppe zu überwinden. Praktisch geht es darum, eine bessere Hebelwirkung auf die Angebotsvorteile auszuüben. Ein Beispiel ist Samsung im Wandel vom koreanischen UE-Billighersteller zur Elektronik-Kultmarke. • Die Gründung einer neuen Strategischen Gruppe versucht, eine gewünschte Monopolstellung zu erreichen und in Folge dort eine First mover advantage zu halten. Insofern entsteht damit eine zumindest temporäre Monopolstellung. Beispiele sind IKEA bei Möbelhäusern, Smart bei Kleinautomobilen oder Swatch bei Armbanduhren. • Die gemeinsame Verteidigung der Strategischen Gruppe durch Stärkung der Gruppe nach außen, was ein solidarisches Handeln der Gruppenmitglieder voraussetzt. Diese Stärkung kann durch wettbewerbswidrige Abstimmung oder marktimmanentes Parallelverhalten entstehen. Ein Beispiel ist der organisierte Widerstand der deutschen LEH-Konzerne und Discounter zur Verhinderung des Eindringens der amerikanischen Walmart-Kette in den deutschen Markt zu Beginn des neuen Jahrtausends.

1. Mitbewerbsforschung

493

1.3 Konkurrenzumfeld 1.3.1 Recherchetechniken Zur Erforschung des Wettbewerbswissens kann die Marktforschung verschiedene Techniken einsetzen, vor allem die nachfolgend angeführten. Elicitation techniques / Humint als Befragung von Konkurrenzmitarbeitern dienen praktisch häufig dazu, wenngleich unmoralisch, fingierte Stellenanzeigen bzw. Suchaufträge lanciert, die sich gezielt auf Profile von Konkurrenzmitarbeitern richten. Diese werden dann zu Bewerbungsgesprächen eingeladen und zu ihren aktuellen Aufgaben / Projekten befragt. Um sich die Aussicht auf eine attraktive Stelle nicht entgehen zu lassen, vergessen dabei viele Mitarbeiter ihre Pflicht zur strikten Beachtung von Betriebs- und Geschäftsgeheimnissen. Auf diese Weise kann bereits nach wenigen Gesprächen ein aktuelles und exaktes Bild der Wettbewerberaktivitäten nachgezeichnet werden. Dazu dient auch die Auswertung von Dateien (Sigint), von Bewegt- und Standbildern (Imint) sowie Messergebnissen (Masint). Beobachtung / Observation bezieht sich auf nachvollziehbare Aktivitäten von Konkurrenten. Dabei handelt es sich etwa um Bauvorbereitungen bzw. -umsetzungen, aber auch um Lieferungen von Betriebs- und Geschäftsausstattung. Denkbar sind Luftaufnahmen („Drohnen“), aber auch die Auswertung von Google MapsAufnahmen, etwa im internationalen Maßstab. In der Praxis sind sogar immer wieder Ausspähungen von Mitarbeitern, Fahrzeugbewegungen, Vorrats- und Warentransporten etc. vorzufinden. Im Personality profiling als psychologisches Profil von Entscheidern mit Karriere, Charakter, Umgebung, Hobbies etc. wird ein detailliertes Profil leitender Mitarbeiter von Konkurrenzunternehmen erstellt, das sich aus ihrer Herkunft, ihrer Ausbildung, ihren früheren Berufstätigkeiten, aber auch ihrem privaten Umfeld und Vorkommnissen dort (Schicksalsschläge, Skandale etc.) ergibt. Daraus können Experten Einstellungen und Motivationen ableiten und daraus wiederum Prognosen über zukünftiges Verhalten, vor allem in Krisensituationen. Beim Schatten-Benchmarking als indirektem Konkurrenzvergleich wird dieser auf Basis öffentlich oder privat recherchierter Daten unterfüttert. Daraus ergeben sich ausgeprägte Kompetenzen und Defizite, die dann Ausgangspunkt für eigene strategische Planungen sind. Durch den dichten und tiefen Informationszugang, der über Internet und darin aufgeführte Quellen besteht, ist allein auf diese Weise bereits eine sehr aussagefähige Strukturierung des Konkurrenzumfelds darstellbar. Im Zuge von Reverse engineering als Rückwärtskalkulation von Konkurrenzpreisen werden Neuprodukte der Konkurrenz aufgekauft oder auf andere Weise beschafft und dann zerlegt. Die Einzelteile sind danach spezifizierbar. Für diese werden dann Lieferquellen gesucht und Lieferanten zu Angeboten eingeladen bzw.

494

Kap. VIII: Wettbewerbsinformationen

die Kosten für eine Eigenfertigung recherchiert. Unter Zugrundelegung der Produktionsbedingungen werden außerdem die Fertigungskosten kalkuliert. Daraus ergibt sich dann der Selbstkostenpreis und daraus wiederum der Stückgewinn. Dann kann z. B. entschieden werden, ob eine Aufnahme ins eigene Programm technisch machbar und wirtschaftlich lukrativ ist. In der Supply chain-Analyse der Wertschöpfungskette des Mitbewerbs geht es um die dort eingeschalteten Lieferanten der verschiedenen Stufen (Tiers). Ausgangspunkt ist, dass bei regelmäßig hohem Outsourcing-Anteil das eigene Angebot vor allem nur so gut ist wie das Set der beteiligten Lieferanten. Daraus ergeben sich Erkenntnisse über den Austausch von bestehenden und die Aufnahme neuer, leistungsfähigerer Zulieferer, da dort häufig keine Konkurrenzausschlussklauseln bestehen. Wargaming bedeutet die Simulation von Konfliktsituationen mit Strategien und Gegenstrategien. Dabei werden denkbar wahrscheinliche antizipiert, um im Konfliktfall nicht überrascht zu werden. Dies beruht auf der modernen Sichtweise des Wettbewerbs als wirtschaftliche Auseinandersetzung. Dazu gehört auch die Suche und Einbindung von Verbündeten, die Aktivierung potenzieller Induktoren und Prohibitoren. Häufig wird dabei ein Warroom als Kommandozentrale unterhalten, regelmäßig auch mit zwei oder mehr abgeschotteten Teams, die für die Konkurrenten und das eigene Unternehmen stehen. Die Event timeline stellt eine Abfolge von Unternehmensereignissen dar, um daraus auf zukünftige Ereignisse zu schließen, z. B. die Zeitspanne zwischen Markenanmeldung und Marktverwertung durch Interpolation / Extrapolation. Dem liegt die Erfahrung zugrunde, dass Konkurrenzaktivitäten selten überraschend erfolgen, sondern sich im Zeitablauf in einer Reihe von Indikatoren vorankündigen. Gelingt es, diese rechtzeitig zu erfassen und auszuwerten, können daraus schlüssige Ableitungen gezogen werden.

1.3.2 Distant profiling Die Profilerstellung über Wettbewerber umfasst im Einzelnen sowohl Methoden, die illegal / k riminell sind, als auch solche, hier interessierend, die rechtlich einwandfrei sind. Nach der Häufigkeit der Durchführung kann ein einmaliges, ein fallweise wiederholtes, ein regelmäßig wiederholtes oder ein kontinuierliches Profiling erfolgen. Als sekundäre, vorwiegend externe Informationsquellen stehen dafür eine ganze Reihe zur Verfügung: • Auftrag an Clipping-Dienste, die eine Auswahl aus Veröffentlichungen zu vorgegebenen Stichworten zur Verfügung stellen, diese können einem Text mining unterzogen werden,

1. Mitbewerbsforschung

495

• Versuch zur Erfassung des Deep web, das sind Seiten im WWW mit Zugangssperre, ohne aussagefähige Metatags, mit Aussperrung von Crawlers, mit (dyna­ mischen) Echtzeitdaten, ohne Links von anderen Seiten, mit Zahlungspflicht etc., diese Seiten werden in „normalen“ Suchmaschinen aufgrund der Suchtechnik nicht angezeigt, • Auswertung von Spezialsuchmaschinen, diese sind meist kostenpflichtig und zumeist nur auf ein Thema spezialisiert (Web mining mit LexisNexis, Genios, Wisonet, Wer liefert was etc.), • Sichtung von Weblogs, z. B. von Amateur-Rechercheuren, • Recherche von Handelsregistereintragungen mit Informationen zu Rechtsform, Firmierung, Niederlassungen, Geschäftsgegenstand, Gründungskapital, Geschäfts­ sitz, Gesellschafter, vertretungsberechtigte Personen / Prokura, Insolvenzanmeldung, Formumwandlung, Liquidation etc., • Sichtung von Artikeln in Fachzeitschriften, wo wichtige Informationen zu PRZwecken verbreitet werden, von Vorträgen auf Fachveranstaltungen / Symposien, • Auswertung von Geschäftsberichten, Imagebroschüren, Prospekten, Artikeln / ​ Interviews in Fachmedien (meist für PR-Zwecke), • Auswertung von Presse-/Analystenkonferenzen und Pressemitteilungen, • Abonnement von Paneldaten, etwa für Handels-Panels (Nielsen / GfK), • fiktiver Mediaplanvergleich zur Ermittlung des Werbedrucks in der Zielgruppe auf Basis von GRPs, • Reputationsanalyse des Mitbewerbs (hinsichtlich Image, Vertrauen etc.), • Kundenbewertungen im Internet, veröffentlichte Kundenzufriedenheitsstudien, • Blog-Einträge (wie Online-Journalisten), Postings, • Patentrecherche beim Deutschen Patent- und Marken-Amt (DPMA) bzw. Europäischen Patent-Amt (EPA), • Schatten-Benchmarking durch verdeckten Vergleich eigener Prozessdaten mit bekannten Daten des Mitbewerbs, • Auswertung von Luftbildern / Satellitenaufnahmen von Betriebsstätten, Geländen, Lager- und Transporteinrichtungen, Produktionsstandorten etc., • Auswertung Sozialer Netzwerke (privat und beruflich), • Forschungs- und Entwicklungsaufwendungen (Status / Entwicklung), Forschungs­ ergebnissen, Entwicklungsumsetzungen, • Gehaltsstrukturen / Sozialleistungen, Aktienoptionen / Erfolgsbeteiligungen etc., • Lieferantenstruktur, Beschaffungsnetzwerke nach Integration bzw. Make / buy,

496

Kap. VIII: Wettbewerbsinformationen

• Produktionsstandorte, Fertigungskapazitäten, Kapazitätsauslastungen, • Produktqualität, Ökostandards (Carbon footprint), • Bilanzanalyse (mit Bilanzrelationen, Bewertungsprinzipien etc.), • Financial ratios wie CVA, CFRoI, EBIT, EBITDA, RoCE / RoE, RoNA etc., • Finanzmittelausstattung wie Eigenkapital, Fremdkapital, Fristigkeiten etc., • Finanzierungsmöglichkeiten wie Kreditlinien, Gesellschafterpotenzial etc., • Eigentümerstruktur, Ankeraktionäre, Kapitalsammelstellen etc. Als primäre, vorwiegend interne Informationsquellen dienen folgende: • Delphi-Analyse (Expertenbefragung), Hintergrundgespräche mit Fachjournalisten, Wissenschaftlern, Forschern, Erstellung von Gutachten / Expertisen, • Fachgespräche mit Experten, Journalisten, Beratern, Forschern etc., Auswertung Personalsuchanzeigen des Mitbewerbs, • Auswertung von relevanten Messen / Ausstellungen sowie Events / Präsentationen, Kongressen / Konferenzen, • fingierte Anfragen von Geschäftspartnern zum Zwecke des verdeckten Angebotsvergleichs (Competitive benchmarking), • Kauf von Konkurrenzprodukten mit dem Ziel des Reverse engineering zur Zielkostenkalkulation, • Einholung von Auskünften über Wettbewerber bei gemeinsamen Kunden bzw. Lieferanten oder anderen Geschäftspartnern (Berater, Dienstleister etc.), • Mystery shopping von Mitbewerbsprodukten, Aufkauf von Konkurrenzprodukten auf Testmärkten, • Auswertung der Positionierung mit Angebotsanspruch (Claim, Reason why) und Nutzenversprechen (Benefit), • Identifizierung des Produktlebenszyklusstadiums, • Versuch der Prognose über Szenarios / Früherkennung bzw. Indikatoren, • Marktfeldbestimmung, Marktparzellenbestimmung, Bestimmung des kompara­ tiven Angebotsvorteils, Marktverhaltensbestimmung, Marktsequenzbestimmung, • Aufbauorganisation (Organigramm) und individuelle Einordnung dort, • Vorbilder, Gegner, Verbindungen, Assoziationszugehörigkeiten, • Risikofreude (Spirit of competition), individuelle Stärken und Schwächen, • Berater wie Consultants, Wirtschaftsprüfer, Anwaltssozietät etc.

1. Mitbewerbsforschung

497

Neben diese weitgehend legalen Informationsquellen treten auch illegale, die hier nur kursorisch erwähnt werden sollen. Dazu gehört ein ganzes Arsenal von Maßnahmen: • Einschleusen von Praktikanten in die Organisation, um Informationen vor Ort zu sammeln, • Einschleusen von Putzkolonnen / Reinigungspersonal / Schädlingsbekämpfern / ​ Wartungstechnikern etc., um vor Ort illegal Informationen zu sammeln (z. B. durch Abfallsichtung / Waste archeology), • Anzapfen des Wissens von Zeitarbeitskräften / Leasingpersonal, • Einbau von Sendern in Fotokopierer durch fingierte Gerätewartung, die fortlaufend Scans nach außen übertragen, • Installation von Schadsoftware (Backdoor über Viren, Würmer, Trojaner, Spyware etc.), • Diebstahl von Rechnern und Datenträgern, unautorisierter Zugriff auf Pass­ wörter, Programme, Daten, • Anzapfen von Dienstleistern wie Werbeagenturen, Sicherheitsfirmen, Mafo-Instituten, z. B. über Tipps für Mitarbeiter, • Initiierung von Whistleblowing (i. S. v. Denunziantentum), • unerlaubte Ausdrucke durch Fernleitung (Druckerspooling), • Löschen bzw. Verfälschen von Daten, • Liegenlassen von USB-Sticks mit interessanten Aufschriften wie Gehaltsliste, versehen mit Schadsoftware, die von der Sicherheitssoftware nicht erkannt ­werden, • E-Mails an Mitarbeiter aus dem privaten Bereich mit Schadsoftware (die dazugehörigen Adressen stammen meist aus Sozialen Netzwerken), • Ableitung von Passwörtern aus dem privaten Bereich oder durch Kombinatorik, • Umgehung von Zugangsprotokollen durch abgeschottete Serversektionen, • Erstellung von Tastaturprotokollen, • Einwahl in ungenügend geschützte drahtlose Unternehmensnetzwerke / ​WLANAccess points, • private Ausspähung von Leitenden Mitarbeitern, • Verleitung zur Vorteilsnahme und -gewährung, • Erpressung mit kompromitierenden Fakten, Betrug.

498

Kap. VIII: Wettbewerbsinformationen

Hinweise auf unerlaubte Eingriffe sind vielfältig, beginnend bei überraschend verlorenen Aufträgen über länger parkende fremde Auto vor dem Firmengelände bis hin zu unerklärlich leeren Akkus von mobilen Endgeräten. Hinzu kommen ungeklärte Einbrüche, nach denen keine Wertsachen fehlen, Bohrstaub an verfänglichen Stellen, verschwundene technische Geräte oder offene Türen, die eigentlich mit Schloss gesichert sein sollen. Hinzu kommt unaufgefordert erscheinen­des Servicepersonal, überraschende Gäste, die Zutritt begehren, unerwartete Geschenksendungen, überraschende Sach- oder Datenfunde an ungewöhnlichen Stellen, aber auch ungewohnt langsam arbeitende Computer oder nicht zuzuordnende Dateianhänge. Diese Maßnahmen erfordern von jedem Unternehmen eine konsequente Counter intelligence zur Verhinderung des Abflusses eigenen Wissens. Dazu gehören die Sensibilisierung aller Mitarbeiter für betriebs- und geschäftsgeheimnisrelevante Informationen und die Aufnahme kostenbewehrter Geheimhaltungsverpflichtungen in Arbeitsverträgen und Betriebsvereinbarungen sowie für Geschäftspartner (Zulieferer etc.) in Einkaufsverträgen. Technisch sind strikte Zugangskontrollen für Daten (organisationshierarchisch aufgebaut) erforderlich, neben physischen Zutrittskontrollen für Personen (z. B. über RFID / N FC) für sensible Gebäudebereiche / Standorte, durchgeführt von geschultem Security-Personal mit Hintergrundcheck, aber auch Servicer-Checks. Hierzu gehören auch verschärfte Vorkehrungen zum Einbruchsschutz, zur Doppelnutzungssperre via Code, zur Personenzählung, zur Durchgangsüberwachung etc. Ebenso erforderlich ist eine Malware-sichere IT mit IT-Forensik zur Meldung von Datenverlust, Datenlöschung, Datenversteck, Datentarnung o. Ä., wichtig dafür sind eine Batteriepufferung / Notstromversorgung und eine niederschwellige Störanzeige. Aktualisierte Betriebssysteme und scharf eingestellte Firewalls sind ohnehin Standard. Weiterhin sind abgeschirmte Kabelstränge, verplombte Kabelschächte, Strahlungsmessung (WLAN), aber auch der Verzicht auf unnötigen Stecker / Hubs / USB-Ports etc. obligatorisch. Auf einer anderen Ebene gehören dazu auch die gezielte Desinformation des Wettbewerbs (Fintierung) und die Tarnung von Vorhaben durch subversives Vorgehen an geheimen Treffpunkten, unter Decknamen, durch Einschaltung vertrauens­ würdiger Servicers etc.

1.4 Konkurrentenstruktur Für marktforscherische Zwecke ist es sinnvoll, hinsichtlich des Mitbewerbs in aktuelle, substitutive und potenzielle Wettbewerber zu unterschieden werden. Aktuelle Wettbewerber sind in derselben Strategischen Gruppe aktiv wie das eigene Unternehmen. Der Einfluss durch aktuelle Wettbewerber des Unternehmens hängt ab von: • der Wettbewerbsintensität eines Marktes, die wiederum eng mit dem Konzentrationsgrad dort zusammenhängt, je intensiver die Situation, desto mehr muss

1. Mitbewerbsforschung

499

bei eigenen Aktivitäten auf die Position der Konkurrenten und deren mögliche Reaktionen geachtet werden, • der Ansicht der Marktpartner, vor allem Kunden, über die Uniqueness von Angeboten hinsichtlich Qualität, Image und Preis, ein als alleinstellend wahrgenommenes Produkt kann sich dem Wettbewerb zumindest partiell entziehen, • der Kapazitätsauslastung der Anbieter, ist diese gering, besteht die Tendenz zu Teilkostenangeboten zur Vermeidung von Leerkosten, eine Situation, die in weiten Teilen der Märkte angesichts allseitiger Restriktionen, Strukturkrisen, Wachstumsphantasien und Übersättigung gegeben ist, • dem Leistungsgefälle zwischen den Mitbewerbern hinsichtlich Technologie, Innovation und Management, bei starken Abweichungen sind häufig auch verschiedene Relevante Märkte gegeben, also eher eine monopolistische Konkurrenz, • der Höhe der Marktaustrittsschranken, diese bestimmen den Verteidigungszwang der bestehenden Anbieter zum Markterfolg, denn hohe Austrittsbarrieren zwingen wegen mangelnder Mobilität der Produktionsfaktoren häufig zum Marktverbleib auf Gedeih und Verderb, • der Transparenz der Branche, um unbeabsichtigte Affronts zu vermeiden, je intransparenter ein Markt, desto höher ist die Gefahr, durch eigene Aktivitäten ungewollt Konkurrenten herauszufordern, so dass diese sich zur Reaktion veranlasst sehen, • dem Wachstum der Branche, da Stagnation Konkurrenzverdrängung zur Erfüllung individueller Expansionsziele erfordert, dies umso mehr, je unrealistischer Wachstumsvorgaben sind, bis hin zur Verleitung zu Marktmanipulation oder Einsatz unerlaubter / straffähiger Mittel. Substitutive Wettbewerber lösen dasselbe Nachfrageproblem, jedoch mit einem anderen Produkt als das eigene Unternehmen. Auch sie gehören demselben Relevanten Markt an. Der Einfluss durch substitutive Wettbewerber des Unternehmens hängt ab von: • Ausmaß und Umsetzung des technischen Fortschritts, kurze Innovationszyklen bergen hierbei Gefahren, weil Angebotskonstellationen sich rasch verändern und für Unruhe bis hin zur existenziellen Gefährdung sorgen (man spricht hier von Disruption), • Gewerblichen Schutzrechten, die eine prozessuale Monopolstellung gewährleisten, so werden zumindest gleichartige Angebote ferngehalten, allerdings nicht andersartige, die durch Schutzrechte nicht verhindert werden können, • dem Preis-Leistungs-Verhältnis der zueinander in Beziehung stehenden Angebote, dies ist vor allem wichtig bei stagnierenden Nachfragereinkommen, denn desto wichtiger wird die Preisgünstigkeit und Preiswürdigkeit eines Angebots jenseits aller Vorteilsargumentationen,

500

Kap. VIII: Wettbewerbsinformationen

• der absoluten Preishöhe, denn je höher der Preis ist, desto intensiver wird nach Alternativen gesucht und je stärker wird die Notwendigkeit einer Anschaffung hinterfragt, dies gilt nur bei ausgesprochenen Luxusprodukten nicht mehr, • dem Grad der Produktloyalität / Markentreue am Markt, ist diese etwa durch intensive Werbung ausgeprägt, steigt die Marktplanbarkeit, da davon ausgegangen werden kann, dass ein bestimmter Anteil der Nachfragerschaft stetig zugunsten des eigenen Angebots kaufaktiv wird, • der subjektiven Nähe der Substitutionsangebote, woraus sich deren Austauschbarkeit letztlich ergibt, es kommt insofern nicht unbedingt auf eine objektive, angebotsseitige Nähe an, sondern vielmehr auf die subjektive, nachfragerseitig so empfundene Nähe. • dem Lebenszyklusstadium, je weiter dieses fortgeschritten ist, desto wahrscheinlicher wird die Ablösung durch ein Neuprodukt, so dass es ohnehin im Zuge der Vorsorge gilt, sich darauf einzustellen. Potenzielle Wettbewerber sind noch nicht am Markt aktiv, aber es ist nach den Umständen absehbar, dass sie in den Markt eintreten werden. Insofern ist ihre Berücksichtigung aus Gründen der Vorausschau sinnvoll. Der Einfluss durch potenzielle Wettbewerber des Unternehmens hängt ab von: • der Möglichkeit und dem Grad der Wahrscheinlichkeit deren Markteintritts, dies ist jeweils qualifiziert abzuschätzen („Best educated guess“), • der Intensität der erwarteten Reaktionen der bisherigen Marktanbieter, diese sind umso stärker, je geringer das Marktwachstum ist, je höher die Marktaustrittsbarrieren sind, je größer die Finanzkraft der bisherigen Anbieter ist und je höher die Profitabilität der Branche ist. Eine weitere Einflussgröße sind die Markteintrittsschranken. Diese sind umso höher, je • bedeutsamer die Größendegression ist, also das Absinken des proportionalisierten Fixkostenanteils an den gesamten Stückkosten, sei es aufgrund zwangsläufi­ ger oder aber bewusst so herbeigeführter Entwicklung, • höher Umstellungskosten für Kunden bei Lieferantenwechsel sind, etwa durch Neukonfiguration von Schnittstellen, Änderungen in den betrieblichen Prozessen oder auch Formen der Kundengebundenheit, die Exit-Kosten verursachen, • schwieriger der Distributionszugang ist, denn dieser stellt in der Marketingrealität jenseits aller intellektuellen Pläne und Konzepte einen nur schwer überwindlichen Engpass dar.

1. Mitbewerbsforschung

501

Weitere Faktoren, die Einfluss auf den Markteintritt nehmen, betreffen • den Grad der Produktdifferenzierung, geringe Ausprägung verursacht hierbei mögliche Kundenfluktuation, da es wenig Anlass gibt, bei einem Anbieter zu verharren, • die Ausschließungswirkung von natürlichen Monopolen wie Gewerblichen Schutzrechten, Standorten etc., welche die Konkurrenzgefahr zumindest vorübergehend relativieren, • die Höhe des Kapitaleinsatzes, der im Misserfolgsfall verloren geht, je höher der Betrag, desto intensivere Erwägungen sind erforderlich, • die vermutete Gewinnhöhe in der Branche, die gegen die dafür einzugehenden Risiken zu stellen ist, dabei ist gemeinhin eine enge Korrelation zwischen Gewinnrate und Barrierenausmaß zu unterstellen.

2. Mitbewerbsanalyse Um eine der recherchierten Wettbewerbssituation angemessene Strategie zu entwickeln, werden Analyseverfahren eingesetzt. Dies ist Aufgabe der strategischen Marktforschung. Aus der Vielzahl der dafür zur Verfügung stehenden Optionen wird im Folgenden auf die sicherlich häufigsten eingegangen.

2.1 Stärken-Schwächen-Profil Hierbei handelt es sich um die Gegenüberstellung der Ist-Position des eigenen Unternehmens / Produkts im Vergleich zum stärksten Wettbewerber / den stärksten Wettbewerbern anhand eines Kriterienkatalogs zum Konkurrenzvergleich. Aus der jeweiligen relativen Bewertung ergeben sich zwei oder mehr Polaritätenprofile, aus denen ersichtlich ist, wo eigene komparative Vor- und Nachteile liegen, die Aktivitätenfelder anzeigen. Als Stärke wird ein von Konkurrenten nur schwer einholbarer Vorsprung bezeichnet, als Schwäche ein nur schwer einholbarer Vorsprung der Konkurrenten (siehe Abbildung 134: Stärken-Schwächen-Analyse). Beurteilungskriterien

(Konkurrenznachteil)

(Konkurrenzvorteil)

Technologiestatus Beschaffungspolitik Produktionsprozesse Marketing Finanzen Produktprogramm

Image / Zielgruppe

-3

-2

-1

0 +1 +2 +3

Abbildung 134: Stärken-Schwächen-Analyse (eig. Darst.)

2. Mitbewerbsanalyse

503

Die konkrete Ausformung erfolgt in folgenden Schritten. Es werden die für die Beurteilung der relativen eigenen Unternehmenssituation relevanten Kriterien ausgewählt. Dies bedarf äußerster Umsicht. Der stärkste / die stärksten Mitbewerber wird / werden definiert. Es wird ein Bewertungssystem für die Skalierung festgelegt, meist als Schulnotenskala oder Bipolare Skala. Für jedes Kriterium werden die für die Beurteilung relevanten Teilaspekte für das eigene Unternehmen ermittelt und bewertet. Dies erfolgt anhand von Fakten oder Expertenurteil, wobei letzteres subjektiv verzerrt sein kann. Die Beurteilung für jedes Kriterium wird auf einer Skalierung als Wert für das eigene Unternehmen abgetragen. Für jedes Kriterium werden die gleichen Teilaspekte für den / die ausgewählten Mitbewerber ermittelt und bewertet. Dies erfolgt anhand von Fakten oder qualifizierter Schätzung, letzteres kann wiederum verzerrt sein. Die Beurteilung für jedes Kriterium des / der ausgewählten Mitbewerber(s) wird ebenfalls als Wert auf der Skalierung abgetragen. Für eine grafische Darstellung werden die Beurteilungen über alle Kriterien getrennt für das eigene und das / die Mitbewerbsunternehmen durch je eine Linie verbunden. Es ergeben sich Kriterien, bei denen das eigene Unternehmen besser beurteilt wird als der / die Mitbewerber. Dies ist eine Stärke. Und es ergeben sich Kriterien, bei denen der / die Mitbewerber besser beurteilt wird / werden als das eigene Unternehmen. Dies ist eine Schwäche. Der Abstand der Linien für das eigene und das / die Mitbewerbsunternehmen zeigt das Ausmaß der Stärken und Schwächen an. Daraus ergeben sich zwei mögliche Konsequenzen. Abbau der komparativen Schwächen durch vermehrte Anstrengungen zum Gleichziehen mit der Konkurrenz ist die eine, Halten oder Ausbau der komparativen Stärken vor der Konkurrenz die andere. Letztere stellt im Übrigen die generelle Empfehlung dar. Kriterien, die der Beurteilung zugrunde liegen können, sind etwa • Management in Bezug auf Führungskräftequalität, Entscheidungsfindung, Planungseffizienz, Mitarbeitermotivation oder Organisationsrahmen, • Technologie in Bezug auf Entwicklungsstand, Investitionen oder Innovationen, • Beschaffung in Bezug auf Methodik, Netzwerk oder Kooperationen, • Produktion in Bezug auf Kapazitätsauslastung oder maschinelle Ausstattung, • Marketing in Bezug auf Vertriebsmannschaft, Distributionsnetz, Marktforschungs­ methoden, Serviceumfang oder Werbeaufwand, • Finanzen in Bezug auf Mittelfristigkeit, Liquiditätsstand, Cash-flow oder Kapitalquellen, • Produktangebot in Bezug auf Leistungsfähigkeit, Preisniveau, Marktanteil oder Imageprofil. In der Praxis ist immer wieder zu beobachten, dass so gesehene Angebotsvorteile als Stärken ausgewiesen werden und so gesehene Angebotsnachteile als

504

Kap. VIII: Wettbewerbsinformationen

Schwächen. Dies ist jedoch nicht der Sinn der Analyse, es geht nicht um allgemeine Vor- und Nachteile, sondern um komparative Vor- und Nachteile. Ein eigener Vorteil kann aber im Vergleich zum direkten Mitbewerb durchaus eine komparative Schwäche darstellen, wenn dieser einen solchen Vorteil in stärkerem Maße aufweist und ein eigener Nachteil kann durchaus eine komparative Stärke sein, wenn er in der wettbewerbsgemeinsamen Zielgruppe nur von untergeordneter Bedeutung ist. Ebenso ist in der Praxis häufig zu sehen, dass eigene Stärken subjektiv verstärkt werden und eigene Schwächen subjektiv abgeschwächt. Dann aber bleibt diese Analyse von geringer Aussagekraft. Vielmehr muss versucht werden, eine objektivierte Sicht einzunehmen. Dabei ist es hilfreich, Personen aus verschiedenen Domänen, gerade auch externe, zu befragen und daraus einen Durchschnittswert zu bilden. Schließlich ist es bedeutsam zu versuchen, bei der Analyse die Perspektive der Zielgruppe einzunehmen, denn nur auf deren Sicht kommt es für die Ergebnisauswertung an. Die Argumentenbilanz strebt als Weiterentwicklung an, den wesentlichen Nachteil des Stärken-Schwächen-Profils, die Kompensationswirkung beider Faktoren, zu überwinden und umfasst die Aufstellung der Aktiva und Passiva eines Unternehmens analog zur Bilanz. Statt Bilanzposten werden jedoch Funktionsbereiche aufgeführt. Jeder Bereich wird hinsichtlich positiv und negativ bedeutsamer Faktoren in Form von Statements dargestellt und auf dieser Basis mit einem Wert zwischen 0 und 100 bewertet. Der kleinste Saldo, d. h. der addierte Abstand zwischen Aktiva und invertierten Passiva, gibt den Engpass vor, an dem gearbeitet werden muss. Umgekehrt bilden Funktionen mit großem Saldo keinen Bottleneck. Abschließend werden die Werte saldiert, um zur Ermittlung des Engpasses zu gelangen (siehe Abbildung 135: Argumentenbilanz). Für jedes Kriterium werden alle Bestimmungselemente gesammelt und grob bewertet. Die Bestimmungselemente werden danach je Faktor in zwei Gruppen unterteilt. Solche mit überwiegend positiver Bewertung werden den Aktiva zugeteilt, solche mit überwiegend negativer Bewertung den Passiva. Für jeden Faktor werden die positiven und negativen Bestimmungselemente gesammelt und aufgelistet. Diese werden dann summarisch mit einer Prozentzahl bewertet, welche die Relation des Ist- zum Ideal-Zustand angibt. Je Faktor ergeben sich damit zwei Werte, je einer für die positiven und negativen Bestimmungselemente. Ein ­Tableau in Form einer zweiseitigen Bilanz mit Aktiva und Passiva wird aufgemacht. Auf jeder Seite werden die für den Unternehmenserfolg bedeutsamen Faktoren abgetragen. Auf der Aktiv- und Passiv-Seite werden jedem Faktor die jeweiligen Bestimmungselemente zugeordnet. Diese werden mit einem summarischen Wert versehen. Auf der Aktiv-Seite werden die Werte normal, auf der Passiv-Seite invertiert abgetragen. Das heißt, hohe positive / negative Ausprägungen bedeuten sowohl auf der Aktiv- wie auf der Passiv-Seite hohe Prozentzahlen. Die Differenz zwischen Aktiva und Passiva zeigt die Saldenbildung je Faktor an. Der größte positive Saldo signalisiert den höchsten Ausschöpfungsgrad. Werte unter 100 zeigen einen Engpass an, der kleinste Saldo gibt den kritischen Engpass vor.

505

2. Mitbewerbsanalyse

Aktiva

Beurteilungskriterien

Passiva

Technologiestatus Beschaffungspolitik Produktionsprozesse Marketing Finanzen Produktprogramm

0

20

40

60

80

0 / 100

20

40

60

80

100

Image / Zielgruppe

Abbildung 135: Argumentenbilanz (eig. Darst.)

2.2 Chancen-Risiken-Profil Unter Chancen-Risiken-Profil versteht man die Beschreibung der Umfeldfaktoren der Vermarktung für die Zukunft. Im Unterschied zur Stärken-Schwächen-Analyse, die ausschließlich die relative Situation des eigenen Unternehmens betrifft, wird hier vollständig die absolute Marktsituation betrachtet. Dabei wird die Gegenwart häufig durch Szenarios in die Zukunft fortgeschrieben. Als Chance wird eine Umweltsituation definiert, die ein Unternehmen positiv nutzen kann, als Risiko eine solche, die einem Unternehmen schaden kann (siehe Abbildung 136: Chancen-Analyse – Risiken-Analyse). Als Analysegröße gelten natürliche, demografische, gesamtwirtschaftliche, kulturelle, politische, technologische Gegebenheiten. Die Vorgehensweise ist die Folgende. Es werden die für den Unternehmenserfolg relevanten Umfeldfaktoren gesichtet und selektiert. Für jeden dieser Faktoren wird die voraussichtliche zukünftige Entwicklung zu bestimmen versucht. Diese Entwicklung wird auf den Markt / die Märkte zurückbezogen, auf dem / denen das Unternehmen tätig ist. Aus den generellen Entwicklungen werden hypothetische Auswirkungen auf das Marktumfeld abgeleitet. Dabei ergeben sich Entwicklungen, die positiv für das Marktumfeld sind. Diese zeigen Chancen an. Umgekehrt

506

Kap. VIII: Wettbewerbsinformationen

Chancen-Analyse

Risiken-Analyse niedrige hohe EintrittsEintrittswahr- wahrscheinscheinlichkeit lichkeit

............... ............... ...............

............... ............... ...............

gering negative Auswirkungen

............... ............... ...............

............... ............... ...............

............... ............... ...............

stark negative Auswirkungen

gering positive Auswirkungen

............... ............... ...............

stark positive Auswirkungen

niedrige hohe EintrittsEintrittswahr- wahrscheinscheinlichkeit lichkeit

............... ............... ...............

............... ............... ...............

Abbildung 136: Chancen-Analyse  – Risiken-Analyse

ergeben sich Entwicklungen, die negativ für das Marktumfeld sind. Diese zeigen Risiken an. Chancen und Risiken werden katalogisiert. Sie können dabei mit Eintrittswahrscheinlichkeiten und Gewichtungen versehen werden. Die Unwägbarkeiten der Zukunft schlagen notwendigerweise voll auf die Aussagefähigkeit dieser Analyseform durch. In der Praxis ist die Konkretisierung der Chancen und Risiken problematisch. Häufig wird dazu die Szenario-Technik eingesetzt. Dabei wird versucht, die Einflussfaktoren auf die zukünftige Markt-, Nachfrage- und Wettbewerbsentwicklung festzustellen und deren Auswirkungen auf den Markt abzuschätzen. Dabei kann hinsichtlich der Schwankungsbreiten von drei „Zukünften“ ausgegangen werden, einer durchweg positiven Entwicklung (Best case), einer durchweg negativen (Worst case)  und eine gemittelten (Medium case). Daraus ergibt sich eine Entwicklungslinie, die mit wachsender Gegenwartsferne zwar immer unbestimmter wird, aber zumindest mittelfristig gute Anhaltspunkte für die Dimensionierung und Struktur wirtschaftlicher Aktivitäten bietet. Dass es dann in der Realität doch anders kommen kann als prognostiziert, enthebt übrigens nicht von einer Prognose. Man kann nur bestmöglich steuern, alles andere wäre Fatalismus und ohnehin existenzbedrohend für das Unternehmen. Zugestanden sei, dass die Prognose angesichts komplexer und volatiler Umfeldbedingungen ein schwieriges Unterfangen bleibt.

2. Mitbewerbsanalyse

507

2.3 SWOT-Analyse / TOWS-Matrix Die SWOT-Analyse, oft auch SOFT genannt, beinhaltet die Kombination der Erkenntnisse der Stärken-Schwächen-Analyse einerseits und der Chancen-RisikenAnalyse andererseits (Strengths, Weaknesses, Opportunities, Threats). Die Umkehrung führt zum TOWS-Begriff (Palindrom für Threats, Opportunities, Weaknesses, Strengths). Die Vorgehensweise ist dabei die Folgende. Die aus dem Konkurrenzvergleich herausgearbeiteten Stärken und Schwächen des Unternehmens werden katalogisiert. Die aus dem Prognoseszenario herausgearbeiteten Chancen und Risiken des Marktumfelds werden katalogisiert (siehe Abbildung 137: SWOT-Analyse). Nun werden beide Merkmalskataloge in Beziehung zueinander gesetzt. Dazu werden Themenkomplexe gebildet, auf die sich sowohl Stärken bzw. Schwächen als auch Chancen bzw. Risiken beziehen. Für jeden Themenkomplex werden diese Größen in Form einer Matrix zugeordnet. Daraus wiederum ergeben sich folgende Handlungsanweisungen: • Unternehmensstärken bei Umfeldchancen: Forcierung des Angebots zur Nutzung aller Chancen, • Unternehmensstärken bei Umfeldrisiken: Absicherung der Position zur Vorbeugung gegen Rückschläge, • Unternehmensschwächen bei Umfeldchancen: Aufholen von Rückständen, damit Chancen nicht vergeben werden, • Unternehmensschwächen bei Umfeldrisiken: Meiden des Marktes zur Abwehr von Gefahren für das Unternehmen.

Auflistung der Wettbewerbsnachteile

Auflistung der Wettbewerbsvorteile

.................... .................... .................... ....................

..................... ..................... ..................... .....................

Auflistung der Marktpotenziale (Chancen) ..................... ..................... ..................... .....................

Auflistung der Marktbedrohungen (Risiken) .................... .................... .................... ....................

Abbildung 137: SWOT-Analyse (Prinzip)

Auflistung der Wettbewerbsnachteile

Auflistung der Wettbewerbsvorteile

.................... ....................

..................... .....................

Auflistung der Marktpotenziale (Chancen) ................ ................

Kap. VIII: Wettbewerbsinformationen

Indikation: Aufholen

Indikation: Ausbauen

Auflistung der Marktbedrohungen (Risik.) ................. .................

508

Indikation: Abbauen

Indikation: Absichern

Abbildung 138: TOWS-Matrix (Prinzip)

Daraus ergeben sich vier Felder, denen im Rahmen der weiterentwickelten TOWS-Matrix Normverhaltensweisen zugeordnet werden können (siehe Abbildung 138: TOWS-Matrix (Prinzip)): • Unternehmensstärken (Firma / Marke) bei gleichzeitigen Umfeld-/Marktchancen bedeutet Forcieren des Angebots zur Nutzung aller Chancen mit Hilfe der „eigenen“ komparativen Stärken, • Unternehmensstärken (Firma / Marke) bei gleichzeitigen Umfeld-/Marktrisiken bedeutet Absichern der Position zur Vorbeugung gegen aus Umfeldrisiken resultierenden Rückschlägen, • Unternehmensschwächen (Firma  /  Marke)  bei gleichzeitigen Umfeld-/Marktchancen bedeutet Aufholen von Rückständen, damit sich für das Unternehmen bietende Chancen nicht entgehen, • Unternehmensschwächen (Firma / Marke)  bei gleichzeitigen Umfeld-/Marktrisiken bedeutet Meiden des Aktivitätsfelds zur Abwehr von Gefahren für das Unternehmen durch den Markt, Zur SWOT-Analyse ein Beispiel für den Hersteller eines Herrenkosmetik-Produkts. Als komparative Stärken ergeben sich vor allem folgende: • gute Marktposition international, hohe Markenreputation, in Wachstumsmärkten vertreten, starke Finanzkraft des Unternehmens, Erfahrungswissen im Hautpflegemarkt, leistungsfähiges Angebotsprogramm, großes Produktportfolio, hohes Verbrauchervertrauen.

2. Mitbewerbsanalyse

509

Als komparative Schwächen ergeben sich vor allem folgende: • breites Programm ohne Fokussierung, Produktschwerpunkt derzeit im Rasurbereich, nur ein Produkt im Pflegebereich positioniert, in Wachstumssegmenten noch nicht vertreten, Nischenpositionierung. Als potenzielle Chancen ergeben sich vor allem folgende: • hohes Wachstum des Herrenkosmetikmarkts, vor allem Gesichtspflege, OnlineHandel als Absatzkanal aussichtsreich, veränderte Körperpflegegewohnheiten / ​ höheres Pflegebewusstsein bei Männern, natürliche Produkte werden immer wichtiger, ebenso Anti-Ageing-Lösungen. Als potenzielle Risiken ergeben sich vor allem folgende: • Teilmarkt Rasierprodukte rückläufig, Marktanteilsgewinne des Mitbewerbs durch Innovationen, Marktanteilsgewinne von Handelsmarken, hohe Komplexität, da Produktversionen für verschiedene Hauttypen erforderlich, komplette Pflegeserie ist vorzuhalten. Aus dieser SWOT-Analyse geben sich folgende Empfehlungen für die TOWS-Matrix: • S / O (Stärken und Chancen): Online-Vertrieb intensivieren, neue Marke aufbauen, • W / O (Schwächen und Chancen): Line extensions im bestehenden Programm, • S / T (Stärken und Risiken): eigene Herrenserie aufbauen, Innovationskraft stärken, • W / T (Schwächen bei Risiken): Abwehrmaßnahmen gegen Mitbewerber. Die TOWS-Matrix kann als unmittelbarer Vorläufer für Portfolio-Analysen angesehen werden. Sie leidet unter der mangelnden Operationalisierung qualitativer Daten und Fakten. Daher haben die Unternehmensberatungen Boston Consulting Group und McKinsey Company in ihren Portfolios Kennzahlen zugrunde gelegt, die diese Operationalisierung schaffen. Im Vierfelder-Portfolio (BCG) werden die Achsen der TOWS-Matrix mit metri­ schen / kardinalen Werten versehen. Für die Chancen und Risiken (Ordinate) dient die durchschnittliche Wachstumsrate, derer sich eine Strategische Geschäftseinheit (SGE) an ihrem Markt gegenübersieht, als Indikator. Für die Stärken und Schwächen (Abszisse)  steht die Position auf der dynamischen Erfahrungskurve (Boston-Effekt) als Relativer Marktanteil. Jede SGE wird hinsichtlich beiden Größen vermessen und im Portfolio positioniert. Der Anteil jeder SGE am Unternehmensumsatz wird durch die Kreisgröße um den Positionsschnittpunkt ausgewiesen. Entsprechend der vier Felder ergeben sich daraus Normstrategien für Question marks (Chancen / Schwächen, daher Aufholen), Rising stars (Chancen / Stärken, daher Ausweitung), Cash cows (Risiken / Stärken, daher Absicherung) und Poor dogs (Risiken / Schwächen, daher Meidung). Dies ist umfangreicher Kritik unter-

510

Kap. VIII: Wettbewerbsinformationen

worfen, vor allem ist es ein statisches, geschlossenes, theoretisch angreifbares und in seinen Empfehlungen vorhersehbares Modell. Das Neunfelder-Portfolio (McKinsey) geht nach demselben Ansatz vor, sieht aber als Achsen die Marktattraktivität (Abszisse, analog zu Chancen und Risiken) und die relative Wettbewerbsstärke (Ordinate, analog zur Stärken und Schwächen) als jeweils multikriterielle Dimensionen vor. Das heißt, hinter beiden Dimensionen verbirgt sich nicht eine Größe, sondern eine Vielzahl von Größen, die gewichtet, bepunktet und im Durchschnitt bemessen wird. Die Größe des Relevanten Marktes ergibt sich aus dem Kreisdurchmesser um den Schnittpunkt der SGE, der Anteil der eigenen SGE am Relevanten Markt wird als Kreisausschnitt dargestellt. Es ergeben sich neun Felder mit Normstrategien, die zumeist in drei Zonen eingeteilt werden. Die grüne Zone steht für Mittelbindung durch Investition, die rote Zone steht für Mittelfreisetzung durch Desinvestition und die gelbe Zone dazwischen erfordert eine Zuordnung der SGEs zur Investition oder Desinvestition. Auch dieser Ansatz ist, wie zahlreiche andere, welche die Dimensionen und Einflussfaktoren nur variieren (z. B. 20-Felder-Portfolio / A. D.Little), zahlreicher Kritik unterworfen. Vor allem wird eine Scheinexaktheit vorgespiegelt und die Zuordnung der Positionen zu Konsequenzen ist weitgehend unklar.

2.4 Weitere strategische Analyseverfahren Die Ressourcen-Analyse enthält die Beurteilung des Leistungspotenzials des eigenen Unternehmens in Relation zu dem / den wichtigsten Konkurrenten anhand eines Kriterienkatalogs (siehe Abbildung 139: Prinzip der Ressourcen-Analyse). Zu den Kriterien gehören die finanzielle Position, z. B. Kostenstruktur, Investitionen, FuE-Aufwand, die personelle Position, z. B. Organisation, Qualität, Motivation, die materielle Position, z. B. Standort, Rohstoffzufuhr, Produktion, etc. Im Unterschied zum Stärken-Schwächen-Profil wird hierbei nicht die aktuelle, sondern die potenzielle Situation beurteilt. Dies ist wichtig für die Antizipation des Ausgangs möglicher Konflikte. Unter Ressourcen versteht man solche materieller Natur wie Grundstücke, Gebäude, Betriebsmittel, Kapital etc., solche immaterieller Natur wie Marke, Image, Schutzrechte, Unternehmenskultur etc. sowie solche humaner Natur wie Fachwissen, Fähigkeiten, Motivation, Loyalität etc. Dabei werden jeweils die ausschöpfbaren Ressourcen zugrunde gelegt. Es ergeben sich Kriterien, bei denen das eigene Unternehmen besser beurteilt wird als der / die Mitbewerber. Dies kennzeichnet einen Ressourcenvorsprung. Und es ergeben sich Kriterien, bei denen der / die Mitbewerber besser beurteilt wird / werden als das eigene Unternehmen. Dies kennzeichnet einen Ressourcenrückstand. Der Abstand der Linien für das eigene und das / die Mitbewerbsunternehmen zeigt das Ausmaß der Vorsprünge und Rückstände an. Daraus ergeben sich drei mögliche Konsequenzen. Erstens der Ausgleich der Ressourcenrückstände bei Kriterien mit dem kleinsten Mitbewerbsabstand, zwei-

511

2. Mitbewerbsanalyse

Beurteilungskriterien

Eigenes Unternehmen

Technologiestatus Beschaffungspolitik Produktionsprozesse Marketing Finanzen Produktprogramm

Image / Zielgruppe

Skalierung

Abbildung 139: Prinzip der Ressourcen-Analyse (eig. Darst.)

tens eine defensive Wettbewerbseinstellung zum per Saldo ressourcenüberlegenem Mitbewerb hinsichtlich der Kriterien mit Ressourcenrückstand und drittens eine offensive Wettbewerbseinstellung hinsichtlich per Saldo ressourcenunterlegenem Mitbewerb über die Kriterien mit dem größten Ressourcenvorsprung. Durch die Schätzung der Potenziale sind allerdings gewisse Unsicherheiten der Analyse gegeben. Spiegelt man die Ergebnisse der Ressourcen-Analyse mit denen der StärkenSchwächen-Analyse, so ergeben sich folgende Kombinationen als Potenzial-Analyse (siehe Abbildung 140: Prinzip der Potenzial-Analyse): • Ressourcenvorsprung bei Unternehmensstärke. Dieser Sektor stellt jedenfalls keinen Engpass dar und kann daher offensiv am Markt genutzt werden. • Ressourcenvorsprung bei Unternehmensschwäche. Dieser Sektor bietet sich unbedingt zur Forcierung an, da hier ansonsten Erfolge aus unausgeschöpftem Potenzial vergeben werden. • Ressourcenrückstand bei Unternehmensstärke. In diesem Fall empfiehlt sich keine Betonung in der Strategie, um damit keine Gegenreaktionen zu provozieren, die gefährlich werden können. • Ressourcenrückstand bei Unternehmensschwäche. Hier gilt die Meidung dieses Sektors, da damit ohnehin kein Erfolg gelandet werden.

512

Kap. VIII: Wettbewerbsinformationen

Beurteilungskriterien

Ist-Zustand

jeweiliges KriteriumsMaximum

Technologiestatus Beschaffungspolitik Produktionsprozesse Marketing Finanzen Produktprogramm

Image / Zielgruppe Skalierung

Abbildung 140: Prinzip der Potenzial-Analyse (eig. Darst.)

Die Abweichungs-Analyse betrifft ausschließlich eigene Werte im Soll-IstVergleich (siehe Abbildung 138: Prinzip der Abweichungs-Analyse). Auch hierbei wird ein Kriterienkatalog angelegt, bei dem jedes Kriterium hinsichtlich des Zielerreichungsgrads bewertet wird. Daraus entstehen wiederum zwei Polaritätenprofile, die ggf. Unterdeckungen ausweisen. Dort kann mit Maßnahmen angesetzt werden. Die konkrete Vorgehensweise ist wie folgt. Es werden die in der Zielvorgabe des Unternehmens festgelegten Steuergrößen konkretisiert. Für jede Steuergröße wird der gewünschte Ausprägungsgrad bestimmt. Er dient im Folgenden als Maßstab. Es wird ein Bewertungssystem für die Skalierung festgelegt, z. B. als Metrikskala. Für jede Steuergröße werden relevante Teilaspekte ermittelt und hinsichtlich des Ist-Zustands bewertet. Dies erfolgt anhand von Fakten oder qualifizierter Schätzung, die allerdings subjektiv verzerrt sein kann. Die Beurteilung wird für jedes Kriterium als Ist-Zustand auf der Skalierung abgetragen. Für eine grafische Darstellung werden die Beurteilungen über alle Kriterien getrennt für den Sollund den Ist-Zustand durch je eine Linie verbunden. Es ergeben sich Kriterien, bei denen der Ist-Zustand besser oder gleich dem Soll-Zustand ist. Dort sind die Ziele voll erreicht. Und es ergeben sich Kriterien, bei denen der Ist-Zustand schlechter als der Soll-Zustand ist. Dort sind die Ziele noch nicht erreicht. Aus dem Abstand zwischen Ist- und Soll-Linie kann das Ausmaß der Zielabweichung abgelesen werden.

513

2. Mitbewerbsanalyse

Beurteilungskriterien

Ist-Zustand eigenes Soll-Zustand eigenes Unternehmen Unternehmen

Technologiestatus Beschaffungspolitik Produktionsprozesse Marketing Finanzen Produktprogramm

Image / Zielgruppe

Skalierung

Abbildung 141: Prinzip der Abweichungs-Analyse (eig. Darst.)

Daraus ergeben sich zwei mögliche Konsequenzen. Erstens die Überprüfung der objektiven Realisierbarkeit der Zielvorgaben in einem Audit. Denn möglicherweise sind die Ziele zumindest mit den gegebenen Mitteln gar nicht zu realisieren. Zweitens eine Ressourcenzuweisung in Abhängigkeit vom Grad der Zielabweichung bzw. gewichtet mit der Bedeutung der jeweiligen Zielvorgabe. Um aus den Abweichungen festzustellen, welche Gewinnanteile in welchen Wertschöpfungsstufen entstehen, dient die Profit pool-Analyse (siehe Abbildung 142: Prinzip der Profit pool-Analyse). Die Vorgehensweise dazu ist wie folgt. Der Umsatz des Unternehmens wird den jeweiligen Wertschöpfungsstufen zugeordnet. Zugleich werden die Gewinnanteile dieser Stufen ausgewiesen. Beide Größen werden in einem Balkendiagramm dargestellt. Auf der Abszisse ist der relative Umsatzanteil jeder Stufe abgetragen, auf der Ordinate der zugehörige Gewinnanteil. Die Balkenfläche gibt die Profitabilität der jeweiligen Aktivität wieder: • Bei Aktivitäten mit großen Umsatz-, aber niedrigem Gewinnanteil gilt es, entweder deren Profitabilität zu steigern oder deren Ressourcenbeanspruchung zu senken. • Bei Aktivitäten mit niedrigem Umsatz-, aber hohem Gewinnanteil gilt es, deren Erlöse zu steigern, indem größere Mengen der Leistung abgesetzt werden, ohne die Profitabilität zu beeinträchtigen.

514

Kap. VIII: Wettbewerbsinformationen

• Bei Aktivitäten mit sowohl großem Umsatz- als auch Gewinnanteil gilt es, diesen die höchste Aufmerksamkeit zu widmen.

Fuhrparkmanagement

Versicherung

Pkw-Leasing

Gebrauchtwagenverkauf

Pkw-Vermietung

• Bei Aktivitäten mit sowohl niedrigem Umsatz- als auch Gewinnanteil gilt es, diese entweder profitabler zu machen oder auf deren Angebot zu verzichten.

Umsatzanteil (%) Abbildung 142: Prinzip der Profit pool-Analyse (eig. Darst.)

Problematisch sind dabei die exakte Definition des Gewinns, meist als EBIT / ​ Earnings before interest and taxes, und die Abgrenzung der Wertschöpfungsstufen aufgrund von Interdependenzen. Außerdem handelt es sich um eine Zeitpunktbetrachtung. Problematisch sind außerdem die Abgrenzung des Relevanten Markts (Poolgrenze) und die Ermittlung des Gesamtgewinns (Profit pool-Höhe).

3. Konzeptionsanalyse Die Analyse erfolgt mit dem Ziel, daraus eine schlüssige Strategieentwicklung abzuleiten. Diese besteht aus mindestens vier Substrategien, die gemeinsam in der Lage sind, eine marktorientierte Strategie zu bilden. Es handelt sich um die Nachfragestimulierung, die Marktparzellierung, das Marktrollenverständnis und das Innovationstiming (siehe Abbildung 143: Elemente des Strategieprofils). Marktforschung kann hier wesentliche, evidenzbasierte Hinweise geben. Nachfragestimulierung Marktparzellierung

Innovationstiming

Abbildung 143: Elemente des Strategieprofils

3.1 Nachfragestimulierung 3.1.1 Präferenz-Position Nachfragestimulierung betrifft die Art der Akquisition am Markt. Dabei ergeben sich in Analogie zur Porter-U-Kurve zwei Alternativen, die Präferenz-Position und die Preis-Mengen-Position (siehe Abbildung 144: Alternativen der Nachfragestimulierung). Die Präferenz-Position ist durch eine Reihe von Kennzeichen wie folgt charakterisiert. Unerlässlich ist die Nutzung von Markeninhalten und -eigenschaften. Die Maxime der Gewinnpriorität vor der Umsatz-/Absatzorientierung impliziert Wert- anstelle von Mengendenken. Dies mag selbstverständlich klingen, ist aber in einer vordergründig immer noch auf Wachstum fixierten Wirtschaftsordnung eher außergewöhnlich. Zudem wird oftmals fälschlich unterstellt, dass mit steigendem Umsatz / Absatz Gewinne parallel oder gar überproportional mechanistisch steigen. Dem steht jedoch eine wachsende Komplexität mit Zunahme organisatorischer, nicht wertschöpfender Aktivitäten entgegen, welche die Rentabilität belasten. Moderne Controllingverfahren wie Activity based costing / ABC oder Zero base budgeting / ZBB sind erst neuerdings in der Lage, diese Zusammenhänge aufzudecken und Unwirtschaftlichkeiten vorzubeugen. Die Durchsetzung eines Hochpreislevels wird erst über Präferenzaufbau in der Nachfragerschaft möglich. Prämienpreissetzung bedeutet, dass der Preis einer Leis-

516

Kap. VIII: Wettbewerbsinformationen

Premiumpreis

position

Versorgungskauf

Erlebniskauf

Preis-Mengen-Position

Diskontpreis Abbildung 144: Alternativen der Nachfragestimulierung (eig. Darst.)

tung durchgängig über dem durchschnittlichen Preis des Mitbewerbs angesiedelt wird. Dadurch wird die Preisbereitschaft der Nachfrager ausgereizt, und es können hohe Stückgewinnspannen erzielt werden. Diese Preisforderung engt den Kreis der Nachfrager ein und führt zur angestrebten Exklusivität. So ist eine schnelle Amortisation des eingesetzten Kapitals erreichbar. Außerdem dient der Preis oft als Qualitätsindikator. Allerdings höhlen preisaggressive Mitbewerber die Marktstellung leicht aus, und es entsteht die Gefahr, dass Nachfrager sich übervorteilt fühlen. Schließlich ist die Umsetzung nur bei optimiertem Marketing-Mix darstellbar. Beim akquisitorischen Potenzial geht es um die Erarbeitung eines Freiraums, innerhalb dessen die Preiselastizität der Nachfrage gering ist. Dies ermöglicht dann eine Preisanhebung mit unterproportionalem Mengenrückgang und damit die Durchsetzung von Preiserhöhungen. Die Gewährleistung hoher Leistungsqualität ist unerlässliche Voraussetzung für Präferenzaufbau. Durch ausgefuchste Qualitätssicherungssysteme ist auf eine drastische Senkung der Fehlerrate abzuzielen. Potenzielle Schwachstelle ist dabei nach wie vor der Mensch. Erst dessen Ambition setzt Ansprüche in die Realität um. Die Einbeziehung der Mitarbeitenden erfolgt durch moderatorengeleitete, ständige Gesprächsrunden in kleinen Gruppen, die sich regelmäßig und freiwillig treffen, um zu besprechen, wie die Leistungsqualität auf der Exekutivebene zu optimieren ist (Quality circle). Dahinter steht die Auffassung, dass die Ausführenden selbst am besten wissen, wie dieses Ziel zu erreichen ist. Dabei werden motivatorische und gruppenenergetische Effekte frei.

3. Konzeptionsanalyse

517

Umfangreiche Mediawerbung in den relevanten Kanälen dient der Erreichung hoher Bekanntheit und Vertrautheit in der Zielgruppe, sowohl über klassische als auch nicht-klassische Medien. Dies stößt insofern auf nicht geringe Schwierigkeiten, als das allgemeine „Grundrauschen“ der Werbung bereits so hoch ist, dass es besonderer Aufwendungen bedarf, sich daraus noch hervorzuheben. Ansonsten unterliegt man der Neutralisierungswirkung. Dies ist aber nur eine Seite der Medaille. Die andere ist, dass dort, wo eine solche Penetration gelingt, die Zielpersonen mit Reaktanz reagieren können, da sie Manipulation wittern. Von daher sind die Erfolge der Mediawerbung durchaus fraglich. Die einzige Alternative liegt in der Substitution von Werbebudget durch schlagkräftige Ideen, mit denen die Rezipienten bereit sind, sich auseinander zu setzen. Selektivdistribution unterstützt die Sicherung eines angebotsadäquaten Verkaufsumfelds. Dabei wird nur ein Absatzkanal mit ausgewählten Akteuren eingeschaltet. Dies entspricht zwar einer eher geringen Erhältlichkeit im gewählten Absatzgebiet, führt aber zur homogenen Struktur der Absatzmittler/-helfer. Vorteile liegen in der Nutzung der Hebelwirkung bestgeeigneter Akteure und deren gesteigerten Geschäftsinteresses, in der Möglichkeit zu nachhaltiger Kontaktpflege dieser Abnehmer sowie in einer überschaubaren Absatzstruktur. Nachteile liegen im hohen Risiko bei Ausfällen und Verschiebungen im Absatzkanal, in niedrigerer Erhältlichkeit des Produkts mit der Gefahr geringerer Kapitalisierung dessen akquisitorischen Potenzials sowie in mangelnder Anpassung an die Dynamik der Absatzwege. 3.1.2 Preis-Mengen-Position Die Preis-Mengen-Position ist durch eine Reihe von Kennzeichen charakterisiert. Das Preiswettbewerbskonzept drückt sich in aggressiver, kompetitiver Preissetzung durchgängig unter dem durchschnittlichen Preis des Mitbewerbs aus. Dabei handelt es sich um die wirksamste und zugleich für die Konkurrenz empfindlichste Waffe. Bestehende Mitbewerber können dadurch verdrängt, neue vom Markteintritt abgeschreckt werden. Preisbrecher können zudem auf Goodwill und Sympathie in der Öffentlichkeit rechnen. Ein Niedrigpreisimage bewirkt, dass ein Angebot in die engere Auswahl eines breiten Publikums gelangt. Allerdings sind eine langsamere Verzinsung des eingesetzten Kapitals und damit ein erhöhtes Risiko hinzunehmen. Niedrigpreise sind zudem nicht selten mit fehlendem Prestigewert und Qualitätszweifeln verbunden. Die Absatzpriorität vor der Gewinnpriorität, also Marktanteilsausbau, ist hier als weiteres Ziel zu nennen. In der Marktform des Monopols wird dies bei halber Menge zwischen Kaufverhinderung und Verschenken erreicht, in der Marktform des Polypols an der Kapazitätsgrenze. Diese kann durch zeitliche und intensitätsmäßige Anpassung kurzfristig ausgedehnt werden. Dem liegt die Vermutung zugrunde, dass es einfacher ist, am Markt einen hohen Gesamtgewinn durch große

518

Kap. VIII: Wettbewerbsinformationen

Menge bei niedrigem Preis / Stückgewinn zu erreichen als durch geringe Menge bei hohem Preis / Stückgewinn. Gefährlich ist, dass zuwachsende Absätze meist mit unterdurchschnittlicher Rendite erkauft werden, worunter das Betriebsergebnis leidet. Beim Preis-Leistungs-Verhältnis erfolgt die Kundengewinnung über eine vorteilhafte Kosten-Nutzen-Relation, die durch interne Aufwandsorientierung bei mittlerer Produktqualität realisierbar wird. Dem liegt die Erkenntnis zugrunde, dass mit günstigerer Relation beider Größen die Kaufbereitschaft steigt. Absatzratio­ nalisierung erfolgt durch Effizienzsteigerung bei Akquisition und Abwicklung. Außerdem erfolgt eine Grundnutzenargumentation unter Verzicht auf profilierende Zusatznutzen. Grundnutzen ist dabei die Eignung eines Angebots, den gestellten Anforderungen objektiv, d. h. in Bezug auf die Funktionserfüllung, gerecht zu werden. Diese Grundnutzen sind bei der heute allgemein vorauszusetzenden hohen Qualität des Marktangebots allerdings weit überwiegend gegeben. Die Akzeptierung von Risiken ist unerlässlich, da der Preis das gefährlichste Wettbewerbsinstrument darstellt. Dies betrifft vor allem die Preisuntergrenze, da es bei geringer Gewinnspanne durch Preisnachgiebigkeit, etwa infolge falsch verstandener Deckungsbeitragsrechnung, rasch zu Verlusten kommt. Dabei ergeben sich mehrere Preisuntergrenzen, diejenige, die nicht nur die Deckung aller Kosten, sondern auch die Erzielung eines Mindestgewinns zulässt, diejenige, die zwar die Deckung aller Kostenelemente erlaubt, jedoch nicht mehr die Erzielung eines Gewinns, und diejenige kurzfristige, die zwar keine Gewinnerzielung mehr erlaubt, aber wenigstens alle ausgabenwirksamen, meist variablen Kosten abdeckt. Eine breite Distribution bis hin zur Überallerhältlichkeit ist vorteilhaft, um Kontaktchancen zu erzeugen. Dabei sollen möglichst viele, mit vertretbarem Aufwand zu erfassende Akteure in den Absatzkanal einbezogen werden. Im Grenzfall der Ubiquität sollen alle objektiv überhaupt in Frage kommenden Akteure bedient werden. Vorteile liegen in der weitgehenden bzw. vollständigen Marktausschöpfung, in umfassender Kapitalisierung der Verkaufsvorbereitungen, in der Initiierung ungeplanter Käufe durch zufälligen Kontakt zwischen Angebot und potenziellen Nachfragern sowie in der weitgehenden Vermeidung der Abhängigkeit von Absatzmittlern. Nachteile liegen jedoch im hohen Aufwand zum Aufbau und Erhalt, der kostentreibend wirkt, in der nachlassenden Effizienz zuwachsender Absatzstellen und der schwierigen Kontrolle der Präsentationsbedingungen mit Beeinträchtigung des Angebotsimages durch diffuse Geschäftsstättenimages. Gerade für die Preis-Mengen-Position ist die Nutzung von Skalen- und Erfahrungseffekten hoch bedeutsam. Die Analyse beruht dabei auf zwei Gruppen von Degressionseffekten, statischen und dynamischen. Statische Skaleneffekte wiederum drücken sich in Fixkostendegression in Bezug auf die Kapazitätsauslastung / Economies of scale und Betriebsgrößeneffekt in Bezug auf die Kapazitätsausweitung aus. Dynamische Erfahrungseffekte drücken sich aus in technischem

519

3. Konzeptionsanalyse

Fortschritt, Rationalisierung und Lernerfahrung (Economies of scope)  und bewirken, dass die Stückkosten inflationsbereinigt bei jeder Mengenverdopplung bezogen auf die eigene Fertigungstiefe um potenziell 20–30 % tiefer fallen als bei nur statischem Effekt.

3.2 Marktparzellierung 3.2.1 Optionen

Produkte

Monaurale ProduktMarkt-Spezialisierung

Multiple ProduktMarkt-Abdeckung

Undifferenzierte Produkt-Markt-General.

Produkte

Produkte einheitliche Marktspezialisierung

differenzierte Marktspezialisierung

Produkte

differenzierte Produktspezialisierung

Produkte

einheitliche Produktspezialisierung

Produkte

Produkte

Produkte

Die Marktparzellierung (nach Becker) geht von der Hypothese aus, dass der Markterfolg eines Angebots umso größer ist, je eher es den Erwartungen der Zielpersonen entspricht. Da Zielpersonen sehr verschiedenartige Erwartungen haben, ist es sinnvoll, das Angebot gemäß dieser Varietät zu differenzieren. Dies kann nach der Art der Marktbearbeitung undifferenziert, d. h. vorhandene Segmente werden einheitlich bearbeitet, oder differenziert, d. h. vorhandene oder gebildete Segmente werden verschiedenartig bearbeitet, sowie nach der Art der Marktabdeckung total, d. h. mit Bearbeitung aller möglichen Segmente eines Gesamtmarktes, oder partiell, d. h. mit Bearbeitung nur einzelner Segmente des Gesamtmarktes, erfolgen.

Differenzierte ProduktMarkt-Generalisierung

Abbildung 145: Optionen der Marktparzellierung (eig. Darst.)

Aus der Kombination dieser Einordnungen ergeben sich folgende Optionen (siehe Abbildung 145: Optionen der Marktparzellierung): • Bei der Produktspezialisierung werden mehrere Marktsegmente von einem Anbieter mit einem Produkt abgedeckt, wobei dieses dort einheitlich vermarktet

520

Kap. VIII: Wettbewerbsinformationen

wird. Dies bedeutet, dass verschiedene Marktsegmente als ein einziges aufgefasst werden, indem es durch verschiedene Angebote eines Herstellers einheitlich abgedeckt wird. Dies ist etwa im Global marketing üblich, indem ein Produkt über verschiedene Marktsegmente hinweg einheitlich vermarktet wird (z. B. Coke, McDonald’s, Apple). • Bei der Produktspezialisierung werden mehrere Marktsegmente von einem Anbieter mit einem Produkt abgedeckt, wobei dieses dort differenziert vermarktet wird. Ein Beispiel ist Kärcher mit Hochdruckreinigern für den Profi-Markt und den Hobby-Markt, die verschiedenartig vermarktet werden. • Bei der Marktspezialisierung werden mehrere Produkte von einem Anbieter in einem Marktsegment angeboten, wobei diese dort einheitlich vermarktet werden. Ein Beispiel sind die Produkte des Automobilherstellers Porsche, die alle im sportiven Leistungssegment verankert sind. • Bei der Marktspezialisierung werden mehrere Produkte von einem Anbieter in einem Marktsegment angeboten, wobei diese dort differenziert vermarktet ­werden. Der Uhrenhersteller SMH deckt das Luxussegment (z. B. Blancpain) ebenso ab die das Premiumsegment (z. B. Glashütte) und das Oberklassesegment (z. B. Tissot). • Bei der Produkt-Markt-Spezialisierung bearbeitet ein Anbieter nur ein Marktsegment mit einem einzigen Produkt (monaural). Ein Standardbeispiel ist Verpoorten Eierlikör für ältere Genießerzielgruppen. Weitere Beispiele sind Oatly! (vegane Hafergetränke) oder Alpro (vegane Sojazubereitungen). • Bei der Produkt-Markt-Spezialisierung bearbeitet ein Anbieter mehrere, wenngleich nicht alle Marktsegmente mit verschiedenen Produkten (multiple). Ein Beispiel ist die Fischer GmbH mit Handwerksmaterialien, Technikspielzeug und Kfz-Funktionsausstattung, also unterschiedlichen Produktgruppen für verschiedene Zielgruppen. • Bei der Produkt-Markt-Generalisierung bearbeitet ein Anbieter alle Marktsegmente mit einem (undifferenziert) Produkt. Es handelt sich damit um den Fall einer nicht vorhandenen Marktsegmentierung. Hier ist Nivea (Beiersdorf) mit seiner Creme für alle Zwecke und Zielgruppen zu nennen. • Bei der Produkt-Markt-Generalisierung bearbeitet ein Anbieter alle Marktsegmente mit verschiedenen Produkten (differenziert). Dies gilt z. B. für den Volkswagen-Konzern mit seinen unterschiedlich positionierten Automarken (VW, Audi, Seat, Skoda, Bentley, Lamborghini etc.).

3. Konzeptionsanalyse

521

Als Vorteile der Bildung von Marktparzellen sind zu nennen, dass • differenzierte Käuferwünsche durch hohe Entsprechung des Angebots mit dem Bedarf befriedigt werden können, wodurch eine Fehljustierung des Angebots durch nicht vollständige Entsprechung mit Käuferwünschen vermieden wird; • dadurch die Ausprägung eines akquisitorischen Potenzials begünstigt wird, das wiederum einen Freiraum in der Preissetzung schafft; • die Marktstruktur durch die starke Angebotsstellung aktiv gesteuert werden kann, während ansonsten nur die passive Anpassung an von anderen Anbietern gesetzte Markttrends bleibt; • der Preis als dominanter Wettbewerbsparameter dadurch zunehmend durch die Leistung als zentralem Aspekt ersetzt werden kann. Als Nachteile stehen dem jedoch gegenüber, dass • Standardisierungsvorteile nur begrenzt genutzt werden können und damit Rationalisierungsersparnisse vorenthalten werden; • der Marketing-Mix dadurch kompliziert und auch verteuert wird, da nur so ein Eingehen auf Marktspezifika möglich wird; • das Potenzial gegebener Märkte bei partieller Abdeckung nur teilweise ausgeschöpft und in Umsatz monetarisiert werden kann; • ein hoher Organisationsaufwand erforderlich ist, um sich den wandelnden Segmenten mit jeweils exakter Justierung anzupassen. Zur Parzellierung dienen natürliche Kriterien, die zu gegebenen Segmenten führen wie Demografie, Aktiografie, Typologie etc. Künstliche Kriterien werden vom Anbieter diskretionär so definiert. Sie beruhen einerseits auf der Fremdeinstufung durch den Anbieter und regeln so den Zugang der Nachfrager. Andererseits beruhen sie auf einer Selbsteinstufung durch die Nachfrager auf Basis deren Persönlichkeitsinventars. Dabei sind zahlreiche Kriterien denkbar wie • Erfolgsstreben, Anpassungsfähigkeit, Ordnungssinn, Selbstdarstellung, Unabhängigkeit, Beobachtungsgabe, Dominanz, Hilfsbereitschaft, Ausdauer, Aggressivität, Charakterorientierung, Wahrnehmung, Image, Motivation, Einstellung, Präferenz, Kaufabsicht, Entscheidungsart, Involvement, Lernprozess, Wagnis­ freude, Sozialorientierung. Oder Lebensstil wie Status, Rolle, Mobilität, Gruppendynamik, Gruppenzwang, soziale Schicht, Kultur, Übernahmezeit, Sozialprestige, Aktivitäten, Interessen, Meinungen, Werte.

522

Kap. VIII: Wettbewerbsinformationen

3.2.2 Wechselbarrieren Märkte sind durch Barrieren gegeneinander abgeschottet. Marktbarrieren sind durch verschiedene Faktoren bedingt, die der Erforschung zugänglich sind und gelten sowohl für den Markteintritt (Entry) als auch für den Marktaustritt (Exit). Zunächst zu den Markteintrittsbarrieren. Die zur Marktpräsenz erforderlichen Mindestinvestitionsvolumina erreichen oft eine Höhe, die es einem Anbieter verunmöglicht, am Markt zu agieren. Das führt de facto zu einer Marktschließung zugunsten der bestehenden Anbieter. Allerdings sind infolge fortschreitenden Konzentrationstrends zunehmend Unternehmen in der Lage, selbst große Anlage­ summen aufzubringen. Das Vorhandensein von Betriebsgrößenvorteilen lässt bei kleinen Losgrößen kein konkurrenzfähiges Angebot zu. Auch dies wirkt als Marktschließung zugunsten etablierter Anbieter. Durch konglomerale Strukturen sind jedoch immer mehr Unternehmen fähig, im Wege der internen Subventionierung anlaufende Angebotsbereiche solange zu alimentieren, bis diese rentable Größenordnungen erreicht haben (kritische Größe), sofern die Shareholder value-Denkhaltung dies erlaubt. Das Erfordernis hoher Programmbreite wirkt marktsperrend. Nachfrager vor allem im B-t-b-Sektor erwarten dabei von einem Anbieter die Abdeckung mehrerer verschiedener Produktarten aus einer Hand. Anbietern, die dies nicht aus dem Stand heraus offerieren können, bleibt der Erfolg meist versagt (z. B. ArzneimittelGroßhandel). In dem Maße wie Märkte besetzt sind und Käufer durch umfangreiche Beziehungsaktivitäten an Marken gebunden werden, ist es kaum mehr möglich, Konkurrenzverdrängung zu erreichen. Letztlich handelt es sich dabei um ein Glaubwürdigkeitsrennen zwischen den Anbietern, bei dem derjenige gut abschneidet, der seine Kunden am ehesten in der Richtigkeit ihrer Wahl bestärkt. Hohe Umstellungskosten sind ebenso bedeutsam. Mit zunehmender Spezialisie­ rung werden spezialisierte Prozesse installiert, welche die Flexibilität zu Umstellungen nicht mehr beinhalten. Damit kann ein Markteintritt nicht mehr unbedingt aus vorhandenen Kapazitäten heraus vollzogen werden, sondern bedarf eines Kapazitätsausbaus bzw. -wechsels, wodurch sich das Unternehmensrisiko erheblich vergrößert. Standortlimitationen gelten in vielfältiger Weise etwa im stationären Handel für die Geschäftslage. Günstige Standorte sind nicht ohne Weiteres vermehrbar. In dem Maße, wie diese günstigen Standorte beschränkt und vergeben sind, haben neue Anbieter kaum mehr Durchsetzungschancen. Fehlender Zugang zu Vertriebskanälen wirkt ebenfalls marktsperrend. Ein Leistungsangebot, das für interessierte Nachfrager nicht erreichbar ist, ist zum Scheitern verurteilt.

3. Konzeptionsanalyse

523

Hoheitliche Beschränkungen bestehen für viele Branchen durch Nachweis der Zulassung z. B. bei Gaststätten, Privatkliniken, Versteigerern, der Sachkunde z. B. in Form der Kaufmannsgehilfenprüfung, der Befähigung z. B. bei Apotheken, Wirtschaftsprüfungen, Steuerberatungen, oder der Kapitalbasis z. B. bei Banken, Versicherungen, Bausparkassen. Weitere Restriktionen betreffen das Bedarfsvolumen z. B. bei Taxis, und die Anbieterzahl z. B. bei Schornsteinfegern. Außerdem achten Interessengruppen der am Markt Zugelassenen peinlich darauf, dass kein Unbefugter in den Markt eintritt (z. B. Uber-Taxidienste). Bei den Marktaustrittsbarrieren handelt es sich um folgende. Eine Image­ problematik kann entstehen, wenn ein Unternehmen Betriebsteile abstößt oder Märkte mangels Erfolg aufgibt. Leicht wird von dieser Einstellung auf fehlendes Fortune auch für andere Betriebsteile bzw. das ganze Unternehmen geschlossen („Loser“). Dies belastet Kunden- und Lieferantenbeziehungen. Weiterhin bestehen gesellschaftlich-institutionelle Restriktionen. So müssen bezogene Subventionen oder Steuervergünstigungen bei Ausstieg aus der Branche voll oder teilweise zurückgezahlt werden. Sozialleistungen in Form von Abfindungen an Arbeitnehmer, durch Sozialpläne gegenüber den Gewerkschaften oder Vergleich mit dem Management werden fällig. Oft ist es dann angesichts dieser Belastungen sinnvoller zu versuchen, den Geschäftsbetrieb zu sanieren. Sozioemotionale Restriktionen spielen in Form irrationaler Gesichtspunkte (z. B. Traditionsverbundenheit) gerade in inhabergeführten Unternehmen eine große Rolle (z. B. Media Markt). Man will sich nicht von der angestammten Branche trennen, der man vielleicht schon seit Generationen verhaftet ist. Immobilität und fehlende Fantasie im Management sind gegeben, die oft erst durch externe Berater in einer Krisensituation wachgerüttelt werden. Unternehmenspolitisch-strategische Restriktionen bestehen, wenn z. B. die Einschränkung der Unabhängigkeit von Zulieferern oder Marktmacht nicht akzeptiert werden, obgleich dies betriebsindividuelle Vorteile schafft. Bei Verbundwirkungen im Programm werden unrentable Angebote als Ausgleichsnehmer von anderen als Ausgleichsgeber derart alimentiert, dass sich per Saldo ein besseres Ergebnis als bei Verzicht auf die Ausgleichsnehmer einstellt. Aber dann sind Marktaustrittsschranken betriebswirtschaftlich sogar sinnvoll. Aus der Kombination der Kriterien Markteintrittsschranken und Marktaustrittsschranken mit den jeweiligen Ausprägungen hoch und niedrig ergeben sich folgende Kennzeichen (nach Meffert): • Sowohl niedrige Markteintritts- als auch -austrittsschranken werden als „Flohmarkt“ bezeichnet. • Sowohl hohe Markteintritts- als auch -austrittsschranken werden als „Goldener Käfig“ bezeichnet.

524

Kap. VIII: Wettbewerbsinformationen

• Niedrige Markteintritts- bei hohen -austrittsschranken werden als „Mausefalle“ bezeichnet. • Hohe Markteintritts- bei niedrigen -austrittsschranken werden als „Goldgrube“ bezeichnet.

3.3 Rollenverständnis Beim Rollenverständnis geht es um die relative Rolle des Unternehmens im Marktumfeld auf der gleichen Marktseite. Als Alternativen bieten sich die Marktführerschaft, die freilich letztlich nur eine Frage der zweckmäßigen Marktabgrenzung ist, und die Marktfolgerschaft, die sich wiederum in Marktherausforderer, Marktmitläufer und Marktspezialisierer unterteilen lässt (siehe Abbildung 146: Optionen des Rollenverständnisses).

anspruch

autonomer Entscheid

konjekturaler Entscheid

(Unab-

Marktherausforderer (Konflikt)

Markt-

rungsanspruch

(Anpassung)

Marktspezialisierer (Ausweichen)

Abbildung 146: Optionen des Rollenverständnisses

3.3.1 Marktanführer Mit der Marktführerschaft gehen eine Reihe besonderer Chancen und Risiken einher. Zu den Chancen gehören vor allem die Folgenden. Es besteht die Möglichkeit der Preisführerschaft. Eine dominante Preisführerschaft ist gegeben, wenn immer ein Unternehmen mit seiner Preissetzung die übrigen Anbieter determiniert, barometrische Preisführerschaft liegt vor, wenn mehrere Anbieter wechselseitig mit der Preissetzung vorangehen, was oft auf quasi-oligopolistischen Märkten ge-

3. Konzeptionsanalyse

525

geben ist. Kolludierende Preisführerschaft ist die stillschweigende Abstimmung über den Preis bzw. seine Veränderung in „gut“ funktionierenden Oligopolmärkten. Wenngleich durch die Internationalisierung der Märkte eine Preisführerschaft immer schwieriger durchzusetzen ist, gibt sie im Falle des Gelingens die Möglichkeit, überdurchschnittliche Gewinne einzufahren oder aggressive Konkurrenzverdrängung zu betreiben. Ein breiter Kompetenzvorsprung in der Kundschaft entsteht aus dem kategorischen Vertrauen in die Leistungsfähigkeit und das Know-how des Marktführers. Dies führt zu einer weniger kritischen Kaufeinstellung und zur Chance, selbst partiell wettbewerbsunterlegene Leistungen erfolgreich zu vermarkten. Dieser Vorsprung ist damit unbezahlbar. Es besteht Marktmacht gegenüber Partnern der gleichen und der gegenüber liegenden Marktseiten. Diese erleichtert die Durchsetzung eigener Vorstellungen ungemein, wodurch der Aktionsspielraum und die Zahl vorteilhafter Verhaltensalternativen wachsen. Dadurch werden zugleich Stabilität und Kontinuität des Unternehmens begünstigt. Widerstrebende werden in ihrem antagonistischen Verhalten gemäßigt oder gehen ein hohes Risiko des Misserfolgs ein. Die Beeinflussung der Gesamtmarktentwicklung im Sinne eigener Vorteilhaftigkeit ist möglich. Geschickt eingesetzt kann die Marktstellung gefestigt und gegen Konkurrenten abgesichert werden, indem von mehreren Optionen jeweils diejenige eingesetzt wird, die der Mitbewerb am wenigsten nachvollziehen kann. So können die eigenen Stärken ausgebaut und die Schwächen der Mitbewerber genutzt werden. Allerdings gibt es auch nicht zu verkennende Risiken der Marktführerschaft. Dazu gehören die im Folgenden genannten. Leistungsenttäuschung hat gravierende Folgen. Ein festes Wertgefüge, das gewachsen ist und absichernd wirkt, wird damit erschüttert. Wenn Vertrauen missbraucht wird, ist dies nur sehr schwer wieder aufzuholen. Es bietet sich eine große Angriffsfläche für Kritik. Die öffentliche Meinung hält Größe allein schon für suspekt. Deshalb sind Zurückhaltung und freiwillige Selbstbeschränkung in den Aktionen erforderlich. Es kann zum Konflikt mit der Wettbewerbsgesetzgebung kommen. Dies gilt für die Missbrauchsaufsicht über marktbeherrschende Stellungen ebenso wie für die Fusionskontrolle. Der Fokus der staatlichen Kontrollorgane liegt besonders auf marktführenden Anbietern, weil bekannt ist, dass diese objektiv über die Möglichkeit zur Marktbeeinflussung verfügen und die Versuchung nahe liegt, diese Option auch zu nutzen. Inflexibilität kann entstehen, denn Marktführerschaft erfordert höchste Wachsamkeit und Vorausschau, damit Manövrierunfähigkeit nicht zu Schieflagen führt. Innovationshemmnisse können entstehen, denn Innovationen führen immer auch zumindest zur teilweisen Entwertung der Marktstellung. Deshalb sind Marktführer selten Innovationsvorreiter, vielmehr sind dies meist erfolgshungrige New-

526

Kap. VIII: Wettbewerbsinformationen

comer ohne große Marktbedeutung. Latente Marktnischen werden begünstigt. Denn Spezialisten haben die Chance, die vom Marktführer überlassenen Marktnischen erfolgreich zu füllen und Nachfrage von diesem abzuziehen. Der Marktführer wird damit zur willkommenen Absatzquelle für Nischenanbieter. 3.3.2 Marktherausforderer Marktherausforderer ist ein Anbieter, der dem Marktführer seine Stellung streitig machen will. Konstitutiv handelt es sich dabei um offensiv angelegte Maßnahmen. Dabei werden, ähnlich der Militärstrategie (v. Clausewitz), zwei Dimensionen zur Entscheidung in Betracht gezogen. Zum einen das Ressourcenverhältnis, d. h. das Verhältnis der aktivierbaren eigenen Ressourcen im Vergleich zu denen der Konkurrenz, die sich zu eigenem Vorteil oder zu fremden Vorteil ergeben können. Zum anderen der Konfrontationsschwerpunkt, d. h. Art und Ausmaß der Angriffsfläche, die der Angreifer gegenüber der Konkurrenz bietet, und die sich direkt oder indirekt ergeben kann. Aus der Kombination dieser Ausprägungen entstehen vier Handlungsmöglichkeiten (nach Hinterhuber). Die direkte Konfrontation bei eigenem Ressourcenvorteil wird als Frontal­angrif bezeichnet. Dabei werden Konkurrenzhindernisse durch Nutzung des Wettbewerbsvorsprungs überwunden. Es handelt sich also um eine Strategie der Stärke. Die indirekte Konfrontation bei eigenem Ressourcenvorteil wird als Flankenangriff bezeichnet. Hier werden Konkurrenzhindernisse durch Veränderung der Marktstrukturen ausgehebelt. Es handelt sich somit um eine Strategie der Umgehung. Die direkte Konfrontation bei eigenem Ressourcennachteil wird als Überraschungsangriff bezeichnet. Hier werden Konkurrenzhindernisse durch sukzessive Reduktion der Zugangsbeschränkungen und Unterminierung der Marktstruktur überwunden, z. B. durch Strategische Allianz mit einem etablieren Anbieter. Die indirekte Konfrontation bei eigenem Ressourcennachteil wird als Vorbeiangriff bezeichnet. Hier werden Konkurrenzhindernisse durch einen Angriff auf einem dritten Markt, den sich das Unternehmen mit seinem Konkurrenten teilt, überwunden. Vorausgesetzt ist dabei, dass der Marktmitläufer auf diesem Markt eine stärkere Stellung einnimmt als auf dem betrachteten. 3.3.3 Marktmitläufer Marktmitläufer sind weitere Anbieter am Markt, die im Windschatten des Marktführers und -herausforderers prosperieren. Sie sind daran interessiert, weitgehend unbehelligt zu bleiben. Ihre Position ist deshalb eine der Defensive. Dafür ergeben sich als Schlussfolgerungen mehrere Möglichkeiten:

3. Konzeptionsanalyse

527

• Zunächst die Kernpositionsverteidigung, denn Marktmitläufer sehen sich kontinuierlich der Gefahr ausgesetzt, am Markt zwischen Marktführer und -herausforderer zerrieben zu werden. Deshalb gilt es, zunächst die erreichte Position zu verteidigen. • Flankenpositionsverteidigung bedeutet, dass periphere Marktfelder verstärkt werden. Dadurch hofft man, Verluste im zentralen Marktfeld ohne größeren Widerstand kompensieren zu können. • Bewegliche Verteidigung impliziert das Ausweichen auf Angebotsparameter, die sich einer direkten Vergleichbarkeit entziehen. • Der Vorbeugende Angriff entspricht dem Motto, dass Angriff die beste Verteidigung ist. Im Erfolgsfall kann damit wieder eine offensive Position eingenommen werden. • Beim Gegenangriff wird auf einen konkreten Wettbewerbervorstoß hin mit Aktivitäten geantwortet, um wieder einen Einstand im Ergebnis zu erreichen. • Mit dem Strategischen Rückzug wird eine gefährdete Position aufgegeben, um Verluste zu limitieren und Kräfte für andere Marktfelder zu sammeln. 3.3.4 Marktspezialisierer Marktspezialisierer sind Unternehmen, die sich freiwillig mit einem kleinen Marktanteil begnügen und keinen Anspruch auf breite Marktpräsenz stellen. Dem liegt die Feldtheorie zugrunde, wonach sich bei Einführung eines Angebots Anhänger und Ablehner im Markt formieren. Dort, wo zwischen den Bedürfnissen der Nachfrager und den Angeboten Deckung besteht, gilt der Markt als besetzt. Sehen Nachfrager jedoch keines der vorhandenen Angebote als zur Befriedigung ihrer Bedürfnisse geeignet an, besteht eine manifeste Marktnische. Nachfrager verzichten hier auf einen Kauf. Bestehen zwischen den Idealvorstellungen der Nachfrager über ein Angebot und den realen Angeboten Diskrepanzen, die jedoch nicht groß genug sind, von einem Kauf Abstand nehmen zu lassen, ist eine latente Marktnische gegeben. Nachfrager kaufen hier das Angebot, das ihrem gewünschten gefühlt am nächsten kommt. Beide Nischentypen bieten die Möglichkeit zur Positionierung für Marktnischenanbieter. Im Gegensatz zum offensiven Marktherausforderer und zum defensiven Marktmitläufer verhält sich der Marktspezialisierer neutral, solange seine Geschäftsbasis unangetastet bleibt. Ein Beispiel ist Xing als Soziales Netzwerk im beruflichem Bereich. Im privaten Bereich ist Facebook unendlich viel größer, im beruflichen Bereich international LinkedIn. Xing konzentriert sich auf den nationalen beruflichen Bereich. Hier können Nutzer eigene Profile erstellen, Fachpersonal selber suchen, Stellenangebote einstellen, Events organisieren oder Diskussionen in Fachgruppen führen. Profilierend wirken Netzwerk- und Suchfunktionen (Neuigkeiten, Jobs,

528

Kap. VIII: Wettbewerbsinformationen

Links, Unternehmen, Personen, Interessen, Themen etc.). Dies reicht zur Prosperität auf niedrigem Niveau.

3.4 Innovationstiming Bei der Innovationsneigung kann hinsichtlich der zeitlichen Abfolge in Innovationsführerschaft (Leader) und Innovationsfolgerschaft (Follower) unterschieden werden sowie nach der Art der Übernahme in Original bzw. Kopie mit Modifikation. Aus diesen Merkmalen ergeben sich folgende Kombinationen (siehe Abbildung 147: Optionen des Innovationstiming).

aktiver Ansatz / neues Produkt passiver Ansatz / altes Produkt

innovativer Ansatz / neue Technologie

adaptiver Ansatz / alte Technologie

Pionier (Innovator)

(Adopter)

(Rationalisierer)

(Optimierer)

Abbildung 147: Optionen des Innovationstiming

Zur Philosophie des Innovationsführers durch Original (Pionier) gehört es, Ansätze technischen, wirtschaftlichen und gesellschaftlichen Fortschritts unvermittelt umzusetzen und daraus Chancen für Wettbewerbsvorsprünge abzuleiten. Vorteile liegen in folgenden Aspekten. Am Anfang ist noch kein direkter Konkurrenzdruck gegeben. Dies erschließt preispolitische Spielräume. Es besteht die Chance zur Etablierung eines Branchenstandards. Die komparativ längste Verweildauer am Markt erhöht das Markt-Know-how. Es ergeben sich Imagevorteile. Ein Vorsprung beim Aufbau von Kundenkontakten ist gegeben. Nachteile hingegen sind folgende. Es besteht Ungewissheit über die weitere Marktentwicklung. Es kann zu Technologiesprüngen kommen, die den Vorsprung obsolet werden lassen. Hohe Markterschließungskosten sind einzukalkulieren. Gegenüber Abnehmern ist ein hoher Überzeugungsaufwand notwendig. Es entstehen hohe Forschungs- und Entwicklungskosten (Beispiel: Southwest Airlines).

3. Konzeptionsanalyse

529

Beim Innovationsführer durch Modifikation (Früher Folger) steht die kundenspezifische Umsetzung allgemeinen technischen Fortschritts im Fokus. Damit werden erfolgreich Nischenmärkte bearbeitet. Vorteile liegen in folgenden Aspekten. Es besteht ein geringeres Risiko als beim Innovationsführer. Ein erster Überblick über die Marktentwicklung liegt bereits vor. Die Modifikation schafft die Chance zur Absetzung im Wettbewerb. Die Marktpositionen sind noch nicht verteilt, so dass ein Überholen nicht ausgeschlossen ist. Der Lebenszyklus des Marktes steht noch am Anfang. Nachteile sind hingegen folgende. Der Innovationsführer hat womöglich Markteintrittsbarrieren etabliert. Eine Ausrichtung am Vorreiter ist wohl oder übel erforderlich. Es besteht die Notwendigkeit zu einem komparativen Konkurrenzvorteil, da Neuheit als Argument nicht mehr ausreicht. Voraussetzung ist eine unverzügliche Reaktion. Der zu erwartende Markteintritt weiterer Konkurrenten macht den Markt eng (Beispiel: Ryainair). Innovationsfolger durch Modifikation (Später Folger) scheuen das Risiko einer Innovation oder sind nicht entwicklungsintensiv genug, selbst Innovationen hervorzubringen. Sofern sich jedoch ein Innovator gefunden hat, beobachten sie dessen Markterfolg genau und übernehmen die Neuheit mit dem Ziel der optimierenden Veränderung. Vorteile liegen in folgenden Aspekten. Es ergeben sich selbst in hart umkämpften Märkten noch Chancen in Nischen. Es entsteht ein geringerer Entwicklungsaufwand. Durch die Profilierung sind Spielräume bei der Preisgestaltung gegeben. Durch ein marktgerechteres Angebot ist ein Überspringen der Marktchronologie möglich, das den Innovator zurücksetzt. Nachteile sind hingegen folgende. Es sind bereits Markteintrittsbarrieren durch bestehende Anbieter gegeben. Es bedarf eines großen Aufwands, den Zusatznutzen zu argumentieren. Es besteht die Gefahr, dass man sich in viele Einzellösungen verzettelt. Außerdem können große Anbieter durch Erfolge in Nischen angelockt werden (Beispiel: Eurowings / Air Berlin). Innovationsfolger durch Originalnachbau sind Nachzügler, die sich den Input von Innovatoren zu eigen machen und diesen zu eigenen Gunsten ausbeuten. Vorteile liegen in folgenden Punkten. Entwicklungsaufwand kann weitgehend eingespart werden. Es ist eine Anlehnung an vorhandene Standards möglich. Fehlendes Know-how kann womöglich zugekauft werden. Es besteht eine geringere Unsicherheit über die weitere Marktentwicklung. Es kommt zur Ausnutzung von Standardisierungspotenzialen. Nachteile sind hingegen folgende. Es gibt bereits etablierte, starke Konkurrenten. Die Notwendigkeit zum Eindringen in bestehende Geschäftsbeziehungen ist gegeben. Preiskämpfe werden bewusst herausgefordert. Eigenes Know-how ist nur in geringem Maße vorhanden. Es besteht die Gefahr von Fehlinvestitionen. Es entstehen Imagenachteile durch die Me too-Position (Beispiel: HLX). Meist geht man allgemein von einer First mover advantage aus, d. h. einem „eingebauten“ Vorsprung des Pioniers gegenüber nachfolgenden. Dem liegt zugrunde,

530

Kap. VIII: Wettbewerbsinformationen

dass man praktisch alle Vorsprünge aufholen kann, außer solche, die zeitbasiert sind, da Zeit als einziges irreversibel ist. Ein Vorsprung auf der Erfahrungskurve wäre danach also nicht mehr einholbar. Empirische Untersuchungen haben jedoch ergeben, dass mindestens ebenso viele Pioniere erfolglos waren wie Frühe Folger erfolgreich. Insofern ist eine First mover advantage in Zweifel zu ziehen. Es kommt wohl ebenso darauf an, wie geschickt man dabei vorgeht. Eine andere Schlussfolgerung verfolgt der Blue ocean-Ansatz (nach Kim / Mauborgne). Er zielt darauf ab, noch unbesetzte Märkte zu schaffen oder den Wettbewerb zu marginalisieren. Dies erfolgt durch Innovation in einer Branche und durch Schaffung neuer Nachfrage. Dabei wird entweder entschieden auf Nutzen oder Kosten gesetzt oder idealerweise simultan hybrid vorgegangen (Kostensenkung bei Nutzensteigerung). Solche Märkte werden dann Blue oceans genannt. Im Unterschied dazu sind Red oceans durch Verdrängungswettbewerb in bestehenden Zielgruppen / Marktsegmenten gekennzeichnet. Hier Ansätze zu finden, fällt der systematisch-analytischen Marktforschung häufig schwer, vielmehr sind es häufig intuitive Entrepreneure, die hier vorangehen. Ansätze zur Veränderung ergeben sich durch • eine die Branchengrenzen überwindende Perspektive (Adaptation aus anderen Branchen), z. B. Übertragung des Discountprinzips auf Fachgeschäfte aus Optik (Fielmann), Reformhaus (Goll), Drogerie (Rossmann), • Positionierung an Marktschnittstellen mit dort gegenüber jedem Einzelmarkt überlegenem Angebot, z. B. Kombination von Hardware und Software in AppStores, • Erschließung neuer Käufer-/Verwendergruppen, z. B. AirBnB / Ferienwohnungen, Uber / Mitfahrgelegenheiten, • Problemlösungs- anstelle weithin üblicher Anbietersichtweise (Systems selling, z. B. mit produktbegleitenden Dienstleistungen), • Wandel der Wahrnehmung eines Produkts / einer Dienstleistung, z. B. Hausmeister-Services als Immobilienbetreung statt Hilfsdienst, • Innovation, z. B. Nearbanks wie Kreditkartenunteranbieter, Versicherungen, Bausparkassen oder Nonbanks wie Autohersteller, Möbelhändler („Banking is essential, banks are not“). Nicht zu verwechseln ist der Blue ocean-Ansatz jedoch mit • bloßer Kundenorientierung, denn er geht von der Kernkompetenz aus (also Ressourcenorientierung), • Marktnischen, denn er kann auch Gesamtmärkte erfassen bzw. neu bilden oder aggregieren, • neuer Technologie, denn er kann auch „nur“ eine neue Anwendung bestehender Technologie darstellen,

3. Konzeptionsanalyse

531

• kreativer Zerstörung, denn es kann sich auch um logisch-intelligente Weiterentwicklung eines Markts handeln, • Angebotsdifferenzierung, vielmehr erfordert er neue Sach- und Dienstleistungen, • Preisaggressivität, denn er kann viel besser noch als andere hohe Preise implizieren. Beliebte Beispiele für Blue ocean-Ansätze sind Swatch, Apple, The Body Shop, Nespresso, Starbucks. Dieser Ansatz ist jedoch vielfältiger Kritik unterworfen, vor allem wird er als theorielos, kaum praktisch bewusst implementierbar und modernistisch angesehen. Dennoch legen vielfache disruptive Sprünge nahe, dass gerade solche Durchbruchsinnovationen Erfolgsgeschichte schreiben. Ein Beispiel ist der Erfolg der E-Mobilität. Die deutsche Automobilindustrie hatte darauf gesetzt, die Brückentechnologie Batterieantrieb durch die Ausreizung der Verbrauchs- und Emissionssparsamkeit der Dieseltechnologie, in der sie global führend war, überwinden zu können, um deren Finanzmittel in alternative Antriebsformen wie Wasserstoffantrieb investieren zu können. Doch dabei wurde getrickst (Dieselskandal) und entstand ein Strategisches Fenster für den Branchen-Outsider Tesla, um die etablierten Anbieter unter Druck zu setzen. Die Brückentechnologie Batterieantrieb erstarkte und, es erwischte diese Verbrennungsmotor-Hersteller kalt. Sie mussten dringend nachbessern und sehen sich nunmehr einerseits der Entwertung ihres bisherigen technischen Vorsprungs gegenüber d. h. weniger Finanzmittelrückfluss, und andererseits dem Problem, die entstandene Lücke zu überbrücken, d. h. zusätzlicher Investitionsbedarf. Der Batterieantrieb wird schon bald an Bedeutung einbüßen, aber solange kann Tesla von seinem New game profitieren. Dann beginnt ein New game mit alternativen Antriebsformen wie Wasserstoff, künstliches Benzin, induktive Ladung, Solarantrieb etc.

4. Konzeptbewertung Für jede der genannten Bestimmungsgrößen ist jeweils eine präferierte Option zu wählen, also für die Nachfragestimulierung, die Marktparzellierung, das Rollenverständnis und das Innovationstiming. Führt man diese Faktoren und ihre jeweiligen Ausprägungen dazu in Feldern untereinander auf, können die präferierten Optionen grafisch miteinander verbunden werden, so dass ein optisches Strategieprofil entsteht. Dieses kann dann im Querschnittvergleich mit anderen SGEs oder Wettbewerbern kontrastiert werden oder im Längsschnittvergleich mit früheren eigenen Profilen. Dies ermöglicht eine gute interne Kommunikationsfähigkeit der Ergebnisse, die für die Umsetzung bedeutsam ist. Wahrscheinlich gibt es aber nicht nur ein präferiertes Strategieprofil, sondern zwei oder mehr nebeneinander. Dann stellt sich die Frage nach der vergleichenden Bewertung dieser Optionen. Dafür stehen eine Reihe von Verfahren zur Verfügung: • Bei der Dominanzprüfung werden mehrere Strategieprofile nach zwei Kriterien in Bezug auf ihre jeweilige Überlegenheit grafisch miteinander bewertet. Dazu wird ein Quadrant aufgespannt, dessen Achsen die beiden Bewertungskriterien bilden. Jede Strategie wird gemäß dieser Kriterien bewertet und im Quadranten abgetragen. Dann wird ein Fahrstrahl im Steigungswinkel der Gewichtung beider Kriterien durch den Quadranten gelegt. Diejenige Strategieoption ist die überlegene, deren von ihrer Koordinationposition auf den Vektor gefälltes Lot am weitesten vom Ursprungspunkt entfernt liegt. Eine Dominanzprüfung ist auch möglich, wenn mehrere Bewertungskriterien auf zwei Strategiealternativen angewendet werden sollen. • Alternativ dazu ist eine Cross impact-Prüfung möglich, bei welcher der Vergleich mehrerer Optionen rechnerisch erfolgt, so dass mehrere Kriterien Berücksichtigung finden können. • Sofern es sich um quantitative Werte handelt, kann ein Punktbewertungsverfahren zugrunde gelegt werden (Scoring). Dabei wird jede Strategieoption anhand der relevanten Faktoren mit einer einheitlichen Bewertungsskala beurteilt. Die Bewertung erfolgt durch Punktvergabe (etwa aus Expertensicht, auch von mehreren Personen). Die Faktoren können dabei untereinander gewichtet sein. Die Punkte werden über alle Faktoren je Strategieoption addiert. Die Option mit der höchsten Punktsumme ist die zu präferierende. Voraussetzung ist dabei, dass die Faktoren intervall- bzw. relational-skaliertes Niveau aufweisen, das aber häufig bei näherem Hinsehen nicht gegeben ist.

4. Konzeptbewertung

533

• Handelt es sich hingegen um qualitative Werte, sind diese zunächst in einer Nutzwertanalyse zu quantifizieren und dann zu verrechnen. Dazu ist es erforderlich, jede Strategieoption über jedes qualitative Bewertungskriterium in Bezug auf ihren Zielerfüllungsgrad zu bewerten (z. B. nach Schulnotenskala). Die Kriterien werden sodann untereinander gewichtet. Für jedes Kriterium wird das Produkt aus Gewichtung und Zielerfüllungsgrad gebildet. Durch Addition der Produkte ergibt sich der Teilnutzwert der jeweiligen Option. Die Option mit der höchsten Produktsumme ist dann die zu präferierende. Allerdings wird dadurch womöglich eine Scheingenauigkeit vorgespiegelt. • Sollen bestimmte Kriterien pflichtgemäß erfüllt sein, kann dies in einer Checklist mit evtl. Gewichtung der Kriterien verifiziert werden. Dabei kommt es zu Ja / ​ Nein-Aussagen i. S. v. zutreffend oder nicht zutreffend. Denkbar ist dabei, einzelne, als unverzichtbar angesehene Kriterien verpflichtend zu setzen oder eine Mindestzahl von erfüllten Kriterien vorzugeben. Diejenige Strategieoption ist zu präferieren, die dabei am besten abschneidet (im Detail werden dazu kompensatorische bzw. nicht-kompensatorische Heuristiken angelegt, s. u.). • Bei Berücksichtigung finanzieller Aspekte bieten sich die Kapitalwertmethode (CAPM) oder andere Verfahren der dynamischen Investitionsrechnung an. Dabei dienen finanzielle Größen als „Gleichmacher“, um auch Optionen, die anderweitig nicht vergleichend zu bewerten sind, zu operationalisieren. Marktforschung dient dazu, die erforderlichen Daten bereitzustellen und zu interpretieren. Häufig wird jedoch der Fokus nicht auf einer einzigen Lösung liegen, sondern mehr als eine Strategieoption übrig bleiben. Dann können kompensatorische oder nicht-kompensatorische Beurteilungsmodelle zugrunde gelegt werden. Kompensatorisch angelegte Modelle sind folgende: • Additives Differenzmodell bedeutet, dass zwei Strategiealternativen bzgl. aller relevanten Attribute verglichen werden. Die bessere der beiden Alternativen wird anschließend mit der nächsten Alternative verglichen usw. • Linear-additives Modell bedeutet, dass jede Alternative bezüglich der Ausprägungen aller relevanten Attribute bewertet wird (Scoring), wobei diese ggf. gewichtet werden. Gewählt wird diejenige Alternative mit dem besten Gesamtergebnis. • Lexikografische Akzeptierung bedeutet, dass diejenige Strategiealternative gewählt wird, die bzgl. des als am wichtigsten erachteten Attributs am besten abschneidet. Sind alle Alternativen bzgl. des wichtigsten Attributs gleich, wird die Regel auf das zweitwichtigste Attribut angewendet usw. • Disjunktive Akzeptierung bedeutet, dass diejenige Alternative gewählt wird, die bzgl. eines als besonders wichtig erachteten Attributs den vorab festgelegten kritischen Wert erreicht.

534

Kap. VIII: Wettbewerbsinformationen

Bei nicht-kompensatorisch angelegten Modellen wird wie folgt vorgegangen: • Lexikografische Eliminierung bedeutet, dass alle Alternativen, die einen kritischen Wert für das wichtigste Attribut nicht erreichen, eliminiert werden. Dann wird das Vorgehen für das zweitwichtigste Attribut wiederholt und so lange fortgeführt, bis nur noch eine Alternative übrig bleibt. • Konjunktive Eliminierung bedeutet, dass diejenige Alternative gewählt wird, die bzgl. jedes Attributs einen kritischen Wert erreicht. Durch Anhebung dieses kritischen Werts kann die Anzahl verbleibender Alternativen sukzessiv verringert werden, bis nur noch eine Alternative übrig bleibt.

Kapitel IX

Kundeninformationen Wissen aus Kundeninformationen (Customer intelligence) ist Vermögen, daher gilt es, seine Zielgruppe so gut wie eben möglich zu verstehen. Dazu sind weniger ökonomische als psychosoziologische Ansätze in der Lage. Daher geht es vor allem um die Erkenntnisse der Lebensstilforschung (1.), die Analyse des privaten Kaufverhaltens (2.) bzw. des gewerblichen Beschaffungsverhaltens (3.) sowie um Insights des Neuromarketing (4.). Letztlich sind es, zumindest auf absehbare Zeit, Menschen, die über Kauf oder Nichtkauf entscheiden, nicht Organisationen oder Institutionen. Solange dies noch so ist, ist es essenziell, so viel Informationen über diese Personen zu erfassen wie möglich. Dies ist anspruchsvoll, denn Menschen legen Wert auf ihr Recht zur informationellen Selbstbestimmung, obgleich sie oft genug kontraproduktiv dazu agieren. Und sie sind sich auch häufig der Veranlassung ihrer Aktivitäten nicht einmal selbst bewusst. Dies bedeutet besondere Herausforderungen für die Marktforschung, derer sich diese aber zu stellen hat. Denn Informationen über aktuelle und potenzielle Kunden sind zweifelsfrei der wichtigste Erfolgsrohstoff im Marketing.

1. Lebensstilforschung Lebensstiltypologien erfassen Aktivitäten, Interessen und Meinungen gegenüber Freizeit, Arbeit und Konsum einer Person allein oder mehrerer Personen zusammen mit anderen in Bezug auf allgemeines Verhalten oder spezifische Produktklassen. Ziel ist es dabei jeweils, herauszufinden, „how people spend their time at work and leisure (activities), what is important to them in their immediate surrounding (interests) and how they feel about themselves and the larger world (opinions).“ (Leo Burnett) Die Typologien werden durch multivariate, statistische Reduktionsverfahren gebildet. Zusätzlich werden jeweils auch soziodemografische Merkmale erhoben und ausgewertet. Die Lebensstilforschung ist wichtiges Arbeitsfeld der Marktforschung. Es sind verschiedene Ansätze entwickelt worden, um sich dieser komplexen Thematik zu nähern. Am bekanntesten sind sicherlich die Lifestyle-Typologie, die Typologie Sozialer Milieus, die SIGMA-Milieus, die Roper consumer styles und die RISC-Typologie.

1.1 Ansätze 1.1.1 Lifestyle-Typologie Bereits vor 50 Jahren hat Leo Burnett mit der Chicago University den Lebensstilforschungs-Ansatz begründet. Damit wollte er die Schwächen der rein demografischen Zielgruppenbeschreibung durch die Einbeziehung von Lebensstilen überwinden. Die Lifestyle-Typologie von M. C. & L. B. erfasste 27 Lebensstilbereiche für 91 Produktfelder und 74 Medien. Hinzu kamen kunden-/produktspezifische Items. Befragt wurden 2.000 Personen ab 14 Jahre mündlich, anhand von Selbstbeschreibung und Soziodemografie, sowie schriftlich, anhand von Haushaltsbuch und Mediennutzung über 250 AIO-Items, 25 demografische Items und 50 Konsum-Items nach Produktkategorien getrennt. Abgefragt wurden dabei u. a. folgende Statements: • Freizeit und soziales Leben: Freizeitaktivitäten, Freizeitmotive, Ausübung verschiedener Sportarten, bevorzugte Urlaubs-/Reiseart, soziales Netzwerk, • Interessen: Musikinteressen, Themeninteressen, Gruppenmitgliedschaften, • Stilpräferenzen: bevorzugter Wohnstil bildgestützt, bevorzugter Kleidungsstil verbal und optisch präsent,

1. Lebensstilforschung

537

• Konsum: Öko-Einstellungen, Einstellung zu Essen und Trinken, Einstellung zu Geld und Konsum, • Outfit: Einstellung zum Outfit, Body-Image, • Grundorientierung: Lebensphilosophie und Moral, Zukunftsoptimismus, soziale Milieus, • Arbeit: Arbeitszufriedenheit, Arbeitseinstellungen, Berufserwartungen, • Familie: Einstellungen zu Familie, Partnerschaft und Emanzipation, Rollen­ bilder, Wohnsituation, • Politik: Politisches Interesse und Parteiinteresse, Politikwahrnehmung. Als Output der Analyse ergaben sich Personentypen, die beispielhaft mit Namen und Foto versehen waren, um ihre Prägnanz zu erhöhen. Männliche Namen zeigten an, dass dieser Typ überwiegend, wenngleich nicht ausschließlich, bei Männern vertreten war, weibliche Namen analog, Pärchen zeigten an, dass die Ausprägung ungefähr gleichermaßen männlich wie weiblich besetzt war. Der Ansatz wird seit 1991 nicht mehr verfolgt, ist aber zweifelsfrei das „Original“ der Lebensstiltypologien. Der letzte Durchgang ergab in Westdeutschland folgende Typen: • Traditionelle Lebensstile (37 % der erwachsenen Bevölkerung): Erika  – Die aufgeschlossene Häusliche, Erwin  – Der Bodenständige, Wilhelmine – Die bescheidene Pflichtbewusste. • Gehobene Lebensstile (20 %): Frank und Franziska – Die Arrivierten, Claus und Claudia – Die neue Familie, Stefan und Stefanie – Die jungen Individualisten. • Moderne Lebensstile (42 %): Michael und Michaela  – Die Aufstiegsorientierten, Tim und Tina  – Die funorientierten Jugendlichen, Martin und Martina – Die trendbewussten Mitmacher, Monika – Die Angepasste, Eddi – Der Coole, Ingo und Inge – Die Geltungsbedürftigen. 1.1.2 Typologie Sozialer Milieus Der Typologie Sozialer Milieus (Sinus sociovison) liegt die Hypothese zugrunde, dass der Mensch in seinem Wesen nicht genetisch codiert, sondern ein Produkt seiner Sozialisation ist. Dies unterstellt, kann der Umkehrschluss gewagt werden, nämlich aus der Umgebung auf den Menschen, der darin lebt, zu schließen. Mit der Lebensweltforschung wird versucht, Veränderungen in Einstellungen und Verhaltensweisen als Abbild des gesellschaftlichen Wertewandels zu beschreiben und zu prognostizieren. Dabei werden alle wichtigen Erlebnisbereiche erfasst.

538

Kap. IX: Kundeninformationen

Die empirisch ermittelten Wertprioritäten und Lebensstile werden zu einer BasisTypologie verdichtet. Sie enthält derzeit zehn Gruppen. Die Anteile der einzelnen Milieus an der Bevölkerung werden jährlich aktualisiert. Gleichzeitig wird versucht, dem Wertewandel auf der Spur zu bleiben. Bei Bedarf werden neue Milieus aufgenommen bzw. bestehende verändert oder weggelassen. Durch die hohen Fallzahlen sollen auch kleinere Milieugruppen valide abgebildet werden. Soziale Milieus stellen eine Weiterentwicklung der Lifestyle-Forschung dar, wonach Lebensstile nur sinnvoll im Kontext von Milieus zu interpretieren sind. Die milieuspezifische Wertorientierung steuert Lebens- und Konsumstile, die wiederum das ästhetische Erleben und Verhalten sowie den Geschmack prägen. Die Typologie Sozialer Milieus der Sinus Marktforschung erfasst in 4.000 Interviews die verschiedenen, nach Vorstudien als relevant erachteten Bausteine der Lebenswelten mit folgenden Inhalten: • Lebensziel in Bezug auf Werte, Lebensgüter, Lebensstrategie und Lebensphilosophie, • soziale Lage durch Anteil an der Grundgesamtheit und soziodemografische Struktur der Milieus, • Arbeit / Leistung als Arbeitsethos, Arbeitszufriedenheit, gesellschaftlicher Aufstieg, Prestige und materielle Sicherheit, • Gesellschaftsbild in Bezug auf politisches Interesse, Engagement, Systemzufriedenheit, Wahrnehmung und Verarbeitung gesellschaftlicher Probleme, • Familie / Partnerschaft als Einstellung zu Partnern, Familie, Kindern, Geborgenheit, emotionale Sicherheit und Vorstellung vom privaten Glück, • Freizeit durch Freizeitgestaltung, Erlebnismotive, Kommunikation und soziales Leben, • Projektionen als Wünsche, Tagträume, Fantasien, Sehnsüchte, Leitbilder, Vorbilder und Identifikationsobjekte, • Lebensstil hinsichtlich ästhetischer Grundbedürfnisse als Alltagsästhetik und milieuspezifischer Stil- und Wohnwelten. Daraus folgen intern weitgehend homogene bei zugleich extern heterogenen Stilgruppen, deren Anwendung in der Marktforschung weit verbreitet ist (siehe Abbildung 148: Sinus Milieumodell 2020). Die Kurzcharakteristik der Sinus-Milieus® 2020 stellt sich wie folgt dar: • Sozial gehobenes konservativ-etabliertes Milieu (10 % der erwachsenen Bevölkerung, standesbewusste Repräsentanten, Humanistisch-Bildungsbürgerliche): Das klassische Establishment: Verantwortungs- und Erfolgsethik mit Exklusivitäts- und Führungsansprüchen, Standesbewusstsein und zunehmendem Wunsch nach Ordnung und Balance.

1. Lebensstilforschung

539

Abbildung 148: Sinus Milieumodell 2020 (Quelle: sinus-institut.de/sinus-loesungen/sinus-milieus-deutschland/)

• Sozial gehobenes, liberal-intellektuelles Milieu (7 %, Technisch-Distinguierte, Arriviert-Kosmopolitische): Die aufgeklärte Bildungselite mit kritischer Weltsicht, liberaler Grundhaltung und postmateriellen Wurzeln, Wunsch nach Selbstbestimmung und Selbstentfaltung. • Sozial gehobenes Milieu der Performer (8 %, liberale Performer, bürgerliche Performer): Die multi-optionale, effizienzorientierte Leistungselite mit globalökonomischem Denken, Selbstbild als Konsum- und Stil-Avantgarde, hohe Technik- und IT-Affinität, durch Etablierungstendenz kommt es zur Erosion des visionären Elans. • Sozial gehobenes expeditives Milieu (9 %, kreative Avantgarde, ­Experimentalisten): Die ambitionierte kreative Avantgarde: Transnationale, mental, kulturell und geografisch mobile Trendsetter, online und offline vernetzt; nonkonformistisch, auf der Suche nach neuen Grenzen und neuen Lösungen. • Bürgerliche Mitte (13 %, statusorientiertes Bürgertum, Modernes Harmoniemilieu): Der leistungs- und anpassungsbereite bürgerliche Mainstream mit genereller Bejahung der gesellschaftlichen Ordnung; Wunsch nach beruflicher und sozialer Etablierung, nach gesicherten und harmonischen Verhältnissen, wachsende Überforderung und Abstiegsängste.

540

Kap. IX: Kundeninformationen

• Adaptiv-pragmatisches Milieu der Mitte (11 %, klassische Familie der Zukunft): Die moderne junge Mitte mit ausgeprägtem Lebenspragmatismus und Nützlichkeitsdenken: Leistungs- und anpassungsbereit, aber auch Wunsch nach Spaß und Unterhaltung; zielstrebig, flexibel, weltoffen – gleichzeitig starkes Bedürfnis nach Verankerung und Zugehörigkeit. • Sozialökologisches Milieu der Mitte (7 %, engagiert, gesellschaftskritische Protagonisten): Engagiert gesellschaftskritisches Milieu mit normativen Vorstellungen vom „richtigen“ Leben: ausgeprägtes ökologisches und soziales Gewissen, Globalisierungs-Skeptiker, Vorkämpfer für diskriminierungsfreies Leben und Diversität. • Hedonistisches Untere Mittelschicht-Milieu (15 %, bürgerliche Hedonisten, subkulturelle Hedonisten): Spaß- und erlebnisorientiert: Leben im Hier und Jetzt, unbekümmert und spontan, häufig angepasst im Beruf, aber Ausbrechen aus den Zwängen des Alltags während der Freizeit. • Traditionelles Unterschichten-Milieu (11 %, Traditionsverhaftete, junge Traditionalisten, zurückgezogene Traditionalisten): Die Sicherheit und Ordnung liebende ältere Generation: verhaftet in ihrer kleinbürgerlichen Welt bzw. in der traditionellen Arbeiterkultur, Sparsamkeit und Anpassung an die Notwendigkeiten, zunehmende Resignation und Gefühl des Abgehängtseins. • Prekäres Unterschichten-Milieu (9 %, robuste Konsum-Materialisten, DefensivPrekäre): Die um Orientierung und Teilhabe, also „dazu gehören“ bemühte Unterschicht mit dem Wunsch, Anschluss zu halten an die Konsumstandards der breiten Mitte  – aber Häufung sozialer Benachteiligungen, Ausgrenzungserfahrungen, Verbitterung und Ressentiments. 1.1.3 SIGMA-Milieus Die SIGMA-Milieus (Sigma Institut) bauen ebenfalls auf Lebenswelten auf und folgern daraus Lebensstiltypen ab (siehe Abbildung 149: SIGMA-Milieus). Die SIGMA-Milieus 2019 umfassen folgende Typen: • Etabliertes Milieu / Upper conservative segment 8,6 % der erwachsenen Bevölkerung: Konservatives Elitemilieu mit anspruchsvollem, souveränem, von anderen Milieus gerne abgeschirmtem Lebensstil. Verantwortungsbereitschaft, Leistung und die hohe Bedeutung von Vermögensbildung und finanzieller Unabhängigkeit

541

1. Lebensstilforschung

Oberschicht

Mittlere Mittelschicht

Untere Mittelschicht

Etabliertes Milieu Liberal-Intellektuelles Milieu

Sozialer Status

Obere Mittelschicht

Traditionelles bürgerliches Milieu

Modernes Bürgerliches Milieu

Modernes Arbeitnehmermilieu

Konsummaterialistisches Milieu

Traditionell „Bewahren“

Postmodernes Milieu

Hedonistisches Milieu

Traditionelles Arbeitermilieu

Unterschicht SIGMA 2004

Aufstiegsorientiertes Milieu

Modern

Status, Besitz, Lebensfreude „Haben, Verbrauchen, Genießen“

Wiederholung

Postmodern

Subjektivismus „Ich-Sein“

Abbildung 149: SIGMA-Milieus (Quelle: sigma-online.com/de/SIGMA_Milieus/SIGMA_Milieus_in_Germany/)

sind zentrale Milieu-Merkmale, ebenso die Offenheit für neue technologische Entwicklungen. Wichtig sind distinguierter Lebensstil, gute Umgangsformen, Understatement und Diskretion, • Liberal-intellektuelles Milieu / Upper liberal segment (10,3 %): Akademisch geprägtes und häufig postmaterialistisch eingestelltes Elitemilieu mit an Umwelt und Nachhaltigkeit orientiertem, kosmopolitischem Lebensstil auf hohem Niveau, Stichwort: „Responsible consumption“. Wichtig sind ein verantwortungsvoller Umgang mit sich und der Umwelt, soziale Gerechtigkeit, ökologische und politische Korrektheit. • Postmodernes Milieu / Postmodern segment (8,3 %): Urbane Lifestyle-Avantgarde mit typischerweise hoher Bildung, einkommensstark, in „kreativen“ Berufen tätig, deren ursprünglicher „I-am-me“-Subjektivismus in verantwortungsethisch gebundene Lebensstrategien übergeht wie „grüner“ Konsum, umweltfreundlichere „Smart mobility“, „Sharing economy“. Wichtig sind die Identität von Ich und Außenwelt, Akzeptanz von Widersprüchen, multiple Identitäten. • Traditionelles bürgerliches Milieu / Traditional mainstream (7,3 %): Milieu, das vorzugsweise an traditionellen Werten, Rollenbildern und gesellschaftlichen Konventionen festhält. Die sozialen und kulturellen Veränderungen der letzten Jahre wie Migration oder Null-Zins-Politik bewirken gerade hier Verunsicherung und Bedrohungsängste. Wichtig sind geordnete finanzielle und familiäre Verhältnisse, Sicherheit, angemessen-bürgerlicher Lebensstandard.

542

Kap. IX: Kundeninformationen

• Traditionelles Arbeitermilieu / Traditional blue collar segment (3,9 %): Schrumpfendes Arbeitermilieu, das sich durch die Digitalisierung von Arbeitswelt, Kommunikation und Konsum (Stichwort: Wissensarbeiter) sozial und wirtschaftlich an den Rand gedrängt sieht und durch Verteidigung des Erreichten und neuen Nationalismus zunehmend autoritär reagiert. Wichtig sind materielle und soziale Sicherheit, Solidar- und Gemeinschaftswerte, bescheidener Wohlstand. • Aufstiegsorientiertes Milieu / Social climber segment (21.1 %): Beruflicher Aufstieg und finanzieller Erfolg stehen nach wie vor im Zentrum milieutypischer Lebensentwürfe. Luxuskonsum und exklusive Statussymbole dienen gern zur Selbstbelohnung als „Reward consumption“ und Selbstinszenierung. Wichtig sind Prestige, Zugehörigkeit zu Besserverdienenden, sichtbarer Luxuskonsum. • Modernes bürgerliches Milieu / Conventional modern mainstream (10,6 %): Soziokulturelle Mitte, modern in Bezug auf Werte, Rollenbilder, Konsumstil, familien-, harmonie- und gemeinschaftsorientiert. Ihre Kaufkraft kann mit den vielfältigen Lebens- und Konsumansprüchen der Familie aber häufig nicht schritthalten. Wichtig sind Lebensqualität, Sicherheit, materielles und emotionales Wohlergehen, Maß und Mitte in der Gesellschaft. • Modernes Arbeitnehmermilieu / Progressive modern mainstream (12,0 %): Vielfach jüngere Facharbeiter in neuen Branchen (Dienstleistungen / IT), aufgeschlossen für neue Erfahrungen, Erlebnisse, Lebensweisen und Konsummöglichkeiten. Die Personen sind jung, flexibel, ambitioniert, allerdings auch wenig markentreu. Wichtig sind Lebensfreude (Work-Life-Balance), sozialer Kontakt, individualisierter Konsum. • Konsum-materialistisches Milieu / Pragmatic strivers (11,1 %): Die Angehörigen dieses Milieus leben zumeist in wirtschaftlich prekären Verhältnissen und beziehen nicht selten soziale Transfers. In jüngster Zeit wachsendes Misstrauen, ja Aversionen, gegenüber sog. gesellschaftlichen Eliten aus Medien, Politik, Unternehmen. Wichtig ist, nicht den sozialen und wirtschaftlichen Anschluss an den gesellschaftlichen Mainstream zu verlieren, daher Geld und Konsum. • Hedonistisches Milieu / Counter culture (6,9 %): Junge Leute mit „unkonventionellem“ Bodystyle und Outfit, großstädtische Subkulturen und „bildungsferne“ Unterschicht-Teens eint die Anziehungskraft hedonistischer Lebens- und Freizeitstile mit Fun & action, Big kicks, die zunehmend virtuell konsumiert werden. Wichtig sind Coolness sowie starke, rasch wechselnde Reize.

1. Lebensstilforschung

543

1.1.4 Roper consumer styles Die Roper consumer styles (GfK) streben ein komplexes, dynamisches Portrait von Menschen mit einer Synthese einer Vielzahl von Lebensfacetten in unterschiedlichen wirtschaftlichen und gesellschaftlichen Bereichen an. Dabei werden bei über 40.000 Personen in mehr als 40 Ländern charakteristische Lebensstile in Bezug auf das tägliche Leben erhoben. Unterschiede zwischen den einzelnen Ländern spiegeln sich in unterschiedlichen Größen der jeweiligen Lebensstiltypen wider. Jeder Lebensstil ist einheitlich für ganz Europa definiert. Unterschiede resultieren dann in abweichenden prozentualen Anteilen. Dadurch wird eine standardisierte Marktbearbeitung möglich. Gesellschaftliche Trends und Entwicklungen können frühzeitig erkannt und deren Einfluss auf den Konsum abgeschätzt werden. Jeder Socio-Style ist in jedem europäischen Land anzutreffen, weil, so die These, die westeuropäischen Gesellschaften in der Neuzeit parallel eine gleichartige soziale Entwicklung vollzogen haben. Insofern können Zielgruppen ländergrenzenübergreifend gleichartig definiert werden. Als Basis dienen dabei 3.500 AIO-Variable für jede Befragungsperson. Die Aufnahme kunden-/produktspezifischer Items ist möglich. Erfasst werden ansonsten Besitz, Mediennutzung, Verbrauchs- und Kaufverhalten mit folgenden Motivationsstrukturen: • Mein Privatleben mit Lebensphilosophie, Familie, Heim, Werte, Zeitbudget, Freizeit etc., • Mein Berufsleben mit Arbeitsstelle, Arbeitsinhalt, Karriere, Arbeitgeber, Vorgesetzte etc., • Mein gesellschaftliches Leben mit Überzeugungen, Wurzeln / Bande, Helden, Ansichten, Umwelt etc., • Mein politisches Leben mit Wahlen, Anführern, Programm, Entwicklung etc., • Mein kulturelles Leben mit Nachrichten / Informationen, Kunst, Medien, Inte­ gration etc., • Mein Geschäftsleben mit Marketing, Produkten, Shopping etc., • Mein Leben als Verbraucher mit Haushalt, Essen & Trinken, Auto, Geld, Aussehen etc. Grafisch erfolgt die Einordnung in eine Matrix mit den Polen • Haben durch Status, Aussehen, Reichtum, Egoismus, Traum vs. Sein durch Nachhaltigkeit, Authentizität, Verantwortung, Lernen, Gesellschaft, Realität einerseits sowie • Leidenschaft durch Abenteuer, Spaß, Freiheit, Erfolg, Wandel, Neues vs. Frieden / Sicherheit durch Tradition, Glaube, Sparsamkeit, Bescheidenheit, Vorsorge, Bewahren als Bedürfnisse andererseits vor (siehe Abbildung 150: Roper consumer styles).

544

Kap. IX: Kundeninformationen

Abbildung 150: Roper consumer styles (Quelle: business-wissen.de/hb/roper-consumer-styles-der-gfk/)

Daraus ergeben sich wiederum folgende Lebensstiltypen auf europäischer Basis: • Die Bodenständigen mit Sehnsucht nach Frieden und Harmonie (Settled/16 % der erwachsenen Bevölkerung) sind traditionsorientierte Senioren mit mittlerem Lebensstandard, die ihren Ruhestand voll und ganz ausschöpfen. Sie pflegen einen bewusst einfachen Konsumstil, der auf Familie, Sicherheit und Gesundheit ausgerichtet ist. • Die Häuslichen mit Wunsch nach materieller Sicherheit und Status (Homebodies/15 %) sind angepasste Familien aus einfachen Verhältnissen, die von einem bequemeren Leben träumen. Sie sind auf der Suche nach Produkten, die ihnen Sicherheit und soziale Akzeptanz bieten. • Die Träumer vom großen Glück (Dreamers/8 %) sind intuitive, junge und materialistische Leute, die von der Welt der Stars träumen und einem Platz an der Sonne hinterherjagen. Sie wollen Marken mit starkem Image und sind stets auf der Suche nach Schnäppchen. • Die Abenteurer mit leidenschaftlichem Erleben (Adventurers/17 %) sind junge dynamische Leute auf der Suche nach Erfolg und materieller Unabhängigkeit. Sie pflegen einen demonstrativen, auf Freizeit und Innovation ausgerichteten Konsum und sind Trendsetter.

1. Lebensstilforschung

545

• Die Weltoffenen zwischen sozialer Verantwortung und Vergnügen (Open-minded/15 %) sind hedonistische, tolerante Intellektuelle auf der Suche nach Individualität und persönlicher Harmonie. Ihr gehobener Konsumstil ist auf Lifestyle und Ambiente ausgerichtet. • Die Kritischen auf der Suche nach Nachhaltigkeit und Selbstverwirklichung (Organics/7 %) sind engagierte Familien mit klarem Bekenntnis zu Umwelt und Gesellschaft, ohne dabei die angenehmen Seiten des Lebens zu vernachlässigen. Sie haben einen rationalen, an hoher Qualität und Zukunftsträchtigkeit ausgerichteten Konsumstil. • Die Realisten mit harter Arbeit und Verantwortung (Rational realists/8 %) sind kritische, engagierte und intellektuelle Paare, die eine lebenswerte Zukunft anstreben. Sie verbringen viel Zeit damit, nach Marken zu suchen, die ihren hohen Ansprüchen gerecht werden. • Die Anspruchsvollen zwischen Pflicht und Genuss (Demanding/13 %) sind kultivierte, pflichtbewusste Bürger mit traditionellem Halt und disziplinierter Persönlichkeit. Sie pflegen einen anspruchsvollen Konsumstil und legen Wert auf Qualität, sie kaufen zumeist vernunftsbetont. Im Ergebnis entstehen transnationale Zielgruppen als Indiz für eine Angleichung der nationalen Kulturen. Insofern sind Unterschiede für viele Produktgruppen, Absatzgebiete und Kundensegmente vernachlässigbar.

1.1.5 RISC-Typologie Das Pariser Research institute on social change / R ISC untersucht gesellschaftliche Trends in ganz Europa, um daraus Typologien zu entwickeln. Der entsprechende Fragebogen umfasst 100 soziokulturelle Fragen und Statements, wie „Unsere Kultur und viele Werte unseres Landes sind heute in Gefahr“, die graduell beantwortet werden können. Jeder Befragte wird daraufhin auf Basis seiner Antworten dreidimensional positioniert: • Eine Dimension bewegt sich zwischen Aufbruch und Stabilität, dabei wird die Offenheit für neue Ideen erhoben (Beispiel: Fridays for Future-Anhänger als Gegenpol zu Verwaltungsbeamten im mittleren kommunalen Dienst). • Die soziale Dimension stellt die Antipole „Streben nach Harmonie“/„höhere Werte“ und „profaner Lustgewinn“ gegenüber (Beispiel: Lehrer, die an einer Waldorfschule unterrichten vs. ausgemachte Techno-Freaks). • Die dritte Dimension erfasst die globale vs. lokale Orientierung. Entweder fühlen sich die Interviewten als Teil einer „Weltgemeinschaft Gleichgesinnter“ oder sind eher ihrer direkten Umgebung verbunden (Beispiel: Globetrotter vs. Kegelclub-Ausflug an die Mosel).

546

Kap. IX: Kundeninformationen

Die Position der Befragten wird nicht in Koordinaten umgesetzt, sondern in „Euro­ scan“, einer dreidimensionalen Abbildung der RISC-Typen. Für jedes dieser Segmente werden spezielle Merkmale abgefragt. Die Antworten für jeden einzelnen Typ werden sodann anhand der Gesamtbevölkerung indexiert. Werte über 100 sprechen für eine überproportionale Ausprägung. Mit der speziellen Software MicroRISC können die Umfragen individuell ausgewertet und im Euroscan dargestellt werden. 1.1.6 Weitere Typologieansätze Die Sozialen Milieus nach Schulze heben auf die Kriterien Altersgruppe und Bildungsgrad als Basis für die Milieubildung ab. Daraus ergeben sich fünf Milieus (siehe Abbildung 151: Soziale Milieus nach Schulze): • „Unterhaltung“ mit niedrigem Bildungsgrad und geringerem Alter, • „Harmonie“ mit niedrigem Bildungsgrad und höherem Alter, • „Integration“ mit mittlerem Bildungsgrad und höherem Alter, • „Selbstverwirklichung“ mit hohem Bildungsgrad und geringerem Alter, • „Niveau“ mit hohem Bildungsgrad und höherem Alter. BILDUNGSGRAD Abitur und Universität Abitur und Fachhochschule/Lehre Abitur ohne Zusatzausbildung Fachabitur und Fachhochschule Fachabitur und Lehre

Selbst­verwirklichungs-

Niveaumilieu

milieu

Mittlere Reife und berufsbildende Schule

Integrationsmilieu

Mittlere Reife und Lehre Mittlere Reife und Zusatzausbildung Hauptschule und berufsbildende Schule Qualifizierter Haupschul‑ abschluss und Lehre

Unterhaltungs­milieu Harmoniemilieu

Einfacher Hauptschulabschluss und Lehre Hauptschule ohne Lehre/Abschluss bis 40 Jahre

Ab 40 Jahre ALTER

Abbildung 151: Soziale Milieus nach Schulze (Quelle: lebensfuehrungstypologie.files.wordpress.com/2014/10/schulzeeg.jpg)

1. Lebensstilforschung

547

Entsprechend ergeben sich folgende Charakterisierungen: • Das Harmoniemilieu umfasst alle niedrigen Bildungsgrade bis zum Hauptschulabschluss incl. Abschluss einer berufsbildenden Schule (= kleinbürgerliches, traditionelles Milieu), mittelalt bis alt, zurückhaltender Kleidungsstil, Preisorientierung beim Kauf, will möglichst viel besitzen, Ablehnung des Neuen, Rückzug ins eigene Zuhause, • Das Integrationsmilieu enthält verschiedene Abstufungen der mittleren Reife ohne Zusatzausbildung, mit Lehre, mit Abschluss an einer berufsbildenden Schule (= aufstiegsorientiertes Milieu), Durchschnittlichkeit, komfortables, aber unauffälliges Auto, maßvoll modische Kleidung, eigenes Haus mit gepflegtem Garten, • Das Niveaumilieu umfasst alle Bildungsgrade vom Fachabitur aufwärts bis zur abgeschlossenen Universitätsausbildung (= konservativ gehobenes Milieu), Bevorzugung klassischer Musik, Kulturinteresse, teure Restaurantbesuche, konservativer Kleidungsstil, kultivierte Einrichtungsatmosphäre, • Das Unterhaltungsmilieu ist der Ausschnitt des Integrationsmilieus, das untere Mittelklasse-Bildung in jüngeren Jahren (20–40) umfasst sowie das gesamte Harmoniemilieu, sofern es 20–40 Jahre Alter repräsentiert (= traditionsloses Arbeitermilieu), Erlebnisorientierung, Konsum von Unterhaltungsprodukten, hoher Raucheranteil, „aufgemotzte“ Autos, sportliche Kleidung, Bodybuilding, • Das Selbstverwirklungsmilieu ist der Ausschnitt des Integrationsmilieus, das obere Mittelklasse-Bildung in jüngeren Jahren (20–40) umfasst sowie das gesamte Niveaumilieu, sofern es 20–40 Jahre Alter repräsentiert (= technokratisch-liberales Milieu, hedonistisches Milieu, alternativ linkes Milieu), betonte Individualität, Mischung aus Nachlässigkeit und gewählter Stilisierung, kreativ, neue Kultur, Selbsterfahrung, Individualtourismus, moderne Freizeitsportarten. Häufig werden stark vereinfachend auch „Generationen“ als Kohorten definiert, so die „Generation X“ als die um 1970 Geborenen (davor gab es die „Baby boo­ mers“), die Generation Y als die um 1990 Geborenen oder die Generation Z als die nach 2000 Geborenen. Ihnen werden prototypische Eigenschaften zugeschrieben, die im Detail aber allenfalls Tendenzaussagen erlauben. Als Beispiel für die Unterteilungen hier die Generation Y (ca. 10 Mio. Personen, Quelle: Best for planning): • Traditionalisten mit ca. 3,8 Mio Personen sehen im Beruf ein Instrument zur Finanzierung ihres Lebensunterhalts und weniger zur Selbstverwirklichung. Ihr schönes Leben definiert sich durch Spaß in der Freizeit und ggf. eine harmonische Familie. Ein fast klassisches Muster. • Karrierestarter mit ca. 2,1 Mio. Personen zeichnen sich durch eine starke Leistungsbezogenheit aus und sind motiviert, das eigene Leben erfolgreich zu gestalten.

548

Kap. IX: Kundeninformationen

• Sinnsucher mit ca. 1,8 Mio. Personen grenzen sich vom Karrieredenken ab und starten ihre eigenen Projekte, sei es beruflich oder in der Freizeit. Work-Life-­ Balance steht im Fokus. • Stabilitätssucher mit ca. 1,3 Mio. Personen haben einen schwächeren finanziellen Background und glauben sich deshalb ihren gesellschaftlichen Status selbst erarbeiten zu müssen, was sich in einem verstärkten Statusdenken sowie in einer ausgeprägteren Markenfixierung äußert. • Neubeginner mit ca. 1 Mio. Personen verlieren sich im ewigen Zauber des Anfangs. Für sie ist es schwer, in den Reifeprozess einzutreten, da sie selten mit den Konsequenzen ihres Handelns konfrontiert werden. Sie machen dann ja schon wieder etwas anderes. Die Typen entwickeln sich relativ gleichbleibend. Gerade aber die Sinnsucher werden immer zahlreicher. Im Vordergrund steht für sie nicht mehr unbedingt Geldverdienen und Karrieremachen, sondern eine sinnstiftende Tätigkeit, die Erfüllung bietet. Speziell im Online-Bereich gibt es auch Internet-Nutzertypologien. Ein Beispiel der GfK aus diesem Bereich unterscheidet wie folgt: • Profis (16 % der Internetnutzer) sind 30–39 Jahre alt, mit hohem Männeranteil, hohem Einkommen, hoher formale Bildung, sie sind Intensivnutzer mit ausgeprägtem Online-Shopping, • Praktiker (15 %) haben ein hohes Bildungsniveau und hohes Einkommensniveau, 20–49 Jahre alt, beide Geschlechter gleich verteilt, • Gameboys (14 %) sind 14–29 Jahre alt, noch in Ausbildung (Schule, Lehre, Studium), sie weisen noch geringes Einkommen auf, sind intensive Internet-Surfer, Männer überrepräsentiert, • Klicker (32 %) liegen im Bevölkerungsdurchschnitt, keine erkennbaren Nutzungsschwerpunkte, häufig Web-Neulinge, • Cybergirls (7 %) agieren als junge Frauen im Berufsleben, vorwiegend in weniger internet-spezifischen Produktbereichen shoppend, • Young professionals (14 %) stellen jüngere Nutzer aller Bildungsschichten beim Berufseinstieg dar, sie nutzen das Internet vor allem beruflich, sind an Qualifizierungs- und Weiterbildungsangeboten interessiert. Eine andere Einteilung geht auf McKinsey zurück: • Simplifiers (20 % der Internet-Nutzer) nutzen das Internet gezielt, z. B. für Online-Banking, haben langjährige Internet-Erfahrung, wollen schnell und einfach bedient werden, • Surfers (8 %) verbringen viel Zeit vor dem Bildschirm auf der Suche nach neuen Entdeckungen und Unterhaltungserlebnissen,

1. Lebensstilforschung

549

• Connectors (36 %) nutzen das Internet vor allem zur Kommunikation mit anderen Personen, besitzen E-Commerce-Potenzial, • Bargainers (8 %) suchen stets nach „Schnäppchen“ im Internet und beteiligen sich an Online-Auktionen, • Routiners (24 %) bevorzugen das WWW als Informationsquelle, z. B. Börsennachrichten, • Sporters (4 %) suchen Unterhaltungsangebote, vor allem Sport, im WWW.

1.2 Kritische Bewertung Typologien haben eine Reihe konzeptioneller Vor- und Nachteile. Als Vorteile sind vor allem folgende zu nennen: • Es besteht eine hohe Marketingrelevanz, da beobachtbares Verhalten oder zumindest mehrfach abgesicherte Indikatoren für dieses Verhalten die Grundlage der Ergebnisse bilden. Eine vereinfachte, in der Praxis sehr beliebte Umsetzung findet in Form von (Marketing-)Personas statt. Dabei handelt es sich um fiktive Personen, die in ihrem Profil Zielgruppentypen repräsentieren, ohne dass komplexe Marktforschungsverfahren erforderlich sind. Natürlich dürfen sie auch nicht völlig realitätsfremd sein, daher werden für einige forscherische Grundlagen geschaffen. Personas werden dann nach relevanten Attributen konstruiert und dienen in der Forschung und Entwicklung als Prototypen. Zur Veranschaulichung erhalten sie Namen und Fotos zugeordnet. Abstrakte Zielgruppen lassen sich damit für holistisch denkende Mitarbeiter (rechtshirnig) nachvollziehbar konkretisieren. Dies ist besonders für Kreative wichtig, die mit analytischen Zielgruppenbeschreibungen schwerlich etwas anzufangen vermögen. • Typologien erleichtern den Beteiligten durch ihre Anschaulichkeit die Arbeit, denn ansonsten abstrakt und wenig greifbar erscheinende Zielgruppenbeschreibungen werden prägnant und transparent. Dies ist vor allem für holistisch denkende Menschen eine große Hilfe (z. B. Kreative). • Die Plastizität der Ergebnisse erleichtert die Ableitung zielgerichteter Kommunikationsaktivitäten, um die identifizierten und anzusteuernden Segmente bearbeiten zu können. Ansonsten sehr abstrakt anmutende Zielgruppenbeschreibungen werden auf diese Weise etwa anschaulich und wirken plastisch. • Produkte bzw. Dienste können hinreichend an das Profil der jeweiligen Lebensstile angepasst werden und erreichen damit eine höhere Akzeptanz am Markt. Dies ist am Ende der Kern des Kerns des Marketing und dessen zentraler Erfolgsfaktor. • Die Aussagen der Typologien erleichtern die Übersetzung in werbliche Botschaften, die zur Auslobung geeignet sind. Meist muten die Typen bekannt an, aus der

550

Kap. IX: Kundeninformationen

Nachbarschaft, der Verwandtschaft, dem Kollegenkreis, wo es ganz viele solcher oder sehr ähnlicher Personen gibt. • Typologien sind recht differenziert in ihren Aussagen, so dass Segmente hinreichend abgegrenzt und angesteuert werden können. Dabei kommt ihnen zugute, dass sie eine tief recherchierte Fundierung aufweisen und nicht, wie leider häufig vorzufinden, leichtfertig postuliert werden. • Es handelt sich um Ableitungen aus realen Gegebenheiten, nicht um leicht angreifbare Hypothesen oder theoretische Erwägungen. Dies wird dem Praxisanspruch an Arbeitshilfen gerecht, auch wenn dabei ab und an Kanten und Ecken als Feinheiten abgeschliffen werden. • Typologien sind, sachgerecht erhoben und ausgewertet, ein exaktes Spiegelbild der tatsächlichen Nachfrageverhältnisse am Markt. Sie ersetzen die subjektiv verzerrte Sicht von Entscheidern auf Zielgruppen und beugen damit Fehlentscheidungen zumindest vor. Diesen Vorteilen stehen jedoch auch erhebliche Nachteile gegenüber: • Typologien spiegeln womöglich eine Scheinexaktheit vor, die so nicht gegeben ist und auch nicht erreichbar scheint. Dies ist vor allem bei einem unreflektierten Umgang mit den Ergebnissen problematisch. Die Typen sind immer verallgemeinernd und holzschnittartig. • Die Praktikabilität des Erhebungsumfangs verhindert die Berücksichtigung spezieller Inhalte, allerdings gibt es zwischenzeitlich eine inflationierende Vielzahl spezialisierter Typologien, so dass mittlerweile Abnutzungserscheinungen auftreten. • Die Merkmale, die der Typologie zugrunde liegen, sind nicht allgemein klassifizierbar, weil sie als qualitative Daten wenig trennscharf und exakt bleiben. • Da Typologien jeweils individuelle Forschungsdesigns zugrunde liegen, sind ihre Ergebnisse untereinander nicht vergleichbar. Dadurch ist ihre Anwendung erheblich begrenzt. Daher wirken Typologien auch immer monolithisch, ihre Aussagen sind nicht transferierbar oder kombinierbar. • Die forscherische Fundierung der Typologien ist im Einzelfall eher zweifelhaft, zudem werden die Forschungsdesigns gelegentlich wohl so angelegt, dass sie die Ergebnisse zu liefern vermögen, die ihre Auftraggeber von ihnen erwarten wie womöglich bei Verlagstypologien. • Für die entstehenden Typen ergeben sich Identifikationsschwierigkeiten, da die Ursprungsdaten mathematisch-statistisch reduziert werden und dadurch ihre Rückbeziehbarkeit auf die Ausgangseinheiten unmöglich wird. Vielmehr gehen die Ursprungsdaten im Ergebnis unter. • Zudem entstehen in Typologien regelmäßig Kunsttypen, die so in der Wirtschaftswirklichkeit nicht vorhanden, sondern Artefakte quantitativer Verfahren

1. Lebensstilforschung

551

sind. So setzt sich jeder Typ aus Untertypen zusammen und Typen werden künstlich getrennt, obgleich sie einander überlappen. • Wegen des hohen Erhebungsaufwands werden Typologien häufig nur in größeren Zeitabständen ermittelt, so dass sie den dazwischen stattfindenden Wertewandel nur unvollkommen wiedergeben können. Dies ist gerade angesichts rasanten gesellschaftlichen Wandels bedauerlich.

2. Konsumentenverhalten Der Markt der privaten Endkunden steht vielfach im Mittelpunkt der Marketingaktivitäten. Daher widmet sich auch die Marktforschung zu einem erheblichen Anteil diesem Thema. Die Sichtweise der traditionellen Schichtengesellschaft ist hierbei zwischenzeitlich durch die Analyse der intrapersonalen Variablen und der interpersonalen Variablen, der Meinungsführerschaft, der Wahrnehmung und der Neuerung abgelöst worden (siehe Abbildung 152: Elemente des privaten Konsumverhaltens). Dies wird in den nachfolgenden Ausführungen vertieft.

Intrapersonale Variable Einstellung

Aktivierende Elemente

Emotion

Motivation

Individuelle Elemente

Involvement

Risikoempfinden

Normen

Subkulturen

Soziale Schicht

Familie

Rollen

Werthaltung Interpersonale Variable Kultur Gruppe

Zugehörigkeit

Meinungsführerschaft Wahrnehmung

Informationsprozess

Informationsaufnahme

Informationsverarbeitung

Informationsspeicherung

Informationsverlust Neuerungsablauf

Adoption

Diffusion

Abbildung 152: Elemente des privaten Kaufverhaltens (eig. Darst.)

In Bezug auf das Kaufverhalten werden neben traditionellen behavioristischen Modellen (S-R) vor allem moderne neobehavioristische Modelle (S-O-R) eingesetzt. Diese unterstellen, dass es keine mechanistische, nicht-beobachtbare Beziehung zwischen Reiz und Reaktion (Stimulus / S und Response / R) gibt, sondern zwischen beiden intra- und interpersonale Variable zwischengeschaltet sind. Dabei handelt es sich um Mediatoren, welche die Art / Fundierung der Abhängigkeit angeben (z. B. Einstellung zur wahrgenommenen Werbung) sowie Moderatoren,

2. Konsumentenverhalten

553

welche die Stärke / Form des Zusammenhangs zwischen beiden anzeigen (z. B. Kaufabsicht des beworbenen Produkts).

2.1 Intrapersonale Variable 2.1.1 Aktivierende Elemente Die intrapersonalen Variablen können in drei Gruppen eingeteilt werden: die Erklärung durch aktivierende Variable wie Emotion, Motivation und Einstellung oder durch individuelle Variable wie Involvement, Risikoempfinden sowie die Werthaltung. Aktivierende Elemente beschreiben innere Erregungszustände, welche den Organismus in einen Zustand erhöhter Leistungsbereitschaft und -fähigkeit versetzen. Man unterscheidet nach dem Aktivierungsniveau die tonische und im Zeitablauf nach Schwankungen die phasische Aktivierung. Die Leistung ist dabei bei mittlerer Erregung als Arousal level am höchsten. Zu geringe Erregung führt zu Lethargie, zu hohe Erregung zu Hektik. Beides ist der Leistung zur Zielverfolgung nicht dienlich. Vielmehr muss ein mittlerer Erregungsgrad angepeilt werden. Bei den Variablen handelt es sich vor allem um Emotion, Motivation und Einstellung. Emotion ist eine psychische Erregung, die subjektiv wahrgenommen wird durch Interesse, Freude, Überraschung, Kummer, Zorn, Ehre, Geringschätzung, Furcht, Scham oder Schuldgefühl. Die Erregung bestimmt dabei das Maß der physiologischen Aktivierung und die Richtung die Art der Aktivierung, also steigend oder fallend. Die Qualität der Aktivierung bestimmt das Erlebnis als angenehm oder unangenehm und das Bewusstsein den Wahrnehmungsgrad der Aktivierung, also bewusst oder subliminal. Auslöser für Emotionen sind Schlüsselreize, also Reize, die mehrere Teilinformationen über das Wahrnehmungsobjekt in sich bündeln wie Gütezeichen, Warentestergebnis, Markenlogo. Der Zusammenhang zwischen Aktivierungsgrad und Leistungsfähigkeit des Individuums wird durch die LambdaKurve versinnbildlicht (siehe Abbildung 153: Lambda-Kurve der Aktivierung). Problematisch ist aber die Aussteuerung eines mittleren Aktivierungsgrads, der die höchste Leistungsfähigkeit i. S. v. Wahrnehmungsreiz, Aufnahme von Botschaften und Verständnis bedeutet. Eine zu schwache Aktivierung führt hingegen ebenso zu geringer Leistungsfähigkeit wie eine zu starke. Fraglich ist allerdings, wie eine Person auf einen werblichen Reiz reagiert, denn was die eine Person erheblich aktiviert (z. B. Promi-Testimonial) lässt eine andere völlig kalt. Außerdem ist die Leistungsfähigkeit auch davon abhängig, wie sich eine Person unter Stress verhält, einige werden kopflos, andere sind voll konzentriert. Motivation gilt als mit Antrieb versehener und auf Behebung ausgerichteter Bedarf. Je dringlicher dieser ist, desto eher soll er befriedigt werden. Mit der Befriedigung eines Bedürfnisses erhält automatisch das nächstfolgende Priorität. Es

554

Panik

starke Aktivierung

Lethargie

Kap. IX: Kundeninformationen

Aktivierungsgrad

Abbildung 153: Lambda-Kurve der Aktivierung

gibt primäre Motive, die angeboren sind wie Versorgung, Arterhaltung oder Nachteilsvermeidung und sekundäre Motive, die erworben sind wie Prestige, Macht oder Lebensqualität und in großer Mehrheit verhaltensrelevant sind. Weiterhin intrinsische Motive, die eine Selbstbelohnung / Vermeidung von Bestrafung zum Inhalt haben, und extrinsische Motive, die außengeleitet sind, sowie unbewusste Motive, die unterhalb der eigenen Wahrnehmungsschwelle liegen, also Verhalten im Verborgenen steuern, und bewusste Motive, die sich oberhalb dessen befinden und denen gezielt nachgegangen werden kann. Sind die Antriebe widersprüchlich, entstehen Motivkonflikte (siehe Abbildung 154: Mögliche Motivkonflikte), die von hohem marktforscherischen Interesse sind: • Ein Appetenz-Appetenz-Konflikt liegt vor, wenn eine Person zwei oder mehr Motive als positiv wahrnimmt, sich aber für eines von ihnen entscheiden muss, man sagt, die Qual der Wahl haben, etwa beim Haushaltsbudget Badrenovierung oder Fernreise. • Ein Appetenz-Aversions-Konflikt liegt vor, wenn ein identisches Ziel sowohl positive als auch negative Wahrnehmungen bei einer Person auslöst, die gegeneinander abzuwägen sind, man sagt, hin- und hergerissen sein, etwa im Beruf Positionsaufstieg und mehr Arbeitsleistung. • Ein Aversions-Aversions-Konflikt liegt vor, wenn eine Person sich zwischen zwei oder mehr, von ihr sämtlich als negativ wahrgenommenen Alternativen entscheiden muss, man sagt, das geringere Übel wählen, etwa Kfz-Haftpflichtversicherungsangebote. Zur Erklärung der Motivation gibt es zahlreiche Theorien, die versuchen, die Bestimmungsgründe für menschliches Verhalten zu erklären. Inhaltstheorien versuchen dabei, die Motive von Menschen im Ergebnis zu klassifizieren (Was). Pro-

2. Konsumentenverhalten

in Bezug auf Ziel 1 positiv

negativ

positiv

AppetenzAppetenzKonflikt

AppetenzAversionsKonflikt

negativ

Konflikt

in Bezug auf Ziel 2

555

AppetenzAversionsKonflikt

AversionsAversionsKonflikt

Abbildung 154: Mögliche Motivkonflikte

zesstheorien versuchen zu erklären, wie Motivation zu Verhalten führt (Wie). Die verbreitetsten inhaltsbasierten Ansätze seien hier kurz erläutert: • Die Bedürfnishierarchie (Maslow) unterscheidet aufsteigend fünf Motivklassen. Physiologische Grundbedürfnisse richten sich auf die Selbsterhaltung des /  Trinken, Schlaf, saubere  /  warme KleiMenschen wie ausreichendes Essen  dung, Gesundheit etc. Sicherheitsbedürfnisse beziehen sich auf seinen Schutz vor Gefahren wie adäquate Wohnung, sicherer Arbeitsplatz, Absicherung bei Krankheit / Alter etc. Soziale Bedürfnisse kennzeichnen den Kontakt zu anderen Menschen durch Zugehörigkeit, Verbindung, lieben und geliebt werden. Wertschätzungsbedürfnisse beziehen sich auf die Achtung und Anerkennung durch andere Menschen, das Streben nach Wohlstand / Macht / Karriere / Auszeichnungen etc. Und Selbstverwirklichungsbedürfnisse betreffen den Wunsch nach persönlicher Entfaltung und Transzendenz, also Wissen, Verstehen, Sinnhaftigkeit. Hierarchisch höhere Bedürfnisse gewinnen erst an Bedeutung, wenn die niedrigeren hinreichend befriedigt sind. Befriedigte Bedürfnisse wirken nicht mehr motivierend. Allerdings ist diese Hierarchie der Bedürfnisse äußerst fragwürdig und wohl eher anschaulich gemeint. Demnach ist es im Marketing sinnvoll, möglichst „weit oben“ angesiedelte Motive anzusprechen, da davon eine höhere Aktivierungswirkung ausgehen dürfte. Dazu ein Beispiel zur Mobilität: – Grundbedürfnisse: Fahrten zur Arbeitsstelle, Fahrten zum Einkaufen, – Sicherheit: Kurzreisen, Erholungsreisen, – Soziales: Reisen zu Bekannten / Verwandten / Freunden, – Anerkennung: Kreuzfahrtschiffsreisen – Selbstverwirklichung: Vergnügungsreisen, Entdeckungsreisen.

556

Kap. IX: Kundeninformationen

• Die ERG-Theorie (Alderfer) reduziert die fünf Klassen nach Maslow auf nur noch drei: Existenzbedürfnisse (E), Beziehungsbedürfnisse (R) und Wachstumsbedürfnisse (G). Diese Bedürfnisse werden jedoch im Unterschied zu Maslow gleichrangig wirksam, Beziehungs- und Wachstumsbedürfnisse verstärken sich dabei gegenseitig. Unbefriedigte Bedürfnisse werden dominant und sowohl bei Befriedigung als auch bei Nichtbefriedigung erhalten jeweils andere Bedürfnisse Dominanz. Fraglich ist hier die empirische Fundierung. • Die Zwei-Faktoren-Theorie (Herzberg) unterscheidet in arbeitsbezogene Motivatoren wie Anerkennung, Verantwortung oder interessante Aufgabeninhalte einerseits und arbeitsbezogene Hygienefaktoren wie Bezahlung, Status oder Führungsqualität andererseits. Motivatoren wirken dauerhaft leistungsanreizend und nutzen sich nicht ab. Hygienefaktoren sind hingegen notwendige Rahmenbedingungen für Leistung, ohne jedoch selbst motivierend zu wirken. Ihr Fehlen führt zur Unzufriedenheit, ihr Vorhandensein ab einem Sättigungsgrad zu keinem weiteren Leistungsanreiz. Dabei ist es wichtig, die Hygienefaktoren immer hinreichend zu erfüllen, denn ohne diese können auch Motivatoren nicht wirksam werden. Einstellung ist die relativ stabile innere Bereitschaft (auch Prädisposition) einer Person, auf einen Stimulus (z. B. Markenlogo) konsistent positiv oder negativ zu reagieren. Mehrdimensionale Einstellungen werden Images genannt. Sie geben das vorzufindende Fremdbild eines Objekts, wie Produkt, Marke, Unternehmen etc., wieder. Demgegenüber steht dessen Selbstbild als gewünschtes Profil. Das Fremdbild soll absichtsgemäß dem Selbstbild angenähert werden, d. h. Image und Profil sollen kohärent sein. Dies erfordert die Beeinflussung der Einstellungen im Sinne der eigenen Zielsetzung. Einstellungen führen zu organisierten Überzeugungen, Vorurteilen und Meinungen. Positive Einstellungen erhöhen Motivation und Leistung, negative vermindern sie. Einstellungen haben die Merkmale des Objektbezugs, sie sind also immer auf ein bestimmtes Bezugsobjekt wie Sache, Person, Thema oder Angebot gerichtet, der Erworbenheit, sie entspringen allein dem Sozialisationsprozess durch Lernen aus Erfahrung und des Systemcharakters, indem sie sich in eine affektive Komponente, welche die gefühlsmäßige Einschätzung als Sympathie zur Marke betrifft, eine kognitive Komponente, welche die verstandesmäßige Beurteilung der Leistungsmerkmale betrifft und eine konative Komponente unterteilen, welche die handlungsmäßige Konsequenz betrifft, also Kauf oder Nichtkauf. Als hypothetische Konstrukte können diese nicht direkt gemessen, sondern nur über Indikatoren erschlossen werden. Genau dabei kommt Marktforschung zum Zuge. Um eine Messung zu operationalisieren, bedarf es Skalierungen. Diese können verschieden ausgeprägt sein, eindimensional oder dual-/multiattributiv, subjektiv oder objektiv, dekomponierend oder komponierend.

2. Konsumentenverhalten

557

2.1.2 Individuelle Elemente Individuelle Elemente liegen der in der Person des aktuellen oder potenziellen Nachfragers begründet. Bei ihnen handelt es sich ebenfalls um theoretische Konstrukte. Vornehmlich sind dabei Involvement und Risikoempfinden zu nennen. Unter Involvement versteht man einen inneren Zustand der Aktivierung, der die Informationsaufnahme, -speicherung und -verarbeitung beeinflusst. Diese Aktivierung ist personen-, situations- und reizabhängig. High involvement-Situationen sind solche, die für den Nachfrager wichtig sind, weil sie ein hohes persönliches Risiko aus Selbsteinschätzung, ein finanzielles aus Geldmitteleinsatz, ein soziales aus Fremdeinschätzung oder ein psychologisches aus Dissonanzen bergen. Daraus folgen: • passive Informationsaufnahme, es geschehen lassen, geringe Verarbeitungstiefe, viele Beeinflussungsmöglichkeiten, Bewertung eines Kaufs allenfalls nach dem Kauf, nur wenige Merkmale werden beachtet, so dass viele akzeptable Kaufoptionen entstehen, wenig sozialer Einfluss, keine Probleme und schnelle Entscheidung, Markentreue durch Gewohnheit, gering verankerte, flache Einstellung, geringe Gedächnisleistung. Low involvement-Situationen sind hingegen weniger wichtig und risikoreich, so dass es nicht sinnvoll erscheint, sich mit ihnen intensiv auseinander zu setzen. Daraus folgen die gegenteiligen Merkmale. Die Low involvement-Hierarchie unterstellt daher, dass es zu Verhalten ohne vorherige kognitive Auseinandersetzung kommen kann (V – E). Die High involvement-Hierarchie unterstellt hingegen, dass ohne Einstellungsbildung kein Verhalten erfolgen kann (E – V). Was hoch und was gering involvierend ist, hängt nicht allein vom Produkt ab, sondern vom Rezipienten und den Umständen der Situation, z. B. Umfeld, Stress, sowie von der Art der Botschaft. Personenabhängig erfolgt unter ansonsten gleichen Bedingungen eine verschiedene Involvierung, ebenso abhängig vom Produktinteresse und dem Medieneinsatz. Daraus leitet sich (nach Kroeber-Riel) folgendes für die Botschaftsübermittlung ab (siehe Abbildung 155: Involvement-Wirkungspfade): • Bei hohem Involvement führt Information zu starker Aufmerksamkeit, über kognitive Vorgänge zu Einstellungsbildung mit Kaufabsicht und daraus abfolgendem Verhalten. Emotion führt hingegen zu starker Aufmerksamkeit und affektiven Vorgängen, aus denen dann Einstellung, Kaufabsicht und entsprechendes Verhalten folgen. • Bei geringem Involvement führt Information bei schwacher Aufmerksamkeit zu kognitiven Vorgängen und Verhalten, daraus wiederum erst folgen Einstellung und Wiederkaufabsicht. Emotion führt bei schwacher Aufmerksamkeit über affektive Vorgänge zu Einstellungsbildung mit Kaufabsicht und daraus folgendem Verhalten.

558

Kap. IX: Kundeninformationen

Werbekontakt

schwache Aufmerksamkeit

schwache Aufmerksamkeit

kognitive Vorgänge

emotionale Vorgänge

Einstellung Kaufabsicht Verhalten

Abbildung 155: Involvement-Wirkungspfade (nach Kroeber-Riel)

Bei geringem Involvement wird generell eine hohe Zahl an Wiederholungen von Botschaften zur Verankerung im Gedächtnis der Zielpersonen empfohlen. Wear out-Effekten kann vorgebeugt werden, indem das im Grunde gleiche Thema immer wieder neu inszeniert wird. Bei hohem Involvement hingegen ist ein rasches Lernen von Botschaften anzunehmen, und zwar sowohl informativ als auch von emotional angelegten. Dafür ist mit raschem Wear out zu rechnen. Wichtig sind: • Überzeugen der Kaufinteressenten, alles Wichtige sagen / zeigen, ausführliche, sachliche Argumentation, geringe Penetration, hoher Text-/Sprachanteil, zur Kaufentscheidung präsent sein, hohe Qualität bieten. Ein gängiges Rezept ist die werbliche Transformation einer gering involvierenden Situation in eine hoch involvierende. Dies geschieht meist durch Problematisierung, also durch Schaffung eines Problems, das Rezipienten bisher gering geschätzt haben oder auch gar nicht kannten und zugleich Entspannung zur Lösung des Problems durch das beworbene Produkt. Insofern ist eine argumentative Botschaftsauslobung sinnvoll. Alternativ dazu ist aber auch möglich, eine gering involvierende Situation beizubehalten und über werbliche Penetration eine Kauf­ erwägung zu schaffen. Dann ist weniger ausschlaggebend, was ausgelobt wird, sondern dass die Auslobung möglichst häufig erfolgt. Das Risikoempfinden beschreibt die als nachteilig empfundenen Folgen einer Entscheidung, die nicht vorhersehbar sind. Diese Unsicherheit oder Dissonanz kann vor der Entscheidung oder vor allem danach auftreten. Dissonanzen sind meist kognitiv bedingt. Der Grad des wahrgenommenen Risikos ist von der individuellen Risikobereitschaft abhängig und hat einen finanziellen, funktionalen,

559

2. Konsumentenverhalten

sozialen und psychologischen Aspekt. Zweifel an der Richtigkeit einer Entscheidung wollen vom Menschen zur Konsonanz ausgeglichen werden. Insofern ist eine Dissonanzreduktion erforderlich. Diese erfolgt etwa durch Änderung im Umfang der Kognition, durch Hinzufügung neuer Kognitionen oder Ausschaltung dissonanter Kognitionen, durch Änderung von Inhalten der Kognition, nachträgliche Aufwertung des gewählten Entscheids bzw. nachträgliche Abwertung der verworfenen Entscheide, Unterstellung der Gleichartigkeit der gewählten zu der / den verworfenen Entscheide oder Rückgängigmachung des Entscheids als Ultima Ratio. Problematisch ist dabei, dass ein Anbieter normalerweise nicht weiß, welche Personen sich in welcher Kaufphase befinden, außer es gibt explizite Indikatoren wie Informationsanfragen oder Beschwerden. Teils wird versucht, Nachfrager durch die Kaufphasen zu leiten, etwa bei der Anlage einer Customer journey (siehe Abb. 156: Customer journey (vereinfachtes Beispiel)) oder durch Initiativen zum Feedback. Außerdem gibt es mehrere theoretische Erklärungen, so z. B. Suchmaschineneintrag

Suchmaschineneintrag

Suchmaschineneintrag

Facebook-Fanpage

Facebook-Fanpage

Facebook-Fanpage

eigene Website

eigene Website

eigene Website

YouTube-Kanal

YouTube-Kanal

YouTube-Kanal

eigene App

eigene App

eigene App

Newsletter

Newsletter

Newsletter

Print-Anzeige

Print-Anzeige

Print-Anzeige

stationärer Laden

stationärer Laden

stationärer Laden

Erstkontakt

Information

Umsetzung

Abbildung 156: Customer journey (Beispiel)

• das Mental accounting (Thaler): Dabei werden verschiedene gedankliche „Konten“ geführt, für jedes Konto werden ein „Budget“ und ein „Nutzenziel“ angesetzt, wenn die Kostengrenze oder aber eine Sättigung erreicht ist, werden keine Käufe mehr getätigt, etwaig überschießende Kaufkraft wird dann für andere Konten eingesetzt, die noch „offen“ sind. Diese Taktik hilft Menschen, die Kontrolle über ihre Lebensführung und Finanzmittel zu erhalten. • die Prospect theory (Kahneman / Tversky): Dabei werden empfundene Verluste und Gewinne einer Entscheidung nicht gleich erlebt, sondern der subjektive Nutzen steigt unterproportional zum Gewinn, der subjektive Verlust steigt über-

560

Kap. IX: Kundeninformationen

proportional. Verluste schmerzen also mehr als gleich hohe Gewinne freuen. Die Verlustangst ist individuell größer als die Gewinnlust. Menschen sind daher bereit, mehr Geld auszugeben, wenn das damit verbundene Risiko begrenzt wird. • den Endowment-Effekt (Thaler / Kahneman): Dabei hat der bereits erreichte Besitzstand einen höheren Stellenwert als ein möglicher Zuwachs. Menschen möchten ihren Status quo sichern und sind überwiegend nicht bereit, diesen für spekulativen Erwerb zu gefährden.

2.1.3 Werthaltungen Werte sind allgemein Auffassungen von Wünschenswertem, die explizit oder implizit für ein Individuum oder für eine Gruppe kennzeichnend sind und die Auswahl der zugänglichen Weisen, Mittel und Ziele des Handelns beeinflussen. Werte bilden allgemein ein System von Einstellungen und schaffen gemeinsam mit der Persönlichkeit und dem Selbstkonzept einen Lebensstil. Man unterscheidet: • Globalwerte als überdauernde Überzeugungen, die sich auf gewünschte Existenzialzustände bzw. Verhaltensweisen beziehen. Dabei handelt es sich um wenige Basiswerte und Grundorientierungen, etwa die Beachtung der Ökologie beim Kauf. • Bereichswerte als kaufbezogene Aspekte, die Auskunft über Lebens- und Gesellschaftsbereiche geben, etwa die Bevorzugung von Qualität. • Angebotswerte als produktliche Attribute und deren bewertende Überzeugungen. Verbreitete Werte betreffen Unabhängigkeit, Freizügigkeit, Harmonie, Konfliktfreiheit, Schutz gegen Angriffe, Unterhaltung, Genuss, Selbstachtung, Freundschaft, Erlösung, soziale Anerkennung, Reife, Komfort, Einkommen, interessantes / ​ erfülltes Leben, Frieden, Vertrautheit, Sex, Natur, schöne Künste, Chancengleichheit, Gleichberechtigung, Familie. Solche Wertestrukturen kommen durch Haltungen zum Ausdruck. Der Semiometrie-Ansatz hebt auf die ursprünglichen, unverfälschten Werte ab, die jeder Mensch in sich trägt und die seine Einstellung wie sein Verhalten bestimmen, indem zur Messung ausgewählte Wörter verwendet werden. Dabei wird davon ausgegangen, dass Wörter bestimmte Werte, angenehme oder unangenehme Gefühle vermitteln und wecken. Personen mit gleichen Einstellungen, Meinungen und Motiven werden daher auch die einzelnen Wörter ähnlich bewerten, Werte sich also in der Sprache widerspiegeln und unterschiedliche Werthaltungen durch die Interpretation von Wörtern zum Ausdruck kommen (siehe Abbildung 157: Semiometrie-Modell). TNS Infratest-Marktforschung verwendet dazu 210, durch Vorstudien reduzierte, ausgewählte Wörter als Substantive, Verben und Adjektive, die im Zeitablauf kon-

561

2. Konsumentenverhalten

stant bleiben. Jedes Wort wird von Probanden auf repräsentativer Basis auf einer siebenstufigen Skala von „sehr angenehm“ bis „sehr unangenehm“ bewertet. Aus den kumulierten Bewertungen ergibt sich durch multivariate Analyse die Position jedes Wortes in einem mehrdimensionalen Raum, zweidimensional reduziert kann es sich etwa um die Dimensionen „Sozialität“ vs. „Individualität“ und „Lebensfreude“ vs. „Pflicht“ handeln. Innerhalb dieser Matrix können 14 Wertefelder dargestellt werden: • familiär, sozial, religiös, materiell, verträumt, lustorientiert, erlebnisorientiert, kulturell, rational, kritisch, dominant, kämpferisch, pflichtbewusst, traditionell. Universalistische Werte alt

instinktiv

überlegt

jung

Traditionswerte

Selbstbestimmungswerte

weiblich

männlich

Egozentrische Werte

Abbildung 157: Semiometrie-Modell

Jedes Feld spannt einen Werteraum auf. Befragungspersonen werden nunmehr dazu erhoben, in welchem Maße sie sich emotional jedem dieser Begriffe verbunden fühlen. Durch statistische Analysen (z. B. Clusterverfahren) lassen sich so Gruppen bilden, die gemeinsame Werteraster teilen. Diese Personen werden gleichermaßen nach ihrer subjektiven Einschätzung von Produkt- oder Medienmarken erhoben. Über diese Verbindung lassen sich Meinungsgegenstände wie Produkte in dieses Werteraster übertragen und somit Ist- und Soll-Zielgruppen bilden. Für die Gesamtbevölkerung liegt diese Anordnung der Wörter im Raum also repräsentativ vor, durch regelmäßige Erhebung wird zudem der Wertewandel berücksichtigt. Probanden, stellvertretend für dahinter stehende Zielgruppen, bilden nun eine vom Durchschnitt abweichende Anordnung dieser Wörter im Raum ab. So finden sich Wörter, die von Probanden übereinstimmend abweichend zum Durchschnitt über- oder unterbewertet werden. Diese Personen stellen dann im System ein gemeinsames Segment dar. Selektiert man bei den so gefundenen

562

Kap. IX: Kundeninformationen

Segmenten Gemeinsamkeiten der Personen, ergibt sich daraus ein wertebezogenes Zielgruppenprofil. Eine wesentliche Gemeinsamkeit kann etwa in der Verwendung einer Marke liegen, so dass sich Zielgruppenprofile verschiedener Marken vergleichen lassen. Mit Hilfe dieses Ansatzes kristallisieren sich somit psychokulturelle Wertmuster von Produktverwendern, Fernsehzuschauern oder auch Zeitschriftenlesern heraus.

2.2 Interpersonale Variable 2.2.1 Kultureinfluss Hierbei handelt es sich um soziologisch basierte Determinanten, die zentrale Ansatzpunkte zur Beleuchtung der Zielpersonengruppe bieten. Sie ergeben sich aus dem Zusammenleben von Menschen in einer Gesellschaft. Diese soziologischen Determinanten gehen also nicht von der einzelnen Person, sondern vom Zusammenwirken der Personen als Erklärungsgröße für das Verhalten in der Gesellschaft aus. Unter Kultur versteht man kollektive Muster für Denken, Fühlen und Handeln, die durch Symbole übertragen werden und sich in Artefakten verkörpern. Diese entstehen im Sozialisationsprozess. Entscheidend dafür sind Normen, Subkulturen und Soziale Schichten. Normen legen Toleranzgrenzen für konformes Verhalten innerhalb einer Gesellschaft fest. Bei Muss-Normen handelt es sich um Ge- oder Verbote aus Gesetzen und Verordnungen, bei Soll-Normen um erwünschtes, jedoch noch nicht negativ sanktioniertes Verhalten, etwa der Fashion code am Arbeitsplatz, und bei KannNormen um Verhaltensoptionen, die allesamt akzeptiert sind und dem Individuum einen gewissen Ermessensspielraum lassen wie Menüauswahl. Die Sanktionierung erfolgt durch Belohnung bzw. Vermeidung von Bestrafung bei Normeneinhaltung sowie Entzug von Belohnung bzw. Bestrafung bei Normenverstoß. Menschen sind daher im Allgemeinen bestrebt, sich normenkonform zu verhalten. Indem Produkte in der Werbung als normenkonform ausgelobt werden, kann daher ihre Kaufappetenz erhöht werden. Umgekehrt ist es schwierig, vorgeblich nicht normenkonforme Produkte erfolgreich am Markt zu platzieren. Subkulturen sind in sich relativ geschlossene Gruppen in der Gesellschaft, die sich nach ethnischen, altersmäßigen oder räumlichen Gesichtspunkten bilden. Sie gliedern die Nachfragerschaft horizontal und werden von spezifischen, von der allgemeinen Wertestruktur teilweise abweichenden Normen geeint, die Ansatzpunkte für die Vermarktung bieten. Subkulturen sollen im Rahmen der Diversität inkludiert werden. Unterschiede sind dabei nicht wertend gemeint. Subkulturen sind jedoch durch spezifische, von der allgemeinen Norm abweichende Teilnor-

2. Konsumentenverhalten

563

men geeint. Dies macht sie geeignet für eine spezifische Adressierung, wie etwa Islamic banking oder Gay marketing. Dabei besteht der Trend entweder in einer Assimilation der Besonderheiten durch die Gesellschaft oder in der Erstarrung schwer integrierbarer Randgruppen. Subkulturen führen ein Eigenleben im kulturellen Raum, so dass sie einer Segregation zugänglich sind und eine spezifische werbliche Ansprache ermöglichen. Soziale Schichten gliedern eine Gesellschaft vertikal von oben nach unten. Dies ist typisch für die früher vorherrschende Schichtengesellschaft nach demografischen Kriterien als Oberschicht, obere Mittelschicht, untere Mittelschicht, obere Unterschicht, untere Unterschicht und Sozialfälle. Als Kriterien für die Einordnung der Personen dienen Ausbildung, Beruf, Einkommen, Vermögen, Wohnort oder Familiengröße. Dabei liegt die Annahme zugrunde, dass Angehörige derselben Schicht ein homogenes konsumrelevantes Verhalten aufweisen. Tatsächlich erfolgt jedoch häufig eine Orientierung an der in der Gesellschaftspyramide darüber liegenden Schicht im Aufstiegskonsum / Conspicuous consumption. Daher eignet sich diese Einteilung allenfalls zur Ansprache schichtenspezifischer Produkte, zu denken ist hierbei vor allem an Luxusprodukte. 2.2.2 Gruppeneinfluss Bei der Gruppe unterscheidet man Kleingruppen mit direktem Kontakt der Mitglieder und Großgruppen, temporäre und dauerhafte Gruppen sowie familiäre Primär- und außerfamiliäre Sekundärgruppen, weiterhin informelle Gruppen, die nur durch Kommunikationsbeziehungen untereinander gekennzeichnet sind und formelle Gruppen, die in einem rechtlich begründeten Verhältnis zueinander stehen. Das Ausmaß des Gruppeneinflusses auf das Verhalten hängt von der Identifikation des Individuums mit der Gruppe ab. Zudem nehmen Menschen Rollen in Gruppen ein. Nach der Art unterscheidet man Mitgliedschaftsgruppen, die durch bloße Teilnahme am Gruppenleben entstehen oder nominell durch Aufnahme und Teilhabe begründet werden sowie Bezugsgruppen, in denen keine Mitgliedschaft besteht, mit denen eine Person sich aber identifiziert bzw. von der sie sich absetzen will. Diese Referenzgruppen werden häufig zum Vergleich mit der eigenen Lebenssituation herangezogen. Zur Konfliktvermeidung werden Nachahmung und Konformität bzw. bewusste Abgrenzung betrieben. Bei positiven / assoziativen Bezugsgruppen / Peer groups sind das Verhalten und die Wertungen dieser komparativen Gruppe normierend, die für gewöhnlich eine halbe Klasse über der eigenen Klasse liegt. Der Abstand hat jedoch nach unten eine Toleranzgrenze, wird er zu groß, ohne dass dafür plausible Erklärungen erkennbar sind, entsteht eine relative Deprivation, die als ungerecht betrachtet und zum Neidfaktor wird. Verhalten, das die Bezugsgruppe zeigt, hat eine besondere Attraktivität, weil Übernahme dabei zu helfen scheint, zumindest vordergründig deren Mitglied zu werden. Bei nega-

564

Kap. IX: Kundeninformationen

tiven / disassoziativen Bezugsgruppen geht es um die Absetzung von diesen, etwa Links- oder Rechtsradikalen. Der Gruppeneinfluss hängt vor allem ab von hohem Zusammengehörigkeitsgefühl, häufiger Gruppeninteraktion, hoher Zufriedenheit mit der Gruppe, gemeinsamer Zielorientierung und hoher Gruppenharmonie sowie bei noch geringer Festigung der Persönlichkeit wie bei Jugendlichen. Die wohl intensivst erlebte Gruppe ist die Familie. Ihr Einfluss auf Kaufentscheide ergibt sich aus dem relativen Anteil einzelner Familienmitglieder. Dabei werden in Bezug auf den Familienkaufentscheid unterschieden (siehe Abbildung 158: Familienkaufentscheid): • männlich dominierte Käufe, traditionell Elektronik, Handwerk, Auto und Geldanlage, die für die Familie entschieden werden, • weiblich dominierte Käufe, traditionell Kinderbedarf, Haushaltswaren, Dekoration und Garten, die für die Familie entschieden werden, • gender-partizipative Käufe, traditionell Urlaub, Freizeit und Möblierung, die in der Familie gemeinsam entschieden werden, • gender-autonome Käufe, traditionell Kleidung, Kosmetik, Hobbybedarf etc., die jeder für sich tätigt, ohne sich mit dem Partner abzustimmen. Geschlecht männlich männlichautonom

weiblich dominant

geschlechterpartizipativ

Kaufentscheidungsanteil

männlichdominant

weiblich autonom

Geschlecht weiblich

Abbildung 158: Familienkaufentscheid (eig. Darst.)

Die Rollenverteilung wird hierbei zunehmend egalitär, und zwar umso mehr, je höher die soziale Schicht ist. Hinzu tritt ein zunehmender Entscheidungsanteil von Kindern, etwa bei UE-Produkten. Der Familienlebenszyklus spiegelt die Veränderung des Bedarfs in Abhängigkeit von Alter als Kinder, Jugendliche, Erwachsene, Alte, Familienstand ledig, zu-

565

2. Konsumentenverhalten

sammenlebend, verheiratet, getrennt, verwitwet, Haushaltsgröße als Einpersonen-, Zweipersonen-, Mehrpersonenhaushalt, Berufstätigkeit abgestuft nach keine, in Ausbildung, Beruf, Rente, Kaufkraft, abgestuft nach ohne, gering, mittel, hoch und Besitzstatus / Hobbies (siehe Abbildung 159: Kriterien des Familienlebens­zyklus). Entsprechend ergeben sich folgende Stadien: • Junge Alleinstehende, mittelalte Alleinstehende, Lebensabschnittsgemeinschaft, Junges Paar, Paar ohne Kinder, Paar mit kleinen Kindern, Alleinerziehende mit kleinen Kindern, Alleinerziehende mit heranwachsenden Kindern, Alleinerziehende mit erwachsenen Kindern im Haus, verzögertes Volles Nest, Paar mit heranwachsenden Kindern, Paar mit erwachsenen Kindern im Haus, Paar mit erwachsenen Kindern außer Haus, Altes Paar mit Kindern außer Haus, Witwe / Witwer, alte Alleinstehende. Jugendlicher

Erwachsener

ledig

zusammenlebend

verheiratet

getrennt lebend

verwitwet

Haushaltsgröße

eine Person

zwei Personen

weitere Personen

Berufstätigkeit

ohne

in Ausbildung

in Arbeit

in Rente

nicht erwerbstätig

ohne

gering

Alter

Kind Senior

Familienstand

Kaufkraft / Besitzstand

mittel

hoch

Abbildung 159: Kriterien des Familienlebenszyklus

Ansatzpunkt im Zuge des Beziehungsmanagements ist eine Begleitung der Personen durch diese verschiedenen Phasen. Beispiele finden sich in der Finanzbranche über verschiedene Geldanlage- und Vorsorgeprodukte oder in der Autobranche als Produktkarrieren über Modellreihen hinweg. Rollen betreffen Erwartungsbündel anderer Gruppenmitglieder an den Rolleninhaber. Rolle und Status sind für gewöhnlich kongruent, sie fallen auseinander bei Understatement oder Angeberei. Der Status kann aus der Herkunft ererbt sein oder als Aufsteiger erworben. Für die Ausfüllung ergeben sich geschlechtsspezifische Rollenverteilungen. Männer, die den gängigen Vorurteilen dabei nicht entsprechen, sind „Weicheier“, Frauen, die den gängigen Vorurteilen nicht entsprechen, haben „Haare auf den Zähnen“. Dies wandelt sich jedoch im Wege der Emanzipation

566

Kap. IX: Kundeninformationen

glücklicherweise beidseitig. In diesem Zusammenhang sind Erwartungs-, Kommunikations- und Machtbeziehungen bedeutsam. Entsprechend werden verschiedene Mitgliedstypen unterschieden wie Streitsüchtige / Freche, Frohnaturen / Clowns, Alleswisser, Redselige, Schüchterne, Ablehnende, Dickfellige, Erhabene, Drückeberger, Ausgleichende, Außenseiter etc. Zwischen der Erwartung an eine Rolle und dem eigenen Standpunkt können sich Konflikte ergeben: • Ein Intra-Rollenkonflikt (Rolle – Person) liegt vor, wenn ein und derselbe Sender unterschiedliche Instruktionen an die Rolle einer Person stellt, etwa hinsichtlich des Engagements als Manager in Bezug auf kurzfristige Gewinnziele und langfristige Nachhaltigkeit durch Compliance, die nicht übereinkommen. • Ein Inter-Rollenkonflikt (Rolle – Rolle) liegt vor, wenn von verschiedenen Seiten widerstrebende Instruktionen auf eine Person einwirken, etwa hinsichtlich Ansprüchen seitens des Unternehmens in Bezug auf Kostensenkung und zugleich seitens der Stakeholders in Bezug auf Ökologiebewusstsein. • Ein Person-Rolle-Konflikt liegt vor, wenn Bedürfnisse der Person und dezidierte Rollenerwartung von außen an sie auseinander fallen, beispielsweise der Beamte, der im Grunde seines Herzens ein Freigeist ist, aber verordnungsgebunden agieren muss. • Ein Person-Person-Konflikt liegt bei abweichenden Rollenidentitäten zwischen handelnden Personen vor, zwischen denen ein Abgleich herzustellen ist, ohne dass ein Beteiligter seine Rollenidentität verlassen muss.

2.3 Meinungsführerschaft Meinungsführerschaft ist die Ausübung von Einfluss innerhalb interpersoneller Kommunikationsprozesse. Im Rahmen der persönlichen Kommunikation in sozialen Gruppen haben bestimmte Personen stärkeren Einfluss auf Einstellungen, Meinungen, Verhaltensweisen anderer Gruppenmitglieder, sie werden daher als Opinion leaders bezeichnet. Dabei ist von einer graduellen Ausprägung auszugehen. Dabei sind zwei alternative Erklärungsansätze üblich. Frühe Untersuchungen zu diesem Phänomen stammen aus dem Wahlverhalten von US-Bürgern. Danach fließen Informationen in einer ersten Stufe von den Massenmedien zu den Meinungsführern und in einer zweiten Stufe erst von diesen zu den Meinungsfolgern. Bei Meinungsführern wird also davon ausgegangen, dass sich die Kommunikation zwischen Botschaftsabsender und Rezipienten nicht nur direkt und diffus, sondern vor allem auch zweistufig vollzieht. Der Botschaftsfluss geht zunächst einstufig vom Absender an Meinungsführer. Diese nehmen die Botschaft auf und versuchen, etwaige Informations­defizite durch

2. Konsumentenverhalten

567

Kontaktsuche zu Promotoren als professionellen Experten zu füllen. Gleichzeitig suchen weitere Personengruppen infolge psychischer Inkonsistenzen Kontakt zu diesen Meinungsbildnern, die auf sie dann in der zweiten Stufe ihren Einfluss ausüben. Als Meinungsführer werden generell jene Mitglieder einer Gruppe bezeichnet, die im Rahmen des Kommunikationsprozesses einen stärkeren persönlichen Einfluss als andere ausüben und daher die Meinung anderer zu beeinflussen oder auch zu ändern imstande sind. Professionelle Experten als Beeinflusser werden meist im Rahmen der Fachkommunikation intensiv bearbeitet. Ihr Beeinflussungspotenzial bestimmt sich aus der Relaisfunktion, ihrer Verzerrungs-, Verstärkungs- bzw. Abschwächungswirkung, ihrer Selektionsfunktion für weiterzuleitende Informationen und ihrer Resistenzfunktion zur Abwehr nicht wertkonformer Informationen. Diese Meinungsbildner nehmen insofern eine exponierte Stellung ein, weil sie besser informiert, stärker interessiert und aktiver sind als andere. Dies macht sie aufnahmefähig für Herstellernachrichten mit Niveau und Gehalt, die sie bei Gelegenheit ihrerseits an ihr soziales Umfeld weitergeben. Man unterscheidet institutionelle Meinungsbildner wie Journalisten, Ärzte oder Lehrer und funktionale Meinungsbildner im Breitenpublikum. Diese Eigenschaft beruht auf informeller Kompetenz, selten auch auf Macht, und wechselt interpersonell je nach Themenstellung. Die Kommunikation kommt also nicht nur durch Medien, sondern auch durch Personen zustande, die über Themen kommunizieren. Meinungsführer haben daher eine Multiplikatorwirkung in ihrem sozialen Umfeld. Marketing nutzt dies, indem selektierte Informationen zuerst an meinungsbildende Personen gegeben werden, die diese dann weitertragen. Dies entspricht dem Two steps flow of communication (siehe Abbildung 160: Meinungsführermodelle). Problematisch ist dabei die Charakterisierung solcher Meinungsführer. Generell ist festzuhalten, dass sie: • in allen sozialen Schichten anzutreffen sind und nicht, wie früher angenommen, nur in hohen sozialen Schichten, • kommunikationsfreudiger als der Durchschnitt sind und sich durch geselliges Verhalten und starke soziale Interaktion auszeichnen, wie die Mitgliedschaft in Verein / Verband, • vorwiegend auf ein bestimmtes Thema spezialisiert und dort besser informiert sind als andere, allenfalls sind Überschneidungen bei Meinungsgebieten gegeben, die sehr ähnlich sind, dies bedeutet aber, dass Personen je nach Thema verschiedene Rollen einnehmen, nämlich zum einen als Ratgeber und zum anderen als Ratsuchende, • risikofreudiger als der Durchschnitt der Zielgruppe sind, was aus ihrem besseren Informationsstand resultiert,

568

Kap. IX: Kundeninformationen

Nachfrager

Nachfrager

Nachfrager

Meinungsführer

Nachfrager

Meinungsführer

Nachfrager

Anbieter

Nachfrager

Anbieter

Nachfrager

Two cycles of communication

Nachfrager

Two steps flow of communic.

Abbildung 160: Meinungsführermodelle (eig. Darst.)

• häufig Nutzer von Fachmedien / Special interest-Titeln sind, die daher für die werbliche Ansprache ausgewählt werden, • generell an ein höheres Anspracheniveau gewöhnt sind, • mit informeller Kompetenz ausgestattet sind. Solche Personen sollen durch Marktforschung identifiziert werden, da sie einerseits als Heavy users ein großes Nachfragepotenzial im Eigeneffekt auf sich vereinen und andererseits als Multiplikatoren kostenlose Akquisitionsanstöße geben, die sogar glaubwürdiger und effizienter sind als Werbeaussagen, weil man unterstellt, dass die Person aus ihrer Empfehlung durch den Vermittlungseffekt keinen Vorteil zieht, sowie als Induktoren zur Einstellungsveränderung von Meinungsfolgern im Beeinflussungseffekt beitragen. Solche Personengruppen werden etwa bei Produktneueinführungen erklärungsbedürftiger oder anderer High interestProdukte angesprochen, wie technische Gebrauchsgüter, Modeartikel, Genussmittel oder Sportbedarf. Und zwar meist additiv zur Breitenzielgruppe bzw. bei geringer Budgethöhe auch allein. In einem weiteren Ansatz, dem Informationsfluss-Konzept des Two cycles of communication, wird zwischen Informationsfluss einerseits und Meinungsbeeinflussung andererseits unterschieden. Der Informationsfluss erfolgt demnach nicht nur zweistufig, sondern sowohl einstufig vom Absender, also Hersteller oder Handel, direkt an Endabnehmer als auch zweistufig. Die Beeinflussung erfolgt aber nur zweistufig, vom Absender an Meinungsbildner und von diesen an private oder gewerbliche Endabnehmer. Man unterscheidet vor allem:

2. Konsumentenverhalten

569

• Opinion givers, und zwar Meinungsbildner zweiten Grades, die ihrerseits durch Meinungsbildner ersten Grades beeinflusst werden, • Opinion askers als Informationssucher und aktive Informationsempfänger, • Inactives als passive Informationsempfänger und sozial isolierte Konsumenten. Dabei werden mehrstufige Kommunikationswege unterstellt, in denen auch Einflussbeziehungen zwischen verschiedenen Meinungsbildnern und zwischen Massenmedien und Meinungsfolgern berücksichtigt werden. Dieser parallele Informationsfluss zwischen Absender und Empfänger wird durch Simulation persönlicher Kommunikation in der Werbung wie Slice of life- und Testimonial-Ansätze, durch Stimulation interpersoneller Kommunikation über Response-Mechanismen wie Coupons und Member get member sowie aktive Teilnahme an interpersoneller Kommunikation durch Gesprächslenkung, etwa im Persönlichen Verkauf oder durch Home parties, zu verstärken gesucht. Typisch sind werbliche Darstellungen, bei denen ein Meinungsbildner ein Produkt empfiehlt, die andere Person aber Zweifel an dessen Leistungsfähigkeit anmeldet. Die Adressaten versetzen sich automatisch in die Situation dieses Zweiflers. Das Produkt überzeugt durch Leistung, der Meinungsbildner ist in seiner Kompetenz gestärkt, die zweifelnde Person ist, stellvertretend für alle Werbegemeinten, überzeugt. Zur Identifizierung solcher Personen sind drei Ansätze gebräuchlich: • Der Soziometrie-Ansatz versucht, das Kommunikationsgefüge in gesellschaftlichen Gruppen grafisch sichtbar zu machen. Dazu wird der Informationsfluss zwischen den Mitgliedern untersucht und als Netzwerk mit Knoten für die Mitglieder und Pfaden für den Informationsfluss dargestellt. Dabei ergeben sich Knoten, bei denen mehr und solche, bei denen weniger Pfade zusammenlaufen. Die Kristallisationspunkte im ermittelten Kommunikationsnetz werden als Meinungsführer interpretiert. Voraussetzung ist dabei, dass alle wesentlichen Beziehungen erfasst werden, was wiederum die Kenntnis der Gruppenstruktur bedingt. • Der Schlüsselinformanten-Ansatz zielt darauf ab, Personen zu identifizieren, die einen besonders guten Überblick über die Gruppe haben. Diese sollen dann angeben, wer ihrer Meinung nach Meinungsführer hinsichtlich bestimmter Themen ist. Dabei ersetzt man die Unsicherheit über die Person des Meinungsführers allerdings möglicherweise nur durch die Unsicherheit über die Person des Schlüsselinformanten. • Der Selbsteinschätzungs-Ansatz geht von einem subjektiven Scoring in Merkmalskatalogen aus, das mutmaßliche Kennzeichen von Meinungsführern umfasst. Dazu werden umfangreiche Itembatterien eingesetzt, anhand derer Befragte eine Selbsteinstufung nach Gesprächsintensität, Ratgeber- und Ratnehmerverhalten vornehmen, deren Werte auf einem eindimensionalen Kontinuum verrechnet werden. Jedes Gruppenmitglied bewertet sich dann selbst hinsichtlich dieser Kriterien. Weil es dabei aber zu Fehleinschätzungen kommen kann, ist die Zuverlässigkeit der Ergebnisse stark anzuzweifeln.

570

Kap. IX: Kundeninformationen

Meinungsführer ergeben sich im Zeitalter der Sozialen Medien als Influencers von teils enormer Bedeutung. Dies sind in ihrer Zielgruppe akzeptierte Multiplikatoren, die wegen ihres Wissens als Experten oder ihres sozialen Status als Prominente als intermediäre Meinungsmacher / Opinion leaders wirken. Sie verfügen über eine vergleichsweise hohe Reichweite in Sozialen Netzwerken und werden häufig von Agenten gemanagt bzw. von Agenturen vertreten. Ihre Nachrichten müssen bei Produktpräsentationen als Werbung gekennzeichnet werden, sofern • sie dafür bezahlt werden, ein Eintrag ist auch bei Erhalt einer nachträglichen Zahlung nötig, • sie „werblichen Überschuss“ aufweisen, z. B. durch unkritische Darstellung, übertriebene Auslobung, • sie mit der Website des Herstellerunternehmens verlinkt sind. Wenn Influencers für ihre Produktpräsentation nicht bezahlt werden, sondern diese eigener authentischer Empfehlung entspricht, besteht keine Pflicht zur Kennzeichnung. Gerade darin liegt ja die Idee von Influencers. Nach ihrer Reichweite werden Nano-Influencer (Beziehung: Außenseiter,  250.000) unterschieden.

2.4 Wahrnehmungsprozess 2.4.1 Wahrnehmungsbedingungen Wahrnehmung umfasst die Aufnahme von Informationen sowie deren Organisation und Interpretation durch den Menschen. Dabei sind vier Dimensionen zu berücksichtigen. Aktivität meint in diesem Zusammenhang, dass Wahrnehmung ein vom Käufer initiativ ausgehender Prozess ist, der von Neuartigkeit, Intensität und Interesse bestimmt wird. Die Aktivität ist genetisch codiert und daher schon bei Babies zu finden. Subjektivität meint, dass gleiche Objekte individuell abweichend wahrgenommen werden können, so gibt es generalisierend wirkende Schlüsselreize wie Kindchenschema oder Erotik, aber auch nur spezifisch wirksame wie den Hobbybereich betreffende. So verwundert es nicht, dass Zeugenaussagen zu einem Unfallgeschehen erheblich voneinander abweichen können, weil das objektive Geschehen immer vor dem Hintergrund der subjektiven Erfahrung gespiegelt wird. Kontextualität meint, dass gleiche Objekte in Abhängigkeit von ihrem objektiven Darstellungszusammenhang abweichend wahrgenommen werden. Es kommt

2. Konsumentenverhalten

571

zu gegenseitigen Beeinflussungseffekten. Beispiele finden sich bei zahlreichen Wahrnehmungseffekten. Selektivität meint, dass infolge der Wahrnehmungsbeschränkung einzelne Informationen herausgefiltert werden, so dass nur ein kleiner Ausschnitt aller Umweltinformationen durch die Rezeptoren der Sinnesorgane aufgenommen wird, wovon wiederum nur ein kleiner Ausschnitt verarbeitet wird, wovon wiederum nur ein kleiner Ausschnitt behalten wird, wovon wiederum nur ein kleiner Ausschnitt abgerufen wird, und nur auf diesen kommt es an. Wahrnehmung bezieht sich auf alles, was dem Subjekt „entgegensteht“. Das Ergebnis sind Empfindungen und Vorstellungen über die Umwelt und die eigene Person. Wahrnehmung bezieht sich vor allem auf Stimulusart, -form und -farbe. Bei der Stimuluswahrnehmung geht es um eine spontane, quantitative Reaktion, die ausgelöst wird. Bei der Transformation der objektiven Stimuli in subjektive Wahrnehmung treten Verzerrungen auf, die durch meist unbewusste Ergänzungen, Modifikationen oder Weglassungen entstehen. Ursachen sind Illusionen oder optische Täuschungen (siehe Abbildung 161: Optische Täuschungen). So werden gebrochene Preise knapp unterhalb von Preisschwellen eher der niedrigeren Preisklasse zugeordnet, obwohl sie davon rein rechnerisch viel weiter entfernt sind als von der Preisschwelle selbst. Ursache ist dabei immer eine zweckmäßige Anpassung an die Umwelt im Laufe der Evolution. Bei der Formwahrnehmung geht es nicht nur um einzelne Stimuli, sondern um Reizmengen. Dabei spielen die Gestaltgesetze eine große Rolle, in allgemeinster Form die Prägnanz der Stimuli als wiedererkennbare, invariate und unverwechselbare Merkmale. Diese lassen sich durch mehrdimensionale Skalierung in Wahrnehmungsräumen abgrenzen und hervorheben. Dabei wird eine attributive Wahrnehmung unterstellt, obgleich eine umweltbezogene Wahrnehmung durchaus eher wahrscheinlich ist. Bei der Farbwahrnehmung geht es um visuelle Stimuli. Farben erfüllen Zeichenfunktion, etwa Rot bei Gefahr, Ordnungsfunktion in Bezug auf Funktionalität und Beeinflussungsfunktion wie bei der Anmutung. Farben lösen Emotionen aus. Bedeutsam ist auch die soziale Wahrnehmungswahrscheinlichkeit, die vor allem vom sozialen Wert eines Objekts abhängt. Wahrnehmung ist nur oberhalb einer minimalen Reizschwelle möglich. Reize darunter können nur noch unterschwellig / subliminal wahrgenommen werden und führen zur unkontrollierten Steuerung des Individuums. Daher besteht über deren absichtliche Herbeiführung ein moralisches Unwerturteil. Eine relative Reizschwelle ist der Unterschied zwischen zwei Reizen, der gerade noch wahrgenommen werden kann. Wahrnehmung als Informationsgewinn aus Umwelt- und Körperreizen setzt Aufnahmeorgane als Rezeptoren voraus, ebenso Transportleitungen durch Nerven und Speicherkapazitäten im Gehirn. Es herrscht ein immenser Informationsüberfluss / Information overload. Das subjektive Abbild der Marktrealität ist daher selektiv reduziert und gefärbt. Insofern kann möglichst viel Information, wie sie etwa im Rahmen der Verbraucherpolitik gefordert wird, nicht unbedingt zu einer

572

Kap. IX: Kundeninformationen

Welcher der beiden mittleren Kreise ist größer?

Welcher der beiden Kreise ist größer?

Welcher der mittleren Quadrate ist größer?

Abbildung 161: Optische Täuschungen

Verbesserung der Entscheidungsqualität, sondern im Gegenteil zu einer Verringerung durch Überlast führen. Der erforderliche Informationsumfang ist abhängig von Art und Menge der bereits im Gedächtnis abgespeicherten Daten, vom wahrgenommenen Kaufrisiko, von der Komplexität der Entscheidung und dem Aufwand zur Informationsbeschaffung. Die Orientierungsreaktion als Wahrnehmung ist angeboren. Sie löst bei neuartigen Stimuli außerhalb des Bewusstseins einen Mechanismus aus, der die Aufmerksamkeit reflexiv auf diese Reize in Abhängigkeit von deren Intensität, Größe, Farbigkeit oder Bewegung richtet, etwa durch Kopfwenden. Dabei sind nicht die absoluten Werte ausschlaggebend, sondern deren Kontrast zum Umfeld. Die Wahrnehmung selbst erfolgt durch Sehen, Hören, Riechen, Schmecken und Tasten. Sie umfasst im Einzelnen neben der Aufnahme und Verarbeitung auch die Speicherung und den Verlust von Informationen. 2.4.2 Informationsaufnahme Aufgrund der Unvollkommenheit der menschlichen Sinnesorgane und der begrenzten Informationsverarbeitungskapazität kommt es zu Information chunks. Dies ist die Zusammenfassung einzelner Informationen zu Blöcken. Diese Schlüsselinformationen sorgen für den Transfer des gebündelten Eindrucks auf einzelne Objektmerkmale, von denen keine aussagefähigen Informationen vorliegen. Typische Information chunks sind

2. Konsumentenverhalten

573

• Markenname/-logo, daher prominent platzieren, • Testergebnis von Stiftung Warentest o. Ä., • Produktpreis aufgrund Preis-Qualitäts-Vermutung, • Herkunftskennzeichnung (Made in …), • Markterfolg (wie Nr. 1, meistverkauft), • Marktbestand (seit 18…), • Expertenempfehlung („alter Weiser“, „Mutter“ o. Ä.), • Herstellerhinweis im Zuge des Endorsed branding (Aus dem Hause …). Dadurch wird eine extensive Informationssuche vermeidbar und eine entscheidende Kaufvereinfachung erreicht. An die Stelle einer umfassenden Verarbeitung aller relevanten Informationen tritt damit die Orientierung an wenigen, als zen­ tral vermuteten Kriterien. Dazu wird eine verlässliche Beziehung zwischen diesen Schlüsselinformationen und der ganzheitlichen Objektbewertung unterstellt. Es handelt sich stets um komprimierte, die begrenzte Informationsverarbeitungskapazität wenig beanspruchende Informationseinheiten. Informationsüberlastung führt ansonsten (bei privaten Entscheidern) zu einem Käuferverhaltensphänomen, das durch externe Reize wie Produkte, Werbebotschaften oder situatives Umfeld ausgelöst wird und durch eine temporäre Störung bei diesen zu suboptimalen Kaufentscheidungen führen kann. Diese Consumer confusion ist dabei abzugrenzen von kognitiver Dissonanz (Kaufreue), da sie auch unbewusst vorkommt, und von Risikoempfinden, da sie auch ohne Risiko vorhanden ist. Consumer confusion (Konsumentenverwirrtheit) wird in ihrer Intensität konzeptionell durch Moderator- und Mediatorvariable bestimmt. Moderatoren sind Variable, die neben der unabhängigen Variablen Einfluss darauf nehmen. Dabei handelt es sich etwa um Alter, Geschlecht, Bildungsstand der Konsumenten. Die Zusammenhänge sind hier mehrdeutig und hängen u. a. von der Produktgruppe ab. Mediatoren sind Variable, die ihrerseits von der unabhängigen Variablen beeinflusst werden und insoweit darauf einwirken. Dabei handelt es sich etwa um das zur Verfügung stehende Zeitbudget, die Erfahrung mit der Produktkategorie, das Involvement und das Kaufumfeld (z. B. Kaufanlass, Stimmung). Consumer confusion hat negativen Einfluss auf die Marken-/Firmen-Loyalität durch Verwechslung der Absender, führt zur Unzufriedenheit / Reaktanz als Beeinflussungsvermeidung und zur Kaufzurückhaltung aus Unschlüssigkeitserwägungen. Als Verursacher werden vor allem folgende gesehen: • Stimulusähnlichkeit beruht auf der Generalisierung vergleichbarer, aber verschiedener Reize. Dies ist vor allem durch ähnliche Werbebotschaften verschiedener Absender bedingt, also Austauschbarkeit der Werbung, Me too-Positionierung, aber auch durch ähnliche Produkt-/Dienstleistungsangebote. Zu denken ist an

574

Kap. IX: Kundeninformationen

Handelsmarken, die Herstellermarken nachempfunden sind, an bewusste Produktpiraterie, an gattungstypische Auftritte von Produkten wie bei Bier, Mode oder dekorativen Kosmetika sowie Dachmarkenstrategien mit Produktfamilien, deren Mitglieder sich zum Imagetransfer bewusst stark ähneln. Abhilfe schafft die Achtsamkeit und Differenzierung gegenüber konkurrierenden Reizen. In U. S.-Tests wurde so nachgewiesen, dass mehr Marmeladenmarken/-sorten im Handelssortiment statt zu einer Steigerung zu einer Reduzierung der Kauflust führen („Marmeladenparadox“). • Stimulusüberlastung bezeichnet den Anteil der nicht beachteten Informationen an den insgesamt angebotenen Informationen. Wird dieser Anteil zu gering, also die Relation aller Informationen zu den beachteten ungünstig, entsteht Informationsstress. Ein Mehr an Information führt dann nicht mehr zu besseren Entscheidungen. Informationsüberlastung entsteht durch Ausweitung der Werbeaktivitäten jedes Anbieters (Budgetinflationierung), durch immer mehr angebotene Produkte / Dienste und durch immer mehr bediente Ansprachekanäle (Werbeträger). Dazu tragen auch gesetzliche Pflichtangaben auf der Packung oder in der Werbung bei sowie Zeitstress beim Einkauf. Abhilfe schafft hier, soweit darstellbar, die Reduktion des Reizumfelds, z. B. der Kaufablenkung. • Stimulusunklarheit entsteht durch unklare Botschaften, z. B. Bezeichnung als Ökoprodukt oder Fachbegriffe wie Milchtrockenmasse, Hartweizenanteil, durch bewusste Verringerung der Markttransparenz, z. B. durch Preisbaukästen bei homogenen Produkten, durch Verwendung schwer verständlicher Fremd- und Kunstworte (z. B. Come in and find out / Douglas), weiterhin durch komplexe Produkte, z. B. Multifunktionsgeräte als Scanner, Fax, Drucker, Kopierer, geplante Obsoleszenz mit überzogen kurzen Produktlebenszyklen, Pseudoverbesserungen etc. Abhilfe schaffen generell Maßnahmen zur Komplexitätsreduktion. Diese erfolgen • seitens der Konsumenten durch z. B. die Fokussierung auf das eigentliche Einkaufsziel, die Suche nach zusätzlichen, absichernden Informationen, die kriteriengestützte Elimination von Wahlalternativen aus dem Auswahl-Set oder die Beratung / Unterstützung beim Kaufentscheid durch Dritte, notfalls auch die Verschiebung des Kaufentscheids. Weitere Aktivitäten betreffen das Gewohnheitskaufverhalten, die Senkung des Anspruchsniveaus auf eine zufrieden stellende Alternative oder die ersatzweise Orientierung am Preis zur Wahl. • seitens der Hersteller durch Hygienefaktoren, d. h. ihr Nichtvorhandensein wird zwar abgestraft, ihr Vorhandensein aber nicht honoriert. Dazu tragen die Verwendung von Schlüsselinformationen (z. B. Bilder) bei, weiterhin Überraschungseffekte, klare Packungsgestaltung und Programmbereinigung (Breite). Außerdem Differenzierung / Alleinstellung von Produkten und Werbebotschaften, bessere Produkterläuterung durch Bedienungsanleitung o.  Ä., selektive Distribution (z. B. nur über beratenden Fachhandel), Verzicht auf Partiengeschäfte in fachfremden Absatzkanälen, überbordende Sonderangebote o. Ä.

2. Konsumentenverhalten

575

• seitens des Einzelhandels durch die Optimierung des Sortiments innerhalb der Kategorie mit Hilfe von ECR, die Qualifizierung der Kunden durch Fragetech­ niken, den Verzicht auf häufige Platzierungswechsel, die Verringerung der Sortimentsbreite und -tiefe (analog Discounter-Sortiment) bei Beibehaltung der Visibilität. Weiterhin über mehr Beratungsservice des Personals, die Vermittlung von Einkaufserlebnis und die Schärfung des Vertriebsschienenprofils. Reaktanz beschreibt demgegenüber den Widerstand im Publikum gegen ein penetrantes Übermaß an manipulativer Bevormundung und ist eine auf die Wiederherstellung der eigenen Freiheit gerichtete motivationale Erregung. Je massiver ein Individuum sich bedrängt und damit in seinem Entscheidungsfreiraum eingeengt fühlt, in desto stärkerem Maße bildet sich bei ihm die Motivation heraus, sich der Einengung zu entziehen und den gefährdeten / verlorenen Freiraum zu verteidigen / wiederzugewinnen. Voraussetzung ist dabei, dass die Kommunikationsempfänger den auf sie ausgeübten Werbedruck wahrnehmen und der bedrohte Freiheitsspielraum ihnen subjektiv wichtig ist. Reaktanzen sind umso größer, als je stärker der wahrgenommene Beeinflussungsdruck auf Verhaltensweise / Meinung empfunden wird, je größer die Bedeutung der beschränkten oder von Beschränkung bedrohten Verhaltensweise / Meinung ist, je mehr die eigene von der kommunizierten Verhaltensweise / Meinung abweicht, je größer deren Anteil am gesamten Verhaltens-/Meinungsrepertoire ist und je mehr der Freiheitsspielraum eingeschränkt wird.

2.4.3 Informationsverarbeitung In der Wahrnehmungsforschung sind unterschiedliche Informationsverarbeitungsmodelle entwickelt worden. Am bekanntesten ist das ELM-Modell. Das Elaboration Likelihood Model (nach Petty / Cacioppo) geht von zwei Routen der Wahrnehmung aus, einer zentralen Informationsverarbeitung bei hohem Involvement sowie einer peripheren Informationsverarbeitung bei niedrigem Involvement. Bei zentraler Informationsverarbeitung erfolgt eine intensive kognitive Verarbeitung von produktrelevanten Informationen, die Einstellungen sind relativ dauerhaft und mit hoher Verhaltensrelevanz versehen. Bei peripherer Informationsverarbeitung erfolgt eine Verarbeitung mit niedrigem kognitiven Aufwand, Einstellungen sind temporär und von geringer Verhaltensrelevanz. Die kognitiven Ansätze beschäftigen sich mit dem verstandesmäßigen Lernen anstelle des Lernens durch Repetition / S – R. Dabei wird insbesondere auf Gedächtnisinhalte zurückgegriffen. Man spricht auch von S – I – R-Modellen mit I für Information. Zu diesen Ansätzen gehören das Lernen durch Einsicht, das Lernen am Modell und das Lernen durch Rezeption. Lernen durch Einsicht, auch Lernen durch Verstehen, geht von der Annahme aus, dass das Verhalten der Menschen durch die geistige Bewältigung vorhandener

576

Kap. IX: Kundeninformationen

Situationen, vor allem durch das Erkennen deren jeweiliger Zusammenhänge, also der Ziel-Mittel-Beziehungen, gelenkt wird. Ist diese Einsicht vorhanden, können auch Situationen, die neuartig oder ungewohnt sind, rasch und erfolgreich bewältigt werden. Gewonnene Einsichten sind erfahrungsbedingt und werden im Gedächtnis abgespeichert, so dass sie für ähnliche Situationen abrufbar bleiben. Ist ein Organismus in der Lage, die in einer bestimmten Situation relevanten Kaufalternativen mit seinen Zielvorstellungen zu verknüpfen, kann er also die Konsequenzen seiner Entscheidung antizipieren und so seine Lage bewältigen. Maßstab ist ihm dabei seine Nutzenmaximierung. Es entsteht eine strukturierte Umweltwahrnehmung und Identifikation, die es erlauben, Lösungskonzepte nicht nur auf gleiche, sondern auch auf ähnliche Situationen anzuwenden. Es wird also keine Reiz-Reaktions-Verknüpfung angenommen. Dabei wird vornehmlich auf die aktuelle Problemstruktur abgestellt, gewohnheitsmäßiges Verhalten ist dadurch hingegen kaum erklärbar. Lernen am Modell, auch Lernen durch Leitbild oder aspiratorisches Lernen, ist eher imitativ fundiert. Ein Individuum als Nachahmer beobachtet dabei ein anderes als Modell in einer neuartigen Situation und ahmt dessen Verhalten in ihm geeignet erscheinenden Situationen nach. Dabei geht es um die Nachahmung vorbildlicher Leitfiguren, die aus verschiedensten Bereichen des sozialen Umfelds stammen können. Beobachter lernen, die vorgeführte Verhaltenssequenz selbst auszuführen. Das Verhalten muss nicht direkt beobachtet sein, es kann auch über Medien oder durch Beschreibung vermittelt werden. Vor allem Personen mit geringer Selbstwerteinschätzung und solche, die zwischen dem Vorbild und sich selbst eine Ähnlichkeit zu erkennen glauben, zeigen hohe Nachahmungsbereitschaft. Insofern kommt es hierbei zu einer Verknüpfung mit soziologischen Aspekten. Art und Ausmaß des Erlernten sind vom Beobachter, von der beobachteten Situation und von der beobachteten Person abhängig. Der Beobachter steuert die Situation durch den Grad seiner Bereitschaft zur Aufnahme von Informationen. Die beobachtete Situation hat umso mehr Einfluss, je ähnlicher sie solchen ist, die auch für den Beobachter gelten oder gelten können. Von der beobachteten Person kann umso eher Verhalten übernommen werden, je besser dieses beobachtbar ist. Lernen stellt somit einen aktiv gesteuerten Prozess erlebter Erfahrung dar. Für das Lernen ist es jedoch nicht erforderlich, dass der Beobachtende eine Handlung selbst ausführt oder für die Nachahmung belohnt wird. Es vollzieht sich selbst ohne Verstärkung, der reine enge Zusammenhang reicht aus. Das Lernen erfolgt über bildliche und sprachliche Kommunikation, die zu dauerhaften und abrufbaren Vorstellungen vom beobachteten Verhalten führt und vom Individuum gespeichert werden kann. Wichtig sind die Aufmerksamkeit beim Betrachter, Gedächtnisleistung, Reproduktion der Ausführung und Verstärkung. Lernen erfolgt also durch die Übernahme von Gebrauchserfahrungen. Wird etwa in Redaktion oder Werbung suggeriert, die Verwendung bestimmter Kosmetika oder Kleidungsstücke führe zu erhöhter sexueller Anziehungskraft, so können Konsumenten, für die dies erstrebenswert ist, versuchen, diesen Erfolg durch Kauf

2. Konsumentenverhalten

577

dieser Produkte auf sich zu übertragen. Dabei werden leicht moralische Grenzen überschritten. Diese Form des Lernens ist auch entscheidend für die Sozialisation des Menschen. Er lernt von frühester Kindheit an, Bezugspersonen, im Regelfall die Eltern, als Modelle zu beobachten und nachzuahmen. Oder sich, als Ausdruck des Protests, von diesen abzusetzen. Sozialisation betrifft das Erlernen von sozialen Spielregeln, deren Verinnerlichung erfolgt durch Internalisierung. Das daraus resultierende Handeln kann zweckrational, also auf Erfolg gerichtet, wertrational, also auf Erhaltung von Moral, Sitte, Anstand gerichtet, affektional, also gefühlsmäßig und spontan, oder traditional, also gewohnheitsmäßig wie immer, sein. Auf dem Lernen am Modell basiert die Testimonial-Werbung mit „Verbraucherzeugen“ und Prominenten („Celebrities“). Diese Personen gelten häufig als Verhaltensvorbild und werden daher von Konsumenten imitiert, nicht nur in Kleidungsstil, Haartracht o. Ä., sondern eben auch in Bezug auf die Produktpräferenz. Weiterhin gibt es das Lernen durch Rezeption wie seinerzeit in der Schule. Es ist im Unterschied zum Lernen durch Einsicht oder am Modell kein unbeabsichtigtes Lernen, sondern die bewusste Informationsaufnahme, Datenverarbeitung und Verhaltensänderung. Dieses erfolgt durch Unterweisung und ist von der Intelligenz abhängig. Intelligenz drückt sich in räumlichem Vorstellungsvermögen, Auffassungsgeschwindigkeit, Rechentalent, Sprachverständnis, Wortgewandtheit, Gedächtnis und Schlussfolgerungen aus. In der Werbung führt dies zu, meist pseudowissenschaftlichen, Erklärungen, so über die Entstehung und die Gefahren von Parodontose und die Möglichkeiten zu ihrer Vorbeugung durch die Wahl einer spezialisierten Zahncreme, die Bedeutung der Haarwurzeln für Erhalt, Schuppenfreiheit und Entfettung der Haare oder die Wirkung eines Ibuprofen-Pflasters auf die Muskulatur und das Schmerzempfinden. Damit scheint dieser Ansatz auf den Bereich hoch erklärungsbedürftiger Produkte beschränkt zu sein, hat dort aber durch seinen aufklärenden Charakter durchaus seine Berechtigung. Wenig sinnvoll ist er jedoch bei „normalen“ Produkten, bei denen eine solche Aufblähung leicht durchschaubar ist.

2.4.4 Informationsspeicherung Die Wahrnehmung erfolgt selektiv über verschiedene Stufen des Gedächtnisses und nur Informationen, die all diese Hürden überstehen, haben einigermaßen Bestand. Es sind solche Reize zu bevorzugen, die von sich aus Aufmerksamkeit schaffen, weil sie assoziativ wirken. Es können nur schwer gleichzeitig unterschiedliche Informationen erfasst werden. Denn raum- und zeitgleiche Reize treten in Konkurrenz zueinander und beeinträchtigen sich gegenseitig, daher ist es besser, sich auf einen Reiz zu konzentrieren. Die Wirkung ist dabei größer, wenn auf verschiedene Sinnesorgane identische Informationen eingehen. Je leichter Elemente

578

Kap. IX: Kundeninformationen

verarbeitbar sind, desto eher werden sie wahrgenommen. Assoziationen erleichtern die Verarbeitung von Informationen, daher sollte man Eselsbrücken anbieten wie Alliterationen bei „Mars macht mobil …“ oder bildhafte Namen bei „Zewa wisch & weg“. Die Relevanz von Botschaften und ihre Glaubwürdigkeit sind zentral für die Gedächtnisverankerung. Das Gedächtnis hat die Fähigkeit, Ereignisse zu behalten und mehr oder weniger originalgetreu zu reproduzieren. Von Datenspeichern, die in diesem Sinne auch ein Gedächtnis haben, unterscheidet sich das menschliche Gedächtnis dadurch, dass Ereignisse nicht nur passiv abgespeichert, sondern auch aktiv bearbeitet werden können. Denken besteht im Einzelnen aus Beurteilen, Ordnen, Abstrahieren, Weiterentwickeln. Es bedarf zum Erinnern, Umstrukturieren, Schlussfolgern jedoch nicht des Rückgriffs auf aktuelle Wahrnehmungen, sondern wird aus Gedächtnisinhalten gespeist. Denken ist von den Denkumständen, also situativen Faktoren wie Zeitdruck oder Sozialdruck, abhängig, sowie von Produktkategorien in Bezug auf deren Neuartigkeit, Wert, Kauffrequenz, Verwendungsdauer oder Verwendungszweck und den Prädispositionen, also Risikoneigung, Impulshaftigkeit, Informationsbedürfnis oder Ich-Beteiligung. Das Gedächtnis hebt auf Informationsverarbeitungsprozesse im Lang- und Kurzzeitgedächtnis der Käufer ab. Das heißt, zwischen Stimulus etwa als Packung und Reaktion darauf als Kauf werden verstandesmäßig gesteuerte Prozesse als bewusste Informationsverarbeitung gesehen, die den Zusammenhang erklären. Dazu bedarf es bewusster Informationsgewinnungsaktivitäten der Käufer. Interessant ist, wie Gelerntes im Gedächtnis abgespeichert wird und wie Informationen und Persönlichkeit interagieren. Dafür gibt es mehrere Ansätze. Ausgangspunkt des Mehrspeichermodells ist eine unstreitig unübersehbare Flut von Informationen optischer, akustischer, haptischer, olfaktorischer und degustativer Art. Das Mehrspeichermodell, das nicht neurologische Gegebenheiten im Gehirn darstellt, gliedert das Gedächtnis, allerdings nicht ganz überschneidungsfrei, in zwei Speicher mit sehr großer Aufnahmekapazität und eher begrenzter Speicherdauer sowie einen Speicher mit begrenzter Kapazität und langer Speicherdauer, oder genauer, in Ultrakurzzeit-, Kurzzeit- und Langzeitgedächtnis der Käufer (siehe Abbildung 162: Prinzip des Mehrspeichermodells). Es stellt dar, wie Informationen auf zwei Wegen, durch die Umwelt und durch das Gedächtnis, zur Verarbeitung gelangen. Der Ultrakurzzeitspeicher dient der Informationsaufnahme, der Kurzzeitspeicher der Informationsverarbeitung und der Langzeitspeicher der Informationsablage (Kroeber-Riel). Im Ultrakurzzeitgedächtnis (auch sensorischer Informationsspeicher / SIS) werden Eindrücke nur kurzzeitig zwischengespeichert und zu Reizkonstellationen kombiniert etwa als optische und akustische Signale. Dies erfolgt durch Umwandlung der Reizkonstellation in bioelektrische Signale und deren Weiterverarbeitung. Dazu bedarf es noch keiner gerichteten Aufmerksamkeit, sondern es werden beliebige Signale aufgenommen. Die Speicherkapazität ist dort sehr groß

579

2. Konsumentenverhalten

Ultrakurzzeit-

Kurzzeit-

Langzeit-

Speicherdauer

Abbildung 162: Prinzip des Mehrspeichermodells

und die Zugriffsgeschwindigkeit sehr hoch. Die Speicherdauer liegt allerdings unter einer Sekunde, erste kognitive Weiterverarbeitungsprozesse bei als relevant erachteten Reizen werden eingeleitet. Dies betrifft vor allem die Weiterleitung an den Kurzzeitspeicher. Der Ultrakurzzeitspeicher betrifft also nur die Aufnahme von Informationen. Dann erfolgt die Weiterleitung an das Kurzzeitgedächtnis (auch Kurzzeit­ speicher / ​KZS). Dort werden die Reize in Abhängigkeit vom Aktivierungspotenzial ausgewählt und zu gedanklich verarbeiteten Informationen umgewandelt. Je nach Bedeutung, die im Wesentlichen auf Rückgriff auf Erfahrung beruht, werden mehr oder weniger Informationen gespeichert und miteinander verknüpft. Irrelevante Reize werden hier bereits gelöscht, denn die Kapazität dieses Speichers ist eng begrenzt. Durch Memorieren kann die Verweilzeit von normalerweise einigen Sekunden bewusst auf bis zu 15 Sekunden verlängert werden, um Reize zu entschlüsseln und in kognitiv verwertbare Informationen umzuwandeln, mit weiteren Informationen in Beziehung zu setzen und zu größeren Informationseinheiten zu organisieren. Die Verarbeitung umfasst also die Verdichtung der Informationseinheiten, ihre Verknüpfung mit bereits vorhandenen Informationen, den Zugriff auf abgespeicherte Informationen und die Steuerung des beobachtbaren Verhaltens. Der Kurzzeitspeicher ist zugleich ein Arbeitsspeicher als aktives Gedächtnis und die zentrale Einheit zur Informationsanalyse. Dabei werden relativ kleine Informationsmengen kurzfristig gespeichert, durch Denkprozesse verarbeitet und auf das Wesentliche reduziert. Die Funktionen werden teils unbewusst durchgeführt. Die einzelnen Verarbeitungsmöglichkeiten umfassen also neben dem Memorieren: • das Kodieren von Informationen als Verdichtung der Informationseinheiten und Weiterverarbeitung des Sinninhalts, • das Verknüpfen neuer mit im Gedächtnis bereits vorhandenen Informationen, • den Zugriff auf im Gedächtnis abgespeicherte Informationen, • die Steuerung beobachtbaren Verhaltens als Umsetzung.

580

Kap. IX: Kundeninformationen

Im Langzeitgedächtnis (auch Langzeitspeicher / LZS) werden die verarbeiteten Informationen langfristig gesichert. Es kommt jedoch zum Absinken in Abhängig­ keit von der Zeit oder zur Überlagerung in Abhängigkeit von der Eindrucksstärke der Daten, so dass diese im Entscheidungszeitpunkt nicht mehr verfügbar sein können, obwohl sie rein biologisch noch vorhanden sind. Hilfreich sind hier Ähnlichkeit, Kontrast und Kontinuität von Reizen. Außerdem haben mehrkanalige Signale eine höhere Chance der Erinnerung als einkanalige. Der Langzeitspeicher ist als aktives Netzwerk zu verstehen, das aus Knoten und gerichteten Verbindungslinien besteht. Die Knoten stehen für Objekte und Objekteigenschaften bzw. Ursachen und Ereignisse wie Begriffe oder Situationen, die Verbindungslinien geben die Beziehungen zwischen diesen Knoten nach Art, Richtung und Intensität an. Der Langzeitspeicher betrifft also die Ablage von Informationen. Tatsächlich sind die Speicher nicht so eindeutig abgrenzbar, wie hier modellhaft dargestellt. Dennoch kann eine Pyramide wie folgt unterstellt werden. Die Grundgesamtheit stellen alle Informationen über alle Angebote dar, die jedoch so zahlreich sind, dass sie sinnlich nicht erfasst werden können. Durch Anbieterkommunikation wird daraus die übermittelte Information, welche die Sinnesorgane erreichen kann. Durch selektive Wahrnehmung kommt je nach Umsetzung nur ein Ausschnitt relevanter Informationen im SIS an. Daraus werden die wichtigen Informationen identifiziert und in den KZS überführt, dabei hilft eine prägnante Positionierung. Von diesen Informationen wird wiederum nur ein Teil im LZS abgelegt, und zwar in Abhängigkeit von Impact und Frequenz der Botschaften. Dort wiederum sind nur Teile der Information auch tatsächlich abrufbar, wenn akuter Bedarf danach besteht. Von diesen wiederum ist nur ein Teil wirklich objektiv zutreffende Information in Bezug auf Marke und Anbieter. Doch allein diese, übrig bleibende Information entscheidet letztlich über Kauf oder Nichtkauf von Produkten, sogar über die Existenz von Unternehmen. Wenn nur ein Teil der Informationen, die wahrgenommen werden, ins Ultrakurzzeitgedächtnis gelangt, und von diesen nur ein Teil ins Kurzzeitgedächtnis, und von diesen wiederum nur ein Teil ins Langzeitgedächtnis, worauf es allein ankommt, dann stellt sich die Frage, wie Kommunikation beschaffen sein muss, die eine möglichst hohe Chance hat, diese Filter zu überwinden. Dafür gibt es zwei erfolgversprechende Ansätze. Möglichst ungewöhnliche, kreative Kommunikation wird eher kognitiv im Ultrakurzzeitgedächtnis wahrgenommen als andere, im Kurzzeitgedächtnis als neuartig qualifiziert und, falls relevant, im Langzeitgedächtnis auch verankert. Damit ist kreative Kommunikation ein sicherer Weg ins Gedächtnis, vorausgesetzt, die Botschaft wird als involvierend erachtet. Möglichst häufige Wiederholung wird unvermeidlich irgendwann kognitiv wahrgenommen, als ähnlich mit bereits unbewusst wahrgenommenen Informationen qualifiziert und, falls relevant, verankert. Danach sind also Form und Inhalt der Kommunikation eher sekundär, es kommt vielmehr auf die Steigerung der Durchsetzungschancen durch viele Kontakte an.

2. Konsumentenverhalten

581

Die Theorie der Verarbeitungsebenen geht wegen der Überschneidungen der einzelnen Speicher nicht von diesen, sondern stattdessen von Verarbeitungsprozessen aus, die verschiedene Tiefen haben können. Tiefe Verarbeitung liegt etwa vor, wenn ein Objekt intensiv interpretiert und kategorisiert wird, flache Verarbeitung, wenn es nur oberflächlich wahrgenommen wird. Ein anderer Ansatz ist die Hemisphärentheorie, wonach die beiden Hirnhälften ganz verschiedenartig angelegt sind und die rechte Hirnhälfte holistische / ganzheitliche Informationen verarbeitet. Das Denken ist eher unbewusst, intuitiv, imaginativ, konzeptionell, das Handeln mitfühlend, musisch, mitteilsam und emotional. Schwerpunkte sind analoges Denken, Visualität, Körpersprache, Rhythmus, Räumlichkeit, Stimulanz. Die linke Hirnhälfte ist dann für rationale / analytische Denkoperationen zuständig, diese Angaben gelten für Rechtshänder. Das Denken ist logisch, linear und quantitativ, das Handeln strukturiert, kontrolliert, auf Fakten ausgerichtet und geplant. Schwerpunkte sind digitales Denken, Sprache / Lesen, Organisation, Mathematik, Planung, Details. Oder kurz: Links sitzt die Administration, rechts die Kreativität. 2.4.5 Informationsverlust Dem Behalten steht unweigerlich das Vergessen entgegen. Vergessen geht anfangs sehr rasch vor sich, nimmt aber mit der Anzahl der verstrichenen Zeiteinheiten immer mehr ab. Dafür gibt es zwei Ansätze. Nach der Theorie des autonomen Verfalls löschen sich die zeitlich am weitesten zurückliegenden Informationen aus. Das bedeutet, die Erinnerung eines Stimulus ist abhängig vom Zeitabstand zwischen Wahrnehmung und Abruf der Information. Demnach ist es bedeutsam, eine hohe Penetration von Botschaften, etwa durch hohe Kontaktintensität in der Werbung, zu erreichen, wobei die Impactstärke dann sekundär ist, etwa über kurze Reminder-Spots. Vergessen ist insofern ein rein passiver Vorgang als Funktion der Zeit. Die gestalterische Qualität der Botschaft hat demnach keinen Einfluss auf das Behalten. Dem folgt die altbekannte Hypothese, wonach Budget gute Ideen zu substituieren vermag, denn danach hat derjenige Absender die besten Aussichten, der den geringsten zeitlichen Abstand zwischen Botschaft und Kaufentscheid hat, weitgehend unabhängig von der Eindrucksqualität. Dies stellt einen impliziten Nachteil etwa für Unternehmen mit kleinem Budget. Für die Botschaftsgestaltung bedeutet dies, dass es weniger auf herausragende Kreativität ankommt als auf Schaltfrequenz. Dass dies nicht ohne Wirkung bleibt, beweisen geschmacklich zurecht umstrittene Werbemittel für diverse FMCGs, die im Gedächtnis jedoch so verhaftet bleiben, dass sie in der konkreten Kaufsituation zweifellos präsent sind, wohingegen ob ihrer kreativen Umsetzung hoch gelobte Werbemittel mangels Nachhaltigkeit schnell in Vergessenheit geraten. Kritisch ist anzumerken, dass häufig Erlebnisse der weit zurückliegenden Vergangenheit sehr gut erinnert werden, etwa aus der Schulzeit, vom ersten Kuss oder

582

Kap. IX: Kundeninformationen

der Führerscheinprüfung, wohingegen Erlebnisse der jüngsten Vergangenheit verloren gehen. Dies dürfte nach dieser Theorie nicht sein. Also sind zumindest auch andere Faktoren als die Zeit relevant. Nach der Interferenztheorie geht im Gedächtnis zwar nicht die Information selbst, wohl aber der Zugriff auf deren Speicherplatz durch Überlagerung anderer Signale verloren. Das bedeutet, die Erinnerung eines Stimulus ist abhängig von der Impactstärke anderer, in unmittelbarer zeitlicher Umgebung befindlicher Stimuli. Dabei kann es zu einer proaktiven Hemmung durch Informationen vorher oder zu einer retroaktiven Hemmung durch Informationen nachher kommen. Demnach ist es bedeutsam, impactstarke werbliche Umsetzungen zu nutzen, um die Beeindruckungswirkung konkurrierender Reize zu übertreffen etwa durch besonders hohe zielgerichtete Kreativität. Vergessen ist hierbei ein aktiver Vorgang als Funktion der Konkurrenz. Dies ist in der Kommunikation von hoher Bedeutung etwa bei Klassischen Werbemitteln. Die einzelne Anzeige, der einzelne Hörfunk- oder Fernsehspot steht immer in Konkurrenz zur Umgebung der anderen Werbemittel, also der weiteren Anzeigen in der Zeitschrift / Zeitung, der weiteren Spots im Hörfunk- oder Fernsehwerbeblock auch zu den vorhergehenden und nachfolgenden redaktionellen Inhalten. Daraus folgt, dass die Behaltenschance umso geringer ist, je mehr und eindrucksvollere Informationen in dieser Umgebung stattfinden, also je mehr Anzeigen im Heft oder je mehr Spots im Werbeblock vorhanden sind, aber auch je impactstärker das redaktionelle Umfeld ist. So bewirken hochwertig gemachte Zeitschriftenbeiträge, vor allem mit hohem Bildanteil, eine implizite Abwertung von Anzeigen, da letztere als weniger impactstark erlebt werden als erstere. Sogar Einfügungen wie die beliebten Mainzelmännchen im ZDF beeinträchtigen danach die Wirksamkeit der vorher und nachher geschalteten Spots, weshalb werbefinanzierte Sender konsequent auf solche Gimmicks, welche die Leistung für ihre Kunden gefährden, verzichten, sondern die optische und akustische Trennung von Programm und Werbung weniger auffällig realisieren. Die Wahrheit wird wohl zwischen beiden Polen liegen. Es kommt sowohl darauf an, eine hinreichende Nachhaltigkeit in der Verbreitung von Botschaften zu gewährleisten, um stets präsent zu sein, als auch in der Umsetzung möglichst merkfähig zu bleiben. Wer beides zusammen schafft, ist beinahe unschlagbar.

2.5 Prozessmodelle bei Neuerungen 2.5.1 Adoption Marktforschungserkenntnisse sind besonders bei risikoreichen Projekten willkommen. Prozessmodelle betrachten daher nicht das Käuferverhalten in seinem Ergebnis, sondern in seinem Zustandekommen. Denn wenn man den Prozess kennt,

2. Konsumentenverhalten

583

kann man ihn so zu beeinflussen suchen, dass das gewünschte Ergebnis entsteht. Dies ist vor allem bei Markt- oder Unternehmensinnovationen von Bedeutung. Unter Adoption versteht man dabei allgemein die erstmalige Übernahme von Neuerungen durch Erstkäufer im Zeitablauf. Im Adoptionsprozess kommt es kumulativ zu folgenden Stufen (siehe Abbildung 163: Adoptions-Funnel).

Abbildung 163: Adoptions-Funnel

Am Anfang steht die Neuheitserkennung durch Aufmerksamkeit. Innovatoren reagieren dabei unabhängig von der Übernahmeentscheidung anderer. Hier erfährt ein Individuum erstmalig von der Existenz des für ihn neuen Produkts, ohne dass es sich um die Gewinnung dieser Informationen bemüht hat. Es kennt noch keine Einzelheiten des Produkts und ist zunächst auch nicht motiviert, weitere Informationen einzuholen. Aufgabe des Marketing ist es, das Angebot auf dem Schirm der Opportunitäten bei möglichst vielen Personen der Zielgruppe erscheinen zu lassen. Teilweise folgt daraus Neuheitsinteresse durch Einstellungsbildung. Hier bemüht sich der Nachfrager um Informationen über die wichtigsten Merkmale des neuen Angebots. Passive sind Personen, die sich für die Innovation nicht interessieren. Sie scheiden im Folgenden aus. Aufgabe der Werbung ist es, das Angebot nicht nur bekannt zu machen, sondern die konkrete Auseinandersetzungsbereitschaft mit diesem in der Zielgruppe zu erreichen. Dies ist generell angesichts der übergroßen Informationsflut schwierig, aber bei High interest-Produkten eher möglich als bei Low interest-Produkten. Darauf folgt die Neuheitsbewertung und Entscheidung. Hier erfolgt ein gedankliches Experiment über die Konsequenzen finanzieller, psychologischer und so-

584

Kap. IX: Kundeninformationen

zialer Art und den Vergleich des neuen Produkts mit der möglichen Substitution anderer Produkte. Rejektoren sind Personen, welche die Innovation ablehnen, Adoptoren solche, welche die Innovation annehmen. Aufgabe der Werbung ist es, den Zielpersonen Bewertungskriterien an die Hand zu geben, die diese erstens nachvollziehen können (z. B. Warentestergebnis, Verbraucherzeuge, Torture test) und zweitens das eigene Angebot möglichst gut dastehen lassen, so dass es gegenüber anderen präferiert wird. Es kommt zum Neuheitsversuch mit Implementierung. Die Neuheit wird bei positiver Einstellung übernommen. Unzufriedene Adopter sind potenzielle Quellen für negative Informationen. Falls möglich, kommt es zuerst zu einer Erprobung auf kleiner Basis als Pilot. Aufgabe der Anbieter ist es, diesen Neuheitsversuch zu stimulieren, etwa über die Auslobung von Probierangeboten, Probenverteilung, Cashback-Aktion o. Ä. Dazu ist, außer bei einer völlig neuen Produktkategorie, immer ein Markenwechsel erforderlich, der eine hohe Hürde darstellt. Schließlich erfolgt die Neuheitsumsetzung und Bestätigung. Imitatoren orientieren sich am Verhalten der Innovatoren und folgen ihnen in der Übernahme der Neuerung. Bei Gebrauchsgütern ist der Kauf die Adoption, bei Verbrauchsgütern die Vorratserschöpfung. Aufgabe der Werbung ist die Schaffung und Verfestigung einer Beziehungsbasis zwischen neuem Nachfrager und Anbieter. Hilfsmittel dazu sind Kundenbindungsinstrumente wie Kundenclub-Aufnahme, First party cookies, Regalplatzsicherung o. Ä. Auf jeder dieser Stufen kann es zur Ablehnung kommen, bei Erfolg entsteht ein Wiederholungskauf, ansonsten nicht. Die Dauer des Adoptionsprozesses hängt von einer Reihe personen-, umfeld- und produktbedingter sowie adoptionsexogener Einflussgrößen ab. Die Übernahme ist in Bezug auf personenbedingte Einflüsse umso erfolgreicher, je • höher die Risikofreudigkeit für die Übernahme ist, diese ist individuell stark abweichend ausgeprägt, • größer die individuelle Aufgeschlossenheit im Hinblick auf Änderungen ist, • jünger die angesprochenen Zielgruppen sind, weil damit eine höhere Flexibilität unterstellt wird, • besser der Ausbildungsgrad der angesprochenen Altersklassen ist, damit eng korrelierend das Einkommen, • höher sozialer Status und soziale Mobilität sind, • intensiver das Informationsverhalten und je höher die Informationsoffenheit sind, • geringer die Einbindung des Individuums in die soziale Umwelt ist, wodurch externe Risiken gemindert werden.

2. Konsumentenverhalten

585

Die Übernahme ist in Bezug auf umfeldbedingte Einflüsse umso erfolgreicher, je • liberaler die Normen des sozialen Systems sind, die Neuerungen zulassen und fördern, zu denken ist etwa an rechtliche Rahmenbedingungen, • innovationsfreundlicher die ökonomischen, politischen, technischen Rahmenbedingungen sind, • intensiver der bereits erlebte technische Fortschritt ist. Die Übernahme ist in Bezug auf produktbedingte Einflüsse umso erfolgreicher, je • höher der relative technische und / oder wirtschaftliche Vorteil der Innovation gegenüber der bestehenden Problemlösung ist, neue Produkte werden sich umso schneller durchsetzen, je höher die Nachfrager ihren relativen Vorteil bewerten, • geringer das finanzielle und technische Risiko eingeschätzt wird, das mit der Implementierung verbunden ist, dies ist mit der Teilbarkeit eines Produkts verbunden, etwa mit der Möglichkeit, das alte Produkt nach Probiermöglichkeit des neuen sukzessiv durch dieses zu substituieren, • leichter die Innovation für den Entscheider zu verstehen bzw. anzuwenden ist, was nur bei geringer Komplexität der Fall ist, eine hohe Erklärungsbedürftigkeit erfordert von Konsumenten die Bereitschaft und Fähigkeit zu Lernprozessen, • mehr die Innovation sich komplementär zum Werte- und Normensystem verhält, also mit Gewohnheiten eines sozialen Systems oder einzelner Subsysteme kompatibel ist, • leichter die Beobachtbarkeit bzw. Mitteilbarkeit der Innovation ist, vor allem bei Zufriedenheit, dies ist etwa dann der Fall, wenn das neue Produkt zur Bildung von Images beiträgt wie die Sichtbarkeit der Neuheit als Sozialeffekt, • geringer das wahrgenommene Risiko, das mit der Übernahme der Neuheit verbunden ist, eingeschätzt wird. Daneben gibt es adoptionsexogene Einflussgrößen als: • Erfahrungsfundus aus steigender Information über die Neuerung und sinkendem Risiko, • Übernahmedruck seitens der Gesellschaft auf die Nicht-Übernehmer. Allgemein adoptionsfördernd wirken eine hohe Glaubwürdigkeit des Botschaftsabsenders, eine leichte Überprüfbarkeit der behaupteten Werbeaussage, ein gering eingeschätztes endogenes und exogenes Risiko, ein hohes Ego-Involvement bei erfolgter Übernahme, eine Profilierung durch das Produkt im sozialen Umfeld und eine hohe Übereinstimmung mit dem eigenen Anforderungsprofil. Problematisch ist die Übertragung dieser, ursprünglich einmal für die Agrarsoziologie erdachten, Ergebnisse auf die Marketingpraxis. So ist unklar, wann es

586

Kap. IX: Kundeninformationen

zum Übergang zur nächsten Stufe im Adoptionsprozess oder zum Abbruch im Prozess kommt. Ebenso unklar bleibt, ob immer alle Stufen durchlaufen werden müssen. Auch scheint es möglich, dass eine Stufe mehrfach durchlaufen wird. Zudem bleiben Reaktionen nach der Übernahme unberücksichtigt. Bei der Ausbreitung von Neuerungen kommt es meist zunächst zur offenen Negation und Bekämpfung durch strikte Opposition, dann zur Bewertung als denkbarer Alternative und Vision, danach zur pragmatischen Formulierung und Implementierung in Planungen, dann zur versuchsweisen Umsetzung und Optimie­ rung, schließlich bei Erfolg zur Akzeptanz und sukzessiven Verbreitung bis hin zur Popularität und Etablierung durch individuelle Übernahme. 2.5.2 Diffusion Bei der Diffusion geht es um die Durchsetzung von Marktneuheiten im Zeitablauf. Ein Diffusionsprozess liegt vor, wenn die Adoptoren im sozialen System zu unterschiedlichen Zeiten im Ablauf auftreten, was regelmäßig der Fall ist. Sie stellt ein Marktreaktionsmodell mit einer unabhängigen Variablen, nämlich der Zeit, dar. Diffusion ist somit die chronologische Verbreitung neuer Informationen, Ideen, Verfahren oder Produkte durch verschiedene Kommunikationskanäle bei Individuen, Gruppen oder Kultureinheiten. Neu ist dabei alles, was als neu wahrgenommen wird, unabhängig davon, ob es auch wirklich neu ist. Durch diskontinuierliche Innovation kommt es zur Bildung einer neuen Produktklasse und zur Änderung bestehender Verhaltensmuster. Dynamisch-kontinuierliche Innovationen gliedern sich in eine bereits bestehende Produktklasse ein. Kontinuierliche Innovationen führen zu keiner beachtenswerten Änderung bestehender Verhaltensmuster, da der Produktkern unverändert bleibt und lediglich Randelemente modifiziert werden. Idealtypisch ergibt sich dabei die Form einer Glockenkurve. Sie repräsentiert die einfache Zahl der Adopter, die in einem bestimmten Zeitraum die Innovation übernehmen. Eine Diffusion ist umso erfolgreicher, je größer die erreichte Marktverbreitung ist. Die Diffusion erfolgt umso schneller, je besser das Potenzial an Übernehmern ausgeschöpft wird. Unterstellt man eine Normalverteilung innerhalb der Zielgruppe, so ergeben sich im Zeitablauf kumuliert anteilig folgende idealtypischen Klassen des Diffusionsprozesses (siehe Abbildung 164: Kumulierte Diffusionskurve). Die Innovatoren (2,5 % aller Bedarfsträger/> − 2 σ) sind die ersten Übernehmer von Neuerungen und durch eine geringe Risikoscheu gekennzeichnet. Es handelt sich entweder um Trendsetter oder soziale Außenseiter, welche die Ausbreitung dynamisch vorantreiben (auch Neophile, Konsumpioniere, Fashion leaders). Ihre typischen Charaktereigenschaften sind modern, progressiv, zukunftsorientiert. Bei ihnen sind eine hohe soziale Mobilität und eine geringe Gruppenbildung gegeben. Das Informationsverhalten ist kosmopolitisch. Gelegentlich wird davon die Gruppe

2. Konsumentenverhalten

587

Abbildung 164: Kumulierte Diffusionskurve

der Induktoren unterschieden, die den Innovatoren unmittelbar nachfolgen. Innovatoren suchen kontrollierte Abenteuer, wollen Neues ausprobieren und verstehen auch komplexe Anwendungen. Sie verfügen über entsprechende finanzielle Ressourcen. Sie nehmen eine Schlüsselposition im Diffusionsprozess ein und führen Innovationen in das soziale System ein. Dabei akzeptieren sie auch Misserfolge. Frühe Übernehmer (13,5 %/− 1