Moderne Marktforschung: Systematische Einführung mit zahlreichen Beispielen und Praxisanwendungen. Auswahlverfahren, Erhebungsmethoden, Datenauswertung, Absatzprognose [3 ed.] 9783428541959, 9783428141951

Wirtschaften heißt Entscheiden. Wer sachgerecht entscheiden will, braucht Informationen. Diese Informationen liefert im

183 78 13MB

German Pages 529 Year 2014

Report DMCA / Copyright

DOWNLOAD FILE

Polecaj historie

Moderne Marktforschung: Systematische Einführung mit zahlreichen Beispielen und Praxisanwendungen. Auswahlverfahren, Erhebungsmethoden, Datenauswertung, Absatzprognose [3 ed.]
 9783428541959, 9783428141951

Citation preview

WERNER PEPELS

Moderne Marktforschung

WERNER PEPELS

Moderne Marktforschung Systematische Einführung mit zahlreichen Beispielen und Praxisanwendungen Auswahlverfahren, Erhebungsmethoden, Datenauswertung, Absatzprognose 3., komplett überarbeitete Auflage

Duncker & Humblot · Berlin

Bibliografische Information der Deutschen Nationalbibliothek Die Deutsche Nationalbibliothek verzeichnet diese Publikation in der Deutschen Nationalbibliografie; detaillierte bibliografische Daten sind im Internet über http://dnb.d-nb.de abrufbar.

Umschlagbild: © Olivier Le Moal – Fotolia.com Alle Rechte vorbehalten

© 2014 Duncker & Humblot GmbH, Berlin

Fremddatenübernahme: TextFormArt, Daniela Weiland, Göttingen Umschlaggestaltung: L101 Mediengestaltung, Berlin Druck: KN Digital Printforce GmbH, Stuttgart Printed in Germany ISBN 978-3-428-14195-1 (Print) ISBN 978-3-428-54195-9 (E-Book) ISBN 978-3-428-84195-0 (Print & E-Book) Gedruckt auf alterungsbeständigem (säurefreiem) Papier entsprechend ISO 9706

Internet: http://www.duncker-humblot.de

Vorwort Das vorliegende Hand- und Lehrbuch „Moderne Marktforschungs-Praxis“ gibt einen systematischen Überblick über die zentralen Bereiche der Marktforschung: Grundlagen, Auswahlverfahren, Erhebungsmethoden, Datenauswertung und Absatzprognose. Hinzu kommen übergreifende und spezielle Anwendungen in der Marktforschungs-Praxis. Die Inhalte sind dabei analytisch und transferorientiert aufbereitet. Im Mittelpunkt stehen die Nutzenpotenziale der Marktforschung im Management. Die zweite Auflage erschien 2007 unter dem Titel „Market Intelligence“, war aber im damaligen Verlag nicht richtig aufgehoben. Die dritte, komplett überarbeitete Auflage erscheint mit freundlicher Unterstützung von Herrn Dr. Florian Simon, LL. M, Geschäftsführer, nunmehr im Duncker & Humblot-Verlag. Dieses Werk versteht sich als anwendungsbezogenes Lehrbuch. Es grenzt sich damit von deutlich umfangreicheren Nachschlagewerken zum Thema ab, die jedoch schwer in Handling und Verständnis sind. Sowie von zahlreichen Einführungsbüchern am Markt, denen es jedoch häufig an notwendiger Tiefe und Breite in der Darstellung mangelt. Das Buch wendet sich folglich an Studierende an Universitäten, Fachhochschulen, Akademien, Kollegs etc., die sich seriös mit dem spannenden Gebiet der Marktforschung beschäftigen wollen, etwa auch zur Klausurvorbereitung (daher finden sich auch zahlreiche Trainingsaufgaben) oder als Quelle für Seminar- und Abschlussarbeiten. Es wendet sich aber auch an ManagerInnen, die an anspruchsvoller Praxis in der Marktforschung interessiert sind, sei es in den Fachabteilungen, als Berater, als Quer- oder auch als Neueinsteiger in die Materie. Trotz intensiver Durchsicht ist vermutlich die eine oder andere Unzulänglichkeit im Text verblieben. Diese geht zu Lasten des Autors, der für Verbesserungshinweise jederzeit dankbar ist. Nun sei aber Ihnen als Leserin und Leser zunächst aller erdenkliche Erfolg bei der Durcharbeitung der Inhalte und deren praktischer Anwendung zugunsten des Unternehmensfortschritts, vor allem aber Ihres eigenen Studienerfolgs und Ihrer beruflichen Karriere gewünscht. Krefeld, im August 2013

Werner Pepels

Inhaltsübersicht 1. Grundlagen der Marktforschung . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 19 2. Auswahlverfahren zur Erhebung . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 47 3. Methoden der Primärerhebung von Informationen . . . . . . . . . . . . . . . . . . . . . . . . 92 4. Statistische Datenauswertung . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 192 5. Verfahren der Absatzprognose . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 281 6. Übergreifende Praxisanwendungen der Forschungsverfahren . . . . . . . . . . . . . . . 319 7. Spezielle Praxisanwendungen der Forschungsverfahren . . . . . . . . . . . . . . . . . . . 403 8. Trainingsaufgaben . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 464

Literaturverzeichnis . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 515 Stichwortverzeichnis . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 519

Inhaltsverzeichnis 1. Grundlagen der Marktforschung . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 19 1.1 Begriffsabgrenzung . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 19 1.2 Einsatzfelder der Marktforschung . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 22 1.3 Arbeitsphasen der Marktforschung . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 24 1.4 Erhebungsträger der Marktforschung . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 25 1.4.1 Institutsforschung . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 25 1.4.1.1 Vorteile . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 26 1.4.1.2 Nachteile . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 27 1.4.1.3 Institutsauswahl . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 28 1.4.2 Betriebsforschung . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 29 1.4.2.1 Vorteile . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 30 1.4.2.2 Nachteile . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 30 1.4.2.3 Sonderformen . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 32 1.5 Anforderungen an Informationen . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 32 1.6 Informationsbeschaffung durch Sekundärerhebung . . . . . . . . . . . . . . . . . . . . . . . 37 1.6.1 Vorteile . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 38 1.6.2 Nachteile . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 38 1.7 Datenrecherche . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 39 1.7.1 Nomenklaturen . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 39 1.7.2 Datenbanken . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 42 2. Auswahlverfahren zur Erhebung . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 47 2.1 Vollerhebung . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 47 2.2 Teilerhebung . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 49 2.3 Deduktive Datenanalyse . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 50 2.3.1 Statistische Grundbegriffe . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 51 2.3.2 Arten der Statistik . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 54 2.3.2.1 Wahrscheinlichkeiten . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 54 2.3.2.2 Verteilungen . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 56 2.3.3 Stichprobengüte . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 58

6

Inhaltsverzeichnis 2.3.4 Wahrheitsgehalt von Informationen . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 61 2.3.4.1 Reliabilität . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 61 2.3.4.2 Validität . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 62 2.3.4.3 Objektivität . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 65 2.3.4.4 Signifikanz . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 65 2.4 Zufallsauswahlverfahren . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 67 2.4.1 Reine Zufallsauswahl . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 67 2.4.2 Systematische Zufallsauswahl . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 68 2.4.3 Geschichtete Zufallsauswahl . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 69 2.4.4 Klumpenauswahl / Flächenauswahl . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 71 2.4.5 Sonderformen . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 72 2.5 Bewusstauswahlverfahren . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 74 2.5.1 Quota-Auswahl . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 75 2.5.1.1 Darstellung . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 75 2.5.1.2 Vorteile . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 77 2.5.1.3 Nachteile . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 77 2.5.2 Sonstige Verfahren . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 79 2.6 Verzerrungsmöglichkeiten bei der Auswahl . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 80 2.7 Induktive Datenanalyse . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 81 2.7.1 Schätzverfahren . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 82 2.7.2 Testverfahren . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 83 2.7.2.1 Testdurchführung . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 84 2.7.2.2 Testarten . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 88

3. Methoden der Primärerhebung von Informationen . . . . . . . . . . . . . . . . . . . . . . . . 92 3.1 Mündliche Befragung . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 92 3.1.1 Gruppeninterview . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 93 3.1.1.1 Darstellung . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 93 3.1.1.2 Vorteile . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 94 3.1.1.3 Nachteile . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 96 3.1.2 Einzelinterview . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 97 3.1.2.1 (Voll-)Standardisiertes Interview . . . . . . . . . . . . . . . . . . . . . . . . . 98 3.1.2.2 Strukturiertes Interview . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 99 3.1.2.3 Teilstrukturiertes Interview . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 100 3.1.2.4 Tiefeninterview . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 100 3.1.2.5 Allgemeine Vorteile . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 101 3.1.2.6 Allgemeine Nachteile . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 102

Inhaltsverzeichnis

7

3.1.3 Fragestrategie . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 103 3.1.3.1 Fragearten . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 103 3.1.3.1.1 Einteilung . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 103 3.1.3.1.2 Offene Fragen . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 105 3.1.3.1.3 Geschlossene Fragen . . . . . . . . . . . . . . . . . . . . . . . . . . 106 3.1.3.1.4 Hilfsregeln . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 107 3.1.3.2 Fragefunktionen . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 108 3.1.3.2.1 Instrumentalfragen . . . . . . . . . . . . . . . . . . . . . . . . . . . . 109 3.1.3.2.2 Ergebnisfragen . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 110 3.1.3.2.3 Sonderfragen . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 111 3.1.3.3 Fragetaktik . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 112 3.1.3.4 Interviewerbedeutung . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 116 3.1.3.4.1 Interviewerauswahl . . . . . . . . . . . . . . . . . . . . . . . . . . . 116 3.1.3.4.2 Interviewereinsatz . . . . . . . . . . . . . . . . . . . . . . . . . . . . 117 3.1.3.4.3 Interviewerkontrolle . . . . . . . . . . . . . . . . . . . . . . . . . . 118 3.1.3.4.4 Interviewerqualifizierung . . . . . . . . . . . . . . . . . . . . . . 119 3.2 Telefonische Befragung . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 121 3.2.1 Vorteile . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 121 3.2.2 Nachteile . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 122 3.3 Schriftliche Befragung . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 123 3.3.1 Vorteile . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 123 3.3.2 Nachteile . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 124 3.3.3 Fragebogengestaltung . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 125 3.3.4 Ursachen des Rücklaufproblems und dessen Lösung . . . . . . . . . . . . . . . . 126 3.3.5 Sonderformen der schriftlichen Befragung . . . . . . . . . . . . . . . . . . . . . . . . 128 3.4 Computergestützte Befragung . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 129 3.4.1 Bildschirmbefragung . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 129 3.4.1.1 Darstellung . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 129 3.4.1.2 Vorteile . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 130 3.4.1.3 Nachteile . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 132 3.4.2 Computerbefragung . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 133 3.4.2.1 Darstellung . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 133 3.4.2.2 Vorteile . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 133 3.4.2.3 Nachteile . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 135 3.4.3 Computergestützte Telefonbefragung . . . . . . . . . . . . . . . . . . . . . . . . . . . . 136 3.4.3.1 Vorteile . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 136 3.4.3.2 Nachteile . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 137

8

Inhaltsverzeichnis 3.5 Sonderform Omnibusbefragung . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 138 3.6 Zeit- und Kostenplanung der Befragung . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 139 3.7 Beobachtung . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 140 3.7.1 Darstellung . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 140 3.7.2 Vorteile . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 144 3.7.3 Nachteile . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 145 3.8 Experiment . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 146 3.8.1 Grundformen . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 146 3.8.2 Informale Experimente . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 149 3.8.3 Formale Experimente . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 156 3.8.4 Testarten . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 159 3.9 Online-Erhebung . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 161 3.9.1 Einordnung . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 161 3.9.2 Online-Auswahlverfahren . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 163 3.9.3 Online-Befragung . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 166 3.9.3.1 WWW-Befragung . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 167 3.9.3.2 e-Mail-Befragung . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 169 3.9.3.3 Newsgroup-Befragung . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 172 3.9.3.4 IRC-Befragung . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 174 3.9.4 Online-Beobachtung . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 177 3.9.4.1 WWW-Logfile-Analyse . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 177 3.9.4.2 Targeting und Messung . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 179 3.9.4.3 Themenorientierte Beobachtung . . . . . . . . . . . . . . . . . . . . . . . . . 182 3.9.5 Online-Experiment . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 185 3.9.6 Social media . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 186 3.9.7 Sicherung der Datenqualität . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 189

4. Statistische Datenauswertung . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 192 4.1 Skalierung von Daten . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 193 4.1.1 Skalierungsverfahren . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 193 4.1.1.1 Begrifflichkeiten . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 193 4.1.1.2 Nominalskala . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 195 4.1.1.3 Ordinalskala . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 195 4.1.1.4 Intervallskala . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 195 4.1.1.5 Ratioskala . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 196

Inhaltsverzeichnis

9

4.1.2 Skalierungstechniken . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 196 4.1.2.1 Selbsteinstufung . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 198 4.1.2.1.1 Ratingskala . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 198 4.1.2.1.2 Magnitude-Skala . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 201 4.1.2.1.3 Imagery-Differenzial . . . . . . . . . . . . . . . . . . . . . . . . . . 202 4.1.2.1.4 Rangordnung . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 202 4.1.2.1.5 Paarvergleich . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 202 4.1.2.2 Subjektive Fremdeinstufung . . . . . . . . . . . . . . . . . . . . . . . . . . . . 203 4.1.2.2.1 Indexbildung . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 203 4.1.2.2.2 Konstantsummenskala . . . . . . . . . . . . . . . . . . . . . . . . . 204 4.2 Univariate Häufigkeitsanalyse . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 205 4.2.1 Lokalisationsparameter . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 206 4.2.2 Dispersionsparameter . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 210 4.2.3 Formparameter . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 213 4.2.4 Konzentrationsparameter . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 215 4.3 Bivariate Dependenzanalyse . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 216 4.3.1 Kontingenzanalyse . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 217 4.3.1.1 Kontingenztafel . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 217 4.3.1.2 Kreuztabelle . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 219 4.3.2 Regressionsanalyse . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 220 4.3.2.1 Vorgehensweise . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 220 4.3.3.2 Ausprägungen . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 222 4.4 Bivariate Interdependenzanalyse . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 225 4.4.1 Korrelationsanalyse . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 225 4.4.1.1 Vorgehensweise . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 225 4.4.1.2 Ausprägungen . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 227 4.4.2 Bestimmtheitsmaß . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 228 4.5 Multivariate Dependenzanalyse . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 229 4.5.1 Varianzanalyse . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 230 4.5.1.1 Vorgehensweise . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 230 4.5.1.2 Ausprägungen . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 231 4.5.2 Diskriminanzanalyse . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 232 4.5.2.1 Vorgehensweise . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 232 4.5.2.2 Ausprägungen . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 234 4.5.3 Kontrastgruppenanalyse . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 235

10

Inhaltsverzeichnis 4.5.3.1 Vorgehensweise . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 235 4.5.3.2 Ausprägungen . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 237 4.5.4 Präferenzanalyse . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 238 4.5.4.1 Aufgabenstellung . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 238 4.5.4.2 Ausführung . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 239 4.6 Multivariate Interdependenzanalyse . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 242 4.6.1 Faktorenanalyse . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 242 4.6.1.1 Vorgehensweise . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 242 4.6.1.2 Einsatzprobleme . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 244 4.6.2 Clusteranalyse . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 247 4.6.2.1 Vorgehensweise . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 247 4.6.2.2 Hierarchische Verfahren . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 250 4.6.2.3 Partitionierende Verfahren . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 253 4.6.3 Multidimensionale Skalierung . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 254 4.6.3.1 Vorgehensweise . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 254 4.6.3.2 Metrische multidimensionale Skalierung . . . . . . . . . . . . . . . . . . 257 4.6.3.3 Nicht-metrische multidimensionale Skalierung . . . . . . . . . . . . . 259 4.6.4 Kausalanalyse . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 261 4.6.4.1 Aufgabenstellung . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 261 4.6.4.2 Varianten . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 262 4.7 Datendarstellung . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 264 4.7.1 Datensichtung . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 265 4.7.2 Datenverdichtung . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 267 4.7.2.1 Kennzahlen . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 267 4.7.2.2 Kritische Würdigung . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 269 4.7.3 Ergebnisreporting . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 271 4.7.4 Ergebnisinterpretation . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 276 4.7.5 Grenzen der Aussagefähigkeit . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 279

5. Verfahren der Absatzprognose . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 281 5.1 Prognosearten . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 281 5.1.1 Inhalt . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 281 5.1.2 Einteilungen . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 282 5.2 Prognosemodelle . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 284 5.2.1 Intuitive Prognose . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 285 5.2.1.1 Naive Verfahren . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 285

Inhaltsverzeichnis

11

5.2.1.2 Prognostische Befragung . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 285 5.2.1.3 Delphi-Methode . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 286 5.2.1.4 Szenario-Technik . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 288 5.2.1.5 Weitere qualitative Verfahren . . . . . . . . . . . . . . . . . . . . . . . . . . . . 291 5.2.2 Durchführung der systematischen Prognose . . . . . . . . . . . . . . . . . . . . . . . 292 5.2.3 Deskriptive Prognoseverfahren . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 295 5.2.3.1 Kurzfristige Prognose . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 295 5.2.3.1.1 Durchschnittsberechnung . . . . . . . . . . . . . . . . . . . . . . 295 5.2.3.1.2 Glättungsberechnung . . . . . . . . . . . . . . . . . . . . . . . . . . 297 5.2.3.2 Langfristige Prognose . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 299 5.2.3.2.1 Trendberechnung . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 300 5.2.3.2.2 Trendstrukturierung . . . . . . . . . . . . . . . . . . . . . . . . . . . 300 5.2.3.2.3 Sättigungsfunktion . . . . . . . . . . . . . . . . . . . . . . . . . . . . 301 5.2.4 Analytische Prognoseverfahren . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 303 5.2.4.1 Multivariate statistische Methoden . . . . . . . . . . . . . . . . . . . . . . . 303 5.2.4.2 Indikatorverfahren . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 303 5.2.4.3 Komplexe Verfahren . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 304 5.3 Mikroökonomische Prognoseansätze . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 306 5.3.1 Globalanalytische Mikromodelle . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 307 5.3.1.1 Markenwahlmodelle . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 307 5.3.1.1.1 Markoff-Ketten . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 307 5.3.1.1.2 Lerntheoretisches Modell . . . . . . . . . . . . . . . . . . . . . . 308 5.3.1.1.3 Kaufneigungsmodell . . . . . . . . . . . . . . . . . . . . . . . . . . 309 5.3.1.2 Kaufeintrittsmodelle . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 309 5.3.1.2.1 Durchdringungsmodelle . . . . . . . . . . . . . . . . . . . . . . . 309 5.3.1.2.2 Wiederkaufmodelle . . . . . . . . . . . . . . . . . . . . . . . . . . . 312 5.3.1.3 Simulationsmodelle . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 312 5.3.2 Detailanalytische Modelle . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 313 5.4 Markterwartungen . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 315 5.5 Grenzen der Prognose . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 317 6. Übergreifende Praxisanwendungen der Forschungsverfahren . . . . . . . . . . . . . . . 319 6.1 Markttestverfahren . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 319 6.1.1 Regionaler Testmarkt . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 319 6.1.2 Testmarktsimulation . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 321 6.1.3 Storetest . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 327 6.1.4 Mini-Markttest . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 328

12

Inhaltsverzeichnis 6.1.5 Mikro-Markttest . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 330 6.1.5.1 Darstellung . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 330 6.1.5.2 Potenziale . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 332 6.1.5.3 Grenzen . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 333 6.2 Einstellungsmessung (in objektiver Fremdeinstufung) . . . . . . . . . . . . . . . . . . . . . 335 6.2.1 Eindimensionale Skalierungstechniken . . . . . . . . . . . . . . . . . . . . . . . . . . 335 6.2.1.1 Likert-Skala . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 336 6.2.1.2 Thurstone-Skala . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 338 6.2.1.3 Coombs-Skala . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 339 6.2.1.4 Guttman-Skala . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 341 6.2.2 Mehrdimensionale Skalierungstechniken . . . . . . . . . . . . . . . . . . . . . . . . . 343 6.2.2.1 Semantisches Differenzial . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 344 6.2.2.2 Polaritätenprofil . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 345 6.2.3 Multiattributive Skalierungstechniken . . . . . . . . . . . . . . . . . . . . . . . . . . . 346 6.2.3.1 Fishbein-Modell . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 346 6.2.3.2 Trommsdorff-Modell . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 348 6.3 Kundenzufriedenheitsmessung . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 349 6.3.1 Begrifflichkeiten und Einteilung . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 349 6.3.2 Objektive Zufriedenheitsindikatoren . . . . . . . . . . . . . . . . . . . . . . . . . . . . 352 6.3.3 Subjektive Zufriedenheitsgruppen . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 353 6.3.3.1 Merkmalsorientierte Ansätze . . . . . . . . . . . . . . . . . . . . . . . . . . . . 353 6.3.3.2 Ereignisorientierte Ansätze . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 357 6.3.3.3 Problemorientierte Ansätze . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 360 6.3.3.4 Explorative Ansätze . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 361 6.3.4 Subjektive Qualitätsvermutung . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 363 6.4 Kundenlebenszeitwert . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 365 6.4.1 Parameter zur Bestimmung . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 365 6.4.2 Wertbezogenes Kundenmanagement . . . . . . . . . . . . . . . . . . . . . . . . . . . . 367 6.4.3 Einflussgrößen zur Steuerung . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 368 6.5 Neuromarketing . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 370 6.5.1 Theoretischer Hintergrund . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 370 6.5.2 Möglichkeiten zur Messung . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 372 6.5.3 Instruktionen . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 374 6.6 Präventionssysteme . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 376 6.6.1 Aufgaben . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 376

Inhaltsverzeichnis

13

6.6.2 Generationen . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 377 6.6.3 Beobachtungsbereiche . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 379 6.7 Informationsversorgung . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 380 6.7.1 Data warehousing . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 381 6.7.2 Reporting-Systeme . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 382 6.7.3 Abfrage-Systeme . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 384 6.7.4 OLAP-Systeme . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 387 6.7.5 Data mining-Systeme . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 388 6.8 Internationale Marktforschung . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 390 6.8.1 Sekundärrecherche . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 390 6.8.2 Einteilungsverfahren für Markträume . . . . . . . . . . . . . . . . . . . . . . . . . . . . 392 6.8.3 Ausgewählte internationale Kulturmodelle . . . . . . . . . . . . . . . . . . . . . . . . 396 6.8.4 Primärrecherche . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 401 7. Spezielle Praxisanwendungen der Forschungsverfahren . . . . . . . . . . . . . . . . . . . 403 7.1 Kohortenanalysen . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 403 7.1.1 Wellenerhebung . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 404 7.1.2 Panelerhebung . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 404 7.1.2.1 Erhebungsanlage . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 404 7.1.2.2 Verbraucherpanel . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 406 7.1.2.2.1 Traditionelles Verbraucherpanel . . . . . . . . . . . . . . . . . 406 7.1.2.2.2 Scanner-Verbraucherpanel . . . . . . . . . . . . . . . . . . . . . . 406 7.1.2.3 Händlerpanel . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 408 7.1.2.3.1 Traditionelles Händlerpanel . . . . . . . . . . . . . . . . . . . . . 408 7.1.2.3.2 Scanner-Händlerpanel . . . . . . . . . . . . . . . . . . . . . . . . . 411 7.2 Preisforschung . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 414 7.2.1 Erstmalige Preissetzung . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 414 7.2.2 Nachfrageorientierte Preisbildung . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 417 7.3 Werbecontrolling . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 418 7.3.1 Messdimensionen . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 418 7.3.2 Transportleistung der Werbung . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 420 7.3.3 Aufmerksamkeitsleistung der Werbung . . . . . . . . . . . . . . . . . . . . . . . . . . 423 7.3.3.1 Pretest-Verfahren . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 423 7.3.3.2 In between-Test-Verfahren . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 426 7.3.3.3 Posttest-Verfahren . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 427

14

Inhaltsverzeichnis 7.3.4 Verarbeitungsleistung der Werbung . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 430 7.3.4.1 Aktualgenetische Testverfahren . . . . . . . . . . . . . . . . . . . . . . . . . . 430 7.3.4.2 Psychomotorische Testverfahren . . . . . . . . . . . . . . . . . . . . . . . . . 433 7.3.4.3 Mechanische Testverfahren . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 436 7.3.5 Wiedererkennungsleistung der Werbung . . . . . . . . . . . . . . . . . . . . . . . . . 438 7.4 Lebensstilforschung . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 440 7.4.1 Werte . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 440 7.4.2 Ausgewählte Typologien . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 443 7.5 Mediaplanung . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 447 7.5.1 Inhalte . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 447 7.5.2 Markt-Media-Analysen als Datenbasis . . . . . . . . . . . . . . . . . . . . . . . . . . . 449 7.5.3 Möglichkeiten zur Zielgruppenauswertung . . . . . . . . . . . . . . . . . . . . . . . 451 7.5.4 Bedeutung der Medialeistungswerte . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 453 7.5.5 Rangreihung der Werbeträger . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 455 7.5.6 Plankombination der Werbeträger . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 458

8. Trainingsaufgaben . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 464 8.1 Zu Grundlagen der Marktforschung . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 464 8.2 Zu Auswahlverfahren zur Erhebung . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 465 8.3 Zu Methoden der Primärerhebung von Informationen . . . . . . . . . . . . . . . . . . . . . 469 8.4 Zu Statistische Datenauswertung . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 476 8.5 Zu Verfahren der Absatzprognose . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 480 8.6 Zu Übergreifende Praxisanwendungen der Forschungsverfahren . . . . . . . . . . . . . 484 8.7 Zu Spezielle Praxisanwendungen der Forschungsverfahren . . . . . . . . . . . . . . . . . 486 8.8 Lösungen . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 490

Literaturverzeichnis . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 515 Stichwortverzeichnis . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 519

Abbildungsverzeichnis Abbildung 1:

Einordnung der Marktforschung . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 20

Abbildung 2:

Einteilungen der Marktforschung . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 23

Abbildung 3:

Bewertung von Informationen . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 33

Abbildung 4:

Entscheidungssituationen . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 35

Abbildung 5:

Arten der Statistik . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 53

Abbildung 6:

Normalverteilung N . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 57

Abbildung 7:

Prüfung der Informationswahrheit . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 63

Abbildung 8:

Zusammenhang von Validität und Reliabilität . . . . . . . . . . . . . . . . . . . . 64

Abbildung 9:

Auswahlverfahren . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 67

Abbildung 10: Beispiel dysproportional geschichteter Stichprobe . . . . . . . . . . . . . . . . . 70 Abbildung 11: Prinzip der Klumpenauswahl . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 72 Abbildung 12: Beispiel der Ausschöpfung einer Random-Stichprobe . . . . . . . . . . . . . . 74 Abbildung 13: Beispiel einer Quotenanweisung . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 76 Abbildung 14: Ablauf des Signifikanztests . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 85 Abbildung 15: Darstellung einer F-Verteilung . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 87 Abbildung 16: Entscheidungsfindung und Fehlerarten . . . . . . . . . . . . . . . . . . . . . . . . . . 88 Abbildung 17: Chi Quadrat-Verteilungen für verschiedene Freiheitsgrade v . . . . . . . . . 90 Abbildung 18: Arten der Befragung . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 92 Abbildung 19: Mündliche Befragung . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 97 Abbildung 20: Einzelinterviewarten . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 98 Abbildung 21: Fragebogen für ein standardisiertes Interview (Ausschnitt) . . . . . . . . . . 99 Abbildung 22: Fragearten . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 103 Abbildung 23: Übersicht Fragefunktionen I . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 108 Abbildung 24: Übersicht Fragefunktionen II . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 109 Abbildung 25: Computergestützte Befragung . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 129 Abbildung 26: Beispiel einer Kundenlaufbeobachtung im Einzelhandel . . . . . . . . . . . . 141 Abbildung 27: Bewusstseinsgrad der Beobachtung . . . . . . . . . . . . . . . . . . . . . . . . . . . . 142

16

Abbildungsverzeichnis

Abbildung 28: Informale Experimentaldesigns . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 150 Abbildung 29: Gängige Experimentaldesigns . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 151 Abbildung 30: Vollfaktorielles Experimentaldesign . . . . . . . . . . . . . . . . . . . . . . . . . . . . 158 Abbildung 31: Reduziertes Lateinisches Quadrat . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 158 Abbildung 32: Online-Erhebungsformen . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 163 Abbildung 33: Skalierungstechniken . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 197 Abbildung 34: Techniken der Selbsteinstufung . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 198 Abbildung 35: Ratingskala . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 198 Abbildung 36: Unipolare, bipolare, verbale, nummerische Skala . . . . . . . . . . . . . . . . . . 200 Abbildung 37: Magnitude-Skala . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 201 Abbildung 38: Indexbildung (gewichtetes Beispiel) . . . . . . . . . . . . . . . . . . . . . . . . . . . . 203 Abbildung 39: Konstantsummenskala . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 204 Abbildung 40: Strukturierungsverfahren . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 205 Abbildung 41: Verfahren der univariaten Analyse . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 205 Abbildung 42: Lokalisationsparameter . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 206 Abbildung 43: Dispersionsparameter . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 211 Abbildung 44: Schiefe von Verteilungen . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 214 Abbildung 45: Wölbung von Verteilungen . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 215 Abbildung 46: Beispiel einer Konzentrationskurve (Lorenzkurve für Einkommensverteilung) . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 216 Abbildung 47: Prinzip der Kontingenztafel . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 218 Abbildung 48: Kreuztabelle – Beispiel mit Ausgangsdaten . . . . . . . . . . . . . . . . . . . . . . 219 Abbildung 49: Relative Häufigkeiten in einer Kreuztabelle . . . . . . . . . . . . . . . . . . . . . . 220 Abbildung 50: Prinzip der Regressionsanalyse . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 221 Abbildung 51: Ausprägungen der Regressionsanalyse . . . . . . . . . . . . . . . . . . . . . . . . . . 222 Abbildung 52: Alternative Korrelationskoeffizienten . . . . . . . . . . . . . . . . . . . . . . . . . . . 225 Abbildung 53: Dependenzanalyse . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 229 Abbildung 54: Ausprägungen der Varianzanalyse . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 230 Abbildung 55: Prinzip der Zweigruppen-Diskriminanzanalyse . . . . . . . . . . . . . . . . . . . 233 Abbildung 56: Kontrastgruppenanalyse . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 236 Abbildung 57: Interdependenzanalyse . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 242 Abbildung 58: Prinzip der Faktorenanalyse . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 243

Abbildungsverzeichnis

17

Abbildung 59: Ursprüngliche und rotierte Faktorladungen . . . . . . . . . . . . . . . . . . . . . . 246 Abbildung 60: Prinzip der Minkowski-Metrik . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 248 Abbildung 61: Prinzipien von Simple matching- und Tanimoto-Koeffizient . . . . . . . . . 249 Abbildung 62: Ausprägungen der Clusteranalyse . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 250 Abbildung 63: Ellenbogenkriterium . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 252 Abbildung 64: Beispiel Dendrogramm (Single linkage) . . . . . . . . . . . . . . . . . . . . . . . . . 252 Abbildung 65: Unvollkommene monotone Funktion zwischen Distanz- und Ähnlichkeitsrängen . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 258 Abbildung 66: Beispiel der nicht-metrischen multidimensionalen Skalierung (NMMS) 259 Abbildung 67: Ausprägungen der deskriptiven Datenauswertung . . . . . . . . . . . . . . . . . 264 Abbildung 68: Diagrammtypen . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 271 Abbildung 69: Beispiel eines Stabdiagramms . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 272 Abbildung 70: Beispiel eines Polygonzugs . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 272 Abbildung 71: Beispiel einer Summenkurve . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 273 Abbildung 72: Beispiel einer Konzentrationskurve . . . . . . . . . . . . . . . . . . . . . . . . . . . . 273 Abbildung 73: Beispiel eines Balkendiagramms . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 274 Abbildung 74: Beispiel eines Histogramms . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 274 Abbildung 75: Beispiel eines Kreisdiagramms . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 275 Abbildung 76: Beispiel eines Strukturdiagramms . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 275 Abbildung 77: Intuitive und systematische Prognosemodelle . . . . . . . . . . . . . . . . . . . . 284 Abbildung 78: Schritte der Delphi-Methode . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 287 Abbildung 79: Schritte der Szenario-Technik . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 289 Abbildung 80: Gleitende Durchschnitte . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 296 Abbildung 81: Gompertz-Funktion (Beispiel) . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 301 Abbildung 82: Mikroökonomische Prognoseansätze . . . . . . . . . . . . . . . . . . . . . . . . . . . 306 Abbildung 83: Prinzip der Markoff-Ketten . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 308 Abbildung 84: Testmarktersatzverfahren . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 320 Abbildung 85: Techniken der eindimensionalen Skalierung . . . . . . . . . . . . . . . . . . . . . . 335 Abbildung 86: Likert-Skala . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 336 Abbildung 87: Thurstone-Skala . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 338 Abbildung 88: Coombs-Skala . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 340 Abbildung 89: Guttman-Skala . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 341

18

Abbildungsverzeichnis

Abbildung 90: Techniken der mehrdimensionalen Skalierung . . . . . . . . . . . . . . . . . . . . 343 Abbildung 91: Semantisches Differenzial . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 344 Abbildung 92: Prinzip des Fishbein-Modells . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 347 Abbildung 93: Prinzip der Trommsdorff-Skala . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 348 Abbildung 94: Zufriedenheitsmessverfahren . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 351 Abbildung 95: Messmechanik des Servqual-Ansatzes . . . . . . . . . . . . . . . . . . . . . . . . . . 353 Abbildung 96: Kundenmonitor . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 356 Abbildung 97: Zufriedenheitskritische Merkmale . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 358 Abbildung 98: Kundenzufriedenheitsfragebogen bei McDonald’s . . . . . . . . . . . . . . . . . 362 Abbildung 99: Limbic-Map . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 371 Abbildung 100: Kategorien von Informationssystemen . . . . . . . . . . . . . . . . . . . . . . . . . . 381 Abbildung 101: Arten von Panels . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 405 Abbildung 102: Nielsen-Gebiete . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 413 Abbildung 103: Arten der Werbeeffizienzmessung . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 419 Abbildung 104: Messverfahren der Werbewirkung . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 420 Abbildung 105: Sinus-Milieumodell 2012 Soziale Lage und Grundorientierung . . . . . . 444 Abbildung 106: Auswertungen der Strukturzählung (horizontal prozentuiert, vertikal prozentuiert, nach Fallzahlen, als Hochrechnung, als Index) . . . . . . . . . 452 Abbildung 107: Relation von Reichweite und Affinität . . . . . . . . . . . . . . . . . . . . . . . . . . 454 Abbildung 108: Prinzip der Rangreihung der Werbeträger . . . . . . . . . . . . . . . . . . . . . . . . 456 Abbildung 109: Prinzip der Plankombination der Werbeträger . . . . . . . . . . . . . . . . . . . . 459

1. Grundlagen der Marktforschung Wirtschaften heißt Entscheiden. Entscheidungen aber setzen die Existenz von Wahlalternativen voraus. Dies wiederum bedingt zwei oder mehr Wahlobjekte. Wer darin sachgerecht entscheiden will, braucht so viel Informationen wie möglich über eben diese Wahlobjekte. Diese Informationen liefert im Marketing die Marktforschung. Sie ist damit Voraussetzung für jedes wirtschaftliche Handeln im Absatzbereich. Ohne oder ohne ausreichenden Informationsstand besteht die Gefahr, falsche Entscheidungen zu treffen, also schlecht zu wirtschaften. Forschung ist daher unerlässlicher Bestandteil des Marketing. Dies gilt umso mehr angesichts eines turbulenten, zunehmend komplexer werdenden Vermarktungsumfelds. Vielfältige Faktoren wirken auf Entscheidungssituationen ein, die zueinander in nur schwer durchschaubaren Beziehungen stehen und kaum kalkulierbare Folgen haben. Selbst wenn es gelingt, diese Faktoren halbwegs in den Griff zu bekommen, hilft auch dies wenig, ändern sich diese doch rasch und unablässig. Marktforschung ist daher ein kontinuierlicher Prozess. Informationen werden insofern immer wichtiger. Man spricht von Information als dem vierten Produktionsfaktor neben Arbeit (dispositiv / exekutiv), Betriebsmitteln (Anlagen) und Werkstoffen (Einsatzmaterialien). Dies bedeutet aber, dass die Aktivitäten in der Absatzvorbereitung oder im Marketing-Service, wo diese Aufgabe zumeist organisatorisch verankert ist, intensiviert werden müssen. Forschung ist damit ein bestimmender Erfolgsfaktor im Marketing.

1.1 Begriffsabgrenzung Marktforschung umfasst sowohl die Marktforschung i. e. S. als auch die Marke­ tingforschung. Beide sind dadurch abgegrenzt, dass Marktforschung i. e. S. sich sowohl auf die externen Absatz- als auch die Beschaffungsmärkte, also Größen wie Lieferanten, Beschaffungswege, Lieferfristen, Transportmittel, Einkaufsqualitäten etc., des Betriebs bezieht, Marketingforschung jedoch nur auf die Absatzmärkte ausgerichtet ist (in Bezug auf Marktpotenzial, Marktvolumen, Marktanteil, Konkurrenzdaten, Bedarfsstruktur, Marketinginstrumente etc.), zusätzlich aber intern auch auf die innerbetrieblichen Sachverhalte und Marketingaktivitäten des Betriebs, also Absatzsegmentrechnung, Außendienstberichtswesen etc. Marktforschung ist Teil der Market intelligence. Diese umfasst das Verständnis und die Deutung marktbezogener Sachverhalte. Sie unterscheidet sich damit von der Business intelligence, die sich allgemein auf die Sammlung, Aufbereitung und

20

1. Grundlagen der Marktforschung

Darstellung aller geschäftsrelevanten Informationen zur Planung, Steuerung und Kontrolle des Unternehmens bezieht, nicht nur der marktbezogenen. In der Market intelligence geht es über Marktdaten, die im Kontext zu Marktinformationen verknüpft werden, hinaus um die Schaffung von Nachrichten von Wert und den Ausbau des Marktwissens. Dazu werden Auswahlverfahren zur Erhebung der Daten genutzt, insb. als Methoden zur Primärerhebung. Diese werden statistischen Auswertungen unterzogen und in Forschungsverfahren angewendet. Schließlich werden daraus Marktprognosen abgeleitet. Market intelligence besteht darüber hinaus noch aus der Customer intelligence, also dem Wissen um Kunden, der Brand intelligence, also dem Wissen um Marken, und der Competitive intelligence, also dem Wissen um den Mitbewerb („Marktbegleiter“). Der Begriff Intelligence bezeichnet dabei die Fähigkeit, abstrakte Beziehungen zu erfassen, herzustellen bzw. zu deuten und dadurch an neuartige Situationen anzupassen, um Probleme zu bewältigen und zu lösen. Der Begriff Market umfasst sowohl Marketingforschung als auch Marktforschung.

Abbildung 1: Einordnung der Marktforschung

Beide Elemente sind Bestandteil der Marktempirie, beziehen sich also auf Sinneserfahrungen und können mittels dieser auch überprüft werden, die gemeinsam mit der Markttheorie als System untereinander durch Ableitbarkeitsbeziehungen verbundener Sätze und Aussagen das Feld der Marktuntersuchung ausmacht. Ein anderer Begriff dafür ist Absatzforschung. Davon abzugrenzen ist die Absatzbeobachtung (oder auch Markterkundung), die nur ein eher zufälliges, ge­

1.1 Begriffsabgrenzung

21

legentliches Abtasten des Marktes darstellt, also nicht systematisch erfolgt und damit keinem wissenschaftlichen Anspruch gerecht wird. Diese ist wiederum nicht zu verwechseln mit der Marktbeobachtung, die laufend erfolgt (Längsschnittanalyse), im Gegensatz zur Marktanalyse, die einmalig erfolgt (Querschnittanalyse). Marktforschung stellt somit die systematische Sammlung, Aufbereitung und Inter­ pretation von Daten zur Erkennung und Ableitung von Informationsgrundlagen für marktbezogene Entscheidungen dar. Sie übernimmt dabei eine Vielzahl wichtiger Funktionen im Betrieb: •• Sie sorgt dafür, dass Risiken frühzeitig erkannt und abgeschätzt werden können (Frühwarnfunktion). Dies ist vor allem infolge rasch wechselnder Umfeldfaktoren von hoher Bedeutung für die Planung und Steuerung. •• Sie trägt dazu bei, dass Chancen und Entwicklungen aufgedeckt und anti­zipiert werden, bietet also Anregungen (Innovationsfunktion). Denn meist sind nur noch Vorstöße am Markt in der Lage, Konkurrenzvorsprünge zu generieren. •• Sie trägt im willensbildenden Prozess zur Unterstützung der Betriebsführung bei (Intelligenzverstärkerfunktion). Mehr Wissen führt somit tendenziell zu sachgerechteren, besseren Entscheidungen. •• Sie schafft bei der Entscheidungsfindung eine Präzisierung und Objektivierung von Sachverhalten (Unsicherheitsreduktionsfunktion). Damit werden die typischerweise schlecht strukturierten Problemstellungen im Marketing besser beherrschbar. •• Sie fördert das Verständnis von Zielvorgaben und Lernprozessen im Betrieb (Strukturierungsfunktion). Durch die Transparenz von Daten und darauf ba­sierenden Schlussfolgerungen kommt es zu einer besseren Aktivitäts­ abstimmung. •• Sie wählt aus der Flut umweltbedingter Informationen die relevanten Informationen aus und bereitet diese auf (Selektionsfunktion). Dies gilt freilich nur bei entsprechend geeigneter Anlage der Informationsgewinnung. •• Sie hilft schließlich, Veränderungen des marketingrelevanten Umfelds abzuschätzen und Auswirkungen auf das eigene Geschäft aufzuzeigen (Prognose­ funktion). Dies ist wichtig für die zielgerichtete Steuerung des Unternehmens. Marktforschung ist u. a. umso eher erforderlich, je •• größer und komplexer das Unternehmen, •• größer die Bedeutung und die objektive und / oder subjektive Unsicherheit bzgl. der zu untersuchenden Größe für die Gesamtsituation des Unternehmens, •• größer der spezielle räumliche Markt, •• weniger flexibel die Reaktion der Organisation auf eine Änderung der Rahmendaten,

22

1. Grundlagen der Marktforschung

•• dringlicher die benötigten Informationen für unternehmerische Entscheidungen (Opportunitätskosten), •• geringer die spezielle Erfahrung der Unternehmensleitung, •• geringer der Umfang der persönlichen Kontakte von Mitarbeitern des Unternehmens zu bedeutenden Informationen ist.

1.2 Einsatzfelder der Marktforschung Marktforschung tritt in der Praxis in vielfältigen Einsatzfeldern in Erscheinung: •• Als zu erforschende Umfelder gelten die Mikro- und die Makroumwelt. Zur Mikroumwelt gehören vor allem Größen wie Nachfrage, Konkurrenz, Interessengruppen etc., zur Makroumwelt gehören Größen wie Technik, Politik, Recht, Ökologie etc. •• Als Quellen für die Informationsgewinnung kommen betriebsinterne und betriebsexterne in Betracht. In beiden Fällen sind die Voraussetzungen für Informationen bereits gegeben, sie müssen nur aktiviert werden. •• Die Informationsinhalte sind demoskopischer oder ökoskopischer Natur, d. h., es handelt sich um subjektiv persönliche Daten, z. B. Geschlecht, Alter, Beruf, oder um objektiv sachliche Daten, z. B. Umsatz, Marktanteil, Belegschaft. •• Bei den untersuchten Leistungen handelt es sich um Konsumptiv- oder Produktivgüter sowie Dienstleistungen. Entsprechend den Besonderheiten dieser Märkte ist die Forschung jeweils ausgerichtet. •• Nach den relevanten Marketinginstrumenten beziehen sich Untersuchungen auf die Angebots- und Sortimentsforschung, auf die Entgelt- und Gegenleistungsforschung, auf die Informations- und Präsentationsforschung oder die Verfügbarkeits- und Übergabeforschung. •• Bei der Art von Informationen kann es sich um betriebswirtschaftliche oder volkswirtschaftliche Daten handeln, also solche, die vorwiegend einzelbetrieblich oder eher überbetrieblich ausgerichtet sind. •• Nach der räumlichen Erstreckung handelt es sich um Binnen- oder Auslandsmärkte, Erstere im Rahmen der lokalen, regionalen oder nationalen Forschung, Letztere im Rahmen der internationalen Forschung. •• Nach der zeitlichen Dimension handelt es sich um Größen, die vergangenheitsbezogen, gegenwartsbezogen oder zukunftsbezogen sind. Die zukunftsbezogene Forschung nennt man auch Marketingprognose.

1.2 Einsatzfelder der Marktforschung

23

•• Nach der Häufigkeit unterscheidet man Erhebungen, die einmalig durchgeführt werden, und solche, die mehrmalig, meist regelmäßig, durchgeführt werden. Dabei ist noch wichtig, ob es sich um gleiche Auskunftspersonen handelt, wie z. B. bei Panels, oder um verschiedene, wie z. B. bei Trackings. •• Als Träger für Forschungsaktivitäten kommen die eigene Organisation, also die betriebliche Forschung, oder Externe, also die Institutsforschung, in Betracht. Häufig findet auch eine Arbeitsteilung zwischen beiden statt. •• Nach den Subjekten können Gruppen wie Käufer im privaten und gewerb­lichen Bereich, Absatzmittler als Groß- und Einzelhändler sowie Absatzhelfer, Hersteller, Konkurrenten, Lieferanten, Anspruchsgruppen etc. unterschieden ­werden. •• Nach dem Gegenstand der Forschung können Meinungen (Meinungsforschung), Motive (Motivforschung), Images (Imageforschung), Verhaltensweisen (Verhaltensforschung), Käufer (Käuferforschung) etc. unterschieden werden.

Abbildung 2: Einteilungen der Marktforschung

Als Leitbild professioneller Marktforschung gelten dabei immer die Postulate der •• theoriegeleiteten Forschung, d. h. auf der Basis verfügbarer wissenschaftlicher Erkenntnisse,

24

1. Grundlagen der Marktforschung

•• interdisziplinären Ausrichtung, d. h. die Einbeziehung von Disziplinen wie Psychologie, Soziologie, Statistik etc., •• Einbringung von Pragmatismus, d. h. die Konzentration auf das Nützliche, •• Seriosität der Forschung, d. h. die logische Plausibilität und ethische Vertretbar­keit.

1.3 Arbeitsphasen der Marktforschung Wenn man sich gedanklich einem Forschungsprojekt nähert, ist es sinnvoll, sich zunächst die Schritte auf dem Weg von der gegebenen Ausgangssituation zur gewünschten Zielsituation vor Augen zu führen. Die einzelnen Arbeitsphasen be­ treffen hier bei professioneller Vorgehensweise die Folgenden. Die Anregungsphase dient der Identifizierung von Informationsbedarfen und der Themenstrukturierung. Die Anregung kann durch Märkte verursacht sein oder durch betriebsinterne Überlegungen, sie kann aus der Marktforschungsabteilung selbst kommen oder aus dem Management. Die Definitionsphase betrifft die Formulierung des Untersuchungsziels und dessen Umsetzung in ein Forschungsproblem. Auf dieser Basis erst können operationale Erhebungsziele definiert werden. Daraus ergibt sich der Set der erforderlichen Variablen und ob diese in funktionalen Beziehungen zueinander stehen und aus­ reichend kontrollierbar sind. Häufig machen erkennbare Informationslücken eine Pilotstudie zur Klärung des eigentlichen Informationsbedarfs erforderlich. Bei der Forschungsanlagephase geht es um die Erstellung eines detaillierten Forschungskonzepts, in dem Datengewinnung, -verarbeitung und -auswertung dargelegt sind. Dazu werden Hypothesen gebildet und an der Realität überprüft. Es ergeben sich ein Abriss der Entscheidungsfrage, eine Kurzbeschreibung des Forschungsproblems, eine Kennzeichnung des Informationsstands, die Formulierung von Forschungshypothesen, die Kurzdarstellung der einzusetzenden Methoden, von Dauer und Zeitbedarf des Projekts sowie dessen Finanzaufwands. Hierzu gehören im Falle der Feldarbeit auch der Fragebogentext, -aufbau, die Auswahl und Entwicklung der Erhebungsmethode, die abstrakte Bestimmung der Erhebungseinheiten etc. Die Datenerhebungsphase umfasst die unmittelbare Datengewinnung durch eigene Felderhebung, durch Organisation Externer (Forschungs-Institut) oder durch Schreibtischrecherche (Sekundärquellen). Die Aufbereitungsphase betrifft die Dokumentation der Daten und ihre Kontrolle auf Schlüssigkeit sowie die Datenträgerverschlüsselung. Diese Phase beginnt mit der Paginierung von Unterlagen und deren Überprüfung auf Vollständigkeit und Verwertbarkeit. Es folgt die grobe Überprüfung der Ergebnisse auf logische Konsistenz. Bei Computerauswertung sind die Daten in maschinenles­

1.4 Erhebungsträger der Marktforschung

25

barer Form zu verschlüsseln oder auf Datenträger zu übertragen. Codierungsfehler sind zu kontrollieren und zu beseitigen. Im Rahmen der Auswertung werden anspruchsvolle rechnerische (multivariate statistische) Verfahren eingesetzt. Die Interpretationsphase stellt die eigentliche Denkleistung durch Analyse und Schlussfolgerung der gewonnenen Daten dar. Dabei kommt es zugleich wieder zu einer Subjektivierung der objektiven Forschung. Die Kommunikationsphase betrifft die Präsentation von Empfehlungen auf Basis der gewonnenen Erkenntnisse. Wichtig ist die zielgruppengerechte Darstellung der Resultate, denn von einer wirksamen Kommunikation hängt der Erfolg der Marktforschung in hohem Maße ab.

1.4 Erhebungsträger der Marktforschung 1.4.1 Institutsforschung Bei der Datenerhebung kann es sich um Primärdaten oder Sekundärdaten handeln (s. u.). Bei den Erhebungsträgern für Primärdaten kann es sich wiederum um unternehmensexterne oder -interne Einheiten handeln, Ersteres beschreibt die Instituts­forschung, Letzteres die Betriebsforschung. Parallel dazu ist auch die interne und externe Erhebung von Sekundärdaten möglich, Ersteres erfolgt durch das Unternehmen selbst, Letzteres durch Dritte. Zunächst zur Institutsforschung. In Deutschland gibt es ca. 150 ernstzunehmende Forschungs-Institute, die Träger der Fremdforschung sind (z. B. GfK, Infratest, ACNielsen, Sample / Inra, Icon, TNS, Ipsos, Allensbach, Forsa, Infas). Es handelt sich um erwerbswirtschaftliche oder gemeinnützige Organisationen, die in kommerzieller und / oder wissenschaftlicher Absicht Forschung betreiben. Daneben wird Forschung aber auch von Unternehmensberatungen, Marketing-Consultants, Werbeagenturen etc. betrieben. Hinzu kommen Informationsbroker, die Datenbanken betreiben. Bei den Forschungs-Instituten an sich können reine und gemischte Betriebe (die neben der Forschung auch andere Services anbieten) unterschieden werden, weiterhin Voll-(Full service) und Spezial-Dienstleister (Letztere offerieren nur Ausschnitte des Leistungsspektrums, z. B. nur die Feldorganisation oder nur das Er­ hebungskonzept). Sie sind vor allem im Bereich der Primärforschung tätig, weil dort häufig auf fixkostenintensive Feldorganisationen zurückgegriffen werden muss und spezifisches Know-how für die Durchführung unabdingbar ist. Außerdem werden von ihnen eigene Standarddienste angeboten (wie Werbe­trackings, Panels, TV-Zuschauerforschung, Media-Analyse, Konsumklima, Markttests, Omnibusse etc.). Daneben gibt es Feldorganisationen, die ihren Interviewerstab Auftraggebern gegen Rechnung zur Verfügung stellen. Sofern sie zusätzlich die Konzipierung und Auswertung von Aktivitäten übernehmen, ist die Grenze zu

26

1. Grundlagen der Marktforschung

klassischen Instituten fließend. Meist werden auch begrenzte Unteraufträge an andere Institute vergeben. Der Anteil ausländischer Auftraggeber liegt zwischen ­10–15 %. Über 50 % der Aufträge kommt von der Industrie. Umsatzschwerpunkt sind Ad hoc-Studien (einmalige Durchführung) und kontinuierliche Forschungsinstrumente (Tracking). Überwiegend wird noch eine mündliche Ergebnispräsentation vorgenommen. 1.4.1.1 Vorteile Wesentliche Vorteile der Institutsforschung sind folgende: •• Es ist keine Betriebsblindheit der Forscher gegeben. Externe Forscher können unvorbelastet an die Problemlösung herangehen. Sie brauchen weniger Rücksichten auf interne „Politik“ zu nehmen. Sie können im positiven Sinne naiv Altbekanntes und scheinbar Bewährtes in Frage stellen. •• Es besteht Zugang zu leistungsfähigen Erhebungsinstrumenten, die kostspielig zu installieren und unterhalten sind. Viele, technisch aufwändige Erhebungs­ instrumente, wie z. B. Panels, sind nur von Instituten aufrecht zu erhalten, sodass ein Rückgriff auf deren Fremdforschung unverzichtbar ist. Dies gilt auch für den Unterhalt eines ausgebildeten Interviewerstabs im Feld. •• Die Gefahr interessengefärbter Auskünfte und tendenziöser Meinungen ist gering. Zwar sind externe Auftragnehmer auch in gewisser Weise ökonomisch abhängig, aber ihre organisatorische Selbstständigkeit erlaubt es ihnen leichter, Wege einzuschlagen, die intern auf Missfallen stoßen können. •• Höhere Objektivität ergibt sich durch mehr Sachverstand als Herzblut bei der Aufgabe. Ein hohes Maß an Involvement ist nicht immer nützlich bei der neutralen Untersuchung von Sachverhalten. Externe, die weniger emotional und mehr rational an die Sache herangehen, sehen Probleme unvoreingenommener und härter. •• Es besteht die Möglichkeit des Einsatzes von Spezialisten und der Nutzung von Expertenwissen. Ein Serviceunternehmen kann durch die Vielzahl seiner Auftraggeber und Aufträge Experten beschäftigen, deren Auslastung im Betrieb nicht gewährleistet ist. Dadurch wird zusätzliches Wissen aus der Lösung ähnlicher Probleme bereitgestellt. •• Aktuelle Methodenkenntnis in Beschaffung, Verarbeitung und Auswertung von Informationen ist verfügbar. Und es kann vorausgesetzt werden, dass Spezialisten über fundierteres Wissen um die besten Mittel und Wege zur Lösung komplexer Forschungsprobleme verfügen. •• Ergebnisvergleiche mit Erfahrungen aus anderen Untersuchungen sind realisierbar. Dadurch ist eine Relativierbarkeit des Datenoutputs gegeben. Es können

1.4 Erhebungsträger der Marktforschung

27

Benchmarks für „gute“ Ergebnisse festgelegt und „Best in class“-Maßstäbe für exzellente Ergebnisse herausgefiltert werden. •• Es ist die Möglichkeit von Kosteneinsparungen (Outsourcing) oder zumindest -flexibilisierungen gegeben. Gemessen an einer Vollkostenrechnung ist die externe Auftragsvergabe infolge dort vorherrschender Degressionseffekte meist kostengünstiger als die Eigenleistung. Hinzu kommt, dass Fremdkosten variablen Charakter haben, also nur bei Inanspruchnahme anfallen, Eigenkosten aber meist fix sind. Oft kommt es auch zur Beschleunigung der Erhebungsdurch­ führung, was wiederum kostendämpfend wirkt. 1.4.1.2 Nachteile Nachteile der Institutsforschung sind hingegen folgende: •• Es entsteht eine höhere Liquiditätsbelastung, gemessen an den pagatorischen Kosten. Denn viele Leistungen sind im Unternehmen ohnehin vorhanden und im Rahmen besserer Auslastung auszuschöpfen, die extern gesondert berechnet werden. Zu denken ist hier vor allem an die administrative Infrastruktur. •• Briefing und Einarbeitungszeit sind erforderlich. Das Briefing ist zwar auch bei Eigenforschung unerlässlich, kann jedoch wegen des höheren Vorinformationsstands meist kürzer gehalten werden. Hinzu kommt eine Zeitspanne zur Vertrautmachung mit den spezifischen Einflussgrößen auf eine gegebene Problemstellung. •• Wenn man an unseriös arbeitende Institute gerät, besteht die Gefahr unsolider Auftragserfüllung. Dagegen kann man sich durch Einschaltung von Mitgliedsinstituten einschlägiger Branchenverbände zwar weitgehend schützen. Dennoch ist die Marktforschungsbranche von grauen und schwarzen Anbietern betroffen. •• Die Geheimhaltung kann trotz strikter Verpflichtung zur Vertraulichkeit gefährdet sein. Denn in einer Branche, die von der Informationsweitergabe lebt, bleibt ein gewisses Unbehagen hinsichtlich möglicher Indiskretionen über im Rahmen der Beauftragung bekanntgewordene Geschäftsgeheimnisse bestehen. Insofern werden Berührungsängste gefördert. •• Oft sind mangelnde Branchenkenntnisse zu beklagen. Allerdings ist bei Zentra­ lisation der Forschungsfunktion in weit verzweigten Betriebsstrukturen der Überblick in allen Bereichen auch nicht leicht zu behalten. Dennoch dürfte die Vertrautheit mit den zu lösenden Problemen extern geringer sein. •• Es entstehen Kommunikationsprobleme, die unausweichlich sind, wenn Menschen zusammenarbeiten. Spracheigenheiten sind oft unbewusster und manifester Bestandteil der Unternehmenskultur, stellen jedoch praktisch erhebliche Hindernisse in der Koordination interner und externer Aktivitäten dar.

28

1. Grundlagen der Marktforschung

•• Es kommt zu keiner Wissensakkumulation über Forschung im Betrieb. Jede extern ausgeführte Forschung erhöht insofern die Abhängigkeit von externen Zulieferern, wohingegen im anderen Fall ein Potenzial an Erfahrung angesammelt werden kann, das leistungssteigernd und kostenreduzierend wirkt. •• Es besteht die Gefahr der schematisierten Routinisierung von Projekten, ohne hinreichend auf die spezifischen Belange des Auftraggebers einzugehen. Dies gilt vor allem für den Einsatz von Standarderhebungsinstrumenten und -informa­tionsdiensten. Wenngleich die häufig behaupteten Eigenheiten jeder Branche weniger glaubwürdig sind. 1.4.1.3 Institutsauswahl Hat man sich für die Einschaltung eines Forschungs-Instituts entschieden, sind für dessen Auswahl folgende Kriterien bedeutsam: •• Erfahrung bzw. Spezialisierung in relevanten Märkten bzw. Erhebungstechniken sind vorteilhaft, jedoch nicht immer Bedingung, •• Leistungsfähige personelle und sachliche Ausstattung, ausgewiesen durch Indi­ katoren wie z. B. Fluktuationsrate, Unterhalt eines eigenen Interviewerstabs, ITKapazität, •• Mitgliedschaft in einem der Fachverbände (Arbeitskreis Deutscher Markt- und Sozialforschungsinstitutte / ADM, Berufsverband Deutscher Markt- und Sozial­ forscher / BVM, Arbeitsgemeinschaft Sozialwissenschaftlicher Institute / ASI, Deutsche Gesellschaft für Online-Forschung / DGOF, European Society for Opionion and Marketing Research / ESOMAR), da dort Mindestanforderungen für die Aufnahme gestellt werden, •• Institutseigene Vorkehrungen zur Wahrung von Vertraulichkeit und Sicherung der Ergebnisqualität. •• Konkurrenzausschluss für die Erhebung des Projekts, realistisch nur für den Zeitraum der Projektbearbeitung zu fordern, •• Kontrollmöglichkeiten des Auftraggebers bei der Durchführung (Termine / Kosten), dazu ist eine laufende Projektdokumentation hilfreich, •• Referenzen anderer Auftraggeber, Beraterkompetenz, evtl. räumliche Nähe, diese und andere Indikatoren helfen, das Risiko zu limitieren, •• Erfahrungen in bisheriger Zusammenarbeit, soweit vorhanden, denn Lieferanten­ treue zahlt sich vielfältig aus. Je nach Intensität der Zusammenarbeit ist es auch sinnvoll, auf räumliche Nähe, Sympathie mit den Beratern etc. zu achten. Ebenso ist es einzelfallabhängig, ob man wechselweise mit mehreren Instituten, etwa auf Grund individueller Kosten­

1.4 Erhebungsträger der Marktforschung

29

voranschläge (KVA’s) zusammenarbeitet oder mit einem „Stamminstitut“. Für Letzteres spricht vor allem die zunehmende Problemvertrautheit und die womögliche Leistung „kostenloser“ Services. Vor der Beauftragung eines externen Anbieters ist eine Ausschreibung mit meist mehrstufigem Auswahlprocedere notwendig. Dazu bedarf es der Erstellung eines Pflichtenhefts für die Angebotsanforderung. Dieses sollte folgende Inhalte um­ fassen: •• Exakte Problembeschreibung, z. B. durch Fragenkatalog, den es zu klären gilt, wobei das vermutete Problem gelegentlich das tatsächliche eher verdeckt denn freilegt, •• Angaben über die zu erhebende Zielgruppe, evtl. mit Aufführung vorhandener Unterlagen zur Stichprobenauswahl, •• eigene methodische Überlegungen, z. B. über Stichprobengröße, Auswahlverfahren, Instrumentarium etc., die als Anregung dienen können, •• Angaben über Tätigkeiten innerhalb der Studie, die der Auftraggeber selbst durchführen oder beisteuern will, •• Angabe einer detaillierten Kostenkalkulation mit Aufgliederung der Positionen in Vorarbeiten, Pretest, Feldarbeit, Auswertung, Präsentation etc., •• Durchführungstermine, aufgegliedert nach Zwischenterminen, Berichtsabgabe, Ergebnisvorstellung etc., •• gewünschter Angebotsabgabetermin, der als verbindlich aufzufassen ist, da davon meist Folgearbeiten abhängen, •• evtl. Sonderbedingungen, die vom Üblichen abweichen und zu berücksichtigen sind, damit es später nicht zu unliebsamen Überraschungen kommt.

1.4.2 Betriebsforschung Die betriebliche Forschung kann als Linien- oder Stabsstelle verankert sein. Als Linienstelle ist eine Einordnung im Rahmen der Funktions- oder Objektorganisation möglich. Im Rahmen der Funktionsorganisation ist eine Anbindung an Marketing, Absatz, Vertrieb, Verkauf o. Ä. sinnvoll. Im Rahmen der Objektorganisation ist eine Anbindung an Produkt-Management, Gebiets-Management oder KundenManagement sinnvoll. In diesen Bereichen kann jeweils auch eine Anbindung als Stabsstelle vorgenommen werden. Dabei ist häufig ein Marketing-Service-Bereich anzutreffen. Denkbar ist aber auch eine Anbindung in den Bereichen Information, Wirtschaftsinformatik, IT o. Ä. Oder sogar im Bereich Beschaffung oder Unternehmensführung, Auditing o. Ä.

30

1. Grundlagen der Marktforschung

1.4.2.1 Vorteile Wesentliche Vorteile der Betriebsforschung sind folgende: •• Es besteht eine größere Vertrautheit mit dem Forschungsproblem durch Kenntnisse im Vorfeld. Über den Auftrag hinaus ist meist bekannt, zu welchen spezifischen Zwecken die gewonnenen Informationen genutzt werden sollen. Entsprechend kann bereits im Vorfeld das Design gestaltet werden, und eine gesonderte Einarbeitungszeit entfällt damit. •• Bessere Möglichkeiten der Einflussnahme und Kontrolle während des Forschungsprozesses sind gegeben. Es besteht jederzeitige Transparenz über den Status der Arbeiten, und es kann jederzeit darauf in zielgerichteter Weise Einfluss genommen werden. Oder es besteht zumindest die Illusion dahingehend. •• Es kommt zur Gewinnung von Forschungserfahrungen sowie zum Verbleib dieser Erkenntnisse im Betrieb. Durch die Beschäftigung mit der Materie wird ­Wissen akkumuliert, das Sekundärnutzen in anderen Bereichen zeitigt und das Wissenspotenzial stetig anreichert. •• Das Risiko von Indiskretionen über Interna ist geringer. Oft werden Externen im Verlaufe der Arbeit Inhalte bekannt, die nicht für die Öffentlichkeit bestimmt sind. Das Risiko der unbefugten Weitergabe solcher vertraulicher Informationen ist jedoch nicht auszuschließen. Dies betrifft auch den Informations- und Datenschutz nach Projektabschluss. •• Kommunikationsprobleme, wie sie bei der Zusammenarbeit mit Externen immer gegeben sind, entfallen. Eine komplexe Materie erfordert intensiven Meinungsaustausch zur Nutzung aller Potenziale und zur problemgerechten Bearbeitung. Das kostet im Betrieb nennenswert Zeit, zumeist die der Entscheider, und damit Geld. •• Es gibt eine bessere Möglichkeit zur Nutzung spezifischer Kenntnisse der Entscheidungsträger. Da nur ein geringer Teil der Aktivitäten auf objektivierter Grundlage abläuft, kann das Briefing intern um „Bauchgefühl“ ergänzt werden, das Externen nur schwer zugänglich ist. •• Aus der eigenen Durchführung von Marktforschung resultiert eine vermeidbare Liquiditätsbelastung, jedenfalls in Bezug auf pagatorische Kosten. 1.4.2.2 Nachteile Nachteile der Betriebsforschung sind hingegen folgende: •• Es besteht die Gefahr der Betriebsblindheit, die oft nahe liegende Problemlösungen nicht erkennen lässt. An diesen fundamentalen Gaps sind bereits viele Marketingaktivitäten gescheitert. Die Einschaltung Externer bietet hingegen die Chance, eingefahrene Gleise zu verlassen und neue Einsichten zu gewinnen.

1.4 Erhebungsträger der Marktforschung

31

•• Das Phänomen der Self fulfilling prophecy ist nicht von der Hand zu weisen, d. h. die Forschung erbringt merkwürdigerweise genau die Ergebnisse, die das Management schon vorher unterstellt hat. Denn interne Mitarbeiter wissen um die möglichen Konsequenzen ihrer Erhebungsergebnisse und sind daher trotz ihres Bemühens um Neutralität zumindest unbewusst geneigt, Aspekte, welche die gewünschte Konsequenz begünstigen, stärker zu berücksichtigen bzw. Aspekte, welche die gewünschte Konsequenz beeinträchtigen, nicht weiter zu verfolgen. Dies führt zu erheblichen Verzerrungen im Output. •• Es besteht die Gefahr der subjektiven Prägung der Forschung. Denn der Forscher geht meist mit einem eigenen oder von seinem Arbeitgeber geprägten Werturteil an eine Problemstellung heran. Trotz allen Willens zur Objektivität sind dann die Antworten dennoch entsprechend, da unbewusste Lenkungs­ mechanismen einsetzen. •• Experten und fachorientierte Mitarbeiter fehlen oft in der Abteilung. Für spezialisierte Aufgaben, die infolge der Professionalisierung der Forschung immer breiteren Raum einnehmen, kann intern keine adäquate Manpower vorgehalten werden. Insofern ist eine methodische Rückständigkeit nicht ausgeschlossen. •• Die Organisation der Feldarbeit ist normalerweise kaum selbst möglich. Sofern es sich um Primärerhebungen handelt, die flächendeckend durchgeführt werden, ist eine Interviewerorganisation erforderlich, die nur von Instituten unterhalten werden kann. Das bedeutet jedoch nicht, dass man dann auch ander­weitig mit diesen zusammenarbeiten muss. •• Längere Bearbeitungszeiten durch Kostendruck und Kapazitätsengpässe sind wahrscheinlich. Dies ist nicht zuletzt dadurch begründet, dass Unternehmen im Rahmen der Rationalisierung ihren Mitarbeiterstamm auf das unerlässliche Maß zurückgeschraubt haben, so dass für Spitzenbelastungen keine Reserve mehr bleibt. •• Es entstehen meist höhere Kosten gegenüber Outsourcing. Dies gilt zumindest, wenn die kalkulatorischen Kosten der eigenen Mitarbeiter mit effektiven Stundensätzen und nicht nur deren pagatorische Kosten angesetzt werden. •• Eine eigene Erhebung ist oft nicht möglich, sofern eine forscherische Infrastruk­ tur erforderlich ist (z. B. Panel, Wellenerhebung, Mehrthemenbefragung). Deren Aufbau und Unterhalt ist zu aufwändig, als dass sie sich selbst für forschungsintensive Unternehmen, wie in der Konsumgüterbranche anzutreffen, lohnen würde.

32

1. Grundlagen der Marktforschung

1.4.2.3 Sonderformen In vielen Fällen ist eine Kombination von Eigen- und Fremdforschung sinnvoll, etwa derart, dass die Grundlagenarbeit außer Haus und die Durchführung in eigener Regie vorgenommen wird oder umgekehrt. Oft wird die Forschung auch von Verbänden für die ihnen angeschlossenen Unternehmen übernommen. Dabei sind verschiedene Abstufungen denkbar. Zunächst kann es um die Verarbeitung von Fundstellenverzeichnissen für die wichtigsten, die Branche betreffenden Statistiken gehen. Weitergehend können diese Statistiken verbandsseitig auch ausgewertet und interpretiert werden. Ebenso können eigenständige Forschungsprojekte im Rahmen der Verbandsarbeit durchgeführt werden. Dies kann bis zur Gründung und Führung eines selbstständigen Instituts gehen, das fallweise oder laufend mit der Durchführung von Untersuchungen befasst ist. Dabei ergeben sich jedoch auch enge Grenzen. So können die Ergebnisse immer nur auf die Branche, nicht aber auf einzelne Betriebe bezogen werden, sie bedürfen also der Ergänzung und Verfeinerung. Sie schaffen zudem nur Informations­gleichstand, also keinen individuellen Wettbewerbsvorsprung. Gerade in hoch kompetitiven Wirtschaften ist Informationsvorsprung jedoch ein unschätzbarer Erfolgsfaktor. Sofern die Abdeckung der Branche durch einen Verband gering ist, sind die Ergebnisse nicht einmal hinreichend. Ebenso ist eine Verbund-Forschung denkbar. Sie besteht darin, dass Unternehmen zum Zweck der gemeinsamen Forschung kooperieren. Handelt es sich um substitutiv tätige Unternehmen, gleicht die Situation der Verbandsforschung. Wegen der Besonderheiten jedes Betriebs und des gleichen Informationsstands aller Beteiligter ist die Ergänzung um eigene betriebliche Forschung unerlässlich. Handelt es sich um komplementär tätigte Unternehmen, kann die individuelle Forschung dadurch möglicherweise weitgehend ersetzt werden.

1.5 Anforderungen an Informationen Informationen sind allgemein zweckorientiertes Wissen. Sie sind der Rohstoff der Marktforschung. Die Anforderungen an Informationen sind vielfältig. Da ist zunächst der Umfang, d. h., es sollen möglichst keine relevanten Informationen vernachlässigt werden, wobei sich zugleich die Frage stellt, was relevant ist, denn dies setzt meist bereits einen Wissensstand voraus, den es erst zu erlangen gilt. Außerdem sollen Informationen aussagekräftig sein, d. h. so detailliert, dass alle über das Informationsobjekt nützlichen Tatbestände bekannt werden, wobei jedoch die Grenze zur Komplexität im Detaillierungsgrad fließend ist. Dabei sollen diese Informationen wahr sein, wobei dieser Begriff durch die Dimensionen Zuverlässigkeit, Gültigkeit und Objektivität operationalisiert wird.

1.5 Anforderungen an Informationen

33

Abbildung 3: Bewertung von Informationen

Der Informationsgrad ist der Anteil der tatsächlich verfügbaren Information an den vorhandenen oder notwendigen Informationen, also die Vollständigkeit. Je höher der Informationsgrad ist, desto besser sind die Voraussetzungen erfolgreicher Forschung. Der Informationsgrad ist optimal, wenn die Kosten der zusätzlichen Informationssammlung gleich hoch sind wie der daraus erwartete zusätzliche Nutzen. Messgrößen sind dabei die Vollständigkeit und Relevanz von Informationen. Die Realität der betrieblichen Entscheidung ist meist durch unvollkommene Information gekennzeichnet, d. h., der Informationsgrad ist  2.000 Elemente). Die Güte wird dann nicht mehr von der Relation der Stichprobe zur Grundgesamtheit, sondern nur von ihrem absoluten Umfang bestimmt. Jede Fehlerberechnung bezieht sich immer auf das Gesamtergebnis. Sollen verschiedene Untergruppen ana­lysiert werden, so bestimmen die Anforderungen an die kleinste der zu analysierenden Untergruppen den gesamten Stichprobenumfang. Werden mehrere Merkmale zugrunde gelegt, bestimmt das am ungünstigsten verteilte Merkmal die Größe der gesamten Stichprobe. Die Stichprobengröße verändert sich umgekehrt proportional zum Quadrat der Fehlerspanne, d. h. eine Erhöhung des Sicherheitsgrads oder eine Senkung des Fehlerintervalls erfordert eine weit überproportionale Erhöhung des Stichprobenumfangs. Die auswertbare Netto-Stichprobe (= Ausschöpfungsquote in Relation zur Brutto­ stichprobe) ergibt sich nach Abzug der (unechten) stichprobenneutralen Ausfälle und der echten (nicht-neutralen) Ausfälle von der Bruttostichprobe. Diese Abzüge ergeben gemeinsam die Ausfallquote in Relation zur Bruttostichprobe. Die Ausschöpfung ergibt sich am Beispiel einer Befragung wie folgt: •• Ausgangspunkt ist die Gesamtheit der Erhebungsadressen, davon fallen die ungültigen Adressen aus, es bleiben die gültigen Adressen. Davon fallen die nichtansprechbaren Einheiten aus (wegen Krankheit, Behinderung etc.), es bleiben

60

2. Auswahlverfahren zur Erhebung

die ansprechbaren Adressen. Davon fallen die abwesenden oder nicht-kontaktierbaren Personen aus. Gründe für Nichtanwesenheit sind Dienstreise, Urlaub, auswärtige Tätigkeit, Kur etc., für Nichtkontaktierbarkeit Türsicherung, Pförtner, Wachhund, Hemmungen etc., es bleiben die anwesenden, ansprechbaren Adressen. Davon fallen die Antwortverweigerungen der Auskunftspersonen aus. Nur der verbleibende Rest stellt die Netto-Stichprobe dar. Aussagen können sich immer nur auf diese Anzahl tatsächlich durchgeführter Interviews beziehen. Daher ist bei der Erhebung eine Reserve für mögliche Ausfälle zu berücksichtigen. Unter Hochrechnung versteht man die Projektion von der Stichprobe auf die Grundgesamtheit. Die Stichprobenbildung hat zu einem Miniaturabbild der Grundgesamtheit geführt, die Hochrechnung stellt nun eine Wiederanpassung der Stichprobenergebnisse an die Grundgesamtheit dar. Bei der uneingeschränkten Zufallsauswahl ist eine Hochrechnung nicht erforderlich, weil von den Anteilsund Mittelwerten der Stichprobe direkt auf die der Grundgesamtheit hochgerechnet werden kann. Man unterscheidet zwischen freier und gebundener Hochrechnung. Die freie Hochrechnung bedient sich nur der Informationen aus der Stichprobe selbst. Die gebundene Hochrechnung bezieht weitere Informationen ein und zwar Basiswerte früherer Perioden (mittels Differenzenschätzung, Verhältnisschätzung oder Regressionsschätzung). Oft ist vor der Hochrechnung eine Umgewichtung (Transformation, etwa bei eingeschränkter Zufalls- oder bewusster Auswahl) oder Neugewichtung erforderlich. Dies ist auch bei Stichprobenausfällen nötig. Diese können neutral sein, d. h. solche Fälle betreffen, die nicht zur Grundgesamtheit gehören, oder aber nicht neutral sein, d. h. Fälle von Antwortverweigerung betreffen. Neutrale Fälle werden durch Redressement bereinigt. Dafür ergeben sich zwei Möglichkeiten: •• Doppeln oder Streichen bedeutet, dass zufällig herausgegriffene, untererfasste Elemente in der Stichprobe entsprechend vermehrt werden, während zufällig herausgegriffene übererfasste Elemente weggestrichen werden. Dabei wird allerdings die Fallzahl um künstliche Fälle verändert. •• Faktoriell bedeutet, dass die Werte der über- bzw. untererfassten Elemente in der Stichprobe durch Multiplikation mit einem jeweiligen Veränderungssatz angepasst werden. Dadurch bleibt die absolute Fallzahl unverändert, aber die Struktur wird der Realität angepasst. Der Projektionsfaktor gibt die erforderliche Auswahlquote an:

PF =

  Anzahl aller relevanten Einheiten in der Grundgesamtheit  Anzahl der Erhebungseinheiten in der Stichprobe

Je größer die Stichprobe in Relation zur Grundgesamtheit ist, desto gültiger sind die Aussagen und desto zuverlässiger kann auf die Aussage projiziert werden, die, wäre die Grundgesamtheit anstelle der Stichprobe erhoben worden, sich dort erge-

2.3 Deduktive Datenanalyse

61

ben hätte, zugleich sind aber auch die Kosten umso höher. Der Projektionsfaktor liegt zwischen 1 und ∞, er ist = 1, wenn es sich um eine Vollerhebung handelt. Realistisch sind Projektionsfaktoren in der Größenordnung von mindestens 3.000, d. h. eine Erhebungsperson steht stellvertretend für 3.000 andere, nicht erhobene Personen.

2.3.4 Wahrheitsgehalt von Informationen 2.3.4.1 Reliabilität Unter Reliabilität versteht man den Grad der formalen Genauigkeit, mit der ein bestimmtes Merkmal gemessen wird, unabhängig davon, ob dieses Merkmal auch tatsächlich gemessen werden soll. Ein Messinstrument ist unter der Voraussetzung konstanter Messbedingungen reliabel, wenn die Messwerte stabil, d. h. bei wiederholter Messung reproduzierbar sind. Zum Beispiel kann eine Entfernung durch Augenschein gemessen werden, was wenig reliabel ist, durch Abschreiten, was mäßig reliabel ist, oder durch Maßband, was sehr reliabel ist. Dabei bleibt außen vor, was eigentlich genau abgemessen wird. Letztlich bleibt aber immer ein Messfehler, der Standardfehler, als Abweichung, der von der Konstanz der Messung abhängig ist. Unter Intrareliabilität versteht man die Stabilität zu zwei Messzeitpunkten, unter Interreliabilität die Stabilität zwischen zwei „Messern“. Der Standardfehler setzt sich aus dem Zufallsfehler (spontane, unsystematische Unachtsamkeiten, durch Raten erzielte Antworten, kurzzeitige Schwankungen der Umfeldbedingungen und ungenaue Angaben zur Messdurchführung bzw. -bewertung) sowie dem systematischen Fehler (Design-, Gewinnungs- und Analysefehler) zusammen. Die Reliabilität weist nur den Zufallsfehleranteil aus. Die Feststellung erfolgt durch verschiedene Verfahren: •• Bei der Parallel-Test-Reliabilität wird eine Vergleichsmessung bei gleicher Ausführung in einer identischen Stichprobe mit einem äquivalenten Messinstru­ ment zum gleichen Zeitpunkt vorgenommen. Hier erhebt man also an einer Stichprobe von Versuchspersonen zwei streng vergleichbare Messwerte und berechnet anschließend die Korrelation zwischen ihnen. •• Bei der Test-Retest-Reliabilität wird zu verschiedenen Zeitpunkten in der gleichen Stichprobe gemessen, um die Korrelation der Wiederholungsmessung zu bestimmen. Hier erhebt man also die Daten an der gleichen Stichprobe mit dem gleichen Messinstrument zu zwei verschiedenen Zeitpunkten und ermittelt anschließend die Korrelation der Ergebnisreihen. •• Bei der Interne-Konsistenz-Reliabilität wird in verschiedenen Anteilen der gleichen Stichprobe gemessen, um die Einheitlichkeit eines geteilten Instruments nachzuweisen. Hier wird vorausgesetzt, dass sich ein Messinstrument in zwei gleichwertige Hälften zerlegen lässt. Die Konsistenz wird dann entweder nach der Split half- oder der Konsistenzanalyse ermittelt.

62

2. Auswahlverfahren zur Erhebung

2.3.4.2 Validität Unter Validität versteht man die Gültigkeit einer Messung bzw. eines Messinstruments in Bezug auf die charakteristischen Eigenschaften des Messobjekts. Sie gibt damit den Grad der materiellen Genauigkeit an, mit dem man dasjenige Merkmal misst, das gemessen werden soll oder angegeben wird, gemessen zu werden. Zum Beispiel ist eine Personenwaage ein sehr valides Instrument zur Ermittlung des Körpergewichts, zur Ermittlung der Körpergröße ist es hingegen nur mäßig valide, zur Bestimmung der Haarfarbe ist es nicht valide. Dabei bleibt außen vor, wie genau jeweils gemessen wird. Man unterscheidet weitergehend die externe und die interne Validität. Externe Validität bezieht sich auf die Übertragbarkeit spezifischer Forschungsergebnisse auf andere Außenbedingungen (Ergebnisvalidität). Sie erlaubt eine Hochrechnung von Erhebungsergebnissen auf die sie repräsentierende Grund­gesamtheit, andere Bevölkerungsgruppen, veränderte Situationen, andere Zeitpunkte etc. Dies ist etwa bei Feldexperimenten besser der Fall als bei Laborexperimenten. Man unterscheidet nach der Strenge der zu erfüllenden Kriterien mehrere Validitätsarten. Die Inhaltsvalidität betrifft die logische Eignung der Messung, also ob das zu messende Merkmal inhaltlich repräsentiert ist. Ihr Ausweis erfolgt durch Augen­ schein (Face validity) oder Expertenurteil (Expert validity). Hierunter fällt der gesamte Arbeitsgang von der adäquaten Planung bis zur Fertigstellung eines kompletten Messinstruments. Zur Überprüfung einer komplexen Fragestellung ist sicherzustellen, dass alle relevanten Teilaspekte einbezogen werden und belastbar ist, dass die ausgewählten Testitems das zu untersuchende Phänomen hinreichend repräsentieren. Die Konstruktvalidität betrifft die theoretische Fundierung der Messung, also ob das gemessene Konstrukt Bestandteil einer Theorie ist, deren Hypothese getrennt abgefragt wird. Ihr Ausweis erfolgt durch Konvergenz des ausgewählten bzw. Dis­ kriminanz zu anderen Konstrukten. Hier wird also der theoretische Hintergrund der Messungen ergründet. Die zur Erklärung der Messwerte dienenden Konstrukte müssen sprachlich präzise, formal einwandfrei und beobachtbar sowie möglichst eindimensional ausgelegt sein. Die Kriteriumsvalidität betrifft den Zeithorizont der Messung, die zeitspäteren Bezug (Vorhersagevalidität, z. B. für Prognoseaussagen) oder zeitgleichen Bezug (Übereinstimmungsvalidität, z. B. für Konkurrenzaussagen) haben kann. Dabei werden die Ergebnisse eines zu überprüfenden Messinstruments mit den Werten eines Außenkriteriums verglichen oder dieses daraus prognostiziert. Der Grad der Validität wird meist durch die Korrelation bestimmt (= empirische Validität). Die Konvergenzvalidität hat die Voraussage nicht nur des Zusammenhangs zwischen Indikatoren, sondern auch deren Unabhängigkeit zum Ziel, wenn sich die Messwerte auf verschiedene, sich gegenseitig nicht beeinflussende Konstrukte be-

2.3 Deduktive Datenanalyse

63

Abbildung 7: Prüfung der Informationswahrheit

ziehen. Konvergenzvalidität bezeichnet dabei das Ausmaß, in dem zwei oder mehr Messverfahren in ihrem Vorhaben, das gleiche Konstrukt zu messen, übereinstimmen oder nicht. Ersteres ist gegeben, wenn ihre Ergebnisse in hohem Maße miteinander korrelieren. Die Diskriminanzvalidität bezeichnet das Ausmaß, in dem sich Messungen von verschiedenen Konstrukten voneinander unterscheiden. Messverfahren bzw. Indikatoren, die unterschiedliche Konstrukte erfassen sollen, dürfen demnach allen­falls schwach miteinander korrelieren. Es handelt sich also insofern um das Gegenteil der Anforderungen der Konvergenzvalidität. Beide können auch gemeinsam erfasst werden (Multitrait method). Die Nomologische Validität basiert auf einem nomologischen Netzwerk aus verschiedenen Konstrukten gemeinsam mit den zur Operationalisierung verwendeten Indikatoren in einer geschlossenen Theorie. Daraus entsteht ein umfassendes, testbares Begriffsgefüge, das sich besonders mit Kausalmodellen gut belegen lässt. Die Kreuzvalidität weist die zusätzliche Absicherung von Ergebnissen mit Hilfe einer weiteren Stichprobe bzw. durch Aufsplittung und getrennte Analyse einer bestehenden Stichprobe nach. Dies dient vor allem dazu, die Stabilität von Regres­ sionsparametern zu überprüfen. Die Extremgruppen-Validität erfolgt durch Messungen an zwei Gruppen, von denen man weiß oder zumindest annehmen kann, dass sie sich deutlich hinsichtlich der untersuchten Merkmale voneinander unterscheiden. Dann erfolgt der Ver-

64

2. Auswahlverfahren zur Erhebung

Abbildung 8: Zusammenhang von Validität und Reliabilität

gleich der Messergebnisse. Die Validität ist umso geringer, je niedriger diese Abweichungen sind. Interne Validität bezieht sich auf die Ausschaltung von Störeinflüssen auf den Untersuchungsplan und die Erhebungssituation (Prozessvalidität). Es geht also um die Eindeutigkeit der Messung im Experiment. Sie wird erzielt, wenn durch den Untersuchungsplan und die Erhebungssituation alle unerwünschten Stör­einflüsse ausgeschaltet werden, sodass die Veränderungen in der abhängigen Varia­blen ­allein auf die Manipulation der unabhängigen Variablen zurückgeführt werden können. Beide Größen, externe und interne Validität, stehen in einem Spannungsverhältnis zueinander. Bemühungen um eine möglichst hohe interne Validität führen dazu, dass die Forschungsbedingungen immer künstlicher, also realitätsferner, werden. Bemühungen um eine möglichst hohe externe Validität führen dazu, dass unerwünschte Störeinflüsse kaum mehr Kausalitätsaussagen zulassen. So hat z. B.

2.3 Deduktive Datenanalyse

65

der Studiotest eine hohe interne Validität, weil er im Labor, also unter kontrollierten Bedingungen stattfindet. Seine externe Validität ist aber gerade deswegen recht gering, da die artifizielle Bedingungslage von der realen im Feld mehr oder minder erheblich abweicht. Umgekehrt hat der Feldtest eine geringe interne Validität, weil er für alle möglichen unkontrollierbaren Einflussfaktoren anfällig ist. Zugleich ist seine externe Validität aber hoch, da es sich um reale Marktbedingungen handelt und nicht um eine bloße Laborsituation. 2.3.4.3 Objektivität Die Objektivität von Informationen bedeutet, dass diese frei von subjektiven Einflüssen und damit intersubjektiv nachprüfbar sind, also verschiedene Personen unabhängig voneinander zum mehr oder minder gleichen Messergebnis kommen. Sie ist Ausdruck dafür, ob Unterschiede in der Realität in den Forschungsergebnissen angemessen zum Ausdruck kommen. Anfälligkeiten dafür bestehen bei der Durchführung, Auswertung und Interpretation in der Forschung. Sofern Subjektivität offen ausgewiesen ist, z. B. in Form von Empfehlungen des Forschers an den Auftraggeber, ist dagegen auch nichts einzuwenden. Gefährlich aber sind Verzerrungen, die, ohne dass sie als subjektiv ausgewiesen werden, in die Ergebnisse eingehen. Man unterscheidet drei Objektivitätsarten: •• Die Durchführungsobjektivität beurteilt den Grad der Unabhängigkeit der Beurteilungsergebnisse von zufälliger und systematischer Variation im Verhalten der Beurteiler, also das Fehlen von Beeinflussung der Beurteilten. Die Durchführungsobjektivität erhöht sich, je weniger soziale Interaktion zwischen Auskunftspersonen und Marktforscher entsteht. •• Die Auswertungsobjektivität ist umso größer, je weniger fixierte Beziehungen (vorgegebene Regeln) zwischen bestimmten Informationen und Beurteilungsziffern bekannt sind. Die Auswertungsobjektivität erhöht sich, je weniger Freiräume der Marktforscher hinsichtlich der Auswertung der Messergebnisse hat. •• Die Interpretationsobjektivität betrifft den Grad der Unabhängigkeit bei der Interpretation der Objekte von deren Beurteilern und ist als hoch gegeben, wenn alle Beurteiler zu den gleichen Schlussfolgerungen gelangen. Die Interpretationsobjektivität erhöht sich, je weniger Freiheitsgrade der Marktforscher bezüglich der Deutung der Messergebnisse hat. 2.3.4.4 Signifikanz Die Signifikanz von Informationen bedeutet, dass Ergebnisse sich nicht nur aufgrund von Zufallsmechanismen einstellen, sondern auf überzufällige Zusammenhänge zurückzuführen sind. Dies ist wichtig für die Übertragbarkeit von Aussagen

66

2. Auswahlverfahren zur Erhebung

von einer untersuchten Stichprobe auf die Grundgesamtheit. Dies wird durch spezielle Tests überprüft. Dem liegt die Wissenschaftsrichtung des kritischen Rationa­ lismus zugrunde. Im Kritischen Rationalismus erfolgt die Gewinnung neuer wissenschaftlicher Aussagen über die Schritte der Problementdeckung und -formulierung, der Hypothesenbildung zu Lösungswegen und der anschließenden Überprüfung dieser Hypothesen. Dazu dienen zwei Verfahren, die induktive Methode geht von einem Einzelfall aus und versucht, daraus Verallgemeinerungen abzuleiten, die deduktive Methode geht von allgemeinen Zusammenhängen aus und versucht, daraus Aussagen über den Einzelfall abzuleiten. Die Theorieüberprüfung erfolgt in Bezug auf logische Konsistenz und durch Konfrontation mit der Realität (empirische Untersuchung). Dazu gibt es zwei Methoden, die Verifikation versucht, möglichst viele reale Fälle zu finden, die den behaupteten Zusammenhang bestätigen, eine endgültige Verifikation ist jedoch nicht möglich, da nicht ausgeschlossen werden kann, dass es nicht untersuchte Fälle gibt, die der stipulierten Behauptung widersprechen. Die Falsifikation versucht hingegen, Fälle zu finden, die der Theorie widersprechen. Nun könnte man versuchen, eine Theorie so zu formulieren, dass sie nicht widerlegbar ist (Tautologie), dann aber ist eine Überprüfung nicht möglich und damit auch kein Wissensfortschritt auf ein höheres Niveau. Daher muss jede Behauptung so formuliert sein, dass sie leicht falsifizierbar ist. Theorien, die mehreren Falsifikationsversuchen widerstanden haben, gelten als vorläufig bestätigt, sie stellen ein Paradigma dar. In größeren Zeitabständen gibt es einen Paradigmawechsel, d. h. anerkannte Wahrheiten erweisen sich als überholt und an ihre Stelle rücken „neue“ Wahrheiten, bis auch diese wiederum einem Wechsel unterliegen. Robuste Theorien erklären Sachverhalte der Realität, um daraus Vorhersagen über Ereignisse treffen und Maßnahmen zur Zielerreichung ableiten zu können. Allerdings ist strittig, ob Wissenschaft überhaupt Empfehlungen abgeben soll (Relevance), denn diese bedeuten immer auch eine Wertung, oder ob Wissenschaft wertfrei zu bleiben hat und es um den reinen Wissensausbau per se geht (Rigor). Überwiegend gelten Werturteile dann als akzeptabel, wenn sie von den Sachverhalten getrennt ausgewiesen werden, denn ansonsten entziehen sich Aussagen einer Überprüfung auf ihren Wahrheitsgehalt. Werturteile im Basisbereich betreffen das grundlegende Wissenschaftsprogramm, im Objektbereich übernehmen sie Einstellungen und Verhaltensweisen aus der Realität und im Aussagenbereich geben sie die Meinung des Forschers wieder. Die Kriterien der Signifikanz, Objektivität, Reliabilität und Validität sind eng miteinander verknüpft. So ist Signifikanz Voraussetzung für Objektivität, Objektivität ist Voraussetzung für Reliabilität, und diese ist wiederum Voraussetzung für Validität. Innerhalb der Validität ist interne Validität dann noch Voraussetzung für externe Validität. Für die Teilerhebung stehen unter diesen Gesichtspunkten zwei Gruppen von Auswahlverfahren zur Verfü­gung, zufällige und bewusste. Bei zufälligen Auswahl-

2.4 Zufallsauswahlverfahren

67

verfahren bestimmt die Wahrscheinlichkeit, welches Element der Grundgesamtheit in die Stichprobe eingeht und welches nicht, bei bewussten Auswahlverfahren bestimmt dies der Forscher selbst. Für beide Gruppen gibt es diverse Unterformen.

Abbildung 9: Auswahlverfahren

2.4 Zufallsauswahlverfahren Der Zufallsauswahl liegt das Prinzip zugrunde, dass jedes Element der Grundgesamtheit eine berechenbare und von Null verschiedene Chance haben soll, in eine Stichprobe einbezogen zu werden. Die Exaktheit der Aussage nimmt zwar mit zunehmender Varianz des interessierenden Merkmals in der Grundgesamtheit ab, jedoch mit zunehmender Stichprobengröße wieder zu. Insofern entstehen repräsentative Ergebnisse. Der Auswahlfehler kann statistisch berechnet und damit kontrolliert werden. Die Auswahl ist unabhängig von Ermessensentscheidungen der Forscher. Allerdings ist die Zufallsauswahl praktisch schwierig durchzuführen. Vor allem das Ersetzen von Ausfällen ist problematisch. Es ist eine längere Vorbereitung und Durchführung erforderlich, woraus höhere Kosten und eine geringere Aktualität folgen. Es gibt verschiedene Ausprägungen der Zufallsauswahl. Allen ist gemein, dass der Zufall bestimmt, welche Untersuchungseinheiten aus der Grundgesamtheit erhoben werden.

2.4.1 Reine Zufallsauswahl Die Reine (uneingeschränkte) Zufallsauswahl wird durch das Urnenmodell versinnbildlicht. Die Elemente der Stichprobe werden unmittelbar aus der Grundgesamtheit gezogen. Voraussetzung dafür ist, dass diese Grundgesamtheit zumindest

68

2. Auswahlverfahren zur Erhebung

symbolisch, z. B. in Form von Karteikarten, vollständig beim Auswahlprozess vorliegt, d. h. auf jedes Element beliebig zugegriffen werden kann, und dass diese so gut durchmischt ist, dass jedes Element wirklich die gleiche von Null verschiedene Chance hat, gezogen zu werden. Möglich ist das Auslosen / Auswürfeln nur bei vollständig vorliegender, durchnummerierter Grundgesamtheit (z. B. durch 10-seitigen AWF-Würfel). Dabei kann es sich um verbundene Stichprobenelemente handeln, die ohne Zurücklegen sukzessiv aus der Grundgesamtheit gezogen werden oder um unabhängige Stichprobenelemente, die mit Zurücklegen simultan aus der Grundgesamtheit gezogen werden. In der Praxis scheitert die Durchführbarkeit der Reinen Zufallsauswahl zumeist am dafür zu betreibenden hohen Aufwand. Zu denken ist an unzureichendes statistisches Grundlagenmaterial, an die Größe der zu untersuchenden Grundgesamtheit und die Streuung ihrer Merkmale. Auch dürfen ausgewählte, aber nicht erreichte Erhebungseinheiten nicht mehr nachträglich ausgetauscht werden. Darunter leidet die Ausschöpfungsquote. Daher wird auf Verfahren der Systematischen Zufallsauswahl zurückgegriffen. Das bedeutet, dass die Auswahlchancen jedes Elements der Grundgesamtheit zwar nicht mehr gleich sind, wohl aber berechenbar, d. h., man kann den Grad der Repräsentanz messen. Vorteile der Reinen Zufallsauswahl liegen in der leichten statistischen Berechnung des Auswahlfehlers durch direkte Schätzung der Größen für die Grundgesamtheit aus den betreffenden Werten der Stichprobe. Dabei sind keine Informationen über Merkmale in der Grundgesamtheit erforderlich. Es kommt grundsätzlich zu repräsentativen Ergebnissen, da die Auswahl unabhängig von Ermessensentscheidungen der Interviewer ist. Dafür findet als Nachteil keine Anpassung des Auswahlverfahrens an den Untersuchungsgegenstand statt, und es können keine Extremgruppen berücksichtigt werden. Zudem ist der Ersatz von Ausfällen bei der Erhebung problematisch. Die schwierige Durchführung von Zufallsstichproen führt zu längerer Vorbereitung und Durchführung, zu höheren Kosten und zu geringerer Aktualität.

2.4.2 Systematische Zufallsauswahl Bei der Systematischen Zufallsauswahl gibt es mehrere Verfahren, denen gemein ist, dass ihnen ein Auswahlsystem zugrunde liegt, das sich nach der Anzahl für erforderlich gehaltener Fälle richtet. Dieses ersetzt das in der Praxis meist nicht realisierbare Urnenmodell. Vorauszusetzen ist jeweils, dass alle Elemente, die zur Grundgesamtheit gehören, anwählbar sind und alle anwählbaren Elemente zur Grundgesamtheit gehören. Bei den Verfahren handelt es sich dann um die Folgenden. Beim Schlussziffern-Verfahren werden alle Elemente der Grundgesamtheit durchnummeriert und jene Elemente als Stichprobe entnommen, die eine bestimmte, ausgewählte Endziffer aufweisen. Dies ist recht effizient.

2.4 Zufallsauswahlverfahren

69

Beim Zufallszahlen-Verfahren wird die vorliegende Grundgesamtheit ebenfalls durchnummeriert. Die auszuwählenden Nummern werden jedoch durch einen Zufallszahlen-Algorithmus (Zufallszahlentabelle / Zufallszahlengenerator) bestimmt. Beim Anfangsbuchstaben-Verfahren wird die Stichprobe aus allen Elementen gebildet, deren (Nach-)Namen mit einem bestimmten Anfangsbuchstaben / einer Anfangsbuchstabenkombination beginnen. Beim Zufallsstart-Verfahren wird innerhalb der katalogisierten Grundgesamtheit zunächst per Zufallsauswahl ein Startpunkt bestimmt und davon ausgehend durch Abzählen jedes x-te Element gezogen. Beim Geburtsdatum-Verfahren werden aus der Grundgesamtheit all jene Elemente entnommen, die an einem bestimmten Datum (Tag oder Monat, nicht Jahr) geboren wurden oder z. B. im Haushalt als erste im Jahr, am Tag mit der niedrigsten Zahl, als letzte vor bzw. als nächste nach der Erhebung Geburtstag feiern. Beim Schweden-Schlüssel-Verfahren wird für jedes Interview durch Abzählen vorgegeben, die wievielte Person im Einzelnen zu erheben ist. Dies erfolgt z. B. durch Permutation der Ziffern 1 bis 3. Zur Beurteilung dieser Verfahren ist Folgendes zu sagen. Die Vorteile der Systematischen Zufallsauswahl liegen darin, dass dazu keine Kenntnis der Merkmalsstruktur in der Grundgesamtheit erforderlich ist. Verzerrungen durch unzureichende Auswahl treten daher nicht auf. Vor allem ist eine Fehlerwahrscheinlichkeit berechenbar. Nachteile liegen jedoch darin, dass die Grundgesamtheit vollständig vorliegen muss. Diese Voraussetzung lässt sich in der Praxis oft nicht erfüllen. Auch können Stichprobenelemente ohne Auskunft (Verweigerung, Nichterreichbarkeit etc.) nicht durch andere, gleichartige Elemente ersetzt werden, da dann die Berechnung des Zufallsfehlers nicht mehr möglich ist. Daher kommen andere Verfahren zum Einsatz. Weitere Vorteile der Systematischen Zufallsauswahl liegen in der Anpassbarkeit des Auswahlverfahrens an die Fragestellung der Untersuchung, wodurch sich sowohl eine Verringerung der Kosten ergibt wie auch eine Erhöhung der Aus­ sagekraft. Dafür sind z. T. komplizierte Berechnungen des Auswahlfehlers erforderlich, da die Einheiten der Grundgesamtheit abweichende (aber immerhin bekannte) Auswahlchancen aufweisen.

2.4.3 Geschichtete Zufallsauswahl Bei der Geschichteten Zufallsauswahl (Stratified sampling) wird die Grundgesamtheit in mehrere Teilmassen zerlegt, aus denen jeweils die dann in die Stichprobe eingehenden Elemente unabhängig nach dem Prinzip der Reinen Zufallsauswahl gezogen werden. Es handelt sich also um ein geschichtetes Vorgehen. Dies ist vor allem dann hilfreich, wenn die Grundgesamtheit zwar verschiedenartig (hete-

70

2. Auswahlverfahren zur Erhebung

Abbildung 10: Beispiel dysproportional geschichteter Stichprobe

rogen) ist, sich aber anhand von Untersuchungsmerkmalen aus relativ gleichartigen (homogenen) Teilmassen zusammensetzen lässt. Die Schichtung bewirkt dann eine Reduzierung des Stichprobenfehlers und des Stichprobenumfangs, weil die Streuung (Varianz) zwischen den Schichten entfällt und innerhalb jeder Schicht sinkt. Voraussetzung ist dabei allerdings wieder, dass die Verteilung der interessierenden Merkmale bekannt ist. Allerdings kommt es umso eher zu einem Schichtungseffekt, je gleichartiger jede Schicht in sich und je verschiedenartiger sie zugleich von allen anderen Schichten ist. Mögliche Schichtungskriterien sind real leicht erhebbare Kriterien wie Beruf, Einkommen, Ausbildung, Vermögen, Abstammung, Macht, Interaktion etc. Die Schichtenbildung kann unterschiedlich vorgenommen werden: •• Proportionale Schichtung bedeutet, dass jede Schicht in der Stichprobe exakt in ihrem Anteil an der Grundgesamtheit vertreten ist. Die jeweiligen Stichprobenwerte können damit linear aufaddiert werden. Dies ist die einfachste Vorgehensweise, leidet jedoch unter den Problemen hoher Merkmalsstreuung und Stichprobengröße. •• Dysproportionale Schichtung bedeutet, dass die einzelnen Schichten je nachdem stärker oder schwächer als es ihrem Anteil an der Grundgesamtheit entspricht, in der Stichprobe vertreten sind. Dies bietet sich an, wenn kleinen Schichten (z. B. Großbetriebsformen des Einzelhandels) hohe Bedeutung zukommt. Die Stichprobenwerte müssen dann mit dem umgekehrten Anteil ihrer Schicht gewichtet aufaddiert werden, damit es nachher zu keinen Auswertungsverzerrungen kommt.

2.4 Zufallsauswahlverfahren

71

•• Optimale Schichtung bedeutet, dass versucht wird, durch die Schichtung den Zufallsfehler für eine gegebene Stichprobengröße bzw. bei gegebenem Zufallsfehler die Stichprobengröße zu minimieren. Aus homogenen Teilmassen werden folglich kleinere, aus heterogenen größere Stichproben gezogen. Dies setzt freilich die Kenntnis der Merkmalsverteilung in den Schichten voraus, die aber oft erst erhoben werden soll und damit a priori unbekannt bleibt. Es sei denn, es wird ein anderes als das der Auswahl zugrunde liegende Merkmale erhoben. Zentraler Vorteil der Geschichteten Zufallsauswahl ist die Verringerung des Auswahlsatzes bei gleicher Genauigkeit der Ergebnisse durch die Erreichung homogener Teilgesamtheiten bzw. die Erhöhung der Genauigkeit bei gleich bleibendem Auswahlsatz. Allerdings müssen dafür aussagefähige Schichtungsmerkmale für die Grundgesamtheit verfügbar sein.

2.4.4 Klumpenauswahl / Flächenauswahl Die Klumpenauswahl (Cluster sampling) ist ein hybrides Auswahlverfahren, d. h. eine Kombination aus Auswahl und Vollerfassung. Dabei wird die Grund­ gesamtheit in gehäufte Teilmassen zerlegt, z. B. Betriebe, Haushalte, Vereine. Von diesen wird dann nach dem Zufallsprinzip eine bestimmte Anzahl zur Auswahl gezogen. Diese Klumpen werden einer Vollerhebung unterzogen, d. h., alle Elemente im Klumpen werden erhoben. Der Vorteil ist dabei, dass weder die Grundgesamtheit vollständig vorliegen, noch deren Struktur im Einzelnen bekannt sein muss. Die Auswahlbasis ist vergleichsweise einfach zu beschaffen und die klumpenweise Erfassung wenig aufwändig. Ein großer Nachteil liegt allerdings in der Gefahr von Klumpungseffekten. Diese treten immer dann auf, wenn ausgewählte Klumpen in sich zwar relativ gleichartig, gleichzeitig aber verschiedenartig von der Struktur der Grundgesamtheit sind. Dann kann von den Ergebnissen dieser Klumpen nicht auf die Verhältnisse in der Grundgesamtheit geschlossen werden. Außerdem ergeben sich Probleme, wenn ein Element mehreren Klumpen angehört oder Klumpen entgegen der Annahme in sich inhomogen sind. Bei der Flächenstichprobe (Area sampling), die im Kern eine Unterform der Klumpenauswahl darstellt, werden die Klumpen geographisch definiert, z. B. als Nielsengebiete, Bezirke, Kreise, Gemeinden. Aus diesen Teilflächen werden dann die Stichprobenelemente bestimmt, die ihrerseits vollständig erhoben werden. Die relative räumliche Konzentration der Erhebungseinheiten senkt dabei die Kosten der Auswahl drastisch. Selbst wenn nur eine Landkarte oder ein Stadtplan vorhanden sind, kann damit noch eine Stichprobe bestimmt werden. Die Grundgesamtheit wird dabei in Teilflächen (Planquadrate, Häuserblocks etc.) aufgeteilt. Allerdings gelten die bei der Klumpenauswahl erwähnten Nachteile (z. B. Auswahl eines Villenviertels als Erhebungscluster für eine Stadt).

72

2. Auswahlverfahren zur Erhebung

Abbildung 11: Prinzip der Klumpenauswahl

2.4.5 Sonderformen Aufgrund unzureichenden statistischen Materials oder wegen der Größe und Streuung der zu untersuchenden Grundgesamtheit ist es häufig nicht möglich, die Stichprobenelemente unmittelbar mittels Zufallsauswahl zu bestimmen. Dann sind Sonderformen einzusetzen. Bei der mehrphasigen (sequenziellen) Auswahl werden mehrere Zufallsauswahlverfahren hintereinander geschaltet, die dem gleichen Auswahlprinzip folgen. Damit handelt es sich in der nachfolgenden Phase jeweils um eine Unterstichprobe der vorhergehenden. Entsprechend kann der Erhebungsaufwand in jeder Phase gestaffelt werden. Es muss nicht die Grundgesamtheit im Detail komplett vorliegen, sondern jeweils nur die Unterstichprobe, die zur weiteren Auswahl verwendet wird. Die Stichprobe wird vorher in ihrer Größe nicht definiert, sondern ergibt sich durch parallel anzusetzende Gütekriterien. Beim ADM-Master Sample (Arbeitsgemeinschaft deutscher Marktforscher) erfolgt in der ersten Stufe die Auswahl von amtlichen Stimmbezirken (Area sampling). Daraus wird eine Stichprobe von 210 solcher Sampling points gezogen und angeordnet. Die Auswahlchance ist proportional zur Haushaltszahl dort. In der zweiten Stufe erfolgt eine uneingeschränkte Zufallsauswahl der zu erhebenden Haushalte in den gezogenen Sampling points. In der dritten Stufe schließlich werden die zu befragenden Personen in den gezogenen Haushalten systematisch zufallsausgewählt (etwa alle Haushaltsmitglieder, jede n-te Person im Haushalt, ein Mitglied je Haushalt etc.). Die Musterstichprobe kann dabei im Baukastensystem verschiedenen Forschungsdesigns angepasst werden.

2.4 Zufallsauswahlverfahren

73

Bei der mehrstufigen Auswahl (Multistage sampling) werden mehrere zufällige und bewusste Auswahlverfahren kombiniert eingesetzt. Jeweils wird aus der Grundgesamtheit eine systematisch ausgewählte Primärstichprobe gezogen, aus der dann wiederum Sekundäreinheiten systematisch (rein mehrstufig) oder zufällig (kombiniert mehrstufig) gezogen werden. Die Vorgehensweise ist also vertikal (im Unterschied zur geschichteten Auswahl). Beim Random route-Verfahren sind die Flächenstichprobe zur Bestimmung der Sampling points, die Systematische Zufallsauswahl zur Bestimmung der Haushalte und darauf folgend der Zielpersonen nacheinander geschaltet. Ausgangspunkt ist eine streng nach Zufall ausgewählte Startadresse, von wo aus Interviewer nach strikt vorgegebenen Regeln bezüglich Gehrichtung, Abständen, Stockwerken, Straßenseiten etc. einen stochastischen Auswahlprozess von Stichprobenelementen simulieren. Vorteile liegen in der räumlichen Konzentration der Erhebungsarbeit, den guten Kontrollmöglichkeiten und geringen Kosten. Nachteilig ist jedoch, dass kein Stichprobenfehler berechenbar ist und größere Stichprobenumfänge für eine gegebene Validität und Reliabilität erforderlich sind.

Vorteilhaft bei der mehrstufigen Auswahl ist die Tatsache, dass die Grund­ gesamtheit nicht symbolisch repräsentiert sein muss. Auch sind Informationen über Merkmalsverteilungen in der Grundgesamtheit nicht erforderlich. Die Einbeziehung des Raumgebiets als Untersuchungskriterium ist darstellbar, etwa durch bewusste Klumpenbildung. Dies ermöglicht eine Zeit- und Kostenersparnis sowie eine bessere Intervierwerkontrolle. Bei der Auswahl nach dem Schneeballverfahren wird von einer Startadresse ausgehend jeweils die nächste Zieladresse nach einem Zufallsmechanismus bestimmt undsofort. Dadurch sollen Leerinterviews vermieden werden, z. B. bei Produkten mit niedrigem Marktanteil oder Erhebung von Bevölkerungsminderheiten, und Kostenvorteile entstehen. Es besteht jedoch die große Gefahr, dass der Stichprobenfehler ansteigt, weil Verzerrungen kumulieren (so führt eine untypische Startadresse häufig zu ebenso untypischen Folgeadressen). Bei der Auswahl mit ungleichen Wahrscheinlichkeiten haben größere Erhebungs­ einheiten eine höhere Chance, in die Stichprobe einzugehen als kleinere, z. B. erfolgt die Auswahl nach der Anzahl der im Haushalt lebenden Personen und nicht nach der Anzahl der Haushalte selbst. Damit wird dann womöglich in einem Mehrpersonenhaushalt mehr als eine Person erhoben, in einem Einpersonenhaushalt hingegen keine. Bei der Auswertung wird diese „Verzerrung“ dann wieder durch reziproke Gewichtung gegengerechnet. Bei der Auswahl mit Anordnung werden die infrage stehenden Elemente zunächst in Bezug auf bestimmte Merkmale sortiert und anschließend s­ ystematisch ausgewählt. Die Wirkung ist damit ähnlich einer Schichtung, jedoch ist vorher keine getrennte Gruppenbildung notwendig, wodurch Klumpungseffekte ent­ fallen. Allerdings können auch keine unterschiedlichen Auswahlsätze realisiert werden.

74

2. Auswahlverfahren zur Erhebung

Abbildung 12: Beispiel der Ausschöpfung einer Random-Stichprobe

2.5 Bewusstauswahlverfahren Bei der bewussten Auswahl handelt es sich um ein bei Teilerhebungen häufig angewendetes Auswahlverfahren, bei dem das Forschungsdesign darüber entscheidet, welche Einheiten der Grundgesamtheit in die Stichprobe gelangen und welche nicht, im Unterschied zur Zufallsauswahl, bei der die Wahrscheinlichkeit zählt. Abzugrenzen ist dabei besonders von der willkürlichen Auswahl. Die Bewusstauswahl bedingt einen vergleichsweise geringeren Zeitaufwand bei geringeren Kosten. Dennoch wird eine umfangreiche Informationssammlung über interessierende Fälle möglich. Allerdings ist keine statistische Kontrolle des Auswahlfehlers möglich. Dadurch ergibt sich nur eine unsichere Generalisierbarkeit der Ergebnisse. Das mit Abstand häufigste Verfahren der Bewusstauswahl ist das Quota-Verfahren.

2.5 Bewusstauswahlverfahren

75

2.5.1 Quota-Auswahl 2.5.1.1 Darstellung Dem Quota-Verfahren liegt der Gedanke zugrunde, dass, wenn die Verteilung aller Merkmalsausprägungen auf allen Merkmalsdimensionen einer Grund­ gesamtheit bekannt ist, es möglich wird, ein bewusstes, verkleinertes Modell dieser Grundgesamtheit zu erstellen. Das heißt, es kann eine Stichprobe entwickelt werden, die in allen untersuchungsrelevanten Merkmalen für die Grundgesamtheit repräsentativ ist. Die Verteilung dieser Merkmale nennt man Quoten. Diese Quoten kann man auf die Stichprobe übertragen. Dazu ist aber selten die Kenntnis aller Merkmale erforderlich, sondern nur der für die Untersuchung sachrelevanten. Beim Quota-Verfahren werden also einige offensichtliche Merkmale, deren Verteilung in der Grundgesamtheit bekannt ist und von denen man weiß oder annehmen kann, dass sie für das Untersuchungsziel relevant sind, als Auswahlkriterien für die Stichprobenbestimmung ausgewählt. Mit diesen Merkmalen wird ein Quotenplan erstellt, der die Quotenanweisung enthält. Innerhalb der vorgegebenen Quotierung ist es unerheblich, welches Element der Grundgesamtheit in die Stichprobe aufgenommen wird, solange es nur in seinen Merkmalen der Quotenanweisung entspricht, und in der Kumulation aller Erhebungseinheiten dabei der vorgegebene Quotenplan eingehalten wird. Das bedeutet aber, Marktforscher wählen ihre Auskunftspersonen nach Vorgabe selbst (bewusst) aus. In der Summe entsteht so bei sorgfältiger Durchführung eine Stichprobe, die zumindest, was die quotierten Merkmale anbelangt, exakt der Grundgesamtheit entspricht. Der Ablauf dieses, in der Praxis am häufigsten eingesetzten, Auswahlverfahrens bei der mündlichen Befragung ist folgender: •• Festlegung der jeweils erhebungsrelevanten Merkmale wie Alter, Geschlecht, Wohngebiet, Beruf, dabei sind als realistische Begrenzung selten mehr als drei Merkmale zugleich kombinierbar, •• Festlegung der möglichen Ausprägungen der einzelnen Merkmale, z. B. beim Alter nach Altersklassen wie 16–25 J., 26–35 J., 36–45 J., 46–55 J., 56–65 J., über 65 J, •• Ermittlung der relativen Häufigkeiten der verschiedenen Merkmalsausprägungen eines jeden relevanten Merkmals in der Grundgesamtheit, die dazu aus zuverlässigen Unterlagen heraus bekannt sein muss, •• Vorgabe dieser objektiven und zugleich spezifischen Quoten für die Stichprobe als exaktes Abbild der Grundgesamtheit, •• Auswahl der einzelnen Auskunftspersonen durch jeden einzelnen Interviewer, dem wiederum derart Quoten vorgegeben werden, dass in der Addition aller Interviews die Quotierung repräsentativ für die zugrunde liegende Grundgesamtheit ist.

76

2. Auswahlverfahren zur Erhebung

Abbildung 13: Beispiel einer Quotenanweisung

Es sind zwei Formen der Quotierung zu unterscheiden. Bei unkorrelierten Quo­ ten werden Merkmale vorgegeben, bei denen die Relationen einzeln erfüllt werden müssen. Dadurch bleiben dem Interviewer gegen Ende immer geringere Freiheitsgrade bei der Auswahl, weil erfahrungsgemäß zunächst die leicht zu kombinierenden Quotenmerkmale abgearbeitet werden. Darunter leidet die Stichprobenausschöpfung. Bei korrelierten Quoten werden bestimmte Merkmalskombinationen fest kombiniert vorgegeben, zu denen Personen in entsprechender Anzahl erhoben werden sollen. Dies erschwert das Auffinden entsprechender Personen für die gesamte Erhebung, macht jedoch, zumindest theoretisch, eine vollständige Stichprobenausschöpfung möglich.

2.5 Bewusstauswahlverfahren

77

2.5.1.2 Vorteile Wesentliche Vorteile des Quota-Verfahrens sind folgende: •• Die Durchführung ist vergleichsweise kostengünstig. Dies ist Resultat der Erhebungsrationalisierung bei der Auswahl. Denn Interviewer wählen ihre Auskunftspersonen, im Rahmen der Quoten, selbst aus. •• Der Zeitaufwand zur Durchführung ist vergleichsweise gering, so dass eine schnelle Realisation möglich wird. Dies ist unmittelbare Konsequenz der Rationalisierung. •• Die Übereinstimmung zwischen Stichprobenmerkmalen und Grundgesamtheitsmerkmalen ist vollständig gegeben. Denn die Stichprobe ist als exaktes Abbild aus der Grundgesamtheit entwickelt worden. •• Das Verfahren ist flexibel zu handhaben. So kann eine nachträgliche Anpassung der Stichprobe an die Grundgesamtheit durch Redressement erfolgen, d. h. unterschiedliche Gewichtung einzelner Quotenmerkmale. •• Es kommt zu einer vollständigen Stichprobenausschöpfung, da die Auswahl solange fortgesetzt wird, bis die Stichprobengröße erreicht ist. Die Übereinstimmung zwischen Stichproben- und Grundgesamtheitsmerkmalen ist vollständig gegeben. •• Der Auswahlmechanismus ist unkompliziert. Insofern sind keine spezialisierten Interviewer erforderlich. Dies erhöht die Effizienz. •• Der Ermessensspiel der Interviewer bei der Erhebungspersonenauswahl wird durch Vorgabe von Quoten eingeschränkt und kann daher nur begrenzt verzerrend wirken. •• Es sind keine Wiederholungsbesuche von Stichprobenteilnehmern bei Nicht­ antreffen erforderlich. Vielmehr können stattdessen andere, quotenkonforme Einheiten erhoben werden. Auch dadurch wird eine höhere Effizienz erreicht. •• Die Anonymität der Auskunftsperson bleibt gewährleistet, falls dies gewünscht oder erforderlich ist. Denn sie muss nur hinsichtlich ihrer Quotenmerkmale identifizierbar sein. 2.5.1.3 Nachteile Nachteile des Quota-Verfahrens sind hingegen folgende: •• Es ist keine mathematisch fundierte Fehlerberechnung möglich, da keine Zufallsauswahl vorliegt. Auch die meisten statistischen Testverfahren sind demnach nicht anwendbar. Dies wird gelegentlich beim Einsatz elaborierter Ana­ lyseverfahren übersehen.

78

2. Auswahlverfahren zur Erhebung

•• Viele relevante Merkmale entziehen sich einer Quotierung, vor allem solche qualitativer Natur. So sind nur äußere (demographische) Merkmale zur Quotierung geeignet, nicht jedoch Einstellungen, Meinungen, Motive etc. (theoretische Konstrukte). •• Der zugrunde gelegte Zusammenhang zwischen Untersuchungs- und Quotierungsmerkmalen kann täuschen. Um dies zu vermeiden, ist bereits zu Beginn der Arbeit ein Wissensstand erforderlich, wie er eigentlich erst an dessen Ende bereitstehen kann. •• Das der Quotenbildung zugrunde liegende Basismaterial kann fehlerhaft, vor allem veraltet, sein. Unzuverlässige Unterlagen führen aber zu unspezifischen Quoten und damit zu weitgehend wertlosen Ergebnissen. •• Zur Vorgabe von Quoten sind Informationen über die Grundgesamtheit erforderlich, die häufig nicht vorliegen oder nicht aktuell sind. Die Quotierungsmerkmale haben zudem häufig keinen theoretischen Bezug zur Fragestellung, die erhoben werden soll. •• Die Kombination quotierbarer Merkmale ist aus Praktikabilitätsgründen begrenzt. Die Grenze wird hier bei max. fünf Merkmalsgruppen gesehen. Allerdings können sich auch bei weniger Merkmalen annähernd repräsentative Verhältnisse einstellen. •• Das Auffinden von zutreffenden Probanden bei Restquoten wird immer schwieriger, da zuerst leicht erreichbare Merkmalskombinationen realisiert werden. So können gegen Ende Quotierungen durch Interviewer großzügig ausgelegt ­werden. •• Verzerrungen durch Ausfälle, Verweigerungen etc. bleiben unerkannt, da für diesen Fall quotenkonforme Ersatzelemente einspringen. Dies verursacht systematische Fehler, wenn Stichprobenausfälle nicht nur zufällig von den erhobenen Einheiten abweichen, was hochwahrscheinlich ist. •• Die willkürliche Bevorzugung bestimmter Auswahlelemente der Quotierung ist nicht ausgeschlossen, z. B. Freundeskreis, Parterrewohnungen, Heimatbezirk. Dies liegt gerade bei Zeit- und Wegeeinsparung nahe. Gleiches gilt für die Mehrfachbefragung gleicher Personen, obgleich dies in den Anweisungen ausgeschlossen wird. •• Es können keine hoch spezialisierten Themen erhoben werden, deren zugehörige Quotenmerkmale nicht offensichtlich sind. Damit werden aber wichtige Erkenntnisse des Käuferverhaltens vernachlässigt. •• Die Erhebung leicht erreichbarer Personen benachteiligt mobile Bevölkerungsschichten. Umgekehrt werden gut erreichbare Personenkreise überrepräsentiert. Dadurch kommt es zu systematischen Verzerrungen.

2.5 Bewusstauswahlverfahren

79

•• Es kommt zu einer subjektiven Vorauswahl von Auskunftspersonen, etwa infolge unbewusster Sympathien oder Antipathien auf Interviewerseite. Diese Filterung ist nicht erfassbar, nicht kontrollierbar und auch nicht vermeidbar. Abhilfe der genannten Nachteile wird durch mehrere Maßnahmen geschaffen: •• Die Quotenmerkmale werden eng mit dem Untersuchungsgegenstand korreliert und zwingen den Interviewer aus seinem gewohnten Umfeld (Vermeidung von Klumpungseffekten und von Mehrfacherhebungen). •• Es sollten keine speziellen Themen gegeben sein, die Interviewer dazu verleiten, sich an vermeintliche Experten zu wenden, oder sich selbst zu spezialisieren. Dies erfolgt meist in gutem Glauben an die werthaltigere Information dieser Personen. •• Die Anzahl der Erhebungsaufträge je Interviewer wird eng begrenzt (max. 10). Insofern gleichen sich Verzerrungen und Fälschungen, von denen man getrost ausgehen muss, im Rahmen einer repräsentativen Erhebung gegenseitig aus. In der Praxis haben sich die Zufalls- und die Quota-Auswahl als gleichwertig hinsichtlich der Qualität ihrer Ergebnisse erwiesen. Diese schwanken eher mit der Professionalität der Untersuchungsanlage, -durchführung und -auswertung als mit dem zugrunde gelegten Auswahlverfahren. Dies wird auch sofort einsichtig, wenn man bedenkt, welche vielfältigen Fehlermöglichkeiten bei einer Erhebung insgesamt gegeben sind, sodass die Fehler, die aus dem Auswahlverfahren resultieren, anteilig im Verhältnis zu anderen gering bleiben.

2.5.2 Sonstige Verfahren Beim Konzentrationsverfahren (Cut off) wird eine Vollerhebung für solche Elemente der Grundgesamtheit vorgenommen, denen für den Untersuchungszweck besondere Bedeutung zukommt. Alle anderen werden hingegen vernachlässigt. Dies ist nur dann sinnvoll, wenn diese Elemente einen sehr hohen Erklärungsbeitrag für die zu untersuchenden Sachverhalte leisten, also ein starkes Ungleichgewicht der Elemente gegeben ist. So kann man sich in der Handelsforschung beim hohen Konzentrationsgrad sowohl auf der Lieferantenstufe als auch auf der Absatzmittlerstufe auf eine Erhebung der großen Markenartikler in der Industrie und der Großbetriebsformen des Handels beschränken und erhält dennoch alle relevanten Informationen, die zur Beurteilung der Situation im Absatzkanal erforderlich sind. So werden oft nur Fokus-Gruppen aus A-Kunden (Leads users) erhoben. Bei den Typischen Fällen werden nach Ermessen des Interviewers solche Elemente aus der Grundgesamtheit ausgewählt, die von ihm als charakteristisch erachtet werden. Es ist jedoch sehr gefährlich, von den derart erzielten Ergebnissen hoch zu rechnen, denn Fehlerquellen liegen nicht nur in der deutlichen, interindividuellen Abweichung darüber, was subjektiv als typisch anzusehen ist und was

80

2. Auswahlverfahren zur Erhebung

nicht, sondern auch in der unzulässigen Verallgemeinerung der Aussagen von diesen auf alle Fälle. In der Marketingpraxis liegt etwa dem „Pufra“-Test eine solche typische Auswahl zugrunde. Dabei werden im Rahmen von Meetings spontan unbeteiligte Mitarbeiter, meist Sekretärinnen, Assistenten oder eben Putzfrauen, daher die Abkürzung, zu Entscheidungsobjekten befragt und von deren Aussagen unzulässige Verallgemeinerungen hinsichtlich der Zielgruppe gezogen. Ein völlig unsinniges Procedere, das dennoch immer wieder wider besseren Wissens angewandt wird. Die Auswahl aufs Geratewohl, auch Willkürprinzip genannt, wird unter Laien oft als Verfahren der Zufallsauswahl betrachtet. Dazu werden zu gegebener Zeit in gegebenem Raum aufs Geratewohl, also nach freiem Ermessen, Auskunftseinheiten ausgewählt. Da jedoch nicht sichergestellt ist, dass alle Elemente der Grund­ gesamtheit eine von Null verschiedene Chance haben, in die Stichprobe einzugehen, handelt es sich dabei gerade nicht um eine zufällige, sondern vielmehr um eine willkürliche Auswahl. Diese lässt allen Freiraum für Verzerrungen. Eine Stichprobenauswahl aufs Geratewohl bürgt damit geradezu für unbrauchbare Ergebnisse. Diese sind etwa beim „Baggern“ von Probanden in der Fußgängerzone vor dem Teststudio gegeben, sodass bereits daran die Aussagefähigkeit ansonsten elaborierter Forschungsverfahren zu scheitern droht.

2.6 Verzerrungsmöglichkeiten bei der Auswahl Hinsichtlich der Fehlermöglichkeiten bei der Auswahl gibt es Stichprobenausfälle und Stichprobenfehler. Bei Stichprobenausfällen gibt es unechte Ausfälle, die stichprobenneutral sind und daher nicht verzerren, sowie echte Ausfälle, die zu Ergebnisverzerrungen führen. Leider ist die Realität durch echte Fehler bei Stichprobenausfällen gekennzeichnet. Bei Stichprobenfehlern gibt es zufällige Fehler (genauer zufallsähnliche Messfehler und Stichprobenfehler i. e. S.), die nur bei Teilerhebung mit Zufallsauswahlverfahren auftreten und zumindest den Vorteil haben, dass Abweichungen der Ergebnisse der Stichprobe gegenüber einer Vollerhebung in der Grundgesamtheit statistisch ausgewiesen werden können. Sowie systematische Fehler (genauer Auswahlfehler und sonstige, nicht stichprobenbedingte Fehler), die auch bei Vollerhebung und bewusster Auswahl auftreten und nicht wahrscheinlichkeitstheoretisch erfassbar sind, da sie in Unzulänglichkeiten in der Versuchsanlage begründet sind. Zufällige und systematische Fehler ergeben gemeinsam den Gesamtfehler. Systematische Fehler haben mehrere Ursachen. Durch den Träger der Unter­ suchung hervorgerufene Fehler entstehen bei der Erhebungsplanung, u. a. bei unpräziser Definition des Untersuchungsziels, falscher Formulierung des Untersuchungsgegenstands, unklarer Abgrenzung der Grundgesamtheit, aus der Verwendung unkorrekter, veralteter Unterlagen, aus unzweckmäßiger Auswahl und

2.7 Induktive Datenanalyse

81

Kombination der Methodenelemente, mangelhaftem Fragenprogramm etc. Sie entstehen bei der Erhebungstaktik, u. a. durch falsche Zusammensetzung des Interviewerstabs, unzweckmäßige Fragebogengestaltung, unklare Instruktionen zur Erhebung, unangemessene Operationalisierung der zu erhebenden Sachverhalte, nicht valide und reliable Messinstrumente etc. Sie entstehen durch die Anwendung ungeeigneter Auswahlverfahren mit Strukturungleichheit von Grundgesamtheit und Auswahlgrundlage oder lückenhafter Auswahlbasis. Und sie entstehen durch die Verfahrensumsetzung selbst, z. B. durch Rechen- und Rundungsfehler, Auswertungs-, Darstellungs- und Interpretationsfehler, Codierfehler, falsch angewandte Analyseverfahren. Fehler bei der Erhebungsdurchführung entstehen u. a. aus mangelhafter Organisation der Feldarbeit und deren ungenügender Kontrolle, ungünstigen Zeitumständen, verspäteter Ausführung etc. Durch den Interviewer hervorgerufene Fehler entstehen u. a. infolge Verzerrung des Auswahlplans durch Manipulation und Falschauswahl (Quoten­fehler) bzw. Verzerrung der Antworten bei Beeinflussung der Auskunftspersonen durch Erscheinungsbild und soziale Differenz zwischen Befrager und Befragtem (Auftrittsfehler), durch suggestives Vorbringen von Fragen, Betonung, Stimmlage und durch selektive / nachlässige Antwortregistrierung bzw. Falscheintrag (Übertragungs­fehler). Durch Probanden hervorgerufene Fehler entstehen u. a. durch Non responseFälle, aus Gründen wie interviewende Person wird nicht angetroffen, Antwort wird verweigert, Person ist antwortunfähig etc., und Falschbeantwortung, z. B. infolge Überforderung, Prestige, Affekt, Erinnerungslücke, Drittbeeinflussung. Hinzu tritt das Problem, dass Teilausfälle infolge nur unvollständiger Beantwortung einzelner Fragen gegeben sind (Missing values). Kommen kumulativ mehrere dieser Fehlerquellen zusammen, also unvollständige Ausgangsdaten oder ungültige Adressen, Verzicht auf Ansprache abwesender Personen, Verweigerungsquote etc., leidet die Aussagefähigkeit der Forschung erheblich. Insofern ist es wichtig zu berücksichtigen, dass Forschungsdaten trotz elaborierter Verfahren nur mehr oder minder gute Anhaltspunkte sind, keineswegs jedoch bis auf die Kommastelle genau genommen werden dürfen. Daher ist vor Entscheidungen immer eine Plausibilitätskontrolle wichtig, und wenn „Bauch­ gefühl“ und Daten einander widersprechen, sollte man dem Bauchgefühl folgen oder die Daten noch einmal kritisch hinterfragen.

2.7 Induktive Datenanalyse In der induktiven Datenanalyse (Inferenzstatistik) interessiert es, von den bekannten Stichprobenkennwerten auf die unbekannten Parameter der Grundgesamtheit innerhalb gewisser Vertrauensbereiche zu schließen (= Repräsentations­ schluss oder indirekter, induktiver Schluss). Im Unterschied dazu gilt es, beim

82

2. Auswahlverfahren zur Erhebung

direkten, induktiven Schluss (= Inklusionsschluss) von den wahren Werten der Grundgesamtheit auf diejenigen Werte, die in einer Stichprobe zu erwarten sind, verallgemeinert zu schließen. Beide sind, sofern eine Zufallsstichprobe vorliegt, unter Berücksichtigung des Stichprobenfehlers berechenbar. Man unterscheidet bei Stichproben zwei Fälle: •• Der heterograde Fall ist gegeben, wenn das zu untersuchende Merkmal ­metrisch skaliert ist, z. B. Umsatz, Alter, Einkommen. Hier interessiert die Stichprobenverteilung des arithmetischen Mittels. •• Der homograde Fall ist gegeben, wenn das zu untersuchende Merkmal nichtmetrisch (nominal) skaliert ist, also dichotom (zweiwertig) oder multi­chotom (mehrwertig). Interessant ist dabei die Stichprobenverteilung des Anteilswerts der Aussagen. Es geht um die jeweilige Eigenschaft als Anteilsträger oder Nichtanteilsträger.

2.7.1 Schätzverfahren Zum Schätzen der unbekannten, wahren Werte der Grundgesamtheit werden Schätzer benötigt, die auf Daten aus der Stichprobe beruhen. Ein solcher Schätzer ist der Stichprobenmittelwert, von dem auf den Erwartungswert als Mittelwert der Grundgesamtheit geschlossen werden kann. Dabei wird meist die t-Verteilung zugrunde gelegt, die Abweichungen beschreibt, die dadurch zustande kommen, dass bei Signifikanztests anstelle der unbekannten Standardabweichung in der Grundgesamtheit mit der bekannten in der Stichprobe gerechnet werden muss. Schätzverfahren betreffen also statistische Methoden zum indirekten Schluss von einem Stichprobenbefund auf die unbekannten Parameter der zugrunde liegenden Grundgesamtheit. Man unterscheidet Punkt- und Intervallschätzungen. Punktschätzungen beziehen sich auf eine möglichst genaue Schätzung für den unbekannten Parameter der Grundgesamtheit als nummerischen Wert evtl. auch als Schwellenwert. Verfahren dazu sind die Maximum likelihood-, die Chi Quadrat Mimimum- oder die Kleinstquadrat-Methode. Intervallschätzungen beziehen sich darauf, Bereiche abzustecken, in denen der unbekannte Parameter mit einer bestimmten, vorgegebenen Wahrscheinlichkeit zu erwarten ist. Die Genauigkeit dieser Schätzung kann durch die Breite des Konfidenzintervalls und die Sicherheit der Schätzung durch die Eintrittswahr­ scheinlichkeit ausgedrückt werden, mit der dieses Intervall den unbekannten Parameter umschließt. Bei gegebenem Stichprobenumfang ist bei hoher Genauigkeit der Vertrauensbereich breiter, die Aussage also unsicherer, bei geringer Genauigkeit schmaler, die Aussage also sicherer. Bei Erweiterung des Intervalls steigt die Wahrscheinlichkeit, einen falschen Wert über den unbekannten, wahren Wert anzugeben. Gleichzeitig werden die Angaben über den wahren Wert unpräziser. Zwischen Genauigkeit und Sicherheit besteht somit ein Zielkonflikt.

2.7 Induktive Datenanalyse

83

Das Konfidenzintervall gibt an, in wie viel Prozent aller Stichproben einer Grundgesamtheit erwartet werden kann, dass der unbekannte „wahre“ Wert der Grundgesamtheit in den Grenzen des Intervalls liegt. Es gibt die Wahrscheinlichkeit dafür an, dass das Resultat einer Stichprobe überhaupt zutrifft und enthält dafür zwei Elemente, den Genauigkeitsgrad (Intervall), also die Fehlerspanne, und den Sicherheitsgrad (Niveau), also die Wahrscheinlichkeit des Eintritts. Das Komplement ist dann die Irrtumswahrscheinlichkeit, d. h. das Risiko, dass ein Ursprungswert außerhalb des Konfidenzintervalls liegt (Beispiel: „Mit einer Wahrscheinlichkeit von X % kann damit gerechnet werden, dass die durchschnittlichen Reparaturkosten für den Artikel Z zwischen A und B € liegen.“). Das Konfidenzniveau gibt den Flächenanteil unter der Normalverteilungskurve an, auf den die Wahrscheinlichkeit der Aussage zutrifft. Der Stichprobenfehler gibt das bei vorgegebener Irrtumswahrscheinlichkeit zu erwartende Höchstmaß des Zufallsfehlers an. Die Anforderungen an die Schätzer sind teilweise widersprüchlich und lauten im Einzelnen wie folgt: •• Erwartungstreue, d. h. Freiheit von systematischen Fehlern (keine Verzerrung), die Schätzfunktion liefert dann im Mittel den wahren Wert, •• Effizienz, d. h. möglichst kleine Varianz, genauer, wenn die Varianz endlich ist und es keine andere Schätzfunktion mit kleinerer Varianz gibt, •• Konsistenz, d. h. möglichst kleiner Stichprobenfehler, die Schätzfunktion nähert sich dann mit wachsendem Stichprobenumfang asymptotisch dem wahren Wert an, dabei geht die Wahrscheinlichkeit, dass die Differenz von Schätzwert und wahrem Wert größer als eine beliebig kleine positive Zahl ist, mit zunehmender Stichprobengröße gegen Null, •• Suffizienz, d. h. Nutzung aller Daten der Stichprobe, dass also die gesamte Information über den wahren Parameter ausgeschöpft wird, •• Robustheit, d. h. Unempfindlichkeit gegen Ausreißer. Schätzer, die diese Anforderungen bestmöglich erfüllen, nennt man „beste erwartungstreue lineare Schätzer“ (BLUE). Schätzverfahren bieten sich an, wenn die Parameter der Grundgesamtheit unbekannt sind. Bestehen jedoch Vorstellungen über Werte eines Parameters der Grundgesamtheit, kommt es zur Hypothesenbildung mit Annahme oder Ablehnung in Testverfahren.

2.7.2 Testverfahren Es entspricht dem forscherischen Selbstverständnis, systematisches Wissen über einen Gegenstand in Hypothesen zu kleiden. Die Praxis wissenschaftlicher Erkenntnissuche besteht in einem fortwährenden Prozess des Aufstellens, Über-

84

2. Auswahlverfahren zur Erhebung

prüfens, Verwerfens und Verbesserns von Hypothesen, also Annahmen über die Realität. Damit diese Bestand haben können, müssen sie empirisch verifiziert werden (aus Erfahrung oder aus Forschung). Dann entstehen daraus Thesen, die, sofern sie verifiziert sind, eine Verallgemeinerung von Gesetzen, d. h. empirischen Aussagen in Form von Begriffen, für alle gleichartigen Fälle in einer Theorie darstellen. Damit es zur Verifikation kommen kann, müssen die Hypothesen getestet werden (in künstlichen Welten / Labor oder in der natürlichen Welt / Feld). Lassen sich die Annahmen der aufgestellten Hypothese nicht vorfinden, gilt sie als fal­sifiziert (damit man weiß, welche Hypothese dann gilt, ist es berechtigt, vorher eine Alternativhypothese zu formulieren). Treten die Annahmen ein, gilt sie nur als vorläufig nicht widerlegt. Voraussetzung für die Falsifizierbarkeit ist, dass keine Tautologie vorliegt (Immunisierungsaussage). Nach dem kritischen Rationalismus gibt es keine endgültige Verifikation für Allaussagen, also auch keine endgültige Wahrheit, oder zumindest kann man nicht sicher sein, im Besitz dieser Wahrheit zu sein. Damit ist auch induktives Schlussfolgern logisch nicht möglich. 2.7.2.1 Testdurchführung Hypothesenprüfungen finden durch Signifikanztests statt. Unterschiedshypothesen beziehen sich auf ein Konfidenzintervall (Unterschied zwischen Varia­ blen), Zusammenhangshypothesen auf eine Korrelation (Beziehung zwischen Variablen). Verteilungshypothesen beziehen sich auf die Verteilung einer Variablen, Veränderungshypothesen auf die Veränderung einer Variablen. Solche Signifikanz­ tests sollen eine Entscheidung darüber herbeiführen, ob Unterschiede zwischen dem postulierten wahren Wert (Hypothese) und dem Stichprobenergebnis (Empirie) nur zufällig gegeben oder statistisch als überzufällig anzusehen gesichert, also signifikant, sind. Dabei kann es sich um wertmäßig bestimmte Entscheidungs­ alternativen handeln (exakter Wert) oder um eine nicht wertmäßig bestimmte, zusammengesetzte Hypothese (größer / kleiner oder ungleich Werte). Je nach Skalen­ niveau der betrachteten Variablen, nach Verteilungstyp der zugrunde gelegten Daten und der Art der Hypothesenbildung werden unterschiedliche Testverfahren eingesetzt. Durch sie kann aber nur erreicht werden, dass unter einer Vielzahl möglicher Hypothesen der Anteil der richtigen erhöht wird. Testverfahren dienen also dem Ziel, Hypothesen über unbekannnte Grund­ gesamtheiten an Hand einer oder mehrerer Stichproben auf ihre Überzufälligkeit hin zu überprüfen. Die Auswahl der aufzustellenden und zu überprüfenden Hypothesen lässt sich nicht wirklich begründen, sie ist vielmehr subjektiver Wertung unterworfen. Ausgangspunkt für die statistische Prüfung ist die Arbeitshypothese. Diese wird nach fachkundiger Einsicht in einen bestimmten Sachzusammenhang formuliert. Die Entscheidung über Ablehnung oder Nichtablehnung der Arbeitshypothese

2.7 Induktive Datenanalyse

85

hängt davon ab, ob der Prüfwert im Ablehnungs- oder im Annahmebereich der Prüffunktion liegt. Die Festlegung dieser Bereiche basiert auf der Wahrscheinlichkeitsverteilung der Prüffunktion. Die Nichtablehnung ist nicht gleichzusetzen mit der Richtigkeit der Hypothese. Die Abweichung ist dann lediglich nicht signifikant, d. h. nur zufällig.

Abbildung 14: Ablauf des Signifikanztests

Der Ablauf von Testverfahren umfasst folgende Schritte. Die Hypothesenfor­ mulierung ist die Vermutung des Anwenders über bestimmte Eigenschaften der Grundgesamtheit auf Basis der vorliegenden Stichprobendaten („Wenn-dann“oder „Je-desto“-Aussagen). Diese vermuteteten Variablenbeziehungen werden in ein Pfaddiagramm übersetzt, das die Richtung der Variablenbeziehungen widerspiegelt und in ein System linearer Gleichungen überführt wird. Dessen Struktur wird anhand empirischer Daten getestet. Sind die geschätzten Modellparameter mit den gewonnenen Daten konsistent, gilt die angenommene Kausalstruktur als nicht falsifiziert. Formal werden zwei, einander ausschließende Hypothesen formuliert. Die Nullhypothese wird meist so gefasst, dass man daran interessiert ist, sie abzulehnen. Die für den Fall der Ablehnung formulierte Alternativhypothese kann einseitig oder zweiseitig ausgelegt sein. Ein einseitiger Test liegt vor, wenn die Irrtumswahrscheinlichkeit nur auf eine Seite des Mittelwerts verteilt ist, und zwar als Obergrenze (rechtsseitig) oder Untergrenze (linksseitig), ein zweiseitiger Test liegt vor, wenn sie auf beide Seiten verteilt ist, also mindestens / höher als bzw. höchstens / niedriger als ein bestimmter Wert. Einseitige Tests führen eher zur Verwerfung der Nullhypothese, also zu, meist erwünschten, signifikanten Ergebnissen. Im Zweifel sollte daher immer zweiseitig getestet werden. Die Begründung ist jeweils inhaltlich zu führen. Die Fläche, die nicht Ablehnungsbereich ist, wird Annahmebereich genannt. Die Stelle der Verteilung, welche die Grenze zwischen Annahme- und Ablehnungsbereich bildet, heißt kritischer Wert. Eine Punkthypothese liegt vor, wenn lediglich ein konkretisierter, exakter Wert getestet werden soll. Eine Bereichshypothese liegt vor, wenn eine Wertespanne ge-

86

2. Auswahlverfahren zur Erhebung

testet werden soll (also „von – bis“ oder „ungleich“). Einstichprobentests beziehen sich nur auf eine einzige Stichprobe als Basis, Zweistichprobentests auf zwei unabhängige Stichproben. Die Festlegung des Signifikanzniveaus bestimmt die Entscheidung über die Annahme oder Verwerfung der aufgestellten Hypothese, Dies kann wegen des Stichprobencharakters der Daten nicht mit Sicherheit, sondern immer nur mit einer gewissen Wahrscheinlichkeit erfolgen. Messgröße ist die Irrtumswahrscheinlichkeit. Der Signifikanztest überprüft daher, ob ein Stichprobenbefund mit einer Annahme über unbekannte Parameter oder die Verteilung der Grundgesamtheit aus wahrscheinlichkeitstheoretischer Sicht verträglich ist, also zufällig, oder nicht, also überzufällig und damit statistisch gesichert signifikant. Das Signifikanzniveau wird meist über eine Irrtumswahrscheinlichkeit von 0,1 % (= 0,001 für sehr hoch signifikant), 1 % (= 0,01 für hoch signifikant), 5 % (= 0,05 für signifikant) oder 10 % (= 0,1 für schwach signifikant) normiert. Bei der Wahl der geeigneten Testfunktion handelt es sich meist um die Normal­ verteilung oder die t- oder F-Verteilung. F- und t-Verteilung variieren mit den Freiheitsgraden. Unter Freiheitsgrad versteht man die maximale Anzahl der in einer Prüfverteilung frei, d. h. unabhängig voneinander variierbaren Variablen, welche die Gesamtzahl der nicht mit Sicherheit voraussagbaren Ausprägungen der Prüfvariablen angibt. Der Freiheitsgrad gibt also an, wie viele unabhängige Vergleiche zwischen Beobachtungs- und Erwartungswert möglich sind. Geht man von Matrizen aus, so ist der Freiheitsgrad bei einer Vierfeldertafel 1, denn bereits mit der Determination des Wertes einer Zelle in der Matrix sind die anderen Werte bei gegebener Randverteilung invariabel. Bei einer Sechsfeldertafel ist der Freiheitsgrad 2, denn mit der Determinierung von zwei Werten sind alle anderen Werte bei gegebener Randverteilung invariabel. Bei der Achtfeldertafel ist der Freiheitswert entsprechend 3 etc. Die t-Verteilung ist der Normalverteilung sehr ähnlich, nur dass sie von der Zahl der Freiheitsgrade abhängt, also dem Stichprobenumfang abzüglich der aus der Stichprobe geschätzten Parameter. Die Zufallsvariable folgt dann der t-Verteilung. Diese ist symmetrisch um den Nullpunkt, verläuft jedoch flacher als die Normalverteilungskurve. Ihre Anwendung konzentriert sich auf kleine Stichproben­ umfänge, bei denen die Voraussetzungen für den zentralen Grenzwertsatz nicht erfüllt sind. Dies bedeutet, dass nicht mehr davon ausgegangen werden kann, dass der Stichprobenmittelwert näherungsweise normalverteilt ist. Mit wachsender Zahl von Freiheitsgraden strebt die t-Verteilung gegen die Normalverteilung. Dies ist etwa ab mehr als 30 Werten als Differenz aus Stichprobenumfang und Anzahl der daraus berechneten Parameter der Fall. Die F-Verteilung ist eine spezifische, linksschiefe, eingipflige Wahrscheinlichkeitsverteilung, die dadurch gekennzeichnet ist, dass jeweils zwei Freiheitsgrade bestehen. Sie ist die Verteilung des Quotienten der Varianzen zweier, unabhängiger Stichproben. Mit wachsenden Freiheitsgraden strebt die F-Verteilung der ­t-Verteilung zu.

2.7 Induktive Datenanalyse

87

Abbildung 15: Darstellung einer F-Verteilung

Nach der Wahl der Testfunktion wird das Signifikanzniveau festgelegt, die Prüfgröße wird berechnet und diese einer theoretischen Größe, dem „Tafelwert“, gegenübergestellt. Die Nullhypothese ist zu verneinen, d. h. für gewöhnlich der Hypotheseninhalt abzulehnen, wenn der tatsächliche (empirische) Wert größer ist als der theoretische Tafelwert. Für die Bestimmung des Verwerfungsbereichs sind die ökonomischen Folgen einer möglichen Fehlentscheidung zu berücksichtigen. Die Wahrscheinlichkeit, dass unter ansonsten gleichen Bedingungen die Nullhypothese zur Ablehnung gebracht wird, hängt von der Strenge der Voraussetzungen eines Tests ab, je strenger, desto eher wird kein Zusammenhang vermutet. Ist es sehr folgenschwer, die Nullhypothese fälschlicherweise abzulehnen, wird man dieses Risiko möglichst gering halten wollen, d. h. das Signifikanzniveau hoch ansetzen oder den Annahmebereich vergrößern bzw. den Ablehnungsbereich verkleinern. Ist es dagegen folgenschwer, die Nullhypothese fälschlicherweise anzunehmen, wird man das Signifikanzniveau geringer ansetzen oder den Annahmebereich verkleinern und den Ablehnungsbereich vergrößern. Es kommt zur Entscheidungsfindung. Entscheidet sich der Anwender für die Annahme der Nullhypothese, ist die Alternativhypothese abgelehnt, entscheidet er sich für die Ablehnung der Nullhypothese, ist die Alternativhypothese angenommen. Diese Annahme oder Ablehnung sagt mitnichten etwas über die Richtigkeit dieser Entscheidung aus. Sie bedeutet nur, dass sie nicht im Widerspruch zum vorliegenden Beobachtungsmaterial steht. Im Signifikanztest wird also ein Ablehnungsbereich berechnet, in den die Teststatistik mit einer zuvor gewählten Irrtumswahrscheinlichkeit fällt. Bei dieser Entscheidung können zwei Fehlerarten auftreten:

88

2. Auswahlverfahren zur Erhebung

Abbildung 16: Entscheidungsfindung und Fehlerarten

•• Die Nullhypothese kann verworfen werden, obwohl sie wahr ist. Es handelt sich dann um einen Fehler 1. Art (auch Alpha-Fehler), bei dem die Alternativhypothese zu unrecht angenommen wird. •• Die Nullhypothese kann angenommen werden, obwohl sie unwahr ist. Es handelt sich dann um einen Fehler 2. Art (auch Beta-Fehler), bei dem die Alternativhypothese zu unrecht verworfen wird (dies kann passieren, wenn die Messlatte für die Annahme unzweckmäßig hoch gelegt wird). Zwei weitere Entscheidungen sind demgegenüber richtig: •• Die Nullhypothese wird zurecht verworfen und die Alternativhypothese zurecht angenommen. Sowie die Nullhypothese wird zurecht angenommen und die Alternativhypothese zurecht abgelehnt. 2.7.2.2 Testarten Es sind mehrere Testverfahren zu unterscheiden. Bezieht sich die Hypothese auf die Lage eines einzelnen, unbekannten Parameters der Prüfverteilung, so handelt es sich um einen parametrischen Test. Parametertests beziehen sich auf Hypo­ thesen über Mittelwerte und Streuungsmaße, d. h., es werden Hypothesen über die unbekannten Parameter der Grundgesamtheit überprüft, und es soll festgestellt werden, ob ein Parameter mit dem in der Hypothese angenommenen Parameter einer Grundgesamtheit übereinstimmt. Dabei liegt eine Prüfverteilung zugrunde. Bezieht sich die Hypothese auf die gesamte Gestalt der Verteilung des Untersuchungsmerkmals ohne eine Annahme über einzelne Parameter der Verteilungsfunktion der Stichprobenvariablen vorzunehmen, so handelt es sich um einen nicht-parametrischen (verteilungsfreien) Test (Überprüfung der unbekannten Verteilung einer Grundgesamtheit). Die Verteilung der Prüfgröße eines Tests hängt nicht von der speziellen Gestalt der Verteilungsfunktion der Grundgesamtheit ab.

2.7 Induktive Datenanalyse

89

Anpassungstests beziehen sich auf die Hypothese der Übereinstimmung einer gegebenen empirischen Verteilung mit der postulierten theoretischen Verteilung, also ob eine Grundgesamtheit eine bestimmte angenommene Verteilung besitzt oder nicht. Dabei können verschiedene Verteilungen zugrunde gelegt werden, meist die Normalverteilung, die F- oder t-Verteilung. Wichtige Testverfahren sind hier der Chi quadrat-Anpassungstest und der Kolmogoroff-Smirnov-Test (bei ordinalem Skalenniveau). Bezieht sich die Hypothese auf die Abhängigkeit zwischen zwei oder mehr Merkmalen in der Grundgesamtheit, handelt es sich um einen Unabhängigkeits­ test. Wichtige Testverfahren sind hier der Chi quadrat-Unabhängigkeitstest (beliebig skaliert) und der Friedman-Test (bei mindestens ordinal skalierten Daten). Bezieht sich die Hypothese auf symmetrische, stetige Verteilungen, handelt es sich um einen Zufälligkeitstest. Wichtiges Testverfahren ist der Wilcoxon Vorzeichen-Test. Für mindestens ordinal skalierte Daten werden dabei die Differenzen der Stichprobenwerte zum Median gebildet, aufsteigend angeordnet und mit Rangnummern versehen. Bezieht sich die Hypothese auf die Lagealternativen zweier oder mehr unabhängiger Stichproben, so handelt es sich um einen Variabilitätstest. Wichtige Testverfahren sind hier der Wilcoxon Rangsummen-Test (bei mindestens ordinal skalierten Daten) und der Kruskal-Wallis-Test (zusätzlich bei mehr als zwei unabhängigen Stichproben). Nicht-parametrische Tests sind immer dann vorzuziehen, wenn die dem parametrischen Test zugrunde liegenden Annahmen über die Verteilung der Grund­ gesamtheit in ihrer Gültigkeit angezweifelt werden müssen (z. B. bei kleinen Stichproben und schiefen oder mehrgipfligen Verteilungen). Daher werden robuste Testverfahren bevorzugt, deren Leistungsfähigkeit nicht beeinträchtigt wird, wenn eine Testvoraussetzung nicht erfüllt ist. Dennoch steht der Anwender vor einem Auswahlproblem. Die wichtigsten Testverfahren sind die Folgenden. Der F-Test ist ein Signifikanztest zum Vergleich der Varianzen zweier voneinander unabhängiger Stichproben auf Basis einer F-Verteilung der Parameter, d. h. der Anzahl der Freiheitsgrade der ersten und der zweiten Variablen. Die F-Verteilung verläuft asymmetrisch (linksschief) und eingipflig. Die Nullhypothese des ­F-Tests besagt, dass sämtliche festgestellten Variationen lediglich Zufallsschwankungen darstellen, d. h. die Mittelwerte der einzelnen Gruppen einander gleichen, die Beobachtungsdaten einer einzigen Population entstammen und deren Abweichungen somit lediglich dem Zufall zuzuschreiben sind. Der empirische Wert wird einem theoretischen Tabellenwert bei gegebenen Freiheitsgraden gegenüber gestellt. Liegt der berechnete F-Wert unterhalb des Schwellenwerts, der sich in einer Tabelle findet, wird die Nullhypothese nicht verworfen, die Abweichungen der Varianzen innerhalb einer Gruppe sind dann lediglich zufälliger Natur. Das Signi­ fikanzniveau gibt dabei die Wahrscheinlichkeit an, mit welcher der ermittelte

90

2. Auswahlverfahren zur Erhebung

Abbildung 17: Chi Quadrat-Verteilungen für verschiedene Freiheitsgrade v

F-Wert auch für den Fall, dass die Nullhypothese richtig ist, den theoretischen ­F-Wert übersteigt. Mit steigender Fehlervarianz wird somit eine zielgerichtete Aussage immer schwieriger. Die Aussage gilt immer nur für diese Rahmendaten. Mit Hilfe des t-Tests ist, unter der Annahme, dass die Varianzen beider Grundgesamtheiten, aus denen die Stichproben stammen, gleich sind, der Vergleich zwischen den Mittelwerten durchzuführen. Bei größeren Stichproben bietet die Standardnormalverteilung eine hinreichende Annäherung für die Signifikanzprüfung. Der t-Test beruht auf der t-Verteilung für zwei abhängige oder unabhängige Stichprobenmittelwerte von metrischen und normal verteilten Variablen. Der Chi Quadrat-Test beruht auf der Chi Quadrat-Verteilung, die bei Null beginnend asymmetrisch verläuft und nur einen Freiheitsgrad hat. Der Chi QuadratTest vergleicht nicht sehr spezifisch empirisch beobachtete und theoretisch erwartete Häufigkeiten auf der Basis einer annähernd Chi Quadrat-verteilten Prüfgröße und weist immer eine einseitige Fragestellung auf. Beim Chi Quadrat-Anpas­ sungstest handelt es sich um ein nicht-parametrisches Testverfahren zur Überprüfung der Anpassungsgüte der Verteilung der Stichprobenrealisation an eine vorgegebene und vollständig spezifizierte Verteilungsfunktion beliebiger Struktur. Es soll also festgestellt werden, ob zwei Verteilungen miteinander übereinstimmen. Beim Chi Quadrat-Unabhängigkeitstest handelt es sich um ein nicht-parametrisches Testverfahren zur Überprüfung der Unabhängigkeit nominal skalierter Merkmale durch Vergleich des empirischen Wertes mit einem theoretischen Tabellenwert nach Signifikanzniveau und Freiheitsgrad. Es soll also festgestellt werden, ob zwei Merkmale voneinander unabhängig sind oder nicht. Dabei kann es sich um zwei Segmente aus einer Stichprobe, die Stichprobe aus der Grundgesamtheit oder Stichproben zu verschiedenen Zeitpunkten handeln, indem die beobachteten absoluten Häufigkeiten der Merkmalspaarungen den bei Gültigkeit der Nullhypothese zu erwartenden absoluten Häufigkeiten gegenüber gestellt werden. Ist der empirische Wert größer als der theoretische, muss die Null-

2.7 Induktive Datenanalyse

91

hypothese, meist die Unabhängigkeit zweier Variabler, abgelehnt werden. Die Variablen sind vielmehr als abhängig anzusehen. Voraussetzung sind jeweils reine Zufallsmuster, nur absolute Werte und größere Fallzahlen. Die OC-(Operations charakteristic-)Kurve zeigt an, wie ein Testverfahren im Einzelnen funktioniert, unabhängig davon, ob es im spezifischen Fall nun zweckmäßig ist oder nicht.

3. Methoden der Primärerhebung von Informationen Die Primärerhebung betrifft die Ermittlung originär neuer Daten und kann als Befragung, Beobachtung oder Experiment angelegt sein. Diese Formen sind jeweils wieder in zahlreichen Ausprägungen vertreten. Welches Erhebungsverfahren eingesetzt wird, ist von vielfältigen Faktoren abhängig, u. a. dem Untersuchungsziel, der Auskunftsquelle, der Häufigkeit etc., die im Folgenden erläutert werden und vom Einzelfall abhängen. Zunächst zur Befragung.

Abbildung 18: Arten der Befragung

Die Befragung kann traditionell mündlich, schriftlich oder telefonisch sowie computergestützt angelegt sein. Die mündliche Befragung wiederum erfolgt als Gruppen- oder Einzelinterview. Sowohl das mündliche Einzelinterview als auch schriftliche und telefonische Interviews erfolgen auf Basis eines mehr oder minder detailliert ausgearbeiteten Fragebogens. Dazu sind umfangreiche Überlegungen erforderlich. Beim mündlichen und telefonischen Interview ist zudem der Interviewer von Bedeutung.

3.1 Mündliche Befragung Die Befragung ist das am Häufigsten angewandte und wichtigste Erhebungsverfahren der Primärforschung. Es lassen sich mehrere Befragungsmethoden unterscheiden so nach: •• dem Standardisierungsgrad in absteigender Abstufung als vollstandardisiert, strukturiert, teilstrukturiert oder frei, •• der Kommunikationsform in mündlich, fernmündlich, schriftlich, computergestützt,

3.1 Mündliche Befragung

93

•• der Art der Fragestellung in direkt oder indirekt bzw. offen oder geschlossen, •• dem Befragungsgegenstand in Einthemen-(Spezial-)befragung und M ­ ehrthemen (Omnibus-)befragung, •• der Befragtenanzahl in Einzelinterview, also nur eine Person gleichzeitig, oder Gruppeninterview, also mehrere Personen zugleich, •• dem Befragtenkreis in Verbraucher, Experten, Haushaltsvorstände, Mitarbeiter etc., •• der Befragungshäufigkeit in einmalig, wiederholt, regelmäßig. Diese Kriterien lassen sich beinahe beliebig miteinander kombinieren. Demnach gibt es eine nicht zu überblickende Vielzahl von Befragungsformen, von denen im Weiteren die wichtigen, für die Praxis relevanten beleuchtet werden. Die nachfolgend dargestellte Gruppendiskussion etwa ist ein strukturiertes, münd­ liches Gespräch meist zu einem Thema in einer Gruppe unterschiedlicher Zusammensetzung und einmalig angelegt.

3.1.1 Gruppeninterview 3.1.1.1 Darstellung Das Gruppeninterview kann als Diskussion oder Exploration ausgestaltet sein. Die Gruppendiskussion ist eine explorative Methode der Befragung und dient oft zu Beginn eines Forschungsprojekts zur einleitenden Aufklärung. Dazu diskutiert eine Fokusgruppe von meist sechs bis acht Personen der Zielgruppe oder von Experten oder Mitarbeitern unter Führung eines psychologisch geschulten Diskussionsleiters bis zu max. drei Stunden über eine vorgegebene Problem­stellung, die einleitend erläutert wird. Die Gruppendiskutanten werden zur Stellungnahme aufgefordert. Dabei ist der Gefahr vorzubeugen, dass einzelne Teilnehmer die gesamte Meinung dominieren oder der Diskussionsleiter die Meinungsbildung beeinflusst. Ersterem kann durch Steuerung der Diskussionsbeiträge entgegengewirkt werden, Letzterem durch weitgehende Standardisierung der Moderation anhand eines Diskussionsleitfadens. Die Diskussion soll dabei die Meinungsbildung im alltäglichen, informellen Gespräch verknappt nachempfinden. Eine heterogene Gruppenzusammensetzung hilft, möglichst unterschiedliche Ansichten kennen zu lernen, eine homogene Gruppenzusammensetzung hilft, gegenseitige Beeinflussungen zu erkennen. Durch gruppendynamische Prozesse und mangelnde Repräsentanz der Gruppe können die Gesprächsergebnisse zwar nicht quantifiziert werden. Die Gruppendiskussion liefert jedoch gute Anhaltspunkte für relevante Problemaspekte und brauchbare Hinweise auf marktliche Umsetzungen. Der Diskussionsleiter soll Spontaneität und Aktivität der Gesprächsteilnehmer fördern und erkennbare Verzerrungen ausgleichen. Als Sonderfall kann eine Person in die Gruppe einbezogen werden, welche die übrigen Personen bewusst provoziert, um

94

3. Methoden der Primärerhebung von Informationen

die Stabilität deren Einstellungen und Meinungen zu testen (= kontradiktorische Gruppendiskussion). Oder eine Person des Auftraggebers, die gezielt auf interessierende Aspekte hinleiten kann. Schließlich sind auch kumulierte Gruppendiskussionen möglich, indem der Erkenntnisstand der vorherigen Gruppe als Vorgabe für die darauf folgende Gruppe gilt. Je nach Tiefe der Befragung kann eine Gruppenexploration entstehen, d. h. die gleichzeitige, interaktive Untersuchung von Einstellungen, Wünschen, Mo­ tiven etc. bei verschiedenen Personen. Dabei werden tiefere Bewusstseinsebenen und emotionale Zusammenhänge erforscht, die sich ansonsten einer direkten Abfrage entziehen. Angenommen wird, dass Gruppenexplorationen mehr Informationen liefern als Einzelinterviews mit derselben Befragtenzahl, dass sie alltägliche Kommunikationsstrukturen besser nachbilden als Einzelgespräche und dass sie zu tiefer gehenden Erkenntnissen führen als diese. Vorausgesetzt wird allerdings die freie Interaktion der Gruppe ohne soziale Hemmungen und Konformitätsdruck. Dazu ist in jedem Fall ein psychologisch geschulter Moderator erforderlich, ebenso sind adäquate Räumlichkeiten und Atmosphäre zu schaffen. Eine Variante sind Gruppen-Workshops mit stärkerer Interaktion als bei Gruppenexploration. Teilweise werden dabei kreative Ideen generiert. Die Gruppe wird vom Forscher zusammengestellt oder besteht bereits als formelle oder informelle Gruppe. Die Aufzeichnung erfolgt durch Audio- oder Videomitschnitt, um verbale und non-verbale Äußerungen zu erfassen. So kann sich der Moderator voll auf den Gesprächsverlauf konzentrieren. Die Fragen werden vollständig erfasst, sodass Gedanken- und Assoziationsketten sichtbar werden und keine Informationen verlorengehen. Alternativ sind Transcripts denkbar, d. h. vollständige Mitschriften des Gesprächsinhalts durch eine dritte Person. Voraussetzungen für den Erfolg sind eine intensive Auseinandersetzung mit der Aufgabenstellung, Szenarien relevanter Aspekte durch vorherige Hypothesenbildung, aufgabenspezifisch differenzierte Leitfäden, sorgfältige Auswahl der Gesprächsteilnehmer, systematische Auswertung, sorgfältige Interpretation und umfassende Dokumentation. 3.1.1.2 Vorteile Wesentliche Vorteile des Gruppeninterviews sind folgende. Die unmittelbare Beobachtbarkeit der spontanen Reaktionen der Beteiligten ist möglich. Diese Reaktionen gehen bei Einzelinterviews durch meist hohen Standardisierungsgrad für gewöhnlich verloren, sind jedoch unschätzbare Hilfen, um einen Eindruck der Auseinandersetzung relevanter Gruppen mit dem Meinungsobjekt zu gewinnen. Die entstehende intensive Auseinandersetzung schafft vielfältige Einsichten. Es wird eine weitaus größere Tiefe der Beschäftigung mit dem Meinungsobjekt erreicht, als dies ansonsten bei einer eher passiven Befragung zu erreichen ist. Dadurch wird der Informationstransfer zum Auftraggeber begünstigt.

3.1 Mündliche Befragung

95

Durch Interaktion in der Gruppe kommt es zu einer großen Vielschichtigkeit der Auseinandersetzung. Durch Rede und Gegenrede, durch gegenseitige Anregung und Präzisierung ist das Ergebnis des Gruppeninterviews zumindest in dieser Hinsicht wertvoller als die Summe einer entsprechenden Zahl von Einzelinterviews. Die Verfolgung der Adaptation von Argumenten ist möglich. Dadurch wird der andernfalls verborgen bleibende Meinungsbildungsprozess im sozialen Umfeld nachvollziehbar. Zugleich ergeben sich damit Hinweise auf besonders häufig vorkommende oder wirksame Argumente zur Verunsicherung oder Überzeugung von Zielpersonen. Ein unmittelbares, ungefiltertes Hören der Zielgruppensprache entsteht geradezu zwangsläufig. Dies ist umso wertvoller, je weiter die betrieblichen Entscheider sich de facto bereits von ihrer Zielgruppe entfernt haben. Ausdrücke, die später durch Forschersprache verklausuliert verschüttet werden, bleiben auf diese Weise erhalten und sind verwertbar. Hohe Schnelligkeit in der Vorbereitung und Durchführung wirkt begünstigend. Gruppeninterviews brauchen keine langen Vorlaufzeiten. Auch die Organisation ist unkompliziert. Ort und Zeit sind weitgehend flexibel wählbar. Darin liegen allerdings auch Tücken, die zu mangelnder Vorbereitung und nachlässiger Rekrutierung verleiten können. Eine beliebige Wiederholbarkeit durch Aufzeichnung ist machbar. Erst im Verlaufe der weiteren Beschäftigung bedeutsam werdende Gesprächspassagen lassen sich in Bild, Ton und / oder Schrift nachvollziehen. Der Informationsverlust durch Übertragung bleibt dadurch gering. Es besteht eine absolute Kostengünstigkeit, denn der finanzielle Aufwand bleibt überschaubar. Werden allerdings zur besseren Validierung der Ergebnisse mehrere Gesprächsrunden veranstaltet, was in jedem Fall empfehlenswert ist, laufen bald doch hohe Informationsgewinnungskosten auf. Das Verfahren schließt die Berücksichtigung gruppendynamischer Aspekte ein. Dadurch können etwa soziale Aspekte des Käuferverhaltens ansatzweise erfasst werden. Die Verzerrung durch Meinungsbildner ist nicht so gravierend wie es scheint, ist doch auch das reale Umfeld durch solche Personen gekennzeichnet. Die Interviewsituation wird in den Hintergrund gedrängt, im Vordergrund steht das gemeinsame Gespräch. Dadurch wird der kognitive Anteil der Meinungsäußerung zurückgedrängt, der meist auch in der späteren Marktsituation, selbst im Business-Bereich, nur eine begrenzte Rolle spielt. Das Gespräch kann zu weitergehenden Informationen genutzt werden, z. B. Werbemitteltest. Dies dient einer weiteren Rationalisierung. Allerdings darf dabei nicht vergessen werden, dass es zu Ausstrahlungseffekten zwischen den behandelten Themen kommt, von denen ungewiss ist, ob sie real auch so stattfinden.

96

3. Methoden der Primärerhebung von Informationen

3.1.1.3 Nachteile Nachteile des Gruppeninterviews sind hingegen folgende. Die Suggestibilität des Eindrucks kann zu verzerrter Wirklichkeitssicht führen. Das hautnah miterlebte Gespräch hat erfahrungsgemäß eine sehr viel stärkere Beeinflussungswirkung als die eher abstrakte Datenauswertung von nicht präsenten Einzelgesprächen. Doch der prägnante Eindruck des Gruppengesprächs kann gravierend täuschen. Die Ergebnisse sind interpretationsbedürftig. Die Meinungsäußerung unterliegt situationsbedingt sozialer Kontrolle und weist daher immanente Verzerrungen auf. Es bedarf großen Sachverstands, die Gesprächsergebnisse um diese Verzerrungen zu bereinigen und nicht dem spontanen Eindruck zu erliegen. Das Verfahren ist kein Ersatz für eigene Recherche auf breiterer Basis. Denn der Output ist durch den definitionsgemäß limitierten Input eng begrenzt. Gruppeninterviews sind wertvoll als Einstieg in Entscheidungssituationen, sie sind aber keineswegs für diese als Informationsgrundlage ausreichend. Es ergibt sich eine fehlende Repräsentanz und damit Hochrechenbarkeit auf die Zielgruppe. Das Gruppeninterview kann aufgrund seiner Anlage (geringe Fallzahl) keinerlei Anspruch auf Repräsentanz in der Zusammensetzung für eine Grundgesamtheit erheben. Damit ist es auch nicht zulässig, dessen Ergebnisse in irgendeiner Weise hoch zu rechnen. Eine Vergleichbarkeit zwischen mehreren Veranstaltungen ist wegen mangelnder Standardisierung nicht gegeben. Jedes Gruppengespräch hat nur Gültigkeit für sich selbst, weil prinzipbedingt auf die jeweiligen Besonderheiten jeder Gruppe eingegangen wird. Erfahrungswerte sind dabei mit Vorsicht zu behandeln. Die Relevanz von genannten und ungenannten Aspekten ist schwer einschätzbar. Der Gesprächsverlauf ist in gewisser Weise willkürlich, sodass es vorkommen kann, dass wichtige Argumente nicht genannt, unwichtige jedoch vertieft werden. Dem kann durch eine Checklist in jedem Fall anzusprechender Aspekte vorgebeugt werden. Meinungsführer können die Ergebnisse erheblich beeinflussen, ohne dass dieser Verzerrungseffekt exakt zu isolieren ist. Durch den Gesprächsleiter ist dieser Einfluss nur begrenzt neutralisierbar. Hier sind vor allem Männer als Gesprächsteilnehmer anfällig für Dominanzstreben. Die Gesprächsteilnahme und -intensität korrelieren meist mit dem Bildungsgrad. Da vor allem auf die sprachliche Ausdrucksfähigkeit abgestellt wird, sind solche Personengruppen überpräsent, die aufgrund ihrer Ausbildung oder Berufstätigkeit damit vertraut sind, ihre Meinung im Kreis meist fremder Anderer zu vertreten. Erfasste Verhaltensäußerungen sind nicht immer eindeutig interpretierbar. Dazu ist eine Nachfrage erforderlich, die allerdings im Gesprächskontext wiederum nicht möglich ist. Allerdings hat die Wissenschaft hier Methoden entwickelt (z. B.

3.1 Mündliche Befragung

97

Facial action coding technique), um Verhalten Meinungen recht sicher zuordnen zu können. Die Anwendung quantitativer Auswertungsmethoden bleibt versagt. Aufgrund des qualitativen Charakters der Erhebung sind alle Datenverdichtungsversuche sinnlos. Gerade diese geben jedoch wichtige Hinweise für die aus der Erhebung notwendig folgenden Entscheidungserfordernisse. Schließlich kommt es meist auch zu recht oberflächlichen Ergebnissen. Dies hat mit der spezifischen Gesprächssituation und dem eher unreflektierten Behandeln des Untersuchungsthemas zu tun. Dadurch wird hinsichtlich des Erkenntnishintergrunds oft zu kurz gesprungen.

3.1.2 Einzelinterview Das Interview ist die am Weitesten verbreitete Methode der Primärerhebung in der Marktorschung. Vorsicht ist jedoch vor seiner unreflektierten Bewertung geboten. Es scheint zwar auf den ersten Blick einfach in der Anwendung, ermöglicht die Erfassung großer, repräsentativer Stichproben und kommt der natürlichen Gesprächssituation recht nahe. Antworten auf Fragen sind jedoch höchstens mehr oder minder gute Indikatoren für Meinungen, Einstellungen, Wünsche etc. und keineswegs identisch mit der Realität. Vor allem führen die Formulierung der Fragen und der Aufbau der Befragung ebenso zu erheblichen Verzerrungs­ gefahren wie situative Faktoren, die im Interview selbst begründet liegen und externe Faktoren, die im Umfeld des Interviews liegen. Daher gilt auch hier das Gebot einer professionellen Herangehensweise. Im Folgenden werden die Aspekte der Inter­viewarten, der Fragearten, der Fragefunktionen, der Fragetaktik und der Interviewer­bedeutung näher beleuchtet.

Abbildung 19: Mündliche Befragung

98

3. Methoden der Primärerhebung von Informationen

Hinsichtlich des Standardisierungsgrads des mündlichen Interviews lassen sich das (voll-)standardisierte, das strukturierte, das teilstrukturierte und das Tiefeninterview unterscheiden. Dabei ist ein Trade off zwischen hoher Vergleichbarkeit der Antwortergebnisse und Eingehen auf die Individualität der Befragungssituation zu lösen. Je größer die Individualität, desto geringer die Vergleichbarkeit et vice versa.

Abbildung 20: Einzelinterviewarten

3.1.2.1 (Voll-)Standardisiertes Interview Beim standardisierten Interview liegt ein genauestens ausformulierter Fragebogen vor, der die Reihenfolge der einzelnen Fragen exakt vorgibt, ebenso wie jede erlaubte Erklärung. Es ist vorgegeben, ob diese Erläuterung in jedem Fall gegeben werden muss und ob weiterführende Erläuterungen gegeben werden dürfen. Der Interviewer muss sich jeglichen Kommentars enthalten, darf bei den Antworten weder Überraschung, noch Zustimmung oder Missbilligung zeigen. Er soll jedoch Interesse an der Meinung des Befragten bekunden. Als wesentliche Merkmale sind dabei folgende zu nennen. Es besteht eine Kontrolle über Form und Ablauf des Interviews, die eine Quantifizierung der insgesamt durchgeführten Erhebungen und damit deren Vergleichbarkeit erlaubt. Dies wiederum ist zwingende Voraussetzung für die Generalisierbarkeit gewonnener Informationen und deren datenverdichtende Auswertung. Der Interviewereinfluss wird auf ein Mindestmaß begrenzt, da die Fragen bei sämtlichen Auskunftspersonen den gleichen Wortlaut haben und in derselben Reihenfolge gestellt werden. Allerdings sind nach wie vor alle non-verbalen Beeinflussungsgefahren, etwa durch Auftreten, Aussehen, Umgebungssituation etc, gegeben. An Interviewer werden vergleichsweise geringe Anforderungen gestellt, sodass zugleich eine Interviewerüberlastung vermieden wird. Betriebswirtschaftlich erlaubt dies den Einsatz fachlich weitgehend ungeschulter Interviewer. Darunter leidet aber zugleich die Professionalität der Erhebung. Die Auswertung der Fragebögen ist relativ einfach zu bewerkstelligen. Alle Fragen können gleichartig verarbeitet werden. Dies wirkt

3.1 Mündliche Befragung

99

Abbildung 21: Fragebogen für ein standardisiertes Interview (Ausschnitt)

vor allem bei der Codierung und Dateneingabe rationalisierend. Gleichzeitig wird die Fehlerquote durch Übungseffekte bei der Übertragung verringert. Begrenzend wirkt die mangelnde Anpassung an individuelle Situationen. Dies kann nur durch eine Lockerung des strikten Standardisierungsgrades erfolgen. 3.1.2.2 Strukturiertes Interview Beim strukturierten Interview liegt ein ausformulierter Fragebogen vor, der die Reihenfolge der Fragen und deren Wortlaut vorgibt. Die Reglementierung ist jedoch nicht so streng wie beim standardisierten Interview, sodass Freiräume für das Eingehen auf Einzelfälle bestehen bleiben. Darunter leidet natürlich die Vergleichbarkeit der Befragungsergebnisse untereinander. Jedoch kann dadurch besser auf die Individualität des Befragten eingegangen werden. Dies ist wichtig zur Steigerung dessen Auskunftsfähigkeit und -willigkeit. Von non-direktiver Technik spricht man, wenn sich der Interviewer bei der Befragung stark zurückhält und nur unauffällig lenkt, von semi-direktiver Technik, wenn der Interviewer flexibel und durchaus auch straffer im Sinne des Ergebnisziels führt, und von direktiver Technik, wenn der Interviewer das Gespräch dominiert und sagt, wo es lang geht. Ziel ist in jedem Fall die Ermittlung hypothetischer, unzugänglicher und normativer Sachverhalte.

100

3. Methoden der Primärerhebung von Informationen

3.1.2.3 Teilstrukturiertes Interview Beim teilstrukturierten Interview liegt dem Interviewer nur ein Frageleitfaden vor, der die wichtigsten Punkte enthält, die im Interview angesprochen werden sollen. Formulierung und Reihenfolge der Fragen sind nicht festgelegt. Der Interviewer kann nach eigenem Ermessen Fragen auslassen und / oder Zusatzfragen stellen, er kann eigene Erklärungen abgeben und auf die verschiedenen Aspekte mehr oder minder vertieft eingehen. Damit wird eine natürliche Gesprächssituation simuliert. Im Unterschied zum Gruppeninterview ist jedoch nur eine antwortende Person einbezogen, dafür wirken Schweiger und Meinungsbildner nicht ergebnis­ verzerrend. Gruppendynamische Prozesse unterbleiben jedoch, da nur eine Einzelperson involviert ist. Dadurch können Prozesse im sozialen Umfeld weniger nachempfunden werden als dies im Gruppeninterview der Fall ist. Es ist kein Vergleich der Ergebnisse mehrerer Befragungen unterschiedlicher Personen möglich. Denn jedes Interview ist individuell auf die Befragungsperson zugeschnitten und läuft anders als das nächste. Der Interviewer hat als alleinige und dominante Bezugsperson einen starken Einfluss auf den Gesprächsverlauf und -inhalt. Insofern kommt es bei Interviews verschiedener Befrager zu weiteren Verzerrungen. Eine Aus­ wertung ist nur über Tonbandprotokoll oder Mitschrift durch eine zweite Person möglich, wobei beides Verzerrungsgefahren birgt, im ersten Fall durch mindere Aufmerksamkeit, im zweiten durch Ablenkung der Befragten. 3.1.2.4 Tiefeninterview Beim freien Tiefeninterview erfolgt eine psychologische, offene Exploration in kleinen Fallzahlen, bei der von der Auskunftsperson neben der Antwort die Lösung und Behandlung vorgegebener Problem- und Aufgabenstellungen erwartet wird. Deshalb steht hier nur das Thema der Befragung fest, der Ablauf des Interviews liegt jedoch vollständig beim geschulten Psychologen. Ein Tiefeninterview ist ein besonders intensiv geführtes Gespräch, bei dem auf Grund der freien Form dem Befragten erheblicher Freiraum für die Einbringung von Gedanken und Gefühlen gelassen wird. Ziel ist dabei die Gewinnung von Einblicken in die Motivstruktur der Befragten. Oft wird dieses Verfahren auch als Pilotstudie eingesetzt, wenn nur wenig anwendbar vorhandene Kenntnisse vorliegen und neue Einsichten gewonnen werden sollen. Dies erlaubt die Konkretisierung, Präzisierung und Priorisierung von Tatbeständen, die dann später durch eher standardisierte Verfahren erhoben werden. Dazu sind 20–30 Interviews vollauf ausreichend. Als wesentliche Merkmale sind folgende zu nennen. Es kann auf die Individualität des Befragten mühelos eingegangen werden. Dadurch entsteht eine gewisse Vertrauensbeziehung zwischen Befrager und Befragtem, die weitergehende Erkenntnisse ermöglicht. Die Reihenfolge der getätigten Äußerungen sowie deren

3.1 Mündliche Befragung

101

Art und Intensität geben wichtige Erkenntnishinweise. Diese Möglichkeiten bleiben bei stärker vorgegebenen Interviewabläufen verschlossen. Es kommt zu einer gesteigerten Aussagewilligkeit, zu spontanen Äußerungen und vielfältigen Einsichten in die Denk-, Empfindungs- und Handlungsweise der Befragten. Damit entstehen wertvolle Hinweise. Es sind jedoch psychologisch geschulte Fachleute für das Interview erforderlich. Dies bedingt einen höheren Kosteneinsatz für die Erhebung. Amateurpsychologen reichen dafür regelmäßig nicht aus. Die Vergleichbarkeit von Aussagen aus verschiedenen Interviews ist eng begrenzt. Im Grunde genommen handelt es sich um monadische, untereinander nicht bezugsfähige Fallstudien, die letztlich wenig valide sind. Die Protokollierung der Aussagen parallel zur Führung des Interviews ist schwierig. Nachträgliche Aufzeichnungen sind unvollständig und verzerrend, wörtliche Protokolle aufwändig. Die Auswertung ist schwierig. Sie impliziert Deutungsspielräume. Vor allem ist das begrenzte Formulierungs- und Ausdrucksvermögen der Testpersonen zu berücksichtigen. Hinzu kommt deren nur mehr oder minder ausgeprägte Kommunikationsfreudigkeit. Das Verfahren ist recht kostenaufwändig. Zudem ist ein erheblicher qualitativer Spielraum in Untersuchungsanlage, -abwicklung und -auswertung gegeben, sodass Angebote verschiedener Forscher kaum vergleichbar sind. Die Ergebnisse sind statistisch nicht belastbar. 3.1.2.5 Allgemeine Vorteile Allen genannten Ausprägungen des mündlichen Interviews sind die nachfolgenden Vorteile und Nachteile gemein. Zunächst zu den allgemeinen Vorteilen: •• Die Identität der Befragungsperson lässt sich mühelos feststellen. Dies ist durchaus nicht bei allen Befragungsarten möglich. Dadurch kann, was entscheidend ist, von den Aussagen auf die dahinter stehende Person rückgeschlossen werden. •• Durch mehrmaliges Besuchen und durch Erläuterung des Untersuchungszwecks kann die Verweigerungsquote niedrig gehalten werden. Insofern kommt es zu einer guten Stichprobenausschöpfung und zu vergleichsweise geringen, verweigerungsbedingten Verzerrungen. •• Spontane Reaktionen der Probanden bei der Fragestellung können durch den Interviewer beobachtet und entsprechend vermerkt werden. Dies bietet interessante Aufschlüsse. •• Die Umfeldeinflüsse sind, wenn schon nicht kontrollierbar, so doch zumindest feststellbar. Insofern handelt es sich um eine, wenngleich nur in Grenzen, kon­ trollierte Erhebungssituation. •• Bei Nichtverstehen von Fragen können vom Befragten Rückfragen gestellt werden, bei ungewollten Mehrdeutigkeiten kann der Interviewer aufklärende Er­ läuterungen zur Zielrichtung von Fragen geben.

102

3. Methoden der Primärerhebung von Informationen

•• Visuelle Hilfsmittel wie Vorlagen, Muster, Skalen etc. können problemlos eingesetzt werden. Dies vereinfacht und präzisiert die Befragungsinhalte. Damit ist eine differenzierte Fragestellung möglich. •• Der Umfang der Befragung kann größer angelegt sein, da dem Befragten notwendigerweise der Überblick darüber fehlt. Somit sind auch Zusatzfragen einzubeziehen. Dies führt ansonsten leicht zur Antwortverweigerung. •• Sofern Ermüdungserscheinungen auftreten, sind diese erkennbar und es kann ihnen gezielt durch Motivation entgegengewirkt werden. Dazu ist eine gewisse Flexibilität der Befragung hilfreich. •• Durch den Aufbau einer Vertrauensbasis können ehrlichere Antworten erreicht werden, selbst zu heiklen Themen. Begünstigt wird dies durch die natürliche Umge­ bung der Befragungsperson. Dadurch erhöht sich ihre Bereitschaft zur Mitteilung. •• Interviewer-Einstufungen des Befragten und seines Umfelds sind darstellbar und liefern wichtige Kontextinformationen. Wenngleich dabei Vorsicht geboten ist, weil es dafür meist an einer einheitlichen Bezugsbasis mangelt. •• Es ist eine genaue Steuerung der Fragenreihenfolge und, in Maßen, auch der Beantwortungszeit möglich. Dies kommt unmittelbar der Vergleichbarkeit von Antworten zugute. 3.1.2.6 Allgemeine Nachteile Als allgemeine Nachteile sind folgende zu nennen: •• Es ist eine relativ große Zahl von Interviewern erforderlich. Dadurch schnellen die Personalkosten der Erhebung in die Höhe. Dies gilt besonders, soll eine ordentliche räumliche Streuung der Erfassung gewährleistet sein. •• Es ist eine intensive, fachkundige Schulung der Interviewer erforderlich, damit diese sich komplexen Befragungssituationen gewachsen zeigen. In der P ­ raxis werden hier aus Ersparnisgründen aber oft ungeschulte, unqualifizierte Interviewer eingesetzt. •• Oft sind mehrmalige Kontaktaufnahmen erforderlich, ehe eine Auskunfts­person tatsächlich erreicht werden kann. Selbst dann sind hohe Ausschöpfungs­quoten, wie wünschenswert, nur mit großem Zeit- und Kostenaufwand realisierbar. •• Der Anteil schwer erreichbarer Personengruppen steigt, z. B. Singles, beruflich mobile Personen, Doppelverdiener-Haushalte. Damit kommt es zu systematischen Verzerrungen bei der Probandenauswahl. •• Interviewer können leicht einzelne Fragen oder den gesamten Fragebogen fälschen. Eine Interviewerkontrolle stößt an enge Praktikabilitätsgrenzen und ist zudem recht kostenaufwändig. So kommt es allenfalls zu Stichproben­kontrollen.

3.1 Mündliche Befragung

103

•• Auch durch den Interviewer selbst können Verzerrungen in den Antworten der Befragten auftreten. Seine Gegenwart stört die Anonymität der Befragung und provoziert evtl. Antworten gemäß sozial erwünschtem Verhalten oder bloße Gefälligkeitsantworten.

3.1.3 Fragestrategie 3.1.3.1 Fragearten

Abbildung 22: Fragearten

3.1.3.1.1 Einteilung Soll eine mündliche Umfrage initiiert werden, ist es wichtig, einige Hinweise in Bezug auf Fragenarten und Fragetaktik zu berücksichtigen. Es gibt offene, inkategoriale, Fragen sowie geschlossene, kategoriale, Fragen. Letztere lassen sich wiederum in solche mit zwei Antwortalternativen, Alternativfragen, sowie mehr als zwei Antwortoptionen, Selektivfragen, unterteilen: •• Alternativfragen haben nur ein „Ja“ oder „Nein“ als Antwortmöglichkeit. Eine Kategorie „Weiß nicht“ ist problematisch, weil sie Ausweichbewegungen provoziert und bei der späteren Auswertung Probleme bereitet. Außerdem besteht eine latente Ja-Tendenz bei den Antworten. ­ abei •• Selektivfragen bieten eine Mehrfachauswahlmöglichkeit (Multiple choice). D sind Mehrfachnennungen nur bei einander ausschließenden Optionen vermeidbar.

104

3. Methoden der Primärerhebung von Informationen

•• Kategorialneutral sind solche Fragen, die alle denkbaren Antworten abdecken. Allerdings ist hier zu bezweifeln, dass alle denkbaren Antworten auch wirklich ausgewiesen werden können. •• Kategorialinneutral sind solche Fragen, die nicht alle denkbaren Antworten abdecken. Darin liegt eine erhebliche Gefahr für Verzerrungen allein daraus, dass nicht alle Antwortmöglichkeiten anwählbar sind. Werden die Antwortvorgaben dabei innerhalb der Befragung rotiert, handelt es sich um sequenzneutrale Fragen, erfolgt keine Rotation der Antwortvorgaben, um sequenzinneutrale Fragen. Auch darin liegt eine Verzerrungsgefahr insofern, als es zu Positionseffekten und gegenseitiger Überstrahlung kommen kann. So be­ einflussen vorhergehende Antwortmöglichkeiten nachfolgende. Die Anzahl der Nennungen kann frei wählbar sein, oder es kann eine bestimmte Zahl vorgegeben werden. Diese kann: •• fixiert sein, d. h. eine vorgegebene Anzahl beinhalten. Dabei soll aus einer vorgegebenen Liste eine definierte Anzahl von Antwortalternativen ausgewählt werden, •• einseitig begrenzt sein, d. h. Mindest- oder Höchstangaben enthalten. Dabei soll aus einer vorgegebenen Liste eine nach unten oder oben begrenzte Anzahl zulässiger Nennungen ausgewählt werden („mindestens“ / „höchstens“), •• zweiseitig begrenzt sein, d. h. Angaben zwischen Minimum- und Maximumspanne enthalten. Dabei soll aus einer vorgegebenen Liste eine Bandbreite zulässiger Nennungen ausgewählt werden („von – bis“). Die Erfassung der Antworten kann durch wörtliche Niederschrift (vornehmlich bei offenen Fragen), Feldverschlüsselung durch Markierung der Antworten auf Codierbögen (vornehmlich bei geschlossenen Fragen) oder durch Feldbewertung durch den Interviewer erfolgen. Letzteres wird u. a. als Soziale Fremdeinstufung (SFE) bezeichnet und wird ggfs. bei Verweigerung von Angaben (z. B. zum Haushaltsnettoeinkommen) angewandt. Eine weitere Unterscheidung betrifft die in direkte oder indirekte Fragearten. Bei direkten Fragen gibt die Auskunftsperson offenkundig und für sie erkennbar ihre eigene Meinung wieder. Die Antworten lassen direkt auf die interessierenden Sachverhalte schließen. Bei heiklen, tabuisierten und normenbeladenen Themen treten dabei allerdings oft Hemmungen auf. Dann werden indirekte Fragen eingesetzt, die sich projektiver oder assoziativer Techniken bedienen. Die Auskunftsperson gibt dabei scheinbar nicht Auskunft über sich selbst, sondern über Dritte. Dadurch kann ihre Antwortbereitschaft und -fähigkeit gesteigert werden. Allerdings muss der forscherische Zusammenhang zwischen nachgefragtem Indiz und eigentlichem Frageobjekt eindeutig sein.

3.1 Mündliche Befragung

105

Häufig angewandte Formen sind dabei folgende: •• Die interviewte Person wird als Experte befragt („Wie beurteilen Sie als erfahrene Hausfrau denn die Tatsache, dass …“). •• Es werden Satzergänzungs- oder Wortassoziationsverfahren angewendet („Welche Begriffe fallen Ihnen spontan zur Marke X ein?“). •• Eine dritte (fiktive) Person soll anhand ihrer Einkaufsliste charakterisiert werden. •• Bestimmte Personentypen werden bestimmten Produkten zugeordnet.

3.1.3.1.2 Offene Fragen Offene Fragen sind solche, die eine vom Befragten frei formulierte Antwort zulassen (meist W-Fragen, also Was, Wer, Welche, Wann, Wo, Wie). Scheinbar offene Fragen haben Suggestivcharakter und weisen daher eine deutliche Ja-Tendenz auf (z. B. die Frage: „Ist das Fahrzeug wendig im Stadtverkehr?“ bei einem Kleinwagen). Wesentliche Vorteile sind folgende: •• Die Auskunftsperson wird in ihrer Informationsabgabe und -bereitschaft nicht eingeschränkt und hat daher mehr Entfaltungsmöglichkeiten für aussagefähige Ergebnisse. Dadurch kommt es zu einer genaueren Erfassung von Antworten. •• Die Auskunftsperson wird nicht durch vorgegebene Antwortkategorien zu einer teilweise unpassenden oder gar falschen Antwort veranlasst. Dies gilt umso mehr, je komplexer und differenzierter ein Befragungsgegenstand ist. •• Antworten werden nicht durch Vorgaben „programmiert“, d. h. in eine bestimmte Richtung verzerrt. Darin liegt eine große Gefahr, etwa durch die Formulierung oder Anzahl vorgegebener Antwortalternativen. •• Es erfolgt keine Überbetonung durch überschneidende ­Mehrfachformulierungen einer Antwortart im Antwortkatalog. Denn dadurch steigt automatisch die Wahrscheinlichkeit ihrer Nennung. •• Der Befragungsgegenstand wird vollständig abgebildet, weil keine Gefahr durch ausgelassene Antwortkategorien besteht. Damit können alle Facetten eines Objekts erfasst werden. Nachteile sind hingegen folgende: •• Der Einfluss des Interviewers macht sich in vielfältiger Weise auf die Art der Antworten bemerkbar. Dies liegt etwa schon in der Betonung der Frageformulierung und seiner physischen Anwesenheit begründet. •• Die Antworten der Auskunftspersonen hängen stark von deren Ausdrucksvermögen ab. Dies erfordert mehr geistige Anstrengung und führt zu überlegteren Antworten oder auch zur Antwortverweigerung.

106

3. Methoden der Primärerhebung von Informationen

•• Die Ausführungen der Auskunftsperson treffen oft nicht den Kern der Frage und schweifen in irrelevante Nebenbereiche ab. Ihre Verwertbarkeit ist dann mehr oder minder stark eingeschränkt. •• Bei der späteren Klassifizierung von Antworten entstehen Schwierigkeiten hinsichtlich ihrer Zuordnung. Denn die Vielzahl differenzierter Antworten muss zur Auswertung letztlich wieder in passenden Kategorien zusammengefasst werden. Dies induziert Fehlinterpretationen. •• Der Vergleich von Antworten untereinander gestaltet sich schwierig, wenn die Klassifizierung nicht einwandfrei gelingt. •• Eine maschinelle Auswertung ist erst nach aufwändiger Codierung möglich. Dazu müssen die Antworten zunächst einmal alle gesichtet und dann nach passenden Untersuchungspunkten gruppiert werden. •• Antworten werden nur unvollständig oder verkürzt aufgezeichnet, wenn es sich um lange, wortreiche Einlassungen der Befragten handelt. Damit geht aber ein Teil der gewünschten Differenzierung wieder verloren. 3.1.3.1.3 Geschlossene Fragen Geschlossene Fragen sind generell nur nach Vorstudien mit offenen Fragen empfehlenswert, da ansonsten entscheidende Antwortaspekte mangels a­ngebotener Kategorie verloren gehen können. Wesentliche Vorteile sind folgende: •• Die Antwortvorgabe reduziert die erforderliche Denk- und Arbeitsleistung der Auskunftsperson und erleichtert ihr damit die Antwort. Die Ergebnisse sind besser auf dem Punkt gebracht als bei offenen Fragen. •• Es sind keine besonderen Ansprüche an das Ausdrucksvermögen der Auskunftsperson zu stellen. Denn dieses limitiert oft die aussagefähige Verwertung von Antworten und führt zu Fehlinterpretationen. •• Ebenso sind keine besonderen Anforderungen an die Interviewer im Hinblick auf deren Schreib- und Aufnahmekapazitäten zu stellen. Sie können sich vielmehr voll auf die Gesprächsführung konzentrieren. •• Eine schnelle Protokollierung der Ergebnisse ist gewährleistet. Das verkürzt Befragungszeiten und führt zu geringerer Abbruchquote bzw. zu mehr bearbeit­ baren Inhalten je Interview. •• Bei der Auswertung ist eine Rationalisierung durch Zeit- und Kostenersparnisse erreichbar. Die Antworten können unmittelbar, evtl. schon im Fragebogen, für die maschinelle Erfassung codiert werden.

3.1 Mündliche Befragung

107

•• Die Auswertung kann schnell und unter Einsatz technischer Hilfsmittel erfolgen. So erlaubt bereits ein rascher Blick über die Fragebogen einen ersten Eindruck von der Tendenz der Ergebnisse. •• Die Antworten verschiedener Auskunftspersonen können problemlos mitein­ ander verglichen werden, da sie alle auf denselben, vorformulierten Antwort­ kategorien beruhen. Fehlinterpretationen sind weitestgehend ausgeschlossen. Allerdings kann es zum Fehlverständnis bei Antwortvorgaben kommen, was dann zu Verzerrungen führt. Nachteile sind hingegen folgende: •• Es besteht die Gefahr, dass einzelne Antwortalternativen unbemerkt weg­ gelassen werden. In diesem Fall ist eine erhebliche Verzerrung gegeben, da Auskunftspersonen ihre Meinungsposition gar nicht erst repräsentiert sehen. •• Die Anzahl der zur Auswahl stehenden Alternativen ist oft nicht ausgewogen. Überwiegen positive oder negative Statements, kommt es zwangsläufig zu einer Verlagerung der Gesamtaussagen in diese Richtung. •• Die Formulierung der Antwortalternativen ist nicht neutral gehalten. Es fällt leichter, etwas zu bejahen als zu verneinen. Zudem weisen Suggestivfragen eine explizite Ja-Tendenz auf. •• Die Reihenfolge der Nennung der Antwortalternativen führt zu gegenseitiger Überstrahlung. Dadurch werden Antworten verzerrt. 3.1.3.1.4 Hilfsregeln Dennoch spielen geschlossene Fragen die größte Rolle in jeder mündlichen Erhebung. Die genannten Nachteile können durch Beachtung einiger Regeln vermieden werden: •• Die Alternativenzahl soll nicht zu klein sein, um dem Antwortenden genügend Entfaltungsspielraum zu belassen. So kann trotz der Vorgaben eine differenzierte Meinungserfassung erfolgen. •• Die Antwortkategorien sollen alle realistisch denkbaren Antwortmöglichkeiten abdecken. Vor allem ist wichtig, dass die Antwortvorgaben aus der Sicht der Befragten tatsächlich zur Frage passen. •• Alle Antwortalternativen sollen sich möglichst in der gleichen Dimension bewegen. Sollen mehrere Dimensionen abgedeckt werden, sollen diese annähernd ausgewogen oder auf mehrere geschlossene Fragen verteilt sein. •• Seltene Antwortkategorien sollen in einer Kategorie „Sonstiges“ zusammen­ gefasst werden. Diese wird dann als offene Kategorie betrachtet.

108

3. Methoden der Primärerhebung von Informationen

•• Eine offene Antwortalternative soll Raum für Antworten lassen, die durch die Vorgaben nicht abgedeckt sind. Dadurch gehen vom Befragten als wichtig erachtete, jedoch nicht explizit vorgegebene Antworten nicht verloren. •• Bei der Reihenfolge der Antwortpositionen sind Verzerrungen durch Rotation der Reihenfolge zu vermeiden. So können Überstrahlungseffekte, wenn schon nicht vermieden, so doch zumindest ausgeglichen werden. 3.1.3.2 Fragefunktionen Im Fragebogenablauf nehmen einzelne Fragen bestimmte Funktionen wahr. Es handelt sich im Einzelnen um Instrumentalfragen, Ergebnisfragen und Sonderfragen.

Abbildung 23: Übersicht Fragefunktionen I

3.1 Mündliche Befragung

109

Abbildung 24: Übersicht Fragefunktionen II

3.1.3.2.1 Instrumentalfragen Die Gruppe der Instrumentalfragen besteht aus Fragen, die keine unmittelbare Aussage über bestimmte Sachverhalte zulassen, aber für den Erfolg der Erhebung entscheidend sind. Dazu gehören im Einzelnen analytische Fragen, Ablaufordnungsfragen und methodische Fragen. Analytische Fragen sind solche, die den Befragungsgegenstand betreffen. Zu unterscheiden ist in: •• Korrelationsfragen. Sie bilden die Grundlage für Untergruppen und Kreuztabellierungen. Dies betrifft vor allem die Soziodemographie der Befragten, die in Zusammenhang mit auswertbaren Ergebnisfragen gestellt wird. •• Erhebungskontrollfragen. Sie stellen die Sorgfalt der Interviewdurchführung sicher. Meist handelt es sich um Fälscherfragen, die feststellen sollen, ob Antworten an verschiedenen Stellen des Fragebogens einander widersprechen. Dies deutet auf Fälschungen hin. •• Auskunftskontrollfragen. Sie stellen Inkonsistenzen in den Antworten der Befragten fest. Die Ergebnisse der betreffenden Personen sind dann kritisch zu durchleuchten. Es steht zu vermuten, dass bei den Antworten nicht immer die Wahrheit angegeben worden ist. Ablaufordnungsfragen sind solche, die den Befragungsvorgang selbst steuern. Zu unterscheiden ist in: •• Filterfragen. Sie beenden die Befragung bzw. scheiden Personen aus der weiteren Befragung zu einem Thema aus. Damit werden unsinnige Fragestellungen vermieden. Zum Beispiel richten sich Fragen zu Tierfutter nur an Personen, von denen vorher erhoben wurde, dass sie tatsächlich ein Haustier halten. Alle anderen überspringen diesen Fragenkomplex.

110

3. Methoden der Primärerhebung von Informationen

•• Gabelungsfragen. Sie steuern den Ablauf, indem je nach Antwortkategorie an einer anderen Stelle im Fragebogen weitergearbeitet wird. Somit werden Untergruppen der Befragungsgesamtheit definiert und dann mit jeweils spezifischen Fragefolgen bedient. Zum Beispiel werden gewerbliche und private Nutzer von Hochdruckreinigern getrennt nach ihren jeweiligen Anforderungen an einen Gerätetyp befragt. Methodische Fragen sind solche, die dem Bereich der Fragetaktik zuzurechnen sind. Zu unterscheiden ist dabei in: •• Kontaktfragen (auch Eisbrecherfragen genannt). Sie bauen die Scheu des Befragten gegenüber dem Interview ab und schaffen günstige Voraussetzungen für einen konstruktiven Befragungsablauf. Sie dienen der Auflockerung der Atmosphäre und der Überbrückung anfänglicher Befangenheit. Den Ergebnissen kommt meist „Wegwerf“-Charakter zu. •• Unterweisungsfragen. Sie sichern die notwendige Grundeinstellung und sensibilisieren Auskunftspersonen für den betreffenden Gegenstand. Sie werden auch Lern- oder Trainingsfragen genannt. So kann ein angeführtes Beispiel den Befragten helfen, besser zu verstehen, wie eine Frage gemeint ist. •• Füllfragen (auch Pufferfragen genannt). Sie grenzen Themenkomplexe innerhalb einer Befragung gegeneinander ab und verhindern so eine gegenseitige Beeinflussung dieser Komplexe durch Haloeffekte, d. h. Überstrahlungen vom vorherigen Thema auf das nachfolgende. •• Ablenkungsfragen. Sie sollen den eigentlichen Fragebogeninhalt verdecken. Dadurch soll eine nicht-durchschaubare Fragesituation erreicht werden, in der die Befragungsperson keine Auskunftsverzerrungen einbringen kann, weil ihr verborgen bleibt, was das eigentliche Ziel der Befragung ist. •• Ausgleichsfragen. Sie sind für den Teil der Befragten gedacht, die nach einer Filterfrage von einem Fragenkomplex freigestellt sind. Damit soll verhindert werden, dass Befragte lernen, welche Antworten zur eher unliebsamen Ver­ längerung über weitere Fragen und welche zur willkommenen Verkürzung des Interviews durch Frageauslassung führen. 3.1.3.2.2 Ergebnisfragen Die Gruppe der Ergebnisfragen beinhaltet Fragen, die unmittelbar auf bestimmte Sachverhalte und funktionelle Verknüpfungen schließen lassen. Dazu gehören Präzisionsfragen und Maßstabsfragen. Präzisionsfragen sind solche, die zu erhebende Tatbestände unmittelbar durch direkte Befragung erfassen oder mittelbar durch •• Assoziationsfragen, die auf die mit einem Untersuchungsgegenstand verknüpften Vorstellungen abzielen (z. B. Satzergänzung) oder

3.1 Mündliche Befragung

111

•• Projektionsfragen, welche die Auskunftsperson veranlassen sollen, Informationen abzugeben, die sie bei direkter Befragung nicht offenbaren kann oder will. Maßstabsfragen halten demgegenüber Unterschiede zwischen verschiedenen Befragten fest. 3.1.3.2.3 Sonderfragen Die Gruppe der Sonderfragen beinhaltet mehrere Formen: •• Vorlagenfragen. Sie verbinden Text-, Bild- oder Originalvorlagen mit der Frageformulierung. Oft dienen diese als zusätzliche Gedächtnisstütze. Dies ist etwa bei der Abfrage in der Media-Analyse durch Vorlage von Sedkarten mit den ­Logos von Werbeträgern bei der Abfrage nach deren Nutzung der Fall. •• Vortragsfragen. Sie werden ohne stützende Vorlagen gestellt und führen somit zu „härteren“ Ergebnissen. Damit kann z. B. die aktive Bekanntheit von Produkten / Marken erfragt werden, die spontan in Zusammenhang mit der Frage präsent sind. •• Zitatfragen. Sie beinhalten die wörtliche Äußerung einer fiktiven oder realen Person, zu welcher der Befragte Stellung nehmen soll. Häufig handelt es sich um Personen des öffentlichen Lebens, deren Aussagen durch die Medien bereits bekannt sind. •• Dialogfragen. Sie geben einen Gesprächsaustausch zweier fiktiver Personen wieder und fordern die Befragungsperson auf, einer von ihnen zuzustimmen. Dies wird vor allem bei komplexen Sachverhalten angewandt, die das Ausdrucksvermögen von Probanden ansonsten überfordern. •• Personenfragen. Diese werden für gewöhnlich am Ende des Interviews gestellt und dienen der Erfassung soziodemographischer Daten, die dann mit anderen Ergebnissen korreliert werden können. •• Indikatorfragen. Sie dienen der Operationalisierung von theoretischen Konstruk­ ten (z. B. Motive, Wünsche, Bedarfe) und sollen Hinweise auf das Vorhandensein und die Ausprägung dieser Konstrukte geben. •• Skalierungsfragen. Sie bedienen sich Skalen, um Einstellungen, Beurteilungen, Meinungen oder andere verdeckte Inhalte zu messen. Ihr Ziel ist die Quanti­ fizierung qualitativer Sachverhalte.

112

3. Methoden der Primärerhebung von Informationen

3.1.3.3 Fragetaktik Bei der Frageformulierung sind die Grundsätze der Einfachheit, Eindeutigkeit und Neutralität zu beachten. Einfachheit bedeutet, dass der Fragebogen mit einem minimalen Wortschatz auskommen sollte. Die Fragen sollen kurz und einfach gehalten sein. Dabei sollte ein allgemein verständlicher Stil eingehalten werden, wobei sich das sprachliche Niveau immer an der Umgangs- bzw. Fachsprache der jeweiligen Befragtengruppe ausrichtet. Fragen sollen Wissensstand, Bildungsniveau und Erinnerungsfähigkeit der Befragten nicht überfordern. Fremdwörter, Abkürzungen, Eigennamen etc. sind zu vermeiden oder zu erläutern. Eindeutigkeit meint, dass eine Frage so gestellt sein sollte, dass sie von mehreren Befragten gleichartig verstanden werden kann. Mehrdeutigkeiten sind zu vermeiden, auch in Bezug auf Orts- und Zeitangaben. Dazu bedarf es einer präzisen, semantisch eindeutigen und logisch klaren Formulierung. Es darf dabei zu keiner Vermischung verschiedener Frageaspekte kommen. Neutralität bedeutet, dass jede Beeinflussung der Antwort durch die Fragestellung ausgeschlossen sein sollte. Suggestionen entstehen bereits bei unterschied­ lichen Formulierungslängen von Alternativantworten, durch den Einsatz wertender Wörter, durch Ungleichheit positiver und negativer Ausprägungen der Antworten, durch Betonung in Text oder Vortrag etc. Allgemein gilt, dass die Fragen nicht als lästig empfunden werden dürfen und leicht verständlich sein sollen. Es sollen so wenig Fragen wie möglich gestellt werden, diese müssen klar formuliert sein. Sie sollen so kurz und präzise wie möglich sein und dürfen keinen inquisitorischen Charakter haben. Der Fragenablauf soll eine motivierende Dramaturgie aufweisen und jegliche Monotonie vermissen lassen. Es sind sowohl eine Aufwärmphase (Eisbrecherfragen etc.) als auch zwischenzeitliche Motivationsphasen für den Probanden erforderlich (Themen­ wechsel etc.). Abhilfe für daraus entstehende Probleme kann mehrfach geschaffen werden: •• Die Frageformulierung wird mit konkretem Bezug ausgestattet, damit kein sozial erwünschtes Verhalten wiedergegeben wird (also nicht: „Wie gestalten Sie normalerweise so Ihren Feierabend?“, sondern: „Wie haben Sie den gestrigen Abend verbracht?“). Die Antwortvorgaben werden möglichst bestimmt formuliert, um Interpretationsspielraum zu nehmen (also nicht: „Stricken Sie selten, gelegentlich, häufig, regelmäßig?“, sondern „Stricken Sie mehr als 10 mal, 5–10 mal, weniger als 5 mal im Monat oder überhaupt nicht?“). Es werden eindeutige Frageformulierungen verwendet (also nicht: „Welche Heimwerkergeräte besitzen Sie?“, sondern: „Besitzen Sie eine Oberfräse, Stichsäge oder Schlagbohrmaschine?“ bzw. „Welche Marken verwenden Sie bevorzugt bei diesen Heimwerkergeräten?“). Bei Tabuthemen werden gezielt suggestive Formulierungen verwendet (also nicht: „Haben Sie jemals aus Geldmangel gebastelt?“, sondern: „Ist es Ihnen schon passiert, dass Ihnen ein Fertigteil im Laden zu teuer war und Sie statt dessen auf Do it yourself zurückgegriffen haben?“).

3.1 Mündliche Befragung

113

Die Auskunftswilligkeit soll durch thematische Abwechslung und Variation der Fragetechniken gesteigert werden. Hilfreich ist auch eine einigermaßen konstante Befragungssituation, um Ungleichheiten in der Erhebung vorzubeugen. Vor allem sollen Störeffekte ausgeschaltet werden, die etwa durch Überstrahlung von Antwortalternativen zustande kommen. Dabei handelt es sich um: •• Präsenzeffekte, d. h. vorangegangene Fragen aktualisieren bestimmte Vorstellun­ gen und Denkraster und engen dadurch den Antwortspielraum für nachfolgende Fragen ein, •• Konsequenzeffekte, d. h. der Befragte sieht seine Antwort in Zusammenhang und bemüht sich um interne Widerspruchsfreiheit, obgleich er ansonsten anders antworten wollte, •• Lerneffekte, d. h. vorangegangene Fragen vermitteln Wissen, etwa über den Fragenablauf, und verzerren Antworten durch mangelnde Unvoreingenommenheit. Die Länge des Fragebogens ist abhängig von Befragungsgegenstand, erwartetem Interesse der Befragten, Interviewergeschick, erwarteter Befragungssituation und Honorierung. Letztere ist höchst umstritten, provoziert sie doch womöglich Gefälligkeitsantworten, um das Honorar nicht zu gefährden. Realistisch ist, sofern es sich nicht um professionelle Zielgruppen handelt, eine Dauer von 30–45 Minuten je Interview, das bedeutet ca. 15–25 Fragen. Fragetaktische Elemente betreffen vor allem die: •• Fragetypenkomposition im Befragungsablauf, d. h. die Art der überhaupt eingesetzten Fragetypen im Fragebogen. Hier ist eine Abwechslung durch Einsatz unterschiedlicher Fragetypen sinnvoll, um Ermüdungserscheinungen und Lerneffekten vorzubeugen. •• Fragetypensequenz im Befragungsablauf, d. h. die Abfolge der einzelnen Fragetypen im Fragebogen. Häufig kommt es zur sozialen Erwünschtheit, d. h. Personen antworten so, wie sie glauben, dass es von ihnen erwartet wird, und Prestigeantworten, d. h. Personen überzeichnen ihren Status im realen Leben. Im Folgenden einige Beispiele für reale Themen- und Frageabläufe (aus der WerbeträgerAnalyse des ZAW), die einen Eindruck von der Komplexität der Komposition und Sequenz geben. Zunächst zur Presse, genauer zur Abfrage von Tageszeitungen: •• „Jetzt gebe ich Ihnen Karten, darauf stehen Namen von Zeitungen. Welche von diesen Zeitungen haben Sie schon einmal in der Hand gehabt, um darin zu blättern oder zu lesen, welche sind Ihnen nur dem Namen nach bekannt und welche kennen Sie überhaupt nicht?“ •• „Abgesehen von Tageszeitungen, deren Namen hier auf diesen Karten stehen: Welche weiteren Tageszeitungen gibt es hier in der Stadt, im Ort, in der Gegend?“ •• „Und welche von diesen Zeitungen haben Sie schon mal in der Hand gehabt, um darin zu blättern oder zu lesen?“

114

3. Methoden der Primärerhebung von Informationen

Für jede schon in der Hand gehabte Zeitung wird weitergefragt: •• „Wann haben Sie die Zeitung zuletzt, den heutigen Tag ausgenommen, in die Hand genommen, um darin zu blättern oder zu lesen? Hier habe ich eine Zeiteinteilung, die Ihnen vielleicht helfen kann, die richtige Antwort zu finden: Innerhalb der letzten 14 Tage, zwei bis drei Wochen her, noch länger her.“ Für jede innerhalb der letzten 14 Tage gelesene Zeitung kann man weiterfragen: •• „Von dieser Zeitung sind in den letzten zwei Wochen bis zum gestrigen Tag zwölf verschiedene Ausgaben erschienen. Wie viele von diesen zwölf Ausgaben haben Sie in den letzten zwei Wochen nach Ihrer Schätzung durchgeblättert oder gelesen? Schauen Sie bitte auf dieses Blatt hier und sagen Sie mir, was davon für Sie persönlich am ehesten zutrifft.“ •• „Sie haben mir vorhin gesagt, Sie hätten die Zeitung innerhalb der letzten 14 Tage in der Hand gehabt. Ich möchte das jetzt noch etwas genauer wissen: Wann haben Sie sie, ab­ gesehen von heute, zuletzt durchgeblättert oder gelesen? Hier habe ich einen Kalender, der Ihnen vielleicht hilft, sich zu erinnern: Gestern, vorgestern, vor drei Tagen, vor vier bis sieben Tagen, länger her.“ Dann zur Abfrage von Zeitschriften: •• „Jetzt gebe ich Ihnen Karten, darauf stehen die Namen von Zeitschriften. Welche von diesen Zeitschriften haben Sie schon mal in der Hand gehabt, um darin zu blättern oder zu lesen, welche sind Ihnen nur dem Namen nach bekannt und welche kennen Sie überhaupt nicht? Am besten sortieren Sie die Karten in drei Häufchen auf dieses Blatt hier.“ •• „Für alle wöchentlich neu erscheinenden Titel: „Diese Zeitschrift erscheint jede Woche neu. Wann haben Sie zuletzt die Zeitschrift in die Hand genommen, um darin zu blättern oder zu lesen? Hier habe ich eine Zeiteinteilung, die Ihnen vielleicht helfen kann, die richtige Antwort zu finden: Innerhalb der letzten drei Monate, ein viertel bis ein halbes Jahr her, länger her.“ Für alle Zeitschriften, die innerhalb der letzten drei Monate gelesen wurden: •• „Von dieser Zeitschrift sind in den letzten drei Monaten zwölf verschiedene Nummern erschienen. Wie viele von diesen zwölf Nummern haben Sie in den vergangenen drei Monaten nach Ihrer Schätzung durchgeblättert oder gelesen? Schauen Sie bitte auf dieses Blatt hier und sagen Sie mir, was davon für Sie persönlich am ehesten zutrifft.“ •• „Sie haben mir vorhin gesagt, Sie hätten die Zeitschrift innerhalb der letzten drei Monate in der Hand gehabt. Ich möchte das jetzt noch etwas genauer wissen: Wann haben Sie sie zuletzt durchgeblättert oder gelesen? Hier habe ich einen Kalender, der Ihnen vielleicht hilft, sich zu erinnern: Innerhalb der letzten sieben Tage, acht bis vierzehn Tage her, zwei bis drei Wochen her, länger her.“ Danach zum Medium Fernsehen und seiner Abfrage: •• „Auf diesen Karten sind Erkennungsfiguren für die verschiedenen Fernsehsender abgebildet. Man kann diese Figuren an allen Werktagen, also montags bis samstags zwischen den Sendungen vor 20 Uhr sehen. Von welchen Sendern haben Sie vor 20 Uhr schon Sendungen gesehen (Kartenvorlage)?“

3.1 Mündliche Befragung

115

•• „Wann haben Sie zuletzt vor 20 Uhr eine Sendung vom Sender gesehen. Hier habe ich eine Zeiteinteilung, die Ihnen vielleicht helfen kann, die richtige Antwort zu finden: Länger her, zwei bis vier Wochen her, innerhalb der letzten zwei Wochen.“ Falls innerhalb der letzten zwei Wochen ein Sender gesehen wurde: •• „Und nun möchte ich noch einiges über das Fernsehen zu den einzelnen Tageszeiten wissen. Haben Sie persönlich innerhalb der letzten zwei Wochen an irgendeinem Werktag, also montags bis samstags, nachmittags in der Zeit vor 17 Uhr ferngesehen – und wenn auch nur ein paar Minuten? Denken Sie bitte auch daran, dass der Samstag oft anders abläuft als die anderen Werktage. Also wie war das nachmittags vor 17 Uhr in den letzten zwei Wochen? Und zwischen 17 Uhr und 17.30 Uhr, wie war es da in den letzten zwei Wochen? Und zwischen 17.30 Uhr und 18.00 Uhr, 18.00 Uhr bis 18.30 Uhr, 18.30 Uhr bis 19.00 Uhr, 19.00 Uhr bis 19.30 Uhr, 19.30 Uhr bis 20.00 Uhr?“ Falls innerhalb der letzten zwei Wochen zu irgendeiner dieser Zeiten ferngesehen wurde: •• „Wenn Sie an eine normale Woche in der letzten Zeit denken: An wie vielen von den sechs Werktagen montags bis samstags sehen Sie im Allgemeinen in der Zeit von – bis Sendungen vom Sender X?“ •• „Und wie war das gestern (vorgestern, am letzten Werktag)? Und zu welchen Zeiten haben Sie persönlich da ferngesehen – und wenn auch nur ein paar Minuten? Hier habe ich einen Viertelstunden-Plan, der Ihnen vielleicht hilft, sich zu erinnern.“ •• „Und welchen Sender, welches Programm haben Sie zu dieser Zeit gesehen? Hier sind noch einmal die Figuren, an denen Sie die Sender erkennen können (alle Viertelstundenintervalle durchgehen).“ Das Medium Hörfunk wird wie folgt abgefragt: •• „Auf diesen Karten stehen die Namen von verschiedenen Hörfunksendern / Radioprogram­ men. Welche Sender, welche Programme haben Sie schon mal gehört (Kartenvorlage)?“ •• „Wann haben Sie zuletzt den Sender gehört? Hier habe ich eine Zeiteinteilung, die Ihnen vielleicht helfen kann, die richtige Antwort zu finden: Länger her, zwei bis vier Wochen her, innerhalb der letzten zwei Wochen.“ Falls innerhalb der letzten zwei Wochen ein Sender gehört wurde: •• „Und nun möchte ich noch einiges über das Radiohören zu den einzelnen Tageszeiten wissen. Haben Sie persönlich innerhalb der letzten zwei Wochen an irgendeinem Werktag, also montags bis samstags, frühmorgens vor 7.00 Uhr Radio gehört und wenn auch nur ein paar Minuten? Denken Sie bitte auch daran, dass der Samstag oft anders abläuft als die anderen Werktage. Also wie war das frühmorgens vor 7.00 Uhr in den letzten zwei Wochen? Und zwischen 7.00 Uhr und 8.00 Uhr, wie war es da in den letzten zwei Wochen? Und zwischen 8.00 Uhr und 10.00 Uhr, 10.00 Uhr bis 12.00 Uhr, 12.00 Uhr bis 14.00 Uhr, 14.00 Uhr bis 16.00 Uhr, 16.00 Uhr bis 18.00 Uhr, 18.00 Uhr bis 20.00 Uhr?“ Falls innerhalb der letzten zwei Wochen jeweils zu einer bestimmten Zeit radiogehört wurde: •• „Wenn Sie an eine normale Woche in der letzten Zeit denken: An wie vielen von den sechs Werktagen montags bis samstags hörten Sie im Allgemeinen in der Zeit von – bis den Sender Y?“

116

3. Methoden der Primärerhebung von Informationen

•• „Und wie war das gestern (vorgestern, am letzten Werktag) ? Zu welchen Zeiten haben Sie persönlich da Radio gehört – und wenn auch nur für ein paar Minuten? Hier habe ich einen Stundenplan, der Ihnen vielleicht hilft, sich zu erinnern.“ •• „Und welchen Sender, welches Programm haben Sie zu dieser Zeit gehört? Hier sind noch einmal die Namen der Hörfunksender / Radioprogramme (alle Zeitintervalle durchgehen).“ Schließlich zur Abfrage in Sachen Plakat: •• „Ich zeige Ihnen Fotografien von Straßen und Plätzen im Ort. Bitte geben Sie mir die Fotografien, die Sie erkennen, in die Hand.“ •• „Geben Sie mir nun bitte auch die Fotos der Gegenden, die Sie jetzt mit Hilfe der Skizze erkannt haben, in die Hand (nicht erkannte Fotos werden anhand von Lageskizzen er­ läutert).“ •• „Erinnern Sie sich, wann Sie hier zuletzt vorbeigekommen sind? Heute zählt dabei nicht mit. Vielleicht fällt es Ihnen leichter, anhand dieses Kalenderblatts den Wochentag oder das Datum anzugeben.“ •• „Wie häufig kommen Sie hier im Allgemeinen vorbei? Also wie viel Mal ist das ungefähr? Zählen Sie bitte jedes Vorbeikommen, Hin- und Rückwege zählen als zwei Wege.“ •• „Sind Sie hier zuletzt zu Fuß oder nicht zu Fuß vorbeigekommen? Heute zählt dabei nicht mit.“

3.1.3.4 Interviewerbedeutung 3.1.3.4.1 Interviewerauswahl Die Interviewerbedeutung ist für die Qualität der Befragungsergebnisse als sehr hoch anzusetzen. Eine unerlässliche Voraussetzung sind somit die Auswahl hoch geeigneter Interviewer, konkrete Vorgaben für deren Arbeitseinsatz und ihre Schulung. Als hilfreiche Charaktermerkmale gelten dabei Kontaktfähigkeit, ein gesundes Maß an Pedanterie, Interesse für Menschen und moralische Widerstandskraft. Interviewer müssen zur ungezwungenen Führung eines präzisen Gesprächs fähig sein. Bei der Auswahl sind Extremtypen zu vermeiden. Was als extrem anzusehen ist, ist abhängig von der sozialen Norm der Befragten, z. B. nach Alter, Klassenzugehörigkeit, Erscheinungsbild, Bildungsgrad, Auftreten, Sprache. Ebenso sind soziale Randgruppen (wegen der Verweigerungsgefahr) zu vermeiden. Auch sollte keine persönliche Betroffenheit durch das Befragungsthema vorliegen (z. B. ausländischer Interviewer zum Thema der Erbringung einfacher Services durch Gastarbeiter). Wichtig ist die Beherrschung der situativen Faktoren des Interviews und die Induzierung sozialer Interaktion zwischen Interviewer und Befragtem. Zu den situativen Faktoren gehören etwa die Vermeidung von Zeitdruck bei Interviewer oder Befragtem oder der Anwesenheit Dritter bei der Befragung. Ausgleichend wirkt hier meist die Zufälligkeit der Erhebungsumstände. Zur sozia-

3.1 Mündliche Befragung

117

len Interaktion gehört die Gesprächsentwicklung, die zu Beginn ein bestimmtes Bild vom jeweils Anderen vermittelt, das zu Vorurteilen führen kann, die verzerrend wirken. Ausgleichend wirken hier in gewissem Rahmen Fragetaktik und Intervieweranweisung. Interviewer sollen das Verhalten Anderer gut beobachten und sich darauf einstellen können. Sie sollen psychisch belastbar sein und können auf kontroverse Reaktionen von Befragungspersonen konstruktiv reagieren. Sie sollen über hohe Anpassungsfähigkeit verfügen und sich auf unterschiedliche Situationen gut einstellen können. Sie sollen eine gute Allgemeinbildung haben und können ihr eigenes verbales und nonverbales Verhalten gut kontrollieren. Sie sollen aus­ reichend selbstkritisch sein und aus Fehlern angemessene Konsequenzen ziehen. Insofern sind relevante Schlüsselqualifikationen erforderlich. 3.1.3.4.2 Interviewereinsatz Für den häufigen Fall, dass eine mündliche, standardisierte Befragung durch­ geführt werden soll, umfasst eine Intervieweranweisung für den Einsatz sinnvoller­ weise Vorgaben zu folgenden Bereichen: •• Ungefragte und exakte Ausweisung der Person, alle Forschungsinstitute stellen dafür Interviewerausweise aus, •• Interview nur mit fremden Personen, also keine Freunde, Bekannte, Verwandte, •• Interviews nicht räumlich geballt vornehmen, •• freundliches Auftreten und sympathische Ausstrahlung zeigen, •• entspannte Durchführung des Interviews ohne Zeitdruck, dem Befragten Zeit zum Nachdenken und Antworten geben und nicht hetzen, •• wörtliches Vorlesen von Fragen und genaue Vorlage von Hilfsmitteln, •• keine Fragen selbst interpretieren, bei Unverständnis Frage nochmals vorlesen und dann vom Befragten selbst interpretieren lassen, •• genaue Einhaltung der Fragereihenfolge, •• Antworten immer wörtlich aufnehmen, nicht mit eigenen Worten vermerken, •• Antworten leserlich ausführen und exakt immer in der dafür richtigen Rubrik eintragen, •• auch unaufgeforderte Antworten zur Sache notieren, •• das Interview an Ort und Stelle auf Vollständigkeit und Gültigkeit überprüfen und keine Kompromisse in Bezug auf die Qualität eingehen, •• keine Interviewbögen selbst vervollständigen, •• keine persönlichen Ansichten in die Befragung einbringen,

118

3. Methoden der Primärerhebung von Informationen

•• immer nur ein Befragungsprojekt zu gleicher Zeit durchführen, •• Befragungen nicht im anderen Tätigkeiten kombinieren, z. B. Verkauf, Beratung, wie das gelegentlich für Nebeneinnahmen der Interviewer üblich ist, •• keine dritten Personen zum Interview mitnehmen, •• nicht von der vorgegebenen Stichprobenstruktur abweichen, •• jede Person nur einmal befragen, •• beim Ausfüllen nicht vom Befragten „über die Schulter schauen“ lassen, •• den Befragten nicht den Fragebogen oder die Antworten lesen lassen. 3.1.3.4.3 Interviewerkontrolle Zur Kontrolle der Einhaltung dieser Anweisungen und zur Vermeidung von Fälschungen dienen folgende Maßnahmen: •• Einbau von Fangfragen in das Interview, um Widersprüchlichkeiten zwischen früheren und späteren Angaben im Verlauf des Fragebogens festzustellen, allerdings sind auch „echte“ Interviews nicht frei von Widersprüchen, •• Quittierung des Interviews durch den Befragten, allerdings besagt dies noch nichts über den tatsächlichen Ablauf des Interviews, zudem führt dies leicht zu Misstrauen (nichts unterschreiben wollen), •• telefonischer Nachfass im Anschluss an das Interview, allerdings kann dabei kaum die Vollständigkeit der Befragung nachgeprüft werden, außerdem sind nicht alle Personen telefonisch erreichbar, •• Einstreuung gefälschter Adressen in die Stichprobendaten, kommen von diesen Dummy-Adressen Fragebögen zurück, liegt eindeutig eine Fälschung vor, dies ist noch eine der wirksamsten Kontrollmaßnahmen (allerdings nur bei bestimmten Auswahlverfahren), •• Durchführung echter Nachinterviews mit gleichen Fragen, allerdings ist damit ein hoher Zeit- und Geldaufwand verbunden, zudem besteht keine Gewähr, dass das Nachinterview zuverlässiger ist, und es kommt zu einer hohen Verweigerungsquote beim Zweitbesuch, •• Auswahl hoch motivierter Interviewer, Beschränkung deren Zeitdrucks und leistungsfördernde Honorierung, die Praxis ist hier jedoch durch harte Konkurrenz und Rentabilitätsdruck gekennzeichnet, •• Verzicht auf unzuverlässige oder „übererfahrene“ Interviewer, wobei allerdings ein Identifizierungsproblem besteht und hohe laufende Kosten für Schulung und Training neuer Interviewer anfallen, welche die Wettbewerbsfähigkeit vermindern,

3.1 Mündliche Befragung

119

•• Beschränkung der Anzahl der Interviews je Interviewer, um etwaige Verzerrungen durch deren große Zahl zu neutralisieren, auch dies ist eine pragmatische Möglichkeit zur Limitierung von Fälschungseinflüssen. 3.1.3.4.4 Interviewerqualifizierung Die Qualifizierung der Interviewer bezieht sich auf folgende Bereiche: •• Erläuterung des Erhebungsziels, ohne allerdings zu genau auf die Hintergründe der Befragung einzugehen. Bei Kenntnis des allgemeinen Befragungsziels kann der Interviewer besser und sachkundiger auftreten. Eine zu genaue Einweisung ist jedoch zu vermeiden, weil sie das Ergebnis verzerren kann. •• Übungsinterviews, vor allem bei neuen Interviewern. Dabei werden wichtige Fertigkeiten eingeübt, wie immer nur eine Person zur gleichen Zeit interviewen, nur ein Interview pro Adressat durchführen, wörtliches Vorlesen der Fragen etc. •• Erläuterung der Auswahlmethoden und evtl. der Quotenmerkmale. Die Auswahlmethode muss zweifelsfrei genannt sein, ebenso ist der zu befragende Personenkreis abzugrenzen. •• räumliche Abgrenzung des Arbeitsgebiets, möglichst außerhalb des Wohn­sitzes des Interviewers, sodass die Voraussetzungen für Verzerrungen verringert werden. •• zeitliche Abgrenzung der Erhebung, inkl. Empfehlung günstiger Erhebungstage oder Tageszeiten, damit wird nicht nur ein einheitlicher Erhebungszeitraum erreicht, sondern durch Erfolgserlebnisse auch eine gesteigerte Motivation der Inter­viewer. •• Art und Weise der Vorstellung, der Bekanntmachung und des Gesprächs­ einstiegs. Hier sind bereits die entscheidenden Faktoren zum Gelingen eines Interviews angelegt. •• Art und Umfang der festzuhaltenden Beobachtungen bei Personen, Haushalten etc. Dies schärft die Wahrnehmung der Interviewer und erhöht damit die Aus­ sagefähigkeit der Ergebnisse. •• Feststellung der Angaben zur befragten Person, da ansonsten wichtige Auswertungsmöglichkeiten entfallen. •• Hinweis auf die Überwachung der Interviewertätigkeit durch den Einsatzleiter. Er fungiert aber nicht nur als Kontrolleur, sondern steht auch als professioneller Partner für Erläuterungen / Hilfen zur Verfügung. •• Modalitäten der Vergütung. Hier ist die Normierung einer Mindestzahl er­ forderlicher Interviews denkbar, um eine schnellere zeitliche Durchführung zu erreichen (wichtig unter dem Gesichtspunkt eines möglichst einheitlichen Erhebungsstichtags).

120

3. Methoden der Primärerhebung von Informationen

Ein wichtiges Subziel der Interviewerqualifizierung ist die Minimierung von Interviewverweigerungen, da diese bei Bewusstauswahlverfahren nicht ohne Weiteres erkennbar sind. Dazu bietet sich die Einübung der Einwandbehandlung an, d. h. häufig genannter Bedenken der Probanden gegen eine Befragung: •• „Ich weiß zu wenig zu diesem Thema.“ – „Das macht gar nichts, denn es kommt bei dieser Befragung nicht auf das Wissen an, sondern ausschließlich um Ihre Meinung.“ •• „Ich habe kein Interesse an einem Interview.“ – „Für die Durchführung dieser Erhebung bin ich auf Ihre Mitarbeit angewiesen, da die Ergebnisse ansonsten nicht repräsentativ sind.“ •• „Nachher steht mein Name in der Auswertung.“ – „Ich kann Ihnen zusichern, dass die Erhebung vollständig anonymisiert erfolgt, Sie brauchen also in dieser Richtung keinerlei Befürchtungen zu haben.“ •• „Bin ich denn verpflichtet, da mitzumachen?“ – „Nein, natürlich nicht, Ihre Teilnahme ist vollkommen freiwillig, aber gerade deshalb ist Ihre Meinung so wichtig.“ •• „Welche Meinung ich dazu habe, geht doch niemanden etwas an.“ – „In der Auswertung sind die Personen, die befragt wurden, nicht erkennbar, es kann also nicht von einer Antwort auf Sie als Person zurück gerechnet werden. Das ist allein schon aus Rechtsgründen so vorgeschrieben.“ •• „Ich habe grundsätzlich etwas gegen diese Umfragen.“ – „Ich kann Ihre Vor­ behalte durchaus verstehen, aber diese Befragung trägt mit ihren Ergebnissen zur Vermehrung des Wissens über Sachverhalte in der Gesellschaft bei. Davon können Sie später persönlich profitieren.“ •• „Ich möchte nicht hier auf der Straße interviewt werden.“ – „Ihre Einschätzung teile ich, aber ich versichere Ihnen, dass das Interview wie ein normales Gespräch abläuft, also keinerlei Aufsehen erregen wird.“ •• „Ich habe für so etwas überhaupt keine Zeit.“ –. „Ich respektiere Ihre Zeitknappheit, daher ist das Interview auch so kurz wie eben möglich gehalten. Sie werden also nicht unnötig aufgehalten.“ •• „Da kann ja jeder kommen und mich interviewen wollen.“ – „Ihre Vorsicht ist nur zu verständlich, ich darf Ihnen hier meinen Interviewerausweis mit Namen, Bild und Auftraggeber zeigen, damit Sie sich von der Seriosität meines An­ liegens selbst überzeugen können.“ •• „Welchem Zweck dient denn diese Befragung?“ – „Das sage ich Ihnen gern nachher, aber jetzt würde diese Information Einfluss auf Ihre Antworten haben und damit die Befragung entwerten.“

3.2 Telefonische Befragung

121

3.2 Telefonische Befragung Die Mehrzahl der Befragungen wird tatsächlich via Telefon durchgeführt, zunehmend auch mit Computerunterstützung. Folgende Faktoren begünstigen das Telefoninterview: Die Auftraggeber setzen immer knappere Termine und ver­ langen besonders zeitsparende Erhebungsmethoden. Die Auskunftsbereitschaft des Publikums steigt, man ist eher bereit, am Telefon zu antworten als Face to face. Die Telekommunikationstechnologie hat erhebliche Komfortfortschritte in der Nutzung gebracht. Die Fernsprechgebühren werden für Ferngespräche immer günstiger (grenzüberschreitende Erhebungen).

3.2.1 Vorteile Wesentliche Vorteile sind folgende: •• Die telefonische Befragung ist schnell und damit kostengünstig im Nah- wie im Fernbereich durchführbar. Sie eignet sich insofern besonders für Blitzumfragen und zur Nachbefragung bei Unklarheiten mündlicher Umfragen, aber auch zur effektiven Interviewerkontrolle. •• Es besteht eine höhere Teilnahmebereitschaft durch Wahrung einer gewissen Anonymität seitens der Befragten. Auch ist es wahrscheinlicher, dass der Hörer abgenommen als dass die Tür geöffnet wird. •• Durch ein neutralisierendes Medium werden offenere und ehrlichere Antworten wahrscheinlich. Die Befragungsperson muss sich weniger offenbaren und hat daher eine höhere Auskunftsbereitschaft. •• Es entsteht ein geringerer Interviewereinfluss als bei mündlicher Befragung, da z. B. das äußere Erscheinungsbild des Befragers keine Rolle mehr spielt. Allerdings bleiben noch Stimme, Betonung, Dialekt etc. Einflussfaktoren. •• Das direkte Gespräch ermöglicht beiderseitige Rückfragen, also einen Dialog. Dadurch kann Missverständnissen vorgebeugt werden und die Aussagefähigkeit des Interviews ist höher. •• Der Interviewer kann die befragte Person, den Befragungszeitpunkt und die Fragenreihenfolge bestimmen. Bei Nichtzustandekommen einer Verbindung entstehen keine Wegekosten und keine Zeitverluste für Fehlversuche. •• Auch können mehrere Versuche der Kontaktaufnahme erfolgen, ohne dass die Kosten wesentlich steigen. Damit kommt es zu einer höheren Ausschöpfungsquote der Stichprobe und insgesamt zu weniger systematischen Verzerrungen. •• Es reichen vergleichsweise weniger Interviewer aus, sodass ein hohes Maß an Wirtschaftlichkeit im Personalbereich erreicht wird. Zudem ist eine weitgehend

122

3. Methoden der Primärerhebung von Informationen

freie Zeiteinteilung (Nebenberuf) möglich. Oft ist sogar ein Anruf außerhalb der Arbeitszeit wegen der Erreichbarkeit der zu Befragenden sinnvoller. •• Es wird eine Tonaufzeichnung von Gesprächen darstellbar, die eine intensivere Auswertung und Kontrolle ermöglichen. Dadurch entfällt das Mitschreiben und eine volle Konzentration auf den Gesprächsablauf ist gegeben. •• Außerdem ist nur auf diese Weise ein nahezu einheitlicher Erhebungsstichtag realisierbar. Dies bedingt dann aber eine größere Anzahl von Interviewern, die parallel eingesetzt werden.

3.2.2 Nachteile Nachteile sind hingegen: •• Die telefonische Befragung ist begrenzt in der Dauer des Interviews und damit in der Anzahl abzufragender Inhalte. Durch die Distanz wird Unmut schneller ausgedrückt, weil die Hemmschwelle sinkt. Das kann zum vorzeitigen Interview­ abbruch durch Belästigung oder Überforderung führen. •• Die Anonymität führt auch zu einer leichteren Antwortverweigerung, vor allem bei tabuisierten Themen. Daher ist die Fragethematik, die fernmündlich abfragbar ist, eingeschränkt. •• Es sind keine unterstützenden Abbildungen, Skalierungen etc. einsetzbar. Visuelle Hilfsmittel fördern aber entscheidend die Aufklärung von Informationen und dienen der Klarheit und Eindeutigkeit von Themeninhalten. •• Als Kommunikationsmittel dient nur der Ton, genauer die Stimme, non-verbale Reaktionsindikatoren können nicht registriert werden. Diese belegen jedoch die geäußerte Meinung überzeugender als die Sprachsignale. •• Situative Einflüsse, wie Anwesenheit Dritter, häusliche Verhältnisse etc., sind nicht feststellbar. Damit können auch entsprechende Einwirkungen weder neutralisiert noch überhaupt registriert werden. •• Ebenso ist es nicht möglich, die Auskunftsdaten durch Angaben über den persönlichen Eindruck des Befragten und seines Umfelds zu ergänzen. •• Der Anruf erfolgt womöglich zu unpassender Zeit, sodass der Befragte ihn als Störung empfindet oder abgelenkt ist. Dann ist ein Interview nur schwerlich durchführbar. Ein Wiederholungsanruf wird oft abgeblockt. •• Eine eindeutige Legitimation des Interviewers ist nicht möglich. Damit bleiben Zweifel an der Seriosität der Untersuchung auf Seiten des Befragten bestehen. Zumal Misstrauen gegenüber unbekannten, zudem noch unsichtbaren Anrufern besteht.

3.3 Schriftliche Befragung

123

•• In Einzelfällen ist die Gesamtheit der Telefonbesitzer nicht repräsentativ für die Grundgesamtheit, etwa nicht bei Studenten, Zuwanderern, Obdachlosen etc. Dann kommt es zu einer systembedingten Verzerrung der Befragungsergebnisse (vor allem bei mobilen Zielgruppen). •• Das Auswahlmaterial ist nicht vollständig und aktuell. So fehlt oft die Ein­ tragung von Neuanschlüssen bzw. die Löschung von Altanschlüssen. Einige Telefonnummern hingegen sind doppelt aufgelistet (z. B. geschäftlich und privat, Doppelnamen, Erst- und Zweitwohnung), andere gar nicht (Geheimnummern machen ca. 25 % aller Anschlüsse aus). 25 % der Haushalte sind zudem nur noch unter einer Mobilnummer zu erreichen (vor allem junge). •• Die zunehmende Verbreitung von Telefonanrufbeantwortern im privaten Bereich behindert zudem die Kontaktaufnahme. Man dringt erst gar nicht mehr zur Befragungsperson durch.

3.3 Schriftliche Befragung Die schriftliche Befragung bedient sich, wie die mündliche, verbaler Statements als Stimuli, um Stellungnahmen zu erzeugen. Jedoch ist das Kommunikations­ medium nicht der Interviewer, sondern ein Fragebogen. Diesen erhalten Probanden mit der Bitte um Durchlesen, Ausfüllen und Zurückgeben. Schriftliche Befragungen machen nur einen kleinen Teil der Umfragen aus, sind jedoch im Bereich der Facherhebungen recht verbreitet. Dort werden sie jedoch zunehmend durch Online-Befragungen verdrängt. Zustellung wie Rückgabe erfolgen postalisch oder durch Verteilung. Sie können durch differenzierte Vor- und Nachteile gekennzeichnet werden.

3.3.1 Vorteile Wesentliche Vorteile sind folgende: •• Es entstehen vergleichsweise geringe Kosten, da ein erheblicher Zeitaufwand bei geographisch weit verstreuten Erhebungseinheiten vermieden werden kann. Insofern spielt die räumliche Entfernung keine Rolle (z. B. Auslandsmarktforschung). Allerdings muss die Effizienz durch die weitaus geringere Rücklaufquote relativiert werden. •• Außerdem entfällt die Verzerrungsmöglichkeit durch fehlenden Interviewereinfluss. Damit entfallen auch Antwortfälschungen. Insofern sind zwei wesentliche Verzerrungsquellen neutralisiert. •• Die Zustellung der Fragebögen erhöht die Erreichbarkeit der ­Auskunftspersonen. So können auch schwer erreichbare Personen, die ansonsten leicht als Stichpro-

124

3. Methoden der Primärerhebung von Informationen

beneinheiten ausfallen, kontaktiert werden (z. B. Schichtarbeiter, Landwirte, Reisende). •• Die befragten Personen haben genügend Zeit, die einzelnen Fragen zu beantworten. Die Auskunft wird damit überlegter und präziser, was meist im Sinne des Auftraggebers ist, jedoch auch kognitiv bedingte Verzerrungen impliziert. •• Bei Zeitmangel kann die Bearbeitung unterbrochen und zu einem späteren Zeitpunkt wieder aufgenommen werden. Damit wird das Problem der Befragungsunterbrechung vermieden. •• Die Zusicherung der Anonymität der Auskunftspersonen steigert deren Auskunftsbereitschaft. Wenngleich immer versteckte Kennzeichnungen auf dem Fragebogen vermutet werden (und vorzufinden sind). •• Es sind sehr hohe Fallzahlen mit begrenztem Aufwand erreichbar. Die Abwicklung des Versands der Fragebögen ist weitgehend mechanisierbar, sodass selbst große Aussendungen schnell und kostengünstig handhabbar sind.

3.3.2 Nachteile Nachteile sind hingegen folgende: •• Unvollkommenheiten im Fragebogen, die ein Interviewer ausgleichen könnte, bleiben ohne Korrekturmöglichkeit. Der Gegenstand der Befragung beschränkt sich somit auf einfache, klare und leicht verständliche Sachverhalte. •• Es ist eine gewisse Schreibgewandtheit der Auskunftspersonen vorauszusetzen, was nicht in allen Bevölkerungsschichten ohne Weiteres selbstverständlich ist. Außerdem ist die Lesbarkeit bei Antworten offener Fragen oft zweifelhaft. •• Fehlinterpretationen durch falsch verstandene Sachverhalte können nicht aufgeklärt werden und führen so zu unkontrollierten Falschantworten oder Ausfällen, welche die Repräsentativität gefährden. •• Die Reihenfolge der Beantwortung der Fragen ist nicht kontrollierbar. Von daher können auch keine Kontrollfragen gestellt werden. Umgekehrt sind Fragen, deren Beantwortung von anderen Fragen abhängig ist, nur schwerlich einsetzbar. Dadurch ist die Fragebogentaktik stark eingeschränkt. •• Es fehlt an Stimuli zur Erhöhung der Auskunftsbereitschaft. Dazu ist allenfalls das Fragebogenlayout in begrenztem Maße in der Lage. Insofern kommt es leicht zu Ermüdungserscheinungen. •• Ebenso fehlt die Beobachtung von Reaktionen der Probanden beim Ausfüllen des Fragebogens (z. B. in Form von Spontanreaktionen) sowie die Registrierung von Umfeldeinflüssen. Dabei ist vor allem die mögliche Anwesenheit Dritter nicht kontrollierbar.

3.3 Schriftliche Befragung

125

•• Evtl. wird der Fragebogen nicht von der Zielperson, sondern durch diese Dritten, oder zumindest gemeinsam mit diesen, ausgefüllt. Damit ist die Repräsentanz der Antworten nicht mehr gegeben. Es entsteht ein Identitätsproblem. •• Allgemein werden überlegtere Antworten gegeben, damit ist ein höherer kognitiver Anteil verbunden, der zu Verzerrungen gegenüber der Realität, die eher durch affektive Einschätzungen geprägt ist, führt. •• Sofern in einer Voranfrage die Bereitschaft zur Teilnahme an einer schriftlichen Befragung abgeklärt wurde, besteht die Gefahr systematischer Fehler, wenn zu vermuten ist, dass reagierende und nicht-reagierende Personen sich in Bezug auf die zu untersuchenden Merkmale systematisch unterscheiden. •• Der Umfang des Fragebogens ist begrenzt, da eine unmittelbare Konfrontation mit dem gesamten Fragenumfang stattfindet. Je mehr Fragen der Proband dabei gegenwärtig wird, desto wahrscheinlicher ist seine zögerliche Bearbeitung. •• Es können keine verschleiernden Zielsetzungen durch Fragestrategie angestrebt werden, da der gesamte Fragebogen genutzt wird. •• Das Adressmaterial kann unvollständig sein und allein schon dadurch eine Einschränkung der Grundgesamtheit darstellen. Verzerrungen entstehen durch verzögerte Wohnsitzmeldung, Umzug, Auslandsaufenthalt, Zweitwohnsitz etc. •• Der Zeitpunkt der Beantwortung eines Fragebogens kann meist weder bestimmt werden noch ist er einheitlich. Dies ist bei stichtagsbezogenen Erhebungen sehr hinderlich. So können kurzfristige Einflüsse auf die Beantwortung einwirken (etwa bei politischen Themen). •• Komplizierte und aufwändige Nachfassaktionen machen den Kostenvorteil der schriftlichen Befragung ganz oder teilweise wieder zunichte, wenn die erwartete Rücklaufquote nicht erreicht wird.

3.3.3 Fragebogengestaltung Ein entscheidender Erfolgsfaktor der schriftlichen Befragung ist die Fragebogengestaltung. Selbstverständlich sollte er optisch ansprechend sein, was angesichts DTP-Ausstattung eigentlich kein Problem mehr darstellt. Komplizierte Fragebogendesigns, wie sie für mündliche Befragungen durchaus Interviewern zuzumuten sind, verbieten sich für schriftliche Befragungen. Eine übersichtliche, gut gegliederte Darstellung ist hingegen unverzichtbar. Wo immer möglich, sollte mit grafischen Elementen anstelle von textlichen gearbeitet werden (ein Bild sagt mehr als tausend Worte). Auch sollen die gewählten Antwortprinzipien und Skalen durchgängig über alle Fragen beibehalten werden. Die Filterführung im Fragebogen muss so einfach wie möglich gehalten sein. Auf komplizierte Fragebogenfilter, die komplette Passagen überspringen, sollte ganz verzichtet werden.

126

3. Methoden der Primärerhebung von Informationen

Es versteht sich von selbst, dass Fragebögen so kurz wie möglich gehalten werden sollen. In jedem Fall bedarf auch die schriftliche Befragung eines ausführ­ lichen Tests vorweg, um anderweitig leicht zu übersehenden Durchführungsbarrieren zuvorzukommen. Formal hat sich die Anwendung von weniger, dafür größeren Seiten bewährt (z. B. Doppel-DIN-4-Bogen). Zumal einzelne Blätter, wenn sie nicht fest verbunden sind, leicht verloren gehen. Dieser Gefahr unterliegt im Übrigen auch der Antwortumschlag. Bei der Schriftgröße liegt die Verlockung nahe, eine kleinere Typo zu verwenden, um mehr Text auf einer gegebenen Fläche unterzubringen. Dabei sollte man jedoch nicht die verbreitete Weitsichtigkeit schon ab mittlerem Alter in der Bevölkerung vergessen. Farbiges Papier bzw. farbige Fonds mögen zwar aufmerksamkeitssteigernd wirken, zugleich verschlechtern sie aber auch die Lesbarkeit des Textes. Zudem mag die Farbe nicht gerade als Zeichen erhöhter Seriosität des infrage stehenden Projekts gedeutet werden. Auch die Papierqualität ist ein wichtiges Signal. Aus Porto­ kostengründen wird hier oft leichtes (Florpost-)Papier verwendet, das aber die vorgebliche Bedeutung der Umfrage in den Augen der Zielpersonen konterkarieren dürfte. Die Wahl von Typographie, Farbigkeit und Papierart setzt zudem wichtige, non-verbale Signale in Bezug auf den Initiator der Befragungsaktion und sein Verständnis über die Auskunftspersonen. Daher sind diese Variablen mit Bedacht auszuwählen. Bei der Formulierung der Fragen gelten alle Anforderungen der mündlichen Befragung. Für die Antwortangabe ist das Ankreuzen von Antwortalternativen hilfreich, nicht nur wegen einer evtl. maschinellen Auswertung, sondern auch wegen einer verbreiteten Handschrift- bzw. Ausdrucksfähigkeitsproblematik. Zwar gilt eine Mehrthemenbefragung grundsätzlich als methodisch vorteilhaft, bei schriftlichen Befragungen führt sie jedoch gerade zu längeren, abschreckend wirkenden Fragebögen und ist damit kontraproduktiv.

3.3.4 Ursachen des Rücklaufproblems und dessen Lösung Trotz dieser sorgfältigen Gestaltung des Fragebogens, einer klaren Strukturierung mit leichten Einstiegsfragen, einfachem Fragenablauf und ansprechender optischer Aufbereitung gilt ein besonderes Augenmerk der Steigerung der Rück­ laufquote, die bestenfalls 20 % beträgt, regelmäßig aber weit darunter liegt. Die Halbwertzeit des Rücklaufs beträgt erfahrungsgemäß 10–14 Tage, d. h., bis dahin ist etwa die Hälfte des insgesamt zu erwartenden Rücklaufs erfolgt. Gründe für ein Rücklaufproblem sind, dass: •• der Fragebogen abwesende, verreiste, verzogene, verstorbene Adressaten erst gar nicht oder außerhalb des Erhebungszeitraums erreicht, •• eine Verwechslung der Erhebungsunterlagen mit unverlangt zugesandten Werbesendungen vorliegt, die ungelesen entsorgt werden,

3.3 Schriftliche Befragung

127

•• die Auskunftsperson nur gering involviert ist (Desinteresse, Misstrauen, Bequemlichkeit) und sich als nicht-betroffen bzw. nicht-zuständig erachtet, •• die Auskunftsperson antwortunfähig ist (geistig behindert, körperlich behindert, sprachunkundig etc.), •• ein weit verbreitetes Misstrauen gegen personenbezogene Informationsabgabe, gerade auch aus Gründen des Datenschutzes, besteht, •• in der Befragung Tabubereiche angesprochen werden, zu denen man sich nur ungern äußert, wenn es sich denn vermeiden lässt, •• der formale Aufbau des Fragebogens und die Gestaltung der Fragen einen erhöhten Schwierigkeitsgrad vermuten lassen, dem man sich nicht gewachsen glaubt oder aussetzen will, •• Befragungsunterlagen verloren gehen oder verlegt werden, wie das im täglichen Durcheinander leicht passieren kann, •• der Ergebniseintrag aufgeschoben und schließlich vergessen bzw. das Abgabedatum überschritten wird, weil Zeitmangel vorliegt oder vorgeschoben wird. Möglichkeiten für Maßnahmen zur Rücklaufverbesserung sind etwa folgende: •• Glaubwürdige und neutrale Berichte über das entsprechende Forschungsvorhaben, welche die Seriosität unterstreichen, •• handgeschriebene Zusätze, die von Individualität zeugen, sodass nicht unbedingt der Eindruck einer Massenaussendung entsteht, •• Zugabe positiv wirkender Fotos über das Projekt, denn Bilder wirken informativ und motivierend, •• postalischer Versand trotz Kostenvorteil nicht als Drucksache, da damit eine Aussonderungsgefahr bereits im Posteingang besteht, sondern als „normaler“ Brief, •• Versand an postschwachen Tagen (montags), nicht zu Stresszeiten (Jahresende) oder in der Ferienzeit, um eine erhöhte Beachtung zu erreichen, •• Wahl von Sonderbriefmarken zum Portofreimachen, anstelle von Freistemplern oder „normalen“ Briefmarken, •• Nachfassaktion über Telefon oder schriftlicher Nachfass als Reminder, auch mehrmalig, wenn es erforderlich scheint, •• evtl. nochmaliger Versand des gleichen Fragebogens mit geändertem Anschreiben, um die Bearbeitungschance zu erhöhen, •• „Androhung“ eines Interviewerbesuchs, falls die Beantwortung nicht erfolgt, sodass Probanden das kleinere Übel zu wählen geneigt sind,

128

3. Methoden der Primärerhebung von Informationen

•• Setzung einer relativ knappen Deadline zur Rücksendung (allerdings problematisch bei Überschreiten der Deadline, da die Rücksendung selbst ausgefüllter Fragebögen dann als nicht sinnvoll erachtet wird), •• telefonische oder schriftliche Vorankündigung und Angabe einer Kontakttelefonnummer zur Rückfrage bei Unklarheiten, um vermeidbare Abbruch- oder Zurückweisungsquellen zu beheben, •• Begleitschreiben mit persönlicher Anrede (Zusicherung der Anonymität, Vorausdank, Erklärung des Befragungszwecks), evtl. von einer „Autorität“, die abhängig von der intendierten Auskunftsgruppe ist, verfasst, •• Beifügung eines freigemachten Rückumschlags oder Gebühr-bezahlt-Empfänger-Vermerks, sodass Kosteneinwendungen aufgefangen werden können, •• genaue Angabe des Rückempfängers, möglichst durch Eindruck, sodass das Ausfüllen der Adresse erspart bleibt, •• Kopplung mit kleinen Geschenken oder Gewinnanreizen (allerdings ist dies umstritten, weil dadurch Gefälligkeitsantworten wahrscheinlich sind und die Anonymität der Befragten verloren geht), •• Zusage der Ergebnisberichterstattung als Feedback, damit der Befragte von der gesammelten Information profitiert (sinnvoll bei Facherhebungen), •• Kombination mit Garantiekartenrücksendung oder Produktbeilage bei Käufern.

3.3.5 Sonderformen der schriftlichen Befragung Als Sonderformen der schriftlichen Befragung sind vor allem folgende zu nennen. Bei der Klassenzimmerbefragung werden an eine Anzahl in einem Raum versammelter Personen Fragebögen verteilt, die von diesen simultan auszufüllen sind. Dadurch können wesentliche Vorteile der mündlichen und schriftlichen Befragung kombiniert und zugleich deren wesentliche Nachteile vermieden werden. Das Ausfüllen erfolgt unter Anleitung (Inhall-Befragung). Es sind klärende Nachfragen möglich. Der Interviewereinfluss wird minimiert. Eine eindeutige zeitliche und personelle Zurechenbarkeit der Ergebnisse ist gegeben, ebenso vollständiges Ausfüllen und hohe Ausschöpfungsquote. Bei der Caravan-Befragung wird der Raum durch ein mobiles Befragungs­ studio ersetzt, in dem mündliche oder schriftliche Interviews durchgeführt werden. Der Vorteil liegt in der räumlichen Variabilität. So können zufällig vorbeikommende, quotenkonforme Personen unmittelbar nach dem „Baggern“ befragt werden. Außerdem können leicht unterschiedliche Standorte abgedeckt werden. Die POS-Befragung (Shop survey) schließlich erfolgt durch das Ausfüllen von Fragebögen am Einkaufsort selbst durch Kunden / Besucher (also im Laden / am

3.4 Computergestützte Befragung

129

Point of sale). Dort kann je nach Bedarf bei Käufern oder Nichtkäufern erhoben werden. Dabei ist der Einfluss des Kaufentscheids oder dessen Ablehnung noch besonders frisch, was je nach Lage der Dinge erwünscht sein oder verzerrend wirken kann. Eine weitere Sonderform besteht in der Ergänzung eines längeren Face to faceInterviews durch einen zweiten Fragebogen, welcher der Zielperson im Anschluss an das persönliche Interview als Selbstausfüller hinterlassen wird. Dieser schrift­ liche Fragebogen wird entweder durch den Veranstalter zu einem späteren Zeitpunkt wieder abgeholt oder durch die Zielperson per Post zurückgesandt. Typische Anwendungsbeispiele für diese Art der Kombinationsmethode liefern groß angelegte Media-Studien. Durch die schnelle Ausbreitung von Telefax-Geräten kann eine Befragung via Fax insb. bei kurzem Fragebogen und eiligem Informationsbedarf eine Über­ legung wert sein. Ein Telefax ist schneller und kostengünstiger als ein posta­lischer Fragebogen und sein Beachtungswert ist oft höher. Damit steigt die Chance der Beantwortung. Vor allem in internationalen Business to business-Bereich mit nahezu 100 %iger Fax-Abdeckung empfiehlt sich diese Befragungsvariante. Auf Grund der stark zunehmenden Ausstattung der privaten Haushalte mit Telefax-Geräten kann diese Form der Datenerhebung auch hier in Frage kommen. So kann die Telefax-Befragung als „Schnupper-Marktforschung“ bei einkommensstärkeren und technisch aufgeschlossenen Haushalten durchaus sinnvoll sein.

3.4 Computergestützte Befragung

Abbildung 25: Computergestützte Befragung

3.4.1 Bildschirmbefragung 3.4.1.1 Darstellung Bei der computergestützten Befragung sind mehrere Ausgestaltungsformen zu unterscheiden. Im Wesentlichen handelt es sich um die Bildschirmbefragung als moderne Form der mündlichen Befragung (CAPI), die Computerbefragung als moderne Form der schriftlichen Befragung (CASI) und die computergestützte Telefonbefragung als moderne Form der telefonischen Befragung (CATI). Zunächst zur Bildschirmbefragung.

130

3. Methoden der Primärerhebung von Informationen

Als Bildschirmbefragung (Computer assisted personal interviewing / CAPI) bezeichnet man eine Form, bei welcher der Fragebogen durch ein PC-Display ersetzt wird und der manuelle Eintrag durch eine PC-Tastatur. Dabei liest der Interviewer Fragen vom Bildschirm ab und tippt die Antworten der Auskunftsperson über ein alphanummerisches Keyboard ein. In diesem Zusammenhang sind zahlreiche Verfeinerungen denkbar. So ist neben der Sprachausgabe der Fragen auch die Spracheingabe der Antworten möglich. Der Interviewer kann auch mehreren Personen im Teststudio eine Frage vortragen, und diese geben ihre Antworten parallel selbst an ihrem PC ein. Auch können die Antwortalternativen auf eine vorgetragene Frage als Strichcodes auf einem Vordruck ausgewiesen sein, die mit einem Lesestift abgetastet und dadurch eingegeben werden (Scanning). Bei der Bildschirmbefragung werden folgende wichtige Formen unterschieden: •• Simultane Mehrpersonenbefragung. In einem Studio werden dazu mehrere Personen durch einen Interviewer befragt. Die Antworten werden von ihnen über eine alphanummerische Eingabetastatur oder optische Datenerfassungsgeräte (z. B. Handscanner mit Strichcodevorgabe für die Antwortalternativen) parallel an ihren Plätzen eingegeben. •• Unabhängige Mehrpersonenbefragung. Dabei werden mehrere Personen getrennt voneinander erhoben. Der Interviewer liest die Fragen jeweils vor und gibt die Antworten der Probanden nach Einzelabfrage per Tastatur ein. Denkbar ist auch die zeitgleiche Abgabe von Fragen an alle beteiligten Probanden. •• Mobiles Datenerfassungssystem (Bildschirmbefragung i. e. S./MDE). Dabei werden Personen in ihrem gewohnten sozialen Umfeld per Laptop durch Inter­ viewer befragt. Die Antworten werden auf Datenträger gespeichert und zur Auswertung ausgelesen / übertragen. 3.4.1.2 Vorteile Wesentliche Vorteile der Bildschirmbefragung sind folgende: •• Jeweils sind durch leichte Handhabung auch komplexe Befragungsformen und längere Befragungen möglich. Die Befragungsdurchführung kann zudem individuell auf die Auskunftsperson zugeschnitten werden. •• Splits und Filterführungen werden automatisch vollzogen. Abhängig von der jeweils gegebenen Antwort wählt das Programm die Folgefrage. Dadurch sind auch kompliziertere Abläufe darstellbar. •• Offene Fragen sind einsetzbar, denn ausführliche Antworten können voll­ständig aufgenommen werden. Eine Kürzung des Antworttextes aus Platzgründen ist nicht erforderlich und die Eingabe über die PC-Tastatur leicht vorzunehmen.

3.4 Computergestützte Befragung

131

•• Die Antworten auf offene Fragen können automatisch kategorisiert und codiert werden. Die Codepläne zur Auswertung werden parallel zur Befragung entwickelt und lassen sich sukzessiv vervollständigen. •• Signifikanzkriterien können laufend beachtet werden. Stichproben sind sequenziell ziehbar und Zwischenauswertungen jederzeit abrufbar. Über begleitende Datenstabilitätsprüfungen kann ermittelt werden, ob die vorliegende Fallzahl bereits für ein gesichertes Ergebnis ausreicht, selbst wenn die Stichprobe noch nicht vollständig ausgeschöpft ist. •• Eine relativ schnelle Datenverarbeitung mit automatischer, integrierter Auswertung der Ergebnisse ist gegeben. Die Kosten für eine manuelle Übertragung der Daten entfallen. Dabei ist die Datenerfassung zugleich sicherer, da Über­ tragungsfehler vermieden werden, wie sie bei der Vercodung durch Nachlässigkeiten leicht vorkommen können. •• Außerdem werden bei vollstandardisierten Fragen weniger Interviewer ­benötigt. Dadurch ist eine hohe Aussageeffizienz darstellbar. Zudem lässt sich die Interviewdauer verkürzen. •• Es ist ein mobiler Einsatz machbar. Denn kompakte Laptops oder Notebooks sind portabel und ohne großen Aufwand arbeitsfähig. •• Der Interviewer-Bias wird minimiert. Der Interviewer wird entlastet und kann sich stärker auf den Interviewpartner konzentrieren, da ihm wesentliche Arbeiten durch den PC abgenommen werden. •• Es sind ständige Plausibilitätskontrollen (auf Fehler, Inkonsistenzen etc.) möglich. Dies erfolgt durch programmierten Rückgriff auf vorangegangene Ant­ worten. Widersprüchliche Ergebnisse werden so erkannt, ungültige Eingaben zurückgewiesen und Zusatzfragen zur Korrektur erzeugt. •• Parallel können weitere Testsysteme über Datenbus angeschlossen werden. Es ist eine unmittelbare, integrierte Auswertung der Ergebnisse möglich. Die Datenauswertung wird damit beschleunigt. •• Die Frage- und Antwortkategorien sind randomisierbar / rotierbar, wodurch Posi­ tionseffekte ausgeschaltet werden. Dies erfolgt durch zufallsgesteuerte Rotation von Interview zu Interview. •• Bildvorlagen können durch Einscannen eingebunden werden. Peripherie wie DVD etc. können befragungssynchron gesteuert werden. Allerdings entsteht dabei ein gewisser Handlingaufwand für Inbetriebnahme und Vernetzung.

132

3. Methoden der Primärerhebung von Informationen

3.4.1.3 Nachteile Nachteile sind hingegen folgende: •• Es entstehen relativ hohe Investitionskosten. Zwar fallen die Preise der Technik kontinuierlich, doch zugleich verkürzt sich auch der Lebenszyklus der Technologien, sodass zügige, dann aber wieder teure Neuanschaffungen erforderlich sind, um up to date zu bleiben. •• Eine intensive Interviewerschulung ist erforderlich, um eine kompetente, persönliche Betreuung zu ermöglichen. Die Technik muss so sicher beherrscht werden, dass sie möglichst wenig Aufmerksamkeit bindet. •• Ein hoher Stromverbrauch ist gegeben (mobil entsprechend eine hohe ­Akkulast). Dadurch ist der Aktionsradius des Einsatzes begrenzt. Dies gilt vor allem für optische und mechanische Bauteile. •• Die Geräte sind empfindlich in Transport und Einsatz. Daher sind nicht selten Operator-Kenntnisse beim Interview erforderlich, um Störungen zu beheben, oder aber Rückfragen im Help-Center. •• Eine komplexe Datenübertragungskoordination ist erforderlich. Dabei können Datenträger (offline) oder Datenleitungen (online) genutzt werden, in jedem Fall ist perfekte Kompatibilität erforderlich. •• Es sind nur vergleichsweise wenige Programme verfügbar (z. B. Rogator). Und diese sind nicht immer als ausgereift zu betrachten, sodass systembedingte Limitationen in Kauf zu nehmen sind. •• Für jeden Fragebogen entsteht ein hoher Programmieraufwand. Die Programmierung betrifft die Eingabe von Fragen und Antwortkategorien, die Festlegung der Filterführung, die Rotation und Randomisierung, die Planung von Rückgriffsequenzen auf Vorantworten, die Eingabe von Intervieweranweisungen und Hilfsinformationen, die Gestaltung von Bildschirmlayout, Hintergrund und Hervorhebungen. •• Es sind weitgehend nur standardisierte Fragen anwendbar. Denn offene Fragen erfordern durch ihren nach wie vor hohen Eingabeaufwand Zeit und Aufmerksamkeit, die für die eigentliche Interviewführung fehlen. •• Die bisher durchgeführten Untersuchungen sind noch nicht hinreichend validiert. Dazu bedarf es erst ausgiebiger Vergleiche mit herkömmlichen Befragungen (extern) und zahlreicher mit Bildschirmbefragung durchgeführter Interviews (intern). Es steht jedoch zu befürchten, dass die Auskunftsfreudigkeit und -ehrlichkeit durch die Tatsache der Tastatureingabe nicht gerade gesteigert wird. •• Die Vorlage von Bildern, Skalen etc. ist nur eingeschränkt möglich. Allerdings werden diese und andere technischen Probleme immer geringer. Dafür sorgt schon der technische Fortschritt.

3.4 Computergestützte Befragung

133

3.4.2 Computerbefragung 3.4.2.1 Darstellung Als Computerbefragung (Computer assisted self interviewing / CASI) bezeichnet man eine Form, bei welcher der Interviewer durch einen PC ersetzt wird. Auskunftspersonen lesen Fragen also selbst auf dem PC-Display ab und geben ihre Antworten auch selbst, oder durch Helfer unterstützt, über die Tastatur ein. Auch dabei sind zahlreiche Verfeinerungen denkbar. So können Abfrageplätze derart vernetzt sein, dass ein Zentral-Computer die Fragen ausgibt und mehrere Personen dezentral (an einem oder mehreren Orten), aber parallel ihre Antworten eingeben. Die Antworterfassung kann auf Datenträger erfolgen (offline) oder über Daten­ leitung (online). Bei der Computerbefragung werden folgende wichtige Formen unterschieden: •• Befragung über Videobildschirm. Dabei werden die Fragen einer Gruppe von Teilnehmern auf einem Videobildschirm angezeigt. Die Probanden geben ihre Antworten dazu an einem getrennten Terminal zeitgebunden ein. •• Computerbefragung i. e. S. Dabei werden Fragen über Computermonitor zu­ gespielt und die Antworten über alphanummerische Tastatur, Lichtgriffel, Maus o. Ä. von Probanden direkt eingegeben. Es findet also kein Medienwechsel mehr statt. •• Stick / Disk / Card by mail. Dabei wird anstelle eines Fragebogens eine DVD /  SD-Karte übersandt, die der Proband auf seinem Computer öffnet, bearbeitet, speichert und wieder zurücksendet (Prepared data entry). Dies erleichtert gegenüber herkömmlichen schriftlichen Befragungen die Auswertung. 3.4.2.2 Vorteile Wesentliche Vorteile der Computerbefragung sind folgende: •• Jeweils ist eine Kostenersparnis sowohl im Vergleich zur herkömmlichen Be­ fragung als auch zur stationären Bildschirmbefragung gegeben. Dies liegt vor allem in der weitgehenden Ersparnis der Personalkosten für Interviewer be­ gründet. •• Es entsteht kein Interviewerbias. Der Interviewerstab kann zudem minimiert werden. Der Einfluss von sozialer Erwünschtheit und Prestige bei Antworten wird merklich reduziert, denn der Computer ist ein anonymer Interaktions­ partner. •• Eine schnelle Verarbeitung und Zentralkoordination bzw. Auswertung wird möglich. Dies betrifft die datenverarbeitungstypischen Vorteile. Der Spieltrieb

134

3. Methoden der Primärerhebung von Informationen

bzw. der Spaß an der Bedienung des elektronischen Geräts wird gefördert. Bei der Beantwortung herrscht dabei durch die eigenständige Bedienung autonome Entscheidungsfreiheit. •• Fragen können in sämtlichen Sprachen und Schriften dargeboten werden. Damit sind einmal erstellte Programme auch international einsetzbar, sowie in einem Land auch ausländische Bewohner erreichbar. •• Der Proband kann die Befragungsgeschwindigkeit selbst bestimmen. Insofern spielen unterschiedliche Ausbildungs- und Persönlichkeitsmerkmale, wie die Auffassungsgabe der Befragten, keine Rolle mehr. •• Bei Bedarf können zu einzelnen Fragen erläuternde Informationen aufgerufen oder Kommentare und Anmerkungen eingegeben werden. Dazu gibt es eine entsprechende Hilfe-Funktion. •• Reihenfolgeeffekte können durch Randomisierung oder systematische Rotation vermieden werden. Dies gilt sowohl für Themen als auch für Fragen und Antwortkategorien. •• Es können keine Fragen versehentlich übergangen werden, da der Fragenabruf automatisch gesteuert ist. Dadurch wird eine optimale Standardisierung und damit Vergleichbarkeit des Befragungsablaufs erreicht. •• Die Quoteneinhaltung kann laufend überwacht werden, indem diese noch während der Erhebung auf ihren Erfüllungsgrad hin überprüft wird. Der Abbruch bei Ergebnisstabilisierung ist möglich. Die Zulässigkeit von Antworten kann sofort überprüft und ggfs. Fehlermeldung gegeben werden. •• Zur korrekten Erfassung von objektiven Informationen (Hersteller, Marke etc.) können Hintergrunddateien angelegt werden, die eine automatische Antwortprüfung vornehmen und falsche Antworten zurückweisen. •• Die Antwortzeit einzelner Fragen lässt sich ermitteln, wodurch Rückschlüsse zur Interpretation der Ergebnisse möglich sind. Dazu misst die interne Uhr den Zeitabstand zwischen Fragenaufruf am Bildschirm und Antworteingabe auf der Tastatur. •• Das Interview kann jederzeit und beliebig oft unterbrochen und an jeder Stelle wieder aufgenommen werden. Vorausgegangene Antworten können dabei wieder vorgelegt und Falscheingaben korrigiert werden, der Befragungsverlauf wird dann entsprechend angepasst. •• Die Dokumentation des Befragungstages, des Interviewbeginns und -endes und der Unterbrechungen schließt Fragebogenfälschungen nahezu aus. Die Interviews haben tatsächlich stattgefunden.

3.4 Computergestützte Befragung

135

3.4.2.3 Nachteile Nachteile sind hingegen folgende: •• Die Beantwortung erfolgt unter weitgehend unkontrollierten Bedingungen, vor allem kann der Spieltrieb auch überzogen werden. Er führt dann zur Ablenkung von der eigentlichen Thematik und zur Unübersichtlichkeit des Ablaufs. •• Das Lesen der Fragen zwingt den Befragten zur Konzentration auf die Frageninhalte, was zu gegenstandsbezogeneren Antworten (kognitive Filterung) führt. Die ganze Atmosphäre ist sachlicher, rationaler, weniger spontan und emotional. •• Vor allem besteht ein Identitätsproblem bei der Befragung, da ungewiss ist, welche Person im Einzelnen die Antworteingaben vorgenommen hat. •• Die Komplexität der Befragung kann Antwortschwierigkeiten bei weniger versierten Probanden hervorrufen. So geht der Kontext der Fragen leichter verloren und ein einfaches Vor- oder Zurückblättern ist nicht möglich. •• Es ist eine reduzierte Lesbarkeit der Fragen bei Sehproblemen gegeben. Dies gilt zumal für die relativ kleinen Displays portabler Computer. Hier können die Schriftenwahl und das Seitenlayout Abhilfe schaffen. •• Die Befragungsdauer ist begrenzt, was bei differenzierten Themen hinderlich ist. •• Bei Unverständnis oder Zeitproblemen kommt es zum Befragungsabbruch, denn es bestehen keine Möglichkeit des Nachfragens bei nicht verstandenen Fragen sowie ein hoher Eingabeaufwand bei offenen Fragen. •• Es entstehen psychologische Konflikte durch Akzeptanzprobleme. Dies gilt vor allem bei Berührungswiderständen mit Technik allgemein und Elektronik im besonderen. •• Es sind weitgehend nur standardisierte Fragen möglich, wenn keine Finger­ fertigkeit in der Eingabe besteht. Dies ändert sich erst mit Verbreitung der Spracheingabe oder der Handschrifterkennung. •• Die Validität dieser Befragungsform durch Vergleich mit herkömmlichen Befragungen ist nicht hinreichend gesichert. Noch auf einige Zeit hin besteht eine eingeschränkte Repräsentanz für Massenumfragen aufgrund unvollständiger Verbreitung von Hardware und Datenleitungen. •• Zudem gibt es Probleme mit Prozessor-Generationen und Betriebssystem­ ebenen (Abwärts-/Aufwärtskompatibilität). •• Die Anforderungen an Auskunftspersonen sind nicht trivial, vor allem Bewegtbild-Darbietung erhöht den Handling- und Kostenaufwand.

136

3. Methoden der Primärerhebung von Informationen

3.4.3 Computergestützte Telefonbefragung Die computergestützte Telefonbefragung (Computer assisted telephone interviewing / CATI) ist eine Sonderform der telefonischen Befragung. Dabei werden vom Interviewer die vor ihm auf dem Bildschirm erscheinenden Fragen dem Befragten am Telefon vorgelesen und dessen Antworten wieder über die PC-Tastatur eingegeben. Daraufhin wird vom Programm entsprechend des Fragebogenaufbaus die nächste Frage am Bildschirm generiert. Unzulässige Antworten werden reklamiert. Verzweigungen im Fragenablauf werden in Abhängigkeit von den jeweiligen Antworten unmittelbar eingeschlagen. Der Computer übernimmt also den gesamten technischen Ablauf der Befragung von der Anzeige der Telefonnummer bis zur automatischen Anwahl der Zielpersonen. Nicht erreichte Personen werden vermerkt oder neu angezeigt und angewählt. Abgebrochene Interviews können gespeichert und zu einem festgesetzten Zeitpunkt fortgesetzt werden. Da parallel zur Datengewinnung eine Datenanalyse erfolgt, muss der Stichprobenumfang nicht von vornherein festgelegt werden. Die Befragung kann vielmehr so lange durchgeführt werden, bis sich eine Stabilisierung der Ergebnisse einstellt. Die computergestützte Telefonbefragung erfordert allerdings eine vorherige Programmierung des Fragebogens und der Fragenabläufe. Die Möglichkeiten der Fragestellung sind insofern eingeschränkt, als man sich im Wesentlichen auf standardisierte Fragen beschränkt, ferner können Bilder, Grafiken oder Muster nicht vorgelegt werden. Dennoch hat die Möglichkeit der schnellen und kostengünstigen Durchführung dazu geführt, dass diese Befragungsform die verbreitetste ist. 3.4.3.1 Vorteile Wesentliche Vorteile der computergestützten Telefonbefragung sind folgende: •• Es ist eine leichte Handhabung sowohl aus Sicht des Interviewers wie auch aus Sicht des Interviewten möglich. Der Interviewer kann sich voll auf die Gesprächsführung konzentrieren, administrative Tätigkeiten werden ihm weitgehend abgenommen. •• Die Möglichkeit für automatische Splits und Filterführungen besteht, die am Bildschirm leicht nachvollziehbar sind. Die jeweils nächste zutreffende Frage wird dabei automatisch aufgerufen. •• Auch offene Fragen sind möglich, da Antworten dazu über die Tastatur eingegeben werden können. •• Eine Kategorisierung der Antworten wird durch automatisch generierte Vorschläge aus Hintergrundprogrammen erleichtert. Dadurch werden Codierungsfehler vermindert.

3.4 Computergestützte Befragung

137

•• Begleitend zur Befragungsdurchführung kann mit Hilfe schneller Datenverarbei­ tung eine Datenstabilitätsprüfung erfolgen. Dadurch kann die Erhebung bei Ergebnisstabilisierung ressourcenschonend abgebrochen werden. •• Der Interviewer-Bias ist durch die Beschränkung auf die Modalität Sprache minimiert. Dennoch können erläuternde Informationen gegeben werden, wo dies von der Anlage her zulässig ist. •• Die Durchführung der Erhebung ist vergleichsweise kostengünstig (keine Fahrtkosten, keine Spesen, pauschalierte Telefongebühren etc.). •• Die Befragungsgeschwindigkeit kann individuell auf die Akzeptanz der jeweilig Befragten abgestimmt werden. •• Falls gewünscht, ist eine näherungsweise Antwortzeitmessung möglich. •• Die Befragung kann jederzeit unterbrochen und an der abgespeicherten Stelle später weitergeführt werden. 3.4.3.2 Nachteile Nachteile sind hingegen folgende: •• Es fallen immer noch absolut hohe Investitionskosten an, um eine professionelle Arbeitsumgebung darzustellen. •• Eine intensive Interviewerschulung ist erforderlich, da die Arbeitssituation ein hohes Maß an Komplexität aufweist. •• Die Datenverarbeitungskoordination (IT) ist nicht trivial. Insofern ist jede Felderhebung heute zu großen Anteilen IT-lastig. •• Standard-Software wird häufig dem individuellen Forschungsdesign nicht gerecht. Individual-Software erfordert hingegen bis zur einwandfreien Lauffähigkeit meist einen hohen Programmieraufwand. •• Die externe Validität ist fraglich, d. h. die Vergleichbarkeit von Ergebnissen bei CATI-Erhebung zu solchen Ergebnissen aus anderen Erhebungsformen, damit also das erhebungsformbedingte Ausmaß der Verzerrung. •• Die situativen Bedingungen auf Befragtenseite sind weiterhin unkontrollierbar und wirken als erheblicher Störfaktor. •• Das Vorlesen der Fragen bewirkt bei Befragten eine hohe kognitive Beteiligung, die sich in den Antworten womöglich widerspiegelt. •• Es gibt unverändert ein Identitätsproblem hinsichtlich der Befragungsperson. •• Die Befragungsdauer ist prinzipiell begrenzt, da ein Telefonat womöglich leichter abgebrochen wird als ein Face to face-Gespräch. Insofern sind unvollständige Interviews wahrscheinlich.

138

3. Methoden der Primärerhebung von Informationen

•• Es gibt erhebliche Akzeptanzprobleme seitens der Befragten, da unaufgeforderte Telefonanrufe ein schlechtes Image haben und häufig mit Verkaufstätigkeiten verwechselt werden. Insofern ist die Auskunftsbereitschaft allgemein als gering einzuschätzen. Eine Sonderform ist der Voice computer. Dabei ist ein Inteviewer zu erübrigen, vielmehr stellt ein Voice mail-System via Telefon Fragen und identifiziert die Antworten der Zuhörer anhand von Sprache (Voice recognition) oder über (Tonwahl-) Tastatursignal (Touchstone data entry). Die Anwahl erfolgt ebenfalls computergestützt. Dies eignet sich vor allem für Kurzumfragen (Polls), da nur wenige Fragen auf diese Weise zumutbar sind.

3.5 Sonderform Omnibusbefragung Die Omnibusbefragung ist eine Mehrthemenbefragung, d. h., in einem einzigen Erhebungszyklus werden mehrere Themen, meist von verschiedenen Auftraggebern, abgefragt. Sie steht damit im Gegensatz zur Spezialbefragung, die nur ein Thema beinhaltet. Es wird zwischen Verbraucher-, Haushalts-, Handels- und Sonder-Omnibussen unterschieden. Oft werden solche Omnibusse turnusmäßig selbstständig von Forschungsinstituten „abgefahren“, wobei die Ergebnisse nachher potenziellen Interessenten zur Verwertung angeboten werden. Es kann sich aber auch um für mehrere Auftraggeber individuell zusammengestellte Themenkomplexe handeln (Beteiligungsuntersuchung / echter Omnibus) oder um ein einheitliches Fragengerüst, das durch auftraggeberspezifische Sonderfragen ergänzt wird (Eingliederungsuntersuchung / unechter Omnibus). Zu diesen werden Interessenten durch Subskription eingeladen, der Ergebnisbericht ist dann mit wesentlichem Preisnachlass zu beziehen. Ablaufbezogene Elemente einer Mehrthemenbefragung beziehen sich auf die •• Themenkomposition, d. h. Art und Inhalt der in einer Mehrthemenbefragung eingebrachten Themen. Dadurch kann es zu einer Auflockerung der Befragung kommen. •• Themensequenz, d. h. Abfolge der einzelnen Themen in einem Fragebogen. Bei ungeschickter Zusammenstellung kann es hier zu einer gegenseitigen Überstrahlung der Themen kommen. Wesentliche Vorteile der Omnibusbefragung sind folgende: •• Die Abwicklung wird durch die weitgehende Standardisierung der Befragungsanlage wesentlich beschleunigt und erlaubt eine schnelle und unkomplizierte Durchführung. Dies gilt vor allem für den Fall nicht allzu spezifischer Erhebungsinhalte und nicht zu spezieller Erkenntniserwartungen. •• Ein Kostenvorteil entsteht, da sich die technischen Kosten auf mehrere Beteiligte verteilen (man kann von einem Faktor 50 gegenüber der Einthemenbefra-

3.6 Zeit- und Kostenplanung der Befragung

139

gung ausgehen). Damit steht auch Klein- und Mittelbetrieben die Chance zu einer repräsentativen Massenumfrage offen. Dies gilt vor allem, wenn nur wenige Fragenkomplexe zu behandeln sind, die den Aufwand einer eigenen Erhebung kaum rechtfertigen. •• Der Untersuchungsablauf kann abwechslungsreicher gestaltet werden. Daraus folgen ein geringerer Ermüdungseffekt und eine erhöhte Auskunftsbereitschaft. Außerdem werden Lerneffekte, wie bei Spezialisierung auf ein Thema, gemindert. Von daher werden Spezialbefragungen aus methodischen Gründen gerne ein oder mehrere, weitere Themen zugemischt, sodass diese zu unechten Omni­ bussen werden. Nachteile sind hingegen folgende: •• Die Anzahl der Fragen je Themenbereich ist beschränkt und abhängig von der gesamten Fragebogenlänge und der Anzahl der Teilnehmer an der Befragung. Damit bleibt der Erkenntnisumfang begrenzt. Sollen weitergehende Erkenntnisse erreicht werden, steht nur der Weg zur Spezialbefragung offen. •• Es dürfen keine Themenbereiche kombiniert werden, die eine gegenseitige Beeinflussung vermuten lassen. Allerdings können verschiedene Fragenkomplexe wenigstens durch Pufferfragen getrennt werden. Dabei ist schwierig einzuschätzen, welche Themenbereiche einander wie stark beeinflussen und ob die Puffer ausreichend trennen oder nicht. •• Der Auftraggeber ist im Timing an den Erhebungsturnus des Omnibusses gebunden. Befragungen können nur zu den dort festgesetzten Terminen stattfinden. Allerdings sind die Abstände zwischen den einzelnen Runden so gering, dass daraus keine Probleme entstehen sollten. Zudem sind immer mehrere Anbieter mit zu verschiedenen Zeitpunkten startenden Omnibussen unterwegs.

3.6 Zeit- und Kostenplanung der Befragung Wesentliche Aspekte bei der Durchführung jeder Befragung sind ihr Timing und ihr Costing. Der Zeitablauf der Befragungsplanung stellt sich chronologisch wie folgt dar: •• Abstimmung der Untersuchungskonzeption mit Arbeitshypothesen, Ausarbei­ tung und Festlegung des anzuwendenden Auswahlverfahrens, Prüfung der Repräsentanz der Stichprobe für die Grundgesamtheit, Schätzverfahren zum Rückschluss, Hochrechnung der Ergebnisse von der Stichprobe auf die Grundgesamtheit, Festlegung der anzuwendenden Erhebungsverfahren, Ausarbeitung des Fragebogens, Ausarbeitung sonstiger Befragungsunterlagen, Ausarbeitung der Interviewerinstruktion, Durchführung des Auswahlverfahrens, Durchführung einer Pilotstudie, Auswahl der einzusetzenden Interviewer, Überarbeitung des Fragebogens anhand der Ergebnisse des Pretests, Überarbeitung der

140

3. Methoden der Primärerhebung von Informationen

Befragungsunterlagen aufgrund der Ergebnisse des Pretests, Überarbeitung der Interviewerinstruktion auf Basis des Pretests, Entwurf des InterviewerBeauftragungsschreibens, Produktion der Fragebögen, sonstiger Befragungsunterlagen und der Interviewerinstruktion, Übergabe der Unterlagen an die Interviewer, Interviewdurchführung im Feld, Auswertung der rücklaufenden Fragebögen und Ausfallmeldung, Aufstellung von Antwortlisten, Interviewerkontrolle, Festlegung der Verarbeitungsverfahren der erhobenen Informationen, Bestimmung der anzuwendenden Analyseverfahren, Installation des Auswertungsprogramms, Erstellung des Codeplans, (falls erforderlich) Verschlüsselung der Fragebögen, Probezählung, Endauszählung, Verdichtung der erhobenen Daten, Testverfahren zur Absicherung der Aussagefähigkeit, Hypothesenprüfung als Basis für Schlussfolgerungen, Festlegung der anzuwendenden Darstellungsverfahren, Prüfung der Plausibilität von Aussagen, Begrenzungsfaktoren der Information, Kommunikation der Ergebnisse und (interne oder externe) Abrechnung. Der Kostenablauf der Befragungsplanung stellt sich wie folgt dar: •• Administrationskosten und Gehälter, Verbrauchsmaterialien, Druck-/Programmierkosten für Fragebögen, Anschreibenkosten, Portokosten für Versand der Fragebögen, alt. Verteilungskosten, Interviewerinstruktionen etc., Telefonkos­ten für Abstimmung, Reisekosten für Interviewer, Interviewertraining und -überwachung, Datenverarbeitungs- und -übertragungskosten, Interviewerhonorare.

3.7 Beobachtung Eine weitere Form der Primärerhebung neben der Befragung ist die Beobachtung. Man unterscheidet die naive Beobachtung, die eher unsystematisch, planlos und ohne klar erkennbares Erkenntnisziel bleibt. Sie ist als unprofessionell zu bezeichnen. Und die wissenschaftliche Beobachtung, die einen genau umschriebenen Forschungszweck betrifft, ein planmäßiges Vorgehen zeigt und ein bestimmtes Erkenntnisziel verfolgt. Sie wird systematisch aufgezeichnet und auf allgemeinere Urteile bezogen, statt auf Einzelfälle abzustellen. Außerdem wird sie wiederholten Prüfungen auf Gültigkeit, Zuverlässigkeit und Genauigkeit unterworfen. Dabei können verschiedene Varianten der Beobachtung eingeteilt werden.

3.7.1 Darstellung Hinsichtlich der Vergleichbarkeit lassen sich Beobachtungen unterscheiden, die nur Sachverhalte erfassen, die in angegebene Kategorien fallen (standardisierte Beobachtung), also z. B. Vornahme eines Preisvergleichs am Regal, und solche, die vom Beobachter subjektiv ausgewählte Kategorien erfassen (individuelle Beobachtung), also z. B. erkennbarer Ablauf einer Kaufentscheidung.

3.7 Beobachtung

141

Nach dem Beobachtungssubjekt kann zwischen Fremdbeobachtung und Selbstbeobachtung unterschieden werden. Erstere untersucht Vorgänge, die außerhalb der Person des Beobachters liegen, also z. B. Verweildauer vor dem Schaufenster, Letztere untersucht Vorgänge, welche die eigene Person betreffen, also z. B. Wahrnehmung und Einfluss von POS-Werbemitteln. Dabei wirken allerdings vielfältige subjektive Wertungen auf das Erhebungsergebnis ein. Nach der Beobachtungsform kann zwischen persönlicher und unpersönlicher (apparativer) Beobachtung unterschieden werden. Erstere erfolgt durch die Person des Beobachters selbst. Letztere bedient sich zur Kategorisierung der Art, Dauer und Intensität von Reaktionen und zur Erfassung seelischer Erregungszustände technischer Hilfsmittel, die intrapersonale oder interpersonale Tatbestände aufzeichnen und speichern. Dabei handelt es sich um Audio-, Video-, Foto-Ausrüstungen oder spezielle Apparaturen, die allerdings in ihrer Anwendung sehr umstritten sind. Denkbare weitere Geräte sind Lichtschranke, Zählkreuz, Augenkamera, Blickaufzeichnung, Tachistoskop, Schnellgreifbühne, Psychogalvanometer, Stimmfrequenzanalysator, Programmanalysator etc. Zudem gibt es rechtliche Restriktionen, wonach es sowohl unzulässig ist, unbefugt ein Bild von einem anderen anzufertigen, als auch das nicht-öffentlich gesprochene Wort unbefugt aufzunehmen, zu verwenden und weiterzugeben.

Abbildung 26: Beispiel einer Kundenlaufbeobachtung im Einzelhandel

Nach der Teilnahme des Beobachters unterscheidet man die teilnehmende und die nicht-teilnehmende Beobachtung. Bei der teilnehmenden Beobachtung bewegt sich der Beobachter auf einer Ebene mit den beobachteten Vorgängen.

142

3. Methoden der Primärerhebung von Informationen

Eine aktive Teilnahme liegt vor, wenn der Beobachter auf die am Beobachtungsort zur Beobachtungszeit stattfindenden Abläufe Einfluss nimmt (damit ist allerdings die Gefahr der Verzerrung durch die Interaktion des Beobachters gegeben). Denkbar sind Scheinberatungen und -käufe durch Mystery shopper etwa als Außen­dienstler in der Industriegüterbranche oder als Kunden im Konsumgüter­ handel. Eine passive Teilnahme liegt vor, wenn der Beobachter zwar am Ort und zur Zeit der stattfindenden Abläufe anwesend ist, auf diese aber keinerlei Einfluss ausübt. Nach dem Bewusstseinsgrad der Beobachtung lassen sich unterscheiden: •• offene, durchschaubare Situationen, bei denen der Proband sowohl von der Beobachtung als auch dem Untersuchungszweck weiß, hier ist allerdings die Gefahr von Verzerrungen hoch, etwa aus Gründen sozialer Erwünschtheit oder kognitiver Übersteuerung. Daher ist diese Variante weitgehend wertlos für Erkenntnisse, •• nicht-durchschaubare Situationen, bei denen der Proband zwar vom Unter­ suchungszweck weiß, nicht jedoch von der Tatsache der aktuellen Beobachtung, z. B. erfolgt die Beobachtung bereits in einer vorgeblichen Wartezimmersituation, •• quasi-biotische Situationen, bei denen der Proband zwar von der Beobachtung weiß, nicht jedoch vom Untersuchungszweck, ihm wird also eine falsche Zielsetzung der Beobachtung vorgegeben (verdeckte Beobachtung). Dadurch kann die Beobachtung wertvolle Erkenntnisse liefern, •• biotische Situationen, bei denen der Proband weder um die Beobachtung noch um den Untersuchungszweck weiß, diese Form zeitigt meist die besten Ergebnisse, ist jedoch in der Praxis am Schwierigsten herzustellen.

Abbildung 27: Bewusstseinsgrad der Beobachtung

3.7 Beobachtung

143

Je geringer der Bewusstseinsgrad der Beobachtung, als desto geringer ist auch ein möglicher Beobachtungseffekt einzuschätzen. Nach der Beobachtungsumgebung unterscheidet man Feld- und Laborbeobachtungen. Bei der Feldbeobachtung erfolgt die Aufzeichnung der Vorgänge und Verhaltensweisen in der gewohnten, natürlichen Umgebung des Probanden, bei der Laborbeobachtung erfolgt die Erfassung in einer künstlich geschaffenen ­Situation. Daraus resultieren dann mögliche Beobachtungseffekte. Bei der Bestandsaufnahme werden physische Erhebungen durchgeführt, z. B. als Pantry check oder Basket check, wo bei der Spurenanalyse im Vorratsraum oder Abfalleimer Indikatoren für Ge- und Verbrauch erhoben werden, z. B. weggeworfene Zigarettenpackungen nach einem Pop-Konzert. Nach diesen Kriterien lässt sich das jeweilige Beobachtungsdesign in Abstimmung mit dem Beobachtungszweck zusammenstellen. Insofern kann man aus Vergleichbar­keit, Beobachtungssubjekt, Beobachtungsform, Teilnahme des Beobachters, Bewusstseinsgrad und Beobachtungsumgebung das für den jeweiligen Untersuchungszweck bestgeeignete Design wählen. Bekannte Beobachtungsverfahren betreffen: •• Zählverfahren, z. B. bei Passantenströmen für die Standortanalyse im Einzelhandel, Einkaufsverhaltensbeobachtungen im Hinblick auf Kauf- und Nichtkaufentscheidungen sowie Verwendungsbeobachtungen, die Teil- oder Vor- und Nachbereitungshandlungen in Zusammenhang mit der Produktverwendung betreffen, z. B. bei Handhabungstests, Fahrverhalten, Automatenbenutzung, Verweildauer auf Messeständen, Anzahl der Besucher im stationären Handel (etwa durch Lichtschranke), TV-Zuschauermessung etc. Beobachtungen sind daher ein in weiten Teilen des Marketing verbreitetes und wichtiges Erhebungsinstrument. Eine breite Anwendung finden ­Kundenlaufstudien über die Konfrontation von Personen mit angebotenen Waren. Daraus weiß man, dass es abweichende Regalwertigkeiten am Handelsplatz (POS) gibt. Zu den Vorzugsplätzen gehören etwa folgende: •• horizontal leicht rechts aus der Mitte versetzt im Warenträger der Produktkategorie, •• vertikal in Sicht- oder Griffhöhe (80–160 cm), nicht im Bück- ( 160 cm), •• in der Bremszone hinter dem Ladeneingang, •• vor der Kassenzone am Check out, •• in Laufrichtung entlang der rechten Regalseite, •• in der Kopfzone der Regalreihen, •• in Sonderplatzierungen außerhalb des Regals (Offshelf).

144

3. Methoden der Primärerhebung von Informationen

Das Ladenlayout folgt daher den Erfordernissen des Kundenlaufs: •• am Kopfende des Ladens sind „Magnetabteilungen“ (Frischwaren) platziert, •• die Anordnung der Regale folgt dem normalen Tagesablauf der Einkaufsplanung, •• die Regalreihen sind unterbrochen, um „Fluchtwege“ zu eröffnen, •• die Platzierung der Produkte bleibt möglichst lange unverändert (Mental map), •• der Laufweg durch den Laden erfolgt entgegen dem Uhrzeigersinn, •• der Ladeneingang ist rechts der Front, •• die Kassenzone ist links in der Fläche.

3.7.2 Vorteile Wesentliche Vorteile der Beobachtung sind folgende: •• Geschehnisse können während ihres spontanen Vollzugs beobachtet („uno actu“) und dabei gleichzeitig die spezifischen Umweltsituationen aufgenommen werden. Von daher wird deutlich, in welchem Kontext sich bestimmte Beobachtungen ergeben. •• Die Beobachtung ist zudem unabhängig von der Auskunftsbereitschaft der Erhebungspersonen. Damit lassen sich selbst ohne Zustimmung (allerdings rechtlich restringiert) Auskünfte erheben, weil die beobachtete Person entweder nicht um die Beobachtung weiß oder ihre ablehnende Haltung nicht durch ein völlig anderes Verhalten äußern kann. So treten sogar Sachverhalte zutage, die ihr selbst nicht einmal bewusst sind. •• Es entsteht (bei verdeckter Beobachtung) kein Erhebungseinfluss auf Ergebnisse. Dadurch entfällt eine große Verzerrungsquelle, wie sie etwa bei Befragungen gegeben ist. Zu denken ist hier an tabuisierte Sachverhalte. •• Beobachtungen lassen sich unabhängig vom Ausdrucksvermögen des Beobachters und der beobachteten Person durchführen. Damit können z. B. Sprachbarrie­ ren problemlos überwunden werden, Formulierungen und Wortwahl sind ohne Bedeutung. •• Beobachtungen können andere Erhebungsmethoden ergänzen oder verifizieren. Damit kommt es zu einer Kontrolle deren Ergebnisse oder zu einer zusätzlichen Datenermittlung. Denkbar ist die Erfassung durch Beobachtung während einer mündlichen Befragung. •• Bestimmte Sachverhalte sind nur durch Beobachtung feststellbar, z. B. die Blickbewegung. Auch können auf diese Weise non-verbale Äußerungen (Gestik, Mimik etc.) erfasst werden. Diese sind oft sogar aussagefähiger als verbale Äußerungen, da sie ehrlicher sind.

3.7 Beobachtung

145

•• Es lassen sich Sachverhalte erheben, die sich auf mehrere Personen beziehen. Gruppenverhalten ist für viele marketingrelevante Vorgänge typisch, etwa bei Buying centers im gewerblichen oder Familienentscheiden im privaten Bereich.

3.7.3 Nachteile Nachteile sind hingegen folgende: •• Es treten Beobachtungseffekte auf, die aus dem Wissen um die Erhebung entstehen. Weitere Verzerrungen ergeben sich bei aktiver Teilnahme, etwa als Mystery shopper beim Testeinkauf. •• Die Erfassung subjektiver Sachverhalte wie Einstellungen, Meinungen, Präferenzen, Kaufabsichten und anderer innerer Vorgänge, ist kaum möglich, denn diese sind durch äußere Inaugenscheinnahme nicht feststellbar, dennoch aber ausschlaggebend für Kauf- bzw. Nichtkaufentscheide. Diesen Mangel können auch apparative Hilfsmittel nicht heilen. •• Es sind nur gegenwartsbezogene Gegebenheiten erfassbar. Vorgeschichten und Konsequenzen bedürfen der zusätzlichen Beobachtung zu den dann gegebenen Zeitpunkten oder bleiben verborgen. •• Die beobachteten Merkmale sind unterschiedlich interpretierbar. So kann ein und dasselbe Verhalten in mehrere Richtungen gedeutet werden und führt damit zu mehrwertigen Ergebnissen. Hilfreich ist dabei ein standardisiertes Er­ fassungssystem (Notationssystem). •• Es besteht die Gefahr, dass die Vorstellungen des Beobachters in die Interpretation der Ergebnisse mit einfließen. Insofern ist dann keine Objektivität in der Erhebung gegeben. Dies gilt auch für die Auswertung apparativer Ergebnisse. •• Die Beobachtungskapazität von Personen ist, vor allem bei komplexen Sachverhalten, beschränkt, da nur vergleichsweise wenige Merkmale zugleich erfasst werden können. Daher sind Arbeitsteilung oder Systembeschränkung erforderlich, um alle relevanten Sachverhalte simultan festzuhalten. •• Die Beobachtungsmerkmale sind in der durch die Beobachtungssituation gegebenen zeitlichen Reihenfolge determiniert und können nicht anders angeordnet werden, auch wenn dies aus Gesichtspunkten des Forschungsdesigns wünschenswert wäre. •• Die Beobachtung muss im Zeitpunkt des Geschehens erfolgen (Uno actu). Dies ist vor allem misslich, wenn es sich um selten eintretende Phänomene handelt, die eine lange Zeit der Inaktivität bedingen. •• Eine identische Beobachtungssituation ist nicht wiederholbar. Damit sind auch Ergebnisse mehrerer Beobachtungen untereinander nicht ohne Weiteres ver-

146

3. Methoden der Primärerhebung von Informationen

gleichbar. Es sei denn, die Einflussfaktoren des Umfelds werden künstlich reduziert. •• Repräsentanz ist bei der Beobachtung nur schwierig herbeizuführen, da man auf die Personen angewiesen ist, die in der Beobachtungssituation agieren. Insofern ist keine Zufallsauswahl, sondern nur eine systematische, bewusste Auswahl möglich.

3.8 Experiment Das Experiment dient der empirischen Überprüfung einer Hypothese durch wiederholte Versuchsanordnung unter kontrollierten, vorher festgelegten Umfeldbedingungen zur Messung der Wirkung unabhängiger auf abhängige Faktoren. Es liegt vor, wenn in einer vorangegangenen Phase der Tatbestand, über den ermittelt wird, erst herbeigeführt wurde. Es dient der Überprüfung einer Kausalhypothese, wobei eine oder mehrere unabhängige Variable durch den Experimentator bei gleichzeitiger Kontrolle aller anderen Einflussgrößen isoliert variiert werden, um die Wirkung der unabhängigen auf die abhängige Variable messen zu können. Damit sollen Ursache-Wirkungs-Beziehungen aufgedeckt werden. Dabei hat man immer mit Störfaktoren zu kämpfen, die Ergebnisse verzerren, und nach Möglichkeit auszuschalten, sofern dies nicht gelingt, wenigstens aber zu kontrollieren sind. Dies kann etwa durch den Vergleich der Experimentalgruppe mit einer strukturidentischen Kontrollgruppe geschehen, die dem experimentellen Stimulus nicht ausgesetzt ist. Als Störgröße ist dann jedoch wiederum die Vergleichbarkeit beider Gruppen anzusehen. Das experimentelle Design ist der Versuchsplan zum Test signifikanter Unterschiede in Bezug auf die abhängige Variable zwischen unterschiedlichen Kategorien eines oder mehrerer Faktoren. Tests im Marketing unterscheiden sich bei puristischer Sicht von, etwa naturwissenschaftlichen, Experimenten dadurch, dass nicht alle Einflussfaktoren kontrolliert werden können.

3.8.1 Grundformen Unter Experiment versteht man eine wiederholbare, unter kontrollierten, v­ orher festgelegten Umweltbedingungen durchgeführte Versuchsanordnung, die es mit Hilfe der Wirkungsmessung eines oder mehrerer unabhängiger Faktoren auf die jeweilige abhängige Variable gestattet, aufgestellte Kausalhypothesen empirisch zu überprüfen. Bedingungen sind die Identifizierung der Variablen und ihre Isolierung / Kontrolle, ihre Manipulierbarkeit und die Wiederholbarkeit des Experiments. Beim Experiment handelt es sich um kein eigenständiges Erhebungsverfahren, sondern um eine spezifische Ausprägung experimenteller Befragung und experimenteller Beobachtung. Beim Befragungsexperiment wird die Wirkung eines Faktors auf einen anderen mittels Befragung festgestellt, beim Beobach-

3.8 Experiment

147

tungsexperiment mittels Beobachtung. Daher wird vielfach das Experiment auch nicht als eigenständiges Erhebungsinstrument, sondern nur als spezifische Ausprägung der Erhebungsinstrumente Befragung und Beobachtung angesehen. Wegen der hohen Bedeutung im Marketing soll das Experiment hier jedoch als dritte Erhebungsform betrachtet werden. Die Variablen jedes Experiments sind folgende: •• Testelemente, an denen Experimente ausgeführt werden sollen (z. B. Produkte, Läden, Kunden), •• unabhängige Variable, deren Einfluss gemessen werden soll (z. B. Marke, Packung, Preis), •• abhängige Variable, an denen die Wirkung gemessen werden soll (z. B. Umsatz, Marktanteil, Einstellung), •• kontrollierte Variable, die direkt beeinflussbar sind, deren Einfluss aber nicht untersucht wird und die daher beherrscht werden müssen (z. B. Werbeaufwand, Platzierung, Qualität), •• Störgrößen, die nicht direkt beeinflussbar sind, aber daneben Einfluss auf die abhängige Variable nehmen (z. B. Konjunktur, Konkurrenz, Kaufkraft). Um Störgrößen zu kontrollieren und damit experimentelle Versuchsanordnungen herzustellen, werden folgende Techniken angewendet: •• Konstanthaltung der Störvariablen, dadurch sind allerdings weniger Informa­ tionsgehalt und Generalisierbarkeit der Ergebnisse gegeben, •• Einbau in das Design als unabhängige Variable bei gleicher Häufigkeit aller relevanten Merkmale in beiden Gruppen, was zu mehrfaktoriellen Versuchs­plänen führt, •• Matching, wobei Paare von Untersuchungseinheiten mit gleicher Störvariablenausprägung verschiedenen Bedingungen (Experiment- und Kontrollgruppe) zugewiesen werden, •• Randomisierung, wobei die Störvariablen nach dem Zufallsprinzip Untersuchungseinheiten zugewiesen werden. Es können verschiedene Ausprägungen von Experimenten unterschieden werden. Nach dem Umfeld gibt es Feldexperimente, die sich in einer natürlichen Umgebung vollziehen, und Laborexperimente, die in einer künstlichen, speziell für das Experiment geschaffenen Umgebung erfolgen. Der Vorteil des Feldexperiments liegt in seiner Realitätsnähe (hohe Validität), sein Nachteil in der beschränkten Reproduzierbarkeit (niedrige Reliabilität) durch den Einfluss von Störgrößen (Ceteris paribus-Bedingung der Konstanthaltung aller außer der untersuchten Variablen verletzt). Beim Laborexperiment ist dies genau umgekehrt (hohe Reliabilität, niedrige Validität).

148

3. Methoden der Primärerhebung von Informationen

Nach dem Zeiteinsatz können projektive Anlagen, bei denen Veränderungen experimentalbegleitend auf ihre Kausalität hin untersucht werden (= Simultanexperi­ mente), und Ex post facto-Anlagen unterschieden werden, bei denen Kausalitäten erst im Nachhinein abgeleitet werden (= Sukzessivexperimente). Projektive Experimente konfrontieren also Personen mit der durch experimentelle Bedingungen speziell geschaffenen Situation. Ex post facto-Experimente beruhen auf unabhängigen Variablen, die bereits in der Vergangenheit aufgetreten sind, während abhängige Variable erst in der Gegenwart gemessen werden. Insofern wird das Experiment erst nachträglich aus einer vorgefundenen Situation konstruiert. Dabei ist allerdings die Kausalitätszuweisung problematisch. Nach der Durchführung lassen sich informale und formale Experimente unterscheiden. Informalexperimente nehmen eine zeitliche Differenzbetrachtung bei der Experimental- (und evtl. noch Kontroll-)Gruppe vor, indem diese jeweils vor dem Experimentaleinsatz und danach gemessen wird (werden). Dementsprechend ergeben sich aus Kombinationen Testdesigns. Dabei wird darauf verzichtet, Zufallseinflüsse durch Anwendung geeigneter statistischer Verfahren zu analysieren, die Wirkung einer unabhängigen Variablen auf eine abhängige Variable wird durch reine Differenzenbildung (zwischen zwei Zeitpunkten oder zwei Gruppen) ermittelt. Formalexperimente differenzieren die abhängige Variable nach ihren Einflussgrößen verursachungsgerecht. Dazu werden bekannte Störgrößen einbezogen und in der Versuchsanlage (Testdesign) berücksichtigt. Ziel ist die verursachungsgerechte Aufspaltung der Ergebnisstreuung in Einflüsse von Störgrößen, Zufällig­ keiten und der eigentlich interessierenden unabhängigen Variablen. Zufallseinflüsse werden dazu mit Hilfe der Varianzanalyse im Detail analysiert. Voraussetzungen für Experimente sind: •• ihre Repräsentanz, d. h., die Ergebnisse müssen sich von der Experimentalgruppe auf die Grundgesamtheit übertragen lassen, •• die Isolierbarkeit von Außeneinflüssen bzw. wo dies nicht möglich ist, die Kontrolle dieser Außeneinflüsse (Störgrößen), •• die Messbarkeit von Wirkungen durch geeignete Erfassungsinstrumente, die bestimmten Anforderungen zu genügen haben. Grenzen des Experiments ergeben sich durch die praktische Beschränkung auf die Messung kurzfristiger Wirkungen, durch die schwierige Kontrolle möglicher Störgrößen bei umfangreichen Experimentaldesigns und durch die nur unzureichende Nachempfindbarkeit der Komplexität der Realität der Märkte. Außerdem können Veränderungen der abhängigen Variablen auf die Wirkung einer Vormessung zurückzuführen sein, statt auf die unabhängige Variable. Eine Reifung biologischer und psychischer Prozesse kann unabhängig von äußeren Einflüssen die abhängige Variable verändern. Externe, im Experiment nicht erfasste Einflüsse können auf die abhängige Variable einwirken. Das Messinstrument kann sich im Zeitablauf verändern oder es bestehen für die unabhängige und / oder abhängige

3.8 Experiment

149

Variable relevante Strukturunterschiede zwischen den verschiedenen Gruppen. Verweigerungen der Testpersonen, am Experiment teilzunehmen, führen zu Veränderungen im Zeitablauf. Durch eine Vormessung kann ein sensibilisierender Effekt auf die Wirkungsänderung der unabhängigen Variablen entstehen. Die abhängige Variable kann durch die künstliche Experimentalsituation und / oder das Verhalten des Marktforschers beeinflusst sein. Die abhängige Variable kann gemessen werden, wenn diese noch nicht bzw. schon nicht mehr die Wirkung der unabhängigen Variablen wiedergibt. Durch besondere Experimentaldesigns wird versucht, diese Fehlerquellen zu vermeiden, zu neutralisieren oder zumindest auszuweisen.

3.8.2 Informale Experimente Je nach Anzahl der in der Versuchssituation berücksichtigten unabhängigen Variablen sind Mehrfaktoren- und Einfaktorenexperimente zu unterscheiden. Einfak­ torenexperimente (informale Experimente / Quasi-Experimente) werden wiederum differenziert nach der Zahl der ausdrücklich im Designtyp einbezogenen Störvariablen (Effekte). Sie sind dadurch gekennzeichnet, dass keine Kontrolle über den Experimentalfaktor besteht oder die Testeinheiten nicht nach dem Zufallsprinzip ausgewählt bzw. auf Gruppen verteilt werden können oder die experimentelle Behandlung nicht per Zufallsprinzip Gruppen zugewiesen werden kann. Es wird unterstellt, dass die Störgrößen voneinander unabhängig sind, ihr Einfluss also additiv ist, und dass alle Testelemente von ihnen mit gleicher Intensität betroffen sind. Hier ergeben sich je nach Design die folgenden Kombinationen. Sie berücksichtigen im Einzelnen die •• Experimentalgruppe (E), an der ein Experiment ausgeführt wird, •• Kontrollgruppe (C), die zur Kontrolle der Ergebnisse im Vergleich mitläuft, •• Messung vor Einsatz des Experimentfaktors (B), also im „Nullzustand“, •• Messung nach Einsatz des Experimentfaktors (A), also im Messzustand, •• evtl. parallele zusätzliche Gruppen (E’, C’). Das EA-Design (Messung einer Experimentalgruppe nach Einsatz des Wirkfaktors) kann nur als vorexperimenteller Versuch bezeichnet werden, da der Einfluss von Störvariablen ausgeblendet bleibt, ebenso fehlt es an einer Kontrollgruppe, zeitliche Entwicklungseffekte sind nicht messbar und die Faktorwirkung ist nicht exakt ermittelbar. Die dadurch gewonnenen Aussagen sind also wenig zielführend. Beim EBA-Design handelt es sich um ein Sukzessivexperiment mit einer Versuchsgruppe. Diese wird mit Marketingmaßnahmen konfrontiert. Es werden zwei Messungen vorgenommen, von denen eine zeitlich vor Eintritt des Wirkungsfaktors in das Geschehen liegt, die andere zu einem Zeitpunkt, an dem der Wirkungsfaktor seinen Einfluss bereits geltend gemacht hat. Eine Messung der Fak-

150

3. Methoden der Primärerhebung von Informationen

Abbildung 28: Informale Experimentaldesigns

torwirkung erfolgt durch den Vergleich der Wirkungsgrößen vor Beginn und nach Beendigung des Tests. Die Vormessung liefert den Bezugswert, die nach der Faktorauswirkung erfolgende Nachmessung den Endwert. Es besteht die Gefahr von störenden Carry over-, Spill over- und Entwicklungseffekten. Außerdem muss die Möglichkeit zur Vormessung gegeben sein. Problematisch ist die Vernachlässi-

3.8 Experiment

151

Abbildung 29: Gängige Experimentaldesigns

gung von Störvariablen, ebenso fehlt die Kontrollgruppe. Insofern handelt es sich eher um eine vorexperimentelle Versuchsanordnung. Problematisch sind die Vernachlässigung von Störvariablen, das Fehlen einer Kontrollgruppe und die Vernachlässigung zeitlicher Entwicklungseffekte. Beim EA-CB-Design handelt es sich um ein Sukzessivexperiment mit mindestens zwei Gruppen. Die Vormessung findet in einer Kontrollgruppe statt und liefert den Bezugswert, die Nachmessung findet in der Versuchsgruppe statt und liefert den Endwert. Es besteht zwar die Gefahr von störenden Entwicklungs-, nicht aber die von Carry over-Effekten. Auch hier muss die Möglichkeit zur Vormessung gegeben sein. Problematisch ist außerdem die Vernachlässigung von Störvariablen, ebenso ist keine echte Kontrollgruppe gegeben. Eine Anwendung besteht in der Tendenzfrage. Dabei wird eine Frage in gleichem Wortlaut in regelmäßigen Abständen jeweils anderen, aber repräsentativen Personengruppen gestellt, um Trends festzustellen (ähnlich Tracking). Beim EB-CA-Design erfolgt die Messung des Untersuchungsmerkmals, die nach Auswirkung des Wirkungsfaktors vorgenommen wird, ebenfalls nicht in der derselben, sondern in einer zweiten repräsentativen Gruppe. Diese fungiert dann als Kontrollgruppe, die erste Gruppe aber als die eigentliche Experimentalgruppe. Dabei ist gleichfalls keine Trennung zwischen den vom Wirkungsfaktor erreichten und nicht erreichten Personen möglich. Problematisch sind die Vernachlässigung zeitlicher Entwicklungseffekte, das Fehlen einer echten Kontrollgruppe und die Ausschaltung von Pretest-Effekten in der Messung. Beim EA-CA-Design handelt es sich um ein Simultanexperiment mit mindestens zwei Gruppen, ohne dass eine Vormessung stattfindet. Die Experimental- und die Kontrollgruppe werden jeweils nur nach der Durchführung des Tests gemessen. Der Verzicht auf die Anfangsmessung ist meist in Kostengründen zu suchen.

152

3. Methoden der Primärerhebung von Informationen

Allerdings ist sicher zu stellen, dass beide Gruppen gleichen Anfangsbedingungen unterliegen. Die Kontrollgruppe liefert dabei den Bezugswert, die Experimentalgruppe den Endwert. Es besteht keine Gefahr von Entwicklungseffekten. Carry over- und Spill over-Effekte können zwar auftreten, machen sich jedoch infolge der speziellen Anordnung nicht störend bemerkbar. Problematisch ist die Vernachlässigung von Störvariablen, ebenso die Unterstellung gleicher Ausgangslagen zu Beginn des Experiments in Experimental- und Kontrollgruppen. Beim EBA-CBA-Design ist ein simultanes Sukzessivexperiment mit mindestens zwei Gruppen, die drei Bezugswerte und einen Endwert erbringen, ge­ geben. Hier wird die Experimentalgruppe mit der Marketingmaßnahme konfrontiert und eine Kontrollgruppe gebildet, die diese Konfrontation nicht erfährt. Beide Gruppen werden zu Testbeginn, bei der Experimentalgruppe also vor Konfrontation mit der Marketingmaßnahme, und am Testende, bei der Experimentalgruppe also nach Konfrontation mit der Marketingmaßnahme, gemessen. Die Faktorwirkung wird durch die Differenz der Wirkungen beider Gruppen errechnet. Dieses bietet sich an, wenn man nicht sicher sein kann, dass die beiden Gruppen vor der Experimentdurchführung hinsichtlich der Ausprägung aller Variabler völlig gleich sind. Carry over- bzw. Spill over- und Entwicklungseffekte können zwar auftreten, infolge der speziellen Anordnung machen sich Erstere jedoch nicht störend bemerkbar und Letztere lassen sich berechnen. Allerdings muss die Möglichkeit zur Vormessung gegeben sein. Ebenso werden keine Störvariablen berücksichtigt. Als Experimentfaktor kann z. B. eine einzusetzende Werbekampagne, eine Preisänderung, ein neues Produktdesign, eine veränderte Platzierung am POS oder eine neue Packungs­ gestaltung, fungieren. Dieser wirkt in der Experimentalgruppe ein und wird zu zwei Zeitpunkten (vorher / nachher) gemessen. Die Entscheidung anhand des daraus entstehenden Bruttoeffekts ist aber problematisch, da unklar bleibt, inwieweit autonome Wirkungen in dieses Ergebnis eingehen, also solche, die auch ohne die Einwirkung des Experimentalfaktors entstanden wären. Diese sind durch monadischen Zeitvergleich (EBA-Testdesign) nicht zu isolieren. Daher wird für die Ermittlung des Nettoeffekts eine zur Experimentalgruppe struktur­gleiche Kontrollgruppe (C) vorgesehen. Auch in dieser erfolgt je eine Messung zum Zeitpunkt der Ausgangssituation (CB) und der Ergebnissituation (CA), jedoch, ohne dass dazwischen der Experimentalfaktor einwirkt. Die Differenz dieser Werte ergibt die Bezugsgröße, also die Ergebnisveränderung, die eintritt, auch ohne dass es zur Einwirkung des Experimentalfaktors gekommen ist. Der Nettoeffekt ergibt sich dann als Differenz aus Bruttoeffekt und Bezugsgröße (im nachfolgenden Rechenbeispiel: 106 / EBA-CBA-Testdesign). Dieser absolute Nettoeffekt ist jedoch nur aussagefähig, wenn die Messungen in der Ausgangssituation in der Experimentalgruppe und der Kontrollgruppe gleiche Ergebnisse aufweisen. Weichen die Ex ante-Ergebnisse beider Gruppen jedoch bereits voneinander ab, kann nur der relative Nettoeffekt aussagefähig sein. Dazu wird die Differenz der Werte aus jeder Gruppe auf deren jeweiligen Ausgangswert bezogen und das Ergebnis in Prozent aus-

3.8 Experiment

153

gewiesen. Dies bedeutet, der Einsatz der Wirkgröße hat im Rechenbeispiel zu einer Er­ höhung des Absatzes im Markttest um 106 Stück, genauer 9,38 % geführt. Es finden also insgesamt vier Messungen in zwei Gruppen statt, je eine Ex ante- und eine Ex post-Messung sowohl in der Experimental- als auch in der Kontrollgruppe. EBA-Testdesign = Bruttoeffekt = EA – EB EBA-CBA-Testdesign: absoluter Netto-Effekt = (EA – EB) – (CA – CB)

relativer Netto-Effekt =

(EA – EB) (CA – CB)        · 100  –           · 100 EB CB

Rechenbeispiel: In einem informalen Markttest soll die Leistungsfähigkeit einer neuen Packungsgestaltung getestet werden. Dazu wird in den Teilmärkten 1–3 nunmehr die neue Packung (Experimentalgruppe), und im Vergleich dazu in den strukturgleichen Teilmärkten 4–6 (Kontrollgruppe) weiterhin die alte Packung distribuiert. Es ergeben sich die folgenden Absätze (in Stück): Experimentalgruppe Teilmärkte

Ex ante-Wert (Absatz) alte Packung

Einsatz der Wirkgröße neue Packung

Ex post-Wert (Absatz)

1

440

(neue Packung)

480

920

2

360

(neue Packung)

396

756

3

320

(neue Packung)

370

690

Zwischensumme

1.120 (EB)

1.246 (EA)

Total

2.366

Kontrollgruppe Teilmärkte

Ex ante-Werte (Absatz) alte Packung

kein Einsatz der Wirkgröße alte Packung

Ex post-Wert (Absatz)

Total

1

400

(alte Packung)

410

810

2

340

(alte Packung)

340

680

3

330

(alte Packung)

340

670

Zwischensumme

1.070 (CB)

1.090 (CA)

2.160

Total

2.190

2.336

4.526

•• Bruttoeffekt: 1.246–1.120 = 126 •• absoluter Netto-Effekt = (1.246–1.120) – (1.090–1.070) = 126–20 = 106 126   · 100     20   · 100 •• relativer Netto-Effekt = – = 11,25 % – 1,87 % = 9,38 % 1.120 1.070

154

3. Methoden der Primärerhebung von Informationen

Die Testanlage E’A-EBA-CBA-Design sieht ein simultanes Sukzessivexperiment mit drei Gruppen, neben der Experimental- und der Kontrollgruppe einer weiteren Parallel-Experimentalgruppe, die zur näheren Analyse getrennt zum Vergleich erhoben wird, vor. Bei der ersten Experimental- und der Kontrollgruppe wird die Messung der Wirkung sowohl vor als auch nach der Konfrontation mit der Marketingmaßnahme vorgenommen. Die zweite Experimentalgruppe wird nur danach gemessen. Dadurch können mögliche Lerneffekte isoliert und Entwicklungseffekte getrennt ausgewiesen werden. Gleiches gilt für etwaige Gruppeneffekte. Eine Verbrauchermarktkette will im Rahmen eines E’A-EBA-CBA-Experiments wissen, ob ein Prospekt / Flyer als Tageszeitungsbeilage oder als Haushaltsverteilung den höheren Werbeerfolg für identische Produktangebote am gleichen Ort und im gleichen Zeitraum generiert. Dazu wird eine Tageszeitung als Werbeträger bestimmt. Zugleich werden die Daten von Kundenkarten der Verbrauchermarktkette genutzt. Das Experimental-Design sieht folgende Elemente vor: •• Festlegung des Testgebiets (Kriterien: mittlere Größe, vergleichsweise hoher AbonnentenAnteil der Tageszeitung, Verbrauchermarkt-Standorte) •• Auswahl des Timing (tagesgenau gleichzeitiger Einsatz von TZ-Beilage und Haushaltsverteilung) •• Auswahl des Beileger-/Verteilungs-Thema (möglichst repräsentativ). Für die Datenerhebung im Feld stehen dann folgende Ausgangsgruppen zur Verfügung: •• 1. Bevölkerung im ausgewählten Testgebiet, die weder Kundenkarten-Halter noch TZAbonnenten sind (diese im Weiteren irrelevant), •• 2. Halter von Kundenkarten der Verbrauchermarktkette, die nicht im Testgebiet wohnen und keine TZ-Abonnenten sind, •• 3. Abonnenten der infrage stehenden Tageszeitung, die keine Kundenkarten-Halter sind und nicht im Testgebiet wohnen (mangels Auswertbarkeit ebenso irrelevant), •• 4. Schnittmenge der Halter von Kundenkarten und der TZ-Abonnenten, jedoch nicht Bevölkerung im Testgebiet (im Weiteren irrelevant), •• 5. Schnittmenge der Halter von Kundenkarten und der Bevölkerung im Testgebiet, jedoch nicht zugleich Abonnenten der Tageszeitung, •• 6. Schnittmenge der Bevölkerung im Testgebiet und der TZ-Abonnenten, jedoch nicht zugleich Halter von Kundenkarten (mangels Auswertbarkeit irrelevant), •• 7. Schnittmenge der Halter von Kundenkarten und TZ-Abonnenten und Bevölkerung im Testgebiet. Als Testgruppe (E) wird die Gruppe 5 für die Haushaltsverteilung ausgewählt. Dazu ist die Selektion aller Haushalte, die im Testgebiet wohnen und eine Kundenkarte haben und zugleich keine TZ-Abonnenten sind, erforderlich. Als Basis dienen der Datenbestand aller Kundenkarten-Halter im Testgebiet, ein Datenmatch mit allen TZ-Abonnenten im Testgebiet und die Eliminierung von Dopplern (also Kundenkarten-Haltern und zugleich TZAbonnenten). Die Testgruppen-Größe beträgt ca. 4.000 Fälle.

3.8 Experiment

155

Als zweite Testgruppe (Split run / E’) wird die Gruppe 7 mit Beilage in der Tageszeitung ausgewählt. Dazu ist die Selektion aller Haushalte, die im Testgebiet wohnen und eine Kundenkarte haben und TZ-Abonnenten sind, erforderlich. Als Basis dienen der Datenmatch aller Kundenkarten-Halter im Testgebiet mit allen TZ-Abonnenten im Testgebiet und die Auswahl von Dopplern. Die Vergleichsgruppengröße beträgt ca. 4.000 Fälle. Als Vergleichskontrollgruppe (C) wird die Gruppe 2 definiert, d. h. Kundenkarten-Halter, die nicht im Testgebiet wohnen und auch keine Abonnenten der infrage stehenden Tageszeitung sind. Danach erfolgt der Roll-out mit identischen Prospekten am selben Tag (donnerstags). Dabei werden alle Häuser für die Haushaltsverteilung eliminiert, in denen ein TZ-Abonnent wohnt. Parallel erfolgt ein Monitoring des auf die im Prospekt beworbenen Artikel bezogenen Kaufverhaltens der Haushalte in den Test- und Vergleichsgruppen (Dauer: 4 Wochen). Außerdem wird ein Monitoring des sonstigen, nicht auf die beworbenen Artikel bezogenen Kaufverhaltens der Haushalte in der Test- und Vergleichsgruppe vorgenommen. Alle Gruppen werden in einer Nullmessung hinsichtlich ihres Konsumverhaltens erhoben (B). Die Auswertung der erhobenen Felddaten erfolgt nach Testende in allen Gruppen (A). Dabei werden relevante soziodemographische Abweichungen der TZ-Abonnenten (Gruppe 3) gegenüber den Kundenkarten-Haltern (Gruppe 2) zur Korrektur berücksichtigt.

Die Testanlage im EBA-CBA-E’A-C’A-Design (Solomon-Vier-Gruppen-­Design) entspricht der beim EBA-CBA-Experiment, jedoch mit einer Parallel-Experimentalgruppe, die zur näheren Analyse von Entwicklungseffekten getrennt zum Vergleich erhoben wird und einer Parallel-Kontrollgruppe. Hier werden also jeweils zwei Experimental- und Kontrollgruppen gebildet. Bei der ersten Experimentalund auch der ersten Kontrollgruppe wird eine Messung der Wirkung sowohl vor als auch nach Konfrontation mit der Marketingmaßnahme vorgenommen. Durch Einschaltung einer weiteren Experimentalgruppe soll sichergestellt werden, dass Gruppeneffekte ausgewiesen werden können. Durch Einschaltung einer weiteren Kontrollgruppe können Lerneffekte ausgeschaltet werden, da diese weder an der Vormessung noch am Treatment (Marketingmaßnahme) teilnimmt. Insofern gibt es acht Messpunkte. Eine reduzierte Variante stellt der Solomon-Drei-GruppenPlan dar (sieben Messungen, randomisierte Vormessung), eine erweiterte der Solomon-Sechs-Gruppen-Plan (13 Messungen). Die bei Experimenten auftretenden Effekte sind wie folgt zu verstehen: •• Carry over-Effekt bedeutet, dass vorgelagerte Maßnahmen und Ereignisse in die Untersuchungsperiode nachwirken können, obgleich diese nicht auf den Einfluss der unabhängigen Variablen zurückzuführen sind, also einen nicht-kon­ trollierten Störfaktor darstellen. Zum Beispiel kann eine Werbekampagne, die in der Vorperiode geschaltet wurde, erst in der Testperiode zu Käufen führen, die daher jedoch nicht korrekt zuordnenbar sind. •• Entwicklungs-Effekt bedeutet, dass im Verlauf des Experiments Lernwirkungen eintreten können, die nicht allein auf die Wirkung der unabhängigen Variablen

156

3. Methoden der Primärerhebung von Informationen

zurückzuführen sind. Dadurch ändern sich die Messvoraussetzungen. Dies ist bei Sukzessivexperimenten (before – after) problematisch. Zum Beispiel kann eine Werbekampagne in der Testperiode erst infolge sozialer Interaktion zu Wirkungen führen, die nicht in der Marketingmaßnahme veranlagt sind. •• Spill over-Effekt bedeutet, dass parallele Maßnahmen und Ereignisse von anderen als der untersuchten Variablen, also außerhalb der experimentellen Anordnung (extern), auf diese einwirken können. Dadurch kommt es zu Ergebnisverzerrungen (externe Faktoren). Zum Beispiel können Personen, die in einem anderen als dem Testgebiet eine Werbekampagne wahrgenommen haben, ihre Käufe dennoch im Testgebiet tätigen, oder umgekehrt. •• Gruppen-Effekt bedeutet, dass Experimental- und Kontrollgruppen bereits vor Beginn des Experiments strukturelle Unterschiede bezüglich relevanter Variabler aufgewiesen haben. Dann ist auch die Interpretation der Ergebnisse problematisch. Dies ist bei Simultanexperimenten (Kontroll- und Experimentgruppe) gegeben. Zum Beispiel können die Gruppen in Bezug auf Werbung verschiedenen sensibel (affin oder avers) sein.

3.8.3 Formale Experimente Die Differenzenbildung informaler Experimente ist jedoch keine Gewähr für eine exakte Messung von Wirkungen. Vielmehr wirken eine Vielzahl situativer Faktoren ein. Daher werden formale (statistische) Experimente eingesetzt. Deren Ziel ist es, eine weiterreichende und genauere Differenzierung der gemessenen Veränderung einer abhängigen Variablen nach ihren Einflussgrößen zu erreichen. Dies geschieht durch die Einbeziehung von bekannten Störvariablen und ihre Berücksichtigung in der Versuchsanlage. Gelingt es, die festgestellte Streuung verursachungsgemäß aufzuspalten, lassen sich Einflüsse von Störvariablen, Zufallseinflüsse und Auswirkungen der eingesetzten unabhängigen Variablen messen und gegenüberstellen. Bei solchen Mehrfaktorenexperimenten werden zwei oder mehr (unabhängige) Experimentalvariable zugleich variiert, wobei jede Variable in mehreren Ausprägungen vorliegen kann. Die Bildung von Kontrollgruppen kann dabei entfallen. Die experimentellen Lösungen werden mit Hilfe der Varianzanalyse auf ihre Einflussstärke auf eine abhängige Variable hin untersucht. Dabei werden alle Ausprägungen aller unabhängigen Variablen spezifischen Testeinheiten zugewiesen. Daraus ergibt sich die Schätzung von Haupt- und Interaktionseffekten, die über einen F-Test auf Signifikanz hin überprüft werden. Mit zunehmender Merkmals- und Ausprägungszahl wächst jedoch die Menge der Teststimuli erheblich an und überfordert leicht die Urteilsfähigkeit und -willigkeit der Testpersonen. Das Design kann dabei symmetrisch oder asymmetrisch angelegt sein. Ersteres bedeutet, dass jedes Merkmal die gleiche Anzahl von Ausprägungen besitzt,

3.8 Experiment

157

Letzteres, dass nicht jedes Merkmal die gleiche Anzahl von Ausprägungen besitzt. Mögliche (symmetrische) Pläne sind: •• der vollständige Zufallsplan. Dabei finden Störeinflüsse allenfalls indirekt dadurch Berücksichtigung, dass für die verschiedenen Treatments wiederholte, randomisierte Messungen durchgeführt werden. •• der zufällige Blockplan mit zwei Variablen. Dabei werden Störgrößen zu einem einzigen Block zusammengefasst. Voraussetzung ist dabei, dass die Varianz inner­halb dieser Blöcke geringer ist als zwischen ihnen. Es besteht dabei die Option, alle konkret möglichen Kombinationen zu untersuchen (vollständiges, faktorielles Design) oder sich nur auf diejenigen Kombinationen zu beschränken, die für den Experimentator interessant sind (unvollständiges, fraktionelles Design): •• Das hyperlateinische Quadrat ist eine vollfaktorielle Anordnung, bei der jede Variable genau je einmal in Zeile und Spalte vorkommt. Dies erlaubt die Schätzung aller Haupteffekte der unabhängigen auf die abhängige Variable sowie der Interaktioneffekte zwischen den unabhängigen Variablen, allerdings wird die Versuchsanlage rasch schwer anwendbar. •• Das reduzierte lateinische Quadrat kommt zu übersichtlicheren Ergebnissen, indem in der Matrix jede Variable nur je einmal in Zeile und Spalte vorkommt (teilfaktoriell). Dadurch können jedoch nur die Faktoren-Haupteffekte auf die abhängige Variable geschätzt werden, nicht hingegen die Interaktionseffekte zwischen den unabhängigen Variablen. Insofern besteht die Gefahr, dass gerade nicht untersuchte Kombinationen wichtige Erkenntnisse für Experimentwirkungen haben. Bei drei unabhängigen Variablen (z. B. Betriebsform eines Testgeschäfts, Testzeitraum, Version des Angebotsprogramms) in je drei Ausprägungen auf eine abhängige Variable (z. B. Absatz) entstehen so 9 Zellen. Denkbar ist etwa die Untersuchung der Faktoren Preis, Qualität und Design auf den Absatz eines Produkts. Dazu wird jeder Faktor vierfach variiert, der Preis in niedrig stabil, hoch stabil, fallend oder steigend, die Qualität in unterdurchschnittlich, durchschnittlich, überdurchschnittlich oder luxuriös sowie das Design ist traditionell, reduziert, zeitgemäß oder avantgardistisch. Im vollständigen Design ergeben sich bei drei unabhängigen Variablen mit je vier Ausprägungen auf die abhängige Variable somit 4 × 4 × 4 = 64 Zellen, im unvollständigen Design wird hingegen eine Reduzierung auf 16 Zellen erreicht. Eine Anwendung von Experimenten ergibt sich etwa bei der ökonomischen Werbeerfolgskontrolle im Rahmen von Gebietsverkaufstests. Bekannte Verfahren sind dabei Netapps und Noreen. Netapps (Akronym für Net ad produced purchases) vergleicht den Absatz zwischen einer beworbenen und einer nicht beworbenen Periode in einem Gebiet (informales Experiment), Noreen ist ein Verfahren, das durch Rotation von je vier wechselnden Testgebieten, Werbeprogrammen, Jahres- und Saisonzeiträumen bei, zumindest theoretischer Eliminierung anderer Faktoren, den Werbeerfolg exakt messen will (formales Experiment).

158

3. Methoden der Primärerhebung von Informationen

Abbildung 30: Vollfaktorielles Experimentaldesign

Abbildung 31: Reduziertes Lateinisches Quadrat

Nach der Zielrichtung von Experimenten können verschiedene unterschieden werden. Bei Kausalexperimenten werden die Auswirkungen der kontrollierten Veränderung einer oder mehrerer Einflussgrößen auf eine bekannte Ausgangssituation überprüft. Bei Vergleichsexperimenten werden Aussagen über die Unterschiede zwischen zwei oder mehr Einflussgrößen angestrebt. Bei Suchexperimenten werden neuartige Lösungen für ein bestimmtes Problem gesucht. Bei Messexperimenten werden Informationen über den Zustand von Merkmalen angestrebt. Die häufigste Form der Durchführung im Marketing bezieht sich auf die Messung der Wirkung der Marketinginstrumente. Dies wird Test genannt. Die häufigsten Anwendungen von Tests sind Konzepttests, welche die Überprüfung der

3.8 Experiment

159

Anmutungs- und Verwendungseigenschaften von Produkten mit dem Ziel testen, zu klären, ob die Produktleistung gegenüber Abnehmern bestehen kann, und Kommunikationstests, welche die Werbewirkung von Maßnahmen testen, um ein Werbecontrolling zu ermöglichen.

3.8.4 Testarten Tests können nach verschiedenen Dimensionen unterschieden werden. Nach dem Zeitpunkt relativ zur Marktwirksamwerdung kann es sich um einen Pretest, also vor der Marktpräsenz (z. B. Einsatz einer Werbekampagne) oder um einen Posttest handeln, also nach der Marktpräsenz. Nach der Anzahl der untersuchten Objekte kann es sich um einen Einzeltest (monadisch) mit nur einem einbezogenen Objekt oder um einen Mehrfachtest (komparativ) mit zwei oder mehr einbezogenen Objekten handeln. Eine Gefahr besteht beim Einzeltest darin, dass Probanden das Objekt infolge einer gewissen Voreingenommenheit besser beurteilen als es in Wirklichkeit ist. Bei Mehrfachtests werden daher mehrere Objekte simultan oder alternierend im Vergleich bewertet. Beim Simultantest werden Testobjekte gleichzeitig beurteilt. Beim Paarvergleich werden zwei Testobjekte sukzessiv verglichen, beim Triadenvergleich drei Objekte. Nach dem Umfang der Beurteilung von Objekten handelt es sich um einen Test zur Untersuchung der Gesamtleistung (Volltest) oder einzelner Teilleistungen wie Farbe, Form, Gestaltung etc. (Partialtest). Beim Volltest interessiert die Akzeptanz des gesamten Objekts mit all seinen Elementen. Allerdings besteht dabei das Problem, dass einzelne Elemente einander überstrahlen (z. B. Preis auf Qualität) oder kompensieren. Nach der Art der Versuchspersonen (Probanden) kann es sich um Experten, Zielpersonen, aktuelle Kunden oder Interessenten handeln. Nach der Identifizierbarkeit des untersuchten Objekts handelt es sich um einen Blind-Test, bei dem das Untersuchungsobjekt anonym bleibt, oder um einen Branding-Test, bei dem es als Marke ausgewiesen ist. Blind-Tests werden etwa bei Car clinics durchgeführt, wenn es darum geht, ein neues Automodell durch Zielpersonen beurteilen zu lassen, ohne dass es dabei zu einer Überstrahlung durch dessen Marke kommt. Nach dem Zeitraum handelt es sich um eine Prüfung des Eindrucks als Kurzzeittest oder der Erfahrung als Langzeitttest. Ersterer erfolgt meist im Teststudio, auch mobil, Letzterer meist im Haushalt der Probanden. Beim Haushaltstest erhalten Probanden Testprodukte postalisch oder persönlich zugestellt, die sie dann in gewohnter häuslicher Umgebung nutzen. Die Beteiligungsrate ist meist sehr hoch. Beim Labortest werden Probanden hingegen „gebaggert“ und an den eigentlichen Testort gebracht. Dort erst erfolgt dann die Konfrontation mit dem Testobjekt.

160

3. Methoden der Primärerhebung von Informationen

Nach dem Ergebnis können mehrere Größen unterschieden werden: •• Beim Präferenztest werden Bevorzugungsurteile über Objekte im Vergleich abgegeben, d. h. Probanden geben an, ob, in welchem Maße und aus welchen Gründen sie ein Testobjekt gegenüber Vergleichsobjekten bevorzugen oder auch nicht. •• Beim Deskriptionstest werden Ausprägungen im Vergleich zu einem gedachten Idealobjekt beschrieben, d. h. Probanden geben an, welche Ausprägungen und Intensitäten der Testobjekte sie wahrnehmen, wie wichtig diese ihnen sind und wie sie sich zum gedachten Idealobjekt verhalten. •• Beim Akzeptanztest werden Kaufabsichten abgefragt, d. h. Probanden äußern, ob und inwieweit sie eine Kaufabsicht für das Testobjekt hegen und welchen Preis sie bereit sind, dafür zu zahlen. •• Beim Diskriminationstest werden wahrgenommene Unterschiede zwischen Objekten angegeben, d. h. Probanden teilen mit, ob und welche Unterschiede sie bzgl. der Testobjekte als Ganzes oder in ihren einzelnen Eigenschaften sehen. •• Beim Evaluationstest schließlich werden einzelne oder alle Eigenschaften bewertet, d. h. Probanden geben Noten für Testobjekte in der Summe und hinsichtlich ihrer Dimensionen ab. Nach dem Inhalt kann man Tests von Angebotsidee, wie Name, Packung, Geschmack etc., des Objekts, also Leistung, Funktion, Qualität etc. und der Nachfrage, also Akzeptanz, Preisbereitschaft, Kaufappetenz etc. unterscheiden. Der Test kann durch unabhängige Dritte erfolgen (z. B. Warentest) oder durch das Unternehmen selbst. Nach der Aussage kann man Tests einteilen in Entwurftests, meist komparativ und unternehmensintern, Produkttests, meist monadisch und unternehmensintern, Warentests, meist komparativ und marktöffentlich, sowie Markttests, meist monadisch und marktöffentlich. Der Warentest ist insofern speziell, als er von neutralen Einrichtungen getragen wird. Er findet nur nach der Markteinführung eines Produkts statt und will objektiv erkennbare Eigenschaften feststellen wie Gebrauchseignung, Grundnutzen, Preiswürdigkeit, Sicherheit etc. Warentestergebnisse werden publiziert, sie sollen Markttransparenz herstellen bzw. erhöhen und Verbraucher schützen. Nach dem Versuchsablauf unterscheidet man Eliminationsverfahren und Substitutionsverfahren. Bei Eliminationsverfahren wird ein Testobjekt sukzessiv anonymisiert, bis im Blind-Test ein Element zu beurteilen ist, ohne einen Hinweis auf Marke und / oder Hersteller zu geben. Beim Substitutionsverfahren wird die Anzahl der Elemente nicht verringert, sondern gegeneinander ausgetauscht. Das jeweils interessierende Element wird den Probanden in mehreren Versionen zur Begutachtung vorgebracht. Durch die Kombination dieser Testarten kann das jeweils zweckmäßigste Test­ design gestaltet werden, um im Einzelfall den höchsten Erklärungsbeitrag zu ­leisten.

3.9 Online-Erhebung

161

3.9 Online-Erhebung Alle genannten Erhebungsverfahren finden nicht nur in der realen Welt, sondern auch virtuell statt. Insofern ergeben sich verschiedene Möglichkeiten von OnlineErhebungen.

3.9.1 Einordnung Bei der Online-Primärforschung werden die zur jeweiligen Problemstellung erforderlichen Informationen unmittelbar von den Probanden durch Befragung oder Beobachtung erhoben. Zur Befragung werden Internet-Dienste eingesetzt (Internet als Erhebungsmethode der Marktforschung). Die Beobachtung erfolgt durch Speicherung und Auswertung des Online-Nutzungsverlaufs (Internet als Gegen­ stand der Marktforschung) Die Bedeutung von Online-Medien wächst in allen Wirtschaftsbereichen, getrieben durch das Zusammenwachsen von Telekommunikation (Netzbetreiber, Vermittlungstechnik, Internet etc.), Informationstechnik (Hardware, Endgeräte, Server etc.), Medien (TV, Film, Audio etc.) und Elektronik (Speicher, Bildschirme, Laufwerke etc.) zum TIME-Sektor. Dadurch verschmelzen Inhalte, Packaging, Übertragung, Navigation, Mehrwertdienste (VAS), Endgeräte etc. in der Wertschöpfungskette. Das Internet als Trägermedium bedarf daher der marktforscherischen Durchdringung. Das Internet basiert auf unterschiedlichen Protokollen. Die wichtigsten sind das http-Protokoll für das World Wide Web (WWW) (mit Erweiterungen im XMLStandard), das smtp-Protokoll für e-Mails (gemeinsam mit POP, IMAP oder MIME-Protokoll), das IRC-Protokoll für Realtime-Diskussionen und das nntpProtokoll für Foren-/Newsgroup-Befragungen. Diese Einteilung bietet sich für die Erfassung von Online-Erhebungen an. Eine andere Unterteilung geht vom bidirektionalen Web 1.0 aus, das primär kommerziell ausgelegt ist (nur top down oder bottom up, d. h. der Nutzer reagiert auf ein Anbieterangebot und kann es nur für sich beeinflussen) sowie vom multidirektionalen Web 2.0, das sozial ausgerichtet ist (i. S. v. Kommunikation innerhalb der Nutzerebene, d. h. der Nutzer beeinflusst das Angebot für Alle und generiert dieses auch / UGC statt vorgegebenem Content). Gerade dieses bietet tiefe Einblicke für die Marktforschung. Prinzipien sind vor allem die Nutzbarmachung kollektiver Intelligenz, nutzergenerierte Inhalte und Werte, die Abschaffung des Software-Lebenszyklus, leichtgewichtige Programmiermodule, Cross over-Anwendungen bei Endgeräten, intuitive Nutzerführung etc. Im Web 1.0 werden verschiedene Dienste eingesetzt, die Gegenstand der Marktforschung sind:

162

3. Methoden der Primärerhebung von Informationen

•• e-Mail nutzt verschiedene Protokolle wie SMTP (Simple mail transfer protocol), POP3 (Post office protocol), IMAP (Internet message access protocol) und MIME (Multipurpose internet mail extensions) zur Übertragung von elektronischer Post. e-Mail ist einer der ältesten Internet-Dienste und gehört nach wie vor zu den meistgenutzten. •• WWW (World Wide Web) nutzt die Protokolle HTTP (Hypertext transfer protocol) und für gesicherte Verbindungen HTTPS (Hypertext transfer protocol ­securer) zur Übertragung von Websites. Durch Web-Browsers werden die Webseiten grafisch am Bildschirm dargestellt. •• Usenet nutzt das NNTP-Protokoll (Network news protocol) zum Transport von Newsgroup-Nachrichten. In solchen öffentlichen Diskussionsforen kommunizieren Internetnutzer asynchron, also zeitversetzt, über beliebige Themen. Zur Beteiligung werden teilweise News clients genutzt, die in vielen e-Mail-Programmen oder Internet browsers bereits eingebaut sind. •• IRC (Internet relay chat) nutzt das Protokoll, um zeitsynchrone, also realtime, Diskussionsgruppen im Internet zu ermöglichen. Solche Diskussion finden meist in Chat rooms und unter Pseudonymen (Nicknames) statt. Teilweise laufen die Chats auch WWW-basiert. •• Instant messaging (IM) sind Dienste (z. B. ICQ), die eine direkte, zeitsynchrone und schriftliche Kommunikation zwischen Nutzern erlauben. Über verschiedene proprietäre Protokolle können Kurznachrichten sofort zwischen Usern übermittelt werden. Je nach System ist auch eine Übertragung von Dateien oder Streams (Audio / Video) möglich. Voraussetzung ist, dass die Partner zeitgleich aktiv sind und eine direkte Verbindung miteinander anstreben. Der Empfänger einer Textnachricht kann darauf direkt reagieren. •• Voice over-IP ist ein Dienst (z. B. Skype) zum Telefonieren über das Internet, teilweise mit eigenen Protokollen. Zur Kommunikation werden neben der Software auch Hardware-Komponenten wie Mikro, Lautsprecher, Headset o. Ä. benötigt. •• Peer to peer-Systeme erlauben den direkten Austausch von Dateien zwischen Nutzern, die Rechner sind dabei gleichzeitig Client und Server. Beispiele sind die Dienste File transfer protocol (FTP) für die Übertragung großer Daten­ mengen, Telnet für die Emulation von Terminals zur Fernbedienung oder Filesharing in Intra-/Extranets (Geschlossene Benutzer-Gruppen). Das Web 2.0 nutzt hingegen diverse Social media (s. u.) Das Internet arbeitet nach dem Client-Server-Prinzip, d. h. Daten sind auf Servers hinterlegt und können von Nutzern dort abgerufen oder hochgeladen werden. Die Übertragung (Routing) funktioniert paketorientiert über unterschiedliche Übertragungswege (Gateways) nach dem Internet Protocol (IP). Das Transmission control protocol (TCP) identifiziert die eineindeutige Adresse (dargestellt durch

3.9 Online-Erhebung

163

vier Zahlengruppen). Diese Adresse ist die Domain, bestehend aus Name, Pfad und Endung (tld). Der Traffic wird durch Online-Dienste oder Service provider organisiert. Die Verbindung ist immer virtuell. Die Online-Sekundärforschung beschafft und analysiert Informationen aus zu anderen Problemstellungen bereits vorhandenen Daten. Hier eignet sich die Recherchequalität des Internet hervorragend zum Einsatz. Um die Teilnahme an Online-Primärerhebungen zu steigern, werden Anreize eingesetzt. Diese bestehen aus Software, Geschenken, Geldbeträgen oder Informationen, die von der Erhebungsperson auch im Wege der Selbstselektion ausgewählt und abgerufen werden können. Die Online-Primärforschung beschafft und analysiert originär für einen Untersuchungszweck erhobene Daten, typischerweise in Stichproben.

Abbildung 32: Online-Erhebungsformen

3.9.2 Online-Auswahlverfahren Vor Anwendung der Erhebungsmethoden stellt sich auch im Online-Bereich das Problem der Probandenauswahl. Denkbar sind dafür mehrere Formen. Eine ungezielte Ansprache im WWW erfolgt auf folgenden Wegen: •• Intercept-Auswahl (n-th-viz). Der Online-Nutzungsvorgang wird hierbei durch Aufforderung zur Teilnahme an einer Erhebung, meist durch Öffnen eines neuen Browserfensters, unterbrochen. Die Aufforderung erscheint bei jedem n-ten Nutzer, analog zur Zufallsauswahl. Damit sind statistische Auswertungen möglich, ebenso wie der Ausweis der Ausschöpfungsquote. Allerdings sind systematische Abweichungen zwischen Teilnehmern und Nicht-Teilneh-

164

3. Methoden der Primärerhebung von Informationen

mern zu vermuten, ebenso ist die Grundgesamtheit auf die Nutzer der Trägerseite begrenzt, sodass auch nur für diese eine Aussage getroffen werden kann. Zudem verhindern Browser häufig das Öffnen neuer Fenster (Pop up-Blocker). Dadurch kann nicht ausgewiesen werden, ob ein Nutzer wissentlich die Beteiligung verweigert oder erst gar keine Chance hatte, in die Stichprobe einzugehen. •• Banner-Auswahl. Innerhalb mehrerer Internetseiten ist jeweils ein Banner fest integriert, durch einen Klick gelangt man in die Erhebungsauswahl. Soll nur eine bestimmte Zielgruppe erhoben werden, wird der Banner nur in eine für diese affine Seite integriert. Hier entscheidet der potenzielle Proband über die Teilnahme, es liegt also keine Zufallsauswahl mehr zugrunde, mathematischstatistische Berechnungen sind auf dieser Basis daher nicht möglich. •• Internetforen-Auswahl. Dies sind Diskussionsplattformen im WWW, die nach Themen gruppiert sind. Auf der Startseite eines themenadäquaten Internetforums kann ein Link zur Startseite der Erhebung integriert werden, ohne den Dienst verlassen zu müssen. Damit ist eine recht zielgenaue Adressierung möglich. Allerdings besteht keine klare Abgrenzung der Grundgesamtheit, denn die Gesamtheit der Forums-Nutzer ist unbekannt. Die ungezielte Ansprache in anderen Online-Medien vollzieht sich wie folgt: •• Newsgroup-Auswahl. Dies ist eine offene Gruppe mit e-Mail-Registrierung der Teilnehmer. Dort kann eine Aufforderung zur Teilnahme an einer Erhebung mittels eines Link platziert (gepostet) werden. Auch hier ist die Abgrenzung der Grundgesamtheit unmöglich, die Teilnehmer selektieren sich selbst. Die breite Streuung von Postings verstößt zudem gegen die Netiquette, der gezielte Versand in themenspezifische Newsgroups kann jedoch erfolgversprechend sein. •• Bulk-e-Mail-Auswahl. Zwar besteht kein zentrales Register aller e-Mail-Nutzer, jedoch kann man e-Mail-Adressen von Informationsbrokern kaufen (häufig von aufgelösten Net-Unternehmen). Denkbar, wenngleich hoch problematisch, ist die zufallsgenerierte Kombination von Buchstaben / Wörtern und Domains, in der Hoffnung, damit tatsächlich existierende Adressen zu treffen. Denn dies erfüllt den Tatbestand des Spamming, das nicht nur gegen die Netiquette, sondern auch gegen das Gesetz verstößt. Das Ergebnis ist zudem notleidend, weil keine ausreichende Abgrenzung der Grundgesamtheit möglich ist und die Responsequote sehr gering sein dürfte. •• Suchmaschinen-Auswahl. Hierzu erfolgt der Eintrag der Startseite einer Erhebung in möglichst vielen Suchmaschinen. Die Teilnehmer rekrutieren sich dann im Wege der Selbstselektion, denn diese Seiten sind nur relevant für Nutzer, welche die Absicht haben, an einer Erhebung teilzunehmen. Dies bürgt allerdings geradezu für Verzerrungen. Möglich ist auch eine Offline-Rekrutierung von Probanden, etwa bei Online ­access-Panels. Hierbei werden Teilnehmer an einem Panel durch traditionelle For-

3.9 Online-Erhebung

165

men der Marktforschung zur wiederholten Teilnahme zum selben Thema in regelmäßigen Abständen rekrutiert. Dadurch kann eine höhere Teilnahmebereitschaft, eine schnellere Durchführung und eine kostengünstigere Erhebung erwartet werden. Unerkannte Mehrfachteilnahmen und Täuschungen über die Soziodemo­ graphie sind durch Panelpflege vermeidbar. Allerdings dürften sich Verhalten und Einstellung der Teilnehmer im Zeitablauf verändern. Auch entsteht eine Panel-Ermüdung, der durch Incentives entgegengewirkt werden kann. Bei den jeweiligen Formen ergeben sich relevante Stichprobenprobleme wie folgt: •• Die Definition der Grundgesamtheit ist generell problematisch (es gibt kein Verzeichnis aller e-Mail- oder WWW-Anschlüsse), die Gesamtheit aller Personen mit Online-Zugang ist unbekannt und nicht abgrenzbar. •• Eine Coverage-Problematik besteht, da nicht alle Personen / Haushalte über Internet-Anschlüsse verfügen und personenbezogene Daten gefälscht sein ­ ­können. •• Sampling-Fehler sind unvermeidlich, da die Verteilung der interessierenden Werte in der Grundgesamtheit unbekannt ist, daher kann nicht mit Bewusstauswahlverfahren gearbeitet werden. •• Es besteht ein Selbstselektionsproblem, (passive Auswahl), deshalb kann nicht von der Stichprobe auf die Grundgesamtheit geschlossen werden, weil sie atypisch für diese ist oder sein kann (Motivation, Kontaktchance, Heavy user, Interessenten etc.). •• Entstehende systematische Verzerrungen bleiben unerkannt, da die Ausfallquote nicht ausgewiesen werden kann. •• Mehrfachteilnahmen der selben Probanden sind durch dynamische IP-Adressen und Blockung von Cookies oder mehrere URL’s kaum nachvollziehbar, dadurch kommt es zu Verzerrungen (Overcoverage, etwa durch Incentive-Jäger), auch wird die Ausfallquote verzerrt, wenn ein Proband, der bereits teilgenommen hat, bei weiteren Ansprachen nicht mehr teilnimmt. •• Die tatsächliche Teilnehmerschaft bleibt durch Falschangaben, die nicht überprüft werden können (Anonymität des Internet) mehr oder minder unbekannt. Dadurch bestehen nicht-kontrollierbare Störeinflüsse wie Ungewissheit über die Personenidentität von angemeldeter und tatsächlich teilnehmender Person bei einer Erhebung. •• Verzerrungen durch abweichende Nutzungsintensität des Internet (Auswahl mit ungleichen Wahrscheinlichkeiten) sind unvermeidlich, dadurch werden Nerds / Digital natives bevorzugt, die aber untypisch für die interessierende Grundgesamtheit sein dürften. Es kann versucht werden, die genannten Verzerrungen auf mehrerlei Art zu verringern, und zwar durch

166

3. Methoden der Primärerhebung von Informationen

•• Prä-Gewichtung bei Quota-Auswahl, dies setzt allerdings eine Kenntnis über die Verteilung interessierender Merkmale in der Grundgesamtheit voraus, die meist gerade nicht gegeben ist, •• Post-Gewichtung, hier erfolgt ein Redressement der unter- bzw. übergewichteten Merkmale der tatsächlichen Stichprobe im Vergleich zu den quotierten Merkmalen, die Merkmale werden herunter- oder hochgewichtet, dadurch kommt es aber zu erheblichen Verzerrungen, •• aktive Ansprache von Teilnehmern, dadurch wird zwar die Selbstselektion vermieden, dafür sind Auswahlwahrscheinlichkeiten nicht mehr berechenbar, •• Rekrutierung über Offline-Medien im Wege herkömmlicher Auswahlverfahren, dann findet lediglich die Erhebung online statt, nicht aber mehr die Stichprobenziehung. Vor allem das Problem der Mehrfachteilnahne kann angegangen werden, indem Cookies gesetzt werden, allerdings setzt dies eine entsprechende Browsereinstellung voraus. Denkbar ist auch die Überprüfung der IP-Adresse, wodurch allerdings lediglich der Computer identifiziert wird, nicht jedoch der Nutzer selbst. Zudem entstehen Probleme bei dynamischen IP-Adressen oder Firewall-Rechnern. Lediglich die aktive Teilnehmerrekrutierung kann eine Lösung zum Ausgleich unterrepräsentierter Zielgruppen bieten. Ebenso kann das Problem der mangelnden Identifizierung von Probanden nur durch Verifizierung einer angegebenen Adresse (Mixed mode) oder ein paralleles Telefoninterview gelöst werden. Ein indirekter Abgleich mit der Nutzungsinten­ sität des Internet ist möglich, durch Plausibilitätskontrollen auch ein Auffinden von Falscheingaben.

3.9.3 Online-Befragung Das Computer assisted web interviewing (CAWI) ist die neue Form der Er­ hebung im Internet als Online-Befragung. Für CAWI sprechen eine Reihe von Vorteilen, so der Zeitvorteil, die erhöhte Datenqualität, weil Interviewereinflüsse fehlen, erweiterte Abfragemöglichkeiten durch Filterführung, die Bild- oder Tonvorgabe und Plausibilitätsprüfung, die zeit- und raumunabhängige Befragungsmöglichkeit. Dem stehen Nachteile wie die Beschränkung auf bestimmte Zielpersonen, die dem Leseverhalten am Bildschirm notwendigerweise angepasste Fragestellung und erhöhter Programmieraufwand gegenüber.

3.9 Online-Erhebung

167

3.9.3.1 WWW-Befragung Die Online-Befragung erfolgt als WWW-, e-Mail-, Newsgroup- oder IRC-Befragung. Zur Durchführung von WWW-Befragungen (Online-Befragung i. e. S.) können aufgrund der HTML-Struktur der WWW-Dokumente Formularfelder mit automatischem Versand an eine vorgegebene Adresse (z. B. Rogator) eingeführt werden. Allerdings müssen die vorgesehenen Teilnehmer infolge des Pull-Charakters des WWW selbst auf das Befragungsangebot zugreifen. Daher ist zweierlei zu leisten, erstens der Kontakt zur entsprechenden Website und zweitens die Ausfüllung des Fragebogens. Ersteres wird durch Bekanntmachung der Befragung über verschiedene Internet-Dienste und Werbemittel im WWW erreicht. Hinzu kann die Bekanntmachung auch in klassischen (Offline-)Medien treten. Für Letzteres werden alle Besucher einer Homepage gebeten, den Fragebogen zu bearbeiten. Dies ist meist verbunden mit einer Registrierung der Besucher, die dazu persönliche Informationen abgeben. Durch Anklicken eines Buttons gelangt der Besucher dann auf die Fragebogen-Seite. Denkbar ist auch, jeden n-ten Be­ sucher einer Website automatisch auf die Fragebogen-Seite umzuleiten. Damit ist dann zugleich ein (auf den Nutzerkreis begrenztes) Zufallsauswahlverfahren realisiert. Allerdings ist die Akzeptanz dieses Vorgehens fraglich. Der WWW-Fragebogen selbst ist ein HTML-Formulardokument zum Eintrag von Antworten durch den Befragten. Dabei kann es sich um Texteingaben handeln, um das Anklicken eines von mehreren Auswahlbuttons (z. B. runde Radiobutton) oder mehr als eines von mehreren Ausführungsbuttons (z. B. eckige Check­ buttons). In Listenfeldern können Fragekategorien vorgewählt werden. Mit dem Ausführungsbutton wird entweder eine Eingabebox gelöscht, die Bearbeitung abgebrochen oder durch Versand an den Veranstalter planmäßig beendet. Mit Skript-Programmen im Hintergrund können zugleich eingegebene Werte auf ihre Plausibilität und Vollständigkeit hin geprüft werden. Wichtig ist, dass der Fragebogen auf allen gängigen Web-Browsern richtig dargestellt und ausgeführt wird. Multimedia-Elemente sollten im Sinne kurzer Ladezeiten zurückhaltend eingesetzt werden. Die WWW-Befragung erlaubt eine einfache Durchführung und rasche Auswertung der Ergebnisse. Die Darstellungsmöglichkeiten sind durch Einbindung von Grafiken, Audio- und Videosequenzen vorteilhaft. Durch das Medium Internet werden die Kosten des Interviewereinsatzes sowie die Kosten für den Fragebogendruck erspart. Zudem entsteht kein Interviewereinfluss, sodass auch sensible Themen abfragbar sind. Die Befragung kann vollstandardisiert stattfinden, die Filtersteuerung erfolgt automatisch. Und die Ergebnisse sind schnell auswertbar. Allerdings müssen die prospektiven Teilnehmer den Fragebogen aus eigener Initiative suchen und finden (Selbstselektion). Zudem kann jeder Teilnehmer

168

3. Methoden der Primärerhebung von Informationen

beliebig häufig an einer Befragung teilnehmen (Multi site entry) und somit deren Ergebnis verzerren. Die Objektivität der Ergebnisse bleibt fraglich aufgrund unterschiedlicher Darstellungen durch Betriebssystemunterschiede, verschiedene Browser, abweichende Grundeinstellungen im Browser. Auch führt die Komplexität eines Fragebogens bei geringer Involvierung leicht zur Überforderung, Verständnisprobleme sind zudem nicht erkennbar. Die Realibilität bleibt ebenso fraglich durch mögliche Anwesenheit Dritter beim Ausfüllen des WWW-Fragebogens, durch Bedienprobleme beim Ausfüllen und durch fehlende Werte infolge Abbruchs der Befragung (hier wirkt auch ein Oversampling nicht ausgleichend). Auch die Validität der Ergebnisse bleibt fragwürdig wegen Willkürantworten infolge Anonymität des Mediums. Die Teilnahmequote ist gering und es besteht keine Identifizierungsmöglichkeit der Teilnehmer. Einen Sonderfall der WWW-Befragung stellt der WWW-Opinion poll dar. Dabei werden eine oder wenige Fragen an zufällig ausgewählte bzw. jeden Nutzer über Bildschirmbuttons gestellt. Allerdings ist die Teilnahmebereitschaft sehr ­gering. In der Würdigung ist zu vermuten, dass WWW-Befragungen im Common interest-Bereich noch auf Jahre hinaus nicht tragfähig sein werden (Bias zu besser­ gebildeten, großstädtischen, jungen Männern). Anders sieht dies im Special interest-Bereich aus, hier ist bereits heute eine hohe Praktikabilität gegeben. Allgemein ist für die Anlage des Online-Fragebogens zu berücksichtigen, dass keine Spontanreaktionen erhebbar sind. Auch sprachliche Unklarheiten können nicht geklärt werden. Evtl. ist eine Übersetzung ins Englische (Lingua franca des Internet) erforderlich. Bei langen Fragebögen kann es zu vorzeitigem Teilnahmeabbruch kommen. Eingebundene Audio- und Videodateien motivieren zwar die Teilnehmer, erhöhen aber gleichzeitig das Datentransportvolumen. Unbedingt sind die unterschiedlichen Bildschirmdarstellungen verschiedener Browser/-genera­ tionen auszutesten. Benutzerhilfen sollten bei Unklarheiten eingeblendet werden (Moderator-Fenster). Bei komplizierten Abläufen ist die automatische Filterführung sehr hilfreich. Individuelle Fragebögen können zwischenzeitlich mit ent­ sprechender Software vom Veranstalter selbst entwickelt werden. Problematisch ist generell, dass die Identität der Teilnehmer meist unklar bleibt. Web-Befragungen führen allgemein zu hoher subjektiv wahrgenommener Anonymität und geringer sozialer Präsenz. Folglich sind Kontexthinweise reduziert. Es entsteht eine erhöhte Selbstaufmerksamkeit bei gleichzeitig verminderter öffentlicher Aufmerksamkeit. Diese Ego-Zentrierung führt zu verringerter Sorge um soziale Bewertungen (geringe soziale Orientierung), damit zu einer geringen Bindung an soziale Normen und erhöhter Selbstenthemmung (anti-normatives Verhalten). Zugleich entstehen geringe Effekte der sozialen Erwünschtheit und Effekte der Überbetonung individueller Aspekte.

3.9 Online-Erhebung

169

3.9.3.2 e-Mail-Befragung e-Mail-Befragungen (Electronic mail surveys) sind schnell und kostengünstig durchführbar. Sie setzen zur Anlage keine Programmierkenntnisse voraus. Die Erhebung ist zeit- und ortsungebunden möglich. Allerdings sind die Gestaltungs- und Formatierungsmöglichkeiten begrenzt. So können mutmaßlich nur einfache Sachverhalte abgefragt werden. Insgesamt ist eine eher geringe Antwortbereitschaft anzunehmen. Zur Anlage der Befragung ist es wichtig zu wissen, dass jede e-Mail-Nachricht aus zwei Komponenten besteht, den Header-Anweisungen über den rein technischen Transport der Nachricht (Empfängeradresse, Kopie-Adressen, Absenderadresse, Betreffzeile etc.) und der eigentlichen, textbasierten Nachricht. MailingListen können realisiert werden, indem Teilnehmer, die sich über ein bestimmtes Thema informiert halten wollen, diese Mailing-Liste abonnieren. Nachrichten an die Mailing-Liste werden automatisch, umgehend, kostengünstig und einfach an alle Abonnenten distribuiert. Im Unterschied zum WWW (über Internet-Provider) ist der e-Mail-Dienst jedem Internet-Nutzer zugänglich. Damit e-Mail-Nachrichten nicht von ungebetenen Dritten gelesen oder verfälscht werden, werden sie meist vor Versand verschlüsselt. Um sich vor ungebetenem e-Mail-Versand (Spamming) zu schützen, filtern viele Postprogramme die eingehenden Nachrichten nach vorgegebenen Kriterien und blenden diese ggfs. (z. B. zum Schutz vor Viren) ungelesen aus. Dies betrifft regelmäßig auch Frage­ bögen. Daher sollten e-Mail-Befragungen immer angekündigt werden, indem mindestens über das Befragungsziel, die Dateigröße und den Veranstalter informiert wird, und durch eine aussagefähige Betreffzeile kenntlich gemacht werden. Wichtig ist, die Nachricht kurz zu halten und die einwandfreie Darstellung auf verschiedenen e-Mail-Client-Programmen zu sichern. Als Adressaten kommen vor allem Kunden und Interessenten in Betracht. Der eigentliche Fragebogen wird meist als Anhang im HTML-Format versandt. Die Beantwortung ist sowohl im Medium, also durch Ausfüllen des Fragebogens und Rücksendung an den Absender oder eine andere vordefinierte Adresse, als auch unter Medienwechsel, also per Post oder Fax möglich. Der Fragebogen ist so kurz wie möglich zu halten. Zwischenräume für Antworten sind zwar unerlässlich, erhöhen aber das Datenvolumen. Eine e-Mail-Mitteilung sollte nicht mehr als 65 Zeichen pro Zeile enthalten und keine Tabstops vorsehen, da diese nicht von allen Betriebssystemen einheitlich gelesen werden. Hilfreich ist die Anführung eines Beispiels für die e-Mail-Beantwortung. Im Header ist die Adresse des Forschers anzugeben. Die Anony­mität beim Versand kann zugesichert werden, indem die Adresse im Blind copy-Feld eingetragen wird. Evtl. kann auch ein Anonymisierungsservice zwischengeschaltet werden. Durch Filtereinsatz wird der Eingang der Antwort entsprechend dem Inhalt gleich im richtigen e-Mail-Ordner abgespeichert.

170

3. Methoden der Primärerhebung von Informationen

Für die Durchführung einer e-Mail-Befragung sind einige Anregungen hilfreich. Die Probanden sollen individuell eingeladen werden, der Forscher und das Projekt müssen dabei authentisch vorgestellt werden. Die Anfrage soll kurz und sachlich formuliert sein, das Angebot von Incentives ist durchaus möglich, ebenso wie Motivation (kein Wissen erforderlich, keine falschen Antworten möglich, Schreibfehler sind egal etc.). Anonymität kann zugesichert werden. Der genaue Umgang mit dem Fragebogen ist zu erläutern und der Einsatz von Emoticons anzuregen. Deutlich ist das Timing bekannt zu machen. Sinnvollerweise prüft man das Design zunächst in einem Pretest, evtl. kann im Roll out eine Hotline-Nummer für Support angegeben werden. Die Frageformulierungen sind eineindeutig zu fassen, auf einen abwechslungsreichen, knappen Aufbau des Fragebogens ist zu achten. Nicht antwortende Teilnehmer können erinnert werden, evtl. wird eine Reserve für ausfallende Probanden gefahren, um die Fallzahl zu sichern. E-Mail-Befragungen bieten folgende Vorteile: •• Sie haben in spezifischen Zielgruppen eine höhere Akzeptanz und Teilnahmebereitschaft als vergleichsweise traditionelle Befragungen. •• Räumliche Restriktionen für die Durchführbarkeit bestehen nicht, so kann auch eine größere Raumdistanz zum Interviewer bestehen. •• Die Anonymität der Probanden bewirkt aussagefähigere Antworten. Vor allem entfällt der Interviewer-Bias. •• Probanden und Unternehmen sind zeitlich voneinander weitgehend unabhängig. •• Eine Auswertung der Ergebnisse ist laufend während und unmittelbar nach Ende jeder Befragung möglich. •• Online-Fragebögen können mittels multimedialer und interaktiver Darstellungen adäquat gestaltet werden. •• Erfassungs- und Übertragungsfehler werden erkannt und können korrigiert werden. •• Das Fragebogendesign ist teilautomatisierbar und damit kosteneffizient. •• Druck und Versand von Fragebögen entfallen, auch dies dient der Kosteneffizienz. •• Es können auch Personen erreicht werden, die sehr speziellen Zielgruppen angehören oder für ein persönliches bzw. telefonisches Interview nicht oder nur schwer zu gewinnen sind, wohl aber für eine Online-Befragung. •• Es besteht die Möglichkeit, Personen zu erreichen, die sich besser schriftlich als mündlich ausdrücken oder sich nicht in einer bestimmten Sprache artikulieren können. •• Antwortlatenzen erlauben auch die Befragung bildungsferner Probanden, die mehr Zeit zum Nachdenken und zur Formulierung der Antwort benötigen (und in einer synchronen Situation rasch überfordert sind).

3.9 Online-Erhebung

171

•• Teilnehmer können durch die asychrone Kommunikation an einem ihnen vertrauten Ort am Interview partizipieren und einen individuellen Zeitpunkt zur Beantwortung selbst wählen. •• Infolge der Anonymität sind offenere, ehrlichere Antworten zu erwarten. •• Bei Störungen kann das Interview jederzeit unterbrochen und später wieder fortgesetzt werden. •• Es gibt keinen Interviewerbias durch Körpersprache, Aussehen, Kleidung, Auftreten, Stimmlage etc. •• e-Mails sind leicht in der Handhabung, sowohl für den Forscher wie auch für den Adressaten. Dagegen stehen folgende Nachteile: •• Die gefühlte Anonymität ist gering. Der Einsatz setzt Kontaktdaten potenzieller Probanden voraus. Dabei entstehen hohe Streuverluste. •• Die Befragung erfordert den Opt-in der Teilnehmer, wodurch der Probandenkreis eingeschränkt bleibt. •• Die tatsächlichen Teilnehmer sind nicht eindeutig identifizierbar, dies beeinträchtigt die Aussagefähigkeit der Ergebnisse sehr stark, Gleiches gilt für Umfeldeinflüsse. •• Probanden können mehrfach an einer Befragung teilnehmen und dadurch deren Ergebnisse verzerren. Dies zu identifizieren ist technisch sehr aufwändig. •• Die Repräsentativität der Teilnehmer ist fraglich (dieses Problem kann allerdings durch eine Gewichtung der Teilnehmer analog zur Struktur der infrage stehenden Grundgesamtheit zumindest abgeschwächt werden). •• Die Selbstselektion der Teilnehmer führt zu systematischen Verzerrungen der Stichprobe gegenüber der Grundgesamtheit. •• Der Teilnehmerkreis ist de facto auf solche Personen begrenzt, die Zugang zum Computer haben und mit e-Mail vertraut sind, dies dürfte aber immer verbreiteter werden. •• Es können keine spontanen Reaktionen erhoben werden. •• Teilnehmer sind nicht adressierbar, weil Einladungen gelöscht werden, die e-Mail-Adresse sich geändert hat (Hard bounce), das Postfach voll ist (Soft bounce) oder der Spamfilter scharf eingestellt ist. •• Die Bearbeitung von Nachfragen ist relativ aufwändig, weil e-Mails sperrig zu handeln sind, ebenso ist die Aggregation der Ergebnisse aufwändig. •• Non-verbale Informationen können nicht erfasst werden.

172

3. Methoden der Primärerhebung von Informationen

•• Die Ergebnisse sind mehrdeutig, z. B. kann eine offengelassene Frage bedeuten, dass der Proband keine Zeit zur Antwort hatte, dass er die Antwort verweigert, dass technische Probleme bei der Eingabe aufgetreten sind, dass die Frage nicht verstanden worden ist, dass der Proband keine Meinung dazu hat etc. (Abhilfe können hier Emoticons schaffen). •• Die Einbindung von Grafik ist problematisch, da die korrekte Darstellung nicht bei jedem Empfänger gesichert ist. •• Bei offenen Fragen können abschweifende Antworten auftreten. 3.9.3.3 Newsgroup-Befragung Newsgroup-Befragungen nutzen Diskussionsforen, in die eingetragene Teilnehmer für alle sichtbar mittels eines Newsreader Nachrichten eingeben, auf die alle anderen Teilnehmer, wiederum für alle sichtbar, oder auch verdeckt, reagieren können (Prinzip des Schwarzen Bretts). Newsgroups sind nach Themengebieten und Regionen in Untergruppen aufgeteilt. Die Software ist in aktuellen BrowserGenerationen bereits integriert (Newsgroups eignen sich auch sehr gut zur Sekundärforschung). Zweckmäßigerweise registriert man über einen längeren Zeitraum die Umgangsformen und Interessen der Teilnehmer einer bestimmten Newsgroup. Der Fragebogen wird dann mit einem aussagefähigen Titel, einer ansprechenden Gestaltung und der Aufforderung zur Beantwortung versehen an eine oder mehrere Newsgroups versandt. Zu beachten ist, dass die Nachrichten vom News-Server in regelmäßigen kurzen Abständen gelöscht werden, sodass für eine längerlaufende Befragung erneute Versendungen erforderlich sind. Auch ist die regionale / nationale Verbreitung der jeweiligen Newsgroup zu beachten. Es dürfen nicht zu viele Newsgroups adressiert werden, da Überwachungs-Software ein unkontrolliertes Crossposting unterbindet. Newsgroups ähneln marktforscherisch den traditionellen Gruppendiskussionen, finden aber nicht „realtime“ statt. Die Befragung kann statt in der Newsgroup selbst auch durch Einladung zur Befragung auf einem anderen Weg (e-Mail, WWW, Schneckenpost) erfolgen. Zur Verwendung im Usenet muss der Fragebogen selbst im ASCII-Code (ohne Sonderzeichen) erstellt sein. Auch ist auf die Einhaltung der maximalen Zeilenbreite zu achten (da es sonst zu ungewollten Zeilenumbrüchen kommt). Der Fragebogen sollte wiederum so kurz wie möglich gehalten sein. Durch die Einteilung der Newsgroups lassen sich spezielle Personengruppen zielgenau ansteuern. Zum jeweiligen Thema ist zudem ein hohes Interesse und damit eine hohe Antwortbereitschaft vorauszusetzen. Allerdings arbeitet das Usenet textorientiert. Zudem besteht keine Möglichkeit, Antwortverweigerer zu erfassen. Hilfreich ist eine aussagefähige Überschrift für das Befragungsprojekt, außerdem Angaben zum Namen des Untersuchungsleiters, Sinn und Zweck der Unter-

3.9 Online-Erhebung

173

suchung, Fragebogenlänge (in Min.), Zusicherung der Anonymität und Ergebnisfeedback. Wichtig ist auch die Einhaltung der Netiquette. Vorteile der Newsgroup-Befragung sind vor allem folgende: •• Internet-Dienste wie VoIP-Telefonie und IP-Videoconferencing ermöglichen die Diskussion mittels Text-Chat, Sprach- und Bewegtbildkommunikation. •• Wird Sprach- und Bewegtbildkommunikation eingesetzt, herrschen nahezu die gleichen Ausgangsbedingungen wie bei klassischen Gruppendiskussionen. •• Marktforscher sowie Diskussionsteilnehmer sparen nicht nur Zeit, sondern auch Geld (Fahrtkosten, Catering etc.). •• Die Diskussionsteilnehmer sind örtlich ungebunden und zeitlich flexibel. Auch räumlich weit entfernt liegende Teilnehmer können technisch kostengünstig zusammengeführt werden. Auch viel beschäftigte und ansonsten schwer erreichbare Teilnehmer sind einbindbar. •• Die Anonymität, die durch physische Abwesenheit der Diskussionsteilnehmer sowie durch die Verwendung von Spitznamen gegeben ist, wirkt sich in der Regel positiv auf den Diskussionsverlauf aus, da die Teilnehmer nicht mehr direkt angreifbar sind, wie dies bei der klassischen Gruppendiskussion der Fall ist. •• Online sind bestimmte Zielgruppen erreichbar, die mit konventionellen Methoden nicht so leicht zu erfassen sind. Ein Extrembeispiel stellt die Befragung von Hackern dar. Gruppen wie diese fühlen sich durch diese Methode geschützt und geben somit Auskünfte, die sie sonst so nicht geben würden. •• Effekte der sozialen Erwünschtheit sinken. Denn Teilnehmer geben durch die verfahrensbedingte Anonymität nicht mehr Antworten, von denen sie glauben, dass der Interviewer oder Andere sie hören wollen. Unterschiede hinsichtlich Erscheinungsbild und / oder sozialem Status der Teilnehmer werden nivelliert. Dies fördert eine offene und vorurteilsfreie Diskussion. •• Durch Einspielen von Sounds, Bildern oder Filmen lassen sich internetbasierte Gruppendiskussionen spannend gestalten und können mehr Spaß machen als klassische Befragungsformen. Außerdem können Ergebnisse sofort dokumentiert und weitergeleitet werden. •• Die Teilnehmer können alle Beiträge durchschauen und reflektieren, damit ist eine gute Gruppendynamik erzielbar. Die Beiträge sind besser durchdacht und können im Zeitablauf korrigiert werden. Auch ausführliche Beiträge sind ­möglich. •• Die Teilnahmequote für einzelne Themen zeigt deren Relevanz aus Sicht der Teilnehmer an. Auch die Themenstrukturierung erfolgt eigenständig und indiziert die Relevanz. •• Die Meinungsbildung in der Gruppe wird durch das Protokoll nachvollziehbar.

174

3. Methoden der Primärerhebung von Informationen

•• Eine hohe Motivation der Teilnehmer, durch Selbstselektion, ist vorauszusetzen, dadurch auch eine hohe Datenqualität. Dem stehen jedoch folgende Nachteile gegenüber: •• Die Aussagefähigkeit von Gruppendiskussionen hängt stark von der Erfahrung und der Qualifikation des Moderators ab. Hierfür ist ein größerer Zeitbedarf einzurechnen. •• Es ist zu befürchten, dass bei der Moderation von Online-Gruppendiskussionen Schwierigkeiten durch den nicht mehr vorhandenen persönlichen Kontakt zwischen Moderator und Interviewteilnehmern entstehen. •• Zwar lässt sich die Rekrutierung kontrollieren, doch weiß der Moderator nicht mit letzter Sicherheit, ob tatsächlich die Person teilnimmt, die sie vorgibt zu sein. Der Marktforscher kann außerdem nicht sicher sein, ob im Zeitablauf der Interaktion eine andere, zweite Person die erste ablöst, so dass ein Zuordnungsproblem entsteht. •• Gestik und Mimik als wichtige Ausdrucksmittel fehlen. Dadurch ist die Spontaneität und Individualität der Antworten beeinträchtigt. •• Schwierigkeiten im Umgang mit der Tastatur wirken als Barrieren und damit unerwünschte Verzerrungen. Eine fehlende Medienkompetenz der Teilnehmer kann zu reduzierten Antworten führen. •• Es kommt zu weniger interpersoneller Kommunikation, da die Teilnehmer im Wesentlichen nebeneinander her kommunizieren und nur begrenzt interagieren. •• Die Asynchronität der Anlage kann die Durchführung beeinträchtigen. Monetäre Incentives sind dabei problematisch. •• Längst nicht alle Zielgruppen sind über Communities erreichbar, insofern ist die Effizienz schwierig einschätzbar. 3.9.3.4 IRC-Befragung Bei IRC-Befragungen können durch ein Chat-Programm zwei oder mehr Personen meist unter Pseudonym schriftlich von Computer zu Computer realtime über das Befragungsthema kommunizieren. Für die Befragung ist es sinnvoll, die Teilnehmer vorab zu selektieren und über geschlossene Benutzergruppen vor Zugriffen Externer geschützt miteinander kommunizieren zu lassen. Ein Moderator kann die Diskussion stumm verfolgen und sich die Ergebnisse anzeigen lassen oder einzelnen Teilnehmern gezielte Nachrichten / Fragen direkt zukommen lassen (Flüstern) und auch moderieren. Die Dauer beträgt meist zwei bis drei Stunden. Der Ablauf lässt sich in die Orientierungsphase zum gegenseitigen Kennenlernen, die eigentliche Meinungsaustauschphase und die Schlussphase zum Ausstieg einteilen.

3.9 Online-Erhebung

175

Der Zugang wird durch Password geschützt, es können mehrere, themenorientierte Kanäle eröffnet / unterhalten werden. Der IRC-Chat ähnelt marktforscherisch der Expertenbefragung. Durch die alphanummerische Tastatureingabe sind die Antworten oft überlegter. Außerdem müssen die Teilnehmer während der gesamten Diskussion online bleiben. Je nach Browser werden nicht alle Beiträge immer sofort aktualisiert. Außerdem muss die Menüsprache des IRC-Client beherrscht werden, dies setzt die Kenntnis der IRC-Befehle voraus. Stimmungen sind durch die Angabe von Emoticons inter­ pretierbar. Vorteile der IRC-Befragung liegen in Zeit und Kosten sowie der Ortsungebundenheit. Die Teilnehmerverfügbarkeit ist gesichert, trotz weitgehender Anonymität. Multimedia-Modalitäten können eingebunden werden. Es ist eine schnelle Datenverfügbarkeit gegeben. Nachbearbeitungen, z. B. durch Codierung von Antwortbögen, entfallen ganz. Nachteilig ist die fehlende Teilnehmeridentifikation, die Auswertungen erschwert. Eine Sonderform stellt die Befragung über Interactive-TV dar. Dabei wird bei (breitbandigem) digitalem Kabelfernsehen ein (schmalbandiger) Rückkanal zur Überspielung der Antworten von Zuschauern eingesetzt, wobei die Fragen über Bildschirm angezeigt werden. Vor allem können in das laufende Programm Abfragen eingebaut oder gesonderte Frageprogramme eingespeist werden. Bei analogem Kabelfernsehen ist demgegenüber ein Medienwechsel (Telefon) er­ forderlich. Online-Befragungen haben allgemein die Vorteile hoher Akzeptanz, unterliegen keinen räumlichen Restriktionen, sind zeitunabhängig und flexibel einsetzbar. Sie sichern die Anonymität der Teilnehmer, sind weitgehend automatisiert auswertbar, objektiv sowie kosten- und zeitsparend. Nachteile liegen in der Identitätsproblematik, der Gefahr mehrfacher Beantwortung sowie in mangelnder Repräsentativität und Verzerrung durch Selbstselektion der Teilnehmer. Zudem sind umfangreiche rechtliche Restriktionen (Bundesdatenschutzgesetz / BDSG, Teledienstegesetz / TDG, Teledienstedatenschutzgesetz / TDDSG, TelekommunikationsDatenschutzverordnung / TDSV etc.) zu beachten. Es bestehen einige Anforderungen an geeignete Software. So muss die Möglichkeit zur Speicherung aller Beiträge bestehen (Protokollfunktion). Eine differenzierte Rechtevergabe für Moderator, Teilnehmer und Beobachter ist erforderlich. Der Zugang für Beobachter (Lurker), die nicht aktiv am Chat teilnehmen, muss gegeben sein. Eine Flüstermöglichkeit zwischen Moderator und Teilnehmern muss verfügbar sein, nicht aber eine solche unter den Teilnehmern. Für verschiedene Themen müssen separate Räume eingerichtet werden können. In der Text­ ablage muss man auf einen Leitfaden zugreifen können. Eine Upload-Funktion für Dateien / Bilder muss vorhanden sein, ebenso eine Einspielfunktion für multimediale Stimuli. Auch eine übersichtliche Bildschirmoberfläche ist wichtig.

176

3. Methoden der Primärerhebung von Informationen

Vorteile einer IRC-Erhebung mit Einzelpersonen oder in Gruppen liegen in folgen­ den Aspekten: •• Damit lassen sich vor allem technikaffine Probanden zur Teilnahme an einer Erhebung gewinnen. •• Die Anonymität der Teilnahme bleibt im Gespräch / in der Diskussion gewahrt (dadurch weniger soziale Erwünschtheit, Konsensbildungsdrang etc.). Bei Video-Chats gehen diese Vorteile zwar großenteils verloren, dafür können dann Mimik, Gestik etc. beobachtet werden •• Durch die Synchronität können auch spontane Reaktionen erfasst werden. •• Es entstehen Zeit- und Kostenvorteile gegenüber herkömmlichen Erhebungen sowohl für den Veranstalter als auch für die Teilnehmer. •• Es liegt wenig gegenseitige Beeinflussung der Teilnehmer vor, so dass Offenheit und Auskunftsbereitschaft steigen. •• Das Gespräch findet in einer dem Probanden vertrauten Umgebung statt, er fühlt sich sicher. Ein weiteres Vertrauensverhältnis kann durch die Moderation aufgebaut werden. •• Auch sensible, stigmatisierte Themen lassen sich gut und offen diskutieren. •• Es können beliebig viele unsichtbare Teilnehmer als Beobachter partizipieren. •• Es können auch räumlich weit verteilte Teilnehmer partizipieren. •• Die Protokollierung des Gesprächs / der Diskussion erfolgt automatisch, es können auch einheitliche Stimuli präsentiert werden. •• Es kommt zu einer „Demokratisierung“ des Gesprächs / der Dikussion (weniger Dominanz einzelner Teilnehmer, keine Hierarchien). Nachteile der IRC-Erhebung mit Einzelpersonen oder in Gruppen liegen in folgen­ den Aspekten: •• Nonverbale Hinweise auf Auskunftselemente fehlen, dadurch wird die Verständlichkeit der Kommunikation erschwert. •• Die Umgebungssituation der Befragten ist nicht kontrollierbar. •• Ironie, Humor, Sarkasmus etc. können falsch verstanden werden. •• Bei gleichzeitiger Eingabe mehrerer Antworten entstehen Probleme in der Zuordnung von Fragen und Antworten. •• Die Lese- und Schreibgeschwindigkeit wirkt beeinflussend auf den Verlauf, möglicherweise entsteht auch eine Überforderung durch gleichzeitiges Lesen, Denken, Tippen etc.

3.9 Online-Erhebung

177

•• Die Interaktion der Teilnehmer bleibt begrenzt, es kommt zu weniger Gruppen­ dynamik (keine physische Präsenz, keine nonverbale Kommunikation etc.). •• Die Teilnehmer müssen über ein Mindestmaß an Medienkompetenz verfügen. •• Es kommt zu weniger vertiefender, reflektierender Kommunikation im Gespräch / in der Diskussion. •• Die akzeptierte Zeitdauer der Erhebung ist begrenzt (bei Diskussionen sind nicht immer alle Teilnehmer über die komplette Dauer online).

3.9.4 Online-Beobachtung Die Online-Beobachtung als weitere Erhebungsmetbode kann durch WWWLogfile-Analyse oder themenorientierte Beobachtung erfolgen. 3.9.4.1 WWW-Logfile-Analyse Die WWW-Logfile-Analyse beruht auf abgespeicherten Aufzeichnungen über Server-Verbindungsdaten zum Aufruf unterschiedlicher Internet-Protokolle (HTTP, POP, SMTP) und Provider (Name, Herkunftsland, Empfänger-/Absenderadresse bei e-mail), im Einzelnen mit Anfangs- und Endzeiten sowie Besuchsverlauf (Reihenfolge der aufgerufenen Web-Seiten) und Browser (Programm, Betriebssystem/ -generation) etc. Deren systematische Auswertung liefert Erkenntnisse über die Gewohnheiten von Internet-Nutzern. Logfiles stellen eine Vollerhebung dar, diese erfolgt ohne ausdrückliche Zustimmung des Nutzers. Da diese Daten aus technischen Gründen zwingend erhoben werden müssen, entstehen für die Forschung keine zusätzlichen Kosten. Problematisch ist, dass der rein technische Zugriff nichts über die Aufmerksamkeit des Nutzers aussagt. Das Logfile enthält folgende Informationen: •• Name des zugreifenden Rechners bzw. dessen IP-Adresse (9-stellig) oder Domain-Name, •• bei Zugriff von einem Unix-Rechners u. U. Registrierung des Login-Namens, •• bei WWW-Angeboten, die einen Einlog-Vorgang vorsehen, wird der Log-inName des jeweiligen Nutzers verzeichnet (Authentifizierung), •• Datumsstempel im Format TT:MM:JJ:HH:MM:SS sowie Abweichung von GMT, •• Identifizierung des Client-Rechners (User-ID) und des Anfragebefehls (Request), •• Methode des Zugriffs (Get, Put, Post, Head),

178

3. Methoden der Primärerhebung von Informationen

•• genauer Pfad und Name des angeforderten Dokuments, •• verwendetes Übertragungsprotokoll (z. B. http), •• Status-Code der Übertragung (z. B. bei Problemen), •• Übertragungsvolumen des angeforderten Dokuments in Bytes, •• Referrer, d. h. URL des vorausgegangenen Zugriffs, •• Betriebssystem und Browser, •• Konfiguration des Rechners, z. B. Bildschirmauflösung, Cookie-Akzeptierung, •• detaillierte Informationen z. B. zu Zeitpunkt der Abfrage, abfragender Domain, abfragendem Browser, zuvor besuchter Internet-Seite, Dauer der Sitzung, abgefragten Inhalten. Häufige Auswertungen der Logfile-Beobachtung betreffen folgende Daten. Sitebezogene Kennzahlen sind etwa: •• Bruttoreichweite, d. h. Anzahl der Zugriffe auf eine Homepage, •• Nettoreichweite, d. h. Erstkontakte mit einer Website, •• Mehrfachkontakte, d. h. Differenz zwischen Brutto- und Nettoreichweite, •• Identified user, d. h. User, die registriert oder angemeldet sind und daher demografische Zusatzinformationen tragen, •• Visits, d. h. Anzahl der Besuche auf einer Internetseite mit zusammenhängender Nutzung mehrerer Seiten durch Zugriff eines Internet-Browser von außerhalb. Webseitenbezogene Kennzahlen sind etwa: •• Pageimpressions, d. h. Anzahl der Sichtkontakte als Maß für die Besuchsnutzung einer Webseite (früher Pageviews), •• Visit length / Stickiness, d. h. Dauer der Nutzung einer Webseite zum Ausweis dynamischer Seiteninhalte. Dateibezogene Kennzahlen sind etwa: •• Hits, d. h. Anzahl der Zugriffe auf alle in eine Website integrierten Daten, •• Impressions, d. h. Anzahl der Sichtkontakte mit identifizierten Objekten (z. B. Banner) auf einer Webseite, •• Clicks, d. h. Anzahl der Klicks auf ein identifiziertes Objekt, das als Hyperlink zu einer anderen Website führt, •• Click through rate, d. h. prozentualer Anteil der Clicks eines User an seinen Impressions (wie viele Nutzer klicken ein gesehenes Objekt auch tatsächlich an?).

3.9 Online-Erhebung

179

Nutzerbezogene Kennzahlen sind etwa: •• User, d. h. Anzahl der Personen, die sich ein WWW-Angebot angesehen haben, segmentierbar anhand von Kennzeichen, •• Unique browser, d. h. Zählung nur des ersten Zugriffs eines Nutzers auf den ­Server, •• Zugriffe nach Art des Browsers, d. h. Anzahl der unterschiedlichen Browser, die auf ein WWW-Angebot zugegriffen haben. Ein wichtiges Feld der WWW-Beobachtung ist die Werbeeffizienzmessung (Metrics). Sie bezieht sich auf mehrere Größen: •• Unique users, d. h. Anzahl unterschiedlicher Nutzer (nach IP) auf einer Webseite, •• Banner reach, d. h. Anzahl der Nutzer mit mindestens einem Sichtkontakt auf Banner-Werbung (analog Reichweite), •• Banner frequency, d. h. Anzahl der Sichtkontakte mit einer Banner-Werbung je Nutzer (analog Kontaktintensität), •• Abandonnement rate, d. h. Seiten, die bevorzugt zum Aussstieg aus einer Website genutzt werden, •• Conversion rate, d. h. Anzahl der Nutzer mit gewünschter Aktivität (z. B. Kauf, Informationsanforderung, Teilnahme, Adresseingabe) an allen Besuchen einer Webseite (Visits). 3.9.4.2 Targeting und Messung Die Informationen können zur automatischen und zielgerichteten Aussteuerung von Online-Werbemitteln (Banner etc.) in Online-Werbeträgern (Webseiten, eMails) genutzt werden. Statt Werbung in Abhängigkeit vom Umfeld zu platzieren, erfolgt bei einem solchen Targeting die Platzierung automatisch und zielgerichtet nach vordefinierten Kriterien. Im Einzelnen sind dafür denkbar: •• Technisches Targeting, dieses erfolgt anhand von Logfile-Daten, so dass Nutzer jeweils Werbemittel ausgeliefert erhalten, die ihrer technischen RessourcenUmgebung entsprechen, also etwa nach Betriebssystem, nach Browser (wegen der Darstellung), nach Bildschirmauflösung, nach Provider (wegen der vertraglichen Bindung), nach Bandbreiten (z. B. für Streaming), nach Region (z. B. bei lokaler Werbung), nach Kontaktintensität (Ceiling für Kontaktfrequenz) oder nach Uhrzeit. Dadurch können vor allem technische Kontaktprobleme vermieden werden. •• Soziodemographisches Targeting, dieses erfolgt anhand der von Nutzern preisgegebenen Angaben wie Alter, Geschlecht etc. (Profildaten, evtl. auch Milieus)

180

3. Methoden der Primärerhebung von Informationen

z. B. bei der Zugangsregistrierung, beim Log-in, aus CRM-Daten, in Übereinstimmung mit definierten Zielgruppen. •• Contextual targeting, dieses erfolgt nach der Affinität zu Inhalten bestimmter Zielseiten im WWW, Werbung wird also nur dort geschaltet, wo sie thematisch besonders gut zur Zielgruppe bzw. zum beworbenen Produkt passt. •• Verhaltensbasiertes Targeting, dieses erfolgt nach dem Aufruf von Cookies im Browser (sofern nicht abgeschaltet), damit auf Basis des vergangenen Surf­ verhaltens der Nutzer (Besuch bestimmter Seiten), daher ist eine Segmentation nach den jeweiligen Interessensgebieten möglich, allerdings sind für viele Produkte diese Umfelder begrenzt (z. B. Dosensuppen, Haushaltspapiere). •• Predictive behavioral targeting, die Auslieferung digitalisierter Werbung an Nutzergruppen erfolgt anhand anomymisierter Attribute, die diesen nach Auswertung der Nutzerdaten zugeschrieben werden können (Basis sind Befragungsergebnisse oder wahrscheinlichkeitsstatistische Algorithmen), durch diese Prognosen lassen sich Fehlstreuungen minimieren, allerdings setzt dies eine entsprechende Aussagefähigkeit von Daten voraus. •• Retargeting, die Auslieferung digitalisierter Werbung erfolgt an Nutzergruppen, die vorher bereits eine Aktion auf der beworbenen Website (z. B. Besuchs­ abbruch) oder in einem Werbemittel getätigt haben (z. B. Click auf Banner), es erfolgt also eine erneute Ansprache außerhalb der Anbieter-Site, aber innerhalb eines Werbenetzwerks, mit genau dem Produkt, für das ein Nutzer sich bereits interessiert hat auf Basis von Cookies, Ziel ist der erfolgreiche Abschluss der Aktion. Allerdings bleibt dadurch die Zielgruppe eng begrenzt. •• Sprachbasiertes Targeting (etwa bei Suchmaschinenwerbung) anhand von Stich­ wörtern (Keywords, z. B. Eingabe bestimmter Suchbegriffe), des Vorkommens bestimmter Begriffe auf von Nutzern besuchten Websites (wortbasiert) oder nach Sinnzusammenhang zu beworbenen Angeboten (semantisch), dabei kann es sich um einzelne Wörter im Kontext oder um Wortkombinaitonen oder Satzteile im Zusammenhang handeln. Allerdings ist der Sinnzusammenhang oft fraglich, z. B. „Essen“ als Stadt oder als Nahrungsaufnahme. •• Geografisches Targeting, die Werbung wird nur an Nutzer einer bestimmten Region, Stadt oder einer Postleitzahlzone ausgeliefert, anhand der IP-Adresse eines Nutzers kann abgeschätzt werden, in welcher Gegend er sich befindet bzw. gerade aufhält. •• Zeitliches Targeting, dabei erfolgt eine Begrenzung der Kontaktfrequenz (Frequency capping), weil davon auszugehen ist, dass jenseits dieser Frequenz keine werbliche Erreichbarkeit gegeben ist bzw. Reaktanzen einsetzen können. •• Netzwerk-Targeting, erfolgt allein aufgrund von Beobachtungsdaten des Verhaltens in Netzwerken.

3.9 Online-Erhebung

181

Weitere Informationen stammen aus Quellen der nicht-reaktiven Messung (quasibiotisch): •• Session-ID Tracking, dies ist eine vorübergehende Markierung jedes Browsers beim WWW-Server für die Zeitdauer des Client-Dienstes, die automatisch erzeugt wird (Daten ergeben sich aus Server logs, Proxy logs oder Application logs). Hinzu kommen CGI-basierte Dateien die Server related, Client related oder Query related sind. •• Cookie Tracking, dies sind kleine Textdateien im ASCII-Format, die vom Server auf die Festplatte des Nutzer-Computers geschrieben werden und den Browser damit dauerhaft markieren, es gibt Session cookies, die nur für einen Besuchsvorgang gelten, und Persistent cookies, die dauerhaft verbleiben. 1st Party cookies werden von Webseitenbetreibern gesetzt, 3rd-Party cookies von Werbungtreibenden. Cookies können im Browser gesperrt werden und identifizieren nur den Computer, nicht aber den Nutzer. •• Pixel Tracking (Webbugs), dies ist eine 1x1 Pixel große Datei, die in eine Website integriert ist und Daten wie die IP-Adresse, die URL der Website, Zeitpunkt des Zugriffs und Browsertyp enthält. Webbugs können vom Nutzer nicht blockiert werden. Unter datenschutzrechtlichen Aspekten zweifelhafte Ansätze arbeiten über Software agents, Modified browser technologies und Packet-­ sniffing technologies. Weitere Informationen stammen aus Quellen der reaktiven Messung (offen): •• Login-Daten, dies sind die Eingabedaten zur personalisierten Anmeldung für eine Website (Password), in Folge können alle Nutzungsvorgänge diesem Nutzer eindeutig zugeordnet werden (so entsteht ein Nutzerprofil im URL Tracking), Informationen bei Anlegen eines Kundenkontos sind etwa personen­ bezogene Daten, persönliche Eigenschaften, Präferenzen etc., •• e-Mail-Daten, dies sind Metaangaben bei Nutzung von e-Mail-Programmen, etwa zum verwendeten Betriebssystem, zur Betreffzeite der e-Mail, e-Mail-Adresse, Inhaltsart der e-Mail etc., •• Template-Einträge, dies sind Angaben, die zum erstmaligen Login erforderlich sind (Anlage eines Kundenkontos), meist bezogen auf Geschlecht, Geburts­ datum, Interessen, Wohnort etc., diese werden nach Vollständigkeit durch Pull down-Menüs generiert, allerdings ist hier fraglich, ob die Anmeldedaten immer stimmen (Datenbank-Tracking), •• Transaktionsdaten, dies sind die Daten eines authentifizierten Nutzers in Zusammenhang mit seiner Aktivität im WWW, meist Name, Anschrift, e-Mail-Adresse, Kreditkartennummer etc. Die WWW-Beobachtung ist durch den Einsatz von Proxy-Servern behindert, denn nur der chronologisch erste Nutzer eines Angebots wird bei Datenübertra-

182

3. Methoden der Primärerhebung von Informationen

gung erfasst, alle weiteren Nutzer werden von einem zwischengeschalteten ProxyServer bedient, der das Datenübertragungsvolumen reduziert. Der Zugriff auf diese zwischengespeicherten Seiten kann in der Logfile-Analyse nicht erfasst werden. Eine weitere Verzerrung stellen Suchmaschinen dar, die durch Robots o. Ä. ständig und selbsttätig Web-Seiten aufrufen, auf die sie über Hyperlinks auf zuvor aufgerufenen Seiten gelangen, um Informationen einzusammeln. Diese automatischen Aufrufe werden im Logfile als normale Besuche erfasst. Hier bedarf es einer Bereinigung um irrelevante Einträge. Ebenso sind Seitenaufrufe aus dem CacheSpeicher des Computers nicht ohne Weiteres zu erkennen. Hier bedarf es der Pfadvervollständigung, um Effizienzdaten (Metrics) zutreffend auszuweisen. Jeder Nutzer hat nicht notwendigerweise bei jeder Einwahl eine identische IP, sondern Provider mieten einen Pool von IP-Adressen an und weisen jedem Nutzer eine gerade freie IP zu, insofern verbergen sich hinter dieser IP ganz verschiedene Nutzer, die Adressen sind nicht dediziert. Ebenso entsteht eine erhebliche Verzerrung durch die Einschaltung von Firewalls. Dies sind Rechner, die zwischen Internet und Intranet geschaltet sind, um Störungen von außerhalb nach innen abzufedern. Bei der Einwahl aus einem firewall-geschützten Rechner wird im Logfile daher die Adresse des Firewall-Computers angezeigt, nicht hingegen die Adresse des tatsächlichen Nutzers. Schließlich wird die Intensität der Nutzung (Frequenz, Dauer) falsch ausgewiesen, wenn Webinhalte als Datei abgespeichert und am Computer offline genutzt werden. Außer über WWW können auch Beobachtungen des Nutzungsverhaltens der Teilnehmer an Newsgroups, Mailing-Listen, Chat-Foren oder zugesandten e-Mails genützt werden. Damit können vor allem Experten erhoben werden, die diese Dienste zur Kommunikation und Diskussion über ein bestimmtes professionelles Thema nutzen. 3.9.4.3 Themenorientierte Beobachtung Die häufigste Form themenorientierter Beobachtungen ist die Panel-Erhebung. Dazu ist eine genaue Definition der Grundgesamtheit, über die Aussagen ­getroffen werden sollen, erforderlich. Daraus wird dann eine gleichbleibende repräsentative Stichprobe gezogen. Die Teilnehmer lassen sich registrieren und erhalten ein Kennwort zur Erhebung, dies kann eine tatsächliche Beobachtung oder die Beobachtung der Veränderung von Befragungsergebnissen sein. Damit der Teilnehmerkreis möglichst unverändert bleibt (geringe Panelsterblichkeit), werden regel­ mäßige finanzielle und / oder ideelle Anreize geboten (z. B. Sammelpunktsysteme). Auf der Website sind allgemeine Informationen, das Registrierungsformular für Neuanmeldungen und ein password-geschützter Raum für die eigentliche Erhebung aufrufbar. Dazu bedarf es seitens des Veranstalters eines leistungsfähigen Web-Servers mit Datenbankanbindung. Die Teilnehmer werden aufgefordert, neben ihren Eingaben auch regelmäßig ihre Stammdaten zu aktualisieren. Bei nicht

3.9 Online-Erhebung

183

beachteten Untersuchungseinladungen (Non response-Rate) kann eine OnlineNachfassaktion durchgeführt werden. Denkbar ist auch die Aufnahme von Offline-Kontaktversuchen zum Nachfass oder zur Identitätskontrolle. Wegen der unvermeidlichen Mortalität ist eine kontinuierliche Panelpflege erforderlich. Vorteile des Online-Panels sind vor allem folgende: •• Relevante Fragestellungen lassen sich schnell und kostengünstig auf Basis hoher Teilnehmerzahlen untersuchen. •• Aus einer Panelstichprobe können spezielle Unterstichproben gezogen werden, die dem Untersuchungsgegenstand entsprechen. •• Die Responsequote kann exakt bestimmt werden, da der Stichprobenumfang, im Unterschied zu Online-Befragungen, bekannt ist. •• Die Teilnahmebereitschaft der Panelteilnehmer ist zumeist höher als bei Studien mit jeweiliger Neurekrutierung der Probanden. •• Online-Panels sind kostengünstiger und schneller durchführbar als traditionelle Panels. Zudem unterliegen sie keinerlei räumlicher Begrenzung. •• Es sind geringe Streuverluste durch gezielte Ansprache, geringe Antwortausfälle, geringe Abbruchraten gegeben. Dem stehen jedoch folgende Nachteile gegenüber: •• Die erstmalige Einrichtung eines Panels ist sehr kostenaufwändig, unabhängig davon, ob ein Unternehmen sie selbst organisiert oder outsourced. •• Panelllisten müssen verfügbar sein, wobei die Datenqualität schwankt. •• Die Repräsentativität des Panels ist fraglich und nimmt im Zeitablauf für gewöhnlich stetig ab. •• Konsistenz und Sorgfalt der Probanden bei der Bearbeitung sind fraglich. •• Dennoch entstehen absolut hohe Rekrutierungskosten. Eine weitere Form der Beobachtung ist die von Weblogs / Blogs (s. u.). Ein Blog ist eine regelmäßig aktualisierte Website, auf der ein Autor (Blogger) persön­ liche Sichtweisen, Erlebnisse und Informationen chronologisch absteigend veröffentlicht. Dabei handelt es sich nicht nur um Texte, sondern auch um Videoblogs, Audioblogs, Fotoblogs, Linkblogs etc. Die Führung eines Blogs erfordert keine HTML-Kenntnisse, ist kostenlos und inhaltlich nicht begrenzt. Die Blogs sind frei zugänglich, dialogisch ausgelegt und unterliegen Kategorien (z. B. Wahlblog, Sportblog, Watchblog, Warblog, Eventblog, Hobbyblog, Infoblog). Der Blogger verfolgt zumeist das Ziel, dass seine Einträge (Blogposts) von möglichst vielen anderen gesehen und kommentiert werden. Dazu findet eine starke, globale Vernetzung statt (Blogosphäre). Dadurch können Dialoge entstehen, die Gedanken, Lob, Kritik etc. enthalten. Blogs weisen kurze Texte, hohe Aktualität und schnelle Ver-

184

3. Methoden der Primärerhebung von Informationen

breitung auf. Diese Verbreitung erfolgt durch Linksammlungen in Blogs (Blog­ roll), Permalinks (statische URL für bestimmte Blog-Inhalte), Trackbacks (auto­ matische Verweise zu anderen Blogs) und RSS-Feeds (Benachrichtungsdienst von anderen Blogs). Da Blogs die Persönlichkeit ihrer Autoren widerspiegeln, gelten sie als authentisch. Das macht sie zur Beobachtung im Rahmen der Marktforschung besonders geeignet (etwa für die Inhaltsanalyse). Vorteile der (nicht-teilnehmenden) Blog-Beobachtung sind vor allem folgende: •• Die Erfassung persönlicher Motive und Einstellungen der Autoren und Kommentatoren ist möglich. •• Anhand der kontinuierlichen Einträge kann die Entwicklung von Meinungen im Feld detailliert verfolgt werden. •• Die Aussagefähigkeit steigt durch Anreicherung mit Bildern, Videos, Audio­ dateien etc. •• Über Kommentare kann auf die aktuellen Entwicklung eingewirkt werden. Allerdings entsteht dabei die Gefahr der Manipulation. •• Die Ergebnisauswertung ist begleitend zur Erhebung möglich (automatisierte Quellenaufnahme). •• Ein teilautomatisiertes Suchen und Vercoden, Sammeln und Verknüpfen von Textstellen ist möglich. •• Die Ergebnisse sind intersubjektiv nachprüfbar, auch als Zeitreihenanalysen. •• Es handelt sich um authentisches Material, keine Forschungs-Artefakte. •• Die Anonymität führt zu mehr Offenheit in den Stellungnahmen. Dem stehen folgende Nachteile gegenüber: •• Die Selbstdarstellung der Autoren kann Überhand nehmen (Narzismus). •• Spontaneität und Ausführlichkeit leiden durch die Erhebungsform (Texterfassung, Kognition). •• Bei längerer Führung eines Blogs nimmt die Routine Überhand, auch besteht die Gefahr des Abbruchs. •• Es besteht Ungewissheit über die Identität der Eintragenden. •• Es besteht die Gefahr, dass Implizites und Nicht-Erwähntes in der Erfassung untergeht, viele Informationen sind kontextabhängig. •• Die Zielgruppen sind eingeschränkt, die Identität des Autors ist nicht überprüfbar. •• Die Schriftform hemmt die Spontaneität des Ausdrucks.

3.9 Online-Erhebung

185

•• Es kommt zu einer Überflutung mit Informationen, die zumindest manuell nicht adäquat zu verarbeiten sind. •• Die Grundgesamtheit der Internetquellen ist ungewiss, damit ist auch die Stichproben­ziehung fragwürdig. •• Online-Quellen sind flüchtig und müssen daher archiviert werden Eine weitere Möglichkeit besteht in der teilnehmenden Online-Beobachtung. Vorteile sind hier vor allem: •• eine automatische Protokollierung des Online-Verhaltens ist gegeben, •• die einfache Teilnahme für den Forscher über die Registrierung, •• die geringe Beeinflussung der beobachteten Situation durch lediglich virtuelle Präsenz des Forschers, •• Anonymität erlaubt unerkanntes Austesten von Möglichkeiten. Dem stehen folgende Nachteile gegenüber: •• ethische Problematik durch Manipulation entstehen, •• Rückschlüsse von virtuellem Verhalten auf reales Verhalten sind nur begrenzt möglich, •• keine Möglichkeit zur Überprüfung der Identität der beobachteten Personen.

3.9.5 Online-Experiment Wie jedes Experiment ist auch das WWW-Experiment eine wiederholbare, unter kontrollierten, vorher festgelegten Umfeldbedingungen durchgeführte Versuchsanordnung, die als WWW-Experiment oder Newsgroup-Experiment darstellbar ist. Beim WWW-Experiment führt eine Versuchsperson mit dem eigenen PC das Experiment über die grafische Nutzeroberfläche des Web-Browsers aus, indem sie Kontakt zum zentralen Labor-Computer aufnimmt und unterhält. Dabei werden alle Mausklicks, Zeigerbewegungen, Audio- und Videosignale, Texteingaben oder Dokumentenabfragen vom Web-Server ebenso aufgezeichnet wie Antwortzeiten, Adresse / Standort des Nutzers oder Art des verwendeten Web-­Browsers. Als Grundvoraussetzungen für den Erfolg eines WWW-Experiments sind die Angabe des Veranstalters, der Forschungszweck und Hinweise auf die zu erwartende Bearbeitungszeit zu nennen. Hinzu kommen das Angebot von Incentives und eine attraktive Gestaltung der Experimentalmaterialien. Um die Ladezeiten zu minimieren, werden zunächst die mächtigen Dateien übersandt und danach die weniger mächtigen, also zuerst die Web-Labor-Seite, dann die allgemeinen Instruktionen, danach die experimentspezifische Instruktion und dann erst die eigentlichen Experimentalmaterialien. Um Teilnehmer zu selektieren, kann ein Abgleich zwischen

186

3. Methoden der Primärerhebung von Informationen

e-Mail- und IP-Adresse vorgenommen werden. Außerdem können erforderliche Funktionalitäten erst auf Anforderung zur Bearbeitung bereitgestellt werden. Beim Newsgroup-Experiment sind eine aktive Variation der Experimental­ bedingungen oder die passive Auswertung gegebener Bedingungen möglich. Von Vorteil sind der Verzicht auf geographische Eingrenzungen und der kurze Erhebungszeitraum. Es erfolgt eine automatische Datenspeicherung. Die Erhebung auch non-reaktiver Daten ist möglich, ebenso wie die Einbindung von Multimedia-Modalitäten. Von Nachteil sind die hohe Verweigerungsquote und die Selbstselektion der Teilnehmer. Dadurch bleibt die Repräsentanz fraglich. Dies ist allein schon dadurch gegeben, dass die Abgrenzung der Grundgesamtheit meist unklar ist. Außerdem können Störfaktoren einwirken.

3.9.6 Social media Social media können zur Primär- oder Sekundärrecherche genutzt werden. Sekundär erfolgt die freie Recherche über Suchmaschinen, Themenverzeichnisse, Link-Listen etc., in kommerziellen (Wirtschafts-)Datenbanken, durch Web-­ Mining (Datenanalyse des Nutzungsverhaltens) oder Social media-Monitoring. Ein immer größerer Teil der Internet-Aktivität verlagert sich in das Web 2.0 (Social media). Motive sind z. B. sozialer Kontakt (Social networks), Mitteilungsdrang (z. B. Bewertungsportale) oder Eskapismus (z. B. Second life). Das Web 2.0 ist durch Aspekte wie Nutzbarmachung kollektiver Intelligenz, nutzergenerierte Inhalte und Werte, Abschaffung des Software-Lebenszyklus, leichtgewichtige Programmiermodule, Verkettung von Endgeräten und Nutzerführung gekennzeichnet. Innerhalb des Web 2.0 werden verschiedene Medienarten unterschieden, die sich gut für Marktforschungszwecke nutzen lassen: •• Blogs und RSS-Feeds. Ein Blog (Weblog) ist ein online-geführtes Tagebuch, das meist öffentlich einsehbar ist und Sachverhalte oder Gedanken, die einem Blogger relevant erscheinen, chronologisch protokolliert. Durch die Blog-Software kann jeder, ohne Programmierkenntnisse, eine Internetpräsenz erstellen. Diese Einträge können von Nutzern kommentiert werden und sind meist mit Links zu anderen Webseiten verbunden. Blogs können thematisch und zielgruppenspezisch eingegrenzt werden. Weblogs sind privaten Ursprungs (Selbstinszenierung in der Öffentlichkeit), journalistisch aufbereitet (von Amateur-Rechercheuren) oder kritisch orientiert (Watchdog, Aktivisten). Ein RSS-Newsfeed ist ein PushDienst im Internet (Really simple syndication) für Abonnenten. Eine Kurzform von Blogs sind Microblogs mit bis zu 140 Zeichen (plus Bild). Blogs finden vor allem statt als CSR-Blogs, Sales-/Kampagnen-Blogs, Themen-Blogs, Knowledge-Blogs, Collaboration-Blogs, Mitarbeiter-Blogs oder Gewerkschafts-Blogs.

3.9 Online-Erhebung

187

•• File exchange und File sharing. Dabei wird Online-Speicherplatz zur Ver­fügung gestellt, um Dateien auszutauschen oder Videos / Fotos / Audios hochzuladen und Dritten zur Verfügung zu stellen. Die Mediadateien können in Websites integriert und auch nach definierten Merkmalen abonniert oder per e-Mail versandt werden. Eine Sonderform stellen Podcasts / Vodcasts dar, die themenspezifische Medieninhalte verbreiten und dafür einen speziellen Player erfordern. Podcasts sind Audiodateien, meist als mp3-Files, die sich Nutzer herunter laden und auf ihrem Computer abspielen können. •• Wikis. Diese dienen der Aggregation themenspezifischer Informationen und bieten dafür Tools zur Erstellung und Bereitstellung auf speziellen Sites. Die Inhalte können von jedermann editiert (verändert, gelöscht, erweitert) werden und nutzen die kollektive Intelligenz der Nutzer (Crowdsourcing). Jeder Besucher kann eigene Einträge veröffentlichen oder Beiträge anderer ändern. Software für Wikis ist frei verfügbar, sodass jeder Website-Betreiber sein eigenes Wiki aufbauen kann, auch unternehmensintern. •• Mash ups. Diese verknüpfen mehrere Dienste (meist mikrogeographisch basiert) mit zusätzlichen Informationen und schaffen somit Mehrwert. Dies gilt vor allem für situative Anwendungen und entspricht damit mobilen Endgeräten. •• Tagging / Social bookmarking. Dieses stellt persönliche Favoritenseiten anderen Nutzern im Rahmen eines Indexierungsdienstes zur Verfügung (Social choice theory). Diese Tags können nach Stichworten kategorisiert, kommentiert und kombiniert werden. •• Social networking. Hier können Nutzer persönliche Seiten einrichten und selbstgewählte Inhalte mit anderen Mitgliedern des Netzwerks teilen. Die Inhalte dienen der Selbstpräsentation im privaten oder beruflichen Umfeld. Die Inhalte sind oft nur für bestimmte Personenkreise gedacht, jedes Mitglied kann eine eigene Seite einrichten (Profil), um sich anderen Mitgliedern zu präsentieren. Möglich sind auch der Versand interner Nachrichten, die Bildung gemeinsamer Interessengruppen, die Planung gemeinsamer Aktivitäten oder die Kontaktaufnahme. •• Bewertungsportale. Dies ist eine Platform für Kundenrezensionen von Produkten oder Diensten, auch Hochschullehrern, Ärzten, Rechtsanwälten oder Restaurants. Häufig ist eine Kombination mit mikrogeographischen Diensten anzutreffen. Social media-Monitoring erfolgt durch Recherche in Foren, Weblogs, Communities etc. über nutzergenerierte Inhalte. Neben der Beobachtung kommt auch die Befragung in Online-Panels (bei aktiv rekrutierten Teilnehmern oder durch passive Selbstzuordnung), durch Pop up-Tools (zufallsgenerierte Fenster, die zur Teilnahme an einer Befragung auffordern) oder Online-Focus-Gruppen (in Chat­ rooms) in Betracht.

188

3. Methoden der Primärerhebung von Informationen

Wichtige Ansatzpunkte der Social media-Controlling sind das „Zuhören“ und das Messen. Beim Zuhören werden geeignete Keywords (Fachtermini, Konkurrenzbezeichnungen etc.) verfolgt. Dies bezieht sich dann auf folgende Elemente: •• Produktmonitoring in Bewertungsportalen, Produktforen, Produktblogs, ­Videos, Tweets etc., •• Unternehmensmonitoring (allerdings schwierig bei häufigen Firmierungen), •• Themen-/Trendmonitoring nach sog. Issues, Hot topics etc., •• Sentiment-Analyse nach Tonalität von Beiträgen (positiv, neutral, negativ), dazu ist eine semantische Auswertung erforderlich, allerdings entstehen derzeit Probleme bei Ironie, Redewendungen, Abkürzungen, Slang, Rechtschreibfehlern, Negationen, Mehrdeutigkeiten etc. (Web 3.0), •• Meinungsführer-Identifizierung und -Kontaktierung (z. B. renommierte ­Blogger). Beim Messen werden KPI’s analysiert. Beim Social network Facebook sind dies etwa die Facebook-Insights wie Übersicht, Gefällt-mir (Fans bzw. Freunde von Fans, absolut und prozentual), Reichweite (Anzahl der Personen, die mit der betreffenden Seite verknüpft sind bzw. Abonnenten), Personen, die darüber sprechen (z. B. innerhalb der letzten sieben Tage) etc. Beim Microblog Twitter sind dies etwa Follower, Follower von Followers, Retweets, @-Erwähnungen, Favorisierungen (Zustimmung), Häufigkeit von Hashtags (#) etc. Messungen beziehen sich dann auf folgende Elemente: •• Förderung des Dialogs durch Share of voice, Zielgruppenengagement, Anzahl der Diskussionsteilnehmer etc., •• Identifizierung von Befürwortern und ihre Förderung als Markenbotschafter, Anteil der Markenbefürworter etc., •• Verbesserung des Kunden-Support durch Anzahl der Kundenanforderungen, Anzahl zufriedener Kunden etc., •• Initiierung von Innovation durch Anzahl der Markenerwähnungen, der Trend­ erwähnungen, positiver Erwähnungen etc. Daraus lässt sich mit Hilfe von Tools (z. B. Social mention, Klout, Facebook ­ iniytics, Twitter Twazzup) der Social media return on influence als AufwandsM Nutzen-Relation ermitteln. Für Social media wird zunehmend die mobile Nutzung relevant. Die Zugangsgeschwindigkeit ist verbessert (UMTS / LTE), eine ortsunabhängige, bequeme Erreichbarkeit ist gegeben. Nutzer können lokalisiert (z. B. für Mehrwertdienste) und Inhalte personalisiert werden. Treiber sind hier verbesserte technische Standards (UMTS / 3G, LTE / 4G, GPS, Fototechnik etc.), größere Displays, mehr Akkuleistung und höhere Rechenkapazität in den Endgeräten, verbreitete Datendienste (SMS,

3.9 Online-Erhebung

189

EMS, MMS, WAP etc.), schnellere Übermittlung (GPRS, HSCSD, EDGE etc.). Entscheidende Vorteile sind neben der generischen Mobilität die Überallerreichbarkeit der Teilnehmer, ihre Lokalisierbarkeit (über Cell oder GPS) und ihre Identifikation (über Anschlussnummer / IME). Typische Anwendungen sind Mobile browsing, Mobile software, Mobile search, Mobile information, Mobile entertainment, Mobile navigation, Mobile commerce, Mobile communication, Location based services, Mobile telemetry, Mobile banking / broking, Mobile payment etc.

3.9.7 Sicherung der Datenqualität Um die Datenqualität zu sichern, werden mehrfache Kontrollen vorgesehen. Kontrollen während der Erhebung beziehen sich z. B. auf die Bearbeitungszeit. Fragebögen unter einer Mindestbearbeitungszeit werden damit vor Auswertung zusätzlich überprüft. Auch können selbsttätige Fehlerkorrekturen im Programm eingebaut werden, die z. B. Falscheingaben zurückweisen oder unvollständige Angaben nicht akzeptieren. Eine zentrale Kontrollgröße ist die Rücklaufquote. Der Server registriert bei jedem Fragebogenaufruf automatisch den aufrufenden Rechner und seine InternetAdresse. Ebenso wird beim Absenden eines ausgefüllten Fragebogens der Inhalt der Adresse auf dem Server gespeichert. Dadurch können die Fragebogenaufrufe in Relation zu den Fragebogeneinsendungen gestellt werden (daraus ergibt sich die Rücklaufquote). Allerdings werden Wiederholungsaufrufe über den ProxyServer dabei nicht erkannt. Die Auswertung der Protokolldatei gibt zudem Aufschluss über die regionale Verteilung und den Zeitraum der Erhebung. Die Güte der erhobenen Daten wird meist anhand der Kriterien Objektivität, Reliabilität und Validität beurteilt. Die Durchführungsobjektivität von InternetErhebungen ist sehr hoch einzuschätzen, da keine Interviewerbeeinflussung vorliegt. Durch die Standardisierung der Datenerfassung ist auch eine hohe Auswertungsobjektivität gegeben. Die Interpretationsobjektivität bleibt hingegen fraglich. Die Reliabilität ist insgesamt hoch einzuschätzen, da die äußeren Einflüsse durch die Erhebung nicht verändert werden. Allerdings können veränderte Ein­ stellungen der Erhebungspersonen durch die Auseinandersetzung mit dem Geschehen sowie Lerneffekte aus der Erhebungssituation entstehen, welche die Reliabilität, je nach Lage der Dinge, verbessern oder beeinträchtigen. Auch die interne Validität ist grundsätzlich hoch einzuschätzen, da eine falsche Protokollierung oder Codierung der Ergebnisse ausgeschlossen werden kann und zudem Mehrdeutigkeiten in der Erhebungssituation durch vorlaufende Tests minimiert werden können. Die externe Validität ist jedoch sehr fraglich, da eine Verallgemeinerung der durch Internet-Erhebung erfassten Tatbestände nicht möglich ist, und zwar nicht

190

3. Methoden der Primärerhebung von Informationen

nur nicht aus der Stichprobe auf die Gesamtbevölkerung, sondern auch nicht von der Stichprobe auf alle Internet-Nutzer. Zudem bestehen Verzerrungen durch Selbstselektion als Erhebungsperson über den Aufruf des Fragebogens und mehrfache Teilnahmen. Zur Gewährleistung einer fehlerfreien Datenübertragung und zur Vermeidung von Datenmissbrauch dienen mehrere Vorkehrungen. Der Zugriff auf schützenswerte Daten kann durch geeignete Passwörter erreicht werden. Die Auswertung schützenswerter Daten kann trotz unberechtigten Zugriffs durch Verschlüsselungsalgorithmen gesichert werden (z. B. PGP). Befragungen, Beobachtungen oder Experimente sind grundsätzlich von der Einwilligung bzw. Erlaubnis der Erhebungsperson abhängig. Allerdings werden vielfältige technische Daten während der Kommunikation erfasst, ohne dass die Erhebungsperson dies unbedingt weiß oder genehmigt. Hinsichtlich des Beurteilungskriterium Aktualität ist festzustellen, dass die Aufforderung zur Teilnahme zeitpunktbezogen versandt werden kann. Teilnehmer, die täglich ihre Mailbox leeren, erhalten daher den Fragebogen zum Stichtag. Der Erhebungszeitraum ist exakt kontrollierbar. Allerdings kann nicht festgestellt werden, wann innerhalb dieses Zeitraums ein Fragebogen tatsächlich ausgefüllt worden ist. In Bezug auf das Kriterium Zuverlässigkeit ist diese als hoch einzuschätzen, weil kein Interviewer anwesend und freie Ortswahl und Anonymität der Beantwortung gegeben sind. Tendenzen sozialer Erwünschtheit in den Antworten bleiben vermutlich gering. Jedoch ist eine Beeinflussung Dritter bei der Beantwortung möglich und im Weiteren nicht kontrollierbar. Eine Erklärung der Fragen ist nicht möglich, dafür können jedoch Hilfefenster angeboten werden, welche die Befragungsperson konkret anleiten. Außerdem können Beispiele für Antworten am Anfang des Fragebogens erklärend wirken. Die Antwortzeit für Fragen ist messbar, wird allerdings die Bearbeitung unterbrochen, ist diese Messung nicht mehr möglich. Die Kosten für Interviewereinsatz, Interviewerschulung, Versandporto etc. entfallen. Allerdings fallen ggfs. Kosten auf Seiten der Befragten für Telefoniegebühren an, die durch Incentives o. Ä. ausgeglichen werden sollten. Die Rücklaufquote ist themenabhängig und liegt bei Selbstrekrutierung er­ fahrungsgemäß unter 2 %, bei aktiver Ansprache potenzieller Teilnehmer zwischen 10 und 30 %. Der Umfang des Fragebogens sollte 15–20 Fragen nicht überschreiten, damit keine Interviewabbrüche provoziert werden. Hilfreich ist zudem eine möglichst ansprechende Aufmachung des Fragebogens. Online-Erhebungen sind tendenziell durch folgende Vorteile gekennzeichnet: •• es ist eine schnelle Rekrutierung der Probanden möglich, •• eine zügige Projektdurchführung ist darstellbar,

3.9 Online-Erhebung

191

•• die Kontrolle der Feldarbeit ist in „Echtzeit“ realisierbar, •• es herrscht eine hohe Transparenz des Erhebungsverfahrens, der Studienergebnisse und der Auswertung (Anzahl vollständiger Fragebögen, Anzahl ­Abbrecher, Verteilung Rücklauf etc.), •• iterative Abläufe erlauben den vorzeitigen Abbruch der Studie bei Vorliegen eindeutiger Trends, •• Abbildungen, Anzeigen, multimediale Konzepte o. Ä. können nach Zufallsauswahl Zielgruppensegmenten vorgelegt werden, •• bei hohen Fallzahlen entsteht ein degressiver Verlauf der Erhebungskosten, •• ein Interviewerbias fehlt weitgehend, •• die Untersuchungsobjekte können zielgruppengerecht angepasst werden. Zu den allgemeinen Nachteilen gehören hingegen folgende: •• eine vollständige Abdeckung der Zielgruppe ist häufig nicht realisierbar, •• es entsteht ein hoher Aufwand, um die Identität der Probanden eindeutig sicherzustellen, •• die Erfassung der Körpersprache fehlt (Mimik, Gestik etc.), •• Nachfragen oder Hilfestellung durch den Interviewer ist nicht möglich.

4. Statistische Datenauswertung In Anschluss an die Datenerhebung folgt logisch die Datenauswertung. Diese vollzieht sich im Rahmen der Marktforschung mit Hilfe statistischer Verfahren. Dazu ist es erforderlich, sich mit den Grundprinzipien der Statistik zu beschäftigen, was im Folgenden weitgehend ohne mathematische Formeln zu erreichen versucht wird. Dennoch handelt es sich um eine vergleichsweise sperrige Materie. Innerhalb der deskriptiven Datenauswertung sind mehrere Einteilungen möglich. Nach der Anzahl der Variablen ergibt sich die univariate, bivariate und multivariate Analyse: •• Bei der univariaten Datenanalyse wird nur eine einzige Variable untersucht. •• Bei der bivariaten Datenanalyse werden die Beziehungen zwischen zwei Variablen untersucht. •• Und bei der multivariaten Datenanalyse werden mehr als zwei Variable dies­ bezüglich untersucht. Weiterhin wird nach dem Geltungsbereich in deskriptive oder induktive Verfahren unterschieden. Schließlich wird auch nach der Partitionierung der Datenmatrix unterschieden, und zwar in •• Verfahren der Dependenzanalyse, diese untersuchen Abhängigkeiten, oder •• Verfahren der Interdependenzanalyse, diese untersuchen Zusammenhänge. Denkbar wären durchaus auch andere Einteilungen, z. B. nach •• der Richtung der Datenkompression in auf Variable gerichtete Verfahren und auf Elemente gerichtete Verfahren, •• dem Ausgangspunkt der Auswertung in strukturprüfende (konfirmatorische) Verfahren oder strukturentdeckende (explanatorische) Verfahren, •• nach dem Auswertungszweck in Verfahren der Datenreduktion, Verfahren der Klassifikation, Verfahren der Messung von Beziehungen oder Verfahren der Messung von Präferenzen. Im Folgenden wird die Einteilung nach Geltungsbereich, Partitionierung und Anzahl der Variablen zugrunde gelegt. Die Abtrennung der Verfahren in bi- und multivariate ist allerdings nicht immer eindeutig, da es die Mehrzahl der bivariaten auch in multivariater Ausprägung gibt.

4.1 Skalierung von Daten

193

Nach der Beziehung zwischen den Variablen sind Häufigkeiten, Abhängigkeiten und Zusammenhänge gegeben: •• Bei Häufigkeit geht es um die Verteilung jeder Ausprägung eines Merkmals (relative Häufigkeit). Dazu werden Lage- und Streuparameter sowie Form- und Konzentrationsparameter zur Charakterisierung genutzt. •• Bei Abhängigkeit (Dependenz) wird die Variablenmenge in abhängige und unabhängige Variable aufgeteilt, d. h. einer oder mehreren Variablen werden andere gegenüber gestellt und deren Einflüsse darauf untersucht. Dabei wird allerdings lediglich rein formal ermittelt, nicht aber in Bezug auf Kausalität bewertet, die nach wie vor durch Logik zu prüfen ist. Es handelt sich um strukturprüfende Verfahren. •• Bei Zusammenhang (Interdependenz) wird die Variablenmenge nicht weiter in abhängige und unabhängige unterteilt. Vielmehr werden Wechselwirkungen der Variablen untereinander untersucht. Es handelt sich um strukturentdeckende Verfahren. Eine andere Einteilung kann davon ausgehen, ob Unterschiede zwischen Stichproben oder Zusammenhänge zwischen Variablen untersucht werden sollen. Dieser Ansatz wird jedoch hier nicht weiter verfolgt. Die Kriterien Variablenzahl und Variablenbeziehung können zur univariaten Häufigkeitsanalyse, zur (vorwiegend) bivariaten Dependenz- und Interdependenzanalyse sowie zur multivariaten Dependenz- und Interdependenzanalyse kombiniert werden.

4.1 Skalierung von Daten Innerhalb der statistischen Datenauswertung ist zunächst die Skalierung von Daten Voraussetzung zur Interpretation. In der Praxis wird diese entscheidende Stellgröße allzu häufig vernachlässigt und führt dann zu unzutreffenden Auswertungen. Von Interesse sind vor allem Skalierungsverfahren und Skalierungs­ techniken.

4.1.1 Skalierungsverfahren 4.1.1.1 Begrifflichkeiten Skalierungsverfahren sind Vorschriften zur Konstruktion von Skalen und zur Durchführung der Messung aus theoretischem Vorwissen und Messverfahren über den Erhebungsgegenstand. Ziel ist es, auf diese Weise selbst nicht beobachtbare, aber indirekt messbare Größen über Zahlen als Indikatoren darzustellen. Diese werden Items genannt (dabei handelt es sich um Fragen, Aufgaben, Aussagen, Mei-

194

4. Statistische Datenauswertung

nungen, Beschreibungen etc., als Reaktionen sind Ablehnung, Zustimmung, Rangordnung, Wertangabe etc. möglich). Sie werden codiert und nummerisch festgehalten, sie erhalten Itemwerte, die in einer bestimmten Relation zueinander stehen. Weisen die Zahlenwerte die gleichen inhaltlichen Relationen auf wie ihre Messwerte, verhalten diese sich isomorph. Isomorphie bedeutet eine umkehrbar eindeutige (eineindeutige) Beziehung. Zum Beispiel hat jedes zugelassene Automobil genau ein Kennzeichen und zu jedem Kennzeichen gehört genau ein zugelassenes Automobil. Eine nicht umkehrbar eindeutige Beziehung nennt man homomorph. Zum Beispiel hat jeder Mensch ein bestimmtes Alter, aber es gibt verschiedene Menschen gleichen Alters. Dann ist es möglich, aus den Relationen der Zahlen auf die der dahinter stehenden Objekte zu schließen. In welcher Weise dieser Schluss statthaft ist, hängt vom Messniveau der Skala ab. Das Messen von Untersuchungsmerkmalen setzt eine Maßskala voraus. Unter Skala versteht man eine gesetzmäßige Klassifikationsvorschrift zur Differenzierung von Eigenschaften einer Menge von Untersuchungseinheiten. Sie ist ein Messinstrument, mit dessen Hilfe Objekten / Merkmalsausprägungen quantitative oder qualitative Werte / Zahlenfolgen zugeordnet werden. Der nach festgelegten, streng formalen Regeln durchgeführte Aufbau einer Skala heißt Skalierung. Die Messung der Sachverhalte kann unterschiedlich präzise erfolgen, dazu ist die Angabe des Skalenniveaus (auch Messniveau genannt) erforderlich. Die Aufgabe der Skalierung ist eine zweifache. Erstens soll sie anhand der Angaben einer Stichprobe von Auskunftspersonen mit Hilfe eines geeigneten Verfahrens eine Skala entwickeln, die als geeichtes Messinstrument zur Messung des Merkmals auch bei Personen außerhalb der Stichprobe dienen kann. Zweitens soll sie verdeutlichen, welche Unterschiede in Bezug auf die Ausprägungen des gemessenen Merkmals zwischen den Auskunftspersonen innerhalb der Stichprobe bestehen. Skalen müssen dabei zuverlässig, gültig, trennscharf und effizient sein. Die Messung der Sachverhalte kann unterschiedlich präzise erfolgen. Als Messung werden zwar nur isomorphe Zuordnungen bezeichnet, dies bedeutet jedoch nicht, dass immer alle Relationen zwischen den Zahlen auch für die Objekte gelten müssen. Vielmehr ist dazu die Angabe des Skalenniveaus erforderlich. Maßgeblich sind dafür nicht die mathematischen Eigenschaften der erhobenen Zahlen, sondern die in der Realität vorgefundenen Relationen zwischen den beobachteten Objekten. Je nach Merkmalsart gibt es unterschiedliche Skalierungsverfahren, deren Messniveau sich unterscheidet. Dies ist deshalb wichtig zu beachten, weil das Messniveau darüber entscheidet, welche statistischen Methoden angewendet werden dürfen und welche nicht. Dabei kann jedes „höhere“ Messniveau auf ein „niedrigeres“ Messniveau reduziert werden. Wegen des hierarchischen Aufbaus dieser Skaleneinteilungen ist es statthaft, bei einem gegebenen Skalenniveau die statistischen Auswertungsverfahren eines niedrigeren Skalenniveaus anzuwenden, nicht jedoch deren Skalentransformationen, also solche mathematischen Veränderungen einer

4.1 Skalierung von Daten

195

Skala, welche die hinter der Skala stehenden empirischen Relationen zerstören (im IT-Bereich würde man von Abwärtskompatibilität sprechen). 4.1.1.2 Nominalskala Die Nominalskala teilt ein Messkontinuum in einander wechselseitig ausschließende Merkmalsklassen auf und bezeichnet diese mit nummerischen oder alphanummerischen Werten. Die Zuordnung erfolgt dabei nach Gleichheit / Verschiedenheit. Die Einschätzung beschränkt sich auf zwei gegensätzliche Pole ohne die Möglichkeit einer Zwischenabstufung. Werden dabei Zahlen zugeordnet, haben diese lediglich symbolischen, nicht jedoch nummerischen Charakter. Die Nominalskala erlaubt also nur eine Einstufung in dem Sinne, dass eine vordefinierte Merkmalsausprägung vorhanden oder nicht vorhanden ist. Alle Objekte, die hinsichtlich des erhobenen Merkmals gleich sind, werden der gleichen Kategorie zugeordnet. Die Merkmalsklassen schließen einander aus. Eigentlich handelt es sich eher um eine Klassifikation als um eine Skala. Beispiele sind Kontonummer, Geschlecht, Postleitzahl, Autokennzeichen etc. 4.1.1.3 Ordinalskala Die Ordinalskala teilt ein Messkontinuum in einander wechselseitig ausschließende Merkmalsklassen auf und bezeichnet diese mit Zahlenwerten. Höhere Zahlenwerte kennzeichnen dabei höhere Positionen auf dem Messkontinuum. Es kommt zu einer Bestimmung der Rangfolge. Für eine Reihe einander ausschließender Merkmale wird angegeben, an welcher Stelle in einer Reihenfolge die einzelnen Merkmale platziert sind. Ordinalskalen besitzen weder gleiche Intervalle, noch verfügen sie über einen absoluten Nullpunkt. Die Begriffe sind nur komparativer Natur. Die Abstände zwischen den einzelnen Positionen sind nicht fest definiert. Es ist demnach nicht möglich, nach der Intensität von Unterschieden zwischen erhobenen Objekten zu unterscheiden. Beispiele sind Härteskala, Richterskala, Tabellenstand, Schulnote, Windstärke etc. 4.1.1.4 Intervallskala Die Intervallskala teilt ein Messkontinuum in einander wechselseitig ausschließende Merkmalsklassen auf und bezeichnet diese mit Zahlenwerten. Höhere Zahlenwerte kennzeichnen höhere Positionen auf dem Messkontinuum. Die Abstände zwischen den Merkmalsklassen sind gleich groß, Zahlenwertdifferenzen können

196

4. Statistische Datenauswertung

daher miteinander verglichen werden. Es ist demnach eine Gleichheit von Intervallen und Unterschieden bei einem willkürlich festgelegten Nullpunkt gegeben. Damit repräsentieren gleiche Intervalle zwischen den Zahlen auch gleiche Abstände im Hinblick auf die gemessene, empirische Eigenschaft. Allerdings sind keine Aussagen über absolute Merkmalsausprägungen möglich, da die Skala keinen natürlichen Nullpunkt aufweist. Jede positive lineare Transformation, d. h. Multiplikation / Division mit einer positiven Konstanten oder Addition / Subtraktion einer Konstanten, ist zulässig. Die Intervalle können miteinander addiert und subtrahiert werden, nicht jedoch miteinander multipliziert oder dividiert. Beispiele sind Temperatur (nicht Kelvin), Kalenderdatum, Intelligenzquotient etc. 4.1.1.5 Ratioskala Die Ratioskala (auch Verhältnisskala) teilt ein Messkontinuum in einander wechselseitig ausschließende Merkmalsklassen auf und bezeichnet diese mit Zahlenwerten. Höhere Zahlenwerte kennzeichnen höhere Positionen auf dem Messkontinuum. Die Abstände zwischen den Merkmalsklassen sind gleich groß, Zahlenwertdifferenzen können daher miteinander verglichen werden. Darüber hinaus ist ein absoluter Nullpunkt gegeben, weshalb sich auch Zahlenwertverhältnisse miteinander vergleichen lassen. Die Zahl Null hat hier eine empirische Bedeutung und darf nicht verschoben werden, denn sie besagt, dass das gemessene Merkmal dort nicht vorhanden ist. Alle vier Grundrechenarten sind anwendbar. Beispiele sind Länge, Zeit, Volumen, Preis, Einkommen, Währungseinheiten, ­Alter, Menge, Kundenzahl etc. Man fasst Nominal- und Ordinal-Skalenniveaus meist unter nicht-metrischer Skalierung zusammen, Intervall- und Ratio-Skalenniveaus unter metrischer ­Skalierung.

4.1.2 Skalierungstechniken Skalierbare Merkmale können ein- oder mehrdimensional sein. Eindimensional skaliert wird ein Merkmal, wenn der größte subjektive Unterschied zwischen drei Objekten gleich der Summe der beiden kleineren Unterschiede ist. Die Darstellung erfolgt also auf einer Geraden. Mehrdimensionale Merkmale können in mehrere eindimensionale zerlegt werden, indem immer nur eine paarweise Beziehung der Komponenten untersucht wird, oder aggregiert werden, indem stark korrelierende Komponenten durch Datenreduktionsverfahren zu einer neuen künstlichen Komponente zusammengezogen werden. Die Darstellung erfolgt also in einem Koordinatensystem.

4.1 Skalierung von Daten

197

Abbildung 33: Skalierungstechniken

Es lassen sich drei Gruppen von Skalierungsverfahren unterscheiden: •• Skalierungsähnliche (Selbsteinstufungs-)Verfahren sind solche, die keine Vorschrift darüber enthalten, wie die Itemwerte in Skalenwerte übersetzt werden sollen. Dieses Bewusstsein wird vielmehr bei den Befragungspersonen bereits vorausgesetzt. Die Testpersonen tragen dazu die wahrgenommenen Ausprägungen eines Merkmals auf einem Zahlenkontinuum (Ratingskala) ein. Daher kann mit Paarvergleich, Rangordnung etc. gearbeitet werden, oder allgemeiner mit ordinaler Messung. •• Eindimensionale Skalierungsverfahren stellen nur eine Dimension dar, meist die affektive Einstellung als hypothetisches Konstrukt, das empirisch allein noch nicht messbar ist. Dazu werden Guttman-, Likert-, Thurstone- und CoombsSkalierungen verwendet. Es handelt sich um eine objektive Fremdeinstufung. •• Mehrdimensionale Skalierungsverfahren werden der Komplexität des Objekts durch mehrere Merkmale gerecht, meist affektive und kognitive Einstellungen. Diese können auf ein subjektives, eindimensionales Kontinuum reduziert (Index) oder in objektiven, mehrdimensionalen, geometrischen Räumen dargestellt werden (Semantisches Differenzial, Mehrdimensionale Skalierung, FishbeinSkala, Trommsdorff-Skala, Multiattributivmodelle etc.). Ein- und mehrdimensionale Skalierungen beruhen auf Fremdeinstufung, bei denen der Untersuchungsleiter die eigentliche Messskala aus der Verknüpfung von Einzelwerten konstruiert, auf der dann Befragte positioniert werden. Die Itemselektion betrifft die Auswahl und Zusammenstellung der Itembatterie, mit der Befragte konfrontiert werden. Die Reaktionsinterpretation betrifft die Positionierung der Befragten auf der eigentlichen Messskala.

198

4. Statistische Datenauswertung

4.1.2.1 Selbsteinstufung Im Wesentlichen handelt es sich um Rating- und Magnitude-Skalen, ­Rangordnung und Paarvergleich.

Abbildung 34: Techniken der Selbsteinstufung

4.1.2.1.1 Ratingskala

Abbildung 35: Ratingskala

Die Ratingskala ist ein Kontinuum von in gleichen Abständen aneinander gefügten nummerischen Werten, in das eine Auskunftsperson die von ihr an einem Objekt wahrgenommenen Merkmalsausprägungen einträgt. Sie ermöglicht es dem Befragten, durch die Vorgabe abgestufter Antwortkategorien die Intensität sei-

4.1 Skalierung von Daten

199

ner Antwort anzugeben. Meist erfolgt die Messung bei verbalen Skalen auf Nominalniveau, bei unipolaren Skalen auf Ordinalniveau. Meist werden vier bis sieben Stufen vorgegeben, um das Unterscheidungsvermögen der Befragten nicht zu überfordern. Beim forcierten Rating wird eine eindeutige Angabe verlangt, ansonsten bleiben Ausweichkategorien (wie „Weiß nicht“/„keine Angabe“). Die Werte mehrerer Personen können summiert und als Durchschnitt wiedergegeben werden. Die Skala kann: •• gleitend oder polar sein. Gleitend bedeutet, dass Intensitäten durch ­Abstufungen ausgedrückt werden können, polar bedeutet, dass es nur extreme Ausprägungen gibt. •• unipolar oder bipolar sein. Unipolar bedeutet, dass die Abstufungen sich auf die Ausprägungen eines Merkmals beziehen (Stapelskala), also nur positive Zahlen umfassen, d. h. Intensitätsabstufungen nur einer Bezeichnung, der in mehr oder minder ausgeprägtem Maße zugestimmt werden kann bzw. die mehr oder minder abgelehnt werden kann (z. B. sehr gut – nicht so gut / stimme zu – stimme nicht zu). Bipolar bedeutet, dass sie sich auf zwei, diametral entgegen gesetzte Ausprägungen eines Merkmals beziehen, also positive und negative Zahlenwerte um den Nullpunkt haben, zwischen denen in Abstufungen zu wählen ist (z. B. gut – schlecht / billig – teuer, aktiv – passiv, stark – schwach). •• ungegliedert oder gegliedert sein. Ungegliedert bedeutet, dass Auskunftspersonen zwischen zwei Endwerten einen beliebigen Punkt markieren können. Damit sind theoretisch unendlich viele Skalenwerte denkbar. Dies spiegelt jedoch eine Scheingenauigkeit vor, denn tatsächlich sind Auskunftspersonen damit meist überfordert. Gegliederte Skalen vermeiden dieses Problem. •• verbal oder non-verbal sein. Verbal bedeutet, dass die einzelnen Punkte der Skala durch verbale Umschreibung der Intensitätsgrade ergänzt oder durch diese ersetzt sind. Problematisch ist dabei die Wahl geeigneter Statements. Verbale Antworten bergen oft das Problem der semantischen Ausbalancierung positiver und negativer Kategorien (z. B. stimme voll und ganz zu, stimme zu, stimme nicht zu, stimme ganz und gar nicht zu). Non-verbale Skalen vermeiden dieses Problem indem die Kategorien durch Symbole angegeben sind. Häufig handelt es sich dabei um Farben, geometrische Figuren etc. •• nummerisch oder grafisch. Nummerisch bedeutet, dass die Anzahl der Skalenpunkte durchgezählt ist, und zwar mit ungerader oder gerader Zahl von Alternativen. Meist sind vier bis sieben Abstufungen vorgegeben. Dabei ist eine gerade Anzahl von Skalenpunkten wegen der Tendenz zur Indifferenz („Fluchtpunkt“) gegenüber einer ungeraden Anzahl der Skalenpunkte (allerdings Häufung um den Mittelwert) zu bevorzugen. Ähnliches gilt für das Weglassen einer Ausweichkategorie (Weiß nicht) bei Forced choice-Ratings. Grafisch bedeutet, dass Wertungen nicht durch Nummerierung, sondern unter Verwendung von

200

4. Statistische Datenauswertung

Abbildung 36: Unipolare, bipolare, verbale, nummerische Skala

Bildern erfolgen, etwa durch vertikale Einteilung (Thermometer), größer werdende Flächen / Kreise oder Symbole wie freundlicher werdende Gesichtsikonen (Kunin-Scale). Probleme liegen darin, dass fraglich ist, ob die Skala von Probanden als intervall- oder ordinalskaliert begriffen wird. Meist werden ordinale Angaben wie metrische behandelt, weil unterstellt wird, dass die Abstände auf der Skala von Befragten als gleiche Intervalle aufgefasst werden. Außerdem ist keine Anpassung an individuell unterschiedliche Wahrnehmungsspektren möglich. So können nahe beieinander liegende, jedoch differenzierte Wahrnehmungen auf gleiche Skalenwerte gesetzt und Wahrnehmungen jenseits der vorgebenen Skalenwerte nicht mehr platziert werden. Ebenso gibt es intersubjektiv wohl erhebliche Abweichun-

4.1 Skalierung von Daten

201

gen hinsichtlich der Zuordnung von Wahrnehmungen zu Messwerten. Zudem stellt sich immer die Frage, welche Stimuli für welche Aufgabe wirklich relevant sind und ob nicht irrelevante beinhaltet und relevante ausgelassen sind. 4.1.2.1.2 Magnitude-Skala Die Magnitude-Skala dient zur Messung von Wahrnehmungsintensitäten. Grundannahme ist dabei, dass eine Person die Größe ihrer Empfindungsintensitäten unmittelbar in ein Kontinuum bestimmter Werte umsetzen kann. Es wird verlangt, dass einem Stimulus mit doppelter Stärke als ein anderer auch der doppelte Wert zugeordnet wird. Insofern können die Probanden ihre zustimmende oder ablehnende Haltung wesentlich feiner differenzieren als dies bei verbalen Antwortkategorien oder nummerischen Vorgaben möglich ist. Bei der Wahl des ersten Messwertes ist der Proband frei, alle folgenden müssen sich jedoch relativ dazu verhalten. Maßstab sind etwa Linienlänge, Tondauer, Lichtstärke, Kreisgröße etc.

Abbildung 37: Magnitude-Skala

Es soll also eine proportionale Beziehung zwischen der Ausübung eines physikalischen Reizes und dessen Wahrnehmung gemessen an der Reaktion wiedergegeben werden. Dadurch sollen die Nachteile der Rating-Skala vermieden werden. Die Ergebnisse können am ehesten als metrisch-skaliert angenommen und entsprechenden Rechenprozeduren unterworfen werden. Ebenso lässt sich die Validität der Skalierung prüfen. Allerdings erfordert die Anwendung der Modalitäten (wie Licht, Ton etc.) technische Geräte und damit Studiosituationen mit ihren immanenten Problemen.

202

4. Statistische Datenauswertung

4.1.2.1.3 Imagery-Differenzial Darunter versteht man ein non-verbales Messinstrument, dem ein Wert­urteil über die überragende Wirkung von Bildern bei der Wahrnehmung gegenüber Texten zugrunde liegt. Allerdings sind die Wirkungen von Bildern im Einzelnen schwer kontrollierbar. Daher muss ein anderes Messinstrument eingesetzt werden. Es handelt sich dabei um Dimensionen zur Beschreibung innerer Bilder, vor allem Klarheit, Gefallen, Intensität, Reichhaltigkeit, Informationsgehalt, Vertrautheit etc. Zur Kennzeichnung werden keine Begriffe, sondern unverfängliche, die jeweilig zu erhebende Eigenschaft widerspiegelnde Bilder genutzt. So steht etwa eine flache Straße für die polaren Dimensionen klar – neblig, ein Baum für blühend – kahl, ein Haus für nah – fern etc. 4.1.2.1.4 Rangordnung Bei der Rangordnung werden keine absoluten, sondern nur ordinale Angaben benötigt. Dazu ordnet die Versuchsperson eine Menge von Objekten in aufsteigender oder abfallender Rangordnung in Reihenfolge des Ausmasses, in dem sie das untersuchte Merkmal besitzen, an. Dies setzt das Vorhandensein mehrerer Stimuli voraus, die gerangreiht werden können. Dabei wird jedoch nichts über den Abstand zwischen einzelnen Rängen ausgesagt. Das heißt, ein Objekt, das von Probanden an einer bestimmten Rangstelle platziert wird, kann um Vieles oder nur um Weniges besser oder schlechter sein als das nachfolgende oder vorausgehende Objekt. Dadurch ergeben sich Interpretationsunsicherheiten. 4.1.2.1.5 Paarvergleich Beim Paarvergleich handelt es sich um eine messtechnisch weiterentwickelte Form des Rangordnungsverfahren. Aus einer Menge von Objekten gebildete Objektpaare werden von der Versuchsperson dahingehend beurteilt, welches Objekt das jeweils andere im Hinblick auf das Ausmaß des untersuchten Merkmals dominiert. Aus der Anzahl der Dominanzen einzelner Objekte ist die Bildung einer Rangordnung in Bezug auf das Merkmal möglich. Der höchste Rang steht dann für das Objekt, das am häufigsten im Paarvergleich als merkmalsdominant angesehen wird. Werden alle möglichen Paare gebildet, kommt es so zu n × (n-1)-halben Urteilen, was eine große Menge darstellen kann. Je mehr Objekte daran beteiligt sind, desto unübersichtlicher wird insofern die Einordnung. Deshalb wird dieser Vorgang meist in eine Vielzahl von Einzelvergleichen aufgelöst.

4.1 Skalierung von Daten

203

4.1.2.2 Subjektive Fremdeinstufung Befragungspersonen werden anhand unterschiedlicher Items auf der eigent­ lichen Messskala positioniert. Sie „sehen“ die Messskala gar nicht, sondern diese ergibt sich erst durch fremde Konstruktion der Einzelmesswerte. Die Probanden positionieren sich also nicht selbst, sondern werden durch den Forscher positioniert. Problematisch ist dabei die Itemselektion, d. h. die Auswahl und Zusammenstellung der Itembatterie, und die Reaktionsinterpretation, d. h. die Verknüpfung der Antworten auf der eigentlichen Messskala. 4.1.2.2.1 Indexbildung Bei der Indexbildung werden diese Probleme nach subjektiven, pragmatischen Gesichtspunkten des Forschers und nicht mit einem streng formalisierten Kalkül gelöst. Demnach sollen Sachverhalte, die ihrem Wesen nach mehrdimensional sind (z. B. Kundenzufriedenheit), durch eine einzige Messzahl, eben den Index, ausgedrückt werden. Dabei wird für jede der verschiedenen Teildimensionen ein Index gebildet und nach Kombination durch eine vom Forscher nach sachgemäßem Ermessen festgelegte Vorschrift auf einem eindimensionalen Messkontinuum abgebildet. Dabei können auch Gewichtungen zwischen den Variablen eingeführt werden. Fraglich ist allerdings, ob die Teildimensionen addiert werden dürfen, dies wäre nur erlaubt, wenn Intervall- oder Ratioskalenniveau unterstellt wird.

Abbildung 38: Indexbildung (gewichtetes Beispiel)

204

4. Statistische Datenauswertung

4.1.2.2.2 Konstantsummenskala Die Konstantsummenskala setzt eine feste Anzahl zu beurteilender Objekte voraus. Dabei wird eine bestimmte Anzahl von Präferenzen repräsentierenden Einheiten, z. B. Punkte, Geldbeträge, Zahlenperlen, nach vorgegebenen Kriterien den einzelnen zu beurteilenden Objekten zugewiesen. Je mehr Punkte einem Objekt zugeteilt werden, desto besser wird dieses in Bezug auf das Kriterium im Vergleich zu konkurrierenden eingestuft. Damit wird der häufig anzutreffenden Tendenz von Befragten entgegengewirkt, alle zu bewertenden Objekte als besonders wichtig, attraktiv etc. zu beurteilen, statt realistische Präferenzordnungen anzugeben.

Abbildung 39: Konstantsummenskala

Basis sind also Präferenzen als ganzheitliche Vorziehenswürdigkeitsurteile, die Ergebnisse von Lernen, Übernahme von anderen Personen oder Entscheidungsprozessen sind. Bei einer größeren Zahl von Beurteilungsobjekten sind die Probanden allerdings rasch in ihrer Urteilsfähigkeit überfordert, sodass oft eine bestimmte Anzahl von Punkten für einen Referenzreiz vorgegeben wird, an dem sich dann die anderen Stimuli orientieren können. Insgesamt handelt es sich hierbei um eine sehr praktikable Form der Messung.

4.2 Univariate Häufigkeitsanalyse

205

4.2 Univariate Häufigkeitsanalyse

Abbildung 40: Strukturierungsverfahren

Bei der univariaten Häufigkeitsanalyse wird aus der Datenmatrix nur eine Spalte herausgegriffen und die Verteilung der einzelnen Ausprägungen untersucht. Man unterscheidet absolute, relative und kumulierte Häufigkeiten. Häufigkeitsverteilungen ergeben sich nach mehreren Stufen. Zunächst liegt eine ungeordnete Beobachtungsreihe der erfassten Merkmalsausprägungen vor. Diese Einzelwerte werden der Größe nach aufgereiht. Ordnet man den möglichen Beobachtungswerten ihre zugehörigen Auftrittshäufigkeiten zu, ist eine Auszählung möglich, absolut als Zahlenwert und / oder relativ als einzelner Zahlenwert in Relation zu allen ermittelten Zahlenwerten. Dann erfolgt die grafische Veranschaulichung der Daten durch Ordinatendiagramm oder Häufigkeitspolygon. Beobachtungswerte können auch zu Klassen zusammengefasst werden. Dabei kommt es allerdings auf die Wahl der Klassenbreite sowie die Wahl des Ausgangs- und Endpunkts an. Die grafische Darstellung erfolgt durch Stab-, Säulen- oder Kreisdiagramme. Die Verteilungsfunktion ergibt sich aus den kumulierten Häufigkeiten. Danach kann die eigentliche Auswertung beginnen.

Abbildung 41: Verfahren der univariaten Analyse

206

4. Statistische Datenauswertung

4.2.1 Lokalisationsparameter Lokalisationsparameter sind Lagemaße, die diejenige Ausprägung eines Untersuchungsmerkmals kennzeichnen, die für die ermittelte Häufigkeitsverteilung am Typischsten ist. Dadurch wird eine Ordnung von Datenmaterial nach absoluten und relativen Häufigkeiten zur Feststellung von Verdichtungen und der Homogenität der Datenmenge vorgenommen. Als Maße kommen je nach Lage der Dinge jedoch durchaus verschiedene Werte in Betracht. Generell ist ihre Berechnung nur bei eingipfligen Häufigkeitsverteilungen sinnvoll.

Abbildung 42: Lokalisationsparameter

Modus Der Modus wird auch dichtester (häufigster) Wert genannt. Er stellt den Punkt mit der größten Merkmalskonzentration in einer Reihe dar, kommt also in einer Häufigkeitsverteilung am Häufigsten vor. Bei symmetrischer Verteilung fallen Zentralwert, dichtester Wert und arithmetisches Mittel zusammen. In allen anderen Fällen liegen die Werte mehr oder minder auseinander. Außerdem wird der Modus nicht durch Extremwerte als Ausreißer aus der Reihe tangiert. Er ist schnell und einfach zu ermitteln. Bei nicht-klassierten Daten ist der Modus direkt ablesbar, bei klassierten Daten über eine Formel leicht zu bestimmen. Er setzt mindestens Nominalskalenniveau voraus. Bei unimodaler Verteilung gibt es einen, bei multimodaler Verteilung mehrere häufigste Werte. Eingipflige Verteilungen lassen sich rasch als solche identifizieren. Andere Werte außer dem häufigsten, gehen jedoch nicht ein, sodass Aussageverzerrungen entstehen können. Der Modus bietet sich bei nominalen Daten an.

4.2 Univariate Häufigkeitsanalyse

207

Median Die Ermittlung des Median 1. Gerade Anzahl von Beobachtungen n:

2. Ungerade Anzahl von Beobachtungen n:

x = Merkmalsausprägung in einer nach Größe geordneten Folge von Merkmalsträgern

Der Median (Zentralwert) halbiert eine Reihe von Merkmalswerten. Voraussetzung ist eine geordnete Zahlenreihe gleichartiger Werte in auf- oder absteigender Folge, die mindestens ordinalskaliert ist. Er steht bei einer ungeraden Reihe von Zahlen immer in deren Mitte. Bei gerader Anzahl der Ursprungswerte bildet der Median immer das arithmetische Mittel zwischen den beiden mittleren Zahlen. Sind diese bereits zu Klassen verdichtet, ist die Klasse, bei der die 50 %-Grenze gerade übersprungen wird, die Einfallsklasse. Bei Häufigkeitstabellen ergibt sich der Median als Addition der Ursprungswerte multipliziert mit ihrer Häufigkeit, dividiert durch die Anzahl der Ursprungswerte. Er ist unanfällig gegen Extremwerte, welche die Verteilung verzerren, und daher besonders für Reihen weniger Werte geeignet. Allerdings kann er auch ein theoretischer Wert sein, der in den Ursprungsdaten so gar nicht vorkommt. Bei nicht-klassierten Daten ist der Median nach Ordnung der Reihe schnell abzählbar, bei klassierten Daten über eine Formel leicht zu bestimmen. Der Median bietet sich bei ordinalen Daten an. Einfaches arithmetisches Mittel Berechnung des einfachen arithmetischen Mittels

x1, x2, …, xn = Merkmalsausprägung n = Anzahl der Beobachtungen

Das einfache arithmetische Mittel ist der Quotient aus der Summe aller Einzelwerte und deren Anzahl. Es kann nur ermittelt werden, wenn die einzelnen Glieder der Reihe gleichwertig sind. Es teilt eine Reihe in zwei gleiche Hälften. Die Summe aller Werte oberhalb dieses Werts ist gleich der Summe aller Werte unterhalb dieses Werts, die Differenz dieser Werte ist gleich Null. Die Summe der Quadrate der Differenzen aller Werte oberhalb und unterhalb des arithmetischen Mittels ist minimal. Die Summe der Differenzen aller Werte von ihrem Mittelwert

208

4. Statistische Datenauswertung

ist gleich Null. Setzt man an die Stelle jedes Merkmalwerts jeweils das arithmetische Mittel, bleibt die Summe der gesamten Reihe konstant. Addiert man zu jedem Merkmalswert den gleichen Wert x hinzu, ändert sich das arithmetische Mittel um diesen Wert. Dasselbe gilt bei Subtraktion, Multiplikation oder Division. Bei klassierten Daten ist die Berechnung des arithmetischen Mittels mit Hilfe der Klassenmittelwerte leicht möglich. Voraussetzung sind metrisch-skalierte (kardinale) Daten. Nachteilig ist, dass Werte, die im Vergleich zu den übrigen Werten einer Reihe extrem hoch oder niedrig ausfallen, den Mittelwert übermäßig beeinflussen. Außerdem macht er wenig Sinn bei mehrgipfligen und asymmetrischen Verteilungen sowie sehr kleinen Stichproben. Das einfache arithmetische Mittel gilt als 1. Moment der Verteilung. Gewogenes arithmetisches Mittel Berechnung des gewogenen arithmetischen Mittels

und wegen

 , lässt sich dafür schreiben:

n = Anzahl der Beobachtungen k = Anzahl der dabeu aufgetretenen verschiedenen Ausprägungen, wobai k ≤ n

Das einfache arithmetische Mittel ist in gewisser Weise der Sonderfall des gewogenen arithmetischen Mittels, bei dem alle Merkmalswerte gleich gewichtet sind. Außerdem besteht aber beim gewogenen arithmetischen Mittel die Möglichkeit, die einzelnen Merkmalswerte einer Reihe unterschiedlich zu gewichten. Das gewogene arithmetische Mittel ist der Quotient aus den mit der Häufigkeit jedes Merkmalswerts multiplizierten Einzelwerten und der Summe ihrer Gewichte. Es ist höchstens so groß wie das arithmetische Mittel. Dazu werden alle Einzelwerte zuvor mit ihrem Gewicht multipliziert und dann erst summiert, bevor sie durch die Anzahl der Einzelwerte geteilt werden. Durch Logarithmieren wird es zum arithmetischen Mittel. Die Anfälligkeit gegenüber Extremwerten ist gering, da deren Bedeutung häufig durch ihr geringes Gewicht relativiert wird. Das gewogene arithmetische Mittel ist z. B. dann von Bedeutung, wenn ein durchschnittlicher Preis bei abweichenden Mengenzuordnungen berechnet werden soll. Bei klassierten Werte wird zudem angenommen, dass die Klassenmitte die Klasse repräsentiert, sodass die Multiplikation der Klassenmitte mit ihrer Besetzungszahl oder der Häufigkeit der Klasse den Gesamtwert für die Klasse ergibt.

4.2 Univariate Häufigkeitsanalyse

209

Geometrisches Mittel Berechnung des geometrischen Mittels 1. Einfaches …

2. Gewogenes …

x1, x2, …, xn = Merkmalsausprägung n = Anzahl der Beobachtungen

Beim (einfachen) geometrischen Mittel wird jeder Einzelwert einer Reihe mit dem folgenden Wert multipliziert. Aus dem Produkt aller n-Werte wird dann die n-te Wurzel gezogen. Zur Errechnung des gewogenen geometrischen Mittels wird jeder Einzelwert einer Reihe zuerst mit seinem Gewicht potenziert. Die sich daraus ergebenden Werte werden miteinander multipliziert. Aus dem Produkt wird dann entsprechend der Summe der Gewichte die Wurzel gezogen. Voraussetzung sind ratioskalierte / kardinale Daten. Das geometrische Mittel bietet sich an, wenn die Abstände einer Messwertreihe sich untereinander proportional zur Größe der Messwerte verhalten (z. B. Wachstumsraten). Es kann nicht berechnet werden, wenn einer der Werte negativ ist, da dann das gesamte Produkt negativ ist, oder wenn einer der Werte Null ist, da dann das gesamte Produkt Null ist. Außerdem kann die Anfälligkeit gegenüber Extremwerten durch die Art der Berechnung relativiert werden. Harmonisches Mittel Berechnung des harmonischen Mittels 1. Einfaches harmonisches Mittel

2. Gewogenes harmonisches Mittel

x1, x2, …, xn = Merkmalsausprägung n = Anzahl der Beobachtungen k = Anzahl der dabeu aufgetretenen verschiedenen Ausprägungen, wobai k ≤ n

210

4. Statistische Datenauswertung

Das harmonische Mittel ergibt sich als reziproker Wert des arithmetischen Mittels der reziproken Werte der einzelnen Merkmalsbeträge. Es wird relativ selten verwendet und zwar nur dann, wenn die reziproken Werte von Reihengliedern von Interesse sind. Es kann gewogen oder ungewogen ausgewiesen werden. Als Basis dienen kardinale Daten. Quartile Berechnung der Quartile 1. Quartil

2. Quartil

Zur Berechnung der Quartile ist es zunächst erforderlich, alle Merkmalswerte einer statistischen Gesamtheit der Größe nach zu ordnen. Das 1. Quartil liegt bei demjenigen Punkt einer Messwertskala, unterhalb dessen 25 % aller Messwerte liegen. Das 3. Quartil liegt bei demjenigen Punkt einer Messwertskala, unterhalb dessen 75 % aller Messwerte liegen. Das 2. Quartil liegt beim Median (Zentralwert). Zwischen dem 1. und dem 3. Quartil liegen 50 % aller Messwerte. Statt­ dessen können auch beliebige andere Teilgesamtheiten gebildet werden (z. B. Perzentile bei 100 Merkmalen, Dezile bei 10 Merkmalen, Median bei zwei Merkmalen), doch Quartile sind am Häufigsten anzutreffen. Bereichsmitte Die Bereichsmitte ist definiert als die Hälfte der Summe der kleinsten und der größten tatsächlich vorhandenen Merkmalsausprägungen. Dies ist wichtig, wenn eine Reihe von Modalitäten zwar bei Null beginnt, die Merkmalsausprägungen aber erst bei Werten > 0 in unterschiedlicher Häufigkeit beginnen. Dann liefert der Median ein verzerrtes Bild.

4.2.2 Dispersionsparameter Dispersionsparameter werden auch Streuungsmaße genannt und beschreiben die Verteilung der Einzelwerte einer Häufigkeitsverteilung um ihren Mittelwert. Sie charakterisieren damit zugleich die Variabilität von Datenmengen, so dass ersichtlich wird, wie repräsentativ der Mittelwert für die Gesamtheit tatsächlich ist. Die Daten müssen mindestens intervallskaliert, besser metrischskaliert sein.

4.2 Univariate Häufigkeitsanalyse

211

Abbildung 43: Dispersionsparameter

Spannweite

Die Spannweite (Variationsbreite) ist die Differenz zwischen dem größten und dem kleinsten Wert einer Reihe. Innerhalb dieses Streubereichs liegen alle betrachteten Merkmalswerte. Unterschiedliche Datenreihen können gleiche Mittelwerte haben, sich aber dennoch wesentlich voneinander in Bezug auf ihre Spannweite unterscheiden. Problematisch ist die Empfindlichkeit dieses Maßes gegen Aus­ reißer (Extremwerte). Daher kann die Spannweite nur zum schnellen Überblick über Häufigkeitsverteilungen dienen. Sie wird für ordinale Daten angewendet. Mittlere Abweichung Berechnung der mittleren Abweichung 1. Absolute mittlere Abweichung

2. Relative mittlere Abweichung

x¯ = Mittelwert n = Stichprobenumfang j = Summationsindex

Die mittlere (durchschnittliche) Abweichung ist das arithmetische Mittel a­ ller Abweichungen einer Reihe im Verhältnis zu deren Mittelwert. Dazu wird der

212

4. Statistische Datenauswertung

Durchschnitt aus den einfachen Abweichungen vom Mittelwert berechnet, wobei es sich auch um den Zentralwert handeln kann. Wichtig ist, dass die Abweichung aus den absoluten, nicht aus den quadratischen Abweichungen ermittelt wird, wobei negative Vorzeichen ignoriert werden. Es ist sowohl der gewogene als auch der ungewogene Fall möglich. Zugrunde liegen jeweils metrische Daten. Quartilsabstand Der Quartilsabstand ergibt sich aus der Differenz des 3. und des 1. Quartils, dividiert durch das 2. Quartil, also die halbe Differenz dieser Quartile. Durch diese werden die mittleren 50 % aller Elemente einer statistischen Masse begrenzt. Er ist ein Maß für die Streuung mindestens intervallskalierter Daten, ausnahmsweise auch bei Verteilungen mit gleicher zentraler Tendenz für ordinalskalierte Daten. Varianz Berechnung der Varianz

Die Varianz ist die Summe der quadratischen Abweichungen der Einzelwerte von ihrem Durchschnitt (= arithmetisches Mittel). Sie kann nur von metrischen (kardinalen) Daten bestimmt werden. Für die Quadrierung gibt es vor allem zwei Gründe, erstens ergibt die einfache Summation der Abweichungen den Wert Null, weil sich die Abweichungen über und unter dem arithmetischen Mittel genau ausgleichen (das ist gerade der Sinn des arithmetischen Mittels) und zweitens werden durch die Quadrierung weiter entfernt liegende Werte stärker berücksichtigt, größere Abweichungen also strenger ausgewiesen. Die Varianz ist stets ein positiver Wert, außer es liegt überhaupt keine Streuung vor (dann ist sie gleich Null). Es ist sowohl der gewogene als auch der ungewogene Fall möglich. Standardabweichung Berechnung der Standardabweichung

Die Standardabweichung (auch mittlere quadratische Abweichung genannt) ist die positive Quadratwurzel aus der Varianz. Die ungewogene Standardabweichung errechnet sich aus den Quadraten der einzelnen Differenzen der Werte zum Mittelwert einer Reihe, die addiert werden. Diese Summe wird durch die Anzahl der

4.2 Univariate Häufigkeitsanalyse

213

Einzelwerte, vermindert um 1, dividiert. Aus dem Ergebnis wird dann die Quadrat­ wurzel gezogen. Diese Berechnung gibt den hohen Abweichungswerten einen stärkeren Einfluss auf das Ergebnis. Dadurch wird eine gute Repräsentanz für die Ursprungswerte erreicht. Die Standardabweichung lässt sich einfacher inhaltlich interpretieren als die Varianz, da sie in derselben Einheit vorliegt wie die Daten und deren Mittelwert. Die Standardabweichung ist das 2. Moment einer Verteilung, sie gilt für metrische / kardinale Werte. Variationskoeffizient Berechnung des Variationskoeffizienten

x¯ = Mittelwert S = Standardabweichung

Der Variationskoeffizient (auch mittlere relative Abweichung) ist der Quotient aus Standardabweichung und zugehörigem Mittelwert. Er gibt das prozentuale Verhältnis der absoluten Streuung zu einem Durchschnitt an, von dem die ­Streuung berechnet wurde, und relativiert diese damit. Dadurch kann die Streuung von Variablen mit unterschiedlicher Niveaulage, also unabhängig von der absoluten Größe, vergleichbar gemacht werden. Der Variationskoeffizient ist dimen­ sionslos, sodass auch Streuungen von Merkmalswerten, die in verschiedenen Dimensionen gemessen werden, vergleichbar sind. Er gilt für metrische / kardinale Werte.

4.2.3 Formparameter Schiefemaß Berechnung der Schiefe f einer Verteilung

Das Schiefemaß (nach Pearson) errechnet sich aus der Differenz zwischen dem arithmetischen Mittel und dem Modus, die durch die Standardabweichung dividiert wird. Die Schiefe kennzeichnet die Symmetrie oder Asymmetrie von Häufigkeitsverteilungen. Fallen Modus, Median und arithmetisches Mittel zusammen, ist die Verteilung vollkommen symmetrisch. Kommen Modus, Median und arithmetisches Mittel nacheinander, handelt es sich um eine linksschiefe Verteilung, bei umgekehrter Reihenfolge um eine rechtsschiefe Verteilung. Eine Verteilung ist dem-

214

4. Statistische Datenauswertung

nach linksschief (= rechtssteil eingipflig), wenn die Mehrzahl der Ursprungswerte über dem Mittelwert liegt. Eine Verteilung ist hingegen rechtsschief (= linkssteil eingipflig), wenn die Mehrzahl der Ursprungswerte über dem Mittelwert liegt. In diesen Fällen spricht man von einer unimodalen Verteilung. Mehrgipflige Verteilungen nennt man bi- oder polymodal. Die durchschnittlichen potenzierten Abweichungen der Merkmalswerte vom Nullpunkt oder dem arithmetischen Mittel sind ein Maß für die Schiefe der Verteilung. Werte > 0 indizieren eine rechtsschiefe, Werte