Einführung in die Marktforschung [1 ed.] 9783428547944, 9783428147946

Daten sind in unserer Informationsgesellschaft zum wichtigsten Produktionsfaktor geworden, wobei nicht die Datenmenge, s

133 66 11MB

German Pages 249 Year 2015

Report DMCA / Copyright

DOWNLOAD FILE

Polecaj historie

Einführung in die Marktforschung [1 ed.]
 9783428547944, 9783428147946

Citation preview

Werner Pepels

Einführung in die Marktforschung

Duncker & Humblot · Berlin

WERNER PEPELS

Einführung in die Marktforschung

Einführung in die Marktforschung

Von

Werner Pepels

Duncker & Humblot · Berlin

Bibliografische Information der Deutschen Nationalbibliothek Die Deutsche Nationalbibliothek verzeichnet diese Publikation in der Deutschen Nationalbibliografie; detaillierte bibliografische Daten sind im Internet über http://dnb.d-nb.de abrufbar.

Umschlagbild: © psdesign1 – Fotolia.com Alle Rechte vorbehalten

© 2015 Duncker & Humblot GmbH, Berlin

Fremddatenübernahme: TextFormA(r)t Daniela Weiland, Göttingen Druck: CPI buchbücher.de GmbH, Birkach Printed in Germany ISBN 978-3-428-14794-6 (Print) ISBN 978-3-428-54794-4 (E-Book) ISBN 978-3-428-84794-5 (Print & E-Book) Gedruckt auf alterungsbeständigem (säurefreiem) Papier entsprechend ISO 9706

Internet: http://www.duncker-humblot.de

Vorwort Bei „Einführung in die Marktforschung“ handelt es sich um die komprimierte Fassung des Handbuchs „Moderne Marktforschung“, 3. Auflage, das wie dieses Werk im Verlag Duncker & Humblot, Berlin, erschienen ist (2014). Damit kommen Verlag und Autor Nachfragen aus dem Lesermarkt nach einem auf die wesentlichen Inhalte der Marktforschung konzentrierten Lehrbuch aus der Feder des Autors nach. Dies wird im Einzelnen in zwölf Kapiteln umgesetzt. Zu den systematisch-­ analytischen Inhalten gehören folgende: • Grundlagen der Marktforschung (1), • Verfahren zur Informationsgewinnung (2), • Verfahren zur Auswahl der Erhebungseinheiten (3), • Verfahren zur Informationserhebung (4), • Online-Erhebungsverfahren (5), • Statistische Verfahren zur Datenauswertung (6), • Verfahren zur Marktprognose (7). Darauf aufbauend werden beispielhaft strategische Anwendungen der Marktforschung dargestellt wie: • Marktsegmentierung (8), • Positionierung (9), • Strategische Marktforschung (10). Ausführlich werden in den beiden letzten Kapiteln operative Anwendungen der Marktforschung aufgezeigt wie • Produkttests, • Erstmalige Preisfindung, • Werbeeffizienzmessungen, • Verkaufs-Panels, • Kundenzufriedenheitsmessungen, • Lebensstilforschung, • Wettbewerbsforschung, • Beschaffungsverhalten.

6

Vorwort

Insofern werden trotz des gegenüber dem Handbuch nunmehr deutlich verringerten Seitenumfangs alle relevanten Inhalte einer arbeitsfähigen Einführung in die Marktforschung für Studierende wie auch für Fach- und Führungskräfte der Wirtschaft berücksichtigt. Der Autor dankt dem Verlag Duncker&Humblot, vor allem Dr. Florian Simon, Geschäftsführer, und Heike Frank, Herstellerin, für die stets kooperative und konstruktive Zusammenarbeit auch bei der Entstehung dieses Werks. Den Leserinnen und Lesern sei nunmehr aller erdenkliche Erfolg bei der Nutzung der dargebotenen Inhalte für Studien- und Prüfungsleistungen wie auch in Praxisprojekten und laufender Marketingarbeit gewünscht. Krefeld, im August 2015

Werner Pepels

Inhaltsverzeichnis 1. Grundlagen der Marktforschung . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 15 1.1 Begrifflichkeiten . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 15 1.2 Abgrenzungen . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 18 1.3 Träger der Marktforschung . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 20 2. Verfahren zur Informationsgewinnung . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 25 3. Verfahren zur Auswahl der Erhebungseinheiten . . . . . . . . . . . . . . . . . . . . . . . . . 29 3.1 Teilerhebung . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 29 3.2 Stichprobengröße . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 30 3.3 Zufallsauswahlverfahren . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 31 3.4 Bewusstauswahlverfahren . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 35 3.5 Verzerrungen bei der Auswahl . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 38 4. Verfahren zur Informationserhebung . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 41 4.1 Sekundärforschung . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 41 4.2 Primärforschung . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 42 4.2.1 Befragungsverfahren . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 43 4.2.1.1 Gruppendiskussion . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 44 4.2.1.2 Mündliche Einzelbefragung . . . . . . . . . . . . . . . . . . . . . . . . . . 46 4.2.1.3 Fragearten . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 49 4.2.1.4 Fragestrategie . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 53 4.2.1.5 Fragetaktik . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 58 4.2.1.6 Interviewerbedeutung . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 60 4.2.1.7 Durchführung der mündlichen Befragung . . . . . . . . . . . . . . . 62 4.2.1.8 Telefonische Befragung . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 63 4.2.1.9 Schriftliche Befragung . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 65 4.2.1.10 Computergestützte Befragung . . . . . . . . . . . . . . . . . . . . . . . . 68 4.2.2 Beobachtungsverfahren . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 71 4.2.2.1 Begriff und Inhalt . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 71 4.2.2.2 Sonderform Panel . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 75 4.2.3 Experimentalverfahren . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 76

8

Inhaltsverzeichnis

5. Online-Erhebungsverfahren . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 82 5.1 Einordnung . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 82 5.2 Online-Sekundärforschung . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 85 5.3 Online-Primärforschung . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 88 5.3.1 Auswahlverfahren . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 88 5.3.2 Online-Befragung . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 92 5.3.2.1 Computer Assisted Web Interviewing . . . . . . . . . . . . . . . . . . 92 5.3.2.2 WWW-Befragung . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 94 5.3.2.3 e-Mail-Befragung . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 96 5.3.2.4 Newsgroup-Befragung . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 98 5.3.2.5 IRC-Befragung . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 99 5.3.3 Online-Beobachtung . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 100 5.3.3.1 WWW-Logfile-Analyse . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 101 5.3.3.2 Themenorientierte Beobachtung . . . . . . . . . . . . . . . . . . . . . . 103 5.3.4 Online-Experiment . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 106 5.4 Social Media Monitoring . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 107 5.5 Sicherung der Datenqualität . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 108 6. Statistische Verfahren zur Datenauswertung . . . . . . . . . . . . . . . . . . . . . . . . . . . . 111 6.1 Univariate Analyseverfahren . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 111 6.2 Multivariate Analyseverfahren . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 113 6.3 Präsentation . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 118 7. Verfahren zur Marktprognose . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 119 7.1 Prognosearten . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 119 7.2 Prognosemodelle . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 122 7.2.1 Verfahren der intuitiven Prognose . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 122 7.2.2 Verfahren der systematischen Prognose . . . . . . . . . . . . . . . . . . . . . . . . 126 7.2.2.1 Deskriptive Verfahren . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 126 7.2.2.2 Analytische Verfahren . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 131 7.3 Grenzen der Prognose . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 133 8. Marktsegmentierung . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 135 8.1 Segmentierungsanliegen . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 135 8.2 Segmentierungsvoraussetzungen . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 137 8.3 Kriterien zur Segmentbeschreibung . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 138

Inhaltsverzeichnis

9

9. Positionierung . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 145 9.1 Begrifflichkeiten . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 145 9.2 Stufen zur Entwicklung . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 146 10. Strategische Marktforschung . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 153 10.1 Deskriptive Tools . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 153 10.1.1 Lebenszyklus-Analyse . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 153 10.1.2 STEPP-Analyse und Umfeld-Analyse . . . . . . . . . . . . . . . . . . . . . . . . . 156 10.1.3 Branchenstruktur-Analyse . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 157 10.1.4 Ressourcen-Analyse und Potenzial-Analyse . . . . . . . . . . . . . . . . . . . . 160 10.1.5 Stärken-Schwächen-Analyse . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 161 10.2 Analytische Tools . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 161 10.2.1 SWOT-Analyse und TOWS-Matrix . . . . . . . . . . . . . . . . . . . . . . . . . . . 161 10.2.2 Portfolio-Analysen . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 163 11. Häufige Marktforschungsanwendungen im Marketing-Instrumentarium . . . . 165 11.1 Produkttests . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 165 11.1.1 Regionaler Testmarkt . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 165 11.1.2 Testmarktersatzverfahren . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 167 11.1.2.1 Testmarktsimulation . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 167 11.1.2.2 Storetest . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 168 11.1.2.3 Mini-Markttest . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 169 11.1.2.4 Elektronischer Mikro-Markttest . . . . . . . . . . . . . . . . . . . . . . . 171 11.2 Erstmalige Preisfindung . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 173 11.2.1 Beobachtungsverfahren . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 174 11.2.2 Befragungsverfahren . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 175 11.2.3 Experimentalverfahren . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 178 11.2.4 Bieteverfahren . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 180 11.3 Werbeeffizienzmessung . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 182 11.3.1 Werbewirkungsprognose . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 183 11.3.1.1 Explorative Verfahren . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 184 11.3.1.2 Aktualgenetische Testverfahren . . . . . . . . . . . . . . . . . . . . . . . 184 11.3.1.3 Psychomotorische Testverfahren . . . . . . . . . . . . . . . . . . . . . . 185 11.3.1.4 Mechanische Testverfahren . . . . . . . . . . . . . . . . . . . . . . . . . . 187

10

Inhaltsverzeichnis 11.3.1.5 Projektiv-assoziative Testverfahren . . . . . . . . . . . . . . . . . . . . 188 11.3.1.6 Spezielle Werbetests . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 189 11.3.2 Werbeerfolgsprognose . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 190 11.3.3 Werbewirkungskontrolle . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 190 11.3.3.1 Ad hoc- und Wellenerhebungen . . . . . . . . . . . . . . . . . . . . . . . 191 11.3.3.2 Empfängeranalysen . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 192 11.3.3.3 Kontaktanalysen . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 193 11.3.4 Werbeerfolgskontrolle . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 194 11.4 Verkaufs-Panels . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 195 11.4.1 Haushalts-Panel . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 197 11.4.2 Handels-Panels . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 199

12. Marketing-Mix-übergreifende Marktforschungsanliegen . . . . . . . . . . . . . . . . . . 204 12.1 Kundenzufriedenheitsmessungen . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 204 12.1.1 Objektive Zufriedenheitsmessung . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 204 12.1.1.1 Quantitative Indikatoren . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 204 12.1.1.2 Qualitative Indikatoren . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 205 12.1.2 Subjektive Zufriedenheitsmessung . . . . . . . . . . . . . . . . . . . . . . . . . . . . 207 12.1.2.1 Explorative Erfassung . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 208 12.1.2.2 Merkmalsgestützte Erfassung . . . . . . . . . . . . . . . . . . . . . . . . 210 12.1.2.3 Ereignisgestützte Erfassung . . . . . . . . . . . . . . . . . . . . . . . . . 216 12.1.2.4 Problemgestützte Erfassung . . . . . . . . . . . . . . . . . . . . . . . . . . 217 12.2 Lebensstilforschung . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 219 12.2.1 Wertebasis . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 219 12.2.2 Lebensstiltypologien . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 222 12.3 Wettbewerbsforschung . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 229 12.4 Marktforschung bei gewerblicher Beschaffung . . . . . . . . . . . . . . . . . . . . . . . . 233 12.4.1 Segmentierung im B-t-B-Sektor . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 233 12.4.2 Kaufentscheidung im B-t-B-Sektor . . . . . . . . . . . . . . . . . . . . . . . . . . . 236 12.4.2.1 Buying Center . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 236 12.4.2.2 Potenzialkonzept . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 238 12.4.2.3 Reagiererkonzept . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 239 12.4.2.4 Informationskonzept . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 240 Literatur . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 242 Sachwortverzeichnis . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 244

Abbildungsverzeichnis Abbildung 1:

Abgrenzung Marketingforschung vs. Marktforschung . . . . . . . . . . . . . 15

Abbildung 2:

Funktionen der Marktforschung . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 16

Abbildung 3:

Arbeitsphasen der Marktforschung . . . . . . . . . . . . . . . . . . . . . . . . . . . . 17

Abbildung 4:

Abgrenzungen der Marktforschung . . . . . . . . . . . . . . . . . . . . . . . . . . . . 18

Abbildung 5:

Träger der Marktforschung . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 21

Abbildung 6:

Informationsgrad von Daten . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 25

Abbildung 7:

Anforderungen an Informationen . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 26

Abbildung 8:

Wahrheitsgehalt von Daten . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 27

Abbildung 9:

Auswahlverfahren . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 29

Abbildung 10: Verfahren der Zufallsauswahl . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 31 Abbildung 11: Formen der Systematischen Zufallsauswahl . . . . . . . . . . . . . . . . . . . . . 32 Abbildung 12: Sonderformen der Zufallsauswahl . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 34 Abbildung 13: Verfahren der Bewusstauswahl . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 35 Abbildung 14: Verzerrungen bei der Auswahl . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 38 Abbildung 15: Formen der Primärforschung . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 42 Abbildung 16: Formen der Befragung . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 43 Abbildung 17: Formen der mündlichen Befragung . . . . . . . . . . . . . . . . . . . . . . . . . . . . 44 Abbildung 18: Formen der Einzelbefragung . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 46 Abbildung 19: Fragearten . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 50 Abbildung 20: Fragenformulierung . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 53 Abbildung 21: Fragefunktionen . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 54 Abbildung 22: Instrumentalfragen . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 55 Abbildung 23: Sonderfragen . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 57 Abbildung 24: Omnibusbefragung . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 59 Abbildung 25: Interviewerbedeutung . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 60 Abbildung 26: Engpass der schriftlichen Befragung . . . . . . . . . . . . . . . . . . . . . . . . . . . 67 Abbildung 27: Computergestützte Befragung . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 68

12

Abbildungsverzeichnis

Abbildung 28: Formen der Beobachtung . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 72 Abbildung 29: Bewusstseinsgrad der Beobachtung . . . . . . . . . . . . . . . . . . . . . . . . . . . . 73 Abbildung 30: Variable des Experiments . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 77 Abbildung 31: Formen des Experiments . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 77 Abbildung 32: Formen von Tests . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 80 Abbildung 33: Formen der Online-Primärforschung . . . . . . . . . . . . . . . . . . . . . . . . . . . 91 Abbildung 34: Univariate Analyseverfahren . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 111 Abbildung 35: Multivariate Analyseverfahren . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 113 Abbildung 36: Einteilungen der Marktprognose . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 120 Abbildung 37: Intuitive Prognosemodelle . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 123 Abbildung 38: Systematische Prognosen . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 128 Abbildung 39: Kurzfristige Prognoseverfahren . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 128 Abbildung 40: Langfristige Prognoseverfahren . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 130 Abbildung 41: Ansätze zur Marktsegmentierung . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 135 Abbildung 42: Voraussetzungen der Marktsegmentierung . . . . . . . . . . . . . . . . . . . . . . 137 Abbildung 43: Marktsegmentierungskriterien . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 138 Abbildung 44: Darstellung der Positionierung . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 146 Abbildung 45: Marktabgrenzungskriterien . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 147 Abbildung 46: Mapping Relevanter Markt . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 151 Abbildung 47: Schema der Feldtheorie . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 151 Abbildung 48: Branchenstruktur-Analyse . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 157 Abbildung 49: SWOT-Analyse und TOWS-Matrix . . . . . . . . . . . . . . . . . . . . . . . . . . . . 162 Abbildung 50: BCG-Matrix . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 164 Abbildung 51: Formen von Produkttests . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 165 Abbildung 52: Verfahren zur erstmaligen Preisfindung . . . . . . . . . . . . . . . . . . . . . . . . . 173 Abbildung 53: Optionen der Werbeeffizienzmessung . . . . . . . . . . . . . . . . . . . . . . . . . . 183 Abbildung 54: Werbewirkungsprognosen . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 183 Abbildung 55: Werbewirkungskontrollen . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 191 Abbildung 56: Formen der Kohortenanalyse . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 196 Abbildung 57: Arten von Panels . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 196 Abbildung 58: Erhebung im Panel . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 196 Abbildung 59: Probleme bei Haushaltspanels . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 198

Abbildungsverzeichnis

13

Abbildung 60: Nielsen-Gebiete in Deutschland . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 203 Abbildung 61: Objektive Zufriedenheitsmessung . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 205 Abbildung 62: Subjektive Zufriedenheitsmessung . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 207 Abbildung 63: Sinus-Milieus in Deutschland . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 224 Abbildung 64: Euro Socio Styles . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 227 Abbildung 65: Segmentierung im B-t-B-Sektor . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 233 Abbildung 66: Entscheidung im B-t-B-Sektor . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 236

Abkürzungsverzeichnis ADM Arbeitskreis Deutscher Marktforscher Activities, Interests, Opinions AIO Business to Business (zwischen Gewerbetreibenden) B-t-B B-t-C Business to Consumer (Private und Gewerbetreibende) Bestellung unter Bezugnahme auf Werbung BuBaW Bundesverband Deutscher Markt- und Sozialforscher BVM Computer Assisted Personal Interviewing CAPI Computer Assisted Self Interviewing CASI Computer Assisted Telephone Interviewing CATI Computer Assisted Web Interviewing CAWI Controlled Exposure Day After Recall CEDAR CJM Conjoint Measurement DAR Day After Recall EEG Elektro-Encephalo-Gramm Einstellung – Verhalten E-V FMCG Fast Moving Consumer Good Global Trade Item Number GTIN IPO Initial Public Offering IRC Internet Relay Chat (Web 1.0-Technik) Informationsgemeinschaft zur Feststellung der Verbreitung von WerbeträIVW gern Mafo Marktforschung MDS Multidimensionale Skalierung PAF Preis-Absatz-Funktion political, economical, socio-cultural, technological PEST Picture Frustration Test PFT POS Point of Sales PZT Personen-Zuordnungs-Test SDR Same Day Recall Strategische Geschäfts-Einheit SGE STEPP socio-cultural, technological, economical, politisch, physical-ecological SWOT Strengths, Weaknesses, Opportunities, Threats Thematischer Apperzeptions-Test TAT TOWS Threats, Weaknesses, Opportunities, Strengths VALS Values and Lifestyle WAT Wort-Assoziations-Test World Wide Web (Web 1.0-Technik) WWW

1. Grundlagen der Marktforschung 1.1 Begrifflichkeiten Marktinformationen sind Voraussetzung für jedwedes ökonomische Handeln. Ohne oder ohne ausreichende Informationen besteht die Gefahr, falsche Entscheidungen zu treffen. Dies gilt vor allem angesichts zunehmend kom­plexer Vermarktungsbedingungen. Informationen sind also eminent wichtig.

Absatzforschung (Marketingforschung) Meinungen, Motive etc.

interne Quellen

Marktforschung

Abbildung 1: Abgrenzung Marketingforschung vs. Marktforschung

Marketingforschung ist die systematische Sammlung, Aufbereitung und Interpretation von Daten zur Erkennung und Ableitung von Informationsgrundlagen für Marketing-Entscheidungen. Marketingforschung ist vom verwechslungsfähigen Begriff Marktforschung dadurch abgegrenzt, dass Marktforschung sich sowohl auf die externen Absatz- als auch die Beschaffungsmärkte, also Größen wie Lieferanten, Beschaffungswege, Lieferfristen, Transportmittel, Einkaufsqualitäten etc., des Betriebs bezieht, Marketingforschung jedoch nur auf die Absatzmärkte ausgerichtet ist, zusätzlich aber intern auf die Marketingaktivitäten des Betriebs, also Absatzsegmentrechnung, Außendienstberichtswesen etc. (siehe Abbildung 1). Ein anderer Begriff für Marketingforschung ist Absatzforschung. Davon abzugrenzen ist die Absatzbeobachtung (oder auch Markterkundung), die nur ein eher zufälliges, gelegentliches Abtasten des Marktes darstellt, also nicht systematisch erfolgt. Marketingforschung, im Folgenden nicht ganz trennscharf, aber üblich als Marktforschung bezeichnet, nimmt eine Vielzahl wichtiger Funktionen im Betrieb wahr (siehe Abbildung 2):

16

1. Grundlagen der Marktforschung

Funktionen der Marktforschung Früherkennung für Risiken

Wissensentwicklung im Unternehmen

Anregung zu Chancen

Informationsselektion

Entscheidungshilfe im Management

Einfluss der Umfeldbedingungen

Abbildung 2: Funktionen der Marktforschung

• Sie sorgt dafür, dass Risiken frühzeitig erkannt und abgeschätzt werden können. Das Risikomanagement ist heute nicht nur eine unternehmensindividuelle Initiative, sondern durch Rechnungslegungsvorschriften und Corporate Governance institutionalisiert. • Sie trägt dazu bei, dass Chancen und Entwicklungen aufgedeckt und antizipiert werden, bietet also Anregungen. Gerade in reifen und stagnierenden Märkten kann häufig nur auf diese Weise noch ein Wettbewerbsvorsprung erreicht werden. • Sie trägt im willensbildenden Prozess zur Unterstützung der Betriebsführung bei. Durch die Absicherung mit Fakten und Daten wird eine belastbarere Entscheidungsbasis im Management geschaffen. • Sie schafft bei der Entscheidungsfindung eine Präzisierung und Objektivierung von Sachverhalten. Statt interindividuell stark schwankender Meinungen und Gefühle kann auf eine objektivierte Diskussionsbasis zurückgegriffen werden. • Sie fördert das Verständnis von Zielvorgaben und Lernprozessen im Betrieb. Erfahrungen aus Marktforschungsprojekten und deren reflektierender Beurteilung gehen in die Informationsgewinnung und -interpretation für weitere Projekte ein, sodass eine Lernkurve entsteht. • Sie selektiert aus der Flut umweltbedingter Informationen die relevanten Informationen und bereitet diese auf. In Zeiten eines Information Overload ist es unerlässlich, die entscheidensbedeutsamen Informationen von den anderen zu scheiden.

1.1 Begrifflichkeiten

17

• Sie hilft, Veränderungen des marketingrelevanten Umfelds abzuschätzen und Auswirkungen auf das eigene Geschäft aufzuzeigen. Damit kann sich ein Unternehmen proaktiv auf den Wandel von Markt, Wettbewerb und Nachfrage einstellen. Wenn man sich gedanklich einem Forschungsprojekt nähert, so ist es sinnvoll, sich zunächst die Schritte auf dem Weg von der Ausgangssituation zur Zielsituation vor Augen zu führen. Die einzelnen Arbeitsphasen betreffen hier bei professioneller Vorgehensweise die folgenden (siehe Abbildung 3):

Arbeitsphasen der Marktforschung Anregungsphase

Definitionsphase

Konzeptionsphase

Datenerhebungsphase

Aufbereitungsphase

Interpretationsphase

Kommunikationsphase

Abbildung 3: Arbeitsphasen der Marktforschung

• Die Anregungsphase dient der Identifizierung von Informationsbedarfen und der Themenstrukturierung. Hier wird der Bedarf einer Marktforschung etabliert, möglichst sollte die Anregung aktiv oder proaktiv ins Gespräch gebracht werden, • Die Definitionsphase betrifft die Formulierung des Untersuchungsziels und dessen Umsetzung in ein Forschungsproblem. Dies ist eminent wichtig, da erstaunlicherweise häufig ohne klare Zielvorgabe vorgegangen wird. • In der Konzeptionsphase geht es um die Erstellung eines detaillierten Forschungskonzepts, in dem Datengewinnung, -verarbeitung und -auswertung dargelegt sind. Dies ist die unerlässliche „Road Map“ für ein Forschungsvorhaben. • Die Datenerhebungsphase umfasst die Datengewinnung durch eigene Felderhebung, durch Organisation Externer (Mafo-Institut) oder durch Schreibtisch-

18

1. Grundlagen der Marktforschung

recherche (Sekundärforschung). Hier geht es um die Durchführung des Forschungsvorhabens. • Die Aufbereitungsphase betrifft die Dokumentation der Daten, ihre Kontrolle auf Schlüssigkeit sowie die Datenträgerverschlüsselung. Wichtig ist dabei, dass keine Daten untergehen oder verfälscht werden („Garbage in – Garbage out“). • Die Interpretationsphase. Sie stellt die eigentliche Denkleistung durch Analyse und Schlussfolgerung der gewonnenen Daten dar. Hier erfolgt das gewünschte Learning aus der Forschungsarbeit. • Die Kommunikationsphase. Sie betrifft die Präsentation von Empfehlungen auf Basis der gewonnenen Daten. Ohne eine angemessene Präsentation bei Entscheidungsträgern sind die Ergebnisse des Forschungsvorhabens nicht nutzbar.

1.2 Abgrenzungen

Abgrenzungen der Marktforschung

Mikro- oder Makroumwelt

betriebswirtschaftliche oder volkswirschaftliche Daten

betriebsinterne- oder -externe Quellen

Primärforschung oder Sekundärforschung

demoskopische oder ökoskopische Daten

vergangenheits-, gegenwartsoder zukunftsbezogene Daten

B-t-C-Märkte oder B-t-B-Märkte

einmalige oder mehrmalige Erhebung

Marketing-Mix-Instrumente

betriebliche oder institutionale Durchführung

Meinungen, Motive, Images, Verhaltensweise, Käufer etc.

Abbildung 4: Abgrenzungen der Marktforschung

1.2 Abgrenzungen

19

Marktforschung tritt in vielfältigen Arten in Erscheinung. Um ein engeres Verständnis der Inhalte zu erreichen, ist es sinnvoll, die wichtigsten von ihnen näher zu betrachten (siehe Abbildung 4). Es handelt sich um die folgenden: • Als zu erforschende Umfelder gelten die Mikro- und die Makroumwelt. Zur Mikroumwelt gehören vor allem Größen wie Nachfrage, Konkurrenz, Interessengruppen etc., zur Makroumwelt gehören Größen wie Technik, Politik, Recht, Ökologie etc. Für Unternehmen sind beide Umfelder gleichermaßen von­ Bedeutung. • Als Quellen für die Informationsgewinnung kommen betriebsinterne und betriebsexterne in Betracht. In beiden Fällen sind die Voraussetzungen für Informationen bereits gegeben, sie müssen nur aktiviert werden. Hier setzt das Wissens­management in Unternehmen an („Wenn Siemens wüsste, was Siemens weiß.“). • Die Informationsinhalte sind demoskopischer oder ökoskopischer Natur, d. h., es handelt sich um subjektiv persönliche Daten, z. B. Geschlecht, Alter, Beruf, oder um objektiv sachliche Daten, z. B. Umsatz, Marktanteil, Belegschaft. Beide Inhalte sind für betriebswirtschaftliche Entscheidungen hoch relevant. • Bei den untersuchten Leistungen handelt es sich um Konsumtiv- oder Produktivgüter sowie Dienstleistungen. Entsprechend den Besonderheiten dieser Märkte ist die Forschung ausgerichtet. Dabei ergeben sich signifikante Unterschiede zwischen B-t-C- und B-t-B-Märkten. • Nach den relevanten Marketinginstrumenten beziehen sich Untersuchungen auf die Produkt- und Programmforschung, auf die Preis- und Konditionen­ forschung, auf die Kommunikations- und Identitätsforschung oder die Distributions- und Verkaufsforschung. Nach verbreiteter Meinung kommt noch die Personalforschung bei Dienstleistungen hinzu. • Bei der Art von Informationen kann es sich um betriebswirtschaftliche oder volkswirtschaftliche Daten handeln, also solche, die einzelbetrieblich aus­ gerichtet oder überbetrieblich ausgerichtet sind. Hier sind vor allem die einzelbetrieblich ausgerichteten Informationen von Belang. • Nach der Erhebungsform kann man danach unterscheiden, ob Daten eigens für einen spezifischen Zweck erhoben werden, dann spricht man von Primär­ forschung (oder auch anschaulich von Field Research), oder ob sie bereits vorhanden sind, dann spricht man von Sekundärforschung (oder von Desk Research). Eine Sekundärforschung ist in jedem Fall zunächst anzuraten. • Nach der zeitlichen Dimension handelt es sich um Größen, die vergangenheits­ bezogen, gegenwartsbezogen oder zukunftsbezogen sind. Die zukunfts­bezogene Forschung nennt man auch Marketingprognose. Gerade das rechtzeitige Einstellen auf „Zukünfte“ ist überlebenswichtig in volatilen Märkten.

20

1. Grundlagen der Marktforschung

• Nach der Häufigkeit unterscheidet man Erhebungen, die einmalig durchgeführt werden und solche, die mehrmalig, meist regelmäßig, durchgeführt werden. Dabei ist noch wichtig, ob es sich um gleiche Auskunftspersonen handelt, wie bei Panels, oder nur um gleichartige, wie bei Wellenerhebungen (Trackings). • Als Träger für Forschungsaktivitäten kommen die eigene Organisation, also die betriebliche Marktforschung oder Externe, also die Instituts-Marktforschung, in Betracht. Häufig findet auch eine Arbeitsteilung zwischen beiden statt, d. h. beide Träger werden in Anspruch genommen. • Nach dem Gegenstand der Marktforschung können Meinungen (Meinungsforschung), Motive (Motivforschung), Images (Imageforschung), Verhaltensweisen (Verhaltensforschung), Käufer (Käuferforschung) etc. unterschieden werden. Als Leitbild professioneller Marktforschung gelten dabei immer die Postulate • der theoriegeleiteten Forschung, d. h. auf der Basis verfügbarer wissenschaftlicher Erkenntnisse, dies unterscheidet gerade professionell angelegte Marktforschung von bloßer Markterkundung. • der interdisziplinären Ausrichtung, d. h. unter Einbeziehung von Disziplinen wie Psychologie, Soziologie, Statistik etc., der Einbezug verwandter Wissenschaftsbereiche in die Marktforschung ist, entgegen dem Methodenstreit aus den 1950er Jahren, heute selbstverständlich. • des Einbringens eines gesunden Schusses von Pragmatismus, denn über die elaborierten Verfahren und Erkenntnisse darf der gesunde Menschenverstand nicht vernachlässigt werden, dieser sollte immer Messlatte für die Beurteilung von Ergebnissen sein. • der Seriosität der Forschung, d. h. unter logischer Plausibilität und ethischer Vertretbarkeit, dies wird intensiv unter dem Stichwort der informationellen Selbstbestimmung diskutiert und stellt eine wesentliche Limitation der Marktforschung dar.

1.3 Träger der Marktforschung Die Marktforschung ist als Fremd- oder Eigenforschung möglich (siehe Ab­ bildung 5). Träger der Fremdforschung sind Marktforschungsinstitute. Vorteile aus der Einschaltung Externer (Marktforschungsinstitute) sind vor allem folgende: • Keine Betriebsblindheit der Forscher und geringe Gefahr interessengefärbter Auskünfte. Externe sind unabhängiger und weniger konditioniert in ihrer Arbeitsweise, sie kommen daher womöglich zu besseren Ergebnissen. • Zugang zu leistungsfähigen Erhebungsinstrumenten, die aufwändig zu installieren und zu unterhalten sind. Zu denken ist etwa an Markttests oder Panels,

1.3 Träger der Marktforschung

21

Träger der Marktforschung

Fremdforschung

Eigenforschung

Abbildung 5: Träger der Marktforschung

die nur von Großunternehmen selbstständig durchgeführt bzw. unterhalten werden können. • Höhere Objektivität durch mehr Sachverstand als Herzblut bei der Aufgabe. Externe gehen mit mehr emotionalem Abstand an ein Forschungsprojekt, da sie von den Konsequenzen wenig bis gar nicht tangiert werden. • Möglichkeit des Einsatzes von Spezialisten und Nutzung von Expertenwissen. Gerade bei anspruchsvollen Projekten ist ein Erfahrungstransfer aus vergleichbaren anderen Projekten sehr wertvoll. • Aktuelle Methodenkenntnis in Beschaffung, Verarbeitung und Auswertung von Informationen. Externe Spezialisten befinden sich auf dem neuesten Stand der Erkenntnisse (State of the Art) und können diesen für Forschungsvorhaben nutzen. • Möglichkeit von Kosteneinsparungen (Outsourcing) oder zumindest -flexibilisierungen. Eine externe Beauftragung schafft variable Kosten im Gegensatz zu internen Kapazitäten, die fixe Kosten bedeuten. Bei beiden Alternativen sind große Teile der Kosten pagatorisch. Nachteile aus der Einschaltung Externer sind hingegen im Wesentlichen folgende: • Höhere Liquiditätsbelastung, gemessen an der pagatorischen Rechnungssicht. Die Beauftragung Externer führt zu Auszahlungen, während interne Arbeiten möglicherweise nur zu Ausgaben führen, also die Liquidität nicht belasten. • Unsolide Auftragserfüllung, wenn man an unseriös arbeitende Institute gerät. Da der Begriff Marktforschungsinstitut nicht geschützt ist, befinden sich am Markt zahlreiche Anbieter zweifelhafter Kompetenz, die nicht ohne Weiteres, erst recht nicht ex ante, identifizierbar sind. • Gefährdung der Geheimhaltung trotz strikter Verpflichtung zur Vertraulichkeit. Die externe Beauftragung bedeutet immer auch einen Abfluss schützenswerten Wissens, von dem nicht bekannt ist, ob dieser Schutz auch erreicht und eingehalten wird.

22

1. Grundlagen der Marktforschung

• Mangelnde Branchenkenntnisse erfordern eine mehr oder minder lange Einarbeitungszeit. Je komplexer eine Forschungsfrage, desto umfangreicher müssen sich Externe vor Bearbeitungsbeginn mit der Materie auseinandersetzen. Dies kostet Zeit und Geld. • Kommunikationsprobleme, die unausweichlich sind, wenn Interne und Externe zusammenarbeiten. Schnittstellen zwischen Unternehmen und Dienstleistern sind immer Anlass für Ineffizienzen (Missverständnisse, Doppelarbeit, Informationsverluste etc.). • Es kommt zu keiner Wissensakkumulation über Marktforschung im Betrieb. Wer nicht mit der Bearbeitung eigener Mafo-Projekte beginnt, erzielt auch keine Erfahrungskurvenvorteile daraus. Für die Auswahl eines Marktforschungsinstituts sind folgende Kriterien bedeut­sam: • Erfahrung bzw. Spezialisierung in bestimmten Märkten, dies verbessert die Expertise des Dienstleisters. • Personelle und sachliche Ausstattung, z. B. Fluktuationsrate, Unterhalt eines eigenen Interviewerstabs, IT-Anlage. • Mitgliedschaft in einem der Fachverbände (ADM-Arbeitskreis Deutscher Marktforscher/BVM-Bundesverband Deutscher Markt- und Sozialforscher). Dies bürgt durch die Einhaltung von Aufnahmebedingungen für die Einhaltung von Mindeststandards in der Arbeit. • Institutseigene Vorkehrungen zur Wahrung von Vertraulichkeit und Sicherung der Ergebnisqualität, denn Wissen stellt den wesentlichen immateriellen Vermögenswert dar. • Konkurrenzausschluss für Erhebung und Ergebnisse, dies ist wichtig, um einer, auch unabsichtlichen Proliferation von Daten vorzubeugen. • Kontrollmöglichkeiten des Auftraggebers bei der Durchführung, daraus ergeben sich vielfältige Optimierungsmöglichkeiten in der Konzeption eines Vorhabens. • Referenzen anderer Auftraggeber, Beraterkompetenz, evtl. räumliche Nähe, dabei handelt es sich um wichtige Signale der Vertrauensbildung zwischen Anbieter und potenziellem Nachfrager. • Erfahrungen in bisheriger Zusammenarbeit, soweit vorhanden, bevor ein Marktforschungsinstitut gewechselt wird, sollte in jedem Fall versucht werden, die bestehende Zusammenarbeit zu „reparieren“. Die betriebliche Marktforschung als Träger kann als Linien- oder Stabsstelle in der Strukturorganisation verankert sein. Als Linienstelle ist eine Einordnung im Rahmen der Funktions- oder Objektorganisation möglich. Im Rahmen der Funktionsorganisation ist eine Anbindung an Marketing, Absatz, Vertrieb, Verkauf o. Ä. sinnvoll. Im Rahmen der Objektorganisation ist eine Anbindung an Produkt-Ma-

1.3 Träger der Marktforschung

23

nagement, Gebiets-Management oder Kunden-Management sinnvoll. In diesen Bereichen kann jeweils auch eine Anbindung als Stabsstelle vorgenommen werden. Dabei ist häufig ein Marketing-Service-Bereich anzutreffen, der meist noch Aufgaben wie Klassische Werbung, Verkaufsförderung, Dialogmarketing, Öffentlichkeitsarbeit, Online-Medien, Schauwerbung, Verkaufsliteratur, Geschäftsausstattung etc. umfasst. Denkbar ist aber auch eine Anbindung im Bereich Information, Wirtschaftsinformatik, IT o. Ä. Oder sogar im Bereich Beschaffung oder Unternehmensführung, Auditing o. Ä. Als Vorteile der Eigenforschung sind im Wesentlichen folgende zu nennen: • Größere Vertrautheit mit dem Forschungsproblem durch Kenntnisse im Vorfeld. Dadurch erübrigen sich aufwändige Einarbeitungsmaßnahmen und es wird eine höhere Effektivität der Arbeiten gesichert. • Bessere Möglichkeit der Einflussnahme und Kontrolle während des Forschungsprozesses. Oft können neue Erkenntnisse bereits bei der Durchführung des Mafo-Projekts optimierend einfließen. • Gewinnung von Forschungserfahrungen sowie Verbleib dieser Erkenntnisse im Betrieb. Jedes Forschungsvorhaben erhöht den Kenntnisstand für nachfolgende Vorhaben, wobei das Wissen proprietär bleibt. • Geringeres Risiko von Indiskretionen über Interna. Häufig sind Marktforschungsvorhaben mit sensiblen Fragestellungen befasst, sodass ein erhöhtes Maß an Vertraulichkeit erforderlich ist. • Wegfall der bei Zusammenarbeit mit Externen gegebenen Kommunikations­ probleme. Für gewöhnlich verlaufen die internen Informationsprozesse reibungsloser und effizienter als die mit Externen gleich welcher Art. • Bessere Möglichkeit zur Nutzung spezifischer Kenntnisse der Entscheidungsträger. Gerade bei selten vorkommenden Aufgabenstellungen fällt es Externen sehr schwer, sich angemessen in die Thematik einzuarbeiten. Als Nachteile der Eigenforschung sind hingegen vor allem zu nennen: • Eine eigene Erhebung ist nur möglich, sofern dafür forscherische Infrastruktur verfügbar ist (z. B. Panel, Wellenerhebung, Mehrthemenbefragung). Ansonsten kann intern kaum vorgegangen werden. • Gefahr der Betriebsblindheit, die oft nahe liegende Problemlösungen nicht erkennen lässt. Es ist wohl unvermeidlich, dass sich Mitarbeiter im Laufe ihrer Verweilzeit in einem Unternehmen „Scheuklappen“ aneignen und an Unvoreingenommenheit einbüßen. • Self Fulfilling Prophecy, d. h. die Forschung erbringt genau die Ergebnisse, die das Management schon vorher unterstellt hat. Wenn das Forschungsvorhaben nur zur Rechtfertigung vorgefasster Meinungen dienen soll, kann man es sich auch gleich sparen.

24

1. Grundlagen der Marktforschung

• Fehlen von Experten und fachorientierten Mitarbeitern in der Abteilung. Professionelle interne Marktforschung erfordert eine Kritische Masse zu ihrem Unterhalt, ist diese nicht nachhaltig gegeben, ist ein Outsourcing generell zu bevorzugen. • Organisation elaborierter Feldarbeit bei Primärerhebungen normalerweise nicht möglich. Gerade für Einmalprojekte (Ad hoc)  ist der Rückgriff auf eine bestehende Durchführungs-Infrastruktur unerlässlich. Ist diese nicht vorhanden, bleibt nur ein Outsourcing. • Längere Bearbeitungszeiten durch Kostendruck und Kapazitätsengpässe. Im Zuge knapper Stellenzahlen in Unternehmen bewirken die begrenzten internen Potenziale häufig Zeitverzögerungen in der Nutzung von Wissen. In vielen Fällen ist auch eine Kombination von Eigen- und Fremdforschung sinnvoll, etwa derart, dass die Grundlagenarbeit außer Haus, aber die Durchführung in eigener Regie vorgenommen wird oder umgekehrt. Als Entwicklungstendenz absehbar ist, dass Chief Information Officer (CIO) eingesetzt werden, die sowohl den Anforderungen von Dateninput als auch Datenoutput gerecht werden. Neue, benutzerfreundliche Marketing-Informations-Systeme stehen aufgrund leistungsfähigerer Forschungs-Modelle und IT-Techniken zur Verfügung. Marktforschung entwickelt sich immer mehr zum InformationsManagement und versorgt die verschiedenen Stellen im Betrieb mit den jeweils erforderlichen Daten. Moderne IuK-Techniken tragen dazu bei, dass externe Datenbanken intensiver genutzt werden und sich dadurch das Informationsangebot im Marketing vergrößert. So kommt es zu einer Informationsarmut in der Informa­ tionsflut, d. h., es entsteht eine unüberschaubare Datenfülle durch höhere Fallzahlen, größere Informationstiefe, kürzere Untersuchungszeiträume etc. Mündliche Erhebungen werden im Vergleich zu computer- und mediengestützten Erhebungen dabei an Bedeutung abnehmen.

2. Verfahren zur Informationsgewinnung

Informationsgrad von Daten

Deterministische Information

Objektiv-stochastische Information

Indeterministische Information

Subjektiv-stochastische Information

Abbildung 6: Informationsgrad von Daten

Wichtige Anforderungen an Informationen im Marketing betreffen gleich mehrere Aspekte (siehe Abbildung 6). Der Informationsgrad ist der Anteil der tatsächlich verfügbaren Informationen an den vorhandenen oder notwendigen Informationen. Je höher der Informationsgrad ist, desto besser sind die Voraussetzungen der Marktforschung. Messgrößen sind die Vollständigkeit und Relevanz von Informationen. Die Realität der betrieblichen Entscheidung ist meist durch unvollkommene Informationen gekennzeichnet, d. h., der Informationsgrad ist  2.000 Elemente). Die Güte wird dann nicht mehr von der Relation der Stichprobe zur Grundgesamtheit, sondern nur von ihrem absoluten Umfang bestimmt. Jede Fehlerberechnung bezieht sich immer auf das Gesamtergebnis. Sollen verschiedene Untergruppen analysiert werden, so bestimmen die Anforderungen an die kleinste der zu analysierenden Gruppen den gesamten Stichprobenumfang. Systematische Fehler treten auch bei Vollerhebung und bewusster Auswahl auf und sind nicht wahrscheinlichkeitstheoretisch erfassbar, da sie in Unzulänglichkeiten in der Versuchsanlage begründet sind. Sie haben mehrere Ursachen: • Durch den Träger der Untersuchung hervorgerufene Fehler entstehen bei der Erhebungsplanung, u. a. bei unpräziser Definition des Untersuchungsziels, unklarer Abgrenzung der Grundgesamtheit, aus der Verwendung unkorrekter, veralteter Auswahlunterlagen, aus unzweckmäßiger Wahl und Kombination der Methodenelemente, sowie bei der Erhebungstaktik, u. a. durch falsche Zusammensetzung des Interviewerstabs, unzweckmäßige Fragebogengestaltung, durch den Einsatz ungeeigneter Auswahlverfahren oder schließlich in der Verfahrensumsetzung selbst. • Fehler bei der Erhebungsdurchführung entstehen u. a. aus mangelhafter Organisation der Feldarbeit und deren ungenügender Kontrolle. Weitere Fehler entstehen bei der Auswertung, Interpretation und Darstellung der Ergebnisse. • Durch den Interviewer hervorgerufene Fehler entstehen u. a. infolge Verzerrung des Auswahlplans durch Manipulation (Quotenfehler) und Verzerrung der Antworten bei Beeinflussung der Auskunftspersonen durch das Erscheinungsbild des Interviewers (Auftrittsfehler), durch suggestives Vorbringen von Fragen und durch selektive/nachlässige Antwortregistrierung (Übertragungsfehler). • Durch Probanden hervorgerufene Fehler entstehen u. a. durch Non ResponseFälle, etwa zu interviewende Person nicht angetroffen, Antwort verweigert, antwortunfähig etc., und Falschbeantwortung, z. B. Überforderung, Prestige, Affekt, Erinnerungslücke, Drittbeeinflussung.

40

3. Verfahren zur Auswahl der Erhebungseinheiten

Kommen mehrere Fehlerquellen zusammen, also unvollständige Ausgangsdaten oder ungültige Adressen, Verzicht auf Ansprache abwesender Probanden, Verweigerungsquote etc., leidet die Aussagefähigkeit der Forschung erheblich. Nur 5 % Fehlerrate auf jeder Komponente bedeuten dann bei drei Komponenten schon nur 85 % Korrektheit der Daten. Da in der Praxis die Fehlerrate wesentlich höher ist und zugleich auch mehr Komponenten in das Ergebnis einspielen, ist die Korrektheit der Daten noch geringer. Insofern ist es wichtig zu berücksichtigen, dass diese Daten trotz elaborierter Verfahren nur mehr oder minder gute Anhaltspunkte bilden, keineswegs jedoch bis auf die Kommastelle genau genommen werden dürfen. Ihre Berechtigung beziehen sie eigentlich aus der Ermangelung besserer Daten. Daher ist vor Entscheidungen immer eine Plausibilitätskontrolle ratsam, und wenn „Bauchgefühl“ und Daten einander widersprechen, sollte man dem Bauchgefühl gehorchen oder die Daten noch einmal kritisch hinterfragen.

4. Verfahren zur Informationserhebung 4.1 Sekundärforschung Die Erhebung von Informationen aus bereits vorhandenem Datenmaterial wird als Sekundärforschung bezeichnet. Diese Daten können selbst- oder fremderhoben sein, ursprünglich für ähnliche oder gänzlich andere Zwecke gedient haben. Jedenfalls werden sie unter den speziellen Aspekten der anstehenden Fragestellung neu gesammelt, analysiert und ausgewertet. Dabei handelt es sich um BackdataInformationen, denn jede Sekundärinformation ist erst durch Primärerhebung zustande gekommen. Wesentliche Vorteile der Sekundärerhebung sind folgende: • Deutlich geringere Kosten als bei einer Primärerhebung, die Arbeit kann im Allgemeinen vom Schreibtisch (Desk) aus erledigt werden. • Schnellerer Zugriff auf die Daten als bei Primärmaterial, denn die Vorlauffristen zur Primärinformationserhebung entfallen. • Einzige Möglichkeit zur Ermittlung von Daten, die primär nicht oder nicht wirtschaftlich zu erheben sind (z. B. gesamtwirtschaftliche Daten). • Hilfe bei der Einarbeitung in eine neue Materie, um einen ersten Überblick über relevante Sachverhalte zu erhalten. • Ergänzung zu Primärdaten als Abrundung des Bildes, dadurch ist eine Absicherung in Bezug auf die Belastbarkeit von Primärergebnissen möglich. Nachteile sind hingegen folgende: • Es mangelt meist an der notwendigen Aktualität, denn Sekundärdaten sind immer historische Daten. • Sicherheit und Genauigkeit der verfügbaren Daten sind zweifelhaft, so ist nicht immer bekannt, wer die Daten erhoben hat und wie diese Daten erhoben worden sind. • Daten sind, wenn sie aus mehreren Erhebungen stammen, untereinander nicht vergleichbar, dies liegt an den abweichenden Konzeptionen unabhängiger Studien. • Eine zutreffende Abgrenzung der Daten ist problematisch und entweder nicht ausgewiesen oder weicht von der gewünschten Abgrenzung ab. • Vollständigkeit und Detailliertheit der Daten reichen oft nicht aus, dann ist die Nutzung dieser Daten für eigene Zwecke fraglich.

42

4. Verfahren zur Informationserhebung

• Auseinanderfallen von Erhebungs- und Verwendungszweck erschwert eine sinnvolle Umgruppierung und Verknüpfung der Daten. • Auch Wettbewerber haben Zugriff auf diese Informationsquellen, sodass sie keinen Vorsprung begründet. Als sekundärstatistische Datenquellen kommen interne und externe in Betracht. Interne Datenquellen betreffen etwa • Rechnungswesen, Produktionsstatistik, allgemeine und Kunden-Statistiken über Auftragseingang und Versand, Geschäftsart, Abnehmergruppen, Export, regionale Marktbedeutung, Qualitäten, Abmessungen, Reklamationen etc., Außendienstberichte, Messe- und Ausstellungsberichte, Reports früherer Primärerhebungen, Buchhaltungs- und Vertriebskostenrechnungsunterlagen, Forschungs- und Entwicklungsnachrichten etc. Externe Datenquellen betreffen • amtliche Statistiken, Veröffentlichungen von sonstigen amtlichen und halbamtlichen Stellen wie Ministerien, kommunalen Verwaltungsstellen, Bundesbank, Industrie- und Handelskammern, Handwerkskammern, Körperschaften etc., Veröffentlichungen von Wirtschaftsverbänden, -organisationen etc. und von wirtschaftswissenschaftlichen Instituten, Universitäten wie Ifo-Institut, HWWA, Institut für Weltwirtschaft, Prognos etc., Veröffentlichungen von Kreditinstituten und deren Sonderdienste sowie aus der Medienwirtschaft, vor allem zur Mediaforschung, Veröffentlichungen firmenspezifischer Art wie Geschäftsberichte, Firmenzeitungen, Kataloge, Werbemittel etc., Informationsmaterial von Adressverlagen, Informationsmaklern, Beratungsunternehmen, internationalen Organisationen, Marktforschungsinstituten etc.

4.2 Primärforschung

Formen der Primärforschung

Beobachtung

Befragung

Experiment

Abbildung 15: Formen der Primärforschung

43

4.2 Primärforschung

Die Primärforschung betrifft die Ermittlung originär neuer Daten und kann im Einzelnen als Befragung, Beobachtung oder Experiment angelegt sein (siehe Abbildung 15). Diese Formen sind jeweils wieder in zahlreichen Ausprägungen vertreten.

4.2.1 Befragungsverfahren Die Befragung ist das am häufigsten angewandte und wichtigste Erhebungsverfahren der Primärforschung. Es lassen sich mehrere Befragungsmethoden unterscheiden, so nach (siehe Abbildung 16): • dem Standardisierungsgrad in absteigender Folge als vollstandardisiert, struktu­ riert, unstrukturiert oder frei, • der Kommunikationsform in mündlich, fernmündlich, schriftlich, fernschriftlich, computergestützt, mediengestützt, • der Art der Fragestellung in direkt oder indirekt bzw. offen oder geschlossen, • dem Befragungsgegenstand in Einthemen-(Spezial-)befragung und Mehrthemen(Omnibus-)befragung, • der Befragtenanzahl in Einzelbefragung oder Gruppenbefragung, • dem Befragtenkreis in Verbraucher, Experten, Haushaltsvorstände, Mitarbeiter etc., • der Häufigkeit in einmalig oder wiederholt (fallweise, regelmäßig).

Formen der Befragung

mündlich

fernmündlich

schriftlich

fernschriftlich

computergestützt

mediengestützt

Abbildung 16: Formen der Befragung

44

4. Verfahren zur Informationserhebung

Diese Kriterien lassen sich beinahe beliebig miteinander kombinieren. Die im Folgenden dargestellte Gruppendiskussion etwa ist ein strukturiertes, mündliches Gespräch meist zu einem Thema in einer Gruppe unterschiedlicher Zusammensetzung und einmalig angelegt. Daneben gibt es zahlreiche anderen Formen der mündlichen Befragung (siehe Abbildung 17).

Formen der mündlichen Befragung

Einzelbefragung

Gruppenbefragung (Diskussion, Exploration)

Abbildung 17: Formen der mündlichen Befragung

4.2.1.1 Gruppendiskussion Die Gruppendiskussion ist eine explorative Methode der Befragung und dient oft zu Beginn eines Forschungsprojekts der Aufklärung. Dazu diskutiert eine Fokusgruppe von sechs bis acht Personen der Zielgruppe oder von Experten oder Mitarbeitern unter Führung eines psychologisch geschulten Diskussionsleiters bis zu max. vier Stunden über eine vorgegebene Problemstellung, die einleitend erläutert wird und zu der die Gruppendiskutanten dann Stellung nehmen. Dabei ist der Gefahr vorzubeugen, dass einzelne Teilnehmer die gesamte Meinung dominieren oder der Diskussionsleiter die Meinungsbildung beeinflusst. Ersterem kann durch Steuerung der Diskussionsbeiträge entgegengewirkt werden, letzterem durch weitgehende Standardisierung der Moderation anhand eines Diskussionsleitfadens. Die Diskussion soll die Meinungsbildung im alltäglichen, informellen Gespräch verknappt nachempfinden. Eine heterogene Gruppenzusam­mensetzung hilft, möglichst unterschiedliche Ansichten kennenzulernen, eine homogene Gruppenzusammensetzung hilft, gegenseitige Beeinflussungen zu erkennen. Durch gruppendynamische Prozesse und mangelnde Repräsentanz der Gruppe können die Gesprächsergebnisse zwar nicht quantifiziert werden, die Gruppendiskussion liefert jedoch gute Anhaltspunkte für relevante Problemaspekte und brauchbare Hinweise auf marktliche Umsetzungen. Als Sonderfall kann eine Person in die Gruppe einbezogen werden, welche die übrigen Personen bewusst provoziert, um die Stabilität deren Einstellungen und Meinungen zu testen. Oder eine Person des Auftraggebers, die gezielt auf interessierende Aspekte hinleiten kann.

4.2 Primärforschung

45

Vorteile der Gruppendiskussion sind vor allem folgende: • Unmittelbare Beobachtbarkeit der Reaktionen aller Beteiligten, daraus entstehen nachhaltige Eindrücke für die spätere Arbeit mit den so gewonnenen Informationen. • Intensive Auseinandersetzung schafft vielfältige Einsichten in Einstellungen, Wünsche, Motive etc., diese werden in Befragungen meist nicht geliefert. • Vielschichtigkeit der Auseinandersetzung durch Interaktion in der Gruppe, es ist also nicht nur das Ergebnis, sondern auch der Prozess der Meinungsbildung nachvollziebar. • Verfolgung der Adaptation von Argumenten, also wie machen sich Zielpersonen Anbieterargumente für ihre eigene Einstellung zunutze. • Unmittelbares, ungefiltertes Hören der Zielgruppensprache, ohne dass Statements in den elaborierten Wortschatz von Marktforschern übersetzt werden. • Schnelligkeit in Vorbereitung und Durchführung, dies ist gerade unter häufigem Zeitdruck und verbreitetem Aktionismus im Management nicht zu unterschätzen. • Beliebige Wiederholbarkeit durch Aufzeichnung auf Bild- und/oder Tonträger, dies sorgt bei Präsentationen für eindrucksvolle „O-Töne“. • Kostengünstigkeit in der Planung, Durchführung und Auswertung, sodass auch klein- und mittelständische Unternehmen dieses Verfahren einsetzen können oder es mehrfach wiederholt werden kann. • Berücksichtigung gruppendynamischer Aspekte, dadurch wird die isolierte Situation einer Einzelbefragung aufgelöst und durch soziologische Effekte bereichert. Als Nachteile sind allerdings zu erwähnen: • Suggestibilität des Eindrucks kann zu verzerrter Wirklichkeitssicht führen, denn die Äußerungen der Diskutanten dürfen in ihrer Tragweite keinesfalls überschätzt werden. • Interpretationsbedürftigkeit der Ergebnisse, dies ist der oft mangelnden Artikulationsfähigkeit der Diskutanten geschuldet (hier hilft nur rechtzeitiges Nachfragen). • Kein Ersatz für eigene Recherche auf breiterer Basis, denn Gruppendiskussionen finden auf Basis völlig unzureichender Fallzahlen statt und sind daher methodisch „willkürlich“. • Fehlende Repräsentanz und damit Hochrechenbarkeit auf die Zielgruppe, dies wird angesichts der normativen Kraft des Faktischen bei Gruppendiskussionen oft und gern übersehen.

46

4. Verfahren zur Informationserhebung

• Keine Vergleichbarkeit zwischen mehreren Veranstaltungen wegen mangelnder Standardisierung der Durchführung, d. h. jede Veranstaltung ist eine „Insel“. • Schwer einschätzbare Relevanz von genannten und ungenannten Aspekten, denn es kann sein, dass durchaus relevante Aspekte nicht angesprochen oder ausgesprochen wurden und somit untergehen. 4.2.1.2 Mündliche Einzelbefragung Das Interview ist die am weitesten verbreitete Methode der Marktforschung. Vorsicht ist jedoch vor seiner unreflektierten Bewertung geboten. Es scheint zwar auf den ersten Blick einfach in der Anwendung, ermöglicht die Erfassung großer, repräsentativer Stichproben und kommt der natürlichen Gesprächssituation recht nahe. Antworten auf Fragen sind jedoch höchstens mehr oder minder gute Indikatoren für Meinungen, Einstellungen, Wünsche etc. und keinesfalls identisch mit der Realität. Vor allem führen die Formulierung der Fragen und der Aufbau der Befragung ebenso zu erheblichen Verzerrungsgefahren wie situative Faktoren, die im Interview selbst begründet liegen und externe Faktoren, die im Umfeld des Interviews liegen. Daher gilt auch hier das Gebot einer professionellen Heran­ gehensweise.

Formen der Einzelbefragung (Voll-)Standardisiertes Interview

Strukturiertes Interview

Unstrukturiertes Interview

Freies (Tiefen-)Interview (Exploration)

Abbildung 18: Formen der Einzelbefragung

Es lassen sich mehrere Ausprägungen des mündlichen Interviews unterscheiden (siehe Abbildung 18). Beim (voll-)standardisierten Interview liegt ein genau ausformulierter Fragebogen vor, welcher die Reihenfolge der einzelnen Fragen exakt vorgibt, ebenso jede erlaubte Erklärung. Es ist vorgegeben, ob diese Erläuterung in jedem Fall gegeben werden muss und ob weiterführende Erläuterungen gegeben werden dürfen. Der Interviewer muss sich jeglichen Kommentars enthalten, darf weder Überraschung noch Zustimmung oder Missbilligung zeigen. Er soll jedoch Interesse an der Meinung des Befragten bekunden.

4.2 Primärforschung

47

Die Vorteile liegen in folgenden Aspekten: • Es besteht eine Kontrolle über Form und Ablauf des Interviews, die eine Quantifizierung der insgesamt durchgeführten Erhebungen und damit deren Vergleichbarkeit untereinander erlaubt. • Der Interviewereinfluss wird auf ein Mindestmaß begrenzt, da die Fragen bei sämtlichen Auskunftspersonen den gleichen Wortlaut haben und in derselben Reihenfolge gestellt werden. • An Interviewer werden vergleichsweise geringe Anforderungen gestellt, sodass zugleich eine Interviewerüberlastung vermieden wird. • Die Auswertung der Fragebögen ist relativ einfach zu bewerkstelligen und erlaubt eine schematisierende Bearbeitung im Sinne hoher Effizienz. Als Nachteile sind jedoch folgende Aspekte zu nennen: • Gruppendynamische Prozesse unterbleiben, da nur eine Einzelperson involviert ist, dies entspricht jedoch nicht der realen Konstellation in der Gesellschaft. • Es ist kein Eingehen auf die Individualität der Befragungspersonen möglich, dies wäre nur unter Brechung des Prinzips der Standardisierung möglich. Beim strukturierten Interview liegt ein ausformulierter Fragebogen vor, der die Reihenfolge der Fragen und deren Wortlaut vorgibt. Die Reglementierung ist jedoch nicht so streng wie beim standardisierten Interview, sodass Freiräume für das Eingehen auf Einzelfälle bestehen bleiben. Darunter leidet natürlich die Vergleichbarkeit der Befragungsergebnisse untereinander. Jedoch kann besser auf die Individualität des Befragten eingegangen werden. Dies ist wichtig zur Steigerung dessen Auskunftsfähigkeit und -willigkeit. Standardisierte und strukturierte Interviews bieten den Vorteil der weitgehen­ den und leichten Vergleichbarkeit der Ergebnisse, aber den Nachteil des mangelnden Eingehens auf die Individualität der Befragungsperson. Bei unstrukturierten und freien Interviews ist dies entgegengesetzt, zugleich sind Kosten- und Zeitaufwand höher. Beim unstrukturierten Interview liegt dem Interviewer nur ein Leitfaden vor, welcher die wichtigsten Punkte enthält, die im Interview angesprochen werden sollen. Formulierung und Reihenfolge der Fragen sind nicht festgelegt. Der Interviewer kann nach eigenem Ermessen Fragen auslassen und/oder Zusatzfragen stellen, er kann eigene Erklärungen abgeben und auf die verschiedenen Aspekte mehr oder minder tief eingehen. Damit wird die natürliche Gesprächssituation simuliert. Im Unterschied zur Gruppenexploration ist jedoch nur eine antwortende Person einbezogen, dafür wirken Schweiger und Meinungsbildner nicht ergebnisverzerrend. Beim freien (Tiefen-)Interview erfolgt eine psychologische, offene Exploration in kleinen Fallzahlen, bei der von der Auskunftsperson neben der Antwort die Lösung und Behandlung vorgegebener Problem- und Aufgabenstellungen verlangt

48

4. Verfahren zur Informationserhebung

wird. Deshalb steht hier nur das Thema der Befragung fest, der Ablauf des Interviews liegt jedoch vollständig beim geschulten Psychologen. Ein Tiefeninterview ist also ein besonders intensives Gespräch, bei dem aufgrund der freien Form dem Befragten erheblicher Freiraum für die Einbringung von Gedanken und Gefühlen gelassen wird. Ziel ist dabei die Gewinnung von Einblicken in die Motivstruktur der Befragten. Oft wird dieses Verfahren auch als Pilotstudie eingesetzt, wenn anderweitig nur wenig anwendbare Kenntnisse vorliegen und neue Einsichten gewonnen werden sollen. Dies erlaubt die Konkretisierung, Präzisierung und Priorisierung von Tatbeständen, die dann später durch eher standardisierte Verfahren erhoben werden. Dazu sind 20–30 Interviews vollauf ausreichend. Vorteile liegen in folgenden Aspekten: • Es kann auf die Individualität des Befragten mühelos eingegangen werden. Dadurch entsteht eine gewisse Vertrauensbeziehung zwischen Befrager und Befragtem. • Es kommt zu einer gesteigerten Aussagewilligkeit, zu spontanen Äußerungen und vielfältigen Einsichten in die Denk-, Empfindungs- und Handlungsweise der Befragten. Als Nachteile sind folgende Aspekte zu nennen: • Es sind psychologisch geschulte Fachleute für das Interview erforderlich, dies involviert erhöhte Kosten bei der Durchführung. • Die Vergleichbarkeit von Aussagen aus verschiedenen Interviews ist eng begrenzt, da die Individualität der jeweiligen Befragungsperson im Vordergrund steht. • Die Protokollierung der Aussagen parallel zur Führung des Interviews ist schwierig. Nachträgliche Aufzeichnungen sind unvollständig und verzerrend. Wörtliche Protokolle sind aufwändig. So kommt eigentlich nur der Ton-/Bildmitschnitt in Betracht. • Die Auswertung ist schwierig. Sie impliziert Deutungsspielräume und damit eine hohe Unsicherheit in Bezug auf die Inhalte von Ergebnissen. Allen genannten Ausprägungen des mündlichen Interviews sind die im Folgenden dargestellten Vorteile und Nachteile gemein. Zunächst zu den allgemeinen Vorteilen: • Die Identität der Befragungsperson lässt sich mühelos feststellen. Dies ist durchaus nicht bei allen Befragungsarten der Fall. • Durch mehrmaliges Besuchen und durch Erläuterung des Untersuchungszwecks kann die Verweigerungsquote niedrig gehalten werden. • Reaktionen der Probanden bei der Fragestellung können durch den Interviewer beobachtet werden. Gleiches gilt für Umfeldeinflüsse. Insofern handelt es sich um eine in Grenzen kontrollierte Erhebungssituation. • Bei Nichtverstehen können Rückfragen gestellt werden, bei ungewollten Mehrdeutigkeiten kann der Interviewer Erläuterungen geben.

4.2 Primärforschung

49

• Visuelle Hilfsmittel wie Vorlagen, Muster, Skalen etc. können problemlos eingesetzt werden. Dadurch ist eine differenzierte Fragestellung möglich. • Der Umfang der Befragung kann größer angelegt sein, da dem Befragten der Überblick darüber fehlt. Somit sind auch Zusatzfragen einzubeziehen. • Sofern Ermüdungserscheinungen auftreten, kann diesen methodisch gezielt entgegengewirkt werden. • Es ist eine genaue Steuerung der Fragenreihenfolge und der Beantwortungszeit möglich. Dies kommt unmittelbar der Vergleichbarkeit von Antworten zugute. Als allgemeine Nachteile sind folgende zu nennen: • Es ist eine relativ große Zahl von Interviewern erforderlich. Dadurch gestalten sich die Personalkosten der Erhebung recht hoch. • Es ist eine intensive, fachkundige Schulung der Interviewer erforderlich, damit diese sich komplexen Befragungssituationen gewachsen zeigen. • Oft sind mehrmalige Kontaktaufnahmen erforderlich, ehe eine Auskunftsperson tatsächlich erreicht werden kann. • Interviewer können leicht einzelne Fragen oder den gesamten Fragebogen fälschen. Eine Interviewerkontrolle stößt an enge Praktikabilitätsgrenzen und ist zudem kostenaufwändig. So kommt es allenfalls zu Stichprobenkontrollen. • Durch den Interviewer selbst können Verzerrungen in den Antworten der Befragten auftreten. Seine Gegenwart stört die Anonymität der Befragung und provoziert evtl. Antworten gemäß sozial erwünschtem Verhalten oder bloße Gefälligkeitsantworten. 4.2.1.3 Fragearten Will man eine mündliche Umfrage initiieren, so ist es wichtig, einige Hinweise in Bezug auf Fragenarten und Fragetaktik zu berücksichtigen. Zunächst zu den Fragearten. Man unterscheidet hier zwei Gruppen (siehe Abbildung 19): • Offene (inkategoriale) Fragen sind solche, die eine frei formulierte Antwort zulassen (meist sog. W-Fragen, also Was, Wer, Welche, Wann, Wo, Wie). • Geschlossene (kategoriale) Fragen sind solche, die nur eine Antwort in vorgegebenen Kategorien zulassen. Dabei können alle denkbaren Antwortkategorien berücksichtigt sein oder auch nur ein Auszug derer, was dann allerdings erhebliche Verzerrungsgefahren impliziert. Zusätzlich können die Antwortvorgaben innerhalb der Befragung rotiert werden, um Positionseffekten vorzubeugen. Außerdem kann eine bestimmte Zahl von Nennungen vorgegeben sein, die absolut fixiert, einseitig begrenzt (mindestens/höchstens) oder zweiseitig begrenzt ist (von … bis).

50

4. Verfahren zur Informationserhebung

Fragearten

Projektion

Indirekte Fragen

Personenzuordnung etc.

Direkte Fragen

Offene (inkategoriale) Fragen

Satzergänzung / Wortassoziation

vorgegebene / freie Anzahl

fixiert / rotiert

vollständig / unvollständig

Geschlossene (kategoriale) Fragen

Abbildung 19: Fragearten

Die Erfassung der Antworten erfolgt durch wörtliche Niederschrift bei offenen Fragen, ansonsten durch Markieren der Antwortkategorie oder durch Feldbewertung des Interviewers, etwa bei Antwortverweigerung. Von wesentlichem Interesse ist die Wahl der offenen oder geschlossenen Frageart. Vorteile offener Fragen sind dabei folgende: • Die Auskunftsperson wird in ihrer Informationsabgabe und -bereitschaft nicht eingeschränkt und hat daher mehr Entfaltungsmöglichkeiten für aussagefähige Ergebnisse. • Die Auskunftsperson wird nicht durch vorgegebene Antwortkategorien zu einer für sie unpassenden, falschen Antwort veranlasst. Dies gilt umso mehr, je komplexer und differenzierter ein Befragungsgegenstand ist. • Antworten werden nicht durch Vorgaben „programmiert“, d. h. bewusst oder unbewusst in eine bestimmte Richtung verzerrt.

4.2 Primärforschung

51

• Es erfolgt keine Überbetonung durch überschneidende Mehrfachformulierungen einer Antwortart im Antwortkatalog. • Der Befragungsgegenstand wird vollständig abgebildet, weil keine Gefahr ausgelassener Antwortkategorien besteht. Nachteile offener Fragen sind hingegen folgende: • Der Einfluss des Interviewers macht sich in vielfältiger Weise auf die Art der Antworten bemerkbar. • Die Antworten der Auskunftspersonen hängen stark von deren Ausdrucksvermögen ab. Dies erfordert mehr geistige Anstrengung und führt zu überlegteren Antworten oder auch zur Antwortverweigerung durch Überforderung. • Die Ausführungen der Auskunftsperson treffen oft nicht den Kern der Frage und schweifen in irrelevante Nebenbereiche ab. • Bei der späteren Klassifizierung von Antworten entstehen Schwierigkeiten hinsichtlich ihrer Zuordnung. Dies induziert Fehlinterpretationen. • Der Vergleich von Antworten untereinander gestaltet sich schwierig, da die Antworten von Fall zu Fall variieren. • Eine maschinelle Auswertung ist erst nach aufwändiger Codierung möglich, dabei müssen letztlich doch wieder geschlossene Kategorien gefunden werden. • Antworten werden nur unvollständig oder verkürzt aufgezeichnet, sodass wichtige Informationen untergehen. Geschlossene Fragen sind nur nach Vorstudien empfehlenswert, da ansonsten entscheidende Antwortaspekte mangels passender Kategorie verlorengehen können. Vorteile geschlossener Fragen sind folgende: • Die Antwortvorgabe reduziert die erforderliche Denk- und Arbeitsleistung der Auskunftsperson und erleichtert damit die Antwort. • Es sind keine besonderen Ansprüche an das Ausdrucksvermögen der Auskunftsperson zu stellen. • Ebenso sind keine besonderen Anforderungen an die Interviewer in Hinblick auf deren Schreib- und Aufnahmekapazitäten zu stellen. • Eine schnelle Protokollierung der Ergebnisse ist gewährleistet, dies geschieht im Regelfall durch einfaches Ankreuzen. • Bei der Auswertung ist eine Rationalisierung durch Zeit- und Kostenersparnisse erreichbar. • Die Auswertung kann schnell und unter Einsatz technischer Hilfsmittel erfolgen, dies ist aus pragmatischen Aspekten bedeutsam.

52

4. Verfahren zur Informationserhebung

• Die Antworten verschiedener Auskunftspersonen können problemlos miteinander verglichen werden. • Fehlinterpretationen sind weitestgehend ausgeschlossen, da die Antworten eindeutig Kategorien zugeordnet werden können. Nachteile geschlossener Fragen sind hingegen folgende: • Es besteht die Gefahr, dass einzelne Antwortmöglichkeiten unbemerkt weg­ gelassen werden. Diese Optionen fehlen dann im Ergebnisspektrum. • Die Anzahl der zur Auswahl stehenden Alternativen ist oft nicht ausgewogen in Bezug auf das Spektrum der Grundgesamtheitsverteilung. • Die Formulierung der Antwortalternativen ist nicht neutral gehalten, so weisen Suggestivfragen eine Ja-Tendenz auf. • Die Reihenfolge der Nennung der Antwortalternativen führt zu gegenseitigen Überstrahlungseffekten. Dennoch spielen geschlossene Fragen die größte Rolle in jeder mündlichen Erhebung. Die genannten Nachteile können dabei durch einige Regeln vermieden werden: • Die Alternativenzahl soll nicht zu klein sein, um dem Antwortenden genügend Entfaltungsspielraum zu belassen. • Die Antwortkategorien sollen alle realistisch denkbaren Antwortmöglichkeiten abdecken. Vor allem ist wichtig, dass die Antwortvorgaben tatsächlich zur Frage passen. • Die Antwortalternativen sollen sich möglichst in der gleichen Dimension bewegen. Sollen mehrere Dimensionen abgedeckt werden, sollen diese annähernd ausgewogen oder auf mehrere geschlossene Fragen verteilt sein. • Seltene Antwortkategorien sollen in einer Kategorie „Sonstiges“ zusammen­ gefasst werden. • Eine offene Antwortalternative soll Raum für Antworten lassen, die durch die Vorgaben nicht abgedeckt sind. Eine weitere Unterscheidung betrifft die in direkte oder indirekte Fragearten. Bei direkten Fragen gibt die Auskunftsperson offenkundig und für sie erkennbar ihre eigene Meinung wieder. Die Antworten lassen direkt auf die interessierenden Sachverhalte schließen. Bei heiklen, tabuisierten und normenbeladenen Themen treten dabei allerdings oft Hemmungen auf. Dann werden indirekte Fragen eingesetzt, die sich projektiver Techniken bedienen. Die Auskunftsperson gibt dabei scheinbar keine Auskunft über sich selbst, sondern über Dritte. Dadurch kann ihre Antwortbereitschaft und -fähigkeit gesteigert werden. Allerdings muss der Zusammenhang zwischen nachgefragtem Indiz und eigentlichem Frageobjekt eindeutig sein. Häufig angewandte Formen sind dabei folgende:

4.2 Primärforschung

53

• Die interviewte Person wird als Experte befragt („Wie beurteilen Sie als versierte Hausfrau denn die Tatsache, dass …“). Dies erhöht die Auskunftsbereitschaft. • Es werden Satzergänzungs- oder Wortassoziationsverfahren angewendet („Welche Begriffe fallen Ihnen zur Marke Melitta ein?“). Dadurch können auch stigmatisierte Sachverhalte erhoben werden. • Eine dritte (fiktive) Person soll anhand ihrer Einkaufsliste charakterisiert werden. Dadurch wird eine Komplexitätsreduktion erreicht. • Bestimmte Personentypen werden bestimmten Produkten, Marken, alternativ auch Tieren, Bäumen etc., zugeordnet.

4.2.1.4 Fragestrategie

Fragenformulierung

Einfachheit (fokussiert)

Eindeutigkeit (präzisiert)

Neutralität (nicht suggestiv)

Abbildung 20: Fragenformulierung

Bei der Frageformulierung sind die Grundsätze der Einfachheit, Eindeutigkeit und Neutralität zu beachten (siehe Abbildung 20): • Einfachheit bedeutet, dass der Fragebogen mit einem minimalen Wortschatz auskommen sollte. Die Fragen sollen kurz und einfach gehalten sein. Dabei sollte ein allgemein verständlicher Stil beachtet werden, wobei sich das sprachliche Niveau an der Umgangs- bzw. Fachsprache der jeweiligen Befragtengruppe ausrichtet. Fragen sollen Wissensstand, Bildungsniveau und Erinnerungsfähigkeit der Befragten nicht überfordern. Fremdwörter, Abkürzungen, Eigennamen etc. sind zu vermeiden oder zu erläutern. • Eindeutigkeit meint, dass eine Frage so gestellt sein sollte, dass sie von mehreren Befragten gleichartig verstanden werden kann. Mehrdeutigkeiten sind zu vermeiden, auch in Bezug auf Orts- und Zeitangaben. Dazu bedarf es einer

54

4. Verfahren zur Informationserhebung

präzisen, semantisch eindeutigen und logisch klaren Formulierung. Es darf zu keiner Vermischung verschiedener Frageaspekte kommen. • Neutralität bedeutet, dass jede Beeinflussung der Antwort durch die Fragestellung ausgeschlossen sein sollte. Suggestionen entstehen bereits bei unterschiedlichen Formulierungslängen von Alternativantworten, durch den Einsatz wertender Wörter, durch Ungleichheit positiver und negativer Ausprägungen der Antworten, durch Betonung in Text oder Vortrag etc.

Fragefunktionen

Ergebnisfragen

Instrumentalfragen

Sonderfragen

Abbildung 21: Fragefunktionen

Im Fragebogenablauf nehmen einzelne Frage bestimmte Fragefunktionen wahr (siehe Abbildung 21). Man unterscheidet Instrumental-, Ergebnis- und Sonderfragen. Innerhalb der Instrumentalfragen sind Analytische, Ablaufordnungs- und Methodische Fragen zu unterscheiden. Innerhalb der Ergebnisfragen sind Un­ mittelbare und Mittelbare Präzisions- sowie Maßstabsfragen zu unterscheiden. Zu der leicht verwirrenden Vielzahl der Ausprägungen in Folge einige Erläuterungen. Die Gruppe der Instrumentalfragen beinhaltet Fragen, die keine unmittelbare Aussage über bestimmte Sachverhalte zulassen, aber für den Erfolg der Erhebung entscheidend sind. Dazu gehören die im Folgenden aufgeführten Fragearten (siehe Abbildung 22). Analytische Fragen sind solche, die den Befragungsgegenstand betreffen. Zu unterscheiden ist in: • Korrelationsfragen. Sie bilden die Grundlage für Untergruppen und Kreuztabellierungen. Dies betrifft vor allem die Soziodemographie der Befragten, die in Zusammenhang mit auswertbaren Ergebnisfragen gestellt wird. • Erhebungskontrollfragen. Sie stellen die Sorgfalt der Interviewdurchführung sicher. Meist handelt es sich um Fälscherfragen in Bezug auf den Interviewer.

55

4.2 Primärforschung

Instrumentalfragen

Ausgleichsfragen

Ablenkungsfragen

Füllfragen

Unterweisungsfragen

Methodische Fragen

Kontaktfragen

Gabelungsfragen

Ablaufordnungsfragen

Filterfragen

Auskunftskontrollfragen

Erhebungskontrollfragen

Korrelationsfragen

Analytische Fragen

Abbildung 22: Instrumentalfragen

• Auskunftskontrollfragen. Sie stellen Inkonsistenzen in den Antworten der Befragten fest. Die Ergebnisse der betreffenden Personen sind dann kritisch zu durchleuchten. Ablaufordnungsfragen sind solche, die den Befragungsvorgang steuern. Zu unterscheiden ist in: • Filterfragen. Sie beenden die Befragung bzw. scheiden Personen aus der weiteren Befragung zu einem Thema aus. Damit werden unsinnige Fragestellungen vermieden. Zum Beispiel richten sich Fragen zu Hundefutter nur an Personen, von denen vorher erhoben wurde, dass sie einen Hund als Haustier halten. Alle anderen überspringen diesen Fragenkomplex. • Gabelungsfragen. Sie steuern den Ablauf, indem je nach Antwortkategorie an einer anderen Stelle im Fragebogen weitergearbeitet wird. Somit werden Untergruppen der Befragungsgesamtheit definiert und dann mit jeweils spezifischen Fragefolgen bedient. Zum Beispiel werden gewerbliche und private Nutzer von Hochdruckreinigern getrennt nach ihren jeweiligen Anforderungen an einen Gerätetyp befragt.

56

4. Verfahren zur Informationserhebung

Methodische Fragen sind solche, die dem Bereich der Fragetaktik zuzurechnen sind. Zu unterscheiden ist zwischen: • Kontaktfragen (auch Eisbrecherfragen genannt). Sie bauen die Scheu des Befragten gegenüber dem Interview ab und schaffen günstige Voraussetzungen für einen konstruktiven Befragungsablauf. Sie dienen der Auflockerung der Atmosphäre und der Überbrückung anfänglicher Befangenheit. Den Ergebnissen kommt meist „Wegwerf“-Charakter zu. • Unterweisungsfragen. Sie sichern die notwendige Grundeinstellung und sensibilisieren Auskunftspersonen für das betreffende Thema. Sie werden auch Lernoder Trainingsfragen genannt. So kann ein Beispiel den Befragten helfen, besser zu verstehen, wie eine Frage gemeint ist. • Füllfragen (auch Pufferfragen genannt). Sie grenzen Themenkomplexe innerhalb einer Befragung gegeneinander ab und verhindern so eine gegenseitige Beeinflussung dieser Komplexe durch Haloeffekte, d. h. Überstrahlungen vom vorherigen Thema auf das nachfolgende. • Ablenkungsfragen. Sie sollen den eigentlichen Fragebogeninhalt verdecken und werden zur Neutralisierung in den Ablauf eingestreut. • Ausgleichsfragen. Sie sind für den Teil der Befragten gedacht, die nach einer Filterfrage von einem Fragenkomplex freigestellt sind. Damit soll verhindert werden, dass Befragte lernen, welche Antworten zur Verlängerung über weitere Fragen und welche zur Verkürzung des Interviews durch Frageauslassung führen. Die Gruppe der Ergebnisfragen beinhaltet Fragen, die unmittelbar auf bestimmte Sachverhalte und funktionelle Verknüpfungen schließen lassen. Präzisionsfragen sind solche, die Tatbestände unmittelbar durch direkte Befragung erfassen oder mittelbar durch • Assoziationsfragen, die auf die mit einem Untersuchungsgegenstand verknüpften Vorstellungen abzielen, • Projektionsfragen, welche die Auskunftsperson veranlassen sollen, Informatio­ nen abzugeben, die sie bei direkter Befragung nicht offenbaren kann oder will. Maßstabsfragen sind solche, die Unterschiede zwischen verschiedenen Befragten festhalten sollen. Dies kann auf verschiedenen Skalenniveaus erfolgen, nominal-, ordinal-, intervall- oder verhältnisskaliert. Die Gruppe der Sonderfragen beinhaltet mehrere Formen (siehe Abbildung 23): • Vorlagenfragen. Sie verbinden Text-, Bild- oder Originalvorlagen mit der Frageformulierung. Oft dienen diese als zusätzliche Gedächtnisstütze. • Vortragsfragen. Sie werden ohne stützende Vorlagen gestellt und führen somit zu „härteren“ Ergebnissen.

57

4.2 Primärforschung

Personenfragen

Dialogfragen

Indikatorfragen

Skalierungsfragen

Zitatfragen

Vortragsfragen

Vorlagenfragen

Sonderfragen

Abbildung 23: Sonderfragen

• Zitatfragen. Sie beinhalten die wörtliche Äußerung einer fiktiven oder realen Person, zu welcher der Befragte Stellung nehmen soll. Häufig handelt es sich um Personen des öffentlichen Lebens, deren Aussagen durch die Medien bereits bekannt sind. • Skalierungsfragen. Sie messen Einstellungen, Beurteilungen, Meinungen oder andere verdeckte Inhalte. Ihr Ziel ist die Quantifizierung qualitativer Sachverhalte. Typische grafische Skalierungen betreffen eine vertikale Einteilung (Thermometer), größer werdende Flächen oder freundlicher werdende Gesichts­ikonen. Typische verbale Skalierungen betreffen unipolare Skalen (ein Begriff mit ent­ gegen gesetzten Skalenendpunkten) oder bipolare Skalen (entgegen gesetzte Begriffe an den Skalenendpunkten), jeweils versehen mit Abstufungen dazwischen. • Indikatorfragen. Sie dienen der Operationalisierung von theoretischen Konstruk­ ten (z. B. Motive, Wünsche, Bedarfe) und sollen Hinweise auf das Vorhandensein und die Ausprägung dieser Konstrukte geben. • Dialogfragen. Sie geben einen Gesprächsaustausch zweier fiktiver Personen wieder und fordern die Befragungsperson auf, einer von ihnen zuzustimmen. Dies wird vor allem bei komplexen Sachverhalten angewandt, welche das Ausdrucksvermögen von Probanden überfordern. • Personenfragen. Sie werden für gewöhnlich am Ende des Interviews gestellt und dienen der Erfassung soziodemographischer Daten, die dann mit anderen Ergebnissen korreliert werden können.

58

4. Verfahren zur Informationserhebung

4.2.1.5 Fragetaktik Die Fragetaktik dient vor allem der motivierenden Dramaturgie des Frage­ bogens und soll Monotonie vermeiden. Die Auskunftswilligkeit soll durch thematische Abwechslung und Variation der Fragetechniken gesteigert werden. Auch sollen Störeffekt ausgeschaltet werden, die etwa durch Überstrahlung zustande kommen. Hilfreich ist auch eine einigermaßen konstante Befragungssituation, um Ungleichheiten in der Erhebung vorzubeugen. Die Länge des Fragebogens ist abhängig von Befragungsgegenstand, erwartetem Interesse der Befragten, Interviewergeschick, erwarteter Befragungssituation und Entgeltzahlung. Letztere ist höchst umstritten, provoziert sie doch womöglich Gefälligkeitsantworten. Realistisch ist eine Dauer von 30–45 Minuten je Interview, das bedeutet ca. 15–25 Fragen pro Interview. Fragetaktische Elemente betreffen die Fragetypenkomposition im Befragungsablauf, d. h. die Art der überhaupt eingesetzten Fragetypen im Fragebogen, und die Fragetypensequenz, d. h. die Abfolge der einzelnen Fragetypen im Fragenbogen. Abhilfe für diesbezügliche Probleme kann gleich mehrfach geschaffen werden. So decken Vorstudien vermeidbare Fehlermöglichkeiten auf. Die Begründung für Antworten kann zur Erläuterung abgefragt werden. Die Frageformulierung wird mit konkretem Bezug ausgestattet, damit kein sozial erwünschtes Verhalten wiedergegeben wird (also nicht: „Wie häufig besuchen Sie die Kirche?“, sondern: „Haben Sie letzten Sonntag die Kirche besucht?“). Die Antwortvorgaben werden möglichst bestimmt formuliert, um Interpreta­ tionsspielraum zu nehmen (also nicht: „Backen Sie selten, gelegentlich, häufig, regelmäßig?“, sondern „Backen Sie mehr als 10 mal, 5–10 mal, weniger als 5 mal im Monat oder überhaupt nicht?“). Es werden eindeutige Frageformulierungen verwendet (also nicht: „Welche Unterhaltungselektronikgeräte besitzen Sie?“, sondern: „Besitzen Sie einen DVD-Player, einen Flachbildschirm, eine Videospielkonsole?“ bzw. „Welche Marken verwenden Sie bevorzugt bei Digitalkameras?“). Bei Tabuthemen werden gezielt suggestive Formulierungen verwendet (also nicht: „Haben Sie jemals aus Geldmangel geschneidert?“, sondern: „Ist es Ihnen auch schon einmal passiert, dass Ihnen ein Kleidungsstück im Laden zu teuer war und Sie stattdessen auf Selberschneidern zurückgegriffen haben?“). Als taktisches Instrument kann auch das der Mehrthemenbefragung (Omnibusbefragung) genutzt werden, d. h. in einem Erhebungszyklus werden mehrere Themen, meist von verschiedenen Auftraggebern, abgefragt. Sie steht damit im Gegensatz zur Spezialbefragung, die nur ein Thema beinhaltet (siehe Abbildung 24). Oft werden solche Omnibusse turnusmäßig selbstständig von Instituten „abgefahren“, wobei die Ergebnisse nachher potenziellen Interessenten zur Verwertung an-

4.2 Primärforschung

59

Omnibusbefragung

Beteiligungsuntersuchung

Eingliederungsuntersuchung

Themensequenz

Themenkomposition

Abbildung 24: Omnibusbefragung

geboten werden. Es kann sich aber auch um individuell zusammengestellte Themenkomplexe als Beteiligungsuntersuchung handeln oder um ein einheitliches Fragengerüst, das durch auftraggeberspezifische Sonderfragen ergänzt wird als Eingliederungsuntersuchung. Probleme ergeben sich evtl. in Bezug auf die Themensequenzen bei Mehrthemenbefragungen, d. h., die Abfolge der einzelnen Themen in einem Fragebogen, und die Themenkomposition, d. h., Art und Inhalt der in eine Mehrthemenbefragung eingebrachten Themen. Die wesentlichen Vorteile liegen darin, dass die Abwicklung durch die weitgehende Standardisierung der Befragungsanlage wesentlich beschleunigt wird und eine schnelle und unkomplizierte Abwicklung erlaubt. Außerdem entsteht ein Kostenvorteil, da sich die technischen Kosten auf mehrere Beteiligte verteilen (man kann von einem Faktor 20 gegenüber den Kosten einer Einthemen­befragung ausgehen). Damit steht auch Klein- und Mittelbetrieben die Chance zu einer repräsentativen Massenbefragung offen. Der Untersuchungsablauf kann abwechslungsreicher gestaltet werden. Daraus folgt eine erhöhte Auskunftsbereitschaft. Außerdem werden Lerneffekte wie bei Spezialisierung auf ein Thema gemindert. Nachteile sind darin zu sehen, dass die Anzahl der Fragen je Themenbereich beschränkt und abhängig von der gesamten Fragebogenlänge und der Anzahl der anderen Teilnehmer an der Befragung ist. Außerdem dürfen keine Themenbereiche kombiniert werden, die gegenseitige Beeinflussung vermuten lassen. Allerdings können verschiedene Fragenkomplexe durch Pufferfragen getrennt werden. Auch ist man im Timing an den Erhebungsturnus des Omnibusses gebunden.

60

4. Verfahren zur Informationserhebung

4.2.1.6 Interviewerbedeutung

Interviewerbedeutung

Auswahl

Einsatz

Kontrolle

Qualifizierung

Abbildung 25: Interviewerbedeutung

Die Interviewerbedeutung für die Qualität der Befragungsergebnisse ist sehr hoch anzusetzen (siehe Abbildung 25). Eine unerlässliche Voraussetzung ist somit die Auswahl hoch geeigneter Interviewer, konkrete Vorgaben für deren Arbeitseinsatz und ihre fundierte Schulung. Hilfreiche Charaktermerkmale sind dabei Kontaktfähigkeit, ein gesundes Maß an Pedanterie, Interesse für Menschen und moralische Widerstandskraft. Interviewer müssen zur ungezwungenen Führung eines präzisen Gesprächs fähig sein. Bei der Auswahl sind Extremtypen zu vermeiden. Was als extrem anzusehen ist, ist abhängig von der sozialen Norm der Befragten, z. B. Alter, Klassenzugehörigkeit, Erscheinungsbild, Bildungsgrad, Auftreten, Sprache. Ebenso sind soziale Randgruppen wegen evtl. Verweigerungsgefahr zu vermeiden. Auch sollte keine persönliche Betroffenheit durch das Befragungsthema vorliegen (z. B. ausländischer Interviewer zu Migrationsthemen). Wichtig sind die Beherrschung der situativen Faktoren des Interviews und die Induzierung sozialer Interaktion zwischen Interviewer und Befragtem. Zu den situativen Faktoren gehören etwa Zeitdruck bei Interviewer oder Befragtem oder die Anwesenheit Dritter bei der Befragung. Beides sollte unbedingt vermieden werden. Ausgleichend wirkt hier meist die Zufälligkeit der Erhebungsumstände. Zur sozialen Interaktion gehört die Gesprächsentwicklung, die zu Beginn ein bestimmtes Bild vom jeweils anderen vermittelt, das zu Vorurteilen führen kann, die verzerrend wirken. Ausgleichend wirken hier in gewissem Rahmen Frage­taktik und Intervieweranweisung. Falls eine mündliche, standardisierte Befragung durchgeführt werden soll, umfasst eine Intervieweranweisung für den Einsatz sinnvollerweise Vorgaben in folgenden Bereichen. Der Interviewer soll sich ungefragt und exakt ausweisen. Interviews dürfen nur mit fremden Personen durchgeführt werden (keine Freunde, Bekannten, Verwandten). Ein freundliches Auftreten und eine sympathische Ausstrahlung verstehen sich von selbst. Das Interview soll ohne Zeitdruck in entspannter Atmosphäre durchgeführt werden. Die Fragen sind i. d. R. wörtlich vorzulesen

4.2 Primärforschung

61

und Hilfsmittel genau vorzulegen. Die Fragenreihenfolge ist verbindlich. Dem Befragten ist Zeit zum Nachdenken und Antworten zu lassen, man darf nicht hetzen. Offene Antworten sind immer wörtlich aufzunehmen und nicht mit eigenen Worten wiederzugeben. Die Antworten sind leserlich zu vermerken und exakt einzu­ tragen, auch unaufgeforderte Antworten zur Sache sind zu notieren. Das Interview ist an Ort und Stelle auf Vollständigkeit und Gültigkeit zu überprüfen. Es dürfen keine Kompromisse in Bezug auf die Qualität eingegangen werden. Selbstverständlich dürfen keine Interviewbögen selbst vervollständigt werden. Auch darf man keine persönlichen Ansichten in die Befragung einbringen. Es soll immer nur ein Befragungsprojekt zu gleicher Zeit durchgeführt werden. Befragungen dürfen nicht mit anderen Tätigkeiten kombiniert werden, z. B. Verkauf, Beratung. Man darf keine dritten Personen zu Interviewterminen mitnehmen und auch nicht von der vorgegebenen Stichprobenstruktur abweichen. Jede Person darf immer nur einmal befragt werden. Man darf keine Fragen selbst interpretieren. Bei Unverständlichkeit ist eine Frage im Zweifel nochmals vorzulesen und von der Auskunftsperson selbst interpretieren zu lassen. Interviews dürfen nicht räumlich geballt vorgenommen werden. Beim Ausfüllen soll man sich nicht von der Auskunftsperson „über die Schulter schauen“ lassen und sie auch nicht den Frage­bogen und die Antworten lesen lassen. Zur Kontrolle der Einhaltung dieser Anweisungen und Vermeidung von Fälschungen dienen folgende Maßnahmen. Der Einbau von Fangfragen in das Interview kann Widersprüchlichkeiten aufdecken, allerdings sind auch „echte“ Interviews nicht frei von Widersprüchen. Denkbar ist eine Quittierung des Interviews durch den Befragten, allerdings führt dies leicht zu Misstrauen (nichts unterschreiben wollen). Hilfreich ist ein telefonischer Nachfass in Anschluss an das Interview, allerdings kann dabei kaum die Vollständigkeit der Befragung überprüft werden. Bei Einstreuung gefälschter Adressen in die Erhebungsdaten kommen von diesen Dummy-Adressen Fragebögen zurück und beweisen damit eindeutig eine Fälschung. Möglich ist auch die Durchführung echter Nachinterviews mit gleichar­ tigen Fragen, allerdings ist damit ein doppelter Zeit- und Geldaufwand verbunden, Auswahl motivierter Interviewer, Beschränkung deren Zeitdrucks und leistungsfördernde Honorierung. Am ehesten helfen wohl der Ausschluss unzuverlässiger oder „übererfahrener“ Interviewer und die Beschränkung der Anzahl der Interviews je Interviewer, um etwaige Verzerrungen durch deren große Zahl zu neutralisieren (erfahrungsgemäß sind nur 3 % der Interviews als Fälschung erkennbar, doch die Dunkelziffer liegt wesentlich höher). Die Qualifizierung der Interviewer bezieht sich auf folgende Bereiche. Die Interviewer erhalten eine Erläuterung des Erhebungsziels, ohne dabei allerdings zu genau auf die Hintergründe der Befragung einzugehen. Ebenso erhalten sie eine Erläuterung der Auswahlmethoden und ggfs. der Quotenmerkmale. Ihnen wird die räumliche Abgrenzung ihres Arbeitsgebiets vorgegeben. Ebenso wird ihnen die zeitliche Abgrenzung des Erhebungsprojekts, incl. Empfehlung günstiger Erhebungstage oder Tageszeiten, vorgegeben. Die Interviewer werden über Art und Weise der

62

4. Verfahren zur Informationserhebung

Vorstellung, Bekanntmachung und Gesprächseröffnung informiert sowie über Art und Umfang der festzuhaltenden Beobachtungen bei Personen, Haushalten etc. Sie werden zur Feststellung der Angaben zur befragten Person angehalten und erhalten Hinweise auf die Überwachung ihrer Interviewertätigkeit, die Modalitäten der Vergütung etc. 4.2.1.7 Durchführung der mündlichen Befragung Wesentliche Aspekte bei der Durchführung einer Befragung sind naturgemäß Timing und Costing. Der Zeitablauf der Befragungsplanung stellt sich dabei wie folgt dar: • Abstimmung der Untersuchungskonzeption mit Arbeitshypothesen, • Ausarbeitung des Auswahlverfahrens, • Ausarbeitung des Fragebogens, • Ausarbeitung sonstiger Befragungsunterlagen, • Ausarbeitung der Interviewerinstruktion, • Durchführung einer Pilotstudie, • Auswahl der einzusetzenden Interviewer, • Überarbeitung des Fragebogens anhand der Ergebnisse eines Pretests, • Überarbeitung der Befragungsunterlagen anhand der Ergebnisse des Pretests, • Überarbeitung der Interviewerinstruktion aufgrund des Pretests, • Entwurf des Interviewerbeauftragungsschreibens, • Produktion der Fragebögen, sonstiger Befragungsunterlagen und der Interviewer­ instruktion, • Übergabe der Unterlagen an die Interviewer, • Interviewdurchführung im Feld, • Auswertung der zurückkommenden Fragebögen und Ausfallmeldung, • Aufstellung von Antwortlisten, • Interviewerkontrolle, • Installation des Auswertungsprogramms, • Erstellung des Codeplans, • Verschlüsselung der Fragebögen, • digitale Speicherung der Daten, • Testverfahren zur Absicherung der Aussagefähigkeit,

4.2 Primärforschung

63

• Endauszählung, • Nutzung von Darstellungsverfahren, • Hypothesenprüfung, • Kommunikation der Ergebnisse. Der Kostenablauf stellt sich wie folgt dar: • Administrationskosten und Gehälter, Verbrauchsmaterialien, • Druckkosten für Fragebögen, Anschreiben etc., • Portokosten für Versand der Fragebögen, Intervieweranweisung etc., • Telefonkosten für Befragung, Recherche etc., • Reisekosten, • Interviewertraining und -überwachung, • Datenverarbeitungskosten, • Interviewerhonorare. 4.2.1.8 Telefonische Befragung Das Interview per Telefon hat durch die weite Verbreitung von Fernsprechanschlüssen schon seit langem Repräsentanzanspruch. Die Mehrzahl der Befragungen wird denn auch bereits heute via Telefon durchgeführt, zunehmend mit Computerunterstützung. Die wesentlichen Vorteile der telefonischen Befragung sind die folgenden: • Sie ist schnell und kostengünstig durchführbar. Sie eignet sich insofern besonders für Blitzumfragen und zur Nachbefragung bei Unklarheiten, aber auch zur effektiven Interviewerkontrolle. • Es besteht eine höhere Teilnahmebereitschaft durch Wahrung einer gewissen Anonymität seitens der Befragten. Auch ist es wahrscheinlicher, dass der Hörer abgenommen als dass die Tür geöffnet wird. • Durch ein neutralisierendes Medium werden offenere und ehrlichere Antworten wahrscheinlich. Allerdings kann auch der genau gegenteilige Effekt eintreten. • Es entsteht ein geringerer Interviewereinfluss als bei mündlicher Befragung, da z. B. das äußere Erscheinungsbild des Befragers keine Rolle mehr spielt. • Das direkte Gespräch ermöglicht beiderseitige Rückfragen, also einen Dialog, dadurch können Missverständnisse ausgeräumt und Klärungen herbeigeführt werden.

64

4. Verfahren zur Informationserhebung

• Der Interviewer kann die befragte Person, den Befragungszeitpunkt und die Fragenreihenfolge bestimmen. Bei Nichtzustandekommen einer Verbindung entstehen keine Wegekosten und keine Zeitverluste. • Auch können mehrere Versuche der Kontaktaufnahme erfolgen, ohne dass die Kosten nennenswert steigen. • Es reichen vergleichsweise weniger Interviewer aus, sodass ein hohes Maß an Wirtschaftlichkeit im Personalbereich erreicht wird. • Es wird eine Aufzeichnung von Gesprächen machbar, die eine intensivere Auswertung und Kontrolle ermöglichen. • Außerdem ist nur auf diese Weise ein nahezu einheitlicher Erhebungsstichtag realisierbar. Wesentliche Nachteile der telefonischen Befragung betreffen hingegen folgende Aspekte: • Sie ist begrenzt in der Dauer des Interviews und damit in der Anzahl abzufragender Inhalte. Durch die Distanz wird Unmut schneller ausgedrückt, weil die Hemmschwelle sinkt. • Die Anonymität führt auch zu einer leichteren Antwortverweigerung, vor allem bei tabuisierten Themen. Daher ist die Fragethematik eingeschränkt. Dies kann auch leichter zu Interviewabbruch etwa bei Belästigung oder Überforderung führen. • Es sind keine unterstützenden Abbildungen, Skalierungen etc. einsetzbar. Visuelle Hilfsmittel fördern aber entscheidend die Aufklärung von Informationen. • Als Kommunikationsmittel dient nur der Ton, genauer die Stimme, non-verbale Reaktionsindikatoren können nicht registriert werden. Diese belegen jedoch die geäußerte Meinung überzeugend. • Situative Einflüsse, wie Anwesenheit Dritter, häusliche Verhältnisse etc., sind nicht feststellbar. Damit können auch entsprechende Einwirkungen weder neutralisiert noch überhaupt registriert werden. • Eine eindeutige Legitimation des Interviewers ist nicht möglich. Damit bleiben Zweifel an der Seriosität der Untersuchung auf Seiten des Befragten bestehen. • In Einzelfällen ist die Gesamtheit der Telefonbesitzer nicht repräsentativ für die Grundgesamtheit, etwa nicht bei Studenten, Migranten, Sozial Schwachen etc. • Das Auswahlmaterial ist nicht vollständig und aktuell. So fehlen oft die Eintragungen von Neuanschlüssen bzw. die Löschung von Altanschlüssen. Einige Tele­ fonnummern hingegen sind doppelt aufgelistet (z. B. geschäftlich und privat, Doppelnamen, Erst- und Zweitwohnung), andere gar nicht (Geheimnummer). • Die zunehmende Verbreitung von Telefonanrufbeantwortern auch im privaten Bereich behindert zudem die Kontaktaufnahme.

4.2 Primärforschung

65

4.2.1.9 Schriftliche Befragung Die schriftliche Befragung bedient sich, wie die mündliche, verbaler Statements als Stimuli, um Stellungnahmen zu erzeugen. Vorteile liegen dabei in folgenden Aspekten: • Es entstehen vergleichsweise geringe Kosten, da ein erheblicher Zeitaufwand bei geographisch weit verstreuten Erhebungseinheiten vermieden werden kann. Insofern spielt die räumliche Entfernung keine Rolle mehr (z. B. Auslandsmarktforschung). • Außerdem entfällt die wohl unvermeidliche Verzerrungsmöglichkeit durch fehlenden Interviewereinfluss. • Die Zustellung der Fragebögen verbessert die Kontaktierung der Auskunftspersonen. So können auch schwer erreichbare Personen, die ansonsten leicht als Stichprobe ausfallen, kontaktiert werden. • Die befragten Personen haben genügend Zeit, die einzelnen Fragen zu beantworten. Die Auskunft wird damit überlegter und genauer. Bei Zeitmangel kann die Bearbeitung unterbrochen und zu einem späteren Zeitpunkt wieder auf­ genommen werden. • Die Zusicherung der Anonymität der Auskunftspersonen steigert deren Auskunftsbereitschaft. Jedoch werden nicht selten versteckte Codierungen vermutet. Nachteile liegen hingegen in folgenden Aspekten: • Unvollkommenheiten im Fragebogen, die ein Interviewer ausgleichen könnte, bleiben ohne Korrekturmöglichkeit. Fehlinterpretationen durch falsch verstandene Sachverhalte führen so zu unkontrollierten Falschantworten. • Außerdem beschränkt sich der Gegenstand der Befragung auf einfache, klare und leicht verständliche Sachverhalte. Nicht verstandene Sachverhalte können nicht aufgeklärt werden und führen so zu Ausfällen. Dadurch ist die Repräsentativität gefährdet. • Die Reihenfolge der Beantwortung der Fragen ist nicht kontrollierbar. Daher können auch keine Kontrollfragen gestellt werden. Umgekehrt sind Fragen, deren Beantwortung von anderen Fragen abhängig ist, nur schwerlich einsetzbar. Dadurch ist die Fragebogentaktik stark eingeschränkt. • Es fehlt an Stimuli zur Erhöhung der Auskunftsbereitschaft. Dazu ist allenfalls das Fragebogenlayout in begrenztem Maße in der Lage. • Ebenso fehlt die Beobachtung von Reaktionen der Probanden beim Ausfüllen des Fragebogens (z. B. in Form von Spontanreaktionen) sowie die Registrierung von Umfeldeinflüssen. Dabei ist vor allem die mögliche Anwesenheit Dritter nicht kontrollierbar.

66

4. Verfahren zur Informationserhebung

• Evtl. wird der Fragebogen nicht von der Zielperson selbst, sondern durch diese Dritten, oder zumindest gemeinsam mit diesen, ausgefüllt. Damit ist die Re­ präsentanz der Antworten nicht mehr gegeben. Es entsteht ein Identitätsproblem. • Allgemein werden überlegtere Antworten gegeben, damit ist ein höherer kog­ nitiver Anteil verbunden, der zu Verzerrungen gegenüber der Realität, die eher durch affektive Einschätzungen geprägt ist, führt. • Sofern in einer Voranfrage die Bereitschaft zur Teilnahme an einer schriftlichen Befragung abgeklärt wurde, besteht die Gefahr systematischer Fehler, wenn zu vermuten ist, dass reagierende und nicht-reagierende Personen sich in Bezug auf die zu untersuchenden Merkmale systematisch unterscheiden. • Der Umfang des Fragebogens ist begrenzt, da eine unmittelbare Konfrontation mit dem gesamten Fragenumfang stattfindet. • Es können keine verschleiernden Zielsetzungen angestrebt werden, da der gesamte Fragebogen genutzt wird. • Das Adressmaterial kann unvollständig sein und allein schon dadurch eine Einschränkung der Grundgesamtheit darstellen. • Der Zeitpunkt der Beantwortung eines Fragebogens kann meist weder bestimmt werden noch ist er einheitlich. Dies ist bei stichtagsbezogenen Erhebungen sehr hinderlich. Wegen dieser Probleme ist der Praxis daran gelegen, die Nachteile schriftlicher Befragungen abzumildern. Dies geschieht durch sorgfältige Gestaltung des Frage­ bogens, eine klare Strukturierung mit leichten Einstiegsfragen, einfachem Fragenablauf und ansprechender optischer Aufbereitung. Besonderes Augenmerk gilt dabei der Steigerung der Rücklaufquote, die bestenfalls 15–20 % beträgt, regelmäßig aber weit darunter liegt (siehe Abbildung 26). Gründe für ein Rücklauf­ problem sind, dass • der Fragebogen abwesende, verreiste, verzogene, verstorbene Adressaten erst gar nicht erreicht, • eine Verwechslung der Erhebungsunterlagen mit unverlangt zugesandten Werbesendungen vorliegt, • die Auskunftsperson nur gering involviert ist (Desinteresse, Misstrauen, Bequemlichkeit), • die Auskunftsperson antwortunfähig ist (geistig behindert, sprachunkundig etc.), • die Auskunftsperson sich als nichtbetroffen bzw. nichtzuständig erachtet, • ein weit verbreitetes Misstrauen gegen die personenbezogene Informationsabgabe, gerade auch aus Gründen des Datenschutzes, besteht,

4.2 Primärforschung

67

• Zeitmangel vorliegt oder vorgeschoben wird, • in der Befragung Tabubereiche angesprochen werden, • der formale Aufbau des Fragebogens und die Gestaltung der Fragen einen erhöhten Schwierigkeitsgrad vermuten lassen, • Befragungsunterlagen verlorengehen oder verlegt werden, • der Ergebniseintrag aufgeschoben und schließlich vergessen bzw. das Abgabedatum überschritten wird.

Engpass der schriftlichen Befragung Rücklaufproblem

Rücklaufverbesserung

Abbildung 26: Engpass der schriftlichen Befragung

Möglichkeiten zur Rücklaufverbesserung sind etwa folgende: • Glaubwürdige und neutrale Berichte über das entsprechende Forschungs­vor­ haben, • handgeschriebene Zusätze, die von Individualität zeugen, • Zugabe positiv wirkender Fotos über das Projekt, • Versand trotz Kostenvorteil nicht als Drucksache, da damit eine Aussonderungsgefahr bereits im Posteingang besteht, • Versand an postschwachen Tagen (montags), nicht zu Stresszeiten (Jahresende) oder in der Ferienzeit, • Wahl von Sonderbriefmarken oder auffälligen Freistemplern zum Portofrei­ machen, • Nachfassaktion über Telefon oder schriftlicher Nachfass als Reminder, auch mehrmalig, • evtl. nochmaliger Versand des gleichen Fragebogens mit geändertem Anschreiben, • „Androhung“ eines Interviewerbesuchs, falls Beantwortung nicht erfolgt,

68

4. Verfahren zur Informationserhebung

• Setzung einer relativ knappen Deadline zur Rücksendung (problematisch bei Überschreiten der Deadline), • telefonische oder schriftliche Vorankündigung und Angabe einer Kontakttelefon­ nummer zur Rückfrage bei Unklarheiten (Helpline), • Begleitschreiben mit persönlicher Anrede (Zusicherung der Anonymität, Vorausdank, Erklärung des Befragungszwecks), evtl. von einer „Autorität“ verfasst, • Beifügung eines freigemachten Rückumschlags oder Gebühr-bezahlt-Empfänger-Vermerks, • genaue Angabe des Rückempfängers, möglichst durch Eindruck, • Kopplung mit kleinen Geschenken oder Gewinnanreizen (allerdings umstritten), • Zusage der Ergebnisberichterstattung als Feedback, • Kombination mit Garantiekartenrücksendung oder Produktbeilage bei Käufern. Die Halbwertzeit des Rücklaufs beträgt erfahrungsgemäß 10–14 Tage, d. h., bis dahin ist etwa die Hälfte des insgesamt zu erwartenden Rücklaufs erfolgt.

4.2.1.10 Computergestützte Befragung

Computergestützte Befragung Bildschirmbefragung (CAPI) (analog mündlicher Befragung)

Computerbefragung (CASI) (analog schriftlicher Befragung)

Telefonbefragung (CATI) (analog telefon. Befragung)

Abbildung 27: Computergestützte Befragung

Die Computergestützte Befragung kann in mehreren Versionen stattfinden (siehe Abbildung 27). Als Bildschirmbefragung (Computer Assisted Personal Interviewing/CAPI) bezeichnet man eine Form, bei welcher der Fragebogen durch ein PC-Display ersetzt wird und der Eintrag durch eine PC-Tastatur. Dabei liest ein Interviewer Fragen vom Bildschirm ab und tippt die Antworten der Auskunftsperson über ein alphanumerisches Keyboard ein. Dabei sind zahlreiche Verfeine-

4.2 Primärforschung

69

rungen denkbar. So ist neben Sprachausgabe der Fragen auch die Spracheingabe der Antworten möglich. Der Interviewer kann mehreren Personen im Teststudio eine Frage vortragen und diese geben ihre Antworten parallel selbst an PC’s ein. Auch können die Antwortalternativen auf eine vorgetragene Frage als Strichcodes auf einem Vordruck ausgewiesen sein, die mit einem Lesestift abgetastet und dadurch eingegeben werden. Als Computerbefragung bezeichnet man eine Form, bei welcher der Interviewer durch einen PC „ersetzt“ wird (Computer Assisted Self Interviewing/CASI). Auskunftspersonen lesen Fragen also auf dem PC-Display ab und geben ihre Antworten selbst über die Tastatur ein. Auch hier sind zahlreiche Verfeinerungen denkbar. So können Arbeitsplätze derart vernetzt sein, dass ein Zentral-Computer die Fragen ausgibt und mehrere Personen dezentral (an einem oder mehreren Orten), aber parallel ihre Antworten eingeben. Die Antworterfassung kann auf Datenträger erfolgen, der dann eingesendet oder überspielt wird (offline), oder aber über Datenleitung (online). Diese Formen bieten eine Reihe von Vorteilen: • Eine leichte Handhabung auch komplizierter Befragungsformen ist ebenso möglich wie längere Befragungszeiten. Offene Fragen sind einsetzbar, das Anspruchsniveau kann insgesamt höher angesetzt werden. • Signifikanzkriterien können bei entsprechender Anlage laufend beachtet werden. Eine relativ schnelle Datenverarbeitung mit automatischer, integrierter Auswertung der Ergebnisse und Zentralkoordination ist gegeben (z. B. Prüfung der Quoteneinhaltung, Abbruch bei Ergebnisstabilisierung). • Die Kosten für eine manuelle Übertragung der Daten entfallen. Insgesamt ist eine Kostenersparnis gegeben. • Dabei ist die Datenerfassung zugleich sicherer, da Übertragungsfehler bei der Codierung entfallen. • Es werden insgesamt weniger Interviewer benötigt. Der Interviewer-Bias wird minimiert. Bei der Beantwortung herrscht weitgehend autonome Entscheidungsfreiheit. • Es ist ein mobiler, ortsunabhängiger Einsatz darstellbar (Laptop). • Es sind ständige Plausibilitätskontrollen auf Fehler und Inkonsistenzen möglich.  Parallel können weitere Testsysteme über Schnittstellen angeschlossen werden. • Die Frage- und Antwortkategorien können randomisiert werden, um Reihenfolgeeffekte auszuschließen. Insgesamt ist eine hohe Aussageeffizienz darstellbar.

70

4. Verfahren zur Informationserhebung

• Der Spieltrieb bzw. der Spaß an der Bedienung elektronischer Geräte wird gefördert. Auch wird der Eindruck von Professionalität erreicht. • Fragen können in sämtlichen Sprachen dargeboten werden, sodass auch inter­ nationale Forschungsprojekte handhabbar sind. • Die Auskunftsperson kann bei entsprechender Anlage die Befragungsgeschwindigkeit selbst bestimmen. • Die Zulässigkeit von Antworten kann sofort überprüft und ggfs. Fehlermeldung gegeben werden. • Die Antwortzeit einzelner Fragen lässt sich ermitteln, wodurch Rückschlüsse zur Interpretation der Ergebnisse möglich sind. Dem stehen jedoch auch Nachteile gegenüber: • Es entstehen relativ hohe Investitionskosten (allerdings im Zeitablauf sinkend) bzw. hohe Abschreibungsbedarfe. • Es ist eine intensive Interviewerschulung erforderlich, um dort, wo gegeben, eine kompetente, persönliche Betreuung zu ermöglichen. • Die Geräte sind empfindlich in Transport und Einsatz, sodass eine hohes Maß an Sorgfalt angezeigt ist. • Eine komplexe, fehleranfällige Datenübertragungskoordination ist erforderlich. • Bisher ist nur wenig Standardsoftware verfügbar. Alternativ entsteht für jeden Fragebogen ein hoher Programmieraufwand (bessert sich im Zeitablauf). • Es sind weitgehend nur standardisierte Fragen anwendbar. Es besteht keine Möglichkeit des Nachfragens bei nicht verstandenen Fragen. • Die bisher durchgeführten Untersuchungen sind noch nicht hinreichend valide, d. h. durch Vergleich mit herkömmlichen Befragungen gesichert (bessert sich im Zeitablauf). • Die Vorlage von Bildern, Skalen etc. ist wegen der Einsehbarkeit eingeschränkt, was das Handling erschwert. • Die Beantwortung erfolgt teils unter weitgehend unkontrollierten Bedingungen. Vor allem entsteht ein Identitätsproblem bei der Befragung. • Die Komplexität der Befragung ruft Antwortschwierigkeiten bei weniger versierten Personen hervor. Die Repräsentanz ist daher noch auf lange Zeit hin eingeschränkt. • Die Bearbeitung differenzierter Themen ist begrenzt. Bei Unverständnis oder Zeitproblemen kommt es zum Befragungsabbruch. Außerdem entstehen psycho­ logische Konflikte (Akzeptanzproblematik).

4.2 Primärforschung

71

• Bei offenen Fragen entsteht ein hoher Eingabeaufwand, wobei die wenigsten des „Zehn-Finger-Schreibsystems“ mächtig ist. • Bei Sehproblemen besteht reduzierte Lesbarkeit durch geringe Darstellungsgröße. Das Computergestützte Telefon-Interviewsystem (Computer Assisted Telephone Interviewing/CATI) ist eine Sonderform der telefonischen Befragung und die gebräuchlichste Form der Umfrage. Dabei liest der telefonisch verbundene Interviewer die Fragen von seinem Bildschirm ab und gibt die Antworten der Auskunftsperson über eine alphanummerische Tastatur in seinen PC ein. Der Computer übernimmt die Steuerung des Ablaufs der Befragung bzw. zuvor die Anzeige der Telefonnummer oder die automatische Anwahl der Personen. Nicht erreichte Anschlüsse werden entweder vermerkt oder neu angezeigt/angewählt. Abgebrochene Interviews werden gespeichert und zu einer vereinbarten Fortsetzungszeit aufgerufen/neu angewählt. Unzulässige Antworteingaben werden reklamiert, Verzweigungen im Fragenablauf in Abhängigkeit von Antworten automatisch eingeschlagen. Die Vorteile von CATI sind vor allem folgende: • Es ist eine schnelle Durchführung von Befragungen möglich. Das Adressmaterial ist über entsprechende Verzeichnisse leicht zugänglich. Die Stichprobe kann relativ exakt ausgeschöpft werden, indem Personen automatisch angewählt und ihr Anschluss bei Nichterreichung zwischengespeichert wird. Der Untersuchungsleiter kann jederzeit den Befragungsablauf durch Aufschalten auf die Verbindung kontrollieren. Als Nachteile sind hingegen folgende zu nennen: • Für eine effiziente Untersuchung sind relativ hohe Investitionskosten erforderlich. Es besteht nur ein eingeschränkter Anwendungsbereich. Fragethematiken können nur begrenzt (bis gar nicht) durch Bilder, Karten, Produktmuster etc. unterlegt werden. Mit steigender Interviewdauer besteht eine steigende Abbruchgefahr, die durch die Anonymität der Befragung erhöht wird.

4.2.2 Beobachtungsverfahren 4.2.2.1 Begriff und Inhalt Eine weitere Form der Primärerhebung neben der Befragung ist die Beobachtung. Man unterscheidet dabei die naive Beobachtung, die unsystematisch, planlos und ohne klar erkennbares Erkenntnisziel bleibt. Sie ist daher unprofessionell zu nennen. Und die wissenschaftliche Beobachtung, die einen genau umschriebenen Untersuchungsbereich betrifft, ein planmäßiges Vorgehen zeigt und ein bestimmtes Erkenntnisziel verfolgt. Dabei können verschiedene Varianten unterschieden werden (siehe Abbildung 28).

72

4. Verfahren zur Informationserhebung

Formen der Beobachtung

Standardisierungsgrad

Beobachtungssubjekt (fremd, selbst)

Beobachtungsform (persönlich, unpersönlich)

Teilnahme des Beobachters (teilnehmend, nicht-teilnehmend)

Bewusstseinsgrad

Beobachtungsumgebung (Feld, Labor)

Abbildung 28: Formen der Beobachtung

Hinsichtlich des Standardisierungsgrads lassen sich Beobachtungen unterscheiden, die nur Sachverhalte erfassen, die in angegebene Kategorien fallen, also z. B. Aufschlagen einer Zeitschrift, und solche, die vom Beobachter subjektiv ausgewählte Kategorien erfassen, also z. B. erkennbarer Nutzungsverlauf einer Zeitschrift. Nach dem Beobachtungssubjekt kann zwischen Fremdbeobachtung und Selbstbeobachtung unterschieden werden. Erstere untersucht Vorgänge, die außerhalb der Person des Beobachters liegen, also z. B. Verweildauer vor einem Regal, letztere untersucht Vorgänge, welche die eigene Person betreffen, also z. B. Wahrnehmung und Einfluss von Ladenfunk auf den Kaufentscheid. Nach der Beobachtungsform kann zwischen persönlicher und unpersönlicher (apparativer) Beobachtung unterschieden werden. Erstere erfolgt durch die Person des Beobachters selbst. Letztere bedient sich zur Kategorisierung von Art, Dauer und Intensität von Reaktionen und zur Erfassung seelischer Erregungszustände technischer Hilfsmittel, die intrapersonale oder interpersonale Tatbestände aufzeichnen und speichern. Dabei handelt es sich um Audio-, Video-, Foto-Ausrüstun­ gen oder spezielle Apparaturen, die allerdings in ihrer Anwendung umstritten sind. Zudem gibt es rechtliche Restriktionen, wonach es unzulässig ist, unbefugt ein Bild von einem anderen anzufertigen, und die unbefugte Aufnahme, Verwendung und Weitergabe des nichtöffentlich gesprochenen Wortes untersagt ist. Nach der Teilnahme des Beobachters unterscheidet man die teilnehmende und die nicht-teilnehmende Beobachtung. Bei der teilnehmenden Beobachtung bewegt sich der Beobachter auf einer Ebene mit den beobachteten Vorgängen. Eine aktive Teilnahme liegt vor, wenn der Beobachter auf die am Beobachtungsort zur Be­obachtungszeit stattfindenden Abläufe Einfluss nimmt (damit ist allerdings die

73

4.2 Primärforschung

Gefahr der Verzerrung durch die Interaktion des Beobachters gegeben), eine passive Teilnahme liegt vor, wenn der Beobachter zwar am Ort und zur Zeit der stattfindenden Abläufe anwesend ist, auf diese aber keinerlei Einfluss ausübt.

Bewusstseinsgrad der Beobachtung offene (durchschaubare) Situation

nicht-durchschaubare Situation

quasi-biotische Situation

biotische Situation

Abbildung 29: Bewusstseinsgrad der Beobachtung

Nach dem Bewusstseinsgrad der Beobachtung lassen sich unterscheiden (siehe Abbildung 29): • offene, durchschaubare Situationen, in welcher der Proband von der Beobachtung und dem Untersuchungszweck weiß, • nicht-durchschaubare Situationen, bei denen der Proband zwar vom Untersuchungszweck weiß, nicht jedoch von der Tatsache der aktuellen Beobachtung, • quasi-biotische Situationen, bei denen der Proband zwar von der Beobachtung weiß, nicht jedoch vom Untersuchungszweck, ihm wird also eine falsche Zielsetzung der Beobachtung angegeben, • biotische Situationen, bei denen der Proband weder um die Beobachtung noch um den Untersuchungszweck weiß, diese Form zeitigt meist die besten Ergebnisse. Nach der Beobachtungsumgebung unterscheidet man Feld- und Laborbeobachtungen. Bei der Feldbeobachtung erfolgt die Aufzeichnung der Vorgänge und Verhaltensweisen in der gewohnten, natürlichen Umgebung des Probanden, bei der Laborbeobachtung erfolgt die Erfassung in einer künstlich geschaffenen Situation. Daraus resultieren dann mögliche Beobachtungseffekte. Bekannte Beobachtungsverfahren betreffen: • Zählverfahren, z. B. bei Passantenströmen für die Standortanalyse im Einzelhandel, • Kundenlaufstudien über die Konfrontation von Personen mit angebotenen Waren am Handelsplatz,

74

4. Verfahren zur Informationserhebung

• Einkaufsverhaltensbeobachtungen im Hinblick auf Kauf- und Nichtkaufentscheidungen, • Verwendungsbeobachtungen, die Teil- oder Vor- und Nachbereitungshandlungen in Zusammenhang mit der Produktverwendung betreffen, z. B. bei Öffnungsmechanismen von Packungen. Vorteile der Beobachtung liegen in folgenden Aspekten: • Geschehnisse können während ihres spontanen Vollzugs beobachtet und dabei gleichzeitig die spezifischen Umweltsituationen aufgenommen werden. Von daher wird deutlich, in welchem Kontext sich bestimmte Beobachtungen ergeben. • Die Beobachtung ist unabhängig von der Auskunftsbereitschaft der Versuchspersonen. Damit lassen sich selbst ohne Zustimmung Auskünfte erheben, weil die beobachtete Person entweder nicht um die Beobachtung weiß oder ihre ablehnende Haltung nicht durch ein völlig anderes Verhalten äußern kann. So treten womöglich Sachverhalte zutage, die ihr selbst nicht bewusst sind. • Es entsteht (bei verdeckter Beobachtung) kein Erhebungseinfluss auf Ergebnisse. Dadurch entfällt eine große Verzerrungsquelle, die etwa bei Befragungen gegeben ist. Zu denken ist an tabuisierte Sachverhalte oder solche, die sozial erwünschtes Verhalten provozieren. • Beobachtungen lassen sich unabhängig vom Ausdrucksvermögen des Beobachters und der beobachteten Person durchführen. Damit können z. B. Sprachbarrieren problemlos überwunden werden. • Beobachtungen können andere Erhebungsmethoden ergänzen oder verifizieren. Damit kommt es zu einer Kontrolle deren Ergebnisse oder zu einer zusätzlichen Datenermittlung. • Auch können non-verbale Äußerungen (Gestik, Mimik etc.) erfasst werden. Diese sind oft sogar aussagefähiger als verbale Äußerungen, da sie ehrlicher sind. • Es lassen sich Sachverhalte erheben, die sich auf mehrere Personen beziehen oder die der beobachteten Person nicht bewusst sind. Nachteile der Beobachtung liegen hingegen in folgenden Aspekten: • Es treten Beobachtungseffekte auf, die aus dem Wissen um die Erhebung entstehen (außer bei verdeckter Beobachtung). • Die Erfassung subjektiver Sachverhalte wie Einstellungen, Meinungen, Präferenzen, Kaufabsichten und anderer innerer Vorgänge, ist kaum möglich, denn diese sind durch Inaugenscheinnahme nicht feststellbar. Diesen Mangel können auch apparative Hilfsmittel nicht heilen. • Die beobachteten Merkmale sind unterschiedlich interpretierbar. So kann ein und dasselbe Verhalten in mehrere Richtungen gedeutet werden und führt damit zu mehrwertigen Ergebnissen. Hilfreich ist ein standardisiertes Erfassungssystem (sog. Notation).

4.2 Primärforschung

75

• Die Beobachtungskapazität von Personen ist, vor allem bei komplexen Sachverhalten, beschränkt, da nur vergleichsweise wenige Merkmale zugleich erfasst werden können. Daher sind Arbeitsteilung oder Reduktion erforderlich. • Die Beobachtungsmerkmale sind in der durch die Beobachtungssituation gegebenen zeitlichen Reihenfolge determiniert und können nicht anders angeordnet werden. • Die Beobachtung muss im Zeitpunkt des Geschehens erfolgen. Dies ist vor allem misslich, wenn es sich um selten eintretende Phänomene handelt, die eine lange Zeit der Inaktivität bedingen. • Eine identische Beobachtungssituation ist kaum wiederholbar. Damit sind auch Ergebnisse mehrerer Beobachtungen untereinander nicht ohne Weiteres vergleichbar. • Repräsentanz ist bei der Beobachtung nur schwer herbeizuführen, da man auf die Personen angewiesen ist, die in der Beobachtungssituation agieren. 4.2.2.2 Sonderform Panel Bei einer Kohorte handelt es sich allgemein um eine Gruppe von Untersuchungseinheiten, die gemeinsam in einer Längsschnittanalyse erhoben werden. Im Wesentlichen sind dazu zwei Formen nutzbar, die Wellenerhebung und das Panel. Bei ersterer werden in regelmäßigen Abständen zum selben Thema Daten gleichartiger Untersuchungseinheiten erhoben, bei letzterer werden in regelmäßigen Abständen zum selben Thema Daten von den im Grundsatz selben Untersuchungseinheiten erhoben. Untersuchungseinheiten können dabei Personen, Haushalte, Handelsgeschäfte, Industrieunternehmen etc. sein. Wellenerhebungen (Trackings) werden im Wesentlichen als Befragungen durchgeführt, spielen jedoch im Marketing eine geringe Rolle. Anwendungen sind in der Trendforschung, Meinungsforschung oder Einstellungsforschung zu finden. Panels werden im Wesentlichen als Beobachtung durchgeführt und sind im Marketing von großer Bedeutung. Nach der Art der Untersuchungseinheiten lassen sich folgende unterscheiden: • Unternehmenspanels sind in der Gesamtwirtschaft und nach Branchen angelegt. Sie erfassen allgemein betriebswirtschaftliche Daten wie Auftragseingang, Umsatzentwicklung, Investitionsvolumen etc. (oft auf gesetzlicher Basis erhoben). • Handelspanels erfolgen im Absatzkanal auf Einzelhandels- oder Großhandelsstufe. Sie haben in neuerer Zeit durch den Einsatz von Scanning am POS an Bedeutung gewonnen. • Verbraucherpanels werden aus Endabnehmern gebildet. Sie setzen auf Einzelpersonenebene (als Individualpanels) oder auf Haushaltsebene (als Haushalts-

76

4. Verfahren zur Informationserhebung

panels) an. Ersteres bietet sich an, wenn Informationen erhoben werden sollen, die unmittelbar nur das einzelne (führende) Haushaltsmitglied betreffen, letztere, wenn die Beschaffung von haushaltsbezogenen Daten gewünscht ist. • Sonderpanels finden sich z. B. in der Fernsehforschung (Teleskopie). Das Kriterium des gleich bleibenden Personenkreises darf allerdings nicht zu eng ausgelegt werden. Ausfälle und Grundgesamtheitsveränderungen haben kontinuierliche Anpassungen in der Stichprobe zur Folge, sodass nach einem Jahr erfahrungsgemäß nur noch rund 80 % der ursprünglichen Teilnehmer unverändert dabei sind. Gleiches gilt für das Kriterium des gleichen Erhebungsgegenstands. Denn Veränderungen bei Nachfrage, Wettbewerb und Umfeld führen zwangs­ läufig auch zu Veränderungen im Zeitablauf. Je schneller sich die Untersuchungsgegenstände in dynamischen Märkten wandeln, desto notwendiger wird eine laufende Beobachtung der eingetretenen Veränderungen und desto höher ist die Bedeutung von Panels. Aufgrund der meist erheblichen organisatorischen Vorkehrungen und des hohen Kosteneinsatzes können sie nur von großen Marktforschungsinstituten getragen werden, für diese sind sie laufende Einnahmequelle durch Verkauf der jeweils aktuellen Daten an beliebig viele Auftraggeber. Ein Panel bedarf laufender Kontrolle und Betreuung. Für die Qualität der Daten sind der Grad der Repräsentanz, die Genauigkeit der Erhebung bzw. Bearbeitung und die Schnelligkeit der Auswertung ausschlaggebend. Die Untersuchungsintervalle richten sich nach der Marktdynamik und den Erhebungskosten. Gleiches gilt für die Stichprobengröße (s. u.).

4.2.3 Experimentalverfahren Unter Experiment versteht man eine wiederholbare, unter kontrollierten, vorher festgelegten Umweltbedingungen durchgeführte Versuchsanordnung, die es mit Hilfe der Wirkungsmessung eines oder mehrerer unabhängiger Faktoren auf die jeweilige abhängige Variable gestattet, aufgestellte Kausalhypothesen empirisch zu überprüfen. Beim Experiment handelt es sich nicht unbedingt um ein eigenständiges Erhebungsverfahren, sondern um eine bestimmte Ausprägung experimenteller Befragung und Beobachtung. Die Variablen jedes Experiments sind folgende (siehe Abbildung 30): • Testelemente, an denen Experimente ausgeführt werden sollen (z. B. Produkte, Läden, Kunden), • unabhängige Variable, deren Einfluss gemessen werden soll (z. B. Marke, Packung, Preis), • abhängige Variable, an denen die Wirkung gemessen werden soll (z. B. Umsatz, Marktanteil, Einstellung),

4.2 Primärforschung

77

Variable des Experiments

Testelemente

unabhängige Variable (Parameter)

abhängige Variable (Messgröße)

kontrollierte Variable

Störgrößen (nicht-kontrollierbar)

Abbildung 30: Variable des Experiments

• kontrollierte Variable, die direkt beeinflussbar sind, deren Einfluss aber nicht untersucht wird und die daher konstant gehalten werden müssen (z. B. Werbeaufwand, Platzierung, Produktqualität), • Störgrößen, die nicht direkt beeinflussbar sind, aber daneben Einfluss auf die abhängige Variable nehmen (z. B. Konjunktur, Konkurrenz, Kaufkraft).

Formen des Experiments

Experimentalvariable

Experimentalumfeld (Feld, Labor)

Zeiteinsatz (projektiv, ex post facto)

Durchführung (informal, formal)

Abbildung 31: Formen des Experiments

Es können verschiedene Ausprägungen von Experimenten unterschieden werden (siehe Abbildung 31). Nach dem Umfeld gibt es Feldexperimente, die sich in einer natürlichen Umgebung vollziehen, und Laborexperimente, die in künstlicher, speziell für das Experiment geschaffener Umgebung erfolgen. Der Vorteil

78

4. Verfahren zur Informationserhebung

des Feldexperiments liegt in seiner Realitätsnähe, sein Nachteil in der beschränkten Möglichkeit zur Überprüfung und Kontrolle alternativer Variabler durch den Einfluss von Störgrößen. Beim Laborexperiment ist dies genau umgekehrt. Nach dem Zeiteinsatz können projektive Experimente, bei denen Veränderungen experimentalbegleitend auf ihre Kausalität hin untersucht werden, und Ex post facto-Experimente unterschieden werden, bei denen solche Kausalitäten erst im Nachhinein abgeleitet werden. Projektive Experimente konfrontieren also Personen mit der durch experimentelle Bedingungen geschaffenen Situation. Ex post facto-Experimente beruhen auf unabhängigen Variablen, die bereits in der Vergangenheit aufgetreten sind, während abhängige Variable erst in der Gegenwart gemessen werden. Nach der Durchführung lassen sich informale und formale Experimente unterscheiden. Informale Experimente nehmen eine zeitliche Differenzbetrachtung bei der Experimental- (E) (und evtl. noch Kontroll-) Gruppe (C) vor, indem diese vor dem Experimentaleinsatz (B) und danach (A) gemessen wird (werden). Dementsprechend ergeben sich aus Kombinationen verschiedene Testdesigns: • EBA-CBA bedeutet in diesem Zusammenhang, dass es zwei Messpunkte (vorher/B und nachher/A) sowie zwei Messgruppen (Experimental/E und Kontroll/C) im Experiment gibt. Die Experimentalgruppe wird somit vor Einsetzen des Testfaktors und danach gemessen (EBA), die Kontrollgruppe läuft ohne Testfaktor zu beiden Zeitpunkten in der Messung mit (CBA). Das informale Ergebnis ergibt sich somit aus der Differenzenbildung zwischen den Vorher- und Nachhermessungen in der Experimentalgruppe, relativiert um die Differenz zwischen beiden Messpunkten in der Kontrollgruppe. • Weitere Testdesigns sind EA (nur Experimentalgruppe nachher), EBA (Experimentalgruppe an zwei Messpunkten, vorher und nachher), CB-EA (zwei Messpunkte in zwei Gruppen, Experimentalgruppe nur nachher und Kontrollgruppe nur vorher), EA-CA (Experimentalgruppe und Kontrollgruppe jeweils nachher), Designs mit einer zusätzlichen Experimentalgruppe oder je einer zusätzlichen Experimental- und Kontrollgruppe etc. Problematisch ist bei informalen Experimenten, dass Verzerrungseffekte auftreten können: • Carry over-Effekte bedeuten dabei Verzerrungen im Zeitablauf des Experiments durch externe Faktoren. • Entwicklungs-Effekte bedeuten Verzerrungen im Zeitablauf durch interne Faktoren (z. B. Lerneffekte der Probanden). • Spill over-Effekte bedeuten Verzerrungen durch Einwirkungen von außen oder Auswirkungen nach innen. • Gruppen-Effekte bedeuten Verzerrungen durch strukturelle Unterschiede zwischen Experimental- und Kontrollgruppe.

4.2 Primärforschung

79

Je nach Testdesign können diese Effekte zumindest ausgewiesen werden, vermieden werden können sie aber nur durch formale Experimentaldesigns, welche die abhängige Variable im Rahmen der Varianzanalyse nach ihren Einflussgrößen hin verursachungsgerecht ausweisen. Dazu werden alle bekannten Störgrößen in der Versuchsanlage berücksichtigt. Ziel ist die verursachungsgerechte Aufspaltung der Ergebnisstreuung in Einflüsse von Störgrößen, Zufälligkeiten und der eigentlich interessierenden unabhängigen Variablen. Von symmetrischem Design ist die Rede, wenn jedes Merkmal die gleiche Anzahl von Ausprägungen besitzt, von asymmetrischem Design, wenn dies nicht der Fall ist. Bei Berücksichtigung mehrerer Variabler wird jedoch ein vollständiges (faktorielles) Design bald unübersichtlich, daher werden unvollständige, fraktionelle Designs gewählt (Lateinische Quadrate). Diese beschränken sich im Ausweis auf diejenigen Kombinationen, die für den Experimentator als relevant angesehen werden. Allerdings ist dann kein Ausweis von Interaktionseffekten mehr möglich. Voraussetzungen für Experimente sind allgemein ihre: • Repräsentanz, d. h., die Ergebnisse müssen sich von der Experimentalgruppe auf die Grundgesamtheit übertragen lassen, • Isolierbarkeit von Außeneinflüssen bzw. wo dies nicht möglich ist, die Kontrolle dieser Außeneinflüsse (Störgrößen), • Messbarkeit von Wirkungen durch geeignete und geeichte Erfassungsinstrumente. Grenzen des Experiments ergeben sich durch die praktische Beschränkung auf die Messung kurzfristiger Wirkungen, durch die schwierige Kontrolle möglicher Störgrößen bei umfangreichen Experimentaldesigns und durch die nur unzureichende Nachempfindbarkeit der Komplexität der Realität der Märkte. Die häufigste Form der Durchführung von Experimenten im Marketing bezieht sich auf die Wirkung der Marketinginstrumente. Dies wird Test genannt (siehe­ Abbildung 32). Dabei können verschiedene Testformen unterschieden werden: • Nach dem Zeitpunkt relativ zur Marktwirksamwerdung kann es sich um einen Pretest, also vor Marktpräsenz (z. B. einer neuen Werbekampagne), oder um einen Posttest handeln, also nach Marktpräsenz. • Nach der Anzahl der untersuchten Objekte kann es sich um einen Einzeltest (nur ein Produkt/monadisch) oder Vergleichstest handeln (zwei und mehr Objekte/ komparativ). • Nach dem Umfang der Beurteilung von Objekten handelt es sich um einen Test zur Untersuchung der Gesamtleistung oder einzelner Teilleistungen (wie Farbe, Form, Gewicht etc.). • Nach der Art der Versuchspersonen kann es sich um Experten, Zielpersonen, aktuelle Kunden oder Interessenten handeln.

80

4. Verfahren zur Informationserhebung

Formen von Tests

Zeitpunkt

Anzahl der Testobjekte (einzeln, im Vergleich)

Umfang (Vollleistung, Teilleistung)

Art der Testpersonen

Identifizierbarkeit des Testobjekts

Testablauf (monadisch, alternierend)

Zeitraum (Kurzzeit, Langzeit)

Ergebnis (Präferenz, Deskription, Akzeptanz, Diskrimination, Evaluation)

Medium (physisch, virtuell)

Abbildung 32: Formen von Tests

• Nach der Identifizierbarkeit des untersuchten Objekts handelt es sich um einen Blindtest, bei dem das Untersuchungsobjekt anonym bleibt, oder um einen Brandingtest, bei dem es als Marke ausgewiesen ist. • Nach dem Testablauf handelt es sich um einen monadischen Test, bei dem die Untersuchungsobjekte einzeln beurteilt werden, um einen alternierenden Test, bei dem sie meist paarweise abwechselnd beurteilt werden, oder um einen simultanen Test, bei dem sie gleichzeitig beurteilt werden. • Nach dem Zeitraum handelt es sich um eine Prüfung des Eindrucks (Kurzzeittest) oder der Erfahrung (Langzeittest). Ersterer erfolgt meist im Teststudio, auch mobil, letzterer meist im Haushalt der Probanden. • Nach dem Ergebnis können folgende Größen unterschieden werden. Beim Präferenztest werden Bevorzugungsurteile über Objekte im Vergleich abgegeben, beim Deskriptionstest werden Ausprägungen beschrieben, oft im Vergleich zu einem gedachten Idealobjekt, beim Akzeptanztest werden Kaufabsichten abgefragt, beim Diskriminationstest werden wahrgenommene Unterschiede zwischen Objekten angegeben, beim Evaluationstest werden einzelne oder alle Eigenschaften bewertet.

4.2 Primärforschung

81

• Nach dem Medium gibt es physische Experimente oder virtuelle (Online-)Expe­ ri­mente. Die Reaktionserfassung erfolgt über Eingabegeräte wie Mausklick, Zeigerbewegung, Tastaturanschlag, Antwortzeit etc. Die häufigsten Anwendungen von Tests sind • Konzepttests, welche die Überprüfung der Anmutungs- und Verwendungseigenschaften von Produkten mit dem Ziel testen, zu klären, ob die Produktleistung gegenüber dem Abnehmer bestehen kann, • Kommunikationstests, welche die Effizienz von Werbemaßnahmen testen, um eine Werbewirkungs- und Werbeerfolgsprognose und -kontrolle zu ermöglichen, • Produkttests, die den probeweisen Verkauf von Produkten auf einem räumlich mehr oder minder abgegrenzten Markt mit dem Ziel der Gewinnung von Erkenntnissen über die mutmaßliche Marktgängigkeit eines Produkts bzw. die Wirksamkeit von Marketingmaßnahmen vor deren großflächiger Einführung testen.

5. Online-Erhebungsverfahren 5.1 Einordnung Die Bedeutung von Online-Medien wächst in allen Wirtschaftsbereichen, getrieben durch das Zusammenwachsen von Telekommunikation (Netzbetreiber, Vermittlungstechnik, Internet etc.), Informationstechnik (Hardware, Endgeräte, Server etc.), Medien (TV, Film, Audio etc.) und Elektronik (Speicher, Bildschirme, Laufwerke etc.) zum TIME-Sektor. Das Internet als Oberbegriff von autonomen Rechnerverbundnetzwerken arbeitet nach dem Client-Server-Prinzip, d. h. Daten sind auf Massenspeichern hinterlegt und können von Nutzern dort abgerufen oder hochgeladen werden. Die Übertragung (Routing) funktioniert paketorientiert über unterschiedliche Übertragungswege (Gateways) nach dem Internet Protocol (IP) an eine Domain (URL/ Uniform Resource Locator) bestehend aus Name, Pfad und Endung (tld). Das Transmission Control Protocol (TCP) identifiziert diese eineindeutige Adresse, dargestellt durch vier Zahlengruppen. Der Traffic wird durch Online-Dienste oder Service Provider organisiert. Die Verbindung ist immer virtuell und basiert auf unterschiedlichen Protokollen. Die wichtigsten sind das http-Protokoll (Hypertext Transfer Protocol) für das World Wide Web (WWW) mit Erweiterungen im XML-Standard und als HTTPS (HTTP-Securer), das smtp-Protokoll (Simple Mail Transfer Protocol) für e-Mails (gemeinsam mit POP, IMAP oder MIMEProtokoll), das IRC-Protokoll (Internet Relay Chat) für Realtime-Diskussionen und das nntp-Protokoll (Network News Transfer Protocol) für Foren/Newsgroup. Diese Dienste bilden im Wesentlichen das bidirektionale Web 1.0, das primär kommerziell ausgelegt ist, also nur Top down oder Bottom up, d. h. der Nutzer reagiert auf ein Anbieterangebot und kann es nur für sich beeinflussen. Davon unterschieden wird das multidirektionale Web 2.0, das sozial ausgerichtet ist i. S. v. Kommunikation innerhalb der Nutzerebene, d. h. der Nutzer beeinflusst das Angebot für Alle und generiert dieses auch (UGC) statt vorgegebenem Content zu konsumieren. Im Web 1.0 werden verschiedene Dienste eingesetzt, die Gegenstand der Marktforschung sind: • e-Mail dient zur Übertragung von elektronischer Post. e-Mail ist einer der ältesten Internet-Dienste und gehört nach wie vor zu den am meisten genutzten. Die Rekrutierung von Teilnehmern erfolgt durch e-Mail des Forschers über den Austausch von Erhebungs-Mails im Erhebungszeitraum bis zum Abschluss der Erhebung.

5.1 Einordnung

83

• WWW dient zur Übertragung von Websites. Durch Web-Browsers werden die Webseiten grafisch am Bildschirm dargestellt. • Usenet dient zum Transport von Newsgroup-Nachrichten. In solchen öffentlichen Diskussionsforen kommunizieren Internetnutzer asynchron, also zeitversetzt, über beliebige Themen miteinander. Zur Beteiligung werden teilweise News Clients genutzt, die in vielen e-Mail-Programmen oder Internet Browsers bereits eingebaut sind. • IRC ermöglicht zeitsynchrone (realtime) Diskussionsgruppen im Internet. Solche Diskussionen finden meist in Chatrooms und unter Pseudonymen (Nick­ names) statt. Teilweise laufen die Chats auch WWW-basiert. Anforderungen an eine gute Software sind u. a. die Möglichkeit zur Speicherung aller Beiträge, eine differenzierte Rechtevergabe für den Moderator und die Teilnehmer sowie Beobachter, die Abschaltung der Flüsterfunktion für Teilnehmer, separate Räume für die einzelnen Themen, eine Textablage für den Leitfaden, Upload-Funktionen für Dateien/Bilder sowie eine Einspielfunktion für multimediale Stimuli. • Instant Messaging (IM) sind Dienste (z. B. ICQ), die eine direkte, zeitsynchrone und schriftliche Kommunikation zwischen Nutzern erlauben. Über verschiedene proprietäre Protokolle können Kurznachrichten sofort zwischen Usern übermit­ treams telt werden. Je nach System ist auch eine Übertragung von Dateien oder S (Audio/Video) möglich. Voraussetzung ist, dass die Partner zeitgleich aktiv sind und eine direkte Verbindung miteinander anstreben. Im Anschluss an die Rekrutierung der Teilnehmer erfolgt die Einladung bzw. Verabredung im Chatroom und das Gespräch dort. Nach Schließung des Chatroom erfolgt die Auswertung der Protokolle durch den Forscher. • Voice over-IP ist ein Dienst (z. B. Skype) zum Telefonieren über das Internet, teilweise mit eigenen Protokollen. Zur Kommunikation werden neben der Software auch Hardware-Komponenten wie Mikro, Lautsprecher, Headset o. Ä. benötigt. • Peer to Peer-Systeme erlauben den direkten Austausch von Dateien zwischen Nutzern, die Rechner sind dabei gleichzeitig Client und Server. Beispiele sind die Dienste File Transfer Protocol (FTP) für die Übertragung großer Daten­ mengen, Telnet für die Emulation von Terminals zur Fernbedienung oder Intra-/ Extranets (Geschlossene Benutzer-Gruppen). Das Web 2.0 nutzt hingegen diverse Soziale Media. Dorthin verlagert sich ein immer größerer Teil der Internet-Aktivität. Motive sind z. B. sozialer Kontakt (Social Networks), Selbstdarstellung (z. B. Weblogs), Mitteilungsdrang (z. B. Bewertungsportale) oder Eskapismus (z. B. Second Life). Das Web 2.0 ist durch Aspekte wie Nutzbarmachung kollektiver Intelligenz, nutzergenerierte Inhalte und Werte, Abschaffung des Software-Lebenszyklus, leichtgewichtige Programmiermodule, Verkettung von Endgeräten und Nutzerführung gekennzeichnet. Innerhalb des Web 2.0 werden verschiedene Medienarten unterschieden, die sich gut für Marktforschungszwecke nutzen lassen:

84

5. Online-Erhebungsverfahren

• Ein Blog (Weblog) ist ein online-geführtes Tagebuch (Online-Diary, das meist öffentlich einsehbar ist und Sachverhalte oder Gedanken, die einem Blogger relevant erscheinen, chronologisch protokolliert. Durch die Blog-Software kann jeder ohne Programmierkenntnisse eine Internetpräsenz erstellen. Diese Einträge können von Nutzern kommentiert werden und sind meist mit Links zu anderen Webseiten verbunden. Blogs können thematisch und zielgruppenspezifisch eingegrenzt werden. Weblogs sind privaten Ursprungs (Selbstinszenierung in der Öffentlichkeit), journalistisch aufbereitet (von Amateur-Rechercheuren) oder kritisch orientiert (Watchdog, Aktivisten). Blogs finden vor allem als CSRBlogs, Sales-/Kampagnen-Blogs, Themen-Blogs, Knowledge-Blogs, Collaboration-Blogs, Mitarbeiter-Blogs oder Gewerkschafts-Blogs statt. Eine Kurzform von Blogs sind Microblogs mit max. 140 Zeichen (plus Bild). Im Blog erfolgen leitende Fragen bzw. Kommentare des Forschers sowie kontinuierliche Beiträge, die einem Monitoring unterzogen werden bis der Blog geschlossen wird. • Bei File Exchange und File Sharing wird Online-Speicherplatz zur Verfügung gestellt, um Dateien auszutauschen oder Videos/Fotos/Audios hoch zu laden und Dritten zur Verfügung zu stellen. Die Mediadateien können in Websites integriert und auch nach definierten Merkmalen abonniert oder per e-Mail versandt werden. Eine Sonderform stellen Podcasts/Vodcasts dar, die themenspezifische Medieninhalte verbreiten und dafür einen speziellen Player erfordern. Podcasts sind Audiodateien, meist als mp3-Files, die sich Nutzer herunter laden und auf ihrem Computer abspielen können. Vodcasts haben entsprechend Bewegtbildinhalte. • Wikis dienen der Aggregation themenspezifischer Informationen und bieten dafür Tools zur Erstellung und Bereitstellung auf speziellen Sites. Die Inhalte können von jedermann, häufig nach Sichtung durch einen Web-Master, editiert (verändert, gelöscht, erweitert) werden und nutzen die kollektive Intelligenz der Nutzer (Crowdsourcing). Jeder Besucher kann eigene Einträge veröffentlichen oder Beiträge anderer ergänzen. Software für Wikis ist frei verfügbar, sodass jeder Website-Betreiber sein eigenes Wiki aufbauen kann, auch unternehmensintern. • Mash Ups verknüpfen mehrere Dienste, meist mikrogeographisch basiert, mit zusätzlichen Informationen und schaffen somit einen Mehrwert. Dies gilt vor allem für raum-zeit-gebundene Anwendungen und entspricht damit dem Leistungsprofil mobiler Endgeräte. • Tagging/Social Bookmarking stellt persönliche Favoritenseiten anderen Nutzern im Rahmen eines Indexierungsdienstes zur Verfügung (gemäß der Social Choice Theory). Diese Tags können nach Stichworten kategorisiert, kommentiert und kombiniert werden. • Im Social Networking können Nutzer persönliche Seiten einrichten und selbstgewählte Inhalte mit anderen Mitgliedern des Netzwerks teilen. Die Inhalte die-

5.2 Online-Sekundärforschung

85

nen der Selbstpräsentation im privaten oder beruflichen Umfeld. Sie sind oft nur für bestimmte Personenkreise gedacht, jedes Mitglied kann eine eigene Seite einrichten (Profil), um sich allen oder ausgewählten anderen Mitgliedern zu präsentieren. Möglich sind auch der Versand interner Nachrichten, die Bildung geschützter Interessengruppen, die Planung gemeinsamer Aktivitäten oder die Kontaktaufnahme. • Bewertungsportale sind eine Plattform für Kundenrezensionen von Sach- oder Dienstleistungen, auch Hochschullehrern, Ärzten, Rechtsanwälten oder Restau­ rants. Häufig ist eine Kombination mit mikrogeographischen Diensten anzutreffen. Für Social Media wird zunehmend die mobile Nutzung relevant. Die Zugangsgeschwindigkeit ist weiter verbessert und eine ortsunabhängige, bequeme Erreichbarkeit ist gegeben. Nutzer können lokalisiert (z. B. für Mehrwertdienste)  und Inhalte personalisiert werden. Treiber sind hier eine schnellere Übermittlung (UMTS/3G, LTE/4G etc.), größere Displays, mehr Akkuleistung und höhere Rechnerkapazität in den Endgeräten sowie verbreitete Datendienste (SMS, EMS, MMS, WAP etc.). Entscheidende Vorteile sind neben der generischen Mobilität die Überallerreichbarkeit der Teilnehmer, ihre Lokalisierbarkeit (über Cell oder GPS) und ihre Identifikation (über Anschlussnummer/IME). Typische Anwendungen sind etwa: • Mobile Browsing, Mobile Search, Mobile Information, Mobile Entertainment, Mobile Navigation, Mobile Commerce, Location Based Services, Mobile Tele­ metry, Mobile Banking/Broking, Mobile Payment, RSS-Newsfeed (Really Simple Syndication) etc.

5.2 Online-Sekundärforschung Für die Online-Sekundärforschung eignet sich die Recherchequalität des Internet hervorragend. Vielfältige Quellen kommen dafür in Betracht. Zentral bedeutsam sind elektronische Datenbanken mit IT-mäßig organisierten Datenbeständen, die betriebsintern oder -extern bestehen. Anforderungen an die Speicherung einer Vielzahl sachlicher und fachlicher Informationen sind im Wesentlichen folgende. Sie sollen • den ständig wechselnden Fragestellungen gerecht werden, • eine hohe Zuverlässigkeit hinsichtlich Funktionsfähigkeit, Aktualität und Vollständigkeit haben, • anwenderorientierte, dennoch möglichst mehrdimensionale Abfragemöglichkeiten erlauben, • eine komfortable Berichterstattung bieten.

86

5. Online-Erhebungsverfahren

Zu unterscheiden sind dabei mehrere Typen von Datenbanken: • Volltextdatenbanken, die den kompletten Inhalt erfasster Publikationen speichern und ausweisen, • bibliographische Datenbanken, die neben Quellenhinweisen auch kurze Inhaltsangaben (Abstracts, Summaries) enthalten, • Referenzdatenbanken, die nur Quellenhinweise zu Sachwörtern enthalten, z. B. Titel einer Publikation, bibliographische Angaben, Schlagworte (Directories), • Faktendatenbanken, die Zusammenfassungen überbetrieblicher Datensammlungen speichern (z. B. Erhebungen, Modelle), • nummerische Datenbanken, die vornehmlich statistische Daten enthalten, • Realtime-Datenbanken, die aktuelle Datenänderungen zeitgleich wiedergeben, z. B. an der Börse. Das Internet eröffnet tief gestaffelte Recherchemöglichkeiten in nahezu unbegrenzter Zahl und mit raschem Zugriff. Die Recherchequalität und -aktualität ist damit a priori erstklassig, allerdings erschwert die explodierende Vielzahl an Informationen das konkrete Ausfindigmachen relevanter Informationen. Daher sind Suchmaschinen eine der wichtigsten Anwendungen im Internet. Es können drei Arten von Suchmaschinen unterschieden werden: • Volltextsuchmaschinen (z. B. Lycos, Fireball, Alltheweb) durchsuchen automatisch rund um die Uhr alle erreichbaren Websites und speichern deren Überschriften (Metatags) und Teile der dort abgelegten Texte Wort für Wort und legen diese auf ihrem Server ab. Bei einem Suchauftrag durchforstet die Suchmaschine diesen Server-Vorrat und weist die entsprechenden Treffer aus. Dies erfordert eine möglichst exakte Definition des Suchfeldes, weil ansonsten unüberschaubar viele Treffer zustande kommen. Daher ist es zweckmäßig, bei der Suche eingrenzende Operatoren (z. B. AND, OR, NOT, NOR, NAND) vorzusehen. Besonders geeignet sind Volltextsuchmaschinen für die Detailsuche nach speziellen Informationen, sofern Eingrenzungen und Spezifizierungen zweckmäßig gewählt werden. • Web-Kataloge (z. B. Yahoo, Web, Allesklar) werden von Redakteuren zusammengestellt, die Webseiten indizieren, also den Inhalten Stichwörter zuordnen, die sie in einen Online-Katalog einstellen. Diese Kataloge sind hierarchisch aufgebaut. Bei einem Suchauftrag wird dann dieser Online-Katalog nach Stichwörtern durchsucht. Es gibt kaum irrelevante Treffer, dafür sind aber auch längst nicht alle Schlagwörter erfasst, sodass nicht alle relevanten Web-Informationen auch tatsächlich ausgewertet werden. Dennoch ist dies eine gute Wahl, um sich an ein Sachgebiet heranzutasten. • Meta-Suchmaschinen (z. B. Metaspinner, Metager, Metacrawler, Apollo7, OneSeek) führen keinen eigenen Datenbestand, sondern durchsuchen parallel mehrere

5.2 Online-Sekundärforschung

87

Volltextsuchmaschinen, Web-Kataloge und andere Spezialdatenbanken. Dadurch kann auf einen riesigen Informationsbestand zugegriffen werden, allerdings hängt die Nutzbarkeit der Angaben von der zweckmäßigen Eingrenzung des Suchbegriffs ab. Um einen ersten Überblick über ein Sachgebiet zu erhalten, sind diese Dienste jedoch sehr gut geeignet. Das Ranking der Auswertungen erfolgt nach verschiedenen Kriterien, z. B. nach dem Vorkommen des Suchbegriffs im Titel der Homepage, nach der Anzahl der Verweise auf eine Site von anderen Sites aus, nach dem Vorkommen von Hintergrundeintragungen (Metatags), die als Suchwörter im Text zwar nicht selbst erscheinen, ihn aber gut charakterisieren. Fachdatenbanken werden von kommerziellen und halbstaatlichen Anbietern betrieben. Als Informationen finden sich gesamtwirtschaftliche Daten, Unternehmens- und Produktinformationen, Geschäftsverbindungen, Wirtschaftsrechts­ urteile, Wirtschaftsnachrichten etc. Hierbei geht es also nicht um die Repräsentation vollständigen Wissens, sondern nur um jeweils relevante Ausschnitte davon. Diese sind allerdings teilweise nicht-öffentlich und bedürfen einer Zugangs­ berechtigung (Abonnement). Wer das reichhaltige, ständig wachsende Angebot der Fachdatenbanken nutzen will, schließt einen Vertrag mit dem Datenbankbetreiber (Host), z. B. Genios, DataStar, BIS, Dialog, Lexis-Nexis, Questel, Forrester, W3B, ab und erwirbt damit meist gegen eine Grundpauschale und zeitabhängige Gebühren Zugang. Für den Zugriff ist keine gesonderte Programmsprache erforderlich. Allerdings weichen die Nutzeroberflächen der Datenbankprogramme voneinander ab. Problematisch sind dabei der komplizierte Zugriff auf Datenbanken und die immer noch mangelnde Aktualität und Vollständigkeit der dort abgelegten Daten. Genios verwaltet dennoch ca. 400 Fachdatenbanken mit 34 Mio. Unternehmensinformationen, 30 ausgewerteten Zeitungen und 250 ausgewerteten Fachtiteln, je fünf Mio. Literaturhinweisen und Personeninformationen, 50.000 Marktstudien etc. mit fast drei Terabyte Daten. Die Online-Sekundärforschung beschafft und analysiert Informationen aus zu anderen Problemstellungen bereits vorhandenen Daten. Um die Teilnahme an Internet-Erhebungen zu steigern, werden Anreize eingesetzt. Diese bestehen etwa aus Software, Geschenken, Geldbeträgen oder Informationen, die von der Erhebungsperson auch im Wege der Selbstselektion ausgewählt und abgerufen werden können. Newsgroups eignen sich auch sehr gut zur Sekundärforschung.

88

5. Online-Erhebungsverfahren

5.3 Online-Primärforschung 5.3.1 Auswahlverfahren Bei der Online-Primärforschung werden die zur jeweiligen Problemstellung erforderlichen Informationen unmittelbar von den Probanden durch Befragung oder Beobachtung erhoben. Zur Befragung werden Internet-Dienste eingesetzt (Internet als Erhebungsmethode der Marktforschung). Die Beobachtung erfolgt durch Speicherung und Auswertung des Online-Nutzungsverhaltens (Internet als Gegen­ stand der Marktforschung). Bei beiden stellt sich zunächst die Frage der Auswahl der Erhebungseinheiten. Als Online-Auswahlverfahren kommen folgende Ansätze in Betracht. Im WWW dominiert die zufällige Auswahl der Erhebungseinheiten. Dies erfolgt häufig ungezielt auf folgenden Wegen. Bei der Intercept-Auswahl wird ein Online-Nutzungsvorgang durch Aufforderung zur Teilnahme an einer Erhebung, meist durch Öffnen eines neuen Browserfensters (Interstitial) beim Betreten (Pop Up) oder Verlassen einer Website (Pop Under), unterbrochen. Die Aufforderung erscheint bei jedem n-ten Nutzer (versteckter Zugang) oder in Abhängigkeit von einer bestimmten Aktion auf der Seite. Häufig werden Cookies genutzt, um wiederholte Besucher der Website zu identifizieren. Damit sind wahrscheinlichkeitsstatistische Auswertungen möglich, ebenso wie ein Ausweis der Ausschöpfungsquote. Allerdings sind systematische Ab­ weichungen zwischen Teilnehmern und Nicht-Teilnehmern zu vermuten, ebenso ist die Grundgesamtheit auf die Nutzer der Trägerseite begrenzt, sodass auch nur für diese eine Aussage getroffen werden kann. Zudem verhindern Browser häufig das Öffnen neuer Fenster (Pop up-Blocker). Dadurch kann nicht ausgewiesen werden, ob ein Nutzer wissentlich die Beteiligung verweigert oder erst gar keine Chance hatte, in die Stichprobe einzugehen. Bei selbstrekrutierten Befragungen erfolgt die Selektion durch Banner Ads mit Teilnahmeaufruf, durch kurze Einzelfragen (Quick Votes) auf der Webseite oder als redaktioneller Link im Content. Bei der Banner-Auswahl ist ein Display fest in mehrere Internetseiten integriert, durch einen Klick gelangt der Nutzer dann in die Erhebungsauswahl (mit offenem oder geschlossenem Zugang). Soll nur eine bestimmte Zielgruppe erhoben werden, wird der Banner nur in eine für diese hochaffine Seite integriert. Hier entscheidet der potenzielle Proband über die Teilnahme, es liegt also im engeren Sinne gar keine Zufallsauswahl mehr zugrunde, mathematisch-statistische Berechnungen sind auf dieser Basis daher nicht möglich. Die Internetforen-Auswahl bezieht sich auf Diskussionsplattformen im WWW, die nach Themen gruppiert sind. Auf der Startseite eines themenadäquaten Internetforums kann ein Link zur Startseite der Erhebung integriert werden, ohne den Dienst verlassen zu müssen. Damit ist eine recht zielgenaue Adressierung mög-

5.3 Online-Primärforschung

89

lich. Allerdings besteht keine klare Abgrenzung der Grundgesamtheit, denn die Gesamtheit der Forums-Nutzer bleibt extern unbekannt. Die gezielte Ansprache in anderen Online-Medien vollzieht sich häufig durch Einladung per e-Mail, per Brief (offline) oder per SMS (mobil). Die Repräsenta­ tivität wird dann aufgrund von Listen, für Micro-Zielgruppen aufgrund des Umfelds oder zukünftig auch bevölkerungsrepräsentativ erreicht. Die aktive Teilnehmerrekrutierung kann eine Lösung zum Ausgleich unterrepräsentierter Zielgruppen bieten. Eine Kontrolle ist durch Kennzahlen zu Ausschöpfung (Coverage der Grundgesamtheit), Abbrüchen (Abandonment von Interviews) oder Nichtteilnahme (Non Response trotz Adressierung) gegeben. Bei der Newsgroup-Auswahl liegt eine offene Gruppe mit e-Mail-Registrierung der Teilnehmer zugrunde. Dort kann eine Aufforderung zur Teilnahme an einer Erhebung mittels eines Link platziert (gepostet) werden. Auch hier ist die Abgrenzung der Grundgesamtheit unmöglich und die Teilnehmer selektieren sich selbst. Die breite Streuung von Posts verstößt zudem gegen die Netiquette, der gezielte Versand in themenspezifische Newsgroups kann jedoch erfolgversprechend sein. Bei der Bulk-e-Mail-Auswahl liegt zwar kein zentrales Register aller e-MailNutzer vor, jedoch kann man e-Mail-Adressen von Informationsbrokern kaufen (häufig von aufgelösten Net-Unternehmen). Denkbar, wenngleich hoch problematisch, ist die zufallsgenerierte Kombination von Buchstaben/Wörtern und Domains, in der Hoffnung, damit tatsächlich existierende Adressen zu treffen. Denn dies erfüllt den Tatbestand des Spam, das nicht nur gegen die Netiquette, sondern auch gegen das Gesetz verstößt. Das Ergebnis ist zudem notleidend, weil keine ausreichende Abgrenzung der Grundgesamtheit möglich ist und die Responsequote sehr gering sein dürfte. Im Rahmen der Suchmaschinen-Auswahl erfolgt der Eintrag der Startseite einer Erhebung in möglichst vielen Suchmaschinen. Die Teilnehmer rekrutieren sich dann im Wege der Selbstselektion, denn diese Seiten sind nur relevant für Nutzer, welche die Absicht haben, an einer Erhebung teilzunehmen. Dies bürgt allerdings geradezu für Verzerrungen und gehorcht nicht dem Prinzip der zufälligen Auswahl. Möglich ist auch eine Offline-Rekrutierung von Probanden, etwa bei Online Access-Panels. Hierbei werden Teilnehmer an einem Panel durch traditionelle Formen der Marktforschung zur wiederholten Teilnahme zum selben Thema in regelmäßigen Abständen rekrutiert. Dadurch können eine höhere Teilnahmebereitschaft, eine schnellere Durchführung und eine kostengünstigere Erhebung erwartet werden. Unerkannte Mehrfachteilnahmen und Täuschungen über die Soziodemographie sind durch Panelpflege vermeidbar. Allerdings dürften sich Verhalten und Einstellung der Teilnehmer im Zeitablauf verändern. Auch entsteht eine Panel-Ermüdung, der durch Incentives entgegengewirkt werden kann.

90

5. Online-Erhebungsverfahren

Bei den jeweiligen Formen ergeben sich also relevante Stichprobenprobleme wie folgt: • Die Definition der Grundgesamtheit ist generell problematisch, die Gesamtheit aller Personen mit Online-Zugang ist unbekannt und nicht abgrenzbar, es gibt kein Verzeichnis aller e-Mail- oder WWW-Anschlüsse. • Eine Coverage-Problematik besteht, da regelmäßig nicht alle Personen/Haushalte der Grundgesamtheit über Internet-Anschluss verfügen und personenbezogene Daten gefälscht sein können. • Sampling-Fehler sind unvermeidlich, da die Verteilung der interessierenden Werte (z. B. Quotierungsmerkmale) in der Grundgesamtheit unbekannt ist, daher kann nicht mit Bewusstauswahlverfahren gearbeitet werden. • Es besteht ein Selbstselektionsproblem durch passive Auswahl, deshalb kann nicht von der Stichprobe auf die Grundgesamtheit geschlossen werden, weil sie atypisch für diese ist oder sein kann (Motivation, Kontaktchance, Heavy User, Interessenten etc.). • Entstehende systematische Verzerrungen bleiben unerkannt, da die Ausfallquote infolge systematischer oder zufälliger Verzerrungen nicht ausgewiesen werden kann, z. B. wenn ein Proband, der bereits teilgenommen hat, bei weiteren Ansprachen nicht mehr teilnimmt. • Mehrfachteilnahmen derselben Probanden sind durch dynamische IP-Adressen und Blockung von Cookies oder mehrere URL’s kaum nachvollziehbar, dadurch kommt es zu Verzerrungen (Overcoverage, etwa durch Incentive-Jäger). • Die tatsächliche Teilnehmerschaft bleibt durch Falschangaben, die nicht überprüft werden können (Anonymität des Internet) mehr oder minder unbekannt. Dadurch bestehen nicht-kontrollierbare Störeinflüsse wie Ungewissheit über die Personenidentität von angemeldeter und tatsächlich teilnehmender Person bei einer Erhebung. • Verzerrungen durch abweichende Nutzungsintensität des Internet (Auswahl mit ungleichen Wahrscheinlichkeiten) sind unvermeidlich, dadurch werden Nerds/ Digital Natives bevorzugt, die aber zugleich untypisch für die interessierende Grundgesamtheit sein mögen. Es kann versucht werden, die genannten Verzerrungen auf mehrerlei Art zu verringern, und zwar durch • Prä-Gewichtung bei einer Quota-Auswahl, dies setzt allerdings eine Kenntnis über die Verteilung interessierender Merkmale in der Grundgesamtheit voraus, die meist gerade nicht gegeben ist, • Post-Gewichtung, hier erfolgt ein Redressement (Auf- oder Abwertung) der unterbzw. übergewichteten Merkmale der tatsächlichen Stichprobe im Vergleich zu den quotierten Merkmalen, dadurch kommt es allerdings zu erheblichen Verzerrungen,

5.3 Online-Primärforschung

91

• aktive Ansprache von Teilnehmern (bewusste Auswahl), dadurch wird zwar die Selbstselektion vermieden, dafür sind Auswahlwahrscheinlichkeiten nicht mehr berechenbar, • Rekrutierung über Offline-Medien im Wege herkömmlicher Auswahlverfahren, dann findet lediglich die Erhebung online statt, nicht aber mehr die Stichprobenziehung. Vor allem das Problem der Mehrfachteilnahne kann angegangen werden, indem Cookies gesetzt werden, allerdings setzt dies eine entsprechende Browser-Einstellung beim Nutzer voraus. Denkbar ist auch die Überprüfung der IP-Adresse, wodurch jedoch lediglich der Netzanschluss identifiziert wird, nicht jedoch der Nutzer selbst. Zudem entstehen Probleme bei dynamischen IP-Adressen oder Fire­ wall-Rechnern. Ebenso kann das Problem der mangelnden Identifizierung von Probanden nur durch Verifizierung einer angegebenen Adresse (Mixed Mode) oder ein paralleles Telefoninterview gelöst werden. Ein indirekter Abgleich mit der spezifischen Nutzungsintensität des Internet ist möglich, durch Plausibilitätskontrollen auch ein Auffinden von Falscheingaben.

Online-Primärforschung WWW-Befragung Befragungsmethoden

e-Mail-Befragung Newsgroup-Befragung IRC-Befragung sonstige (Push-I.M., Voice over IP, Peer to Peer/FTP etc.)

Beobachtungsverfahren

Logfile-Analyse Themenorientierte Beobacht.

Experimentalverfahren

Abbildung 33: Formen der Online-Primärforschung

92

5. Online-Erhebungsverfahren

5.3.2 Online-Befragung Die Online-Primärforschung kann als Befragung, Beobachtung oder experimentelle Befragung/Beobachtung ausgelegt sein (siehe Abbildung 33). Zunächst zur Online-Befragung. 5.3.2.1 Computer Assisted Web Interviewing Das Computer Assisted Web Interviewing (CAWI) betrifft eine Erhebung im Internet als Online-Befragung. CAWI-Erhebungen haben als Vorteile allgemein in affinen Zielgruppen eine hohe Akzeptanz, unterliegen keinen räumlichen Restriktionen, sind zeitunabhängig und flexibel einsetzbar. Sie sichern die Anonymität der Teilnehmer, sind weitgehend automatisiert auswertbar, objektiv sowie kosten- und zeitsparend. Sie bieten eine erhöhte Datenqualität, weil Interviewereinflüsse fehlen, erweiterte Abfragemöglichkeiten durch Filterführung, die Integration von Bildoder Tonvorgaben, Plausibilitätsprüfungen etc. CAWI-Befragungen können auch ergänzend mit traditionellen Befragungen durchgeführt werden (Mixed Mode). Nachteilig sind jedoch die latente Identitätsproblematik, die Gefahr mehrfacher Beantwortung sowie mangelnder Repräsentativität und Verzerrung durch Selbstselektion der Teilnehmer. Sie unterliegen einer Beschränkung auf bestimmte Zielpersonen, dem Leseverhalten am Bildschirm notwendigerweise angepassten Fragestellungen und erhöhtem Programmieraufwand. Zudem sind umfangreiche rechtliche Restriktionen wie Bundesdatenschutzgesetz/BDSG, Teledienstegesetz/ TDG, Teledienstedatenschutzgesetz/TDDSG, Telekommunikations-Datenschutzverordnung/TDSV etc. zu beachten. Online-Befragungen sind allgemein durch geringe soziale Präsenz und erhöhte private Selbstaufmerksamkeit gekennzeichnet. Dem stehen eine hohe subjektive Anonymität und verringerte Sorge um soziale Bewertung gegenüber. Dies führt zu einer erhöhten Ego-Zentrierung und Selbstenthüllung. Daraus resultieren geringe Effekte der sozialen Erwünschtheit und eine Tendenz zu antinormativem Verhalten. Dies führt zu einer Überbetonung individueller Aspekte. Allgemein und tendenziell sind folgende Vorteile gegenüber traditionellen Befragungen zu nennen: • es ist eine schnelle Rekrutierung der Probanden möglich, • eine zügige Projektdurchführung ist darstellbar, • die Kontrolle der Feldarbeit ist in „Echtzeit“ realisierbar, • es herrscht eine hohe Transparenz des Erhebungsverfahrens, der Studienergebnisse und der Auswertung (Anzahl vollständiger Fragebögen, Anzahl Abbrecher, Verteilung Rücklauf etc.), • iterative Abläufe erlauben den vorzeitigen Abbruch der Studie bei Vorliegen eindeutiger Trends,

5.3 Online-Primärforschung

93

• Abbildungen, Anzeigen, multimediale Konzepte o.Ä. können nach Zufallsauswahl Zielgruppensegmenten vorgelegt werden, • bei hohen Fallzahlen entsteht ein degressiver Verlauf der Erhebungskosten, • ein Interviewerbias fehlt weitgehend, • die Untersuchungsobjekte können zielgruppengerecht angepasst werden, • es werden Papier, Kopien, Porto, Datencodierung etc. eingespart, • die Daten sind sofort elektronisch verfügbar und einfach weiterzuverarbeiten, • die Kosten für zusätzliche Teilnehmer, Nachfassaktionen, Kontrollen etc. sind niedrig. Zu den allgemeinen Nachteilen gehören hingegen folgende: • eine vollständige Abdeckung der Zielgruppe ist häufig nicht realisierbar, • es entsteht ein hoher Aufwand, um die Identität der Probanden eindeutig sicherzustellen, • die Erfassung der Körpersprache fehlt (Mimik, Gestik etc.), • Nachfragen oder Hilfestellung durch den Interviewer sind nicht möglich, • durch Unwissen über technische Gegebenheiten können Bildschirmdarstellungen verzerrt sein, • die Entscheidung zur Nichtteilnahme fällt schnell, • die Stichprobenziehung ist schwierig. Online-Erhebungen bieten sich für die Erfassung technikaffiner Zielgruppen an. Die Anonymität begünstigt die Erhebung sensibler Themen und unmittel­barer Reaktionen. Ökonomische Aspekte (Zeit/Kosten) der Durchführung bleiben ohne Belang. Es besteht kein oder ein nur sehr geringer Interviewereinfluss. Erhebungspersonen sind eher zur Mitarbeit bereit, die Erhebung erfolgt in der gewohnten Umgebung. Jedoch können keine vertieften sozialen Beziehungen genutzt werden. Ironie, Humor, Sarkasmus etc. werden nicht verstanden. Die Erhebungssituation ist nicht kontrollierbar. Die Beanspruchung der Teilnehmer ist hoch (Lesen, Verstehen, Überlegen, Antworten) und Infrastruktur und Medienkompetenz sollten gegeben sein. Eine Sonderform stellt die Befragung über Interactive-TV dar. Dabei wird bei (breitbandigem) digitalem Kabelfernsehen ein (schmalbandiger) Rückkanal zur Überspielung der Antworten von Zuschauern eingesetzt, wobei die Fragen über Videotext angezeigt werden. Vor allem können in das laufende Programm Abfragen eingebaut oder gesonderte Frageprogramme eingespeist werden. Bei analogem Kabelfernsehen ist demgegenüber ein Medienwechsel (Telefon) erforderlich. Einen weiteren Sonderfall der WWW-Befragung stellt der WWW-Opinion

94

5. Online-Erhebungsverfahren

Poll dar. Dabei werden eine oder wenige Fragen an zufällig ausgewählte bzw. jeden Nutzer über Bildschirmbuttons gestellt. Allerdings ist die Teilnahmebereitschaft sehr gering. Der Ablauf der Befragung gleicht im Grunde den bei schriftlichen Umfragen (Bestimmung der Grundgesamtheit, Bestimmung der Auswahlbasis, Festlegung des Stichprobenumfangs, Entscheidung über Auswahlprinzipien, Durchführung der Befragung). Für die Fragebogengestaltung gelten mehrere Vorgaben: • die Vorankündigung des Fragebogens, das Einladungsschreiben (Betreffzeile, Absender, Personalisierung, Fragebogen-Log-in etc.), der Nachfass, • das Fragebogendesign (Software- und Hardwarevoraussetzungen, Startseite, Seitenumfang, Seitenaufbau), • Hilfsmittel wie Fortschrittsindikator, Wording, Hilfstexte, Darstellung (als Radio­ button, Drop-down-Menü, Matrixfrage, Schieberegler, Checkbox, Icon etc.), offene Textfelder, Pflichtfragen, Antwortkorrektur, Farben, Multimedia-Elemente, Avatar, • Feldzeit (Erhebungszeitraum), Incentives zur Teilnahme. 5.3.2.2 WWW-Befragung Die Online-Befragung erfolgt im Wesentlichen als WWW-, e-Mail-, Newsgroupoder IRC-Befragung. Zur Durchführung von WWW-Befragungen (Online-Befragung i. e. S.) können aufgrund der HTML-Struktur der WWW-Dokumente Formularfelder mit automatischem Versand an eine vorgegebene Adresse genutzt werden. Allerdings müssen die vorgesehenen Teilnehmer infolge des Pull-Charakters des WWW selbst auf das Befragungsangebot zugreifen. Daher ist zweierlei zu leisten, erstens der Kontakt zur entsprechenden Website und zweitens die Ausfüllung des Frage­ bogens. Ersteres wird durch Bekanntmachung der Befragung über verschiedene Internet-Dienste und Werbemittel im WWW erreicht. Hinzu kann die Bekannt­ machung auch in klassischen (Offline-)Medien treten. Für letzteres werden alle Besucher einer Homepage pauschal gebeten, den Fragebogen zu bearbeiten. Dies ist meist verbunden mit einer Registrierung der Besucher, die dazu persönliche Informationen abgeben. Durch Anklicken eines Button gelangt der Besucher dann auf die Fragebogen-Seite. Denkbar ist auch, jeden n-ten Besucher einer Website automatisch auf die Fragebogen-Seite umzuleiten (s. o.). Damit ist dann zugleich ein auf den Nutzerkreis begrenztes Zufallsauswahlverfahren realisiert. Allerdings ist die Akzeptanz dieses Vorgehens fraglich.

5.3 Online-Primärforschung

95

Der WWW-Fragebogen selbst ist ein HTML-Formulardokument zum Eintrag von Antworten durch den Befragten. Dabei kann es sich um Texteingaben handeln, um das Anklicken eines von mehreren Auswahlbuttons (z. B. runde Radiobutton) oder mehr als eines von mehreren Ausführungsbuttons (z. B. eckige Checkbuttons). In Listenfeldern können Fragekategorien vorgewählt werden. Mit dem Ausführungsbutton wird entweder eine Eingabebox gelöscht, die Bearbeitung abgebrochen oder durch Versand an den Veranstalter planmäßig beendet. Mit Skript-Programmen im Hintergrund können zugleich eingegebene Werte auf ihre Plausibilität und Vollständigkeit hin geprüft werden. Wichtig ist, dass der Fragebogen auf allen gängigen Web-Browsern richtig dargestellt und ausgeführt wird. Multimedia-Elemente sollten dabei im Sinne kurzer Ladezeiten zurückhaltend eingesetzt werden. Die WWW-Befragung erlaubt eine einfache Durchführung und rasche Auswertung der Ergebnisse. Die Darstellungsmöglichkeiten sind durch Einbindung von Grafiken, Audio- und Videosequenzen vorteilhaft. Durch das Medium Internet werden die Kosten des Interviewereinsatzes sowie die Kosten für den Fragebogendruck eingespart. Zudem entsteht kein Interviewereinfluss, sodass a priori auch sensible Themen abfragbar sind. Die Befragung kann vollstandardisiert stattfinden, die Filtersteuerung erfolgt automatisch. Und die Ergebnisse sind schnell auswertbar. Allerdings müssen die prospektiven Teilnehmer den Fragebogen aus eigener Initiative suchen und finden (Selbstselektion). Zudem kann jeder Teilnehmer beliebig häufig an einer Befragung teilnehmen (Multi Site Entry) und somit deren Ergebnis verzerren. Die Objektivität der Daten bleibt aufgrund unterschiedlicher Darstellungen durch Betriebssystemunterschiede, verschiedene Browser, abweichende Grundeinstellungen im Browser etc. fraglich. Auch führt die Komplexität eines Fragebogens bei geringer Involvierung leicht zur Überforderung und Verständnisprobleme sind nicht erkennbar. Die Reliabilität bleibt ebenso fraglich durch mögliche Anwesenheit Dritter beim Ausfüllen des WWW-Frage­ bogens, durch Bedienprobleme beim Ausfüllen und durch fehlende Werte infolge Abbruchs der Befragung (hier wirkt auch ein Oversampling nicht ausgleichend). Auch die Validität der Ergebnisse bleibt fragwürdig wegen vermutlicher Willkürantworten infolge der Anonymität des Mediums. Die Teilnahmequote ist gering und es besteht keine Identifizierungsmöglichkeit der Teilnehmer. Allgemein ist für die Anlage des Online-Fragebogens zu berücksichtigen, dass keine Spontanreaktionen erhebbar sind. Auch sprachliche Unklarheiten können nicht geklärt werden. Evtl. ist eine Übersetzung ins Englische erforderlich. Bei langen Fragebögen kann es zu vorzeitigem Teilnahmeabbruch kommen. Eingebundene Audio- und Videodateien motivieren zwar die Teilnehmer, erhöhen aber zugleich das Datentransportvolumen. Unbedingt sind die unterschiedlichen Bildschirmdarstellungen verschiedener Browser/-generationen auszutesten. Benutzerhilfen sollten bei Unklarheiten eingeblendet werden (Moderator-Fenster). Bei komplizierten Abläufen ist die automatische Filterführung sehr hilfreich. Indivi­

96

5. Online-Erhebungsverfahren

duelle Fragebögen können zwischenzeitlich mit entsprechender Software vom Veranstalter selbst entwickelt werden. Web-Befragungen führen allgemein zu hoher subjektiv wahrgenommener Anonymität und geringer sozialer Präsenz mit verringerter Sorge um soziale Bewertungen, damit zu einer geringen Bindung an soziale Normen, erhöhter „Selbstenthemmung“ (anti-normatives Verhalten) und Überbetonung individueller Aspekte. Zugleich entstehen aber auch geringe Effekte der sozialen Erwünschtheit. In der Würdigung ist zu vermuten, dass WWW-Befragungen im General Inte­ rest-Bereich noch auf Jahre hinaus wenig tragfähig sein werden (Bias zu besser­ gebildeten, großstädtischen, jungen Männern). Anders sieht dies im Special Inte­ rest-Bereich aus, hier ist bereits heute eine hohe Praktikabilität gegeben. 5.3.2.3 e-Mail-Befragung e-Mail-Befragungen sind schnell und kostengünstig durchführbar. Sie setzen zur Anlage keine Programmierkenntnisse voraus. Die Erhebung ist zeit- und ortsungebunden möglich. Allerdings sind die Gestaltungs- und Formatierungsmöglichkeiten begrenzt. So können mutmaßlich nur einfache Sachverhalte abgefragt werden. Insgesamt ist eine eher geringe Antwortbereitschaft anzunehmen. Zur Anlage der Befragung ist zu beachten, dass jede e-Mail-Nachricht aus zwei Komponenten besteht, den Header-Anweisungen über den rein technischen Transport der Nachricht (Empfängeradresse, Kopie-Adressen, Absenderadresse, Betreffzeile etc.) und der eigentlichen, textbasierten Nachricht (Body). Mailing-­ Listen können realisiert werden, indem Teilnehmer, die sich über ein bestimmtes Thema informiert halten wollen, diese Mailing-Liste abonnieren. Nachrichten an die Mailing-Liste werden automatisch, umgehend, kostengünstig und einfach an alle Abonnenten distribuiert. Im Unterschied zum WWW (nur über Internet-­ Provider) ist der e-Mail-Dienst für jeden Internet-Nutzer zugänglich. Damit e-Mail-Nachrichten nicht von ungebetenen Dritten gelesen oder verfälscht werden können, werden sie meist vor Versand verschlüsselt. Um sich vor ungebetenem e-Mail-Versand (Spamming) zu schützen, filtern viele Postprogramme die eingehenden Nachrichten nach vorgegebenen Kriterien und blenden diese ggfs. (z. B. zum Schutz vor Viren) ungelesen aus. Dies betrifft regelmäßig auch Fragebögen. Daher sollten e-Mail-Befragungen immer angekündigt werden, indem mindestens über das Befragungsziel, die Dateigröße und den Veranstalter informiert wird, und sich durch eine aussagefähige Betreffzeile kenntlich machen. Wichtig ist, die Nachricht/den Fragebogen so kurz wie möglich zu halten und die einwandfreie Darstellung auf verschiedenen e-Mail-Client-Programmen zu sichern. Zwischenräume für Antworten sind zwar unerlässlich, erhöhen aber das Datenvolumen. Als Adressaten kommen vor allem Kunden und Interessenten in Betracht. Der eigentliche Fragebogen wird meist als Anhang im HTML-Format versandt. Die

5.3 Online-Primärforschung

97

Beantwortung ist sowohl im Medium selbst, also durch Ausfüllen des Frage­bogens und Rücksendung an den Absender oder eine andere vordefinierte Adresse, als auch unter Medienwechsel, also per Post oder Fax möglich. Eine e-Mail-Mitteilung sollte nicht mehr als 65 Zeichen pro Zeile enthalten und keine Tabstopps vorsehen, da diese nicht von allen Betriebssystemen einheitlich gelesen werden. Hilfreich ist die Anführung eines Beispiels für die e-Mail-Beantwortung. Im Header ist die Adresse des Forschers/Instituts anzugeben. Anonymität beim Versand kann zugesichert werden, indem die Adresse im Blind Copy-Feld (BC) eingetragen wird. Evtl. kann auch ein Anonymisierungsservice zwischen­ geschaltet werden. Durch Filtereinsatz wird der Eingang der Antwort entsprechend ihrem Inhalt gleich im richtigen e-Mail-Ordner abgespeichert. Für die Durchführung einer e-Mail-Befragung sind einige Anregungen hilfreich. Die Probanden sollen individuell eingeladen, der Forscher und das Projekt müssen authentisch vorgestellt werden. Die Anfrage soll kurz und sachlich formuliert sein, das Angebot von Incentives ist durchaus möglich, ebenso wie Motivatoren (kein Wissen erforderlich, keine falschen Antworten möglich, Schreibfehler sind egal etc.). Anonymität kann zugesichert werden. Der genaue Umgang mit dem Fragebogen ist zu erläutern und der Einsatz von Emoticons anzuregen. Deutlich ist vor allem das Timing bekannt zu machen. Sinnvollerweise prüft man das Design zunächst in einem Pretest, evtl. kann im Roll out eine Hotline-Nummer für Support angegeben werden. Die Frageformulierungen sind eineindeutig zu fassen, auf einen abwechslungsreichen, knappen Aufbau des Fragebogens ist zu achten. Nicht antwortende Teilnehmer können erinnert werden, evtl. wird eine Reserve für ausfallende Probanden gefahren, um die Fallzahl zu sichern. e-Mail-Befragungen bieten folgende Vorteile: • Die Teilnehmer können durch die Asynchronität an beliebigem Ort und ohne Zeitdruck an der Erhebung teilnehmen, es kommt zu weniger Interviewabbrüchen durch Störungen, die Erhebungssituation ist anonym, was die Offenheit fördert, mögliche Transkriptionsfehler entfallen ebenso wie ein Bias durch Präsenz des Interviewers, e-Mails sind einfach und ohne technische Vorkenntnisse zu bedienen. Dagegen stehen jedoch folgende Nachteile: • Potenzielle Teilnehmer müssen über einen Online-Zugang verfügen, spontane Reaktionen der Befragten können nicht erfasst werden, die Bereitschaft zur Mitarbeit ist wegen mangelnder Sicherheit im Internet begrenzt, die Befragung kann durch Spamfilter oder Soft Bounces nicht zustande kommen, wegen der Dauer der Befragung besteht erhöhte Abbruchgefahr, nonverbale Reaktionen der Teilnehmer können nicht erfasst werden, der Nutzung von Emoticons oder gängigen Abkürzungen ist oft unbekannt, die Befragungssituation kann nicht kontrolliert werden, die Integration von Grafik-Elementen ist schwierig, die überlappende Bearbeitung mehrerer Interviews ist aufwändig und die Ergebnisse müssen aufwändig aggregiert werden.

98

5. Online-Erhebungsverfahren

5.3.2.4 Newsgroup-Befragung Newsgroup-Befragungen nutzen Diskussionsforen, in die eingetragene Teilnehmer für alle sichtbar mittels eines Newsreader Nachrichten eingeben, auf die alle anderen Teilnehmer, wiederum für alle sichtbar, oder auch verdeckt, reagieren können (Prinzip des Schwarzen Bretts/Bulletin Board). Newsgroups sind nach Themengebieten und Regionen in Untergruppen aufgeteilt. Die Software ist in aktuellen Browser-Generationen bereits integriert. Zweckmäßigerweise analysiert man über einen längeren Zeitraum die Umgangsformen und Interessen der Teilnehmer einer bestimmten Newsgroup. Der Fragebogen wird dann mit einem aussagefähigen Titel, einer ansprechenden Gestaltung und der Aufforderung zur Beantwortung versehen an eine oder mehrere Newsgroups versandt. Zu beachten ist, dass die Nachrichten vom News-Server in regelmäßigen kürzeren Abständen gelöscht werden, sodass für eine längerlaufende Befragung erneute Versendungen erforderlich sind. Auch ist die regionale/nationale Verbreitung der jeweiligen Newsgroup zu beachten. Es dürfen nicht zu viele Newsgroups adressiert werden, da Überwachungs-Software ein unkontrolliertes Crossposting unterbindet. Newsgroups ähneln marktforscherisch traditionellen Gruppendiskussionen (Fokusgruppen), finden aber nicht „realtime“ statt, sondern asynchron. Die Befragung kann statt in der Newsgroup selbst auch durch Einladung zur Befragung auf einem anderen Weg (e-Mail, WWW, „Schneckenpost“) erfolgen. Zur Verwendung im Usenet muss der Fragebogen selbst im ASCII-Code (textorientiert, ohne Sonderzeichen) erstellt sein. Auch ist auf die Einhaltung der maximalen Zeilenbreite zu achten (da es sonst zu ungewollten Zeilenumbrüchen kommt). Der Fragebogen sollte wiederum so kurz wie möglich gehalten sein. Durch die Einteilung der Newsgroups lassen sich spezielle Personengruppen zielgenau ansteuern. Zum jeweiligen Thema sind zudem ein hohes Interesse und damit eine hohe Antwortbereitschaft bei Teilnehmern vorauszusetzen. Allerdings besteht keine Möglichkeit, Antwortverweigerer zu erfassen. Hilfreich sind Angaben zu Untersuchungsleiter, Sinn und Zweck der Untersuchung, Fragebogenlänge (in Min.), Zusicherung von Anonymität und Ergebnisfeedback. Wichtig ist auch die Einhaltung der Netiquette. Vorteile der Newsgroup-Befragung sind vor allem folgende: • Sie ist zeiteffizient für die Teilnehmer und verursacht geringe Reisekosten, die Asynchronität erlaubt eine optimale Einbindung der eigenen Beiträge in die persönliche Zeitstruktur ohne Ein- bzw. Ausloggen und begünstigt auch das Lesen aller Beiträge, dadurch entstehen reflektiertere Beiträge und werden neue Aspekte in das Forum eingebracht, bei hoher Teilnehmermotivation sind ausführliche Beiträge ohne Zeitdruck möglich, infolge fehlenden Gruppendrucks kommt es zu weniger sozial erwünschtem Verhalten und größerer Offenheit, Hierarchien werden aufgelöst und es entsteht eine Egalisierung aller Beiträge, eine Dokumentation des Meinungsbildungsprozesses in der Gruppe wird erstellt,

5.3 Online-Primärforschung

99

es besteht Zugang auch zu speziellen Populationen (z. B. Experten), die Antwort­ latenz erlaubt auch die Befragung bildungsferner Probanden, eine Steuerung der Sichtbarkeit von Beiträgen ist möglich, die Schreib- und Lesegeschwindigkeit ist sekundär, es besteht kein Reaktionszwang, die Teilnehmer strukturieren die Diskussion mehr oder minder eigenständig, was wiederum Rückschlüsse auf die Relevanz zulässt. Dem stehen jedoch folgende Nachteile gegenüber: • Es besteht eine geringere Spontaneität durch hohe Antwortlatenzen, die Berücksichtigung nonverbaler Hinweise ist nicht möglich, das Vorhandensein einer technischer Infrastruktur und eine hohe Medienkompetenz wirken begrenzend auf die Antworten, die Asynchronität der Anlage kann die Motivation der Teilnehmer beeinträchtigen, die Gruppendynamik ist durch verminderte interpersonale Kommunikation geringer, die Moderation erfordert einen höheren Zeit­bedarf, die Anlage ist ungeeignet für quasi-biotische Situationen, da Außeneinflüsse auf die Meinungsbildung einwirken können. 5.3.2.5 IRC-Befragung Bei IRC-Befragungen können durch ein Chat-Programm zwei oder mehr Personen meist unter Pseudonym schriftlich von Computer zu Computer realtime über das Befragungsthema kommunizieren. Für die Befragung ist es sinnvoll, die Teilnehmer vorab zu selektieren und über Geschlossene Benutzergruppen (GBG) vor Zugriffen Externer geschützt miteinander kommunizieren zu lassen. Ein Moderator kann die Diskussion stumm verfolgen und sich die Ergebnisse anzeigen oder einzelnen Teilnehmern gezielte Nachrichten/Fragen direkt zukommen lassen (Flüstern) und auch vermitteln. Die Befragungsdauer beträgt meist zwei bis drei Stunden. Der Ablauf lässt sich in eine Orientierungsphase zum gegenseitigen Kennenlernen, die eigentliche Meinungsaustauschphase und eine Schlussphase zum Ausstieg einteilen. Der Zugang wird durch Password geschützt, es können simultan oder sukzessiv mehrere, themenorientierte Kanäle eröffnet/unterhalten werden. Der IRC-Chat ähnelt marktforscherisch der Expertenbefragung. Durch die alphanummerische Tastatureingabe sind die Antworten oft überlegter. Außerdem müssen die Teilnehmer während der gesamten Diskussion online bleiben. Je nach Browser werden jedoch nicht alle Beiträge immer sofort aktualisiert. Außerdem muss die Menüsprache des IRC-Client beherrscht werden, dies setzt die Kenntnis der IRC-Befehle voraus. Stimmungen sind durch die Angabe von Emoticons interpretierbar. Es bestehen jedoch einige Anforderungen an geeignete Software. So muss die Möglichkeit zur Speicherung aller Beiträge bestehen (Protokollfunktion). Eine differenzierte Rechtevergabe für Moderator, Teilnehmer und Beobachter ist erfor-

100

5. Online-Erhebungsverfahren

derlich. Der Zugang für Beobachter (Lurker), die nicht aktiv am Chat teilnehmen, muss gegeben sein. Eine Flüstermöglichkeit nur zwischen Moderator und Teilnehmern muss verfügbar sein, nicht aber unter den Teilnehmern. Für verschiedene Themen müssen separate „Räume“ eingerichtet werden können. In der Textablage sollte man auf einen Leitfaden zugreifen können ebenso wie auf eine UploadFunktion für Dateien/Bilder bzw. eine Einspielfunktion für multimediale Stimuli. Auch eine übersichtliche Bildschirmoberfläche ist wichtig. Vorteile einer (moderierten) IRC-Erhebung mit Einzelpersonen oder in Gruppen liegen in folgenden Aspekten: • Die Zeitersparnis für Teilnehmer erhöht deren Teilnahmebereitschaft, der Zugang zu spezifischen Populationen, die anderweitig nur schwer zu erheben sind, wird möglich, eine regionale Klumpung wird vermieden, die Teilnahme ist in vertrauter Umgebung möglich, der Moderator verfügt über gute Möglichkeiten zur Einflussnahme und Abstimmung mit Auftraggeber bzw. Beobachtern, durch die räumliche Distanz sind auch kontroverse Diskussionen möglich, der Druck zu Konsensbildung und sozialer Erwünschtheit bleibt gering, die Anonymität der Teilnehmer führt zur Auflösung von Hierarchien und zur Egalisierung der Beiträge, es besteht Offenheit auch für sensible Themen, spontane Reaktionen sind durch parallele Eingaben aller Teilnehmer möglich, der Dominanz einzelner Teilnehmer wird vorgebeugt bzw. alle Teilnehmer können gleichermaßen beitragen, die Protokollierung erfolgt automatisch und die Einspielung multimedialer Stimuli ist darstellbar, die Teilnehmerzahl ist praktisch unbegrenzt, räumliche Konzentrationen können vermieden werden. Nachteile der (moderierten) IRC-Erhebung mit Einzelpersonen oder in Gruppen liegen in folgenden Aspekten: • Es besteht keine Kontrolle über die Erhebungssituation, die fehlende nonverbale Kommunikation erhöht den Interpretationsspielraum der Beiträge, dies erschwert wiederum die Kommunikation und das gegenseitige Verständnis, eine non-verbale Steuerung durch den Moderator sowie eine vertiefende reflektierte Diskussion sind nicht möglich, durch die begrenzte Dauer der Durchführung bleibt auch die Anzahl der Themen limitiert, die Tipp- bzw. Lesegeschwindigkeit der Teilnehmer hat Einfluss auf die Ergebnisse, die Beiträge verlaufen häufig neben- statt miteinander, darunter leidet die Gruppendynamik, je nach Chat-Software bestehen Zuordnungsprobleme von Fragen und Antworten, der Zeitdruck ist als Problem für bestimmte Teilnehmergruppen anzusehen, auch ist das Wissen um Emoticons und Websprache in inhomogenen Gruppen fraglich.

5.3.3 Online-Beobachtung Die Online-Beobachtung als weitere Erhebungsmetbode im Internet kann durch WWW-Logfile-Analyse oder themenorientierte Observation erfolgen.

5.3 Online-Primärforschung

101

5.3.3.1 WWW-Logfile-Analyse Die systematische Auswertung der Logfiles liefert Erkenntnisse über die Gewohnheiten von Internet-Nutzern. Logfiles stellen eine Vollerhebung dar, diese erfolgt ohne Zustimmung des Nutzers. Da diese Daten aus technischen Gründen zwingend erhoben werden müssen, entstehen für die Forschung keine zusätzlichen Kosten. Problematisch ist, dass der rein technische Zugriff nichts über die Aufmerksamkeit der Nutzer im Vorgang aussagt. Das Logfile enthält folgende Informationen: • Name des zugreifenden Rechners bzw. dessen IP-Adresse (9-stellig) oder DomainName, • bei Zugriff von einem Unix-Rechners u. U. Registrierung des Login-Namens, • bei WWW-Angeboten, die einen Einlog-Vorgang vorsehen, wird der Log-inName des jeweiligen Nutzers verzeichnet (Authentifizierung), • Datumsstempel im Format TT:MM:JJ:HH:MM:SS sowie Abweichung von der GMT, • Identifizierung des Client-Rechners (User-ID) und des Anfragebefehls (Request), • Provider (Name, Herkunftsland, Empfänger-/Absenderadresse bei e-Mail), • Methode des Zugriffs (Get, Put, Post, Head), • genauer Pfad und Name des angeforderten Dokuments, • verwendetes Übertragungsprotokoll (z. B. HTTP, POP, SMTP), • Status-Code der Übertragung (z. B. bei Problemen), • Übertragungsvolumen des angeforderten Dokuments in Bytes, • Referrer, d. h. URL des vorausgegangenen Zugriffs, • Betriebssystem/-generation und Browser/-generation, • Konfiguration des Rechners, z. B. Bildschirmauflösung, Cookie-Akzeptierung, • Zeitinformationen z. B. Anfangs- und Endzeiten der Abfrage, Dauer der Sitzung, abgefragte Inhalte (Besuchsverlauf), Reihenfolge der aufgerufenen Webseiten. Häufige Auswertungen der Logfile-Beobachtung betreffen site-, webseiten-,­ datei- und nutzerbezogene Daten. Site-bezogene Kennzahlen sind etwa: • Bruttoreichweite, d. h. Anzahl der Zugriffe auf eine Homepage, • Nettoreichweite, d. h. Erstkontakte des Nutzers mit einer Website, • Mehrfachkontakte, d. h. Differenz zwischen Brutto- und Nettoreichweite, • Identified User, d. h. Nutzer, die registriert oder angemeldet sind und daher demografische Zusatzinformationen tragen,

102

5. Online-Erhebungsverfahren

• Visits, d. h. Anzahl der Besuche auf einer Internetpräsenz mit zusammenhängender Nutzung mehrerer Seiten durch Zugriff eines Internet-Browser von außerhalb. Webseitenbezogene Kennzahlen sind etwa: • Page Impressions, d. h. Anzahl der Sichtkontakte als Maß für die Besuchsnutzung einer Webseite (früher Pageviews), • Visit Length/Stickiness, d. h. Dauer der Nutzung einer Webseite zum Ausweis dynamischer Seiteninhalte. Dateibezogene Kennzahlen sind etwa: • Hits, d. h. Anzahl der Zugriffe auf alle in eine Website integrierten Daten, • Impressions, d. h. Anzahl der Sichtkontakte mit identifizierten Objekten (z. B. Banner) auf einer Webseite, • Clicks, d. h. Anzahl der Zugriffe auf ein identifiziertes Objekt, das als Hyperlink zu einer anderen Website führt, • Click-through Rate, d. h. prozentualer Anteil der Clicks eines User an seinen Impressions (wieviele Nutzer ein gesehenes Objekt auch tatsächlich anklicken). Nutzerbezogene Kennzahlen sind etwa: • User, d. h. Anzahl der Personen, die sich ein WWW-Angebot angesehen haben, segmentierbar anhand von Kennzeichen, • Unique Browser, d. h. Zählung nur des ersten Zugriffs eines Nutzers auf den Server, • Zugriffe nach Art des Browser, d. h. Anzahl der unterschiedlichen Browser, die auf ein WWW-Angebot zugegriffen haben. Die WWW-Beobachtung ist generell durch den Einsatz von Proxy-Servers behindert, denn nur der chronologisch erste Nutzer eines Angebots wird bei Datenübertragung erfasst, die weiteren Nutzer werden von einem zwischengeschalteten Proxy-Server bedient, der das Datenübertragungsvolumen reduziert. Der Zugriff auf diese zwischengespeicherten Seiten kann in der Logfile-Analyse jedoch nicht erfasst werden. Eine weitere Verzerrung stellen Suchmaschinen dar, die durch­ Robots o.Ä. ständig und selbsttätig Web-Seiten aufrufen, auf die sie über Hyperlinks von zuvor aufgerufenen Seiten gelangen, um Informationen einzusammeln. Diese automatischen Aufrufe werden im Logfile als normale Besuche erfasst. Hier bedarf es einer Bereinigung irrelevanter Einträge. Ebenso sind Seitenaufrufe aus dem Cache-Speicher des Computers nicht ohne Weiteres zu erkennen. Hier bedarf es der Pfadvervollständigung, um Effizienzdaten zutreffend auszuweisen. Jeder Nutzer hat nicht notwendigerweise bei jeder Einwahl eine identische IP, denn Provider mieten für gewöhnlich einen Pool von IP-Adressen an und weisen jedem Nutzer eine gerade freie IP zu. Insofern verbergen sich hinter einer IP ganz verschiedene Nutzer, die Adressen sind nicht dediziert. Ebenso entsteht eine erheb-

5.3 Online-Primärforschung

103

liche Verzerrung durch die Einschaltung von Firewalls. Dies sind Rechner, die zwischen Internet (hier WWW) und Intranet (hier LAN) geschaltet sind, um Störungen von außerhalb nach innen abzufedern. Bei der Einwahl aus einem firewallgeschützten Rechner wird im Logfile daher die Adresse des Firewall-Computers angezeigt, nicht hingegen die Adresse des tatsächlichen Nutzers. Schließlich wird die Intensität der Nutzung (Frequenz, Dauer) falsch ausgewiesen, wenn Webinhalte als Datei abgespeichert und am Computer offline genutzt werden (etwa über Favoriten-Speicherung). Hier erfolgt kein erneuter Zugriff. Außer über WWW können auch Beobachtungen des Nutzungsverhaltens der Teilnehmer an Newsgroups, Mailing-Listen, Chat-Foren oder zugesandten e-Mails vorgenommen werden. Damit können vor allem Experten erhoben werden, die diese Dienste zur Kommunikation und Diskussion über ein bestimmtes professionelles Thema nutzen. 5.3.3.2 Themenorientierte Beobachtung Die häufigste Form der Beobachtung ist die Kohortenerhebung. Diese ist auch online in zwei Formen möglich, als Tracking in regelmäßigen Abständen zum selben Thema bei vergleichbaren Personen, oder als Panel bei denselben Personen. Eine weitere Unterscheidung betrifft die teilnehmende oder die nicht-teilnehmende Beobachtung. Die Vorteile der teilnehmenden Online-Beobachtung sind vor allem folgende: • Eine automatische Protokollierung des Online-Verhaltens ist gegeben, die Beobachtung erfolgt in der „normalen“ virtuellen Lebensumwelt, eine einfache Teilnahme für den Forscher durch registrierten Zugang ist möglich, die virtuelle Präsenz des Forschers beeinflusst die zu beobachtende Situation weitaus weniger stark als eine reale Präsenz, die Anonymität erlaubt Experimente und das Austesten von Optionen durch Probanden und Forscher. Die Nachteile der teilnehmenden Online-Beobachtung sind hingegen folgende: • Es bestehen ethische Probleme bei der teilnehmenden Beobachtung, Rückschlüsse vom virtuellen Verhalten auf das reale Verhalten sind nicht möglich, es bestehen Zweifel an der Korrektheit der virtuellen Identität der beobachteten Personen. Die Vorteile der nichtteilnehmenden Online-Beobachtung sind vor allem folgende: • Durch vorhandenes Datenmaterial ist die Erhebung effizient handhabbar, es bestehen ein schneller Feedback-Kanal und eine automatisierte Quellenaufnahme, das teilautomatisierte Suchen, Vercoden, Sammeln und Verknüpfen von Textstellen ist möglich, die Analyse ist intersubjektiv nachprüfbar, ebenso sind Zeitreihenanalysen und kontinuierliche Themen-Scans möglich, das erhobene Material ist authentisch und nicht eigens für Forschungszwecke erhoben, die Anonymität der Beobachteten führt zur Offenheit im Verhalten.

104

5. Online-Erhebungsverfahren

Die Nachteile der nichtteilnehmenden Online-Beobachtung sind vor allem folgende: • Die Kontextabhängigkeit der Informationen ist teilweise nur schwer erfassbar, vor allem besteht die Gefahr der Nicht-Erfassung von Implizitem und Nicht-­ Erwähntem, es schreiben nur bestimmte Zielgruppen Beiträge, deren Autoren im übrigen unbekannt bleiben, die Eigenheiten der Sprache im Internet müssen berücksichtigt werden, die Dokumentation der Beiträge hemmt die Sponta­ neität, die Informationsüberlastung des Forschers erzwingt eine Selektion von Informationen, die Grundgesamtheit der Internetquellen ist ungewiss. Daher ist eine sachverständige Abgrenzung der Grundgesamtheit, über die Aussagen getroffen werden sollen, erforderlich. Daraus wird dann eine gleichbleibende repräsentative Stichprobe gezogen. Die Teilnehmer lassen sich registrieren und erhalten ein Kennwort zur Erhebung, dies kann eine tatsächliche Beobachtung oder die Beobachtung der Veränderung von Befragungsergebnissen sein. Zur Motivation werden regelmäßige finanzielle und/oder ideelle Anreize geboten (z. B. Sammelpunktsysteme). Auf der Website sind allgemeine Informationen, das Registrierungsformular für Neuanmeldungen und ein password-geschützter Raum für die eigentliche Erhebung aufrufbar. Dazu bedarf es seitens des Veranstalters eines leistungsfähigen Web-Servers mit Datenbankanbindung. Die Teilnehmer werden aufgefordert, neben ihren Eingaben auch regelmäßig ihre Stammdaten zu aktualisieren. Bei nicht beachteten Untersuchungseinladungen (Non Response-Rate)  kann eine OnlineNachfassaktion durchgeführt werden. Denkbar ist auch die Aufnahme von Offline-­ Kontaktversuchen zum Nachfass oder zur Identitätskontrolle. Eine häufige Anwendung themenorientierter, nicht-teilnehmender Beobachtungen sind Panels. Vorteile des Online-Panels sind vor allem folgende: • Relevante Fragestellungen lassen sich schnell und kostengünstig auf Basis relativ hoher Teilnehmerzahlen untersuchen. • Aus einer Panelstichprobe können spezielle Unterstichproben gezogen werden, die dem Untersuchungsgegenstand entsprechen. • Die Responsequote kann exakt bestimmt werden, da der Stichprobenumfang, im Unterschied zu Online-Befragungen, bekannt ist. • Die Teilnahmebereitschaft der Panelteilnehmer ist zumeist höher als bei Studien mit jeweiliger Neurekrutierung der Probanden. • Online-Panels sind kostengünstiger und schneller durchführbar als traditionelle Panels. Zudem unterliegen sie keinerlei räumlicher Begrenzung. • Geringe Streuverluste durch gezielte Ansprache sind gegeben, ebenso geringe Antwortausfälle und geringe Abbruchraten.

5.3 Online-Primärforschung

105

Dem stehen jedoch folgende Nachteile gegenüber: • Die erstmalige Einrichtung eines Panels ist sehr kostenaufwändig, unabhängig davon, ob ein Unternehmen sie selbst organisiert oder dies outsourced. • Listen über potenzielle Teilnehmer müssen verfügbar sein, wobei die Inputquali­ tät schwankt. • Die Repräsentativität des Panels ist fraglich und nimmt im Zeitablauf für gewöhnlich stetig ab. • Konsistenz und Sorgfalt der Probanden bei der jeweiligen Bearbeitung sind fraglich. • Dennoch entstehen absolut hohe Rekrutierungskosten. Eine weitere Quelle themenorientierter Beobachtung sind Weblogs (Blogs). Ein Blog ist eine regelmäßig aktualisierte Website, auf der ein Autor (Blogger) persönliche Sichtweisen, Erlebnisse und Informationen chronologisch absteigend ver­ öffentlicht. Blogs sind frei zugänglich, dialogisch ausgelegt und unterliegen Kategorien (z. B. Wahlblog, Sportblog, Watchblog, Warblog, Eventblog, Hobbyblog, Infoblog). Der Blogger verfolgt zumeist das Ziel, dass seine Einträge (Blogposts) von möglichst vielen anderen gelesen und kommentiert werden. Dazu findet eine starke, globale Vernetzung statt (Blogosphäre). Dadurch können Dialoge entstehen, die Gedanken, Lob, Kritik etc. enthalten. Blogs weisen kurze Texte, hohe Aktualität und schnelle Verbreitung auf. Diese Verbreitung erfolgt durch Linksammlungen in Blogs (Blogroll), Permalinks (statische URL für bestimmte BlogInhalte), Trackbacks (automatische Verweise zu anderen Blogs) und RSS-Feeds (Benachrichtungsdienst von anderen Blogs). Da Blogs die Persönlichkeit ihrer Autoren widerspiegeln, gelten sie als authentisch. Das macht sie zur Beobachtung im Rahmen der Marktforschung besonders geeignet (etwa für die Inhaltsanalyse). Blogs erfassen die persönlichen Meinungen und Einstellungen nah am tatsächlichen Geschehen. Durch Integration von Bewegtbild, Ton, Standbild, Dokument etc. ist eine Anreicherung der Information gegeben. Der Forscher kann sich in den Ablauf des Blog einklinken. Eine Auswertung der Einträge ist erhebungs­ begleitend möglich. Wahrheiten in Blogs werden häufig geschönt, zudem sind Spontaneität und Ausführlichkeit der Einlassungen eingeschränkt. Viele Blogs erstarren in täglicher Routine. Überdies bleibt die Identität des Bloggers letztlich meist unklar. Vorteile der (nicht-teilnehmenden) Blog-Beobachtung sind vor allem folgende: • Die Erfassung persönlicher Motive und Einstellungen der Autoren und Kommentatoren ist möglich. • Anhand der kontinuierlichen Einträge kann die Entwicklung von Meinungen im Feld detailliert verfolgt werden.

106

5. Online-Erhebungsverfahren

• Die Aussagefähigkeit steigt durch Anreicherung mit Bildern, Videos, Audio­ dateien etc. • Über Kommentare kann auf die aktuelle Entwicklung eingewirkt werden. Allerdings entsteht dabei die Gefahr der Manipulation. • Die Ergebnisauswertung ist begleitend zur Erhebung möglich (automatisierte Quellenaufnahme). • Ein teilautomatisiertes Suchen und Vercoden, Sammeln und Verknüpfen von Textstellen ist möglich. • Die Ergebnisse sind intersubjektiv nachprüfbar, auch als Zeitreihenanalysen. • Es handelt sich um authentisches Material, nicht um Forschungs-Artefakte. • Die Anonymität führt zu mehr Offenheit in den Stellungnahmen. Dem stehen jedoch folgende Nachteile gegenüber: • Die Selbstdarstellung der Autoren kann penetrant wirken (Hang zum Narzismus). • Spontaneität und Ausführlichkeit leiden durch die Erhebungsform (Texterfassung, Kognition). • Bei längerer Führung eines Blogs nimmt die Routine Überhand, auch besteht die Gefahr des Abbruchs der Chronologie. • Es besteht Ungewissheit über die Identität der Eintragenden. • Es besteht die Gefahr, dass Implizites und Nicht-Erwähntes in der Erfassung­ untergeht, denn viele Informationen sind ausgesprochen kontextabhängig. • Die Zielgruppen sind eingeschränkt, die Identität des Autors ist nicht über­prüfbar. • Es kommt zu einer Überflutung mit Informationen, die zumindest manuell nicht adäquat zu verarbeiten sind. • Die Grundgesamtheit der Internetquellen ist ungewiss, damit ist jede Stichprobenziehung fragwürdig. • Online-Quellen sind flüchtig und müssen daher archiviert werden.

5.3.4 Online-Experiment Wie jedes Experiment ist auch das Online-Experiment eine wiederholbare, unter kontrollierten, vorher festgelegten Umfeldbedingungen durchgeführte Versuchsanordnung, die als WWW-Experiment oder Newsgroup-Experiment stattfindet. Beim WWW-Experiment führt eine Versuchsperson mit dem eigenen Computer das Experiment über die grafische Nutzeroberfläche des Web-Browsers aus, indem

5.4 Social Media Monitoring

107

sie Kontakt zum zentralen Labor-Computer aufnimmt und unterhält. Dabei werden alle Mausklicks, Zeigerbewegungen, Audio- und Videosignale, Texteingaben oder Dokumentenabfragen vom Web-Server ebenso aufgezeichnet wie Antwortzeiten, Adresse/Standort des Nutzers oder Art des verwendeten Web-Browsers. Als Grundvoraussetzungen für den Erfolg eines WWW-Experiments sind die Angabe des Veranstalters, der Forschungszweck und Hinweise auf die zu erwartende Bearbeitungszeit zu nennen. Hinzu kommen das Angebot von Incentives und eine attraktive Gestaltung der Experimentalmaterialien. Um die Ladezeiten zu minimieren, werden zunächst die mächtigen Dateien übersandt, also die Web-Labor-Seite, dann die allgemeinen Instruktionen, danach die experimentspezifische Instruktion und dann erst die eigentlichen Experimentalmaterialien. Um Teilnehmer zu selektieren, kann ein Abgleich zwischen e-Mail- und IP-Adresse vorgenommen werden. Außerdem können erforderliche Funktionalitäten erst auf Anforderung zur Bearbeitung bereitgestellt werden. Als Ergebnis kann die Nutzung von Webseiten mit alternativen Inhalten und/oder Gestaltungen und/oder verschiedenen Interaktionsangeboten ausgewiesen werden. Beim Newsgroup-Experiment sind eine aktive Variation der Experimental­ bedingungen oder die passive Auswertung gegebener Bedingungen möglich. Von Vorteil sind bei beiden der Verzicht auf geografische Eingrenzungen und der kurze Erhebungszeitraum. Zudem erfolgt eine automatische Datenspeicherung. Die Erhebung auch non-reaktiver Daten ist möglich, ebenso wie die Einbindung von Multimedia-Modalitäten. Von Nachteil sind die hohe Verweigerungsquote und die Selbstselektion der Teilnehmer. Dadurch bleibt die Repräsentanz not­ leidend. Dies ist allein schon dadurch gegeben, dass die Abgrenzung der Grundgesamtheit meist unklar ist. Außerdem können Störfaktoren einwirken.

5.4 Social Media Monitoring Social Media können zur Primär- oder Sekundärrecherche genutzt werden. Sekundär erfolgt die freie Recherche über Suchmaschinen, Themenverzeichnisse, Link-Listen etc., in kommerziellen (Wirtschafts-)Datenbanken, durch Web-Mining (Datenanalyse des Nutzungsverhaltens) oder Social Media-Monitoring. Social Media Monitoring erfolgt durch Recherche in Foren, Weblogs, Communities etc. über nutzergenerierte Inhalte. Wichtige Ansatzpunkte sind dabei das „Zuhören“ und das Messen. Beim Zuhören werden geeignete Keywords (Fachtermini, Produktbezeichnungen Konkurrenznamen etc.) verfolgt. Dies bezieht sich etwa auf folgende Elemente: • Produktmonitoring in Bewertungsportalen, Produktforen, Produktblogs, Videos, Tweets etc., • Unternehmensmonitoring (allerdings schwierig bei häufiger vorkommenden Firmierungen),

108

5. Online-Erhebungsverfahren

• Themen-/Trendmonitoring nach Issues, Hot Topics etc., • Sentiment-Monitoring nach Tonalität von Beiträgen (positiv, neutral, negativ), dazu ist eine semantische Auswertung erforderlich, allerdings entstehen derzeit Probleme bei Ironie, Redewendungen, Abkürzungen, Slang, Rechtschreibfehlern, Negationen, Mehrdeutigkeiten etc. (das soll sich im Web 3.0 ändern), • Meinungsführer-Identifizierung und -Kontaktierung (z. B. renommierte Blogger). Beim Messen werden KPI’s (Key Performance Indicators/Schlüsselerfolgsgrößen) analysiert. Beim größten Social Network Facebook (über Minilytics) sind dies etwa die Facebook-Insights wie Übersicht, Gefällt-mir, d. h. Fans bzw. Freunde von Fans, absolut und prozentual, Reichweite, d. h. Anzahl der Personen, die mit der betreffenden Seite verknüpft sind bzw. Abonnenten, Personen, die darüber sprechen, z. B. innerhalb der letzten sieben Tage etc. Beim größten Microblog Twitter (über Twazzup) sind dies etwa Followers, Followers von Followers, Retweets, @-Erwähnungen, Favorisierungen (Zustimmung), Häufigkeit von Hashtags (#) etc. Marktforschungsbezogene Messungen beziehen sich dann auf folgende Elemente: • Förderung des Dialogs durch Share of Voice, Zielgruppenengagement, Anzahl der Diskussionsteilnehmer etc., • Identifizierung von Befürwortern und ihre Förderung als Markenbotschafter, Anteil der Markenbefürworter etc., • Verbesserung des Kunden-Support durch Anzahl der Kundenanforderungen, Anzahl zufriedener Kunden etc., • Initiierung von Innovation durch Anzahl der Markenerwähnungen, der Trend­ erwähnungen, positiver Erwähnungen etc. Daraus lässt sich mit Hilfe von Tools (z. B. Social Mention, Klout) der Social Media Return on Influence als Aufwands-Nutzen-Relation in der Marktforschung ermitteln

5.5 Sicherung der Datenqualität Um die Datenqualität bei Online-Erhebungen zu sichern, werden mehrfache Kontrollen vorgesehen. Kontrollen während der Erhebung beziehen sich z. B. auf die Bearbeitungszeit. Fragebögen unter einer veranschlagten Mindestbearbeitungszeit werden damit vor Auswertung zusätzlich überprüft. Auch können selbsttätige Fehlerkorrekturen im Programm eingebaut werden, die z. B. Falscheingaben zurückweisen oder unvollständige Angaben nicht akzeptieren. Eine zentrale Kontrollgröße ist die Rücklaufquote. Der Server registriert bei jedem Fragebogenaufruf automatisch den aufrufenden Rechner und seine InternetAdresse. Ebenso wird beim Absenden eines ausgefüllten Fragebogens der Inhalt

5.5 Sicherung der Datenqualität

109

der Adresse auf dem Server gespeichert. Dadurch können die Fragebogenaufrufe in Relation zu den Fragebogeneinsendungen gestellt werden (daraus ergibt sich die Rücklaufquote). Allerdings werden Wiederholungsaufrufe über Proxy-Server dabei nicht erkannt. Die Auswertung der Protokolldatei gibt zudem Aufschluss über die regionale Verteilung und den Zeitraum der Erhebung. Die Güte der erhobenen Daten wird meist anhand der Kriterien Objektivität (intersubjektive Gleichheit), Reliabilität (Zuverlässigkeit/Wiederholbarkeit) und Validität (Gültigkeit/Richtigkeit) beurteilt. Die Durchführungsobjektivität von Internet-Erhebungen ist als sehr hoch einzuschätzen, da keine Interviewerbeeinflussung vorliegt. Durch die Standardisierung der Datenerfassung ist zugleich eine hohe Auswertungsobjektivität gegeben. Die Interpretationsobjektivität bleibt hingegen fraglich. Die Reliabilität ist insgesamt als hoch einzuschätzen, da die äußeren Einflüsse durch die Erhebung nicht verändert werden. Allerdings können veränderte Einstellungen der Erhebungspersonen durch die Auseinandersetzung mit dem Geschehen sowie Lerneffekte aus der Erhebungssituation entstehen, welche die Reliabilität, je nach Lage der Dinge, verbessern oder aber beeinträchtigen. Auch die interne Validität ist grundsätzlich hoch einzuschätzen, da eine falsche Protokollierung oder Codierung der Ergebnisse ausgeschlossen werden kann und zudem Mehrdeutigkeiten in der Erhebungssituation durch vorlaufende Tests minimiert werden können. Die externe Validität ist jedoch fraglich, da eine Verallgemeinerung der durch Internet-Erhebungen erfassten Tatbestände nicht möglich ist, und zwar nicht nur nicht aus der Stichprobe auf die Gesamtbevölkerung, sondern auch nicht von der Stichprobe auf alle Internet-Nutzer. Zudem bestehen Verzerrungen durch Selbstselektion als Erhebungspersonen über den Aufruf des Fragebogens und mehr­fache Teilnahmen von Personen. Zur Gewährleistung einer fehlerfreien Datenübertragung und zur Vermeidung von Datenmissbrauch dienen mehrere Vorkehrungen. Der Zugriff auf schützenswerte Daten kann durch geeignete Passwörter und trotz unberechtigten Zugriffs durch Verschlüsselungsalgorithmen gesichert werden (z. B. PGP). Befragungen, Beobachtungen oder Experimente sind grundsätzlich von der Zustimmung der Erhebungsperson abhängig. Allerdings werden vielfältige technische Daten während der Kommunikation erfasst, ohne dass die Erhebungsperson dies weiß oder explizit genehmigt. Hinsichtlich des Beurteilungskriteriums Aktualität ist festzustellen, dass die Aufforderung zur Teilnahme zeitpunktbezogen versandt werden kann. Teilnehmer, die täglich ihre Mailbox leeren, erhalten daher den Fragebogen zum Stichtag. Ebenso wird der Rücksendetermin erfasst. Der Erhebungszeitraum ist somit exakt kontrollierbar. Allerdings kann nicht festgestellt werden, wann innerhalb dieses Zeitraums ein Fragebogen tatsächlich ausgefüllt worden ist.

110

5. Online-Erhebungsverfahren

In Bezug auf das Kriterium Zuverlässigkeit ist diese als hoch einzuschätzen, weil kein Interviewer anwesend und freie Ortswahl und Anonymität der Beantwortung gegeben sind. Auch Tendenzen sozialer Erwünschtheit in den Antworten bleiben vermutlich gering. Jedoch ist eine Beeinflussung Dritter bei der Beantwortung möglich und im Weiteren nicht kontrollierbar. Eine Erklärung der Fragen ist nicht möglich, dafür können jedoch Hilfefenster angeboten werden, welche die Befragungsperson konkret anleiten. Außerdem können Beispiele für Antworten am Anfang des Fragebogens erklärend wirken. Die Antwortzeit für Fragen ist messbar, wird allerdings die Bearbeitung unter­ brochen, ist diese Messung nicht mehr möglich. Die Kosten für Interviewereinsatz, Interviewerschulung, Versandporto etc. entfallen. Allerdings fallen ggfs. Kosten auf Seiten der Befragten für Telefoniegebühren an (bei Mobilfunk), die durch Incentives o.Ä. ausgeglichen werden sollten. Die Rücklaufquote ist themenabhängig und liegt bei Selbstrekrutierung erfahrungsgemäß unter 2 %, bei aktiver Ansprache potenzieller Teilnehmer zwischen 10 und 30 %. Der Umfang des Fragebogens sollte 15–20 Fragen nicht überschreiten, damit keine Interviewabbrüche provoziert werden. Hilfreich ist zudem eine möglichst ansprechende Aufmachung des Fragebogens.

6. Statistische Verfahren zur Datenauswertung 6.1 Univariate Analyseverfahren

Univariate Verfahren

Lokalisationsparameter

Dispersionsparameter

Modus

Spannweite

Median

Mittlere Abweichung

arithmetisches Mittel

Quartilsabstand

Varianz

Formparameter

Konzentrationsparameter

Abbildung 34: Univariate Analyseverfahren

Zur Datenauswertung stehen univariate und bi- bzw. multivariate statistische Verfahren zur Verfügung. Bei univariaten Verfahren geht es vor allem um Häufigkeitsverteilungen, die lagetypisch oder rechentypisch ausgewiesen werden können (siehe Abbildung 34). Zu den wichtigsten gehören folgende: • Der Modus (dichtester Wert) als Punkt/Spanne der größten Merkmalsausprägung einer Reihe. Er wird durch Extremwerte nicht beeinträchtigt. Bei mehrgipfli-

112

6. Statistische Verfahren zur Datenauswertung

gen Verteilungen gibt es evtl. mehrere häufigste Werte. Die Ermittlung ist einfach, allerdings gehen alle anderen Werte außer dem häufigsten nicht darin ein. • Der Median (Zentralwert) halbiert eine Reihe, sofern deren Werte geordnet aufoder absteigend gereiht sind. Bei gerader Zahl der Werte liegt er zwischen den beiden mittleren Werten. Er ist unanfällig gegen Extremwerte, kann allerdings auf einen theoretischen Wert fallen, der in der Reihe gar nicht vorkommt. • Das arithmetische Mittel ist der Quotient aus der Summe aller Einzelwerte und der Anzahl der Einzelwerte einer Reihe. Es teilt diese in genau zwei gleiche Hälften und wird durch Extremwerte beeinträchtigt. Zur Vermeidung können die Merkmalswerte gewichtet werden, so entsteht das gewogene arithmetische Mittel. Bei klassierten Werten wird angenommen, dass die Klassenmitte die gesamte Klasse repräsentiert. Außerdem gibt es das geometrische und harmonische Mittel als seltenere Sonderfälle. Diese Werte werden auch Lokalisationsparameter genannt. Daneben gibt es Dispersionsparameter als Streuungsmaße, welche die Variabilität der Datenmenge beschreiben. Zu den wichtigsten gehören folgende: • Die Spannweite ist die Differenz zwischen dem größten und dem kleinsten Wert einer Reihe. Problematisch ist dabei deren Empfindlichkeit gegen Ausreißer. • Die mittlere Abweichung ist das arithmetische Mittel aller Abweichungen einer Reihe im Verhältnis zu deren Mittelwert. • Der Quartilsabstand ist die Differenz des dritten (75 % aller Messwerte) und des ersten Quartils (25 %), dividiert durch das zweite Quartil (50 %). • Die Varianz ist die Summe der quadratischen Abweichungen der Einzelwerte von ihrem Durchschnitt. Durch die Quadrierung werden Saldierungen positiver und negativer Werte vermieden sowie entferntere Werte stärker berücksichtigt. Die Wurzel daraus nennt man Standardabweichung, ein sehr häufig verwendeter Indikator. Die Formparameter kennzeichnen die Schiefe (Symmetrie bzw. Asymmetrie) einer Verteilung. Der Exzess ist ein Maß für die Wölbung einer Häufigkeitsverteilungskurve. Man bezeichnet sie, neben Lokalisation und Dispersion, als die dritten und vierten Momente einer Verteilung. Schließlich ist noch die Konzentration der Werte von Belang (Konzentrationsparameter). Damit ist dann das statistische Ursprungsmaterial einer eindimensionalen Datenanalyse zugänglich.

113

6.2 Multivariate Analyseverfahren

6.2 Multivariate Analyseverfahren

Multivariate Verfahren

Regressions-Analyse

Faktoren-Analyse

Cluster-Analyse

Varianz-Analyse

Multidimensionale Skalierung

Diskriminanz-Analyse

Kausal-Analyse

Korrelations-Analyse

Kontrastgruppen-Analyse

Abbildung 35: Multivariate Analyseverfahren

Multivariate statistische Verfahren zeigen ihre spezielle Leistungsfähigkeit in der Strukturierung, aber auch in der Vereinfachung realer Tatbestände, zu deren besserer intellektueller Erfassung sie dienen (siehe Abbildung 35). Ihre Ergebnisse bedürfen jedoch im Einzelfall der kritischen Interpretation. Es steht eine ganze Reihe von Verfahren zur Verfügung. Sofern in der Analyse zwischen abhängigen und unabhängigen Variablen unterschieden werden kann/soll, sind u. a. folgende zu nennen: • Durch die Regressions-Analyse wird eine metrisch-skalierte abhängige Variable durch mehrere unabhängige Variable erklärt. Ihr Einsatz ist also immer dann erforderlich, wenn die Angabe der interessierenden Größe erkennbar von mehr als einem Einflussfaktor abhängig ist. So kann die Produktakzeptanz von mehreren Einflussgrößen, wie Packung, Markenname, Produktform etc. abhängig sein. Zur Produktbeurteilung ist es wichtig zu wissen, welchem Argument welcher Einfluss zukommt. Problematisch sind dabei wechselseitige Abhängigkeiten (Multikollinearität), endogene Abhängigkeiten (Autokorrelationen) und Scheinabhängigkeiten (Nonsense Correlations). Typische Problemstellungen, die mit Hilfe der Regressions-Analyse gelöst werden können, sind etwa folgende: –– Hängt die Höhe des Umsatzes von der Zahl der Besuche bei Kunden ab? –– Wie ändert sich der Absatz mutmaßlich, wenn die Werbeausgaben verdoppelt werden? –– Gibt es einen Zusammenhang zwischen dem Einkommen von Rauchern, deren Alter und der Höhe ihres Zigarettenkonsums?

114

6. Statistische Verfahren zur Datenauswertung

–– Kann der Verkaufspreis eines Automobils um 10 % erhöht werden, wenn die Zusatzausstattung im Wert von 5 % und der Werbeetat in Höhe von 5 % erhöht werden? • Die Varianz-Analyse wird angewendet, wenn die unabhängigen Variablen qualitativer Natur sind, wobei voraus zu setzen ist, dass diese in gruppierter/geordneter Form vorliegen. Dann kann das Ausmaß deren Einflussnahme auf die metrisch-skalierte Variable untersucht werden. So kann die Betrachtungsdauer einer Werbeanzeige als Indiz für deren Werbewirkung auf die verschiedenen möglichen Ursachen zurückgeführt werden (z. B. Farbe, Fotostil, Textargumentation). Insofern können qualifizierte Hinweise auf Optimierungsmöglichkeiten gewonnen werden. Typische Problemstellungen, die mit Hilfe der Varianz-Analyse gelöst werden können, sind etwa folgende: –– Welche Wirkung haben verschiedene Mediagattungen auf die Besucherzahlen eines dort ausgelobten Kinofilms? –– Wie wirkt sich die wahrgenommene Packungsattraktivität auf die Gesamt­ beurteilung eines Produkts und auf dessen Kaufbereitschaft ein? –– Hängt der Zigarettenkonsum eher vom Geschlecht, von der präferierten Zigarettenmarke oder vom Bildungsgrad der Raucher ab? –– Welches von zwei alternativen Designs eines Fahrzeugmodells bewirkt mutmaßlich die höheren Absatzzahlen? • Die Kausal-Analyse dient der Erforschung ursächlicher Zusammenhänge. Diese Kausalitäten sollen dabei statistisch überprüft und quantifiziert werden. Dazu werden verbale, sachlogisch entwickelte Modelle von Wirkstrukturen erzeugt und grafisch umgesetzt, die mittels Test angenommen oder abgelehnt werden (konfirmatorisch). Grundlage sind dafür Wenn-dann- bzw. Je-desto-Aussagen. Die Richtung der vermuteten Kausalität zwischen den Variablen wird durch Pfade angezeigt. Diese werden in ein Gleichungssystem überführt und getestet. Stimmen geschätzter und vorausgesetzter Wert in vorgegebenen Toleranzgrenzen überein, kann eine inhaltliche Interpretation erfolgen. Typische Problemstellungen, die mit Hilfe der Kausal-Analyse gelöst werden können, sind etwa folgende: –– Hängt die Wirkung vergleichender Warentestinformationen auf die Produktinnovation, die Produktvariation und die Qualitätskontrolle der Anbieter u. a. von der Größe, den Zielen, der Testerfahrung und der Branchenzugehörigkeit der Unternehmen und deren Wettbewerbsintensität ab? –– Beeinflusst die Marktorientierung des Unternehmens dessen Markterfolg stärker als die Produktionskosten, die Mitarbeiter-, die Technologie-, die Innovations-, die Umwelt- und die Gesellschaftsorientierung?

6.2 Multivariate Analyseverfahren

115

Sofern die Verfahren der Analyse von Zusammenhängen dienen, bei denen nicht zwischen abhängigen und unabhängigen Variablen unterschieden werden kann, sondern wechselseitige Beziehungen bestehen, kommen im Wesentlichen die folgenden Verfahren zum Einsatz: • Bei der Faktoren-Analyse werden wechselseitige Beziehungen zwischen Variablen derart untersucht, dass eine größere Variablenmenge auf eine kleinere Zahl dahinter stehender, voneinander unabhängiger Größen (Faktoren) verdichtet wird, wobei diese Faktoren dann den größten Erklärungsbeitrag leisten (erkennbar an ihren Faktorladungen). Dazu werden zunächst deren Korrelationen ermittelt und sodann die Variablen mit den höheren Koeffizienten zu Faktoren reduziert. Dadurch wird die begriffliche Klarheit bei der Interpretation unterstützt. So lassen sich unter dem derivativen Faktor Reinigungskraft in der Be­ urteilung eines Waschmittels originäre Kriterien wie „reinigt kraftvoll“, „löst auch stärksten Schmutz“, „entfernt Fett restlos“ etc. subsumieren. Typische Fragestellungen, die mit Hilfe der Faktoren-Analyse gelöst werden können, sind etwa folgende: –– Welche gemeinsamen Merkmale weisen die Käufer verschiedener Zigarettenmarken auf? –– Welche Kriterien bestimmen zentral das Image eines Unternehmens? –– Lässt sich die Vielzahl der Kriterien für den Kauf in einer bestimmten Geschäftsstätte auf wenige zentrale Elemente reduzieren? –– Welcher Anteil des Erklärungsbeitrags von zwölf Imagemerkmalen bleibt bei Reduktion auf fünf Hauptfaktoren erhalten und welcher Anteil geht verloren? • Bei der Multidimensionalen Skalierung werden auf der Basis von Ähnlichkeitsoder Präferenzurteilen über verschiedene Meinungsobjekte diese in den Kontext eines möglichst niedrig dimensionierten Beurteilungsraums gestellt, idealerweise zweidimensional in einem Koordinatensystem mit diametralen Endpunkten wie glaubwürdig/unglaubwürdig und sympathisch/unsympathisch. Daraus lassen sich vor allem Positionierungsmodelle für Konkurrenzangebote im Rahmen der Konzeption erstellen. Allerdings entsteht das Problem der treffenden Verbalisierung (Labelling) der Merkmalsdimensionen und damit auch der Positionen. Typische Fragestellungen, die mit Hilfe der Multidimensionalen Skalierung gelöst werden können, sind etwa folgende: –– Inwieweit entspricht das eigene Produkt den Idealvorstellungen der Zielpersonen? –– Wie hat sich die Einstellung zu Bier bei Konsumenten innerhalb der letzten Jahre verändert? –– Welche Imagedimensionen zeichnen die eigene Marke im Vergleich zu den wichtigsten Wettbewerbsmarken aus?

116

6. Statistische Verfahren zur Datenauswertung

–– Welche aus einer Auswahl an Modemarken sind sich, gemessen anhand von zehn Items, die aus Sicht der Nachfrager bewertet sind, am ähnlichsten? • Ziel der Korrelations-Analyse ist es, die Strenge des Zusammenhangs zwischen Variablen zu ermitteln. Dabei wird keine Kausalität unterstellt, sondern vielmehr eine Beziehung. Ausmaß und Richtung dieser Beziehung werden durch den Korrelationskoeffizienten nach Bravais/Pearson bzw. Spearman ausgedrückt, der zwischen +1 (völlig gleichlaufend)  und –1 (völlig entgegengesetzt) liegt, bei/ nahe Null ist kein Zusammenhang feststellbar. Typische Fragestellungen, die mit Hilfe der Faktoren-Analyse gelöst werden können, sind etwa folgende: –– Hängen Kaufentscheidungen für Eigentumswohnungen stärker von der Darlehenszins- oder der Einkommensentwicklung ab? –– Wie stark ist der Zusammenhang zwischen Ausbildungsgrad und Internetzugang in deutschen Haushalten? –– Verändert sich das Ausmaß der TV-Nutzung gleichlaufend oder gegenläufig zum Ausbildungsgrad der TV-Nutzer? Sofern die Verfahren die Bildung von Klassifikationen (z. B. Typologien) zum Ziel haben, kommen primär folgende Verfahren in Betracht: • Die Cluster-Analyse impliziert die Typisierung von Meinungsobjekten anhand von Ähnlichkeiten hinsichtlich bestimmter Merkmale. Dazu kann man sich alle Variablen in einem mehrdimensionalen Raum verteilt vorstellen, wobei die Objektmenge dann in Gruppen derart aufgespalten wird, dass näher beieinander liegende Objekte eine gemeinsame Merkmalsklasse bilden, Elemente einer Gruppe untereinander also möglichst homogen sind, und zugleich möglichst heterogen zu allen anderen Gruppen. Insofern kommt es zur gedanklichen Verdichtung ganzer Eigenschaftsbündel auf stellvertretende Typen. Damit wird ein Kompromiss zwischen Verdichtung auf möglichst wenige Gruppen bei gleichzeitig hinreichender Differenzierung gesucht. Dazu dient die Wahl des geeigneten Distanzmaßes. Auch hierbei kommt es zu Problemen der Merkmalsklassendefinition. Typische Fragestellungen, die mit Hilfe der Cluster-Analyse gelöst werden können, sind etwa folgende: –– Lassen sich die Kunden eines Warenhauses entsprechend ihren Erwartungen an die Einkaufsstätte in Gruppen einteilen? –– Gibt es bei mittelständischen Unternehmen hinsichtlich der Internationalisierungsstufe verschiedene Unternehmenstypen? –– Lassen sich die B-t-B-Kunden eines Unternehmens hinsichtlich ihres Kaufverhaltens klassifizieren? –– In welche Marktsegmente kann der Markt für Haarshampoo-Produkte unterteilt werden?

6.2 Multivariate Analyseverfahren

117

• Die Diskriminanz-Analyse dient ganz ähnlichen Zwecken, wird jedoch bei Vorliegen von Abhängigkeiten angewendet, die bereits ex ante die Gliederung von Gruppen zulassen und vorhandene Einflussfaktoren nach dem Kriterium deren statistischer Distanz bewerten. So können Meinungsprofile über Werbemittel unter dem Gesichtspunkt vorgegebener Items danach untersucht werden, welche Botschaften die Werbemittel am eigenständigsten definieren und welche eher verwechselbares Gemeingut mehrerer Werbemittel sind. Je höher der Abstand der Mittelwerte der Merkmalsklassen untereinander, desto trennschärfer sind getroffene Aussagen. Typische Fragestellungen, die mit Hilfe der Diskriminanz-Analyse gelöst werden können, sind etwa folgende: –– Lassen sich Kreditkunden anhand der Merkmale Einkommen, Schulbildung, Alter als verschieden kreditwürdig einstufen? –– Welcher von zwei vordefinierten Gruppen kann eine Person einer bestimmten Nationalität aufgrund ihrer Merkmalseigenschaften zugeordnet werden? –– Bestehen Ausbildungs- und Einkommensunterschiede zwischen Intensivnutzern und Extensivnutzern von e-Commerce-Angeboten? –– Hinsichtlich welcher Merkmale unterscheiden sich Raucher und Nichtraucher am stärksten? • Die Kontrastgruppen-Analyse (AID) ist ein statistisches Suchverfahren, um die Struktur von Beziehungen zwischen Variablen aufzudecken. Ziel ist die Ermittlung der unabhängigen, nicht-metrischen Variablen, welche die „beste“ Aufteilung von Elementen (z. B. Personen, Produkten) in Bezug auf eine abhängige Variable in zwei kontrastierende Gruppen erlaubt. Diese Aufteilung in jeweils zwei kontrastierende Gruppen wird solange fortgesetzt, bis ein erwünschtes Detaillierungsniveau erreicht ist. Die grafische Darstellung erfolgt als Dendrogramm. Typische Fragestellungen, die mit Hilfe der Faktoren-Analyse gelöst werden können, sind etwa folgende: –– Welche demographischen Merkmale trennen am besten die Trinker zweier Limonadenmarken voneinander? –– Welche Eigenschaftsmerkmale kennzeichnen Nicht-Raucher am ehesten gegenüber Rauchern? –– Welchen Beitrag liefert das Trennkriterium Alter zur Klärung zwischen Limousinen- und SUV-Fahrern? Darüber hinaus sind weitere multivariate, statistische Verfahren verbreitet wie Kontingenzanalyse, Präferenzanalyse (Conjoint Measurement, s. u.) etc.

118

6. Statistische Verfahren zur Datenauswertung

6.3 Präsentation Im Anschluss an die Datenauswertung folgt das Ergebnisreporting. Dazu ist zumeist eine Visualisierung der Daten erforderlich, und zwar in Form von • Diagrammen (Punkte, Linien, Flächen etc.), • Kurvenzug (Stabdiagramm), • Polygonzug (Balken, Kreis, Struktogramm, Histogramm), • Summenkurve, • Konzentrationskurve, • Schmuckdiagramm (Symbole, Polare, Körper, Kartogramme, Boxplots etc.). Meist erfolgt das Reporting auf Basis von SPSS-Software. Dabei kann (absichtlich oder unbeabsichtigt) manipuliert werden, vor allem durch unkorrekte Anwendung statistischer Methoden (in Bezug auf Skalenniveau, Verfahrensvoraus­ setzungen etc.), Verwendung ungeeigneter Darstellungsformen, unklare Gestaltung etc. Daten bedürfen daher immer der sachkundigen Interpretation durch den Marktforscher in einem Forschungsbericht. Standardinhalte sind Angaben zur Durchführung der Untersuchung (Ausgangsproblem), Profil des Erhebungsinstruments (Methodik), Art der Erhebungsdurchführung (Auswahlverfahren), Qualitätssicherung für die Erhebung, Ergebnisse, Schlussfolgerungen und Zusammenfassung (meist vorab als Management Summary).

7. Verfahren zur Marktprognose 7.1 Prognosearten Unter Marktprognosen versteht man systematische und auf Empirie begründete Vorhersagen über das zukünftige Eintreffen von Situationen am Markt. Diese Vorhersagen beruhen auf pragmatischen Erfahrungen oder theoretischen Erkenntnissen, jedenfalls aber auf Informationen qualitativer und quantitativer Art. Das heißt, jede Prognose basiert auf der Analyse der Vergangenheit und ist nicht nur bloßes „Tippen“ und erfordert eine sachlogische Begründung und die Angabe der Prämissen, unter denen sie abgegeben wird. Die Prognose basiert auf der Zugrundelegung von Gesetzmäßigkeiten möglichst hohen empirischen Informationsgehalts. Jeder Prognose muss folglich eine Analyse solcher Gesetzmäßigkeiten vorausgehen. Die Beobachtungen der Vergangenheit liegen regelmäßig in Form von Zeitreihen vor. Unter einer Zeitreihe versteht man eine Menge von Beobachtungswerten, die in gleichen zeitlichen Abständen aufeinander folgen. Als Quellen für solche Zeit­ reihendaten kommen interne und externe sowie primär- und sekundärstatistische in Betracht, also z. B. Daten aus betrieblichem Rechnungswesen, Marketinginformationssystemen, Betriebsstatistiken, von statistischen Ämtern und Behörden, Wirtschafts- und Konjunkturinstituten, eigene Erhebungen etc. Unterstellt man, dass die im bisherigen Verlauf der Zeitreihe aufgedeckten Gesetzmäßigkeiten auch für die Zukunft gelten, handelt es sich um eine Zeitstabilitätshypothese. Diese ist angesichts sich rasch wandelnder Umfeldbedingungen praktisch jedoch nicht gegeben. Folglich sind Prognosefehler unvermeidlich. Prognosen lassen sich in vielfältige Einteilungen untergliedern (siehe Abbildung 36): • Nach der Zahl der abhängigen Variablen gibt es einfache und multiple Absatzprognosen. Bei einfachen Prognosen wird nur eine Variable vorhergesagt, bei multiplen Prognosen werden mehrere Variable gemeinsam vorhergesagt. Diese können durchaus auch wechselseitig abhängig sein. • Nach der Zahl der unabhängigen Variablen gibt es univariate und multivariate Absatzprognosen. Univariate Prognosen unterstellen, dass die Marktgrößen nur von einem Einflussfaktor abhängig sind, der fortgeschrieben werden kann, multivariate Prognosen unterstellen, dass mehrere Einflussfaktoren zugleich vorhanden sind, die in einem kausalen Verhältnis zueinander stehen. Unabhängige

120

7. Verfahren zur Marktprognose

Einteilungen der Marktprognose Zahl der abhängigen Variablen (einfach, multipel)

Zahl der unabhängigen Variablen (univariat, multivariat)

Eigenschaften der Prognose (Entwicklung, Wirkung)

verwendete Funktionen (linear, Polynome, exponenziell etc.)

Messgrößen des Marktes (Mengen, Werte)

Gewichtung der Daten (ohne, mit)

Geltungsbereich der Aussagen (Märkte, Betriebe, Kunden etc.)

Fristen der Gültigkeit (kurz-, mittel-, langfristig)

Aussagefähigkeit der Ergebnisse (eindeutig, mehrwertig)

Zeitbeziehung (statisch, dynamisch)

Flexibilität (starr, adaptiv, auto-adaptiv)

Gebietsabdeckung (national, international)

Intervall der Vorhersage (einmalig, wiederkehrend)

Basis der Vorhersage (heuristisch, exakt)

Zeitachse (Querschnitt, Längsschnitt)

Abbildung 36: Einteilungen der Marktprognose

Faktoren sind vom Unternehmen nicht beeinflussbar und werden über Indikatoren zu erfassen versucht. • Nach den Eigenschaften der Prognoseergebnisse gibt es Entwicklungsprognosen und Wirkungsprognosen. Entwicklungsprognosen sind gegeben, wenn die Prognosegröße von vom Unternehmen nicht kontrollierbaren Variablen abhängt, die unabhängige Variable ist die Zeit. Dabei wird eine stets sorgfältig angepasste Zeitreihe fortgeschrieben. Wirkungsprognosen sind gegeben, wenn die Prognosegröße von vom Unternehmen kontrollierbaren (kausalen) Variablen bestimmt wird. Hier sind die Art und die genaue Form des Zusammenhangs zu bestimmen.

7.1 Prognosearten

121

• Nach den verwendeten Funktionen gibt es mathematische Funktionen als Konstante, als lineare Funktion, als Polynome zweiter und höherer Ordnung, als Exponenzialfunktion etc. • Nach den Messgrößen des Marktes gibt es Mengen und Werte, absolute und relative Angaben. Diese beziehen sich auf den Gesamtmarkt oder ausgewählte Teilmärkte. • Nach der Gewichtung der Daten gibt es Verfahren ohne Gewichtung und solche mit Gewichtung. Die Gewichtung kann mit einem oder mehreren Faktoren erfolgen. • Nach dem Geltungsbereich der Aussagen gibt es Prognosen bezogen auf Märkte, Betriebe, Produkte, Absatzgebiete, Kunden etc. Werden alle Größen einbezogen, handelt es sich um eine totale Prognose. • Nach den Fristen der Gültigkeit gibt es kurzfristige, mittelfristige und langfristige Prognosen. Allerdings hängt die jeweilige Länge vom zeitlichen Abstand der Beobachtungswerte ab. Zudem ist umstritten, wie lange kurzfristig (meist  4 Jahre) denn nun ist. • Nach der Aussagefähigkeit gibt es einwertige und mehrwertige Prognosen. Einwertig bedeutet hier bezogen auf einen einzigen Prognosewert, mehrwertig bedeutet hier bezogen auf zwei oder mehr Prognosewerte. • Nach dem Zeitbezug gibt es statische Prognosen, bei denen sich alle Variablen auf dieselbe Periode beziehen, und dynamische Prognosen, deren Variable sich auf verschiedene Perioden beziehen. • Nach der Flexibilität unterscheidet man starre Prognosen, die nur die Vergangenheit fortschreiben, adaptive Prognosen, die zukünftige Entwicklungen antizipieren, und auto-adaptive Prognosen, die eigene Anpassungen an Entwicklungen im Prognosemodell automatisch vornehmen. • Nach der Gebietsabdeckung, für die Aussagen getroffen werden sollen, handelt es sich um intranationale oder supranationale Prognosen. • Nach dem Intervall kann es sich um häufiger wiederkehrende Prognosen oder um seltene bis einmalige Prognosen handeln. • Nach der Basis der Vorhersage kann es sich um solche mit quantitativen (exakten) oder qualitativen (intuitiven) Grundlagen handeln. Bei quantitativen Modellen werden Beobachtungswerte mit Hilfe mathematischer Gleichungssysteme verknüpft. Bei qualitativen Modellen werden Heuristiken (Erfahrungstatbestände) zugrunde gelegt. • Nach der Zeitachse kann es sich um eine Querschnittsprognose handeln, welche die gleichzeitige Vorhersage mehrerer Größen zu einem Zeitpunkt betrifft, oder um eine Längsschnittprognose, welche die Vorhersage einer Größe zu mehreren Zeitpunkten betrifft.

122

7. Verfahren zur Marktprognose

7.2 Prognosemodelle 7.2.1 Verfahren der intuitiven Prognose Zu den intuitiven Prognoseverfahren gehören alle zweckmäßigen, jedoch ohne schematisches Modell erarbeiteten Prognosen. Sie zeichnen sich dadurch aus, dass die ihnen zugrunde liegende Theorie nur schwach ausgebildet ist und viele subjektive, d. h. intersubjektiv nicht nachprüfbare, Elemente enthält. Man spricht auch von heuristischen Prognosen. Oft stellen diese Verfahren die einzige Möglichkeit dar, wenn keine ausreichende quantitative Basis gegeben ist. Ausprägungen sind die Analogieschätzung, die Prognostische Befragung, die Delphi-Methode und die Szenario-Technik (siehe Abbildung 37). Die Analogieschätzung unterstellt, dass die Entwicklung auf einem Markt analog der Entwicklung auf einem anderen, zeitlich vorgelagerten Markt vonstatten geht. Die Logik besteht darin, dass man annimmt, die zu prognostizierende Größe werde wegen der ansonsten vergleichbaren Ausgangs- und Rahmenbedingungen zukünftig einen ähnlichen Verlauf nehmen wie die in Analogie dazu gesehene gegenwärtig. Der prognostische Wert dieser Vorgehensweise ist jedoch umstritten. Der Freihandtrend nimmt die Prognose anhand einer zeichnerischen Vorlage vor. Dabei handelt es sich um ein Koordinatensystem, in dem die interessierende Größe auf der Abszisse und die Zeit auf der Ordinate abgetragen ist, mit den Beobachtungswerten der Vergangenheit und Gegenwart als Punktwolke, durch die per Freihandtrend eine Kurve derart gelegt wird, dass diese möglichst gut repräsentiert werden. Die Verlängerung dieser Kurve in die Zukunft ergibt dann die entsprechenden Prognosewerte. Als qualitative Prognoseverfahren sind explorative, z. B. Befragung, normative, z. B. Delphi-Methode, und projizierende, z. B. Szenario-Technik, zu unterscheiden. Die Prognostische Befragung erfolgt meist unter Geschäftsleitungsmitgliedern, Mitarbeitern, Außendienstlern oder Endkunden: • Die prognostische Befragung der Geschäftsleitung ist schnell in der Durchführung, einfach in der Auswertung, nutzt Fachwissen und hohes Urteilsvermögen und verursacht geringe Kosten. Nachteilig sind das Ressortdenken und das fehlende Hintergrundwissen bei im operativen Bereich Fachfremden. • Die prognostische Befragung des Außendienstes ist schnell in der Durchführung, einfach in der Auswertung, nutzt enge Marktkenntnisse, gleicht Einzelfehler durch größere Kopfzahl aus und verursacht nur geringe Kosten. Nachteilig sind die Antizipation von Sollvorgaben, die mangelnde Übersicht über Tendenzen und Einsatz von Marketinginstrumenten sowie Akzeptanzprobleme bei ständiger Befragung.

123

7.2 Prognosemodelle

Intuitive Prognoseverfahren

Analogieschätzung

Freihandtrend

Prognostische Befragung (persönlich, unpersönlich)

Delphi-Methode (anonym, iterativ)

Geschäftsleitung Außendienst Endkunden Mitarbeiter Szenario-Technik (Entwicklung von „Zukünften“) Definition des Themas, Gliederung der Umfeld, Identifikation von Deskriptoren, Richtung der Deskriptoren Bildung von Annahmebündeln über die Zukunft, Bildung der Szenarios, Prüfung von Störereignissen, Ableitung von Konsequenzen

Definition des Problems, Ermittlung der Experten, Anfrage zur Zusammenarbeit, Koordinationsinstanz Information über Vorgehen, erste Expertenabfrage. Sammlung der Ergebnisse, Feedback an Teilnehmer zweite Expertenabfrage, Begründung für Abweichung oder neue Einschätzung, Sammlung der Ergebnisse, Feedback an Teilnehmer weitere Abfragen, bis Konvergenz der Ergebnisse vorliegt, Zusammenfassung, Darstellung, Interpretation

Best Case Scenario, Worst Case Scenario, Real Case Scenario, Maßnahmenpläne

Abbildung 37: Intuitive Prognosemodelle

• Die prognostische Befragung von Endkunden erlaubt direkte Marktinformationen und die Erfassung von Stimmungen. Nachteilig sind die hohen Kosten, der hohe Zeitaufwand, die oft mangelnde Repräsentanz, die geringe Informationsbereitschaft und das begrenzte Informationsvermögen. • Die prognostische Befragung von Mitarbeitern verschafft engen Kundenkontakt und unmittelbare Einsicht in die Marktreaktion. Nachteilig sind die betriebsverzerrte Sichtweise, die Tendenz zu „vorauseilendem Optimismus“ oder „vorbeugendem Pessimismus“ und ein oftmals mangelndes Abstraktionsvermögen.

124

7. Verfahren zur Marktprognose

Allgemeine Vorteile der Befragung liegen in der kurzfristigen Durchführbarkeit und der Nutzung des vorhandenen Wissens, der Erfahrung und des Urteilsvermögens der Befragten. Nachteile sind vor allem der recht große Aufwand, die subjektive Verzerrung der Antworten und deren mehrdeutige Auswertbarkeit, massive Eigeninteressen und kein zuverlässiger Überblick beim Einzelnen zur Beurteilung der Gesamtlage. Unter der Delphi-Methode versteht man die schriftliche Befragung mehrerer Informanten, die untereinander anonym bleiben, dies selbst nach Abschluss des Verfahrens. Die Abfrage erfolgt durch Fragebögen mit möglichst nicht mehr als 50 möglichst geschlossenen Fragen, die von Runde zu Runde verändert werden. Befragt werden zwischen 20 und 100 Experten und Persönlichkeiten. Die Befragung wird von einem Moderator geleitet, durchgeführt und ausgewertet. Er entscheidet auch über den kontrollierten Rückfluss von Informationen mit Argumenten und Gegenargumenten im Zuge mehrerer Befragungszyklen. Die Einzelangaben können dabei entsprechend der vermuteten Kompetenz der Befragten gewichtet werden. Nach jeder Runde werden die Teilnehmer aufgefordert, ihre Angaben entsprechend des gemeinsamen, nunmehr höheren Informationsstands zu überprüfen und ggfs. zu korrigieren. Dadurch entsteht eine positive Informationsrückkopplung. Nach drei bis vier Runden ist meist ein abgerundetes Ergebnis erreicht. Für den Erfolg entscheidend sind die Erfahrung des Moderators und das Engagement der Teilnehmer. Der Ablauf ist dabei wie folgt: • Zunächst erfolgen die Definition des Prognoseproblems, die Ermittlung von Experten, deren Anfrage zur Mitarbeit und die Einrichtung der Delphi-Befragungsinstanz. • Die Experten erhalten Informationen über Prognosegebiet und Vorgehensweise und werden nach möglichen zukünftigen Ereignissen im relevanten Bereich befragt. • Den Teilnehmern wird die in der ersten Runde ermittelte Liste denkbarer Entwicklungen übersandt, die sie daraufhin abschätzen, innerhalb welcher Zeit diese eintreten können. • Die sich ergebenden Individualschätzungen werden allen Beteiligten zugänglich gemacht, die ihre eigenen Schätzungen unter diesem Eindruck korrigieren oder abweichend begründen können. • Die Teilnehmer erhalten wiederum die neuen Daten und Begründungen, auf deren Basis sie eine abschließende Schätzung abgeben sollen. • Daraus folgen die Interpretation der Ergebnisse und die Darstellung der Prognose. Das Ausmaß der Übereinstimmung der Experten erfolgt durch Ausweis des Medians. Zusätzlich werden das erste und das dritte Quartil errechnet (= 50 % der Werte liegen zwischen Median und Quartilen). Experten, deren Schätzungen

7.2 Prognosemodelle

125

außerhalb der Quartile liegen, werden um eine Begründung gebeten. Dadurch wird eine Konvergenz der Ergebnisse angestrebt. Liegt der „wahre“ Wert außerhalb der Quartile, führen zusätzliche Befragungsrunden allerdings zu einer Verschlechterung der Ergebnisse. Als wichtigste Vorteile gelten dabei die folgenden: • Durch die Anonymität der Befragung unterbleibt jeglicher Gruppendruck, die erstellten Prognosen werden iterativ durch die Gruppe selbst überprüft und erhärtet oder verworfen und führen so günstigenfalls zur Konvergenz der Meinungen, zusätzliche Begründungen für Schätzungen geben weiteren Aufschluss über abweichende Sichtweisen. Von Nachteil sind hingegen folgende Aspekte: • Durch die Anonymität der Befragung kann unter den Teilnehmern kein direkter Lernprozess stattfinden, das starre Befragungsschema lässt nur wenig Raum für Entwicklungen, die Informationsrückkopplung schafft die Versuchung zur Meinungsanpassung an die Mehrheit, durch das mehrstufige Procedere entsteht ein hoher Zeitbedarf. Bei der Szenario-Technik handelt es sich um die eingehende, systematische Analyse der gegenwärtigen Lage auf dem Prognosegebiet und die Ermittlung und Untersuchung aller denkbaren Entwicklungen dort. Ihr Ziel ist die Projektion aus komplexen, wissenschaftlich begründeten Voraussagen über Inhalt, Umfang und Richtung von Entwicklungsprozessen, denen reale oder abstrakte Systeme in großen Zeitabläufen unterworfen sind. Sie dienen damit dem Entwurf eines Modells über den künftigen Zustand solcher Systeme. Vor allem werden kritische Ereignisse (Strukturbrüche) einbezogen, die zu Alternativen führen. Der Ablauf der Szenariotechnik erfordert folgende Schritte: • Durch Definition und Gliederung des Untersuchungsfelds werden der Untersuchungsgegenstand geklärt und alle nötigen Informationen gesammelt, analysiert und bewertet. • Die das Untersuchungsfeld direkt oder indirekt beeinflussenden Faktoren werden identifiziert, thematisch strukturiert und gebündelt. Für die weitere Arbeit ist entscheidend, diese Faktoren in Form von Kenngrößen, Variablen oder Merkmalen so zu charakterisieren, dass ihnen Entwicklungsrichtungen zugeordnet werden können (sog. Deskriptoren). • Die Deskriptoren werden mit Entwicklungsrichtungen und Eintrittswahrscheinlichkeiten belegt. So werden unkritische von kritischen Deskriptoren unterschie­den. • Aus den ermittelten Deskriptoren werden in sich konsistente Annahmebündel gebildet, die als Gerüst für die nun zu formulierenden Zukunftsbilder dienen.

126

7. Verfahren zur Marktprognose

• Es werden anschauliche Zukunftsbilder ausgearbeitet und interpretiert. Der Blick in die Zukunft sollte dabei weder zu blumig noch zu nüchtern ausfallen, in jedem Fall aber anschaulich. • Diese Zukunftsbilder werden auf Stabilität bzw. Labilität gegenüber möglichen Störereignissen überprüft. Zu diesem Zweck werden überraschende Ereignisse formuliert (Diskontinuitäten). • Aus den Szenarien werden Risiken und Chancen für das Untersuchungsfeld abgeleitet. Die möglichen zukünftigen Situationen werden anschaulich beschrieben, evtl. durch Bilder unterstützt. • Meist werden ein Best Case Scenario und ein Worst Case Scenario entwickelt, ersteres enthält alle Chancen, letzteres alle Risiken. Damit sind die Extremwerte bestimmt. Der realistische Wert liegt dann zwischen dieser Bandbreite (Real Case Scenario). • Durch Ausarbeitung von Maßnahmen und Erstellung von Plänen werden diese Erkenntnisse in praktische Handlungsanweisungen umgesetzt werden. Als wichtigste Vorteile gelten dabei die folgenden: • Die allgemeinen Interdependenzen der Einflussfaktoren werden beachtet, es werden alternative Entwicklungen in viele Richtungen ausgelotet, das Prognoseumfeld und die Randbedingungen sind Bestandteil dieser Technik. Von Nachteil sind jedoch folgende Aspekte: • Es handelt sich um eine Fülle subjektiver Einschätzungen, welche das Vorhersageergebnis ganz entscheidend beeinflussen, der Einsatz ist nur bei komplexen Prognoseproblemen sinnvoll, die keine Fassung in mathematisch exakte Funktionen erlauben, sowie immer dann, wenn es nur um das Aufzeigen möglicher Zukunftsperspektiven geht.

7.2.2 Verfahren der systematischen Prognose 7.2.2.1 Deskriptive Verfahren Die Durchführung einer systematischen (quantitativen) Prognose erfolgt in folgenden Stufen: • Definition des Prognoseobjekts, das Gegenstand der Untersuchung ist. • Erhebung der Daten aus sekundär- oder primärstatistischen Quellen durch Auflistung der Vergangenheitswerte der Prognosegröße. • Untersuchung der Einflussfaktoren auf die Prognosegröße, z. B. Nachfrage durch Art und Zahl der Kunden, Merkmale dieser Kunden, gesamtwirtschaftliche Faktoren, Marktstruktur, Produkt, Preis, Distribution, Kommunikation, exogene Ein-

7.2 Prognosemodelle

127

flüsse wie Demographie, Politik, Gesetz, Technik, Natur bzw. endogene Einflüsse wie Absatz, Beschaffung, Finanzierung, Personal etc. • Datenanalyse zur Ermittlung von Gesetzmäßigkeiten in der Absatzentwicklung. Dabei werden vier Komponenten unterschieden. Die Trendkomponente ist die unabhängig von Schwankungen beobachtete Grundrichtung einer Zeitreihe. Die Konjunkturkomponente ist die gesamtwirtschaftliche, mehr oder minder zyklische, langfristige Änderung einer Zeitreihe. Die Saisonkomponente ist die branchenbedingte, kurzfristige Änderung einer Zeitreihe. Die Zufallskomponente ist die unsystematische Änderung einer Zeitreihe. • Datenanalyse zur Ermittlung von Zusammenhängen zwischen dem Absatz und seinen Einflussgrößen durch Wahl des Funktionstyps, der die empirische Entwicklung und die darin liegende Gesetzmäßigkeit am besten wiedergibt. Schätzung seiner Strukturparameter. Messung der Stärke der Korrelation und Überprüfung des ­statistischen und kausalen Zusammenhangs sowie Beurteilung der Eignung der errechneten Funktion zur Prognoseerstellung. • Prüfung der Übertragung der Regelmäßigkeit aus der Vergangenheit auf die Zukunft durch Ermittlung der zukünftigen Werte der unabhängigen Variablen und Ableitung des Werts der abhängigen Variablen nach festgelegter Abhängigkeitsrelation. • Wahl des Prognosemodells in Abhängigkeit von erreichbar erscheinender Prognosegenauigkeit, entstehenden Prognosekosten, Komplexität bzw. Benutzerfreundlichkeit des ausgewählten Verfahrens, abzudeckendem Prognosezeitraum und Prognosedatenbasis. • Ableitung der Prognoseaussage. Man unterscheidet deskriptive Prognoseverfahren, die den künftigen Wert einer Zeitreihe aus den Vergangenheitswerten derselben Zeitreihe abzuleiten versuchen und keine weiteren Einflussfaktoren als die Zeit sehen. Ferner analytische Verfahren, welche die Zeitreihe der zu prognostizierenden Größe auf die Zeitreihen anderer (exogener) Größen zurückführen (siehe Abbildung 38). Innerhalb der deskriptiven Verfahren gibt es wiederum solche, die in der Zeitreihe keinen Trend unterstellen (kurzfristige Prognosesicht) und solche, die eine trendmäßige Entwicklung unterstellen (langfristige Prognosesicht). Innerhalb der analytischen Verfahren gibt es wiederum solche, die auf vorlaufende Indikatoren bauen, und solche, die eine Kausalbeziehung unterstellen (= Wirkungs­prognosen). Bei der kurzfristigen Prognose wird jeweils nur der Prognosewert für die folgende Periode berechnet. Es wird unterstellt, dass die Zeitreihe keinen Trend enthält (siehe Abbildung 39). Durchschnittsberechnungen beruhen auf der Annahme, dass die zu prognostizierende Größe ein funktionaler Wert bzw. eine gesetzmäßige Konstante ist, und

128

7. Verfahren zur Marktprognose

Systematische Prognosen

deskriptiv (Zeitreihe)

analytisch (Beziehung)

ohne Trend

vorlaufende Indikatoren (Zusammenhang, Korrelation))

mit Trendverlauf

Ergebniswirkung (Abhängigkeit, Regression)

Abbildung 38: Systematische Prognosen

Kurzfristige Prognoseverfahren Durchschnittsberechnung (einfach, gewogen)

Gleitender Durchschnitt (einfach, gewogen)

Exponenzielle Glättung

Abbildung 39: Kurzfristige Prognoseverfahren

die in der Vergangenheit festgestellte Wirkung auch für die Zukunft unterstellt werden kann. Abweichungen davon beruhen nur auf Zufallsschwankungen. Die Beobachtungswerte werden damit als nur von der Zeit abhängig betrachtet und fortgeschrieben (extrapoliert). Angestrebt wird eine minimale Abweichung der Funktion bzw. Konstante von den tatsächlichen Werten der Vergangenheit. Gleiche Bedingungen für die Zukunft unterstellt, kann damit ein minimal abweichender, also möglichst genauer Prognosewert ermittelt werden. Dies erfolgt durch die Berechnung des (einfachen) arithmetischen Mittels. Die Vergangenheitswerte können auch gewichtet werden. Dann ist der repräsentative Wert der Prognosegröße in der Vergangenheit das gewogene arithmetische

7.2 Prognosemodelle

129

Mittel aller Daten, das durch Einsetzen zukünftiger Perioden in die Zukunft fortgeschrieben werden kann. Gleitende Durchschnitte ergeben sich, wenn jeweils nach Vorliegen eines neuen Wertes der älteste Wert der Rechenreihe ausgeschaltet und mit der gleichen Anzahl von Ursprungswerten, nun aber aktueller, die Berechnung fortgesetzt wird. Der Mittelwert gleitet damit von Periode zu Periode. Im Einzelnen wird aus einer möglichst langen Zeitreihe, für die entsprechende Werte vorliegen, der Durchschnitt für einen festgelegten Zeitraum berechnet. Aus dieser Gruppe wird dann im Folgenden sukzessiv immer der jeweils älteste Wert der letzten Periode durch den jüngsten Wert der Folgeperiode ersetzt. Beim gewogenen gleitenden Durchschnitt werden jüngere Daten wegen ihrer größeren prognostischen Relevanz stärker gewichtet als ältere Daten. Der Gewichtungskoeffizient bestimmt, in welchem Ausmaß diese Umgewichtung erfolgt. Darin liegt zugleich eine Verzerrungsgefahr. Ziel dieses Verfahrens ist die Ausschaltung zufallsbedingter Unregelmäßigkeiten im Verlauf der Zeitreihe. Durch den Wechsel der Berechnungsbasis wird so etwas wie ein Filtereffekt hervorgerufen. Voraussetzung ist, dass der Gleitzeitraum so gewählt wird, dass durch Saisonoder Konjunkturzyklen keine Verzerrungen entstehen und dass die Werte über die Zeit hinweg eine bestimmte Struktur aufweisen. Ein weit verbreitetes Prognoseverfahren der Glättungsberechnung ist die Exponenzielle Glättung. Bei ihr wird unterstellt, dass eine unendliche Reihe von Vergangenheitswerten vorliegt, deren Daten sich mit zunehmendem Gegenwartsabstand immer geringer auf die Prognosegröße auswirken. Daher werden, im Übrigen auch aus Praktikabilitätsgründen, die Vergangenheitswerte kontinuierlich umso stärker gewichtet, je näher sie an der Gegenwart liegen, ferne Daten werden also auf die Gegenwart „diskontiert“. Von Bedeutung ist dabei die Wahl des über die Zeit hinweg konstanten Glättungsfaktors, also der relativen Gewichtung der Ursprungsdaten. Ein hoher Wert gewichtet die neueren Zeitreihenwerte gegenüber den älteren sehr stark, was bei Auftreten eines Strukturbruchs angemessen sein kann, ein kleiner Wert gewichtet die älteren Zeitreihenwerte relativ hoch im Vergleich zu den neueren, was angebracht sein kann, wenn man aktuelle Werte für einen „Ausrutscher“ hält. Bei einem hohen Wert passen sich die geglätteten Mittelwerte schneller einer Strukturveränderung an als bei einem kleinem Wert. Gute Erfahrungen werden mit Werten um 0,2 gemacht. Es ist allerdings unbefriedigend, dass der entscheidende Glättungsfaktor nicht objektiv bestimmt, sondern nur subjektiv justiert werden kann. Für dieses Verfahren sprechen jedoch folgende Vorteile: • Die Exponenzielle Glättung ist leicht verständlich und durchführbar, da sie sich nur der elementaren Rechenverfahren zur Bestimmung des Prognosewerts bedient. Dadurch ist sie auch gut auf PC’s zu bearbeiten. • Die Prognose wird durch einen einzigen Parameter, der zudem dynamisch anpassbar ist, bestimmt und ist damit weiteren willkürlichen Eingriffen entzogen.

130

7. Verfahren zur Marktprognose

• Die Verfahrensschritte sind leicht durchschaubar und plausibel, sodass die Prognoseergebnisse und ihre Begründung gut kommunizierbar sind. Allgemeine Nachteile der kurzfristigen, zeitreihenbezogenen Prognosen liegen in folgenden Aspekten: • Es wird ein gleichbleibender Strukturverlauf unterstellt (kein Trend). • Außerdem werden ausschließlich Vergangenheitsdaten einbezogen, also keine kausalen Einflussfaktoren auf die Zeitreihe berücksichtigt, sondern nur die Zeit selbst. Dies ist aber problematisch, da andere Faktoren als die Zeit auf die Vergangenheitswerte eingewirkt haben und auch in Zukunft wirksam werden mögen. • Die Minimierung der exponenziell gewogenen quadratischen Abweichungen ist zudem womöglich sinnlos, denn, wenn diese Schätzfehler auf reinen Zufallsschwankungen beruhen, dann werden sie auch für die Zukunft bestehen bleiben, brauchen also nicht minimiert zu werden, oder aber, wenn diese Schätzfehler systematisch verursacht sind, dann wäre es richtig, diese systematische Einflussgröße als unabhängige Variable einer funktionalen Abhängigkeit zu wählen, anstelle der Zeit, die dann offensichtlich keinen bestimmenden Einfluss hat. Bei langfristigen Prognosen wird die zeitliche Abfolge unterschiedlicher Prognosewerte berechnet. Dabei wird die allgemeine Richtung der Zeitreihe, d. h. ihr langfristig zugrunde liegender Trend ungeachtet kurzfristiger Schwankungen, prognostiziert. Die Zeit repräsentiert dabei die zusammengefassten, nicht näher untersuchten Ursachenkomplexe der Vergangenheit (siehe Abbildung 40).

Langfristige Prognoseverfahren Trendextrapolation (linear, exponenziell)

Sättigungsfunktion (logistisch, Gompertz)

Abbildung 40: Langfristige Prognoseverfahren

Zu den Trendberechnungen gehören mehrere Verfahren. Bei der linearen Trend­ extrapolation wird eine lineare Konstante derart gewählt, dass die positiven wie negativen Abweichungen der Vergangenheitswerte von dieser Geraden, d. h. die grafischen Abstände aller Punkte, die sich oberhalb und unterhalb der Trend­ geraden befinden, erstens insgesamt gleich groß sind, und zweitens die Summe der Quadrate (zur Vermeidung von Saldierungen bei negativen Werten) ihrer Abweichungen minimal ist. Dieses Verfahren nennt man daher Kleinstquadrat­ abweichung. Dabei können die einzelnen Perioden gewichtet oder ungewichtet in

7.2 Prognosemodelle

131

das Ergebnis eingehen. Der lineare Trend ist durch gleichbleibende absolute Zuwächse oder Abnahmen pro Zeiteinheit definiert. Aber es gibt auch nicht-lineare Trendverläufe. Dafür kommen exponenzielle, logarithmische und parabolische Funktionstypen in Betracht. Beim exponenziellen Trend ist die relative Zuwachsrate pro Zeiteinheit bei der Prognosegröße konstant. Er lässt sich durch Logarithmieren linearisieren, um eine Rechenvereinfachung zu erreichen. Beim parabolischen Trend ist eine gekrümmte Funktion (Polynom 2. Grades) gegeben. Auch dabei liegt jeweils das Verfahren der Kleinstquadrat­ abweichung zugrunde. Handelt es sich um Prognosegrößen mit vermutetem Sättigungsniveau, werden dem Funktionsverlauf drei Parameter zugrunde gelegt. Dies beruht auf der Annahme, dass die Prognosegröße der folgenden Periode erstens abhängig ist vom Ausmaß deren Größe in den vergangenen Perioden und zweitens der Verlauf gleichmäßig erfolgt. Das heißt, der Verlauf einer Zeitreihe ist proportional zum jeweils erreichten Niveau und zum Abstand zwischen dem bereits erreichten Niveau und dem absoluten Sättigungsniveau. Es gibt also eine fördernde Wachstumskomponente und eine hemmende. Dabei können zwei Kurvenverläufe unterschieden werden. Die logistische Kurve verläuft vom Beginn bis zum Wendepunkt progressiv steigend und danach bis zum Endpunkt degressiv steigend. Dabei wird eine lineare Differenz zugrunde gelegt. Sie ist beiderseits des Wendepunkts symmetrisch. Die Gompertz-Kurve verläuft zunächst steiler, nähert sich später der Sättigungsgrenze und weist einen früheren Wendepunkt auf. Dabei wird eine logarithmische Differenz zugrunde gelegt. Diese Funktionsverläufe sind damit geeignet, Zeitreihen vorherzusagen, deren Struktur sich durch einen einfachen linearen oder nicht-linearen Trend nicht angemessen beschreiben lässt. Dies gilt etwa für Größen, die einem Lebenszyklus unterliegen. Das große Problem ist jedoch die Schätzunsicherheit hinsichtlich der Bestimmung des Sättigungsniveaus. Wird dieses unterschätzt, wird Entwicklungspotenzial vergeben, wird dieses überschätzt, läuft man in Verluste. 7.2.2.2 Analytische Verfahren Die Analytischen Verfahren unterstellen eine Kausalität, zu deren Analyse statistische Verfahren zur Ermittlung von Zusammenhängen (mit Hilfe der Korrelationsanalyse) und von Abhängigkeiten (mit Hilfe der Regressionsanalyse) eingesetzt werden. Die Statistik stellt jedoch nur die formalen Zusammenhänge und Abhängigkeiten fest, ob sie wirklich vorhanden und zulässig sind, kann sie nicht aufdecken. Die Kausalrichtung ist oft nicht einfach zu bestimmen. Die Bestimmung von abhängiger und unabhängiger Variabler beruht somit nur auf logischer Entscheidung. Ist sie geklärt, kann Statistik das Ausmaß dieser Beziehungen ­erforschen.

132

7. Verfahren zur Marktprognose

Als Indikatorberechnungen werden Entwicklungsprognosen bezeichnet, bei denen die Vorhersage aus einer statistisch gut gesicherten Beziehung zwischen der Prognosegröße und einer oder mehrerer beeinflussenden Variablen (Indikatoren) abgeleitet wird, die nicht Zeitreihen sind. Indikatoren sind Variable, auf die das Unternehmen selbst keinen Einfluss hat, von denen die Entwicklung des Absatzes jedoch wesentlich bestimmt wird. Voraussetzungen sind dabei ein enger Zusammenhang zwischen der Entwicklung dieser Indikatoren und der zu prognostizierenden Variablen sowie eine leichte und sichere Vorausschätzung der Indikatoren. Als Indikatoren sind makroökonomische, institutionelle, technologische, soziodemographische oder sozioökonomische Größen denkbar. Mögliche Indikatoren sind Bruttoinlandsprodukt, Geschäftsklima, Einkommen, Komplementärgüter, Bevölkerungszahl, Altersaufbau, Haushaltsstruktur, Konsumstimmung etc. Voraus­ setzungen sind jeweils, dass • diese der zu prognostizierenden Größe zeitlich vorauseilen, • diese eng miteinander korrelieren, • es gelingt, den Funktionsverlauf aus den Daten richtig zu spezifizieren, • die zukünftigen Werte der unabhängigen Variablen rechtzeitig für eine Prognose ermittelt werden können. Dann ist die Indikatorprognose der Trendextrapolation vorzuziehen, weil die Probleme entfallen, die aus der subjektiven Schätzung von Funktionsverlauf und Sättigungsniveau resultieren. Außerdem ist eine intersubjektiv nachvollziehbare, sachlogische Beziehung gegeben. Die Qualität der Prognose hängt von der Qualität des zugrunde gelegten Indikators ab. Dadurch baut sich allerdings gleich ein doppeltes Prognoseproblem auf, nämlich erstens die Hochrechnung des Indikators und zweitens darauf aufbauend die Hochrechnung der Prognosegröße. Die damit verbundenen Unsicherheiten sind offensichtlich. Zur Durchführung der­ Indikatorprognose werden häufig Regressions- und Korrelationsanalysen (s. o.) eingesetzt. Bei der Wirkungsprognose geht es, im Gegensatz zu den bisher dargestellten Verfahren darum, die Prognosegröße in ihrer Entwicklung als von Auswahl und Intensität beeinflussbarer Marketing-Aktionsparameter abhängig anzusehen. Wirkbedingte Verfahren zeigen den Verlauf quantitativer und qualitativer Zielvariablen in Abhängigkeit von den jeweils veränderten Aktionsparametern bzw. Aktivitätsniveaus der Marketingmaßnahmen. Daraus leiten sich konkrete Anhaltspunkte für einen optimalen Marketing-Mix ab. Die Vorgehensweise ist wie folgt: • Aufstellung verschiedener Ausprägungen der Marketinginstrumente im Rahmen geplanter unterschiedlicher Maßnahmen,

7.3 Grenzen der Prognose

133

• Wahl eines Funktionstyps, der die Beziehungen zwischen den Marketinginstrumenten und deren Wirkung auf die zu prognostizierende Größe (= Marktreaktion) mathematisch beschreibt, • Schätzung der Parameterwerte der Funktion durch statistische Verfahren oder Expertenurteil, • Errechnung der Prognosegröße auf Grundlage der geplanten Marketingmaßnahmen. Einfache Modelle beschränken sich dabei auf die Untersuchung des Einflusses eines Marketinginstruments (= monoinstrumental), komplexe Modelle versuchen eine schrittweise Annäherung der zugrunde gelegten Reaktionsannahmen an die Realität durch Einbezug mehrerer Marketinginstrumente (= polyinstrumental). Dynamische Modelle berücksichtigen außerdem zeitliche Wirkverzögerungen des Instrumentaleinsatzes oder dessen Nachwirkung auf zukünftige Perioden.

7.3 Grenzen der Prognose Der Einsatz aller quantitativen Prognoseverfahren ist mit Gefahren verbunden. Die Ergebnisse können eine Genauigkeit vortäuschen, die tatsächlich in keiner Weise gegeben ist. Fundamentales Unwissen über Zusammenhänge und Abhängigkeiten können auch durch aufwändige Verfahren nicht ausgeglichen werden, sondern steigern nur die Präzision des Irrtums. Zumal eine rasch und fallweise sich verändernde Umwelt für immer wieder neue Ausgangsbedingungen sorgt. Allgemeine Anforderungen an jede Prognose sind: • ihr Informationsgehalt, der im Wesentlichen durch die Aktualität bestimmt wird, • ihre Treffsicherheit, die von der Qualität der Ausgangsdaten und ihrem Umfang sowie der Wahl der Modellform wesentlich abhängt, • ihre Flexibilität und Stabilität bei Datenänderungen, • ihre Zuverlässigkeit, die stark vom Informationsgrad abhängt, • ihre Spezialisierung zur Aussagefähigkeit, • ihre Präzision als Maß für das Eintreten prognostizierter Ergebnisse, • ihre Kosten als Maß der Wirtschaftlichkeit. Prognosefehler betreffen im Einzelnen folgende Aspekte: • Datenfehler, die durch mangelhafte Zahlenreihen entstehen, die unzutreffend abgegrenzt sind, doppelt gezählt werden, falsch angegeben werden, veraltet sind etc., • Modellfehler, die durch falsche Methodenwahl entstehen, z. B. Denkfehler, Konstruktionsmängel,

134

7. Verfahren zur Marktprognose

• Annahmefehler, die durch falsche Prämissen und Hypothesen über Einflussfaktoren entstehen. Sinnvoll sind Kontrollen über das Entstehen und das Ausmaß von Prognosefehlern im Nachhinein, um aus diesen Fehlern für zukünftige Prognosen zu lernen (= selbstlernende Abweichungsanalyse). Auch der parallele Einsatz verschiedener, unabhängiger Prognoseverfahren kann die Güte von Aussagen erhöhen. Prognoseeffekte liegen in der • Selbstbestätigung, z. B. wenn Absatzerhöhungen prognostiziert werden und deshalb im Vorgriff die Marketingaktivitäten verstärkt werden, was dann erst zum vorhergesagten Ergebnis führt. • Selbstaufhebung der Vorhersage, z. B. wenn Absatzrückgänge prognostiziert werden und daher die Marketingaktivitäten im Vorgriff intensiviert werden, um diese zu verhindern, weshalb die Vorhersage dann genau nicht mehr zutrifft.

8. Marktsegmentierung 8.1 Segmentierungsanliegen Unter Marktsegmentierung versteht man die Aufteilung eines Gesamtmarkts in hinsichtlich ihrer Marktreaktion intern weitgehend homogene und extern weitgehend heterogene Teilmärkte sowie die Bestimmung eines oder mehrerer dieser Teilmärkte und deren Bearbeitung in differenzierter Form. Dies ist einerseits schon gegeben, wenn alle oder einzelne Güter und Dienste des Absatzprogramms einzelnen Teilmärkten angedient werden, sowie andererseits insbesondere, wenn diese Güter und Dienste einzelnen Teilmärkten unter Einsatz eines differenzierten Marketing-Mix angedient werden.

Ansätze zur Marktsegmentierung

einstufige Segmentierung

agglomerativer Ablauf

mehrstufig-sukzessive Segmentierung

deglomerativer Ablauf

mehrstufig-simultane Segmentierung

Abbildung 41: Ansätze zur Marktsegmentierung

Zur Marktidentifizierung können verschiedene Ansätze gewählt werden (siehe Abbildung 41): • Einstufige Marktsegmentierung bedeutet, dass nur ein Kriterium für die Segmentation zugrunde gelegt wird. Dabei kann es sich um objektive oder subjektive Kriterien handeln. Zu ersteren gehören Produkte etwa aus den Bereichen Monats­ hygiene (Segment Frauen), Zahnprothesenreiniger (Segment Träger dritter Zähne) oder Augengläser (Segment Brillenträger). Hier macht es für alle Nachfrager, die nicht diesen objektiven Kriterien unterfallen, keinen Sinn, das Angebot dennoch

136

8. Marktsegmentierung

in Anspruch zu nehmen. Zu letzteren gehören Produkte etwa aus den Bereichen Pflegekosmetik für reife Haut (Segment Frauen ab 40 Jahre), Milchschokolade (Segment Kinder), Stärkungsmittel (Segment ältere Menschen). Hier können durchaus auch Nachfrager, die sich nur subjektiv zugehörig fühlen, obgleich sie es nach objektiven Maßstäben nicht sind, das Angebot sinnvoll in Anspruch nehmen (z. B. Nivea Vital, Kinderschokolade, Ginsengpräparate). • Mehrstufig-sukzessive Marktsegmentierung bedeutet, dass zwei oder mehr Kriterien zugrunde gelegt werden, wobei die jeweils vorausgehende Stufe die Auswahl der nachfolgenden Stufen bestimmt. Dadurch ist eine weitaus feinteiligere Abgrenzung des zu bearbeitenden Marktsegments möglich. Allerdings verringert sich durch kumulative Eingrenzung auch die Schnittmenge des noch verbleibenden Nachfragepotenzials drastisch. Zudem stellt sich die Frage, in welcher Reihenfolge die Kriterien angelegt werden sollen. • Mehrstufig-simultane Marktsegmentierung bedeutet, dass zwei oder mehr dieser Kriterien gleichzeitig zur Abgrenzung des intendierten Marktsegments herangezogen werden, es gilt also jeweils die Schnittmenge. Auch dadurch verringert sich das Potenzial verbleibender Nachfrager drastisch. Allerdings stellt sich die Frage, wie viele Kriterien jeweils zugrunde gelegt werden sollen. Wird ein Markt dabei künstlich in Teilmärkte aufgesplittet, handelt es sich um eine horizontale (deglomerative) Marktsegmentierung, gibt es von vornherein unterschiedlich reagierende Märkte, die differenziert bearbeitet werden, handelt es sich um eine vertikale (agglomerative) Marktsegmentierung. Die größtmögliche Segmentzahl liegt bei der Gesamtzahl aller Nachfrager am Markt, die Untergrenze liegt bei zwei Teilmärkten. Das Optimum liegt zwischen der Mindestzahl von Marktsegmenten, die erforderlich ist, um in jedem Teilmarkt eine möglichst hohe Übereinstimmung von Anforderungs- und Leistungsprofil zu erreichen, sowie der Höchstzahl von Teilmärkten, die eine Realisierung bei vertretbaren Mehrkosten der Segmentierung gerade noch erlaubt. Theoretisch ist dies der Fall, wo die Nachfrageelastizität der mit Kosten bewerteten Marketinginstrumente für jedes Segment gleich groß ist. Unterstellt man naheliegend, dass zwischen den Nachfragererwartungen erhebliche Abweichungen in einer Vielzahl von Einzelfällen bestehen und die Erfolgschance eines Anbieters umso größer ist, je geringer die Abweichungen zwischen Angebot und Nachfrage sind, so steigt die Erfolgschance unmittelbar mit steigender Anzahl differenzierter Angebote. Denn je differenzierter das Angebot ist, desto eher findet jeder Nachfrager das für seine individuellen Erwartungen gerade genau Passende. Die Marktsegmentierung erfolgt durch Abgrenzung relevanter und Auffinden vernachlässigter Teilmärkte. Damit wird vermieden, Angebotsanstrengungen dort zu unternehmen, wo wenig Potenzial ist, stattdessen wird dort angesetzt, wo die größte Hebelwirkung vermutet werden kann.

8.2 Segmentierungsvoraussetzungen

137

8.2 Segmentierungsvoraussetzungen

Voraussetzungen der Marktsegmentierung Abweichungen zwischen Teilmärkten

mindestens zwei Segmente ohne Arbitrage (Fencing)

Trennfähigkeit der Segmente

ökonomische Sinnhaftigkeit

Zugänglichkeit der Segmente

Indikation für Instrumentaleinsatz

Abbildung 42: Voraussetzungen der Marktsegmentierung

Für eine erfolgreiche Marktsegmentierung müssen kumulativ folgende Voraussetzungen erfüllt sein (siehe Abbildung 42): • Als Basis müssen Abweichungen physikalisch-chemischer, funktional-reaktiver, ästhetisch-symbolischer oder servicegebundener Art des Angebots auf den verschiedenen Teilmärkten vorhanden sein, die objektiv gegeben sind oder subjektiv von Nachfragern so empfunden werden. • Der Gesamtmarkt muss sich in mindestens zwei Teilmärkte ohne Arbitrage aufteilen lassen, d. h., es müssen Marktunvollkommenheiten herrschen, damit keine Trittbrettfahrer- oder Austauschgeschäfte möglich sind (Fencing). Das gewählte Segmentierungskriterium muss möglichst trennscharf sein, damit keine Schnittmengen zwischen bearbeiteten und nicht bearbeiteten (= Streuverlust) bzw. zwischen mehreren bearbeiteten Segmenten (= Kannibalisierung) entstehen. • Außerdem muss die Marktspaltung durchsetzbar sein (Trennfähigkeit). Dazu gehören eine unterschiedliche Reaktion der Nachfrager auf marketingpolitische Maßnahmen und eine Konkurrenzsituation, die diese Differenzierung zulässt, d. h. letztlich Marktmacht. Die Differenzierung darf dabei nicht diskriminierend wirken, d. h., nicht zu einer dem Gerechtigkeitsempfinden des Markts widersprechenden Angebotsstruktur führen. • Die Differenzierung muss ökonomisch sinnvoll sein, d. h., die Kosten der Aufspaltung des Gesamtmarkts in Segmente dürfen nicht die zusätzlichen Erlöse

138

8. Marktsegmentierung

aus einer damit verbundenen Preisdifferenzierung egalisieren. Ansonsten sind die Segmente nicht tragfähig genug, um eine getrennte Bearbeitung zu rechtfertigen. Die Segmente müssen dazu vor allem beständig sein, da ansonsten die Gefahr besteht, dass eine Segmentierung nicht operational bzw. zu aufwändig wird (zeitliche Stabilität). • Die einzelnen Segmente müssen erreichbar sein, damit die Segmentierung am Markt überhaupt greifen kann (Zugänglichkeit). Sind Segmente nicht zugänglich, können sie auch nicht ausgeschöpft werden. • Die Segmente müssen eine Indikation zum Instrumentaleinsatz geben, damit sie durch Marketing bewusst ansteuerbar sind und ihnen Erfolgsbedeutung zukommen kann (Kaufrelevanz). Solche Reaktionsunterschiede zwischen Segmenten müssen messbar sein, damit eine gezielte, getrennte Bearbeitung überhaupt möglich wird (Operationalisierbarkeit).

8.3 Kriterien zur Segmentbeschreibung

Marktsegmentierungskriterien

demographisch

entscheidungsbezogen

psychographisch

soziographisch

typologisch

neuroökonomisch

Abbildung 43: Marktsegmentierungskriterien

Hinter jedem Marktsegment stehen Menschen, die als Zielpersonen charakte­ risiert werden können. Zur Marktwahl bieten sich sechs Kriterien an, demographische, entscheidungsbezogene, psychographische, soziographische, typologische und neuroökonomische (siehe Abbildung 43). Bei demographischen Kriterien handelt es sich um Segmentierungsansätze, die sich an nachfragerstrukturellen Kriterien orientieren. Dabei sind vor allem folgende zu nennen:

8.3 Kriterien zur Segmentbeschreibung

139

• Nach dem Geschlecht wird z. B. bei der Krankenversicherungen differenziert, denn Frauen konsultieren regelmäßig häufiger den Arzt, zahlen daher höhere Beiträge. • Nach dem Alter wird z. B. bei vielen öffentlichen Einrichtungen differenziert. Dies gilt sowohl für Seniorenangebote als auch für Jugendangebote. Dem liegen vor allem soziale Erwägungen zugrunde, um die bevorzugten Altersklassen zu fördern. • Nach dem Familienstand wird z. B. bei Steuertarifen differenziert. Dort gelten für Verheiratete niedrigere Steuersätze als für Alleinstehende (Splitting-­Tarif), wobei wiederum moralische Erwägungen zur Förderung der Ehe als gesellschaftliche Stütze zugrunde liegen. • Nach der Kinderzahl/Haushaltsgröße wird z. B. bei Freizeiteinrichtungen differenziert (Sportclub, Fitnesscenter, Kino etc.), um die Attraktivität der Nutzung, meist durch Vorzugsangebote für Kinderreiche, zu steigern. • Nach dem (intra-)nationalen Wirtschaftsgebiet wird z. B. bei der Haftpflichtversicherung differenziert, wo in Ballungszentren höhere Tarife verlangt werden als außerhalb, weil dort die Unfallneigung aufgrund der höheren Verkehrsdichte größer ist. • Nach dem internationalen Wirtschaftsgebiet wird z. B. von Automobilherstellern differenziert. Dabei liegen die Verkaufspreise in verschiedenen Ländern je nach Kaufkraft und Wettbewerbssituation unterschiedlich hoch. • Nach der Wohnortgröße wird z. B. von den Energieversorgern differenziert. Hier liegen die Konditionen in ländlichen Gebieten unter denen der Großstädte, weil dort die Kaufkraft geringer ist, ein lebenswichtiges Gut wie Energie sich aber jeder leisten können muss. • Nach der Ausbildung wird z. B. bei der Anschaffung studiennaher Gegenstände differenziert. Zu denken ist an Vorzugsangebote beim Computerkauf oder beim Zeitschriftenabonnement. Dahinter stehen die Gewöhnung an das Produkt und der wahrscheinliche Wiederholungskauf nach Berufseintritt. • Nach dem Einkommen wird z. B. im sozialen Wohnungsbau differenziert. Dort haben Bezieher niedrigerer Einkommen Zugriff auf besondere Wohnflächen, die durch staatliche Zuschüsse subventioniert werden. • Nach dem Beruf wird z. B. bei Beamten differenziert. Sie profitieren von günstigeren Tarifen etwa bei der Kfz-Haftpflichtversicherung, weil sie mutmaßlich vorsichtiger fahren und damit weniger Unfälle verursachen. Bei entscheidungsbezogenen Kriterien handelt es sich um Segmentierungs­ ansätze, die sich an prozessualen Entscheidungskriterien orientieren. Dabei sind vor allem folgende zu nennen:

140

8. Marktsegmentierung

• Die Preisbedeutung bezieht sich z. B. auf die Bevorzugung bestimmter Preisklassen beim Kauf. Oder auf den Kauf von Sonderangeboten nach Preis-Leistungs-­ Verhältnis. Daher können Zweit- und Drittmarken bei sauberer Positionierung parallel zu Erstmarken desselben Herstellers angeboten werden. • Die Mediennutzung bezieht sich z. B. auf die Art und Anzahl der für Produktwerbung nutzbaren Medien sowie auf die Intensität deren Nutzung. Dies ist vor allem wichtig zur werblichen Erreichung von Innovatoren und Opinion Leaders, die den Diffusionsprozess am Markt in Bewegung bringen. • Die Einkaufsstättenwahl bezieht sich z. B. auf die Präferenz für bestimmte Betriebsformen des Einzelhandels oder einzelne Geschäftsstätten. Dem wird durch Maßnahmen der Distributionspolitik Rechnung getragen. • Der Einkaufszeitpunkt bezieht sich z. B. auf die Wahl der Vorsaison für Urlaubsreisen oder Subskriptionen bei Verlagsprodukten. • Die Produktartenwahl bezieht sich z. B. auf den Kauf bzw. Nichtkauf bestimmter Produktgruppen. So werden Cabrios naturgemäß von anderen Käufergruppen bevorzugt als Jeeps oder Großraumlimousinen. Vergleichbare Unterschiede ergeben sich zwischen Rauchern von Light- oder Full Flavor-Zigaretten. • Das Produktvolumen bezieht sich z. B. auf das Kauf- und Verbrauchsvolumen. So werden Großpackungen vorwiegend von Intensivverwendern und Großverbrauchern, Kleinpackungen hingegen von Extensivverwendern gekauft. Größere Packungseinheiten suggerieren zumeist eine höhere Preisgünstigkeit. • Die Verwendungsart bezieht sich z. B. auf den Preisunterschied für Strom zwischen Licht-(Haushalts-) und Kraft-(Industrie-)Strom oder zwischen Dieselkraftstoff und Heizöl oder zwischen Streu-, Speise- und Viehsalz. • Der Besitzstatus bezieht sich z. B. auf Merkmale wie Immobilien, Automobile, Gärten, Haustiere etc. Daraus folgen jeweils spezifische Bedarfe ab. Personen ohne diese Besitzmerkmale sind dann im Weiteren außen vor. Innerhalb der Merkmale kann wiederum abgestuft werden, z. B. Rasenmäher für Besitzer kleinerer oder größerer Gärten. Bei psychographischen Kriterien handelt es sich um Segmentierungsansätze, die sich an den verborgenen Ursachen für den Kaufentscheid orientieren. Dabei sind vor allem folgende zu nennen: • Die Emotion begünstigt den Erwerb von Informationen, sofern ein mittlerer Erregungsgrad eingehalten wird, also weder lethargisch noch hektisch. Insofern muss auf diesen Mittelbereich der Aktivierung geachtet werden. • Motivation ist mit Antrieb versehener und auf Behebung gerichteter Bedarf. Diese kann verschiedene Absichten beinhalten. Je subjektiv höherwertiger ein Motiv ist, desto eher eignet es sich als Ansatzpunkt zur Marktsegmentierung.

8.3 Kriterien zur Segmentbeschreibung

141

• Einstellungen sind relativ stabile, organisierte und erlernte innere Bereitschaften eines Käufers, auf bestimmte Stimuli konsistent zu reagieren. Mehrdimensionale Einstellungen werden auch Image genannt. Für Einstellungen wird eine hohe Verhaltensrelevanz behauptet (E-V-Hypothese). • Als Involvement bezeichnet man den Grad wahrgenommener persönlicher Wichtigkeit, der durch Stimuli hervorgerufen wird. Hohes Involvement begünstigt die Informationsaufnahme, -speicherung und -verarbeitung, daraus die Präferenz und Kaufabsicht. • Das Risikoempfinden betrifft die subjektive Einschätzung der negativen Folgen einer Wahlhandlung, die vorab wie im Nachhinein zu Dissonanzen führt, die reduziert werden sollen. Entsprechend der individuellen Risikoscheu oder -gier können differenzierte Angebote gemacht werden. • Menschen erwerben Informationen durch Lernen unterschiedlich, meist bei Kontiguität (raum-zeitliches Zusammentreffen von Lerninhalten), als Erfolgsorientierung (durch Verstärkung), am Modell (über Nachahmung) und durch Einsicht (i. S. v. Verstehen). Entsprechend dieser Lerntypen können Märkte segmentiert werden. • Die Wahrnehmung zeichnet sich durch Aktivität (vom Käufer initiativ ausgehend), Subjektivität (Interpretation vor Erfahrungshintergrund)  und Selektivität (hohe Informationsüberlastung) aus. Entsprechend der vermutenden Gesetz­ mäßigkeiten der Wahrnehmung (Elementen-, Ganzheits-, Gestaltpsychologie etc.) können Segmente gebildet werden. Bei soziographischen Kriterien handelt es sich um Segmentierungsansätze, die sich an den offen liegenden Ursachen orientieren. Dabei sind vor allem folgende zu nennen: • Normen als Basis sind Auffassungen darüber, wie das Verhalten der einzelnen Gesellschaftsmitglieder in bestimmten Situationen sein soll. Sie verkörpern ein System von Leitvorstellungen, das auf Käufer bestimmenden Einfluss hat. Die Normen differieren jedoch von Segment zu Segment (z. B. Finanzdienstleistungen). • Subkulturen als Basis sind relativ geschlossene Segmente innerhalb der Gesellschaft, die sich nach z. B. ethnischen (Rasse, Religion, Nationalität etc.), altersbezogenen (Kinder, Jugendliche, Senioren etc.) oder räumlichen Gesichtspunkten (Stadt, Vorort, Land etc.) abgrenzen (z. B. Ay Yildiz als Mobilfunkangebot). • Soziale Schichten als Basis zeichnen sich durch die Gleichartigkeit ihrer Lebensumstände aus und weisen damit den gleichen Status auf. Daraus folgt gleichartiges Kaufverhalten, das die Zugehörigkeit unterstützt. Allerdings ist ein Wandel von der Schichten- zur Lebensstilgesellschaft zu verzeichnen (z. B. Apple-Produkte).

142

8. Marktsegmentierung

• Gruppen sind Personenmehrheiten, die in wiederholten, nicht nur zufälligen wechselseitigen Beziehungen zueinander stehen. Sie üben Kaufeinfluss als Mitgliedschaftsgruppen, denen man angehört, oder Bezugsgruppen, die als Referenz für eigenes Verhalten dienen, aus (z. B. Viral-Kampagnen). • Rollen bezeichnen Erwartungen, die von der Gesellschaft an einzelne ihrer Mitglieder gestellt werden und sich im Status verkörpern. Dieser kann zur Charakterisierung des Kaufverhaltens herangezogen werden. Ist der Status in der Rolle unterrepräsentiert, handelt es sich um Understatement, liegt er über der Rolle um Angeberei. • Die Meinungsführer stellen eine wichtige Zielgruppe dar, weil sie für einen Multiplikationseffekt von Botschaften in ihrem sozialen Umfeld sorgen. Außerdem sind sie häufig Heavy Users. Allerdings ist ihre Identifikation im Markt schwierig. Dazu werden Merkmalskataloge der Persönlichkeit zugrunde gelegt (vor allem in Bezug auf Kommunikation, z. B. in Special Interest-Zeitschriften). • Innovatoren sind Personen mit geringer Risikoscheu, die im Zeitablauf Neuerungen als erste adoptieren. Sie bringen damit Diffusionsprozesse erst in Gang und sind meist durch geringeres Alter, höheres Einkommen, höheren Berufsstand, höheres Bildungsniveau, besseres Produktwissen und größeres Produktinteresse als der Durchschnitt gekennzeichnet. Bei den vorher genannten Elementen handelt es sich durchweg um Partial­ ansätze, d. h., sie beziehen sich nur auf einen von mehreren vermuteten Zusammenhängen zur Segmentierung. Dies kann jedoch insofern zu kurz greifen, als immer mehrere, wenn nicht gar alle Elemente gemeinsam auf den Kauf einwirken. Dem versucht der Werte- oder Lebensstilansatz durch typologische Kriterien gerecht zu werden. Werte sind allgemein ein System von Einstellungen und schaffen gemeinsam mit der Persönlichkeit und dem Selbstkonzept einen Lebensstil. Der Lebensstil kennzeichnet umfassend, wie Menschen leben, ihre Zeit verbringen und ihr Geld ausgeben. Dies führt zu Typologien, bei denen bestimmte Merkmalskombinationen, die real häufiger zusammentreffen als andere, zu einem Typ verdichtet werden (s. u.): • Die Typologie Sozialer Milieus des Sinus-Instituts erfasst als Bausteine das Lebensziel, die soziale Lage, die Arbeit bzw. Leistung, das Gesellschaftsbild, die Familie und Partnerschaft, die Freizeit, die Wunsch- und Leitbilder sowie die Lebenswelt. Daraus entstehen zehn Soziale Milieus als Cluster, die jeweils real überzufällig häufig so vorkommen und eigenständig charakterisiert werden. Jedes Milieu ist präzisiert und greift dabei als Single Source-Erhebung auf denselben Datenbestand zu. • Die Euro Socio Styles der GfK-Roper stellen die Synthese einer Vielzahl von Lebensfacetten in unterschiedlichen wirtschaftlichen und gesellschaftlichen Bereichen von Menschen dar. Daraus resultieren acht Typen, die aus 39.000 meist telefonischen Interviews in 38 europäischen Ländern extrahiert worden sind (re-

8.3 Kriterien zur Segmentbeschreibung

143

präsentativ ab 13 Jahre). So entstehen „Träumer“, „Häusliche“, „Boden­ständige“, „Abenteurer“, „Realisten“, „Weltoffene“, „Kritische“ und „Anspruchsvolle“, für die jeweils ein Profil vorliegt. Darüber hinaus gibt es beinahe unzählige Typologien, die sich nur auf einzelne Merkmale als Ausschnitt des Lebensstils beziehen und meist für bestimmte Branchen ausgewiesen werden (z. B. Outfit-Typologie für Bekleidung). Die neuroökonomischen Kriterien bauen auf Prozessen im menschlichen Gehirn auf, u. a. mit dem Ziel, die interdisziplinär generierten Erkenntnisse für die Marktsegmentierung nutzbar zu machen. Allerdings hat man dabei mit zahlreichen Limitationen zu kämpfen. Diese liegen vor allem in der Komplexität der Gehirnanatomie (geringe räumliche Auflösung), in der enormen Geschwindigkeit der Informationsverarbeitung (geringe zeitliche Auflösung), in der „harten“ Laborsituation der Datengewinnung und deren sehr hohem Kostenaufwand bei gleichzeitig sehr kleiner Fallzahl begründet. Außerdem spielen ethische und rechtliche Grenzen eine Rolle. Zur Forschung werden elaborierte Messverfahren eingesetzt. Im Einzelnen gibt es: • bildgebende Verfahren wie CT (Computertomografie), MRT (Magnetresonanztomografie), fMRT (funktionelle Magnetresonanztomografie), PET (Positronen-­ Emissions-Tomografie) etc. und • elektrophysiologische Verfahren wie EEG (Elektroencephalografie), MEG (Magnetencephalografie) etc. Im Ergebnis gelingt es damit, im Wesentlichen drei Gehirnbereiche zu identifizieren, die Stammhirnregion (grün), die Zwischenhirnregion (rot) und die Großhirnregion (blau). Hinzu kommen nach verbreiteter Ansicht (Limbic Map/Häusel) noch drei Mischformen. Indem identifiziert wird, wo und wann Denkvorgänge stattfinden, kann darüber spekuliert werden, was genau gedacht wird, denn den verschiedenen Gehirnbereichen lassen sich klar Denkstrukturen zuordnen. Anthropologisch sind dabei drei Gehirnteile zu unterscheiden, die jeweils dominant sein können: • Eine Stammhirnorientierung (Balance/„grün“) bedeutet Eigenschaften wie sucht das Gespräch, hat gerne Menschen um sich, ist kontaktfreudig und beliebt, verlässt sich auf Bekanntes, Erfahrungen steuern das Verhalten, radikale Änderungen werden gemieden, verfügt über Eingebung und Fingerspitzengefühl, hat einen sechsten Sinn, wirkt sympathisch. Kernargumente im Marketing sind hier Sicherheit, Kundendienst, Zuverlässigkeit, Markterfolg, Produktionsdauer, Herstellerreputation, Bequemlichkeit, Preisgünstigkeit. • Eine Zwischenhirnorientierung (Dominanz/„rot“) bedeutet Eigenschaften wie immer kampfbereit, sucht Überlegenheit, besitzt natürliche Autorität, erfasst schnell Situationen, entscheidet spontan, kann andere mitreißen, ist sehr dynamisch, denkt sehr konkret, pragmatisch, Hang zum Improvisieren, wirkt impo-

144

8. Marktsegmentierung

nierend. Kernargumente im Marketing sind hier Prestige, Leistung, Ausstattung, Design, hohe Wertigkeit. • Eine Großhirnorientierung (Stimulanz/„blau“) bedeutet Eigenschaften wie zurückhaltend, braucht Abstand, gewinnt erst mit längerem Kennenlernen, muss alle vorhandenen Möglichkeiten erst durchdenken, geht immer analytisch und organisiert vor, systematisch, hohes Abstraktionsvermögen, sprachbegabt, wirkt überzeugend. Kernargumente im Marketing sind hier Technologie, Konstruktion, Fortschrittlichkeit, Preis-Leistungs-Verhältnis. Bei jedem Menschen ist eine dieser Gehirnregionen dominant, alle drei „Gehirne“ arbeiten jedoch immer zusammen, aber eines von ihnen gibt den Takt vor. Aufgrund der sehr unterschiedlichen Charakteristika der Gehirnregionen eignet sich dieser Ansatz hervorragend zur Marktsegmentierung, indem genau die Signale abgegeben werden, welche die gewünschte Gehirnregion ansprechen. Am verbreitetsten scheint die „grüne“ Gehirndominanz zu sein. Wichtige Erkenntnisse der Neurologie sind bisher, dass Emotionen die kaufauslösenden Signale darstellen, nicht hingegen rationale Argumente, dass das Individuum nach Belohnung durch Käufe giert und dass die Auseinandersetzungsbereitschaft mit Kaufsignalen im Gehirn sehr begrenzt ist, sodass das Beurteilungsmodell als Kaufprogramm vorherrscht.

9. Positionierung 9.1 Begrifflichkeiten Bei der Positionierung (Mapping) geht es allgemein um die grafische Anordnung von Objekten (Produkte, Anbieter, Marken, Nachfrager, Bedürfnisse etc.) in einem mehrdimensionalen, möglichst niedrig dimensionierten Raum, um darin die Koordinaten dieser Objekte festzulegen. Dafür ist zunächst das Design der Positionierung zu bestimmen. Dazu gibt es insgesamt vier Stellgrößen: • Handelt es sich bei den Dimensionen um objektiv messbare Eigenschaften, ist ein Eigenschaftsraum gegeben. Handelt es sich um nur subjektiv erlebbare Wahrnehmungen, ist ein, normalerweise vorliegender, Wahrnehmungsraum gegeben. Bei ersteren handelt es sich um technische Daten, Funktionen, Abmessungen etc., bei letzteren um Anmutungen, Eignungen, Zufriedenheiten etc. • Beide Arten von Positionierungsräumen können jeweils nur reale, am Markt bereits vorhandene Objekte beinhalten, man spricht dann man von einem Ähnlichkeitsraum, oder nur ideal gewünschte, fiktive Objekte, dann spricht man von einem Präferenzraum. Normalerweise sind allerdings sowohl reale als auch ideale Objekte gemeinsam abgetragen (Joint Space). • Nach der Art der Darstellung kann der Positionierungsraum so angelegt sein, dass ein reales einem idealen Objekt als umso ähnlicher angesehen wird, je geringer die geografische Distanz zwischen beiden ist. Oder er kann so angelegt sein, dass ein reales Objekt umso eher einem idealen entspricht, je weiter es auf einem Idealvektor (Fahrstrahl) vom Koordinatenursprung entfernt liegt. Letzteres wird Idealvektorverfahren genannt, es folgt dem allerdings im Detail zweifelhaften „je mehr, desto besser“-Prinzip, ersteres wird Idealpunktverfahren genannt und folgt dem verbreiteten „je ähnlicher, desto besser“-Prinzip. • Die Verfahren unterscheiden sich schließlich noch danach, ob Nachfrager ausschließlich dasjenige Objekt wählen, das dem Ideal am meisten entspricht (Single Choice-Modell), alle anderen Objekte haben dann eine Wahlwahrscheinlichkeit von Null, oder ob jedes Objekt eine, allerdings mit abnehmendem Entsprechungsgrad sinkende Wahrscheinlichkeit hat, gewählt zu werden (WahlaxiomModell). Letzteres wird zumeist unterstellt. Solche Positionierungen können computergestützt, exakt vorgenommen werden (normativ) oder erfahrungsgetrieben, intuitiv (heuristisch). Beide Ansätze sind ver-

146

Dimension 2

Dimension 2

9. Positionierung

Dimension 1

Dimension 1 Idealpunktmodell links, Idealvektormodell rechts, R = Realposition, I = Idealposition

Abbildung 44: Darstellung der Positionierung

breitet. Normative Positionierungsmodelle basieren auf multivariaten statistischen Verfahren, meist der Multidimensionalen Skalierung (MDS). Häufig reichen jedoch bereits qualifizierte heuristische Verfahren aus. Die Vorgehensweise zur Entwicklung einer Positionierung ist im jedem Fall dieselbe und eine mehrstufige.

9.2 Stufen zur Entwicklung Die Abgrenzung des Relevanten Markts bestimmt, auf welchem Markt ein Unternehmen (genauer dessen SGE) tatsächlich tätig ist. Dies ist von erheblicher Bedeutung, denn wenn man nicht weiß, in welcher „Arena“ man antritt, weiß man auch nicht, wer die Gegner dort sind und welche Stärken und Schwächen diese haben. Das Risiko unterzugehen, wäre mehr als leichtfertig. Auch können Chancen vertan werden. Die Operationalisierung der Abgrenzung des Relevanten Markts erweist sich als schwierig. Dazu werden im Einzelnen ein-, zwei-, drei- und mehrdimensionale Ansätze verfolgt (siehe Abbildung 45). Die eindimensionale Abgrenzung kann auf objektiver oder subjektiver Basis erfolgen: • Objektiv erfolgt die Abgrenzung anhand der physikalisch-chemisch-technischen Austauschbarkeit von Produkten. Der Relevante Markt besteht demnach aus­ allen Marktangeboten gleicher Form, technischer Gestaltung, Verarbeitung oder stofflicher Zusammensetzung. Problematisch ist dabei, dass gerade auch physikalisch-technisch unterschiedliche Produkte zahlreich für gleiche Verwendungs-

9.2 Stufen zur Entwicklung

147

Marktabgrenzungskriterien

eindimensional

zweidimensional

dreidimensional

mehrdimensional

Abbildung 45: Marktabgrenzungskriterien

zwecke genutzt werden (z. B. Tapete, Farbe, Holz, Fliesen zur Wandverkleidung). Auch die Abgrenzung bei Dienstleistungen ist aufgrund ihrer konstitutiven Immaterialität schwierig. Daher ist alternativ eine Abgrenzung auf Basis der funktionalen Austauschbarkeit denkbar. Der Relevante Markt besteht dann aus allen Sach- und Dienstleistungen, welche die gleiche Funktion erfüllen. Problematisch ist dabei jedoch, dass erhebliche subjektive Auffassungsunterschiede bei Abnehmern darüber vorliegen können, ob und wie eine funktionale Austauschbarkeit von Produkten besteht (z. B. verschiedene Automodelle). • Eine subjektive Abgrenzung kann aus Anbietersicht oder aus Nachfragersicht erfolgen. Aus Nachfragersicht sind ihr wiederum Kundenverhalten oder Kundenurteile zugrunde zu legen. Beim Kundenverhalten besteht der Relevante Markt aus allen Produkten/Diensten, die für ein und denselben Verwendungszweck tatsächlich beschafft werden. Problematisch ist dabei, dass es sich um vergangenheitsbezogene Daten handelt, ein konstantes Kaufverhalten vorausgesetzt wird und Einflüsse durch zahlreiche Störfaktoren wie Verfügbarkeit, Finanzkraft etc. bestehen. Auch ist dieser Ansatz nur für Angebote mit hoher Verbrauchsintensität geeignet. Alternativ ist eine Abgrenzung auf Basis von Kundenurteilen denkbar. Dabei wird der Relevante Markt aus allen Produkten/Diensten gebildet, die von Abnehmern als für den selben Zweck geeignet angesehen werden. Dabei stellt sich jedoch das Problem der Informationserhebung, vor allem bei Innovationen, bei denen Abnehmer notwendigerweise auf keine Erfahrungswerte zurückgreifen können. Bei einer Abgrenzung aus Anbietersicht besteht der Relevante Markt aus allen Produkten/Diensten, die Anbieter als für den selben Zweck geeignet ansehen. Dabei ergibt sich jedoch das Problem, ob Anbieter eine zutreffende Sichtweise

148

9. Positionierung

einnehmen und auch zweckmäßig antizipieren können. So waren die ersten Steiff-Teddybären als Nagelkissen für Näherinnen gedacht und stellten sich erst danach als famoses Kinderspielzeug heraus. Die zweidimensionale Abgrenzung erfolgt auf Basis der Kreuzpreiselastizität der Nachfrage (Triffin’scher Koeffizient). Der Relevante Markt umfasst dabei alle Produkte/Dienstleistungen mit hoher positiver wie negativer Kreuzpreis­elastizität. Die Kreuzpreiselastizität ergibt sich als Quotient aus der Mengenänderung eines Produkts A aufgrund der Preisänderung eines Produkts B. Gehören beide zum selben Markt, bedeutet eine Preisänderung von Produkt A eine gleichläufige Mengenänderung bei Produkt B, weil Käufer von A nach B ab-/zuwandern (substitutive Beziehung). Gehören beide zu getrennten Märkten, liegt der Quotient nahe Null. Problematisch ist dabei vor allem die Datenbeschaffung, die nur unter engen Voraussetzungen in Testmarktersatzverfahren möglich ist. Auch wird vorausgesetzt, dass Nachfrager den Preis als einziges Entscheidungskriterium für den Kauf/Nichtkauf betrachten, was zu bezweifeln ist. Selbst wenn die Kreuzpreis­ elastizität zu bestimmen ist, stellt sich die Frage, ab welchem Schwellenwert von getrennten Teilmärkten auszugehen ist und bis zu welchem Schwellenwert von einem gemeinsamen Markt. Insofern ist diese Abgrenzung zwar theoretisch­ sauber, praktisch aber wenig nutzbar. Die dreidimensionale Abgrenzung erfolgt auf Basis der kumulativen Parameter Funktion, Zielgruppe und Technologie. Danach werden alle Produkte/Dienste als einem gemeinsamen Relevanten Markt zugehörig angesehen, die eine identische Zielgruppe aufweisen, dort die gleiche Funktion wahrnehmen und mit derselben Technologie realisiert werden. Sobald ein Angebot in einem dieser drei Dimensionen abweicht, liegen hingegen getrennte Märkte vor. Diese Abgrenzung ist recht komplex und dabei angreifbar. Im Beispiel Zahnreinigung würden demnach hochwertige Handzahnbürsten und elektrische Zahnbürsten getrennten Relevanten Märkten angehören. Sie haben zwar eine identische Zielgruppe und nehmen dort die gleiche Funktion wahr, aber dies mit abweichender Technologie. Tatsächlich dürften Verbraucher jedoch vor der Wahl stehen, eine hochwertige Handzahnbürste oder eine einfache elektrische Zahnbürste zu kaufen, mithin diese Produkte dem selben Relevanten Markt zuzurechnen sein. Die mehrdimensionale Abgrenzung geht schließlich von der Voraussetzung totaler Konkurrenz aus, d. h. jedes Angebot steht mit jedem anderen Angebot in Wettbewerb um die knappe Ressource verfügbarer Kaufkraft. So kann der Bedarf „Pausensnack“ durch so verschiedenartige Produkte wie Schokoriegel, Obst, belegte Brötchen, Joghurt, Hamburger, Gebäck etc. befriedigt werden. Dies ist zwar realistisch, letztlich aber wenig hilfreich. Insofern wird praktisch eine Eingrenzung in zeitlicher oder räumlicher Hinsicht vorgenommen. Zu einem gemeinsamen Markt gehören dann pragmatisch alle Angebote, die zu einem gemeinsamen Zeitpunkt, also bei der konkreten Kaufentscheidung, verfügbar sind oder in einem gemeinsamen Gebiet.

9.2 Stufen zur Entwicklung

149

Als Maßgabe gilt, den Markt so eng wie möglich abzugrenzen, um eine hohe Übersichtlichkeit zu gewährleisten, aber zugleich so weit wie nötig, um gefährliche „Marketingkurzsichtigkeit“ (Marketing Mypia/Levitt) zu vermeiden. Die Bestimmung der Angebotsdimensionen auf einem Relevanten Markt ergibt sich modellgetrieben anhand multivariater statistischer Verfahren oder aus der Erfahrung der jeweiligen Entscheider. Theoretisch ist es zwar durchaus möglich, grafisch multidimensionale Skalierungen abzubilden, jedoch ist deren zutreffende Interpretation sehr schwierig. Daher sollte man sich in der Praxis auf zwei- bis dreidimensionale Abbildungen beschränken. Am besten ist wohl die Konzentration auf die beiden als kaufbestimmend angesehenen Dimensionen. Sie bilden die Achsen eines Koordinatensystems. Sind mehr als zwei Dimensionen als kaufbestimmend anzusehen, kann versucht werden, durch Bündelung dieser Dimensionen zu zwei umfassenderen Dimensionen eine Komplexitätsreduktion zu erreichen. Freilich darf darunter nicht die Aussagekraft leiden. Diese Datenreduktion kann auf Basis multivariater statistischer Verfahren erfolgen. So werden etwa künstliche Faktoren derart gebildet, dass die realen Dimensionen möglichst stark auf diese laden oder aber es wird pragmatisch durch Expertenschätzung vorgegangen. Denkbar ist auch, die Achsen mit zwei unabhängigen Dimensionen zu belegen, statt mit den beiden Polen einer Dimension. Auf diese Weise lassen sich vier Dimensionen zweidimensional abbilden (Polardiagramm). Die Gesamtheit der Mitbewerber im Relevanten Markt lässt sich in zwei oder mehr Strategische Gruppen einteilen. Eine gemeinsame Strategische Gruppe besteht dabei aus allen Anbietern, die um die Kaufkraft innerhalb desselben Relevanten Markts miteinander konkurrieren. Ihre Angebote sind intern homogen, d. h. zueinander gleichartiger als die Angebote der Mitglieder anderer Strategischer Gruppen, sie sind also zugleich extern heterogen (siehe Abbildung 46). Diese Anbieter stehen damit untereinander in einem engeren Konkurrenzverhält­ nis als zu den Mitgliedern anderer Strategischer Gruppen. Für Positionierungsüberlegungen ist es meist sinnvoll, sich auf die Mitglieder der eigenen Strategischen Gruppe zu konzentrieren (Gruppenwettbewerb), häufig gibt es dabei auch einen „Feind“, d. h. ein Unternehmen, dessen Marktanteil man unbedingt kannibalisieren möchte. Auf dem deutschen Kfz-Markt ergeben sich z. B. Strategische Gruppen als deutsche Standardhersteller, deutsche Oberklassehersteller, europäische Importeure, fernöstliche Importeure, Spezialisten, Luxus-Hersteller oder Budget-Hersteller. Hinsichtlich der eigenen Strategie in diesem Gruppenwettbewerb bestehen verschiedene Optionen: • Die Dominanz innerhalb der eigenen Strategischen Gruppe bedeutet das Anstreben der „Gruppenführerschaft“ dort. • Der Wechsel von der bestehenden zu einer anderen Strategischen Gruppe ist meist mit der Hoffnung auf eine dort vorzufindende, vorteilhaftere Wettbewerbsstruktur verbunden.

150

9. Positionierung

• Die Gründung einer eigenen Strategischen Gruppe entspricht dem Versuch der Erreichung einer Alleinstellung. Die weiteren Schritte beziehen sich zunächst auf Konkurrenten der eigenen Strategischen Gruppe. Potenzielle Zielpersonen des eigenen Angebots werden dann dahingehend erhoben, wie sie die Position dieser konkurrierenden Angebote/­ Anbieter relativ zu den im Positionierungsmodell zugrunde gelegten Dimensionen einschätzen. Diese Positionen werden bei grafischer Darstellung in einem Koordinatensystem abgetragen. Zur Datenerhebung können statistische Verfahren eingesetzt werden, um zu exakten Ergebnissen zu gelangen. Der dazu erforderliche Aufwand ist durch die Bedeutung der Erkenntnisse durchaus gerechtfertigt. Dennoch ist es pragmatisch oft ausreichend, diese Positionen durch Expertenschätzung zu ermitteln. Dabei muss allerdings dafür Sorge getragen werden, dass möglichst wenig subjektive Verzerrung stattfindet. Keinesfalls sollte man sich daher auf das eigene Urteil verlassen. Hilfreich ist es vielmehr, mehrere Beteiligte aus unterschiedlichen Bereichen des Unternehmens, mit unterschiedlichem Ausbildungs- und Kulturhintergrund nach ihrer Einschätzung zu erheben und daraus dann einen belastbaren Mittelwert für die Positionierung der Mitbewerber abzuleiten. Potenzielle Zielpersonen des eigenen Angebots werden weiterhin dahingehend erhoben, wie sie die Position des eigenen, realen oder konkretisierten fiktiven Angebots relativ zu den im Positionierungsmodell zugrunde gelegten Dimensionen einschätzen. Diese Erhebung erfolgt jeweils am besten durch Ratingskalen für jede Dimension getrennt. Zugleich werden die Zielpersonen ggfs. (bei einem Joint Space) aufgefordert, die aus ihrer Sicht ideale Position eines Angebots der Kategorie relativ zu den zugrunde gelegten Dimensionen anzugeben. Beide Positionen werden im Koordinatensystem abgetragen. Auch hierbei kann zur Erhebung statistisch exakt vorgegangen oder eine qualifizierte Expertenschätzung (Best educated Guess) herangezogen werden. Dabei ist wiederum auf die Vermeidung grober subjektiver Verzerrungen zu achten. Nunmehr kann beurteilt werden, ob die eigene Ist-Position bereits hinlänglich der Idealposition entspricht, oder ob Korrekturen erforderlich sind. Für die Er­ reichung der Ziel-Position auf Basis eines bestehenden Ideals können drei Optionen aktiviert werden (siehe Abbildung 47): • Erstens die Steigerung des Grundaufforderungswerts, dadurch steigt die Attraktivität der Warengattung gegenüber anderen Angebotsgruppen (Categories), aller­dings ist dies ein generischer Ansatz, der nicht die Appetenz für das eigene Angebot steigert, und sich nur für Marktführer anbietet. • Zweitens die Steigerung des Zusatzaufforderungswerts des eigenen Angebots, dadurch kann die individuelle Appetenz gesteigert werden, allerdings setzt dies das Vorhandensein eines solchen Zusatznutzens voraus. Ein bekanntes Beispiel ist das Mehrklingensystem bei Gillette-Nassrasierern.

Zusatzaufforderungswert

Zusatzaufforderungswert

Grundaufforderungswert

Grundaufforderungswert

Zusatzaufforderungswert

Zusatzaufforderungswert

Dimension 2

2

Grundaufforderungswert

Grundaufforderungswert

9.2 Stufen zur Entwicklung

2

Abbildung 47: Schema der Feldtheorie

151

Dimension 1 1

3

Relevante Märkte 1, 2, 3

Abbildung 46: Mapping Relevanter Markt

1

3

152

9. Positionierung

• Denkbar ist aber drittens auch eine Präferenzumwertung, d. h. eine Veränderung der Sichtweise potenzieller Zielpersonen über die als ideal angesehenen Ausprägungen eines Angebots. So kann zugleich ein neues „Ideal“ etabliert werden. Wählt man diese Position so, dass das eigene Angebot ihr weitgehend entspricht und sie zugleich mehr oder minder weit entfernt ist von den Positionen der Konkurrenzangebote im Relevanten Markt, kann damit ein entscheidender Marktvorsprung erreicht werden (z. B. Apple iPhone). Für die praktische Umsetzung ist es wichtig, die die ausgewählte Positionierung repräsentierende Kaufkraft zu schätzen. Basis sind entweder qualifizierte (Experten-)Schätzungen oder ökoskopische Erhebungen. Dabei können verschiedene absolute Kennzahlen zugrunde gelegt werden: • Das Marktpotenzial bezeichnet die realistisch maximale Größe eines Relevanten Markts. • Das Marktvolumen bezeichnet die aktuelle Größe eines Relevanten Markts. • Das Absatzpotenzial bezeichnet die realistisch maximale Höhe der Absatzmenge eines Unternehmens auf diesem Relevanten Markt (Umsatzpotenzial bezieht sich analog auf den maximalen Umsatzwert). • Das Absatzvolumen bezeichnet die derzeitige Höhe der Absatzmenge eines Unternehmens auf dem Relevanten Markt (Umsatzvolumen bezieht sich analog auf den derzeitigen Umsatzwert). Aus diesen Werten lassen sich wiederum relative Kennzahlen bilden wie Marktanteil, Marktausschöpfung, Marktdurchdringung und Marktsättigung. Um die gewählte Positionierung intern und extern kommunizierbar zu machen, ist es erforderlich, sie im Sinne der Abgrenzung/Alleinstellung eines Angebots/ Anbieters in Bezug auf die gleiche Marktseite und im Sinne der Profilierung/Hervorhebung in Bezug auf die andere Marktseite zu formulieren. Dies drückt sich im Positioning Statement aus, das wiederum aus dem Angebotsanspruch (Claim) und der Anspruchsbegründung (Reason why) besteht: • Der Angebotsanspruch formuliert, was ein Angebot behauptet, besser zu können als jedes andere („Wenn man Produkt A anstelle von Produkt B kauft, dann …“). Die Behauptung ist bereits ausreichend, vorausgesetzt, sie ist plausibel. • Die Anspruchsbegründung beinhaltet die rein sachliche Argumentation zur Glaubwürdigkeit des Anspruchs („Dies ist so, weil …“). Meist werden hier technische (funktionale, physikalische, chemische) Ursachenkomplexe angeführt (wie TAED-System, Dry Weave-Vlies, Plantareen-Extrakt etc.) Beide Statements sind erst „gut“, wenn sie je in einen Satz gefasst werden können. Diese sind dann die Leitgedanken für alle Marketingmaßnahmen. Dabei sind immer mehrere Auslegungen des Positioning Statement für ein und dasselbe Produkt möglich.

10. Strategische Marktforschung Die Strategische Marktforschung erfolgt auf Basis von Strategischen Geschäftseinheiten (SGE’s). Bei einer SGE handelt es sich um eine Produkt-Markt-Kombination im Unternehmen als interne Steuerungsgröße. Diese Einteilung muss nicht mit der Organisationsstruktur übereinstimmen. Wichtig ist nur, dass jede Unternehmenseinheit, die ein marktunverbundenes Produkt auf einem eigenständigen Nachfragesegment anbietet, als SGE gesehen wird. Aussagen beziehen sich immer auf die Einheit SGE. Ein Unternehmen kann durchaus verschiedene SGE’s haben und kommt damit auch zu verschiedenen strategischen Schlussfolgerungen.

10.1 Deskriptive Tools 10.1.1 Lebenszyklus-Analyse Die Lebenszyklus-Analyse ist ein zeitbezogenes Markt-Reaktions-Modell. Es entspricht einer Erfahrungstatsache, dass sich marketingrelevante Tatbestände auf der Zeitachse verändern. Man spricht daher auch von einem Lebenszyklus, der sich auf Produkte, Technologien oder Märkte beziehen kann. Dieser Lebens­zyklus vollzieht sich idealtypisch in Form einer Glockenkurve, zunächst mit progressiven Zuwächsen auf niedrigem absoluten Niveau, dann rückläufigen Zuwächsen auf höherem absoluten Niveau, dann niedrigen Abwächsen auf hohem absoluten Niveau und schließlich hohen Abwächsen auf niedrigem absoluten Niveau. Entsprechend ergeben sich die Innovations-, die Penetration-, die Saturations- und die Degenerationsphasen. Die Lebenszyklus-Analyse dient der Bestimmung der aktuellen Position eines Anbieters/Angebots. Dies ist deshalb von Bedeutung, weil sich die Vermarktungsbedingungen je nach Position erheblich verändern: • In der Innovationsphase (Launch) ist das Marktwachstum sehr hoch, wenngleich auf kleiner Basis. Die Preiselastizität der Nachfrage ist niedrig und bietet die Chance zu Abschöpfungspreisen. Es handelt sich meist um ein temporäres Monopol, andere Anbieter müssen den Marktzugang ggfs. erzwingen. Das Betriebsergebnis ist infolge der Vorkosten (Pre Market-Phase) noch negativ. Die Nachfrager sind Innovatoren, die aus ihrem Selbstverständnis heraus immer das Neueste haben wollen. Das Preisniveau ist hoch, um die Konsumentenrente abzuschöpfen, obwohl es zum Teil auch niedrige Probierpreise (Penetrationsstrategie) gibt. Die Distribution ist selektiv, da Produktions- und Absatzkapazitäten

154

10. Strategische Marktforschung

erst sukzessiv aufgebaut werden. Die Werbung richtet sich an Meinungsbildner über Special Interest-Medien und ggfs. den Handel zur Listungs- und Platzierungsunterstützung. Insgesamt werden die absatzpolitischen Aktivitäten hoch angesetzt. Der Markt ist bei Erfolg durch Übernachfrage gekennzeichnet, und es sind hohe Produktionskosten bei niedrigerem Standardisierungsgrad gegeben. Produkte werden erst noch in die Großserienreife überführt (Produktverbesserung). Es besteht ein hohes Innovationsrisiko. Die Strategie ist auf Marktanteilswachstum gerichtet. • In der Penetrationsphase erfolgt eine bessere Marktdurchdringung. Die Wachstumsrate des Gesamtmarkts ist hoch, verläuft jedoch bald degressiv. Der Break even-Punkt wird erreicht. Die Gewinne steigen stark an, doch zugleich steigen auch die Preiselastizität der Nachfrage und die Zahl der Konkurrenten. Dennoch wird erstmalig ein positiver Cash-flow erreichbar. Der Wettbewerb ist noch nicht intensiv. Als Käufergruppen kommen die Frühadopter in Betracht. Ziel der am Markt vertretenen Unternehmen muss eine bessere Marktdurchdringung oder Marktausweitung sein. Das Preisniveau ist hoch, da ausreichend Nachfrage vorhanden ist. Die Distribution wird im Zuge des Produkterfolgs ausgeweitet. Die Kommunikation weist hohe Werbeanstrengungen aus. Durch Pull-Maßnahmen wird Nachfrage angezogen, durch Push-Maßnahmen gleichzeitig Ware in den Absatzkanal gedrückt. Ziel ist es, ein Markenbewusstsein aufzubauen, um sich gegen spätere Mitbewerber zu profilieren. Die Kapazitäten werden infolge starker Nachfrage überbelastet. Es entstehen hohe Produktionskosten (z. B. durch Überstunden). Das Qualitätsniveau der Produkte ist latent gefährdet. • In der Saturationsphase normalisiert sich die Marktwachstumsrate und stag­ niert  schließlich, die Gewinne erreichen ihr Maximum und verfallen danach infolge hoher Nachfrageelastizität und Wettbewerbsintensität, der Mittelrückfluss erreicht sein Maximum. Es herrscht starker Verdrängungswettbewerb. Als Käufer sind die frühe bzw. späte Mehrheit zu bezeichnen. Ziel ist die Durchsetzung gegenüber dem Mitbewerb zur Marktanteilserhaltung. Das Preisniveau sinkt. Es sind zunehmend Zugeständnisse an Abnehmer erforderlich, da Hersteller auf einen konstanten Distributionsgrad angewiesen sind. Die Werbeaufwendungen steigen, die Werbeaussagen sind implizit auf Diskriminierung des Mit­bewerbs gerichtet. Hinzu kommen häufige Aktionen. Die absatzpolitischen Aktivitäten verstärken sich. Es herrschen Massenproduktion und -vertrieb vor, und die Standardisierung der Produkte ist hoch. Es kommt zu Preiskämpfen. Hohe Werbekosten werden in die Induzierung von Wiederholungskäufen und Marktsegmentierung gesteckt. Dies erfordert Produktdifferenzierung und hohen Distributionsaufwand. Es kommt zu Prozessinnovationen. Angesichts rückläufiger Margen/Gewinne werden Wettbewerbsvorteile aktiviert. Importkonkurrenz aus Billiglohnländern verschärft die Situation. Der Gewinnsaldo reagiert mit Time lag auf die Umsatzentwicklung, weil zunächst die zu Beginn der Marktpräsenz angefallenen Anlaufverluste zu kompensieren sind und im Laufe

10.1 Deskriptive Tools 

155

der Zeit ausgabenwirksame Kostenpositionen wegfallen. Der anfänglich negative Cash-flow resultiert in der Praxis aus der dringlichen Notwendigkeit, Betriebskapazitäten aufzubauen und mehr oder minder hohe Investitionsbeträge dafür bereitzustellen. Cash-flow-Überschüsse in der Saturationsphase ergeben sich aus der Nutzung bereits abgeschriebener Produktionsanlagen, für die nurmehr Instandhaltung betrieben zu werden braucht, während gleichzeitig beim zwischenzeitlich erreichten, abgesenkten Kostenniveau auskömmliche Bruttospannen verbleiben. • In der Degenerationsphase brechen Umsatz und Gewinn ein. Verluste laufen auf, der Cash-flow sinkt schnell ab und Konkurrenten scheiden vom Markt aus. Der Markt ist durch Verdrängungswettbewerb gekennzeichnet. Als Käufer kommen Spätadopter bzw. Nachzügler zum Zuge. Unternehmen bereiten den Produktrückzug im Anschluss an das Ausmelken ihrer Produkte (Milking Policy) vor. Das Preisniveau ist eher niedrig. Gleichzeitig sinkt die Distribution, da Handelsgeschäfte das Produkt zunehmend auslisten bzw. austauschen. Aus Kostengründen wird die Werbung reduziert. Die absatzpolitischen Aktivitäten sind als niedrig einzuordnen. Es herrschen Überkapazitäten und branchenweiter Umsatzrückgang trotz Massenproduktion und -vertrieb vor. Es kommt zu Preisverfall, worunter die Markentreue leidet. Statt technischen Fortschritts dominiert Kostenkontrolle. Es kommt zum Marktaustritt von Wettbewerbern, die sich bereits auf die Entwicklung neuer Produkte konzentrieren. Als Ziel gilt allenfalls Marktbeherrschung. Diesen negativen Konsequenzen kann versucht werden, durch mehrere Aktivitäten entgegen zu wirken: –– verzögerter Abfall der Lebenszykluskurve durch unternehmensindividuelle Maßnahmen der laufenden Angebotsaktualisierung zur kontinuierlichen Produktpflege (Facelift), –– höheres Niveau der Lebenszykluskurve durch unternehmensindividuelle Maßnahmen zur produktlichen Anhebung in Leistung beziehungsweise Nutzen, dazu gehören Produktaufwertungen, welche dem Markt immer wieder verhaltene Wachstumsschübe geben (Leveraging). –– Revitalisierung des Produkts ohne Neupositionierung, dies erfolgt unternehmensindividuell durch Line Extensions, also Ausbau der Programmtiefe, und Flankers, also internen Transfer der Marke aus einem in einen verwandten anderen eigenen Produktbereich. Dabei stellt sich praktisch das Problem, dass die Lebenszyklen infolge technischen Fortschritts immer rascher aufeinander abfolgen, sodass immer weniger Zeit bleibt, die immer erheblicheren, vorinvestierten Mittel zurück zu verdienen. Diese Verkürzung der At Market-Phase bei gleichzeitiger Verlängerung der Pre Market-­ Phase nennt man Zeitfalle. Wege, dieser Zeitfalle zu entgehen, sind z. B. die Verlängerung der At Market-Phase durch Relaunch (Produktvariation), die Verkürzung

156

10. Strategische Marktforschung

der Pre Market-Phase durch Simultaneous Engineering oder das Überspringen einer Vermarktungsphase (Leapfrogging). Problematisch ist in der konkreten Situation die Bestimmung der Position im Lebenszyklus, denn dies ist valide erst im Nachhinein möglich. So gibt es immer wieder „Sonderkonjunkturen“ (z. B. Glühlampen, Schallplatten), die den Verlauf unerwar­tet verändern und gewählte Maßnahmen damit als unzweckmäßig erscheinen lassen.

10.1.2 STEPP-Analyse und Umfeld-Analyse STEPP steht als Akronym für die Elemente: • Sozio-kulturell, wie etwa Geburtenrate, Bevölkerungsstruktur, Arbeitsmentalität, Freizeitverhalten, Sparneigung, Umweltbewusstsein etc., • technologisch, wie Produktionstechnologie, Produkt- und Verfahrensinnovation, Substitutionsverfahren, Recycling-Technologie etc., • erwerbswirtschaftlich, wie Entwicklung des Volkseinkommens, Höhe des Realzinssatzes, Konjunkturphase, Investitionsneigung etc., • politisch-rechtlich, wie Gewerkschaftseinfluss, Sozialgesetzgebung, parteipolitische Entwicklungen, Investitionsanreize, tarifäre und nicht-tarifäre Handelshemmnisse etc., • physisch, wie Verfügbarkeit von Energien und Rohstoffen, Umweltbelastung, klimatische Faktoren, Infrastruktur etc. Durch Erfassung dieser Elemente wird es möglich, einen ersten, freilich noch groben Eindruck über die Marktsituation zu erhalten. Die STEPP-Analyse kann zur PEST-Analyse verkürzt bzw. zur PESTEL-Analyse verlängert werden. Bei der PEST-Analyse werden ökologische Faktoren als in­ härenter Bestandteil der anderen Faktoren angesehen, sodass auf eine getrennte Erfassung verzichtet werden kann, bei der PESTEL-Analyse (auch PESTLE) werden politische und rechtliche Faktoren getrennt betrachtet, weil diese als besonders bedeutsam für den Informationsstand angesehen werden. Die Umfeld-Analyse schlägt die gleiche Richtung wie die STEPP-Analyse ein, ist jedoch enger betriebswirtschaftlich (E = economical) fokussiert. Sie beinhaltet die Auswertung folgender Themenbereiche: • Markt, d. h. Marktabgrenzung, Marktcharakterisierung in Bezug auf Entwicklungen, Eigenheiten, Schwerpunkte, Segmente, Einflussfaktoren wie Konjunktur- oder Saisonzyklen, aktuelles Marktvolumen, Marktpotenzial, Angebotsbreite und -tiefe am Markt, Trends, Innovationen etc.,

157

10.1 Deskriptive Tools 

• Wettbewerb, d. h. Marktanteile aktuell und im Zeitablauf, Marktanteile nach Menge und Wert, Anzahl der Mitbewerber und deren Gewichtung, Marketingeinstellung und Profilierung der Mitbewerber, Imagedimensionen und Kompetenzen, Marketing-Mix-Einsatz, Markenpolitik, Wettbewerbsbeschränkungen, Außenwirtschaftsbeitrag etc., • Absatzkanal, d. h. Anzahl und Merkmale der Absatzmittler, Autonomie der Handelsstufe, Betriebsformen des Handels, Distributionsdichte, regionale Verteilung des Absatzes, Regalplatzierung etc., • Endabnehmer, d. h. Angebotskenntnis und -einstellung, Informations- und Entscheidungsverhalten, Qualitätserwartung und -bedarf, Markenakzeptanz und -treue, Käufer- und Verwenderschaftsstrukturen, Soziodemographie, Entscheidungskriterien, Lifestyle-Merkmale etc., • eigenes Angebot, d. h. Physis nach Eigenschaften und Anwendungen, Programmverbund, Ausstattung/Packung, komparative Produktbeurteilung, Lebenszyklusstadium, Preis-Leistungs-Relation, Kommunikation etc., • relevante Randbedingungen, z. B. Marktforschungsergebnisse, unternehmenspolitische Vorgaben, rechtliche Restriktionen, Timing, Unternehmensziele etc.

10.1.3 Branchenstruktur-Analyse substitutive Konkurrenten

direkte Abnehmer Lieferanten

Unternehmen indirekte Abnehmer Aktuelle Konkurrenten

substitutive Konkurrenten

Abbildung 48: Branchenstruktur-Analyse

158

10. Strategische Marktforschung

Die Branchenstruktur-Analyse (nach Porter) betrachtet im Einzelnen fünf Marktgrößen: • Lieferanten, Abnehmer, aktuelle Konkurrenten, substitutive Konkurrenten und potenzielle Konkurrenten (siehe Abbildung 48). Dabei werden vermachtete Märkte vorausgesetzt und unterstellt, dass kein Beteiligter zögert, einen Machtsaldo zu eigenen Gunsten auch für sich auszunutzen (opportunistisches Verhalten). Daher ist es unerlässlich, die eigene Machtposition relativ zu den fünf anderen Marktkräften analytisch zu bestimmen und dies bei der Strategie zu berücksichtigen. Die Lieferantenmacht ist hoch, wenn • der Konzentrationsgrad in der Lieferantenbranche hoch ist, • die technische Bedeutung des bezogenen Produkts für das eigene Unternehmen hoch ist, • der Wertschöpfungsanteil der Lieferbranche am eigenen Endprodukt hoch ist, • die Umstellungskosten für Abnehmer bei einem Lieferantenwechsel hoch sind, • eine Gefahr der Vorwärtsintegration der Lieferanten auf den eigenen Markt besteht, • die Auftragsvolumenbedeutung des eigenen Unternehmens für Lieferanten gering ist, • der Differenzierungsgrad des Lieferangebots hoch ist. Die Abnehmermacht ist hoch, wenn • ein Abnehmer hohes Absatzvolumen im eigenen Unternehmen (Key Account) auf sich vereint, • die Differenzierung der eigenen Lieferprodukte gering ausgeprägt ist, • die Kosten eines Lieferantenwechsels für den Abnehmer niedrig ausfallen, • die Ertragslage in der Abnehmerbranche gut und in der eigenen Branche schlecht ist, • die Markttransparenz über die Lieferantenbranche aus Sicht der Abnehmer hoch ist, • die Möglichkeit zur Eigenfertigung durch den Abnehmer besteht, • die technische Bedeutung des vom eigenen Unternehmen bezogenen Produkts gering ist, • die Preisempfindlichkeit der Abnehmer hoch ist.

10.1 Deskriptive Tools 

159

Die Macht aktueller Konkurrenten ist hoch, wenn • nach Ansicht der Abnehmer nur geringe Unterschiede zwischen den Angeboten am Markt bestehen, • der Kapazitätsauslastungsgrad gering ist und hohe Leerkosten drohen, • zahlreiche, annähernd gleich ausgestattete Mitbewerber vorhanden sind, • hohe Marktaustrittsbarrieren für die eigene Branche gegeben sind, • eine hohe Markttransparenz in der eigenen Branche gegeben ist, • das Branchenwachstum niedrig oder gar rückläufig ist, • die Umstellungskosten zwischen konkurrierenden Angeboten für Abnehmer niedrig sind, • der Konzentrationsgrad in der Branche hoch bzw. ungleichmäßig verteilt ist. Die Macht substitutiver Konkurrenten ist hoch, wenn • die Produkte der Branche relativ teuer in Relation zum Budget/zur Kaufkraft der Nachfrager sind, • Einkommen und Budgets der Abnehmer stagnieren, • ein geringer Grad an Kundenbindung (Produktloyalität/Markentreue)  bei Abnehmern gegeben ist, • der Produktlebenszyklus zeitlich bereits weit fortgeschritten ist, • die Umstellungskosten vom bestehenden auf ein neues Produkt für Abnehmer niedrig sind. Die Macht potenzieller Konkurrenten ist hoch, wenn • das Marktwachstum der Branche hoch und die Marktattraktivität damit groß ist, • die Austrittsbarrieren aus dem Markt niedrig ausfallen, • die Kapitalkraft der aktuellen Anbieter am Markt vergleichsweise niedrig ausfällt, • die Profitabilität der Branche hoch ist, • der Grad an Produktdifferenzierung in der Branche wenig ausgeprägt ist, • die Marktstruktur eher durch klein- und mittelständische Anbieter charakterisiert ist, • die Markteintrittsbarrieren niedrig sind (z. B. nur wenig Kapitaleinsatz erfordern), • die Umstellungskosten für Abnehmer bei Lieferantenwechsel niedrig bleiben.

160

10. Strategische Marktforschung

10.1.4 Ressourcen-Analyse und Potenzial-Analyse Bei der Ressourcen-Analyse geht es um die Beurteilung der maximal nutz­ baren Leistungsfähigkeiten des eigenen Unternehmens in Relation zu den wichtigsten Konkurrenten in Bezug auf konkrete betriebswirtschaftliche Kriterien. Ihr kommt damit die Funktion eines Benchmarking zu. Dazu ist im Einzelnen folgendermaßen vorzugehen. Die jeweils für die gegebene Forschungsfrage beurteilungsrelevanten Kriterien werden ausgewählt (z. B. güter-, geld-, informationswirtschaftliche Positionen). Zugleich wird ein Bewertungssystem als Skalierung festgelegt, die Skalenwerte werden meist grafisch untereinander abgetragen. Die für die Beurteilung heranzuziehenden Konkurrenten (mind. der Marktführer) werden bestimmt. Für jedes Kriterium werden die eigenen Ressourcen und die der Konkurrenten ermittelt und bewertet. Dies kann auf Basis objektiver Daten oder subjektiver Schätzungen erfolgen. Die jeweiligen Positionen für das eigene Unternehmen und jeden Konkurrenten werden für jedes Kriterium auf der Skalierung abgetragen. Werden die Positionen zu einer Profillinie verbunden, gibt der Abstand der Linien über das Ausmaß des Ressourcenvorsprungs/-rückstands beim jeweiligen Kriterium Auskunft. Kriterien, bei denen das eigene Unternehmen ressourcenüberlegen ist, erlauben ein offensives Herangehen, und Kriterien, bei denen der/ die Konkurrenten ressourcenüberlegen ist/sind, legen ein defensives Herangehen nahe. Insofern ergibt sich daraus eine erste strategische Orientierung. Bei der Potenzial-Analyse geht es um die Beurteilung nur der im eigenen Unter­ nehmen bereits genutzten relativ zu den insgesamt dort nutzbaren Leistungsfähig­ keiten (Ressourcenausschöpfung). Dazu geht man im Einzelnen folgendermaßen vor. Die jeweils beurteilungsrelevanten Kriterien werden ausgewählt. Gleichzeitig wird ein Bewertungssystem als Skalierung dafür festgelegt. Die Skalen können grafisch untereinander gestellt werden. Für jedes Kriterium werden die bereits genutzten Leistungen des Unternehmens ermittelt und bewertet. Dies kann anhand objektiver Daten oder subjektiver Schätzungen, möglichst auf Basis verschiedener Erhebungseinheiten, erfolgen. Für jedes Kriterium werden weiterhin die maximal nutzbaren Leistungsfähigkeiten des Unternehmens ausgewiesen (diese können aus der Ressourcen-Analyse übernommen werden). Beide Werte, genutzte Leistungen und nutzbare Leistungsfähigkeiten, werden in der Skalierung abgetragen, sie können durch zwei getrennte Profillinien verbunden werden. Der Abstand der Linien gibt über das Ausmaß der bereits erreichten Ausschöpfung gegebener Leistungsfähigkeiten bei jedem Kriterium Auskunft. Kriterien, bei denen im gegebenen Zustand das Potenzial noch nicht voll ausgeschöpft ist, bieten Entwicklungschancen, bei Kriterien, die bereits weitgehend ausgeschöpft sind, ist dies nicht der Fall. Insofern ergeben sich Hinweise auf nutzbare Hebelwirkungen.

10.2 Analytische Tools 

161

10.1.5 Stärken-Schwächen-Analyse Die Stärken-Schwächen-Analyse betrachtet die tatsächliche Situation des eigenen Unternehmens in Relation zu Konkurrenten anhand eines Kriterienkatalogs. Die Vorgehensweise dazu ist im Einzelnen wie folgt. Die zur Beurteilung der eigenen Situation in Anbetracht der Forschungsfrage jeweils relevanten Kriterien werden ausgewählt. Der/die wichtigsten Konkurrenzanbieter werden ausgewählt. Es wird ein Bewertungssystem anhand einer Skalierung festgelegt. Für jedes Kriterium werden die Beurteilungen des eigenen Unternehmens und des/der Konkurrenten bestimmt. Dies erfolgt anhand objektiver Daten oder auf Basis belastbarer Expertenurteile. Die Beurteilungen des eigenen Unternehmens und des/der Konkurrenten werden auf der Skalierung abgetragen. Daraus ergeben sich Kriterien, in denen das eigene Unternehmen besser beurteilt wird als der/die Konkurrenten. Diese sind eine Stärke. Und es ergeben sich Kriterien, in denen der/die Konkurrenten besser beurteilt wird/werden als das eigene Unternehmen. Diese sind eine Schwäche. Verbindet man die Beurteilungen je Kriterium für das eigene Unternehmen und den/die Konkurrenten, ergeben sich Stärken-Schwächen-Profile. Daraus kann man komparative Stärken und Schwächen in Bezug auf die gewählten Kriterien ablesen. Hinsichtlich der Konsequenzen kann generell gesagt werden, dass man Stärken stärken soll und Schwächen durchaus ignorieren kann, Dies widerspricht dem schon in der Schule anerzogenen Reflex, an seinen Schwächen zu arbeiten. Aber die Hebelwirkung dort ist zu gering, als dass signifikante Verbesserungen erreicht werden können. Hingegen ist die Hebelwirkung bei den Stärken mit gleichem Ressourceneinsatz weitaus größer. Dies gilt nur dann nicht, wenn die Schwächen existenzbedrohend sind. Ansonsten überstrahlen die Stärken die Schwächen in der öffentlichen Wahrnehmung.

10.2 Analytische Tools 10.2.1 SWOT-Analyse und TOWS-Matrix SWOT ist ein Akronym aus den Begriffen Strenghts, Weaknesses, Opportunities, Threats, mithin eine kombinierte Stärken-Schwächen- und Chancen-RisikenAnalyse. Die beiden eindimensionalen Analysen werden zu einer Matrix zusammengefasst, wobei das Besondere daran ist, dass darüber hinaus noch strategische Empfehlungen gegeben werden.

162

10. Strategische Marktforschung

Hinsichtlich der Stärken und Schwächen kann auf die Erkenntnisse der StärkenSchwächen-Analyse zurückgegriffen werden (s. o.). Die Sichtweise ist dabei: eigenes Unternehmen gegen stärksten Wettbewerb. Die Chancen-Risiken-Analyse betrachtet demgegenüber die Entwicklung der relevanten Umfeldfaktoren in Bezug auf das eigene Unternehmen anhand eines Kriterienkatalogs. Die Vorgehensweise dazu ist wie folgt. Es werden die für das Unternehmen relevanten Umfeldfaktoren gesichtet und selektiert. Dabei handelt es sich etwa um Markteintritt von Konkurrenten, Marktzinsniveau, Verfügbarkeit von Ressourcen, Kaufkrafttrend der Nachfrage, politischer Kurs etc. Für diese ergeben sich Entwicklungen, die positiv für das eigene Unternehmen zu werden versprechen, dies sind die Chancen. Und es ergeben sich Entwicklungen, die negativ für das eigene Unternehmen zu werden drohen, dies sind die Risiken. Für jeden relevanten Faktor wird die voraussichtliche zukünftige Entwicklung prognostiziert und mit einer relativen Eintrittswahrscheinlichkeit bewertet (Erwartungswert). Aus diesen Entwicklungen wird der Grad der Auswirkungen für das Marktumfeld abgeleitet, meist anhand einer Punktbewertung (Scoring). Multipliziert man Eintrittswahrscheinlichkeiten und Auswirkungsgrade, ergeben sich Best Case- und Worst Case-Szenarios, die zugrunde gelegt werden können. Als Mittelwert gilt ein Real Case-Szenario. Die weitere Vorgehensweise kann in zwei Alternativen unterteilt werden. Erstens die einfache Stärken-Schwächen-Chancen-Risiken-Matrix (SWOT). Dabei wird eine Vierfelder-Matrix erstellt. In die oberen beiden Zellen werden die festgestellten Schwächen bzw. die Stärken abgetragen, in die unteren beiden die festgestellten Risiken und Chancen. Dies verschafft einen komprimierten Überblick ­ ituation (siehe Abbildung 49). über die S

Schwächen

Chancen

Schwächen

Stärken

Aufholen

Ausbauen

Chancen

Aufgeben

Absichern

Risiken

Stärken

Risiken

Abbildung 49: SWOT-Analyse und TOWS-Matrix

Die TOWS-Matrix (Palindrom von SWOT) bietet in einer erweiterten Form bereits die Möglichkeit, über die reine Diagnose hinaus erste Empfehlungen in Richtung einer später einzuschlagenden Strategie für eine SGE zu geben. Dazu wird die Vierfelder-Matrix um je zwei Kopfzeilen- und Kopfspaltenfelder ergänzt. In

10.2 Analytische Tools 

der Kopfzeile befinden sich die gefundenen Schwächen und Stärken, in der Kopfspalte die gefundenen Chancen und Risiken. In der Matrix ergeben sich dann aus den Zuordnungen der Felder zueinander folgende Strategieempfehlungen: • Treffen Angebotsstärken und Umfeldchancen zusammen (SO), heißt es, die eigene Position auszubauen, da das Angebot konkurrenzüberlegen ist und vom Markt „Rückenwind“ erhält. • Treffen Angebotsschwächen und Umfeldrisiken zusammen (WT), heißt es, die Marktposition unbedingt abzubauen, da diese weder konkurrenzüberlegen noch zukunftsträchtig ist, dafür aber Ressourcen bindet. • Treffen Angebotsstärken und Umfeldrisiken zusammen (ST), heißt es, die eigene Position abzusichern, um sich gegen Rückschläge zu schützen, welche die komparativen Vorteile konterkarieren. • Treffen Angebotsschwächen und Umfeldchancen zusammen (WO), heißt es ausnahmsweise, die komparativen Rückstände aufzuholen, da ansonsten die Chancen des Marktes nicht genutzt werden können.

10.2.2 Portfolio-Analysen Allerdings ist die TOWS-Matrix noch viel zu unscharf und wenig präzise. Daher entstand der Wunsch nach einer Operationalisierung, d. h. Messbarmachung, der qualitativen Größen der TOWS-Matrix. Daraus entstanden Portfolio-Analysen. Die Stärken-Schwächen-Dimension (horizontal) wird dabei durch den Wert „Relativer Marktanteil“ bzw. „Wettbewerbsstärke“ operationalisiert, die Chancen­Risiken-Dimension (vertikal) durch den Wert „Marktwachstumsrate“ bzw. „Markt­ attraktivität“ (siehe Abbildung 50). Der Relative Marktanteil ergibt sich als Quotient aus eigenem Marktanteil und Marktanteil des größten Mitbewerbers, die Wettbewerbsstärke auf Basis einer multikriteriellen Analyse möglicher Wettbewerbsvorteile. Die Marktwachstumsrate ergibt sich als Durchschnitt der Werte der letzten drei und der Schätzung für die nächsten drei Jahre, die Marktattraktivität als multikriterielle Analyse der Branchenbedingungen. Der Relative Marktanteil wird auf Basis der Position auf der (dynamischen) Kostendegressionskurve operationalisiert, die Wettbewerbsstärke durch ein Scoring der Kriterien, die Marktwachstumsrate wird durch die Position auf der (Markt-)Lebenszykluskurve operationalisiert, die Marktattraktivität wiederum durch ein Scoring der Kriterien. Damit liegen nunmehr metrisierbare Werte vor, die eine eindeutige Zuordnung der Position der Strategischen Geschäftseinheiten zu Matrixfeldern (Question Marks, Stars, Cash Cows, Poor Dogs) bzw. Matrixzonen (Grüne Zone, Gelbe Zone, Rote Zone) erlauben. Daran wiederum sind klare strategische Empfehlungen geknüpft.

163

164

10. Strategische Marktforschung

Abbildung 50: BCG-Matrix (Quelle: Internet)

Im Ergebnis kommt es zu einer aussagefähigen Verdichtung mit Heraus­ arbeitung lösungsrelevanter Tatbestände. Zweckmäßig ist es, diese Informationen in Form eines Factbook zu dokumentieren. Es empfiehlt sich, dieses Factbook händisch zu führen und nicht auszuleihen. Dies ist ausgesprochen hilfreich bei Ad-hoc-­Assignments und vermeidet dann große Hektik und Stress, weil alle relevanten Ausgangsdaten griffbereit sind. Von Zeit zu Zeit werden diese Daten hinsichtlich der Notwendigkeit zur Überprüfung der Strategie gesichtet und aktualisiert.

11. Häufige Marktforschungsanwendungen im Marketing-Instrumentarium 11.1 Produkttests Ein Produkttest soll Prognosen über die Wirkung ausgewählter Marketing-Instru­ mente oder ganzer Marketing-Konzeptionen ermöglichen. Anforderungen sind dabei generell seine Realitätsnähe, Geheimhaltung, Zeitlimitierung, Kosteneffizienz und Verlässlichkeit. Hinsichtlich der Anlage können Markttestverfahren nach traditionellem regionalen Testmarkt und modernen Testmarktersatzverfahren (Testmarktsimulation, Storetest bzw. Minimarkttest, Mikromarkttest) unterschieden werden (siehe Abbildung 51).

Formen von Produkttests

Regionaler Testmarkt

Testmarktersatzverfahren

nur Angebot Angebot und Nachfrage

Punktmarkt

Raummarkt

Testmarkt-Simulation

Storetest

elektr. Mikro-Markttest Mini-Markttest

Abbildung 51: Formen von Produkttests

11.1.1 Regionaler Testmarkt Der Regionale Testmarkt beinhaltet den probeweisen Verkauf eines Produkts auf einem räumlich abgegrenzten Markt mit dem Ziel der Gewinnung von Erkenntnissen über die mutmaßliche Wirksamkeit von Marketingmaßnahmen vor deren großflächiger Einführung. Er wird vor allem für neue oder veränderte Pro-

166

11. Häufige Marktforschungsanwendungen im Marketing-Instrumentarium

dukte eingesetzt. Als Voraussetzungen für jegliche Art von Testmarkt ist die Einhaltung der Isomorphiebedingung zum Gesamtmarkt zu beachten. Sie besagt: • identische Nachfragesituation in Bezug auf Soziodemographie und Bedarf zwischen Testmarkt und späterem Zielgesamtmarkt, • identische Handelssituation dort in Bezug auf Struktur und Angebotssortiment, • identische Wettbewerbssituation dort in Bezug auf Art und Größe der Mitbewerber, • identische Medienstruktur dort in Bezug auf Verfügbarkeit und Nutzung von Werbeträgern, • saubere Abgrenzbarkeit des Testmarkts gegenüber dem Restmarktgebiet. Die Anzahl geeigneter Testmarktgebiete ist wegen dieser kumulativen Voraussetzungen und vor allem der Ausstattung mit geeigneten Forschungs-Einrichtungen gering. Die relativ große Flächenabdeckung bedingt zudem hohe Kosten für Mediaeinsatz, Produktvorrat und Logistik. Es ist nur eine mangelnde Geheimhaltung gegenüber Mitbewerbern gegeben, mit der Gefahr des vorzeitigen Bekanntwerdens von Produktneuerungen und gezielter Störaktionen. Problematisch ist auch die mangelnde Isolation des Testmarkts, z. B. durch Pendler und Streuwerbung. Zudem gibt es keine Möglichkeit der Einrichtung eines Kontrollmarkts. Testmärkte können bei häufigem Einsatz übertestet werden. Oft bestehen regionale Abweichungen im Kaufverhalten zum späteren Distributionsgebiet. Der Einsatz der Marketingmaßnahmen ist nicht zielgenau zu steuern. Bei Produkten mit langen Kaufintervallen ist ein Testmarkt kaum sinnvoll, da die Gefahr besteht, dass der Wettbewerb „pre-empted“ und ein Entwicklungsvorsprung somit vergeben wird. Insofern handelt es sich nicht um echte Experimente, sondern um QuasiExperimente, zumeist in Form von Zeitreihendesigns. Daher liegt es nahe, an Testmarktersatzverfahren zu denken (s. u.). Die Hochrechnung der Testmarktergebnisse auf den intendierten Gesamtmarkt kann durch verschiedene Methoden erfolgen: • Bei der Bevölkerungsmethode wird von der Relation der Bevölkerung im Testmarkt zur Bevölkerung im Gesamtmarkt hochgerechnet, rechnerisch also Absatzmenge des Testprodukts innerhalb des Testmarkts dividiert durch Zahl der Haushalte im Testgebiet mal Zahl der Haushalte im Gesamtmarkt. • Bei der Kaufkraftindexmethode wird von der Relation von Einkommen im Testmarkt zum Einkommen im Gesamtmarkt hochgerechnet, rechnerisch also verfügbares Einkommen im Gesamtmarkt dividiert durch verfügbares Einkommen innerhalb des Testmarkts mal Absatzmenge des Testprodukts innerhalb des Testmarkts. • Bei der Absatzverhältnismethode wird von der Relation der Absatzmenge eines Konkurrenzprodukts zum eigenen Produkt im Testmarkt zu dessen mutmaßlichem Absatz im Gesamtmarkt hochgerechnet, rechnerisch also Absatzmenge

11.1 Produkttests

167

eines Vergleichsprodukts im Gesamtmarkt dividiert durch Absatzmenge eines Vergleichsprodukts innerhalb des Testmarkts mal Absatzmenge des Testprodukts innerhalb des Testmarkts. • Bei der Marktanteilsmethode wird von der Relation der Absatzmenge des eigenen Produkts an der Produktkategorie im Testmarkt zum Absatz der Produktkategorie im Gesamtmarkt hochgerechnet, rechnerisch also Absatzmenge des Testprodukts innerhalb des Testmarkts dividiert durch Absatzmenge der zugehörigen Warengruppe innerhalb des Testmarkts mal Absatzmenge der Warengruppe im Gesamtmarkt. • Bei der Wiederkäufermethode wird die Relation der Haushalte im Test- und Gesamtmarkt mit der Absatzmenge und der Zahl der Haushalte hochgerechnet, rechnerisch also Zahl der Haushalte im Testmarkt, die das Testprodukt wiederkaufen, dividiert durch Zahl der Haushalte im Testgebiet mal durchschnittliche Absatzmenge des Testprodukts pro Wiederkäuferhaushalt mal Zahl der Haushalte im Gesamtmarkt.

11.1.2 Testmarktersatzverfahren 11.1.2.1 Testmarktsimulation Die Testmarktsimulation ist eine wirklichkeitsgetreue Nachbildung der Marktrealität in Modellform und dessen Durchspielen in realitätsnaher Weise. Es handelt sich also um einen Studiotest, in dem der Prozess der Wahrnehmung und des Kaufund Wiederkaufverhaltens für ein Produkt unter Ausschluss der Öffentlichkeit nachempfunden wird. Er wird vor allem im Konsumgüterbereich zum Testen neuer Verbrauchsgüter und zur Diagnose und Verbesserung bestehender Produkte eingesetzt. Innerhalb der Entwicklung neuer Kampagnen ist die Testmarktsimulation für gewöhnlich die letzte Stufe zur „Go“/„Drop“-Entscheidung. Bei „On“-Entscheidung wird eine Modifikation und ein erneuter Test für erforderlich gehalten. Die Simulation umfasst sowohl die Datenerhebung im Teststudio als auch computergestützte Methoden und Modelle für deren Analyse. Dabei geht es vor allem um die Simulation des Adoptionsprozesses neuer Produkte über deren Wahrnehmung, Erstkauf, Einstellungsbildung und Wiederkauf bzw. Verweigerung sowie den Beitrag, den preis- und kommunikationspolitische Marketingmaßnahmen dazu leisten können. Es gibt einige standardisierte Verfahren der Testmarktsimulation, die einerseits einen bewährten Ablauf mit kostengünstigen Erhebungsbedingungen ermöglichen, andererseits aber auch die Relativierung der Ergebnisse eines Tests durch Vergleich mit unter denselben Bedingungen zustande gekommenen Ergebnissen anderer Tests (Benchmarking). Die Standardisierung bezieht sich vor allem auf den Phasenablauf aus Werbesimulation, Kaufsimulation, Home Use-Test und Studio-Nachbefragung (z. B. TESI/GfK).

168

11. Häufige Marktforschungsanwendungen im Marketing-Instrumentarium

Vorteile der Testmarktsimulation bestehen generell aus folgenden Aspekten: • Die Laufzeit des Tests ist recht kurz zu halten, da kein Distributionsaufbau im Handel erforderlich und damit eine schnelle Datenverfügbarkeit (meist innerhalb von ca. zehn Wochen) möglich ist. Der Testablauf lässt sich flexibel gestalten, damit können Ergebnisse durchaus auch international verglichen werden. Die Kosten des Tests sind vergleichsweise (gemessen an den vermeidbaren Werbeausgaben) niedrig. Konkurrenzreaktionen können durch Geheimhaltung der Untersuchung weitestgehend ausgeschlossen werden. Die Beherrschbarkeit der ansonsten störanfälligen Testdurchführung ist sehr hoch. Außerdem können Konkurrenzprodukte sofort nach deren Markteinführung auf ihr Gefahrenpotenzial für das eigene Angebot hin getestet werden. Der Test ist unabhängig von der Kooperationsbereitschaft des Handels. Zudem ist eine individuelle Reizpräsentation möglich. Es bedarf keiner aufwändigen Vorserien-Produktion zahlreicher Testprodukte, vielmehr reichen teilweise Dummies aus. Von Nachteil sind allerdings auch einige ernstzunehmende Aspekte: • So sind nicht alle Marketing-Mix-Instrumente testbar (z. B. Kommunikationswirkung wird mit 100 % Reichweite unterstellt, dafür aber nur einmaliger Kontakt, Distribution wird mit 100 % Ausdeckung unterstellt, was unrealistisch ist). Es besteht nur eine geringe externe Validität, da es sich um eine Laborsituation handelt und Ergebnisse mit Feldsituationen schwerlich vergleichbar sind. Außerdem sind neue Produktgruppen durch fehlenden Rückgriff auf Erfahrungswerte nur schwierig zu testen. Die Anwendung beschränkt sich realiter auf Fast Moving Consumer Goods (FMCG’s), die allerdings kommerziell ohnehin im Mittelpunkt stehen. Die Mitwirkung des Handels ist zwar nicht erforderlich, kann deshalb aber auch nicht abgetestet werden. Die Kosten sind absolut so hoch, dass sie sich für die meisten klein- und mittelständischen Anbieter verbieten. Es besteht ein erheblicher Überschuss an Kommunikationsdruck (Forced Exposure)  gegenüber der späteren Realsituation. Es handelt sich weiterhin nur um geäußerte Verhaltensabsichten bzw. simulierte Kaufentscheide, die erheblich von der späteren Realität im Markt abweichen können. Die Bestimmung des Relevant Set der Konkurrenzprodukte ist störanfällig. Und es muss von einer sehr kleinen Fallzahl, erst recht bei Teilung der Stichprobe (Matched Samples), hochgerechnet werden. Insofern sind erhebliche Unwägbarkeiten in Kauf zu nehmen. 11.1.2.2 Storetest Beim Storetest handelt es sich um den probeweisen Verkauf von neuen/veränderten Produkten unter Einsatz aller/ausgewählter Marketinginstrumente und weitgehend kontrollierten Bedingungen in einigen/wenigen (realen) Geschäften, die für den Test eigens angeworben und distribuiert werden. Dabei wird nur die Abverkaufsseite des Marktes erfasst.

11.1 Produkttests

169

Marktforschungsinstitute bieten Storetests mit Scanning-Unterstützung als Standarderhebungsverfahren an. Die Anzahl der Geschäfte wird meist zwischen 30 und 50 justiert. Der Erfolg des testweisen Verkaufs von Produkten in ausgewählten Geschäften wird mittels experimenteller Beobachtung kontrolliert. Elemente des Marketing-Mix können variiert und unter weitgehender Konstanthaltung aller anderen Variablen auf ihre Wirkungen hin untersucht werden. Als Testdesign kommen alle quasi-experimentellen Versuchsanordnungen in Betracht, wobei die Vergleichbarkeit der Gruppen durch das Abgleichen von Merkmalen wie Betriebsform, Geschäftsfläche, Organisationsform etc. hergestellt wird. Der Ablauf von Storetests beinhaltet meist Bevorratung von Geschäften mit dem Testprodukt, Einsatz der absatzpolitischen Instrumente, Ermittlung des Kaufumfangs etc. Häufig wird das Latin Square-Design eingesetzt (z. B. GfK Store-Test). Dabei bestehen zwei Testgruppen von Geschäften, die vergleichbar sind. In beiden wird abwechselnd ein bestehendes Sortiment und ein um das zu testende Produkt ergänztes neues Sortiment während vier Wochen Testzeit angeboten. Durch die Kombination können die Effekte zwischen den beiden Testgruppen von Geschäften und zwischen dem bestehenden und dem neuen Sortiment heraus gerechnet werden, sodass der Effekt des Produkts isoliert werden kann. Dies erlaubt die Beantwortung der Fragestellung, welchen Abverkauf das neue Produkt im Vergleich zum bestehenden Sortiment erzielt und ob sich dieser Abverkauf durch Substitution oder zusätzlich zum bisherigen Sortiment ergibt. Für Entscheidungen ist es aber nicht nur interessant zu wissen, wie sich der Abverkauf gestaltet, sondern es interessiert ebenso, in welchen Haushalten die abverkauften Produkte verbleiben. Denn der Hersteller „sieht“ ja nur seinen Abverkauf an die Handelsstufe. Schon deren Abverkauf an Endabnehmer bleibt ihm für gewöhnlich verborgen. Diese „Black Box“ wird durch den Storetest zwar punktuell gelüftet, es bleibt jedoch die Ungewissheit über den Verbleib auf der End­abnehmerstufe. Daher liegt es nahe, über Testmarktersatzverfahren nachzudenken, die auch diese Frage zu beantworten in der Lage sind, sozusagen ein „zweiseitiger Storetest“. 11.1.2.3 Mini-Markttest Eine weiter entwickelte Form sind Mini-Marktests, die neben den reinen Ab­ verkaufszahlen auch die Reaktionen der Abnehmer durch Einbeziehung von Haushaltspanels realistisch erfassen. Beim Mini-Markttest handelt es sich um einfache oder komplexe Ansätze. Sie laufen allgemein in fünf Stufen ab: • Handelsbevorratung, • Verbraucherbeeinflussung durch Reizpräsentation, variiert nach Inhalt und Umfang dabei eingesetzter Medien, • Messung der Handelssituation über ein Handelspanel mit Scanner-Erfassung,

170

11. Häufige Marktforschungsanwendungen im Marketing-Instrumentarium

• Messung der Einkaufs- und Meinungssituation über ein Käuferpanel (Haushalts-/ Verbraucher-), • Ergebnisinterpretation und Erfolgsprognose. Der bekannteste Mini-Markttest ist ERIM von GfK. Er besteht aus einer Anzahl über Deutschland verteilter Handelsoutlets, in deren Einzugsgebiet jeweils ein Haushaltspanel mit deren Stammkunden gebildet wird. Dazu werden Haushalte im räumlichen Umfeld jedes Geschäfts akquiriert, die angeben, dieses sei ihr Stammgeschäft. Diese Haushalte erhalten dann eine Identifikationskarte, die es erlaubt, dass ihre Einkäufe bei der Bon-Analyse individuell zugeordnet werden. Wichtige Daten betreffen dabei Käuferreichweite, Käuferdemographie, Wiederkaufrate und Einkaufsintensität. Auf Basis von Distributionslevels und Kontaktdichten werden dann Absatzprognosen abgegeben. Damit wird nicht nur sichtbar, wie sich Testprodukte verkaufen, sondern auch, wer sie kauft. Allerdings ergibt sich eine Verzerrung dadurch, dass nicht verhindert werden kann, dass die Panelhaushalte auch in anderen Geschäften als dem Test­geschäft ihre Einkäufe tätigen. Diese Einkäufe substituieren oder komplementieren die zu testenden Produkte unerkannt und beeinträchtigen daher die Aussagefähigkeit des Tests. Ebenso kann nicht verhindert werden, dass andere als die Panelhaushalte ihre Einkäufe im Testgeschäft tätigen, deren Daten dann für eine Analyse des Warenverbleibs auf der Endabnehmerstufe ausfallen. Vor allem aber wirken autonome Aktivitäten im Beeinflussungs-Mix bei anderen Einzelhändlern störend. Insofern wäre es ideal, wenn sichergestellt werden könnte, dass nur oder fast ausschließlich die Panelhaushalte in den Testgeschäften kaufen und die Test­ geschäfte ihre Waren nur oder fast ausschließlich an die Panelhaushalte abgeben (Single Source). Eine solche Kongruenz der Teilmengen ist jedoch real nur äußerst schwer darstellbar. Wesentliche Vorteile von Storetest und Mini-Markttest sind die Folgenden: • Es entstehen gegenüber dem Regionalen Testmarkt erheblich geringere Kosten, sodass sich der Einsatz bereits für mittelständische Anbieter und bei kleineren zu erwartenden Produktmärkten rechnet. Auch ist der Test recht realitätsnah (vollbiotisch), da er am POS stattfindet. Es handelt sich also nicht um eine der wenig zuverlässigen Studiosituationen. Das geringe Ausmaß der Testanlage macht eine Geheimhaltung wahrscheinlich und verhindert somit kontraproduktive Konkurrenzeinflüsse. Durch zahlreiche Kaufakte wird eine genügend große Fallzahl zur Auswertung erreicht. Von daher ist eine sinnvolle Hochrechnung möglich. Der geringe Zeitbedarf führt zu schnellen Rückschlüssen und Entscheidungen. Dies ist gerade bei immer hektischeren Vermark­ tungsbedingungen und der Zeit als wichtigem Wettbewerbsparameter von hoher Bedeutung.

11.1 Produkttests

171

Nachteile sind hingegen folgende: • Es besteht eine geringere externe Validität der Ergebnisse als beim Regionalen Testmarkt, da die Testbedingungen weniger gut kontrolliert und stabilisiert werden können. Die exakte Dauer des Tests ist von der Umschlaggeschwindigkeit der Produktgruppe abhängig. Es ist meist von zwei Monaten auszugehen, wobei die Testvariable wöchentlich erhoben wird. Eignung besteht praktisch nur für schnelllebige Konsumgüter (FMCG’s). Auf jeden Fall muss gewartet werden, bis sich die Wiederkaufrate stabilisiert hat. Die vorausgesetzte 100 %-Distribution lässt keine Aussagen über die spätere Handelsakzeptanz zu. Die Kosten sind zwar relativ zu anderen Markttests niedrig, absolut jedoch erheblich. Es mangelt an einer adäquaten Reizpräsentation (z. B. TV-Werbung). Neuproduktwerbung ist nur durch Instore-Werbung oder Haushaltsverteilung gegeben. Der Test kann zwar gesplittet angelegt werden (Matched Samples), wobei eine Gruppe ohne Testmaßnahmen auskommt. Allerdings bestehen keine Informationen über individuelle Kaufentscheide. Die Handelsabdeckung (Käufe außerhalb der erfassten Läden) ist mehr oder minder gering, sodass Störeinflüsse durch Käuferwanderungen oder Aktivitäten anderer Händler unkontrollierbar bleiben.

11.1.2.4 Elektronischer Mikro-Markttest Beim Elektronischen (komplexen) Mikro-Markttest handelt es sich um eine Kombination von Haushaltspanel zur Erfassung des Konsumverhaltens, Scanner­ kasse am POS zur Abverkaufskontrolle in Geschäften (über GTIN-Strichcode und Identitätskarte), örtlich gesteuertem TV- und Print-Werbeeinsatz sowie unterstützender Proben- und Handzettelverteilung in weitgehend isolierbaren Orten. Dies ist das derzeit wohl elaborierteste Verfahren der Marktforschung. Die Ergebnisse werden im Managementreport präsentiert. Derzeit gibt es in Deutschland nur einen solchen Ort, Hassloch in der Pfalz. Das Kernstück bei GfK-BehaviorScan in Haßloch ist ein repräsentatives Panel mit 3.000 Haushalten (bei ca. 22.000 Einwohnern und 10.000 Haushalten), die jeweils mit einer Identifikationskarte ausgestattet sind, die beim Einkauf an der Kasse des lokalen Handels zusammen mit den jeweiligen Einkäufen jedes Testhaushalts eingelesen wird. Parallel besteht ein Handelspanel, sodass die Abverkäufe zugeordnet werden können. Es handelt sich also um einen Single SourceAnsatz. Dies bedeutet die Messung, Integration und Interpretation aller Verkaufs-, Media- und Marketingfaktoren, die das Konsumentenverhalten beeinflussen und die daraus resultierenden Auswirkungen auf den Absatz. Wichtig ist, dass es sich bei diesen Einkäufen nicht um Meinungsäußerungen handelt, sondern um reales Kaufverhalten zur Deckung des Lebensbedarfs. Es ist eine gezielte Ansprache des einzelnen verkabelten Haushalts über TV-Werbung möglich, außerdem sind die örtlichen Tageszeitungen und Anzeigenblätter ebenso einbeziehbar wie Verkaufsförderungsaktionen. Die verkabelten Haushalte können in Experimen-

172

11. Häufige Marktforschungsanwendungen im Marketing-Instrumentarium

tal- und Kontrollgruppen gesplittet und mit nicht-verkabelten in ihrem Konsumverhalten verglichen werden. Das Marktgebiet ist gut eingegrenzt, wirtschaftlich zu be­arbeiten und in seiner Bevölkerungsstruktur hinreichend repräsentativ. Die Gründe für die Gebietswahl von Haßloch liegen in den einzigartigen Voraussetzungen dieses Testgebiets: • Durch Einbezug in das Kabelpilotprojekt EPF, Erstes Privates Fernsehen, im Großraum Ludwigshafen war schon früh eine hohe Kabeldichte vorhanden. • Es ist eine weitgehende Isolation gegenüber dem angrenzenden Wirtschaftsraum gegeben, d. h., der Bedarf wird am Ort gedeckt, es gibt kaum zufließende oder abfließende Kaufkraft. • Die Mitwirkung des Handels, insgesamt sechs Geschäfte, wird durch Kooperationsvereinbarungen sichergestellt. • Die Mitwirkung der Haushalte wird durch Freieinweisungen von Programmund Frauenzeitschriften, durch Erstattung der Kabelgebühr und durch unregelmäßige Abgabe von kleinen Geld- oder Sachpreisen motiviert. • Die Repräsentanz der Bevölkerungs-, Handels-, Konkurrenz- und Mediastruktur zum Bundesgebiet, zumindest was die alten Bundesländer anbelangt, ist hinlänglich gegeben. Der Kaufkraftindex ist genau 100 (= Durchschnitt ABLDeutschland). • Eine mehrkanalige Ansprache ist möglich. Durch einen speziellen Mediasplit sind Kabelfernsehen (ARD, ZDF, RTL, SAT 1, Pro 7) und Publikumszeitschriften (TV Hören + Sehen/Tina) gezielt auf Haushalte steuerbar. Zwar nicht steuerbar, aber einsetzbar sind die Medien Tageszeitung (Rheinpfalz), Programm-Supplement (IWZ), Plakatanschlag, Handzettelverteilung/Haushaltssampling, POS-Werbung/ Propagandisten und Anzeigenblätter. Die Elemente des Haßloch-Projekts sind im Einzelnen folgende: • Testgeschäfte mit einer Coverage von ca. 90 % (Real, 2 x Lidl, 2 x Penny, Nutzkauf, Aldi mit Einschränkung, Idea/DM Drugstore mit Einschränkung), • Scanner-Check out zum Einlesen von GTIN-(Strich-)Codes mit Zuordnung von Artikelnummern und Preisen zu eingekauften Waren, • Zuordnung entsprechender Haushaltsinformationen durch eine Identifikationskarte (GfK-Korrespondenzkarte mit Strichcode), • Anwerbung von 3.000 Testhaushalten, davon: –– 2.000 Haushalte mit GfK-Box für Targetable-TV zur haushaltsgenauen Ansteuerung mit speziellen Werbespots (Cut in-Verfahren) als Kabelhaushalte, –– 1.000 Haushalte ohne GfK-Box (mit Satellitenempfang), also ohne spezielle Ansteuerung, die jedoch durch Klassische und Nicht-klassische Medien ansprechbar sind.

173

11.2 Erstmalige Preisfindung

Durch strukturgleiches Splitting ist die Möglichkeit zum direkten Vergleich beider Gruppen gegeben (EBA oder EBA-CBA). Diese Aufteilung ist bis zu 50: 50 variierbar. Zur Ermittlung des TV-Werbedrucks sind 200 Experimentalhaushalte zusätzlich der Teleskopie angeschlossen. Dadurch sind High Spendingund Low Spending-Tests möglich. Haushaltsinformationen umfassen vor allem Käuferreichweite und -struktur, Wiederkaufrate, Einkaufsintensität und -menge. • Modernes Handelspanel mit Inventurcharakter, d. h. Saldo aus Warenanfangsbestand und Zugängen an Waren einerseits und Warenendbestand andererseits, aus dem sich die Abgänge an Waren ergeben, also der Periodenverkauf. Handelsinformationen umfassen vor allem Umschlaggeschwindigkeit, Bevorratungsdauer, Verkaufsanteil. Sonderauswertungen betreffen u. a. Regal- und Zweitplatzierung, Angebotsumfeld, Vkf-Aktivitäten etc.

11.2 Erstmalige Preisfindung Dem Preis kommt eine überragende Bedeutung für die Profitabilität eines Unternehmens zu. Ihn zu ändern, ist schwierig und kann gravierende Konsequenzen haben. Daher ist vor allem die erstmalige Preisbestimmung mit hoher Verantwortung versehen. Dazu stehen Beobachtungs-, Befragungs-, Experimental- und Biete­verfahren zur Verfügung (siehe Abbildung 52). Verfahren zur erstmaligen Preisfindung

Abbildung 52: Verfahren zur erstmaligen Preisfindung

Einschreibung

Preislotterie

Bietspiel

Bietverfahren

Vickrey-Auktion

Preisklassentest

Preisschätzungstests

Preisbereitschaftstest

Conjoint Measurement

Preisreaktionsmessung

Gabor-Granger-Methode

Expertenbefragung

Analogieschluss aus Vergleichsmärkten

PAF-Konstruktion aus Paneldaten

Experimentalverfahren

Befragungsverfahren

Beobachtungsverfahren

174

11. Häufige Marktforschungsanwendungen im Marketing-Instrumentarium

11.2.1 Beobachtungsverfahren Beobachtungsverfahren beruhen zumeist auf Daten aus Haushalts- bzw. Verbraucherpanels. Dabei handelt es sich vorwiegend um Vergangenheitsdaten von Angeboten derselben Produktklasse, d. h. von Anderen bereits am Markt realisierte Preis-Mengen-Kombinationen. Ein Funktionsverlauf ergibt sich dann aus einer Punktwolke realisierter Preis-Mengen-Kombinationen unter der Bedingung der Kleinstquadratabweichung, d. h. einer Funktion, welche die Summe der (quadrierten) Abweichungen aller positiven wie negativen Ursprungswerte von der Funktionskurve minimiert und damit die PAF bestmöglich repräsentiert. Aus der Konstruktion einer Preis-Absatz-Funktion (PAF) aus Paneldaten wird eine Prognose aller weiteren, nicht dokumentierten, aber realistischen Preis-Mengen-Kombinationen an einem Markt möglich. Wird diese Preis-Absatz-Funktion mit der eigenen Gesamtkostenkurve kontrastiert, ergibt sich ein gewinnmaximaler Preis dort, wo der grafische Abstand zwischen Nachfrage- und Gesamtkostenkurve maximal ist. Bezogen auf eine Grenzbetrachtung ergibt sich dieser Preis in Abhängigkeit von derjenigen Menge, bei der die Grenzumsatzkurve (U’) die Grenzkostenkurve (K’) schneidet. Kleinere Mengen sind aufgrund des Fixkostenanteils noch nicht optimal, größere Mengen aufgrund des Umsatzabwachses nicht mehr optimal. Problematisch sind dabei mehrere Faktoren. Erstens bedeuten von Anderen realisierte Preise nicht, dass sie auch für das eigene Unternehmen realisierbar sind, zweitens kann das eigene Angebot durch vermehrtes Nutzenangebot auch höhere Preise realisieren, drittens wird vorausgesetzt, dass das Preisumfeld der Vergangenheit auf die Gegenwart hochgerechnet werden kann, und viertens sind Kosten und Erlöse zirkulär verbunden, d. h. die Kosten sind von der Menge, die wiederum vom Preis abhängt, abhängig. Sofern es Vergleichsmärkte gibt, deren Nachfragedaten in historischer Analogie zum aktuellen ausgewertet werden können, lassen sich daraus Schlussfolgerungen für den Preis des betrachteten Angebots ziehen. Die Vermutung ist dabei, dass die Preisakzeptanz aus anderen Märkten auch im betrachteten vorzufinden sein dürfte, Preise, die sich also dort durchsetzen lassen, auch in diesem durchsetzbar scheinen. Fraglich ist allerdings, wie dieser Vergleichsmarkt generiert wird. Denkbar ist ein sachlicher Vergleichsmarkt, also ein Markt, auf dem Produkte nachgefragt werden, die dem betrachteten ähnlich sind. Weiterhin ein räumlicher Vergleichsmarkt, also ein entfernter Markt, auf dem ein gleiches oder vergleichbares Produkt nachgefragt wird. Dann ein zeitlicher Vergleichsmarkt, also ein Markt, auf dem das im Preis zu bestimmende Angebot bereits vorher eingeführt wurde. Oder ein personeller Vergleichsmarkt, also ein Markt, auf dem andere Personen das betreffende Produkt nachfragen. Vorausgesetzt, die Analogiebedingungen sind gegeben, kann aus der Nachfrage auf diesen Vergleichsmärkten auf die Nachfrage auf dem betrachteten Markt ge-

11.2 Erstmalige Preisfindung

175

schlossen werden. Es ist jedoch sehr fraglich, ob eine solche Übertragung der Verhältnisse zweckmäßig ist. Woran wird die Vergleichbarkeit von Produkten festgemacht? Sind andere Märkte wirklich vergleichbar? Lassen sich Vermarktungsverhältnisse zeitübertragen? Sind Zielgruppen untereinander vergleichbar? Hier sind letztlich erhebliche Zweifel angebracht.

11.2.2 Befragungsverfahren Zum Zweck der Preisfindung können innerhalb der Befragung Experten dahingehend erhoben werden, welchen Preis sie für ein Neuprodukt als angemessen erachten, was allerdings zu nennenswert verzerrten Ergebnissen führen dürfte. Fraglich ist vor allem, wer als Experte für eine solche Preissetzung zu gelten hat. Es besteht die Vermutung, dass die Unsicherheit über den zu findenden Preis letztlich nur ersetzt wird durch die Unsicherheit der vorzufindenden Experteneigenschaft. Dabei ist anzunehmen, dass Experten zu Preiseinstufungen kommen, die von denen unvoreingenommener Nachfrager deutlich abweichen. Dann aber ist die Expertenbefragung unergiebig. Dennoch bietet sich dieses Verfahren vor allem bei hoher Geheimhaltung eines Projekts oder bei Spezialprodukten an, die nur mit Expertenwissen zu beurteilen sind (wie sie im B-t-B-Bereich häufig vorliegen). Wichtig ist dabei darauf zu achten, dass die Experten nicht von eigenen Interessen bei ihrer Preiseinschätzung geleitet werden (etwa als Absatzmittler, Endkunde, Lieferant oder Konkurrent). Hilfreich ist auch die parallele Erhebung mehrerer Experten mit Durchschnittsbildung oder Neutralisierung von Ausreißern. Bei der Gabor-Granger-Methode werden Probanden für eine Reihe von definierten Preispunkten darüber befragt, mit welcher Wahrscheinlichkeit sie das untersuchte Produkt zu diesem Preis kaufen würden (oder nicht). Die kumulierten Angaben ermöglichen eine daraus konstruierte Preis-Absatz-Funktion durch­ Regressionsanalyse oder Interpolation zwischen den Abfragepunkten. Bei der monadischen Abfrage wird jeweils nur ein Preis abgefragt. Bei der randominiserten Abfrage werden mehrere (fünf bis zehn) Preise abgefragt. Und bei der systematischen Abfrage wird ein exaktes Preislimit erhoben, bei dem die Preisakzeptanz kippt. Bei nur einem Preis sind die Angaben valider, weil ein möglicher Preis-Bias durch andere Preisnennungen fehlt, dafür muss eine größere Anzahl von Probanden erhoben werden, bei mehreren Preisen kann die Stichprobe hingegen kleiner sein. Vorteile sind die unkomplizierte Anwendung, die klare Analyse und die leichte Identifizierbarkeit von Preisschwellen. Dafür kann es zu gegenseitigen Beeinflussungen der Preise im Umfeld kommen. Auch wird der später erreichbare Marktanteil meist erheblich überschätzt, weil es an einer Relativierung durch Wett­ bewerbsangebote fehlt. Es kommt zu keiner Gewinnoptimierung, auch entsteht kein Einbezug des Wettbewerbs. Die Nennung einer Kaufbereitschaft dürfte zudem weitaus offensiver erfolgen als ein tatsächlicher späterer Kaufentscheid zu

176

11. Häufige Marktforschungsanwendungen im Marketing-Instrumentarium

diesem Preis. Denn zwischen der Angabe über einen Kauf und dem tatsächlichen Preisopfer liegen mehr oder minder erhebliche Abstände. Außerdem ist eine einseitige Sensibilisierung auf den Preis gegeben. Die van Westendorp-Methode (Preisreaktionsmessung/direkte Preiserhebung) erhebt die Preisschätzung von Nachfragern durch direkte Befragung nach aus ihrer Sicht „zu billig“, „zu teuer“, „relativ hoch“ und „noch günstig“. Daraus kann ein akzeptabler Preis abgeleitet werden. Dieser liegt zwischen der Gleichheit von „zu billig“ und „relativ hoch“ einerseits sowie „noch günstig“ und „zu teuer“ andererseits. Ziel ist die Ermittlung einer Bandbreite akzeptierter Preise. Die Befragung erfolgt bei Zielpersonen, als Stichprobe reichen schon ab 30 Fälle aus. Die grafische Darstellung besteht als Quadrant aus den verschiedenen Preisen auf der Abszisse und dem Anteil der Befragten, auf die diese Preise zutreffen, auf der Ordinate. Dazu sind für jedes Angebot von Probanden vier Preisschätzungen abzugeben. Ein Preis, ab dem eine Leistung subjektiv als zu billig und damit qualitätsgefährdet angesehen werden muss. Ein Preis, ab dem eine Leistung als zu teuer und damit übervorteilend angesehen wird (beides entspricht dem Preisklassentest). Weiterhin die Kurven für „nicht billig“ (invers zu „zu billig“) und „nicht teuer“ (invers zu „zu teuer“). Am Schnittpunkt von „zu billig“ und „nicht billig“ (invers) ergibt sich grafisch der untere akzeptable Preis als Punkt der marginalen Günstigkeit, am Schnittpunkt von „zu teuer“ und „nicht teuer“ (invers) ergibt sich grafisch der obere akzeptable Preis als Punkt des marginalen Teuerseins. Der optimale Preis liegt dort, wo gleich viel potenzielle Käufer das Produkt als „zu teuer“ und als „zu billig“ wahrnehmen (Schnittpunkt dieser Kurven). Ein Indifferenzpreis ergibt sich, wo gleich viel potenzielle Käufer das Produkt im Preis als „relativ hoch“ und als „noch günstig“ wahrnehmen. Der Abstand zwischen dem optimalen Preispunkt und dem Indifferenzpunkt ist ein Maß für die Preissensitivität der Nachfrager, er ist gering bei inferioren Produkten bzw. hoch bei superioren. Da jeder Proband eine andere Preiseinschätzung vornimmt, ergeben sich durch Verbindung der individuellen Schätzungen Kurvenzüge mit kumulierter Häufigkeitsverteilung. Diese verlaufen für gewöhnlich negativ geneigt für „zu billig“ und „noch günstig“ sowie positiv geneigt für „relativ hoch“ und „zu teuer“. Vorteilhaft ist dabei, dass die Preis-Qualitäts-Vermutung durch die Preisuntergrenze berücksichtigt wird. Es wird eine Preisbandbreite ausgewiesen, was vor allem bei neuen Produkten wichtig ist, für die noch keine konkrete Preisvorstellung vorliegt. Das Verfahren ist zudem kostengünstig, einfach und schnell durchführbar (nur vier Fragen). Nachteilig ist hingegen, dass der Preis als alleiniger Parameter in der Wahrnehmung gegenüber der späteren Marktsituation überbewertet wird. Auch werden Konkurrenzpreise nicht berücksichtigt, dadurch können keine Marktanteilssimulationen dargestellt werden. Insofern bleibt die Validität problematisch. Die Reliabilität ist aufgrund der klaren Verfahrensschritte hingegen gegeben. Allerdings gibt es möglicherweise einen Erhebungsbias.

11.2 Erstmalige Preisfindung

177

Beim Conjoint Measurement (indirekte Preiserhebung) wird der Gesamtwert eines Angebots auf den Wert seiner einzelnen Elemente dekomponiert, um dann aus der Kombination dieser Elemente indirekt auf den akzeptierten Gesamtpreis schließen zu können. Hinsichtlich des Datenerhebungsverfahrens kann dabei zwischen traditionellen und modernen Ansätzen unterschieden werden. Traditionelle Ansätze sind der Trade off-Ansatz oder der Vollprofil-Ansatz, moderne Ansätze sind die Adaptive Conjoint-, die Choice-based Conjoint- oder die Hybride Conjoint-Analyse: • Beim traditionellen Trade off-Ansatz werden alle möglichen Ausprägungen von jeweils zwei miteinander konkurrierenden Konzeptmerkmalen eines Beurteilungsobjekts (hier der Preis) unter Konstanthaltung aller übrigen Merkmale systematisch miteinander kombiniert durch Paarvergleiche bewertet. Das heißt, eine Versuchsperson soll die verschiedenen Kombinationen von jedem Paar von Merkmalsausprägungen ordnen, und zwar von „am meisten“ bis „am wenigsten“ präferiert. Bei m-Merkmalen sind somit (m – 1) + (m – 2) + … + 2 + 1 Matrizen zu bewerten (z. B. bei 6 Merkmalen 15 Matrizen). Diese Paare von Merkmalsausprägungen werden in eine Präferenzrangreihe gebracht. Dies ist zwar recht übersichtlich, aber mit einer großen Anzahl von Vergleichen und entsprechender Ermüdung der Probanden verbunden. Außerdem erfolgt eine unrealistische Reduktion der Konzepte auf nur zwei Merkmale, und Interaktionen zwischen den Merkmalen bleiben verborgen. • Beim Vollprofil-Ansatz werden vollständig beschriebene Kombinationen der Merkmalsausprägungen (also Preise unter Einbeziehung aller Produkteigenschaften) durch ganzheitliche simultane Vorlage bewertet und in eine Reihenfolge gebracht. Zum vollständigen Abgleich sind n (Ausprägungen) hoch m (Merkmale) Kombinationen erforderlich, bei 4 Merkmalen mit je 3 Ausprägungen also 81 Kombinationen für Vollprofile. Jede Alternative besteht aus einer bestimmten Ausprägungskombination aller Merkmale. Dies ist zwar recht realitätsnah, jedoch nur sinnvoll nutzbar, wenn die Anzahl der berücksichtigten Merkmale relativ gering bleibt, weil ansonsten rasch eine Überforderung der Auskunftspersonen eintritt. • Die häufige Form der Adaptive Conjoint-Analyse arbeitet computergestützt und interaktiv. Im kompositionellen Teil werden zunächst aus allen Merkmalen die für Probanden bedeutsamen ausgewählt, im dekompositionellen Teil sind Paarvergleiche mit sowohl hoch erwünschten als auch weniger erwünschten Eigenschaften enthalten, sodass Kompromisse unumgänglich sind. Dadurch kann das Procedere einerseits verkürzt und andererseits realitätsnäher gestaltet werden. • Bei der Choice-based Conjoint-Analyse wird eine kategoriale Entscheidung zwischen Produkt-Preis-Konzepten herbeigeführt, die jeweils mehrere Ausprägungen enthalten. Dabei kann die Wahl auch verweigert werden, wenn keines der Konzepte überzeugt, es gibt also keine erzwungene Wahl (Forced Choice).

178

11. Häufige Marktforschungsanwendungen im Marketing-Instrumentarium

• Bei der Hybride Conjoint-Analyse geben Auskunftspersonen zunächst direkte Urteile über alle Merkmale und deren Ausprägungen ab (kompositioneller Teil) und bewerten anschließend ausgewählte Merkmalskombinationen ganzheitlich (dekompositioneller Teil). Dadurch wird die Anzahl der von jedem Probanden zu bewertenden Konzepte erheblich reduziert, damit die Versuchsanlage übersichtlicher gehalten und eine Informationsüberlastung vermieden. Zugleich sind jedoch alle relevanten Merkmale erfassbar. Dazu erfolgt eine Aufteilung der Gesamtstichprobe auf Unterstichproben, allerdings sind dazu größere Stichproben erforderlich. Probleme des CJM-Verfahrens liegen vor allem in den zahlreichen, meist nicht korrekt explizierten Prämissen, vor allem der Additivität und Unabhängigkeit der Merkmale, in der real mangelnden Stabilität subjektiver Präferenzstrukturen im Zeitablauf, in der unvollkommenen verbalen/visuellen Darstellung der Merkmale und in der fraglichen Auswahl kaufentscheidender Kriterien. Dies führt per Saldo zu erheblichen Einschränkungen hinsichtlich der Aussagefähigkeit.

11.2.3 Experimentalverfahren Beim Preisbereitschaftstest (Tender) werden auf Laborbasis Absatzmengen einer Leistung zu verschiedenen Preisen ermittelt. Daraus kann dann die gewinnmaximale Preis-Mengen-Kombination abgeleitet werden. Dieses Verfahren wird u. a. bei Initial Public Offerings (IPO’s) angewandt. Darunter versteht man den erstmaligen Börsengang einer Aktiengesellschaft. Dabei besteht das Problem, einen Preis für neu einzuführende Aktien zu finden, der weder zu niedrig noch zu hoch ist. Zu niedrig hätte zur Konsequenz, dass im Börsengang Geld verschenkt wird, das nur einmal eingesammelt werden kann. Zu hoch hätte zur Konsequenz, dass Aktien nicht platziert werden können und zu „parken“ sind. Im Falle eines zu niedrigen Preises besteht keine Möglichkeit, die vergebenen Erlöse nachzuholen. Im Falle eines zu hohen Preises muss die emittierende Bank bzw. das Bankenkonsortium die nicht platzierten Aktien ins eigene Depot nehmen, wo sie unerwünschte Kapitalbindung verursachen. Um diese misslichen Konsequenzen zu vermeiden, werden beim Tender die üblichen institutionellen Investoren dahingehend erhoben, welche Menge an Papieren sie jeweils zu welchem Preis zu zeichnen bereit sind. Grundlage ist eine umfassende Information dieser institutionellen Investoren. Diese Problemstellung lässt sich auf die Preisfindung übertragen. Auch hier kommt es darauf an, sich durch eine überhöhte Preisforderung nicht aus dem Markt auszupreisen, aber durch zu zurückhaltende Preissetzung auch nicht Ertrag zu verschenken. Trägt man alle sich ergebenden Preis-Mengen-Kombinationen in einem Koordinatensystem mit der Menge auf der Abszisse und dem Preis auf der Ordinate ein, ergibt sich näherungsweise eine Preis-Absatzfunktion (PAF). Denn die PAF ist nichts

11.2 Erstmalige Preisfindung

179

anderes als die grafische Verbindung aller an einem Markt möglichen Preis-Absatz-­ Kombinationen. Fällt man das Lot im Punkt der geplanten Absatzmenge der Produkte auf die PAF, ergibt sich im rechten Winkel dazu der dabei markträumende Preis. Voraussetzung ist, dass die Verhaltensangaben verlässlich eingehalten werden. Beim Preisschätzungstest wird die subjektive Preisvorstellung von Zielpersonen für eine exakt definierte Leistung ermittelt. Voraussetzung dafür ist, dass die Probanden aus der Zielgruppe stammen. Die Zielgruppe ergibt sich wiederum aus den konzeptionellen Erwägungen der Marketingstrategie. Ebenso ist Voraussetzung, dass das in seinem Preis zu beurteilende Produkt in hinreichend konkretisierter Form vorliegt. Dabei sind mehrere Abstufungen denkbar. Am Besten ist ein marktfertiges Produkt als Handmuster. Sofern dies nicht möglich ist, ist ein Funktionsmuster ohne gefinishtes Design hilfreich oder auch ein Design-Dummy ohne Funktionalitäten denkbar. Am geringsten ist die Konkretisierung bei einer computeranimierten Produktdarstellung. Unzureichend ist eine rein verbale Beschreibung. Je konkreter das Produkt, desto weniger erläuternde Hinweise dazu sind erforderlich, je weniger konkret ein Produkt, desto mehr Information muss bereitgestellt werden, um zu einer zutreffenden und auch vergleichbaren Einschätzung durch potenzielle Nachfrager zu gelangen. Die Probanden nennen dann einen Preis, den sie bereit sind, für das präsentierte Produkt zu zahlen. Über alle Probanden hinweg können die Preisnennungen aufaddiert werden, und der am häufigsten genannte Preis (Modus der Reihe) reflektiert die relativ höchste Akzeptanz. Problematisch dabei ist jedoch, dass dieser Test zu überhöhten Preisergebnissen führt. Denn es ist ein gravierender Unterschied, ob ein Proband hypothetisch seine Bereitschaft dazu erklärt, ein Produkt zu einem aufgerufenen Preis zu kaufen oder ob er nachher im Markt tatsächlich das Preisopfer dafür als Käufer erbringen muss. Bei der Exekution treten dann erhebliche Bedenken auf, die eine deutlich geringere Preisakzeptanz schaffen. Wieviel niedriger die tatsächliche gegenüber der angegebenen Akzeptanz ist, bleibt allerdings spekulativ. Beim Preisklassentest werden Probanden nach Ausprobieren (Ge-/Verbrauch) einer Leistung dazu abgefragt, welcher Preis höchstens dafür von ihnen bezahlt werden würde, bevor ein Kaufverzicht eintritt, bzw. welcher Preis mindestens gefordert werden müsste, damit keine Qualitätsbedenken für den Kauf entstehen. Dabei liegt die Idee einer Preis-Qualitätsvermutung für die Preisuntergrenze­ sowie einer Preis-Übervorteilung bei der Preisobergrenze zugrunde. Erstere beruht darauf, dass potenzielle Käufer aus dem Preis einer Leistung auf deren vermutete Qualität schließen. Denn die tatsächliche Qualität ist oftmals nicht hinreichend feststellbar, etwa bei neuen Produkten, für die keine Erfahrungswerte vorliegen, oder auch bei komplexen Produkten, die sich einer objektiven Beurteilung durch Käufer weitgehend entziehen. Dabei ist festzustellen, dass ehemals problemlose Produkte im Zuge ihrer Transformierung in den High Interest-Bereich

180

11. Häufige Marktforschungsanwendungen im Marketing-Instrumentarium

zunehmend komplex geworden sind, wohingegen im Gegenzug ehemals komplexe Produkte weitgehend problemlos geworden sind (Commoditisierung). Käufer neigen nur in wenigen Produktbereichen dazu, das absolut billigste Produkt zu wählen, weil sie dabei generell Qualitätsprobleme vermuten. Dies ist nur dort nicht der Fall, wo es auf gehobene Qualität nicht zentral ankommt, etwa bei Low Interest-Produkten. Ansonsten wird eher ein mittelpreisiges Produkt gewählt, also auch nicht zu teuer. Dieser Tendenz kann man im Rahmen eines Programms/Sortiments durch Framing entsprechen. Letztere beruht darauf, dass potenzielle Käufer ab einer bestimmten absoluten Preishöhe vermuten, dass diese nicht allein durch die Qualität des infrage stehenden Produkts erklärt werden kann, sondern anzunehmen ist, dass eine gezielte Übervorteilung stattfinden soll. Dies führt naturgemäß zu einer emotionalen Zurückweisung des Angebots. Der Preisklassentest soll nun einerseits die Preisuntergrenze, ab der Qualitätsbedenken auftreten, ermitteln und andererseits die Preisobergrenze, also den persönlichen Reservationspreis. Innerhalb der verbleibenden Preisspanne liegt dann der mutmaßlich akzeptierte Preis am Markt. Durch sukzessives Zusammenziehen der Preisgrenzen kann der verbleibende Preis recht genau ausgewiesen werden. Allerdings setzt dieses Verfahren voraus, dass die Produktleistung angemessen nachvollziehbar, ein subjektives Erleben also tatsächlich möglich ist.

11.2.4 Bieteverfahren Bei dynamischer Preisbildung entsteht der Preis erst aus dem Zusammenspiel von Angebot und Nachfrage in einer konkreten Tauschsituation. Mittel dazu sind Bieteverfahren. Bei der Vickrey-Auktion (Second Price sealed Bid) ist das maximale Gebot jedes Bieters verdeckt, den Zuschlag erhält der Höchstbietende, jedoch zum Preis des Zweithöchst-Bietenden. Dadurch wird der individuelle Reservationspreis ausgereizt, es kann also der maximale Preis für eine Marktleistung ausgewiesen werden. Dahinter steht der Wunsch jedes Käufers, bei seinem Preisopfer noch eine Konsumentenrente einzubehalten. Das heißt, man wird seinen persönlichen Reservationspreis durch ein Preisgebot nicht ausreizen, weil dann die individuelle Konsumentenrente auf Null gesetzt würde. Vielmehr wird man mit seinem Höchstpreis für gewöhnlich darunter bleiben. Das bedeutet aber, dass bei Bietverfahren der persönliche Reservationspreis nur schwer auszureizen ist, also Erlöse für den Anbieter verloren gehen. Dem kann entgegen gewirkt werden, wenn der Bieter sicher sein kann, dass er zu seinem individuellen Höchstpreis entweder nicht zum Zuge kommt, weil ein anderer Bieter einen höheren Reservationspreis hat, dann muss man für sein Gebot auch nicht einstehen; oder man zu seinem Höchstpreis zum Zuge kommt, diesen aber nicht zahlen muss, sondern vielmehr nur den Preis des

11.2 Erstmalige Preisfindung

181

Zweithöchst-Bietenden, also eine persönliche Konsumentenrente einbehält. Dies motiviert dazu, mit dem Gebot wirklich an seine „Schmerzgrenze“ zu gehen. Voraussetzung ist, dass es keine Abstimmung zwischen den Bietern gibt, dass die Preisgebote nachträglich nicht verändert werden können und dass die Preis­ gebote geheim bleiben. Unter diesen Voraussetzungen ist eine hohe Funktions­ fähigkeit dieses Verfahrens gegeben. Die Ebay-Auktion ist ein ähnliches Verfahren, allerdings ist dabei das individuelle Höchstgebot veränderbar. Beim Bietspiel wird die Preisbereitschaft bei Zielpersonen abgefragt. Der Interviewer präsentiert dazu ein im Preis zu bestimmendes Produkt mit einen Initialpreis, dem jeder Befragte zustimmen kann oder nicht. Solange Zustimmung gegeben ist, wird der abgefragte Preis schrittweise erhöht, bis Ablehnung für eine weitere Preiserhöhung erfolgt. Wird bereits der Startpreis abgelehnt, wird der Preis schrittweise gesenkt, solange, bis er zum ersten Mal Zustimmung erfährt. Dieser Preis signalisiert dann die vorzufindende Preisbereitschaft. Dabei entstehen jedoch mehrere Probleme. So muss die Leistung des im Preis zu beurteilenden Produkts offensichtlich sein, denn nur dann ist der Proband zu einer angemessenen Beurteilung in der Lage. Auch wirkt der Startpreis bereits suggestiv auf die Preisbereitschaft. Ein hoher Startpreis kann sowohl eine hohe Wertanmutung vermuten und damit höhere Preise akzeptabel werden lassen als auch emotionale Ablehnung provozieren und damit nur niedrigere Preise gängig machen. Auch liegt die tatsächliche Preisbereitschaft für gewöhnlich mehr oder minder erheblich unterhalb der geäußerten. Außerdem dürfen keine Verzerrungen aus der Auswahl der Interviewten und der Interaktion mit dem Interviewer entstehen. Bei der Preislotterie (BDM-Verfahren) nennt jeder potenzielle Nachfrager seine maximale Preisbereitschaft für ein präsentiertes Produkt. Dann wird eine Spielkarte mit einem zufälligen Preis gezogen. Liegt dieser niedriger als oder gleich wie die genannte Preisbereitschaft eines Probanden, muss dieser die bewertete Leistung zu diesem Preis tatsächlich kaufen, liegt er höher, braucht er nicht zu kaufen. Dadurch wird ein „Starting Price Bias“ anderer Verfahren vermieden. Darunter versteht man eine Verzerrung, die daraus resultiert, dass das Verfahren mit einem Preis starten muss, damit also die Probanden bereits in ihrer Preissicht konditioniert. Außerdem können Preisschätzungen freigiebig höher als der tatsächlichen Preisbereitschaft entsprechend abgegeben werden, weil die Probanden die Konsequenzen ihrer Schätzung, also den Kauf des Produktes zum genannten Preis, nicht tragen müssen. Daher startet eine Preislotterie mit einem zufällig gezogenen Preis, der innerhalb einer breiten Spanne einmal an deren oberen Ende liegen mag, und ein andermal an deren unteren Ende. Die Ernsthaftigkeit der Nennung wird durch die Pflicht zur Abnahme des Produkts zum genannten Preis unterstrichen. Dies schränkt jedoch zugleich die Durchführbarkeit einer Preislotterie ein. Bei der Einschreibung wird ein in seiner Preisbereitschaft zu ermittelndes Produkt unter mehreren Interessenten zur Versteigerung gestellt. Bei diesem Produkt handelt es sich um eine Produktdifferenzierung, d. h. die neue Version eines be-

182

11. Häufige Marktforschungsanwendungen im Marketing-Instrumentarium

reits bekannten Produkts (z. B. andere Geschmacksrichtung, andere Größe, andere Farbe). Für das Ursprungsprodukt wird der Preis marktnah vorgegeben. Nach Vorstellung der veränderten Leistungsmerkmale und Eigenschaften werden die Zielpersonen aufgefordert, dafür ein neues Preisgebot abzugeben. Dies erfolgt verdeckt, also so, dass der einzelne Bieter nicht weiß, wie er mit seinem Gebot in Relation zu den anderen Bietern steht. Dies verhindert Meinungsfolger-Effekte. Danach werden die Gebote geöffnet und die Zielperson mit dem Höchstgebot muss das Produkt zu diesem Preis abnehmen. Wichtig ist, dass diese Kaufverpflichtung besteht, damit realitätsnahe Preisgebote abgegeben werden. Aus dem Mehr- oder Minderpreis kann auf die Akzeptanz der neuen Produktversion geschlossen werden. Nicht geeignet ist dieses Verfahren, wenn die veränderten Leistungsmerkmale und Eigenschaften schwer kommunizierbar, d. h. abstrakt, immateriell oder komplex sind. Außerdem ist das Vorhandensein eines Ausgangsprodukts, für das ein Preisanker besteht, Voraussetzung.

11.3 Werbeeffizienzmessung Die Messung der Werbeeffizienz kann sich auf zwei Inhalte beziehen: • Die Werbewirkungsmessung untersucht die Erreichung der qualitativen, meist als Kognition, Affektion und Konation bezeichneten, Werbeziele. • Die Werbeerfolgsmessung untersucht die Erreichung quantitativer Werbeziele. Die elementare Bedeutung dieser Unterscheidung rührt daher, dass beide Zielgrößen nicht gleichwertig sind, sondern in einem Zweck-Mittel-Verhältnis zueinander stehen, d. h. die Werbewirkung ist notwendige, nicht aber hinreichende, Voraussetzung für den Werbeerfolg. Eine andere Dimension der Werbeeffizienz ist die Unterscheidung nach dem Zeitpunkt der Messung. Diese kann vor dem Einsatz der Werbung (ex ante) oder danach (ex post) erfolgen. Es bleibt unbefriedigend, erst im Nachhinein, also nach erfolgtem Werbeeinsatz, Anhaltspunkte über die mutmaßliche Effizienz von Aktivitäten zu erhalten. Denn dann ist das Werbebudget bereits ausgegeben und kann allenfalls noch für die Folgeperioden „gerettet“ werden. Aus den beiden bisher dargestellten Dimensionen der Effizienzmessung, dem Inhalt und dem Zeitpunkt, ergeben sich durch Kombination vier Untersuchungsfelder (siehe Abbildung 53): • Die Werbeerfolgskontrolle betrifft die Überprüfung der Zielerreichung in Form von Kaufakten, oft wird dies fälschlicherweise als Oberbegriff für die gesamte Effizienzmessung benutzt. • Die Werbewirkungskontrolle betrifft die Überprüfung der Zielerreichung in Form von qualitativen Größen wie Images etc.

11.3 Werbeeffizienzmessung

183

• Die Werbeerfolgsprognose betrifft die Vorhersage der Zielerreichung in Form von Kaufakten als Verhalten. • Und die Werbewirkungsprognose betrifft die Vorhersage der Zielerreichung in Form von qualitativen Größen wie Images etc.

Prognose

Kontrolle

Wirkung

Werbewirkungsprognose

Werbewirkungskontrolle

Erfolg

Werbeerfolgsprognose

Werbeerfolgskontrolle

Abbildung 53: Optionen der Werbeeffizienzmessung

11.3.1 Werbewirkungsprognose Innerhalb der Werbewirkungsprognose, also der Vorhersage der Erreichung psychographischer Zielgrößen in der Werbung, kann auf verschiedene Verfahren zurückgegriffen werden (siehe Abbildung 54).

Werbewirkungsprognosen

Explorative Verfahren

Aktualgenetische Verfahren

Psychomotorische Verfahren

Mechanische Verfahren

Projektiv-assoziative Verfahren

Spezielle Werbetest

Abbildung 54: Werbewirkungsprognosen

184

11. Häufige Marktforschungsanwendungen im Marketing-Instrumentarium

11.3.1.1 Explorative Verfahren Explorative Verfahren bedienen sich der Befragung und Gruppendiskussion als Mittel zur Vorausschätzung von Werbewirkung. Die Einzelbefragung erfolgt zumeist als Tiefeninterview durch einen psychologisch geschulten Interviewer. Eine weitere, sehr praktikable Form, jedoch ebenso ohne jeden Anspruch auf Repräsentanz, ist die Gruppendiskussion (s. o.). Beim Think Aloud gibt eine Testperson ein mündliches Protokoll der Gedanken, die sie bei der Auswahl, Bewertung und Entscheidung über Werbebotschaften zu Produkten beschäftigen. Diese werden aufgezeichnet (Papier/Tonträger) und erlauben so eine Auswertung des Wahlverhaltens, des für und wider einer Kaufentscheidung. Über mehrere Testpersonen hinweg lassen sich so Kaufentscheidungsprotokolle anlegen, die das System von Informationen, Schlussfolgerungen, Voraussetzungen etc. und die Rolle von Werbebotschaften dabei offenlegen. Diese Kenntnis ist für die weitere Vorgehensweise wichtig, denn es sollten genau die Inhalte transportiert werden, die sich im Protokoll als ausschlaggebend herausstellen. Diese Verfahren leiden allerdings unter dem Mangel bewusstseinsgesteuerter Aussagen. Geht man davon aus, dass Werbewirkungen wesentlich emotionaler Natur sind, liegt zwischen der tatsächlichen Werbewirkung und deren Messung der Filter des Verstands. Das heißt, Aussagen werden verzerrt und geben nicht die ursächlichen Faktoren, sondern nur die verstandesmäßig verzerrte Form dieser Faktoren wieder. Daher wird versucht, auf andere Weise zu Messgrößen zu gelangen.

11.3.1.2 Aktualgenetische Testverfahren Aktualgenetische Testverfahren arbeiten mit Mitteln der Wahrnehmungserschwernis. Werbung, die eine besondere Gestaltfestigkeit hat, setzt sich dabei besser durch als andere. Dafür gibt es vielfältige Verfahren, hier nur die wichtigsten. Beim Tachistoskop wird durch den Schnellverschluss eines Beamer-Objektivs eine extrem kurzzeitige Darbietung von Werbemotiven möglich, und zwar weit unterhalb 1/20 Sekunde, wo das menschliche Auge Abbildungen zwar noch wahrnehmen, nicht aber mehr bewusst erkennen kann. Die Darbietungszeit wird kontinuierlich verlängert. Eine Werbevorlage gilt als umso „besser“, je kürzer die Zeitspanne zu ihrer zutreffenden Identifizierung ist. Problematisch ist dabei vor allem die künstliche Testsituation, die womöglich zu übersteigerter Aufmerksamkeit der Testperson führt, um im Test besonders gut „abzuschneiden“. Weiterhin ist durchaus unklar, welche Erkenntnisse daraus zu ziehen sind, dass ein Werbe­ mittel extrem kurzzeitig nur als Baum, Hexe, Berg o.Ä. „gesehen“ wird. Die Wahr-

11.3 Werbeeffizienzmessung

185

nehmungstheorie geht daher heute von ganz anderen Grundlagen aus als denen der Ganzheitspsychologie. Beim Anglemeter werden Werbemittel perspektivisch verzerrt wiedergegeben als Seiten-, Drauf-, Druntersicht, wie das in der Realität häufig vorkommt. Beim Perimeter werden Werbemittel am Rand des Sichtfelds der Augen dargeboten, ebenfalls eine praktisch häufige Wahrnehmungssituation, etwa beim Passieren von Plakatwänden. Bei der Sichtspaltdeformation ist nur ein kleiner Ausschnitt als Schlüssellocheffekt des Gesamtmotivs erkennbar, fraglich ist, ob dieses daraus bereits zutreffend identifiziert wird, was positiv wäre. Beim Nyktoskop wird die Umgebungshelligkeit beginnend bei totaler Verdunklung stufenlos gesteigert, je eher ein Werbemittel dabei erkannt werden kann, desto besser. Bei der Formatierung werden Werbemittel verkleinert oder vergrößert, um Betrachtungs­abstände zu simulieren. Jeweils sind diejenigen Werbemittel die „besten“, die unter den­ ungünstigsten Bedingungen noch zutreffend identifiziert werden. Alle diese Verfahren messen allerdings nur die pure Wahrnehmung, die allenfalls Voraussetzung für Werbewirkung ist. Die eigentliche Wirkung entsteht hingegen erst bei näherer/ längerer/häufigerer Beschäftigung mit dem Werbemittel. Bei der Schnellgreifbühne handelt es sich um eine bühnenähnliche Apparatur, die für kurze Zeit mehrere Werbemittel, z. B. Packungsdesigns, freigibt, von denen die Testperson spontan eines zu wählen hat, bevor sich der Vorhang kurze Zeit später wieder schließt. Dadurch kann vor allem die Durchsetzungsfähigkeit im direkten Vergleich mehrerer Werbemittel getestet werden. Dies ist bei expliziter Konkurrenzorientierung der meisten Märkte und enormem Informationsüberhang durchaus von Belang. 11.3.1.3 Psychomotorische Testverfahren Psychomotorische Testverfahren greifen auf unwillkürliche, vom Menschen nicht beeinflussbare Körperreaktionen zurück, da unterstellt wird, dass verbale Angaben der Testpersonen immer verstandesmäßig verzerrt sind. Es gibt wiederum vielfältige Verfahren, hier die wichtigsten. Mit dem Pupillometer misst man die Veränderung der Pupillengröße der Testperson zwischen „Normalzustand“ und Vorlage eines Werbemittels. Eine Größenveränderung bedeutet psychische Aktivierung, also emotionale Auseinandersetzung mit der Werbebotschaft, was als gutes Zeichen interpretiert wird. Problematisch ist dabei die Ungewissheit über die Qualität der Aktivierung, also Begeisterung oder Erschrecken. Diese ist wiederum nur durch Befragung zu erheben. Das Psychogalvanometer misst den Hautwiderstand, der sich gegenüber dem „Normalzustand“ im tonischen Niveau bei Aktivierung durch Wahrnehmung eines Werbemittels infolge Schweißabsonderung auf der Hautoberfläche im phasischen Niveau erhöht. Dazu wird ein Niedervolt-Stromfluss über Elektroden auf Hand­

186

11. Häufige Marktforschungsanwendungen im Marketing-Instrumentarium

innen- oder Fußunterseite gegeben und gemessen, welchen Widerstand die Haut diesem entgegensetzt. Hoher Verlust an Stromstärke bedeutet viel Widerstand, geringe Schweißabsonderung und damit geringe Aktivierung. Problematisch ist dabei vor allem die ungünstige Relation zwischen dem großen Grundwiderstand der Haut und der äußerst geringen Potenzialveränderung. Außerdem können Veränderungen des Widerstandswerts durch vielfältige andere Faktoren, außer Aktivierung, entstehen. Durch die Gehirnstrommessung (EEG) über Messsonden auf der Kopfhaut wird auf die geistige Aktivierung bei Vorlage eines Werbemittels geschlossen. Betawellen mit hoher Frequenz und geringer Amplitude zeigen hier an, dass eine bewusste Auseinandersetzung stattfindet. Die Atemvolumenmessung zeigt ebenfalls die Aktiviertheit an, denn eine höhere Aktivierung benötigt mehr Sauerstoff, also höheres Atemvolumen. Gleiches gilt für die Pulsfrequenzmessung, die Blutdruckmessung oder die Körpertemperaturmessung mittels Infrarot-Thermometer. Durch die Blutanalyse kann die Hormonausschüttung als Aktivierungsindikator vor, während und nach der Darbietung eines Werbemittels festgestellt werden. Die Stimmfrequenz wird durch Atemfrequenz, Muskelanspannung und Tremor beeinflusst, deren Messung durch Frequenzspektrometer zeigt sehr zuverlässig die Aktivierung an. Sie kommt zudem ohne störende Apparaturen und Anwesenheit Dritter aus. Weiterhin zeigt eine erhöhte Lidschlagfrequenz Aktivierung zur besseren Flüssigkeitsverteilung auf der Netzhaut und damit für besseres Sehen an. Bei Werbung für Food-Produkte indiziert der Speichelfluss bei Testpersonen den „Appetite Appeal“. Dieser kann über eine Sonde ähnlich der Speichelabsaugung beim Zahnarzt gemessen werden. Durch Elektromyographie werden Muskelveränderungen im Gesicht gemessen und mit normierten Muskelkonstellationen in einem „Gesichtsatlas“ verglichen, für welche die jeweilige psychische Interpretation bekannt ist. Die Polygraphie schließlich funktioniert analog zum Lügendetektor durch parallele Messung von Atmung, peripherer Durchblutung, Pulsfrequenz und Hautwiderstand. Die große Problematik dieser und ähnlicher Verfahren liegt darin, dass Körperreaktionen gemessen werden und für diese ein sicherer Zusammenhang zur Werbewirkung behauptet wird. Dieser Zusammenhang ist aber fraglich, sicher ist vielmehr nur, dass die bloßen Körperreaktionen gemessen werden, also Pupillengröße, Hautwiderstand, Gehirnströme etc. Welche Schlüsse man daraus ziehen kann, ist dann spekulativ.

11.3 Werbeeffizienzmessung

187

11.3.1.4 Mechanische Testverfahren Mechanische Testverfahren bedienen sich der nicht-teilnehmenden Beobachtung, um Beeinflussungen (Hawthorne-Effekte) zu vermeiden. Dafür gibt es vielfältige Verfahren, wiederum in Folge nur die wichtigsten. Das Blickaufzeichnungsgerät (Eye Mark Recorder) registriert über eine Vorrichtung ähnlich einer Kamerabrille den Blickverlauf der Pupillen über einem Print-Werbemittel und gibt diesen auf einem Monitor wieder. Dadurch ist erkennbar, welche Elemente einer Vorlage wirklich wahrgenommen, dies sind Fixationen, und welche übergangen werden, dies sind Saccaden. Auch ist die Reihenfolge, Wiederholung und Gesamtdauer der Betrachtung ausweisbar. Problematisch ist dabei vor allem die realitätsferne Testsituation (Forced Exposure). Andere Verfahren, wie Compagnon, nehmen eine unbewusste Videoaufzeichnung der Wahrnehmung durch eine einseitig verspiegelte Platte vor. Bei diesem Makroeffekt ist allerdings nur identifizierbar, welche Seiten eines präparierten Testheftes wie lange aufgeschlagen werden, nicht jedoch, wie der Blickverlauf auf Anzeigen darin ist. Problematisch ist dabei wiederum die Interpretation, denn eine lange/wiederholte Betrachtung kann z. B. auch ganz einfach auf Unverständlichkeit der Aussage statt besonderem Interesse beruhen. Mit der Lichtschranke wird die Passierfrequenz bzw. der Betrachtungsabstand von Testpersonen zu einem Werbemittel gemessen. Den gleichen Zweck erfüllt die Infrarotmessung. Einwegspiegel mit dünner Silberschicht auf einer Glasscheibe und abgedunkelten Beobachtungsraum dahinter erlauben vor allem die Auswertung der Körpersprache durch Gestik, Mimik etc. von Testpersonen bei Konfrontation mit einem Werbemittel. Dies kann fotografiert oder videoaufgezeichnet werden. Die leichte Verklebung von Anzeigenseiten in einem Testheft gibt auch ohne Anwesenheit von Beobachtern Aufschluss darüber, welche Seiten auf­ geschlagen worden sind und welche nicht. Der Programmanalysator besteht aus zwei Joysticks, je einen für Gefallen und Missfallen, die während einer Werbespot-Darbietung zu betätigen sind. Die Testperson soll jeweils denjenigen Signalgeber auslösen, der ihrer momentanen Wahrnehmungsqualität entspricht. Durch einen Zeitvergleich ist damit ausweisbar, welche Elemente in Commercials genau positive oder negative Reaktionen bewirken. Die Antwortzeitmessung ist computergestützt und wertet aus, wieviel Zeit zwischen dem Erscheinen einer Frage zum präsentierten Werbemittel auf dem Monitor und der Antworteingabe über die Tastatur vergeht. Dies wird als Indiz für den Überzeugungsgrad gesehen (je kürzer, desto besser). Das Ziel der Vermeidung von Beobachtungseffekten wird hier also durch zahlreiche Unwägbarkeiten erkauft, welche die Aussagefähigkeit der Ergebnisse in Bezug auf Werbewirkung in Mitleidenschaft ziehen.

188

11. Häufige Marktforschungsanwendungen im Marketing-Instrumentarium

11.3.1.5 Projektiv-assoziative Testverfahren Projektive Testverfahren arbeiten mit der Drittpersonentechnik als Befragungsexperiment. Dem liegt die Annahme zugrunde, dass Meinungen, die für die eigene Person gültig sind, aber aus sozialen Gründen wie Tabu, Erwünschtheit etc. nicht geäußert werden, statt dessen in dritte Personen projiziert werden. Dafür werden willkommene Hilfen angeboten. Durch assoziative Testverfahren werden spontane, ungelenkte Verbindungen zwischen Werbebotschaften und Gedächtnis- bzw. Gefühlsinhalten im Erlebnisumfeld provoziert. Wiederum gibt es vielfältige Verfahren für beide Ansätze. Beim Thematischen Apperzeptions-Test (TAT) wird Testpersonen eine Reihe mehr oder minder verschwommener Fotos, die typische Kauf- und Konsumsituationen mit dem beworbenen Produkt zeigen, vorgelegt, wozu eine Geschichte erzählt werden soll, die zeigt, in welcher Weise das zu bewerbende Produkt darin einbezogen wird. Beim Picture Frustration-Test (PFT) werden produktbezogene Konflikte zwischen zwei Personen als Karikaturen mit Sprechblasen dargestellt. Eine Sprechblase bleibt offen, sie ist von der Testperson auszufüllen. Wiederum ist interessant, in welcher Form das zu bewerbende Produkt einbezogen ist. Beim Personenzuordnungstest (PZT) ist eine Reihe von Portraitfotos, aber auch Tier­ symbolen, Zitaten, Automarken etc., unterschiedlichen beworbenen Produkten als für diese typisch zuzuordnen. Daraus wird auf deren Sichtweise geschlossen. Gleiches gilt beim Rollenspiel, bei welchem dem beworbenen Produkt eine Rolle in einer sozialen Beziehung zugewiesen werden soll, oder beim Zeichentest, bei dem Testpersonen aufgefordert werden, das zu bewerbende Produkt als Symbol zu zeichnen wie z. B. Baum, Haus. Daraus wird dann auf dessen Sichtweise geschlossen. Beim Farbtest sollen zu bewerbenden Produkten typische Farben zugeordnet werden. Die Zuordnung wird nach Erkenntnissen der Farbpsychologie interpretiert. Bei der Produkt-Personifizierung wird nach Eigenschaften wie Stärken, Schwächen, größte Leistungen, Werdegang etc. von zu bewerbenden Produkten gefragt. Beim Wortassoziations-Test (WAT) werden Testpersonen aufgefordert, zu Reizwörtern, die in Zusammenhang mit dem zu bewerbenden Produkt stehen, Begriffe zu nennen, die ihnen dazu jeweils spontan, also unter Zeitdruck, einfallen. Beim Satzergänzungs-Test (SET) werden Satzanfänge mit dem zu bewerbenden Produkt vorgegeben, die von Testpersonen nach persönlicher Einschätzung zu vervollständigen sind. Der Einkaufslisten-Test gibt zwei Einkaufslisten vor, die bis auf das zu bewerbende Produkt ansonsten identisch sind, anhand derer Testpersonen die jeweils einkaufende Person charakterisieren sollen. Unterschiede können dann nur auf das zu bewerbende Produkt zurückgeführt werden.

11.3 Werbeeffizienzmessung

189

Beim Lückentext-Test werden produktbezogene Satzlücken offen gelassen, die meist durch Adjektive oder Attribute von Testpersonen auszufüllen sind. Jeweils kann aus diesen Assoziationen auf die Sichtweise des Produkts geschlossen ­werden.

11.3.1.6 Spezielle Werbetests Zu den Werbetests gehören Verfahren, die speziell zur Werbewirkungsprognose entwickelt worden sind. Beim Theatre-Test sollen Testpersonen zunächst vor Beginn einer Filmvorführung (Pre Choice), die Werbung für das zu testende Produkt enthält, aus einer Liste konkurrierender Produkte solche auswählen, die sie später als Gewinnpreis erhalten möchten. Die gleiche Wahl stellt sich ihnen, unter dem Vorwand einer missglückten erstmaligen Erfassung, nach der Vorführung (Post Choice). Präferenzveränderungen werden dann auf die zwischenzeitlich vorgeführte Werbung zurückgeführt. Der Studio-Test misst die Erinnerung (Recall) an einzelne Werbespots nach Darbietung eines Blocks von ca. zehn Spots mit konkurrierenden Produkten. Beim Storyboard-Test werden die wesentlichen Szenen eines Werbespots illustriert (Draft), animiert (Animatic) oder geschnitten (Stealomatic) vorgeführt und nach ihrem Eindruck bei Zielpersonen der Werbung erhoben. Der Ad*vantage-Test (GfK) ist eine Kombination dieser Verfahren. Es werden sowohl die Erinnerung (Recall) für Werbespots innerhalb eines 1,5-stündigen TVProgramms mit Unterbrecherwerbeblöcken als auch die Meinungen und Präferenzen vor und nach deren Darbietung in Bezug auf das zu testende Produkt festgestellt. Bei Anzeigen werden Testpersonen zum Durchblättern eines Folders mit Werbung für das zu testende und konkurrierende Produkte aufgefordert, während ablenkende Fragen gestellt werden. Gemessen werden wiederum Meinungen und Präferenzen. Beim Impact-Test wird in ähnlicher Weise die Erinnerung an die Anzeige und einzelne Anzeigenelemente gemessen. In Advertising Workshops wird eine Gruppe von Zielpersonen (Focus Group) mit Werbemittel-Entwürfen konfrontiert und zu einem informellen Gedankenaustausch darüber aufgefordert. Eine weit verbreitete Form ist auch der Putzfrauen-Test (Pufra-Test). Dazu werden scheinbar unbeteiligte Personen im Umfeld, in der Praxis eben häufig Putzfrauen, willkürlich zu ihrer subjektiven Einschätzung der mutmaßlichen Wirkung zum Einsatz geplanter Werbemittel befragt („spricht mich an“). Dies ist von allen aufgeführten Varianten zweifellos die mit Abstand schlechteste. Dennoch werden davon erstaunlicherweise immer wieder weitreichende Entscheidungen abhängig gemacht.

190

11. Häufige Marktforschungsanwendungen im Marketing-Instrumentarium

Diese und andere noch so kunstvolle Konstruktionen können jedoch immer nur die Werbewirkung als Voraussetzung erheben, machen aber keinerlei Aussagen zu Markterfolgen der Werbung.

11.3.2 Werbeerfolgsprognose Innerhalb der Werbeerfolgsprognose, also der Vorhersage der Erreichung ökonomischer Zielgrößen, kann auf verschiedene Verfahren zurückgegriffen werden. Das Befragungs-Experiment geht von einem Testmarkt aus, auf dem zwei Gruppen von Zielpersonen hinsichtlich ihres marktrelevanten Verhaltens erhoben werden, eine Gruppe, die Experimentalgruppe, die der in ihrem Erfolg zu messenden Werbung ausgesetzt wird, und eine zweite, die Kontrollgruppe, die dieser Werbung nicht ausgesetzt wird. Sind alle relevanten anderen Merkmale in beiden Gruppen identisch, können Unterschiede im Verhalten, also Kauf oder Nichtkauf bzw. Kaufintensität/-frequenz, nur auf den Einfluss der Werbung zurückgeführt werden. Dafür können mehrere Experimentaldesigns eingesetzt werden, das häufigste ist wohl das EBA-CBA-Design. Dabei werden sowohl die Experimentalgruppe (E) als auch die Kontrollgruppe (C) zeitlich jeweils zu Beginn des Tests (B für before), also vor der Bewerbung in der Experimentalgruppe, und zum Ende des Tests (A für afterwards) hinsichtlich ihres jeweiligen Kaufverhaltens gemessen. Dadurch sind Abweichungen in der Ausgangssituation (Gruppeneffekte) und durch zeitliche Überstrahlungen (Carry Over-Effekte) sowie durch Außenfaktoren (Spill Over-Effekte)  und unvermeidliche Lernwirkungen (Entwicklungseffekte) zwar nicht vermeidbar, aber doch erkennbar. Es ergibt sich der prospektive Werbeerfolg. Allerdings beeinflussen diese Störfaktoren nicht nur die Ausgangsgrößen, sondern führen auch untereinander zu Verzerrungen (Interaktionseffekte), welche die Aussagefähigkeit des Ergebnisses in Zweifel ziehen lassen. Abhilfe schaffen nur formale Experimentaldesigns, die aber wegen ihrer wirklichkeitsfremden Prämissen praktisch nur schwer durchführbar sind. Weiterhin kommen der Gebietsverkaufstest (Regionaler Testmarkt) und Testmarkt-Ersatzverfahren (Testmarkt-Simulation, Storetest, Mini-Markttest, Elektronischer Mikro-Markttest) zum Zuge (s. o.).

11.3.3 Werbewirkungskontrolle Innerhalb der Werbewirkungskontrolle, also der Überwachung der Erreichung psychographischer Zielgrößen, kann auf verschiedene Verfahren zurückgegriffen werden (siehe Abbildung 55).

11.3 Werbeeffizienzmessung

191

Werbewirkungskontrollen

Ad hoc-/Wellenerhebungen

Empfängeranalysen

Kontaktanalysen

Abbildung 55: Werbewirkungskontrollen

11.3.3.1 Ad hoc- und Wellenerhebungen Zu den fallweisen Ad hoc-Erhebungen zählen vielfältige Verfahren. Der Recall-­ Test untersucht die Erinnerung einer Zielperson an beworbene Produkte. Man­ unterscheidet den Aided Recall unter Vorgabe des zu erhebenden Werbungtreibenden und den Unaided Recall ohne eine solche Stützung, letzteres stellt demnach den wesentlich härteren Wert dar. Erhoben werden spontane Erinnerung und darüber hinaus einzelne Kommunikationsinhalte. Der Print-Day after Recall (DAR) erhebt Personen, die eine Zeitschrift zur Durchsicht erhalten, durch Nachinterviews hinsichtlich ihrer Erinnerung an einzelne Anzeigen, u. a. die für das getestete Produkt, indem die Zeitschrift Seite für Seite mit ihnen durchgegangen und nach Erinnerung abgefragt wird. Beim TVDAR wird die Erinnerung an am Vortag zum getesteten Produkt ausgestrahlte Werbespots bei Personen gemessen, die angeben, dann ferngesehen zu haben. Problematisch ist dabei der sehr geringe Anteil von Sehern, die sich überhaupt an irgendeine Werbung erinnern, und wenn, dann bedauerlicherweise oftmals falsch. Deshalb wird beim Same Day Recall (SDR) noch am gleichen Tag der Ausstrahlung der Werbespots nach deren Erinnerung telefonisch gefragt. Beim Controlled Exposure Day after Recall (CEDAR) wird Personen ein Werbeblock mit dem Spot des getesteten Produkts zunächst im Studio vorgeführt, während gleichzeitig ablenkende Fragen gestellt werden. Am nächsten Tag werden diese Personen dann nach ihrer Werbeerinnerung befragt. Dies ist zwar wesentlich wirtschaftlicher zu erheben, jedoch auch realitätsferner. Beim ADVISOR-Test werden die Testpersonen ebenfalls vorrekrutiert, dabei zur gezielten Fernsehnutzung motiviert und anschließend nach ihrer Erinnerung an den Spot für das getestete Produkt befragt.

192

11. Häufige Marktforschungsanwendungen im Marketing-Instrumentarium

In Wellenerhebungen (Tracking Studies) werden wechselnde repräsentative Personen der Zielgruppe in regelmäßigen Abständen zu ihrer Werbeerinnerung befragt. Insofern handelt es sich um die kontinuierliche Kontrolle der Werbewirkung hinsichtlich Durchsetzungsfähigkeit (Recall) und Eindruckswert (Impact). Daraus kann auf Veränderungen im Konkurrenzumfeld und aufgrund von Werbeaufwands­ änderungen geschlossen werden. Praktisch alle großen Marktforschungsinstitute bieten solche Wellenerhebungen als Standardinformationsdienste an. Im Außenwerbungsbereich gibt es die Plakatabfrage anhand erinnerter Wege (GfK/DSM) und den G-Wert (Nielsen/FAW: Produkt aus Erinnerer-Anteil an Werbung und Passierfrequenz pro Stunde). Diese beruhen auf Befragungen bei jeweils repräsentativ ausgewählten Personen nach der Erinnerung an durch Plakat beworbene Produkte. 11.3.3.2 Empfängeranalysen In der Empfängeranalyse wird erhoben, ob Kommunikation das getestete Produkt tatsächlich an Zielpersonen transportiert hat. Dies erfolgt im Printbereich traditionell durch Recognition-Tests (Wiedererkennung). Der Globalwert wird dazu auf seine Elemente heruntergebrochen, indem Vorlagen in Werbeträgern einzeln durchgegangen und dahingehend aufgeschlüsselt werden, ob Testpersonen das betreffende Werbemittel bemerkt haben (Noted), ob sie das beworbene Produkt bzw. den Werbungtreibenden (Marke) richtig angeben (Seen/Associated) und ob sie dieses Werbemittel tatsächlich überwiegend genutzt haben (Read Most). Beim kontrollierten Recognition-Test werden zusätzlich fingierte Werbemittel in die Vorlage einbezogen, um tatsächlich sehr häufig vorkommende Fehlangaben zu quantifizieren. Die Medienhäuser nutzen diese Verfahren auch intensiv zur Optimierung ihrer redaktionellen Inhalte in Copy-Tests. Sie bieten Werbungtreibenden, die im entsprechenden Heft mit Anzeigen vertreten sind, an, sich dabei kostenlos mit einer begrenzten Zahl individueller Zusatzfragen anzuschließen. In Bezug auf Kinowerbung werden die Besucherbefragung vor Ort oder, nach Abfrage der Telefonnummer bei Besuchern, einen Tag später durch Anruf angewandt. Bei Außenwerbung ist die Empfängeranalyse sehr schwierig. Eine Möglichkeit ist die Straßenbefragung bei Passanten hinter einer Anschlagstelle nach Wiedererkennung eines Motivs. Bei der In Home-Befragung werden Fotos von Plakatmotiven nach Wiedererkennung abgefragt. In der Plakatdiashow werden diese Motive aktualgenetisch im realen Umfeld eingebunden dargeboten. Bei der Videosimulation wird eine Fahrt durch die Straßen der Stadt mit Abfrage der dabei wiedererkannten Plakatmotive vorgenommen.

11.3 Werbeeffizienzmessung

193

11.3.3.3 Kontaktanalysen In der Kontaktanalyse wird erhoben, ob Kommunikation für das getestete Produkt potenziell mit Zielpersonen in Berührung kommen konnte. Im Printbereich ist eine Prüfung der Auflagen und damit der technischen Reichweite durch die Informationsgemeinschaft zur Feststellung der Verbreitung von Werbeträgern (IVW) gegeben. Werbedurchführende, die sich der IVW-Satzung unterwerfen, die u. a. eine genau aufgeschlüsselte Meldung der Auflagen und Zulassung stichprobenartiger Überprüfungen vor Ort bedingt, dürfen das IVW-Logo, dem in der Branche Gütesiegelcharakter zukommt, in ihren Werbemitteln führen. Dies ist besonders wichtig im Rahmen der Fachwerbung, bei der außerdem die Struktur der Leserschaft ausgewertet wird. Damit ist zumindest die Auflagenverbreitung des Werbeträgers sichergestellt. Bei Elektronik-Medien ist die technische Reichweite ausschlaggebend. Hier kann der Kontakt auf dreierlei Wegen entstehen: Erstens terrestrisch, d. h. über Antenne, zweitens leitungsgebunden, d. h. über Kabelanschluss, und drittens orbital, d. h. über Satellit. In dieser Reihenfolge sinkt die Reichweite, gleichzeitig steigt die Anzahl der Programme. Das heißt, die höchsten Kontaktchancen haben Programme, die über Antenne empfangen werden, weil sie die größte technische Reichweite und die geringste Konkurrenz anderer Programme haben. Allerdings sagt die technische Reichweite nichts über die tatsächliche Nutzung aus. Bei TV wird die Nutzung daher durch die PC#TV-Fernsehforschung (GfK) erhoben. Dazu wird in 5.200 repräsentativen Haushalten mit über 14.800 Personen ein Zusatzgerät (TC Score) zwischen Antennenbuchse und TV-Gerät eingeschleift. Dieses erfasst, wann TV-Geräte ein- und ausgeschaltet und welche Programme dazwischen von Sehern aufgerufen werden. Dabei werden jeweils Datum, Uhrzeit, Dauer und demographische Daten der Seher ausgewiesen. Ebenso können auch Telespiel-, Videotext-, Online-, PC- oder DVD-Betrieb identifiziert werden. Die Ergebnisse werden auf Datenträger zwischengespeichert, aufsummiert und per Datenfernübertragung nachts in einen Zentralrechner überspielt, von wo aus sie am nächsten Morgen ab 9.30 Uhr auswertungsbereit abgerufen werden können. Sonderanalysen erfassen u. a. Sehintensität, Seherschaftsstruktur, Seher­wanderung/ -bindung/-überschneidung. Diese Daten sind Grundlage für die in den Medien ausgewiesenen Ratings als vorgeblich vor auf einem Sender zur Sendezeit eingeschalteten Geräten befindliche Personen und für die Bewertung der Platzierung eingeschalteter bzw. die Platzierung zukünftiger Werbespots. Allerdings hat es in der Vergangenheit einige Unregelmäßigkeiten in der Auswertung gegeben, die zur Beunruhigung Anlass geben. Für die Erfassung muss sich jede Person im Haushalt als Seher individuell an- und wieder abmelden. Es werden bis zu sieben Personen plus ein Gast erfasst. Unter der Voraussetzung, dass die ausgewählten Haushalte repräsentativ sind, sich deren Fernsehnutzung unter dem Einfluss der Erfassung nicht verändert, jede Person sich im-

194

11. Häufige Marktforschungsanwendungen im Marketing-Instrumentarium

mer ordnungsgemäß an- und abmeldet und während der Meldezeit aufmerksam fernsieht, geben die gewonnenen Daten in der Tat Aufschluss über die Medienleistung. Allerdings sind gerade bei der Erfüllung dieser zahlreichen Voraussetzungen Zweifel angebracht. Daher werden andere Methoden genutzt. Wearable Meters werden von Testpersonen am Körper getragen, z. B. als Armband oder Ring, und reagieren auf die Audiosignale in Reichweite des Fernseh- oder Radiogeräts anhand derer die jeweils eingeschalteten Sender identifiziert werden können. Passive Meters am TV-Gerät messen aufgrund der körpereigenen Wärmeausstrahlung, ob sich eine Person in Reichweite des Fernseh- oder Radiogeräts befindet. Durch beides kann zumindest die physische Anwesenheit von Testpersonen zum Zeitpunkt der Werbeausstrahlung sicher gestellt werden. Bei der C-Box ist ein Kamera­ objektiv im Messgerät eingebaut, das den Zuschauerraum vor dem TV-Gerät aufnimmt und damit weitergehend ausweist, ob Aufmerksamkeit der Testpersonen beim Empfang gegeben ist oder nicht. Bei HF werden ähnliche Verfahren wie bei Fernsehspots angewandt, die Erfassung erfolgt durch Audimeter zwischen Antennenbuchse und Radiogerät bzw. Aufschreibung als Audilog. Ein zusätzliches Problem stellt hier jedoch die weitaus kleinere Fallzahl durch die Fraktionierung der Hörerschaft auf verschiedenste Sendestationen dar. Besonders problematisch ist die Werbewirkungskontrolle bei Außenwerbung. Für die Ermittlung der Leistungswerte wird mangels besserer Grundlage die Praxiserfahrung (API-Formel) als Basis angenommen.

11.3.4 Werbeerfolgskontrolle Innerhalb der Werbeerfolgskontrolle, also der Überwachung der Erreichung ökonomischer Zielgrößen, kann auf verschiedene Verfahren zurückgegriffen werden. In Verbindung mit TV-Werbung wird das STAS-Potenzial (Short-term Advertising Strength) angeführt. Es ermittelt die Differenz zwischen den Käufen einer bestimmten Marke durch Haushalte, die in den letzten sieben Tagen vor dem Kauf keine Werbung für die betreffende Marke gesehen haben, und den Haushalten, die in den letzten sieben Tagen vor dem Kaufakt Werbung für die betreffende Marke gesehen haben. Ausgangspunkt ist dabei die Durchsetzungsfähigkeit von Commercials im Konkurrenzwerbeumfeld. Allerdings sind Zweifel an der Gültigkeit dieser Erkenntnisse angebracht. BuBaW ist das Akronym für Bestellung unter ausdrücklicher Bezugnahme auf Werbung. Diese Möglichkeit ist klassischerweise bei Bestellcoupons im Rahmen der Direktwerbung in Medien gegeben. Die Identifizierung des belegten Werbeträgers, z. B. über einen in Anzeigen eingedruckten Code oder die Endziffer der Telefonnummer, die in einem TV-Spot genannt wird, erlaubt vordergründig einen leichten Effizienzabgleich. Dieser ist jedoch tatsächlich nur dann gegeben, wenn ein Angebot außer in diesem Medium über keinen anderen Anspracheweg bewor-

11.4 Verkaufs-Panels

195

ben worden ist. Dies ist in der Realität aufgrund des zumeist eingesetzten MediaMixes nur seltenst der Fall. Tatsächlich ist eine Erfolgsmessung etwa bei Teleshopping-Angeboten, die nur einmalig offeriert werden, möglich. Bei der Direktbefragung werden Werbeerreichte hinsichtlich des Einflusses der Werbung auf ihren Kaufentscheid befragt. Dies erfordert zum einen die Identifizierung der tatsächlich werbeerreichten Personen, zum anderen deren Meinungserhebung. Beides ist praktisch jedoch bedenklich. So weiß man aus Erfahrung, dass Personen, die behaupten, ein Angebot aus der Werbung zu kennen, tatsächlich ebenso gut über andere Kommunikationskanäle dazu in Kontakt geraten sein können. Außerdem ist es schon rein subjektiv kaum möglich, eine Ursächlichkeit bestimmter Werbung für den Kauf nachzuvollziehen. Insofern kann aber auch der Werbeerfolg nicht hinreichend isoliert und überwacht werden. Die Werbeelastizität ist der Quotient aus werbebedingter Umsatzänderung als Folge im Zähler und Variation der Werbeausgaben als Ursache im Nenner. Er liegt zwischen 0 und ∞. Bei 1 ist eine proportionale Änderung von Werbebudget und Umsatz gegeben, bei Werten  1 hingegen darüber, d. h. der Umsatz steigt/sinkt stärker als die Werbeausgaben, die Werbe­elastizität ist dann flexibel. Im direkten Konkurrenzvergleich kann man durch die Kreuz-Werbe­ elastizität noch die Beziehung konkurrierender Werbebudgets und Produktumsätze zueinander ausrechnen. Das ist zwar theoretisch gut machbar, praktisch aber scheitert dieser Ansatz der Werbeerfolgskontrolle schon daran, dass die durch eine Werbebudgetänderung verursachte Umsatzänderung unbekannt bleiben muss, weil Umsatzänderungen durch vielfältige andere Faktoren bedingt sein können als durch die Veränderung der Werbeausgaben. Damit aber fehlen die Werte für den Koeffizienten und die gesamte Elastizität.

11.4 Verkaufs-Panels Panels lassen sich nach verschiedenen Kriterien unterscheiden, sie stellen eine Unterform der Kohortenanalyse dar (siehe Abbildung 56). Nach der zu untersuchenden Warengruppe wird zwischen Gebrauchsgüter- und Verbrauchsgüter-­ Panels differenziert. Gebrauchsgüter (wie Haushaltsgeräte etc.) werden infolge der größeren Anschaffungsintervalle nur in längeren Zeitabschnitten abgefragt. Verbrauchsgüter (wie Lebensmittel etc.) müssen hingegen wegen der Genauigkeit in kurzen Zeitabständen erhoben werden. Weiterhin wird nach den Teilnehmern am Panel differenziert, dies können Produzenten, Händler, Haushalte oder Einzel­ personen sein (siehe Abbildung 57). Im Marketing sind vor allem die Erhebungen von Händlern und Haushalten von Relevanz (siehe Abbildung 58)

196

11. Häufige Marktforschungsanwendungen im Marketing-Instrumentarium

Formen der Kohortenanalyse

Panel

Wellenerhebung

Abbildung 56: Formen der Kohortenanalyse

Arten von Panels Gebrauchsgüter

Warengruppe

Verbrauchsgüter Produzenten Handel

Untersuchungseinheiten

Haushalte Einzelpersonen

Abbildung 57: Arten von Panels

Erhebung im Panel

Händlerpanel

Haushaltspanel

physische Inventur Scannererfassung (WWS) manuelle Aufschreibung elektronische Eingabe

Abbildung 58: Erhebung im Panel

11.4 Verkaufs-Panels

197

11.4.1 Haushalts-Panel Das Haushalts-Panel erhebt quantitative Bedarfe und qualitative Einstellungen individuell und aggregiert, jeweils für Ge- und Verbrauchsgüter. Die Erfassung erfolgt durch traditionelle Haushaltsbuchführung oder, zumeist modern, durch Einscannen und Online-Eingabe (über Homescanner anhand der GTINCodes auf eingekauften Produkten). In der Artikel-Stammdatei sind dazu die Produktgruppe, die Artikelbezeichnung und der Verpackungstyp hinterlegt. Die Eingabe erfolgt nach Aufruf einer Website, dort von Templates mit Auswahl­boxes (Einkaufsstätte, Einkaufsperson, Einkaufsdatum, Einkaufseinzelbetrag/-gesamtbetrag, Anzahl gekaufter Artikel, Sonderangebot etc.). Eine gesonderte Erfassung erfolgt für nicht-verpackte Produkte (ohne Barcode). Da die Erinnerung eine große Rolle spielt, werden die Erfassungen meist wöchentlich verbucht. Die Auswahl der Teilnehmer gehorcht der Repräsentanzanforderung, es nehmen ca. 30.000 Haushalte teil. Für die ca. 25 % der Haushalte ohne Internet-Zugang werden Handscanner (MDE) mit Tastatur eingesetzt, aus einem Codebuch wird die Einkaufsstätte zugeordnet. Im MDE erfolgt die Zwischenspeicherung und die Übertragung per Telefonleitung nach Einstecken in eine Docking-Station. Restliche Haushalte erhalten traditionelle Meldebögen, incl. sonstiger Unterlagen wie Rückumschlag, Grati­ fikation etc., vor jedem Berichtstermin verteilt. Formale Fehler werden dabei korrigiert, wobei im Zweifel beim Panelhaushalt rückgefragt wird, logische Fehler werden durch Prüfprogramme identifiziert. Die Angaben betreffen im Einzelnen Größen wie • Packung, Preis, Einkaufsstätte, Einkaufsort, Einkaufsanlass, Einkaufsperson, Anzahl der Käufe, Menge/Wert pro Kopf je Produktart und Marke, Erstkäufer/Wiederholungskäufer, Kauffrequenz, Marktanteile nach Menge/Wert für die eigene und konkurrierende Marken, Nichtkäufer, räumliche Abweichungen, Einkaufstage, Einkaufsdatum, Markentreue, Käuferwanderung, Sonderangaben wie Mediennutzung, soziodemographische Daten etc. Diese Angaben werden zu Standardauswertungen und Sonderauswertungen verarbeitet. Allerdings hat das Haushaltspanel auch mit zahlreichen Problemen zu kämpfen (siehe Abbildung 59). Dies betrifft zunächst die Panelsterblichkeit. Darunter versteht man das Ausscheiden von Teilnehmern aus dem Panel infolge Fluktuation oder Ermüdung. Fluktuation ist durch Geburt, Todesfall, Heirat, Umzug etc. verursacht. Ermüdung führt zur Verweigerung der weiteren Teilnahme. Außerdem kommt es zur Panelroutine, d. h. Einkaufsberichte werden nicht mehr tagesgenau ausgefüllt, nur noch oberflächlich durchdacht und sind damit ungenau und unvollständig. Durch beide Probleme kommt es zu Verzerrungen der Repräsentanz, die über die gesamte Laufzeit des Panels bestehen bleiben. Daher wird jedes

198

11. Häufige Marktforschungsanwendungen im Marketing-Instrumentarium

Probleme bei Haushaltspanels

Panelroutine

Panelsterblichkeit

Paneleffekte

Abbildung 59: Probleme bei Haushaltspanels

Panel mit Reserve gefahren, d. h., es wird zusätzlich ein Personenkreis, der nach bewusster Auswahl die jeweils ausscheidenden Panelteilnehmer ersetzt, in genau gleicher Weise erhoben, deren Daten Lücken in der auswertungsrelevanten Panelbasismasse, die nach dem Zufallsprinzip ausgewählt wird, füllt. Das Zufalls-Panel wird damit jedoch sukzessiv zu einem Quotenmodell umgewandelt. Weitere Probleme entstehen durch das weitgehende Fehlen bestimmter Haushalte, etwa von Ausländern mangels deutscher Sprach- und Schreibkenntnisse und Anstaltshaushalten wie Kantinen etc. Unter dem Paneleffekt versteht man die Veränderung des Kaufverhaltens unter dem Eindruck der Erfassung. Dies führt zu Lern- und Bewusstseinsprozessen, die ein Abweichen vom normalen, unbeobachteten Verhalten bewirken. Allein die kontinuierliche Erfassung führt dazu, dass der Einkauf in den Bewusstseinsvordergrund tritt. Evtl. kommt dem Berichtsbogen mit der Aufführung verschiedener Warengruppen sogar ein Aufforderungscharakter für Probierkäufe zu. Vor allem kommt es dabei zu zwei Effekten. Als Overreporting werden angegebene Käufe bezeichnet, die tatsächlich nicht oder nicht in dieser Form getätigt worden sind. Ausschlaggebend dafür können die soziale Erwünschtheit solcher Käufe, z. B. Hygiene­produkte, oder auch Prestigegründe sein, z. B. demonstrativer Konsum. Als Underreporting werden nicht angegebene Käufe bezeichnet, die tatsächlich getätigt worden sind. Die Nichtangabe kann auf bewusstem Verschweigen (z. B. Tabuprodukte) oder einfachem Vergessen beruhen (z. B. Einkäufe auf Reisen oder während der Berufsausübung). Diesen Problemen wird versucht, durch drei Ansätze entgegenzuwirken: • Durch Panelrotation erfolgt ein periodischer, gewollter Austausch der Teilnehmer. Pro Jahr werden so ca. 10 % der Panelteilnehmer künstlich ausgetauscht. Allerdings führt dies zur Panelerstarrung, d. h., die soziodemographischen Merkmale

11.4 Verkaufs-Panels

199

des Panels entsprechen insgesamt immer weniger der Grundgesamtheit und erfüllen damit nicht mehr die Voraussetzungen der Repräsentanz. • Durch Gratifikation sollen Belohnungen und Anreize zur motivierten Mitarbeit gegeben werden (z. B. Entlohnung je Berichterstattung). Allerdings können dadurch Verhaltensänderungen herbeigeführt werden, etwa durch das Gefühl der Dankbarkeit oder durch vermehrte Kaufkraft. Besser sind daher immaterielle Zuwendungen (z. B. Verlosungsteilnahme). • Auch kann eine „Anlernphase“ vorgesehen werden, in der Hoffnung, dass sich die geschilderten verzerrenden Effekte währenddessen legen. Insofern wird auf ein Wiedereinkehren des Alltagstrotts nach einer mehr oder minder langen Bewusstseinsphase gesetzt. Erst danach werden die Ergebnisse tatsächlich ver­ wertet.

11.4.2 Handels-Panels Handels-Panels dienen der Ermittlung der Entwicklung von Warenbewegungen und Lagerbeständen der darin einbezogenen Handelsgeschäfte. Diese verpflichten sich gegenüber den durchführenden Marktforschungsinstituten vertraglich zur Mitarbeit, was die Zulassung einer periodischen (traditionell zweimonatlichen) Bestandszählung am Handelsplatz und den Einblick in Liefereingangspapiere impliziert. Als Gegenleistung werden den zugehörigen Handelsketten der Panel­läden Marktinformationen zur Verfügung gestellt und Erhebungsgebühren gezahlt. In dem Maße, wie Hersteller über Absatzmittler (Handel) absetzen, verlieren sie den unmittelbaren Kontakt zu ihrem Endmarkt. Das hat bedeutende Konsequenzen. Denn der Hersteller „sieht“ nur die Aufträge der von ihm belieferten Händler, erhält aber keine Aufklärung darüber, wie sich die gelieferte Ware verkauft, und zwar differenziert nach unterschiedlichen Parametern, wie sich konkurrierende Waren vergleichsweise verkaufen oder nicht-belieferte Händler sich geschäftlich entwickeln. Dabei ergeben sich vier Ausgangssituationen: • Bei Nachfrageveränderung nach einem Produkt ordert der Handel zunächst unverändert viel Ware in der Annahme, dass es sich dabei nur um eine vorübergehende Erscheinung handelt. Durch kontinuierlich mangelnden Abverkauf baut sich dort im Zeitablauf das Lager auf. Bis der Handel weitere Orders stoppt und abwartet, bis wieder der Meldebestand erreicht ist. Dieser Orderstopp kommt für den Hersteller völlig überraschend, da ihm der Lageraufbau beim Handel verborgen bleibt. • Bei Nachfrageanstieg nach einem Produkt ordert der Handel ebenfalls zunächst unverändert viel Ware. Durch hohen Abverkauf kommt es im Zeitablauf zu Vorratslücken und daraus folgend zu Fehlverkäufen (Out of Stocks), da viele Be-

200

11. Häufige Marktforschungsanwendungen im Marketing-Instrumentarium

triebsformen des Handels lagerlos arbeiten. Zusätzliche Orders werden erforderlich, um Lücken zu schließen und kommen für die Lieferfähigkeit des Herstellers ebenfalls völlig überraschend, da ihm der Vorratsabbau beim Handel verborgen bleibt. • Der Absatz von Waren wird wesentlich durch den dafür eingeräumten Regalplatz (Kontaktstrecke), den Ort der Platzierung und den Einsatz verkaufs­ fördernder Maßnahmen (Zweitplatz, Werbemittel, Sonderangebot etc.) bestimmt. Da Händler selbstständige Kaufleute sind, liegen diese Aktivitäten ausschließlich in ihrem Befinden. Wie Warenpräsentation und Konditionen im Handel aber wirklich aussehen, bleibt dem Hersteller, bis auf Stichproben oder Formen der gesteuerten und reglementierten Distribution (Kontraktmarketing), verborgen. • Der Erfolg eines Produkts wird wesentlich von den Angebotsparametern konkurrierender anderer Produkte determiniert. Diese werden wiederum in Handelsautonomie bestimmt. Wie die komparative Position des eigenen Angebots sich darstellt, bleibt dem Hersteller ebenfalls zumeist verborgen. Dies gilt erst recht für die Situation des Mitbewerbs in selbst nicht distribuierten Absatz­ stellen. Da aber die Transparenz über diese Bereiche unerlässlich für die Absatzplanung ist, kommt hier die Handelsforschung zuhilfe. Sie bedient sich dabei der Längsschnittanalyse einer Stichprobe in Form eines Panels. Innerhalb der Händler-Panels werden Großhandels- und Einzelhandels-Panels, letztere wiederum in Lebensmitteleinzelhandels-Panels (für Lebensmittelgeschäfte, Lebensmittelfachabteilungen etc.) und Fachhandels-Panels (für Apotheken, Drogerien, Süßwarengeschäfte, Parfümerien, Friseurgeschäfte, Elektrohandel, Tabakwarenläden, Spirituosenhandel etc.) unterschieden. Umfangreiche Handelsforschung durch Nielsen/GfK sichert aussagefähige Daten. Denn Fabrik- und Endverbraucher­ absatz können über längere Zeit voneinander abweichen. Die Ermittlung erfolgt traditionell durch physische Inventur und Skontrahierung, d. h. Ermittlung des Warenbestands am Periodenanfang, Ermittlung des Warenbestands am Periodenende, wobei dies zugleich der Anfang der nachfolgenden Periode ist, und Ermittlung der Einkäufe des Handels während der Periodenlaufzeit. Der Warenbestand wird dabei sehr differenziert bis hin zu Einzelartikeln ermittelt. Die Bestände werden durch Zählen der im Geschäft vorrätigen Waren, unterteilt nach Zweit- und/oder Sonder-, Regal-, Lager- und Kassenplatzierungen erfasst. Die Einkäufe ergeben sich gemäß den vorgelegten Lieferscheinen und Rechnungen. Die Verkaufspreise werden durch Augenschein und EDV-Auszug erfasst. Gelistet werden diese Werte für alle Einheiten der untersuchten Warengruppen, also Produkte, Marken, Packungsgrößen, Duftnoten, Farben, Geschmacksrichtungen etc. Darüber hinaus werden Sondererhebungen vorgenommen für verwendetes Displaymaterial, Aktionsteilnahme, Außendienstbesuche der Hersteller, Lagerflächen- und Regalflächenaufteilung, Produktfrischedaten etc.

11.4 Verkaufs-Panels

201

Die Erfassung erfolgt entweder über maschinenlesbare Vordrucke (AktivFormsätze), die alle im betreffenden Geschäft beim letzten Besuch vorgefundenen Produkte enthalten und in normierter Schrift ausgefüllt werden, oder über mobile Datenerfassungsgeräte (MDE), die den in Listen den Produkten jeweils zugeordneten Strichcode (GTIN) lesen und deren Daten um Menge, Preis und Sonder­ angaben ergänzt werden. Diese Angaben werden auf Datenträger gespeichert und per Leitung überspielt oder physisch ausgetauscht. Neu ins Sortiment aufgenommene Artikel werden auf den Listen hinzugefügt. Problematisch ist, dass die Erhebung der Stichprobengeschäfte aus kapazitativen Gründen nicht genau im Zweimonatsrhythmus erfolgen kann. Dadurch kommt es zu Verschiebungen in den Erhebungsdaten. Daher werden die erfassten Daten künstlich auf einen durchschnittlichen Erhebungsstichtag umgerechnet. Dies geschieht, indem der Idealabstand (61 Tage) durch den tatsächlichen Abstand dividiert wird. Die erhobenen Daten werden dann entsprechend aufgewichtet, wenn der tatsächliche unter dem idealen Zeitabstand liegt und umgekehrt. Allerdings liegen darin Verzerrungsmöglichkeiten, zumal auch der Preis stichtags­bezogen ist. Die Stichprobe der erhobenen Händler ist geschichtet und dysproportional zusammengesetzt. Schichtungsmerkmale sind Standort, Betriebsform, Organisa­ tionsart, Verkaufsfläche und Umsatz. Diese Schichten stehen für eine Reihe nichtquotierbarer Kriterien wie Sortimentsinhalt, Kundentyp etc., zu denen ein enger Zusammenhang unterstellt wird. Die Dysproportionalität rührt aus der erheblichen Diskrepanz zwischen der Anzahl der Handelsbetriebe (Nummerik) und deren Umsatzbedeutung (Gewichtung) her. Umsatzstarke Handels-Outlets sind überproportional häufig vertreten, ihre Ergebnisse werden bei der Auswertung entsprechend abgewichtet. Die Berichterstattung bei Auftraggebern erfolgt durch Extranet mit Einrichtung einer zentralen Datenbank im Institut, wo vom Auftraggeber auf geschützte Datenbestände zugegriffen werden kann. Alle Daten werden zusätzlich persönlich präsentiert und in einem Berichtsband dokumentiert. Ein Problem stellt die Marktabdeckung (Coverage) von Panels dar, d. h., die oft mangelnde Repräsentanz der in das Panel einbezogenen Untersuchungseinheiten für die Grundgesamtheit, über die Aussagen getroffen werden sollen. Dies gilt sowohl für nicht erfasste Verkäufe (z. B. Beziehungshandel) als auch für nicht bzw. untererfasste Geschäfte (z. B. Impulshandel, Aldi, Factory Outlets, Heimdienste). Auch Wanderungsbewegungen der Käufer zwischen verschiedenen Panelstich­ proben können kaum erfasst werden. Die gewonnenen Daten beziehen sich auf Größen wie • nummerische/gewichtete Distribution, führende/nicht bevorratete Distribution, ein­ kaufende/verkaufende Distribution, Endabnehmerabsatz/-umsatz, Einkäufe/Lagerbestände, Lagerumschlaggeschwindigkeit, durchschnittlicher Monatsab­satz/­ Lagerbestand, Marktanteile je Geschäft, Exklusiv-/Paralleldistribution, Zweit-

202

11. Häufige Marktforschungsanwendungen im Marketing-Instrumentarium

platzierung, Verkaufshilfeneinsatz, Bezugswege, Organisations- und Kooperationsformen, Verkaufsflächengrößenklassen, regionale Verteilung, Aktionserfolg, Ortsgrößenklasse, Sonderauswertungen etc. In moderner Form werden Scanner-Panels angelegt. Dabei werden Daten aus Geschäften, deren Kassen-Check-out mit Scanner-Kassen versehen ist, direkt aus dem System abgerufen. Dadurch fällt die personal- und kostenintensive Bestandserhebung in den Stichprobengeschäften weg und es wird eine höhere Genauigkeit der Daten erreicht. Zudem sind diese tagesgenau verfügbar und können zeitlich beliebig detailliert ausgewiesen werden. Außerdem erhält man statistisch geglättete Daten. Die drei großen Anbieter von Panels sind A. C. Nielsen Company, GfK (Gesellschaft für Konsumforschung) und G&I (GfK und Infratest). G&I bietet ein Haushaltspanel, Nielsen und GfK sind reine Handelspanels, erstere tendenziell eher für Verbrauchsgüter, letztere tendenziell eher für Gebrauchsgüter. Außerdem bestehen kombinierte Handels- und Haushaltspanels als Single Source-Panels/MiniMarkttests (z. B. ERIM von GfK). Nielsen ist noch dadurch prominent, dass dieses Institut alle Länder, in denen es tätig ist, nach Nielsen-Gebieten aufteilt (siehe Abbildung 60). Diese dienen in Marketing und Vertrieb zur geografischen Kennzeichnung. In Deutschland handelt es sich um folgende Einteilung: • Nielsen I: Schleswig-Holstein, Bremen, Hamburg, Niedersachsen, • Nielsen II: Nordrhein-Westfalen, • Nielsen IIIa: Hessen, Rheinland-Pfalz, Saarland, • Nielsen IIIb: Baden-Württemberg, • Nielsen IV: Bayern, • Nielsen V a+b: Berlin (West/Ost), • Nielsen VI: Brandenburg, Mecklenburg-Vorpommern, Sachsen-Anhalt, • Nielsen VII: Sachsen, Thüringen.

11.4 Verkaufs-Panels

Abbildung 60: Nielsen-Gebiete in Deutschland

203

12. Marketing-Mix-übergreifende Marktforschungsanliegen 12.1 Kundenzufriedenheitsmessungen Die Kundenzufriedenheitsforschung wird vom C-D-Paradigma geleitet. Dieses besagt, dass Zufriedenheit das Resultat des Vergleichs einer a priori-Erwartung mit dem a posteriori-Erlebnis einer Transaktion bei Übereinstimmung zwischen beiden ist (Confirmation), Unzufriedenheit entsteht hingegen, wenn Erwartungen enttäuscht (Disconfirmation) werden, Begeisterung, wenn Erwartungen übertroffen werden. Problematisch ist nunmehr die Operationalisierung dieses theoretischen Konstrukts. Dafür gibt es verschiedene Ansätze.

12.1.1 Objektive Zufriedenheitsmessung Da Kundenzufriedenheit nur in den Köpfen der Kunden stattfindet, also nicht fassbar und auch nicht direkt nachweisbar ist (theoretisches Konstrukt), ist eine Messung über Indikatoren erforderlich. Dabei handelt es sich um Größen, die sehr wohl fassbar und konkret nachweisbar sind und von denen ein enger Zusammenhang zur nicht direkt untersuchbaren, aber beabsichtigten Kundenzufriedenheit besteht oder vermutet wird (intervenierende Variable). Dafür bietet sich eine Reihe von Indikatoren an, die jedoch alle mehr oder minder großen Verzerrungen unterliegen. In Bezug auf objektive Größen können quantitative und qualitative Indikatoren unterschieden werden (siehe Abbildung 61). 12.1.1.1 Quantitative Indikatoren Zunächst geht es dabei um die quantitative Erfassung von absoluten oder relativen Umsatzzahlen bzw. Marktanteilswerten und die Erfassung von Eroberungsraten, d. h., den Anteil der vom Wettbewerb neu hinzugewonnenen Kunden, bzw. Loyalitätsraten, d. h., den Anteil treu wiederkaufender, bestehender Kunden. Diese Indikatoren geben jedoch nur bedingt konkrete Hinweise auf das Zufriedenheitsniveau der Nachfrager, denn Käufe werden auch trotz vorhandener Unzufriedenheit mangels ausreichender Markttransparenz getätigt. Sie wiegen also leicht in falscher Sicherheit. Dem erliegen vor allem Marktführer, die sich aufgrund ihrer Marktergebnisse in der Richtigkeit ihres bisherigen Verhaltens bestärkt sehen und daraus auf ein hohes Maß bereits realisierter Kundenzufriedenheit schließen. Tatsächlich verleitet eine solche Position jedoch eher zur Selbstzufriedenheit und

12.1 Kundenzufriedenheitsmessungen

205

damit gerade zur Vernachlässigung kundenrelevanter Bedürfnisse. Auch bieten zuwandernde oder treue Kunden keine Gewähr für erreichte Kundenzufriedenheit, denn dies kann auch schlichtweg etwa durch noch schlechtere Leistungen der Konkurrenten oder lokale Monopole (Standort) bedingt sein. Weiterhin ist die Erfassung von Erlösschmälerungen infolge Wiedergutmachung durch Garantieleistung, Nachbesserung, Umtausch, Rückgängigmachung, Preisnachlass, Schadenersatz etc. möglich oder die Durchführung von Qualitätskontrollen hinsichtlich der Einhaltung von Kostenschätzungen und Terminvorgaben. Auch diese Indikatoren leiden an ihrer Fixierung auf vordergründig aussagefähig erscheinende Größen, die tatsächlich aber keineswegs zuverlässig und gültig auf die dahinter stehende, vermutete Kundenzufriedenheit schließen lassen. So gibt es Wiedergutmachung, die keineswegs zur Zufriedenheit führt, weil sie als nicht ausreichend, die Art ihrer Vermittlung als mangelhaft oder allein schon die Tatsache, dass eine solche Wiedergutmachung erforderlich ist, als unzureichend erachtet wird. Außerdem kann selbst bei Einhaltung aller materiellen Eckdaten Unzufriedenheit aus der Leistungserstellung entstehen, d. h., es werden eine kostengünstigere Erstellung oder eine kurzfristigere Ausführung als gegeben als wünschenswert angesehen. Dabei stellen Kunden allerdings nicht selten objektiv unrealistische Anforderungen, die es bereits im Vorfeld der Transaktion behutsam zu korrigieren gilt.

Objektive Zufriedenheitsmessung

Quantitative Indikatoren

Qualitative Indikatoren

Abbildung 61: Objektive Zufriedenheitsmessung

12.1.1.2 Qualitative Indikatoren Bei der qualitativen Erfassung im Rahmen der (nicht-teilnehmenden) Expertenbeobachtung registrieren und analysieren geschulte Fachleute typische Kundenkontaktsituationen (teils mit Hilfe von Fotoaufnahmen, Tonband- bzw. Video-Aufzeichnungen) und reporten Auffälligkeiten, die zur Qualitätsverbesserung genutzt werden können. Dies erfolgt anhand tatsächlicher oder simulierter Kontaktsituationen mit Hilfe eigener Erkenntnisse der Experten oder eines vorher mit der jeweiligen Geschäftsleitung abgestimmten Kriterienkatalogs mit Punktbewertungsschema. Dabei auffällige Schwächen können dann gezielt trainiert werden. Als Experten werden zumeist externe Coaches beauftragt, um der vorgeblichen oder tatsächlichen „Blindheit“ und Befangenheit betriebsinterner Mitarbeiter entgegenzuwirken.

206

12. Marketing-Mix-übergreifende Marktforschungsanliegen

Von Vorteil ist dabei, dass Geschehnisse während ihres spontanen Vollzugs beobachtet und gleichzeitig spezifische Umweltsituationen aufgenommen werden können. Auch ist die Beobachtung unabhängig von der Auskunftsbereitschaft der Beteiligten wie auch deren, im Einzelfall womöglich begrenztem Ausdrucksvermögen. Dies gilt allerdings nur, sofern eine seltene, verdeckte (biotische) Beobachtung gegeben ist, d. h. die Zielperson weder um die Beobachtung noch um den Unter­ suchungszweck der Beobachtung weiß. Dies stößt allerdings leicht an ethische Grenzen. Weiterhin lassen sich bestimmte Sachverhalte, wie etwa Körpersprache, nur durch Beobachtung ermitteln. Dies gilt auch für Sachverhalte, die sich auf Gruppen beziehen. Umgekehrt kann aber auch nur das Verhalten beobachtet werden, Einstellungen hingegen bleiben verborgen. Problematisch ist auch die Authentizität der Ergebnisse zu beurteilen, ebenso können bei bewusster (offener) Testsituation atypische Beobachtungseffekte bei den Beteiligten auftreten (Hawthorne-Effekt). Die Anzahl der beobachteten Fälle ist zudem auf nicht wiederholbare, gegenwartsbezogene Gegebenheiten begrenzt. Ebenso ist fraglich, inwieweit sie als typisch anzusehen sind, und bei seriöser Erhebung entstehen hohe Kosten, weil die Beobachtungssituationen zeitlich kundenabhängig und damit nur schwer steuerbar sind. Eine Repräsentanz ist bei der Beobachtung kaum darstellbar und die Aufnahmekapazität des Beobachters bleibt begrenzt. Zudem ist zweifelhaft, wer in dieser Beziehung als Experte anzusehen und wie eine Interpretation der Ergebnisse vorzunehmen ist. Auch wird die Qualitätswahrnehmung des Beobachters nicht in jedem Fall mit der anderweitig unkonditionierter Kunden übereinstimmen. Daher sind aufwändige Nachbefragungen erforderlich. Bei der (teilnehmenden) Beobachtung durch Scheinkäufer (Mystery Shoppers/ Silent Shoppers) handelt es sich um Personen, die als verdeckte Interessenten/Käufer auftreten und dabei eine reale Kaufsituation simulieren, um dadurch Hinweise auf wesentliche Verbesserungen in der Leistungserstellung zu gewinnen. Diese reporten sie dann an den Anbieter. Es ist allerdings fraglich, ob solche Scheinkäufer in der Lage sind, die Wahrnehmungen und Empfindungen realer Kunden nachzuvollziehen. Dennoch ist dieses Verfahren, zumindest stichprobenartig angewendet, weit verbreitet. Jedoch ist dieser Ansatz problematisch, weil die Operationalisierung und Beurteilung qualitativer Leistungsfaktoren weitgehend ungelöst ist, diese Leistungsfaktoren von situativen Umständen abhängen (z. B. Warteschlangen vor der Kasse, Zeitdruck beim Einkauf, Schmerzpatienten in der Arztpraxis) und verzerrende Interaktionen zwischen Testkunden und Beurteiler auftreten. Zudem gibt es erhebliche ethische Probleme, denn da der Mitarbeiter, an den man im Rahmen einer Scheinkäufer-Studie herantritt, nicht weiß, dass der „Kunde“ tatsächlich Informationen für eine Untersuchung sammelt und aufzeichnet, hat er gar keine Gelegenheit, seine Mitwirkung zu verweigern. Diese freie Wahlmöglichkeit ist aber moralische Grundlage jeder Erhebung. Außerdem nimmt der Vorgang die Zeit des betreffenden Mitarbeiters in Anspruch. Wird dann nicht gekauft, kann es zu

12.1 Kundenzufriedenheitsmessungen

207

finanziellen Ausfällen kommen (etwa bei Erfolgsbeteiligung), weil „echte“ Kunden währenddessen nicht bedient werden können. Ausnahmen stellen Fälle dar, in denen die Personen, die befragt/beobachtet werden, vorher davon in Kenntnis gesetzt worden sind, dass sie voraussichtlich in eine derartige Studie einbezogen werden. Ein externes Verfahren sind neutrale Leistungstests durch Dritte. Idealerweise erfolgt dies anhand statistisch abgesicherter Stichprobenkontrollen (z. B. Stiftung Warentest), tatsächlich aber werden zumeist willkürliche Fälle, etwa durch Fachzeitschriften erhoben und journalistisch aufbereitet, verbreitet. Die Ergebnisse sind zumeist durchwachsen und streifen die Grenzen des moralisch-ethisch Vertretbaren. Dennoch kommt den publizierten Ergebnissen dieser Tests eine große Breitenwirkung zu. Beim Willingness to Pay-Verfahren werden potenzielle Kunden dahingehend befragt, welche Preisbereitschaft sie für ein Angebot empfinden bzw. vor allem, welche Veränderungen der Preisbereitschaft zu Angebotsveränderungen korrespondieren. Aus dem Ausmaß dieser Preisbereitschaft wird auf die wahrgenommene Qualität geschlossen, d. h. je höher die Preisbereitschaft, desto höher die Qualitätsvermutung. Allerdings ist die Äußerung der Preisbereitschaft mit großen Vorbehalten versehen. Zwar ist eine enge Korrelation zwischen Preisbereitschaft und Qualitätsvermutung wahrscheinlich, jedoch ist die Annahme, dass die hinter der geäußerten Preisbereitschaft gewähnte Preisakzeptanz dann vom Anbieter am Markt auch liquidiert werden kann, fehlleitend. Vielmehr wird nicht selten vom Nachfrager die hohe Qualität eines Angebots am Markt nicht erkannt oder nicht für erforderlich gehalten, sodass entsprechend bepreiste Waren und Dienste tatsächlich am Bedarf vorbeigehen.

12.1.2 Subjektive Zufriedenheitsmessung Subjektive Messansätze heben auf die explorative, die ereignisgestützte, die merkmalsgestützte und die problemorientierte Erhebung von Kundenzufriedenheitswerten ab (siehe Abbildung 62).

Subjektive Zufriedenheitsmessung

Explorative Erfassung

Ereignisgestützte Erfassung

Merkmalsgestützte Erfassung

Problemgestützte Erfassung

Abbildung 62: Subjektive Zufriedenheitsmessung

208

12. Marketing-Mix-übergreifende Marktforschungsanliegen

12.1.2.1 Explorative Erfassung Beim Globalurteil wird die erlebte Anbieterleistung bei Kunden undifferenziert erfasst. Eine solche Fragestellung vermag allerdings allein weder die Art der Beweggründe für die Urteilsabgabe auszuweisen noch deren Gewichtung innerhalb des Globalurteils. Insofern ist nicht erkennbar, wie es zum geäußerten Urteil kommt. Und deshalb auch nicht, welche Schlussfolgerungen daraus zu ziehen sind, was wiederum erforderlich wäre, um gezielte Maßnahmen zur Qualitätsverbesserung einzuleiten. Dennoch wird ein solches Globalurteil vergleichsweise häufig erhoben, weil es leicht und schnell erfassbar ist und damit quantitativen Erhebungsanforderungen entgegenkommt. Zumindest gibt es erste Anhaltspunkte für Qualitätsprobleme, die Anlass zum gezielten Einsatz differenzierterer Mess­methoden sind. Oftmals ist erstaunlich, dass Anbieter nicht einmal über systematische Erkenntnisse aus solchen Globalurteilen verfügen. Vielmehr wird unzulässigerweise aus einzelnen, positiv wie negativ willkürlichen Meinungsäußerungen auf die mutmaßliche Zufriedenheit in der Kundschaft geschlossen. Oft steht dahinter auch die Befürchtung, Kritik an der eigenen Leistung zu hören, vor der man sich irrationalerweise sperrt. Außerdem wird die Emotionalität einer Anbieter-Kunden-Beziehung nur unvollkommenen abgebildet. Vor allem aber wäre es viel interessanter, Nicht-Käufer zu befragen, ob ein wesentlicher Grund ihrer Kontaktvermeidung darin liegt, dass sie befürchten, auf ein nicht zufriedenstellendes Leistungsangebot zu stoßen. Dann wird also nicht auf tatsächliche Erfahrungen zurückgegriffen, sondern auf die einem Anbieter zugeschriebene Fähigkeit, Kundenzufriedenheit zu erzeugen. Dies ist deshalb von größter Bedeutung, weil es häufig nicht möglich ist, vor dem Kauf eine objektive Leistungseinschätzung vorzunehmen. Es kommt dann auf das von einem Anbieter generierte Vertrauen bei Zielpersonen an, eine hochqualitative Leistung für diese zu erstellen (Credence Good). Um zu differenzierteren Aussagen zu gelangen, sind Detailbefragungen unerlässlich. Dabei handelt es sich zumeist um Fragebatterien, die vielfältige Leistungsaspekte erheben. Damit sind zweifellos detaillierte Erkenntnisse möglich, jedoch gibt es zugleich eine Reihe von Bedenken. Zunächst ist eine hohe Verweigerungsrate anzunehmen, da die Detailbefragung einen gewissen Zeitaufwand impliziert, den keineswegs alle Kunden einzusetzen bereit sind. Dies wäre nicht weiter problematisch, könnte man davon ausgehen, dass die Auskunftsverweigerer strukturidentisch zu den Auskunftspersonen sind. Dies ist jedoch keineswegs zu unterstellen. Vielmehr dürften zwischen beiden Gruppen erhebliche Unterschiede bestehen. Dann aber sind die Befragungsergebnisse notwendigerweise verzerrt. Eine hohe Verweigerungsquote ist allein schon wegen mangelnder Motivation zur Auskunftserteilung gegeben. Werden dagegen Anreize zur Auskunftserteilung gewährt oder in Aussicht gestellt, besteht die Gefahr von Gefälligkeitsantworten, da Kunden einen Zusammenhang zwischen ihren Antworten und dem Erhalt der Anreize sehen mögen. Solche Gefälligkeitsantworten sind insb. auch bei persönlicher Befragung durch

12.1 Kundenzufriedenheitsmessungen

209

tatsächliche oder zu vermutende Mitarbeiter des Anbieters zu erwarten. Außerdem führen Befragungen immer zu einer Rationalisierung der Antworten, da die schriftliche oder mündliche Auskunftserteilung eine gedankliche Auseinandersetzung voraussetzt. Das aber behindert eine wünschenswerte Spontaneität und den Ausdruck emotionaler Beweggründe. Insofern taugen Detailbefragungen mit einiger Berechtigung nur als Beschwerdeinstrument, da anzunehmen ist, dass unzufriedene Kunden die Gelegenheit nutzen, dem Anbieter „ihre Meinung zu sagen“, freilich nur, sofern die Unzufriedenheit so hoch ist, dass sie den Zeitaufwand zur Auskunftserteilung rechtfertigt. Denn gerade unzufriedene Kunden haben wenig Einsicht, warum sie dem unzufriedenheitsverursachenden Anbieter auch noch ihre Zeit und Mühe opfern sollen. Bei der Fokusgruppe handelt es sich um ein Hilfsmittel zur Ermittlung der Zufriedenheit bei Kunden, indem nicht ein repräsentativer Ausschnitt von ihnen erhoben wird, sondern bewusst nur einige, als besonders wichtig erscheinende Kunden (Konzentrationsverfahren). Auf deren Urteil wird gesteigerter Wert gelegt, sei es, weil der Anbieter sie für besonders qualifiziert hält oder sei es, weil sie einen hohen Kundenwert für ihn verkörpern. Die Erhebung erfolgt zumeist in Form einer mündlichen oder schriftlichen Befragung in Gruppen. Die Aussagefähigkeit der Befragungsergebnisse ist aufgrund der bewussten Auswahl der Erhobenen und störender gruppendynamischer Effekte eingeschränkt, jedoch entsteht ein guter erster Eindruck von Wahrnehmungen, ihre Durchführung ist kostengünstig bzw. schnell, und bei den Teilnehmern der Fokusgruppe entsteht das Gefühl der Einflussnahmemöglichkeit. Problematischer sind Formen von Fokusgruppen, die nicht unbedingt aus Kunden bestehen. Zu denken ist etwa an Wissenschaftliche Beiräte. Diese führen durch fehlende Praxiserfahrung, verzerrte Realitätswahrnehmung, Hörensagen und Voreingenommenheit oftmals geradewegs in die Irre. Außerdem sind Äußerungen in Fokusgruppen immer auch interessengeleitet, geben also nicht die „reine“ Wahrheit wieder, sondern egoistisch zweckdienliche Äußerungen. Kundenbarometer sind systematisch angelegte Befragungsinstrumente durch Wellenerhebungen (Trackings) auf nationaler Ebene, in großer Fallzahl, branchen­ übergreifend und in regelmäßigen Abständen (in Deutschland mit stark betriebswirtschaftlichem Bezug). Um als Managementhilfe effektiv zu sein, muss ein solches Instrument in seiner Anlage vom Interesse der Kunden ausgehen. Ausgangspunkt ist die Überlegung, dass zwischen Leistungsqualität, Kundenzufriedenheit und Kundentreue bzw. Anbieterwechsel eindeutige Zusammenhänge bestehen. Übersteigt die von Kunden wahrgenommene Leistung deren Erwartungen, wird sie als sehr zufriedenstellend beurteilt, umgekehrt entsteht Enttäuschung. Diese Reaktionen werden überwiegend in Form computergestützter Telefoninterviews bei Kunden abgefragt. Maßstab sind repräsentativ für die deutschsprachige Bevöl­kerung erhobene Zufriedenheits- und Bindungsdaten für über 700 namentlich erfasste Anbieter von Gütern und Diensten aus über 40 Branchen bei mehr als 28.000 Personen ab 16 Jahren in privaten Haushalten. Bestleistungen der Kundenorientierung in einzelnen Branchen und Prozessen werden als Benchmarking identifiziert. Indem

210

12. Marketing-Mix-übergreifende Marktforschungsanliegen

Anbieter dadurch sensibilisiert werden, sollen Leistung und Kundenzufriedenheit in Deutschland tendenziell ansteigen. Die Zufriedenheit der Befragten wird von diesen mit 1–5 benotet und begründet. Eine typische Frage ist etwa: „Wie zufrieden sind Sie mit der Freundlichkeit der Mitarbeiter von XY?“, „… mit der fachlichen Beratung“, „… mit der Verlässlichkeit der Angaben?“. Hinzu treten branchenspezifische Zusatzfragen und soziodemographische Strukturdaten sowie Verbrauchertrends. Beim Tell a Story-Verfahren werden Kunden gebeten, ihre Erlebnisse mit einem Anbieter in Form einer informellen Geschichte zu erzählen. Dabei wird zumeist, aber nicht zwingend eine chronologische Schilderung der Vorkommnisse in der Interaktion zwischen Nachfrager und Anbieter vorgenommen. Es wird unterstellt, dass Ereignisse, die dabei geschildert werden, zugleich als herausgehoben wahrgenommen worden sind. Weiterhin wird bei dieser Schilderung regelmäßig auch ein Kommentar darüber abgegeben, ob diese Vorkommnisse positiv oder negativ wahrgenommen worden sind, also als Zufriedenheits- oder Unzufriedenheitsstifter fungieren. 12.1.2.2 Merkmalsgestützte Erfassung Merkmalsgestützte Verfahren gehen davon aus, dass sich das gesamte Zufriedenheitsurteil aus einer Vielzahl einzelner Merkmale, mit denen Zufriedenheit oder Unzufriedenheit herrschen kann, bestimmen lässt (kompositionelle Verfahren) bzw. dass das gesamthafte Zufriedenheitsurteil in eine Vielzahl von Einzelmerkmalen aufgespalten werden kann (dekompositionelle Verfahren). Dazu dienen verschiedene Ansätze. Hinsichtlich der kompositionellen Verfahren lassen sich zur Divergenzmessung drei Gruppen unterscheiden. Qualitätsorientierte Ansätze untersuchen die subjektive Qualitätsvermutung. Denn Nachfrager können eine Vermutung hinsichtlich der Qualität eines Angebots haben, ohne mit diesem tatsächlich in Kontakt gekommen zu sein. Dieses Vorurteil beruht auf Hörensagen, Vergleich mit anderen Angeboten, Werbeaussagen des Anbieters etc. Zur Auswertung dienen zwei Ansatzgruppen: • Bei eindimensionalen Ansätzen wird nur der Eindruck des jeweils interessierenden Qualitätsmerkmals abgefragt, was auf Wahrscheinlichkeiten oder Gewissheiten beruhen kann (Einskala-Einpunkt-Messung als Selbsteinstufungs-Skala). • Bei multiattributiven Ansätzen wird über die Erfassung des Eindruckswerts hinaus auch die Beurteilung der Wichtigkeit des jeweiligen Qualitätsmerkmals erfasst (Adequacy Importance-Skala). Einstellungsorientierte Ansätze untersuchen gelernte, relativ dauerhafte, positive oder negative innere Haltungen gegenüber einem Anbieter/Angebot. Danach ist die Beurteilung aus Kundensicht das Ergebnis eines Lernprozesses, in den sowohl Prädispositionen als auch eigene Erfahrungen mit dem Leistungsangebot eingehen (Zweiskalen-Einpunkt-Eindrucksmessung):

12.1 Kundenzufriedenheitsmessungen

211

• Bei der direkten Einstellungsmessung wird die wahrgenommene Ausprägung und Bedeutung eines Merkmals anhand je einer Beurteilungsskala erhoben (z. B. Fishbein-Skala). • Bei der indirekten Einstellungsmessung wird neben der wahrgenommenen außerdem die als ideal empfundene Ausprägung des Merkmals erhoben (z. B. Trommsdorff-Skala). Zufriedenheitsorientierte Ansätze untersuchen die Reaktion auf eine Abweichung zwischen erwarteter und tatsächlich erlebter Leistung, sofern bereits Erfahrung mit dem beurteilten oder einem vergleichbaren anderen Anbieter/Angebot vorliegt (Divergenzmessung): • Bei der direkten Zufriedenheitsmessung wird die Differenz zwischen Erwartung und Wahrnehmung der Leistungsqualität simultan erhoben (Zweiskalen-Einpunkt-Messung, z. B. Servqual). • Bei der indirekten Zufriedenheitsmessung werden Erwartung (vor der Leistungserstellung) und Wahrnehmung (bei/nach der Leistungserstellung) zeitlich getrennt erhoben (Zweiskalen-Zweipunkt-Messung, z. B. Differenzenmessung). Für den qualitätsorientierten Ansatz spricht, dass der Proband über keine Erfahrung mit dem Anbieter/Angebot verfügen muss, sondern auf Basis bloßer Einschätzungen urteilen kann, die aber oft genug ausschlaggebend für einen Kauf/ Nichtkauf sind. Für den einstellungsorientierten Ansatz spricht, dass die Aussage­ fähigkeit höher ist, da tatsächliche Erfahrungen mit dem Anbieter/Angebot vorliegen. Für den zufriedenheitsorientierten Ansatz spricht, dass explizit die Übereinstimmung oder Divergenz von ex ante-Erwartungen und ex post-Erlebnissen in der Messung ausgewiesen wird, sodass eine genauere Interpretation möglich ist. Auf die Divergenzmessung, der eine hohe Bedeutung zukommt, wird im Folgenden näher eingegangen. Problematisch ist in jedem Fall, dass die Beurteilungskriterien vorgegeben werden müssen. Dies ist nur korrekt, sofern Objektivität, Vollständigkeit, Redundanzfreiheit, Genauigkeit, Zuverlässigkeit und Relevanz dieser Merkmale gegeben sind. Dies wiederum ist eher unwahrscheinlich und bedarf zur Absicherung zumindest ausführlicher Vorstudien. Die Messung erfolgt jeweils durch Befragung repräsentativ ausgewählter Auskunftspersonen anhand von vom Anbieter bestimmten Kriterien. Der Servqual-Ansatz erhebt branchenübergreifend für jedes als qualitätsrelevant erscheinende Kriterium sowohl die qualitätsbezogene Wichtigkeit als auch den Eindruck einer Leistung. Die Messung erfolgt anhand einer je siebenstufigen Doppelskala als Divergenzmessung. Aus der Differenz der Antworten kann für jedes Kriterium einzeln, und in der Summe als Durchschnitt über alle, die Zufriedenheit abgeleitet werden. Stellt man die Skalen zudem grafisch untereinander, können die Messwerte vertikal mitein-

212

12. Marketing-Mix-übergreifende Marktforschungsanliegen

ander verbunden werden und ergeben zwei anschauliche Polaritätenprofile, deren Verlauf über die bereits realisierte Qualität und deren Abstand zwischen Wichtigkeit und Eindruck über verbleibende Besserungspotenziale Auskunft gibt. Dabei wird unterstellt, dass trotz der relativ großen Divergenz hinsichtlich der einzelnen Branchen die Qualitätsbeurteilung vielfach nach ähnlichen Merkmalen vollzogen wird, sie also umso höher eingeschätzt wird, je mehr die Erwartungen von Kunden übererfüllt werden und dass für diese Kundenerwartungen wesentlich vier Impulse prägend sind, nämlich mündliche Kommunikation in der Transaktion, situative Faktoren, zugrunde liegende Erfahrungen und Anbieterkommunikation. Die Messung erfolgt anhand eines standardisierten Fragebogens, dessen 22 Aussagen gemeinsam fünf Dimensionen der Qualität in gewichteter Darstellung repräsentieren, nämlich: • die Gesamtheit der Annehmlichkeit des physischen Umfelds eines Angebots, einschließlich der Räumlichkeiten, der Einrichtung und des Erscheinungsbilds des Personals (Tangibles mit 11 %, Fragen 1–4), • die Fähigkeit, die versprochene Leistungserstellung zuverlässig und akkurat auszuführen (Reliability mit 32 %, Fragen 5–9), • die Gewilltheit und Schnelligkeit (Reagibilität) bei der Lösung von Kundenproblemen (Responsiveness mit 22 %, Fragen 10–13), • das Wissen, die Höflichkeit und die Vertrauenswürdigkeit der Mitarbeiter, stellvertretend für die Leistungskompetenz des Anbieters (Assurance mit 19 %, Fragen 14–17), • die Bereitschaft der Mitarbeiter, sich individuell um jeden Kunden zu kümmern, also das Einfühlungsvermögen des Kundenkontaktpersonals (Empathy mit 16 %, Fragen 18–22). Zu jeder der 22 Aussagen werden nunmehr zwei Formen erhoben, erstens die Wichtigkeit qualitätsrelevanter Dimensionen für Kunden („so soll es sein“) sowie zweitens deren Eindruck tatsächlich erlebter Leistungen („so ist es“) im Hinblick auf einen spezifischen Anbieter/Angebot. Um die Ausprägung der Teilqualitäten hinsichtlich der fünf Dimensionen zu erhalten, wird der Durchschnitt der Wichtigkeits-Eindrucks-Ergebnisse über die zu jeder Dimension gehörenden Items berechnet. Das Globalmaß wird als Mittelwert über alle fünf Dimensionen gebildet. Für die Konsequenzen ergeben sich vier Kombinationen: • Sowohl hoher Wert für Leistungswichtigkeit als auch hoher Wert für Leistungseindruck: Hier sind Kunden auf hohem Niveau zufrieden, es besteht eine hohe Wettbewerbsfähigkeit des Angebots. Es gilt, diesen Level zu halten. • Hoher Wert für Leistungswichtigkeit bei niedrigem Wert für Leistungseindruck: Hier herrscht ein großes Ausmaß an Kundenenttäuschung vor, eine Wettbewerbsfähigkeit des Angebots ist nicht gegeben. Daher sind dringend Verbesserungsmaßnahmen erforderlich.

12.1 Kundenzufriedenheitsmessungen

213

• Niedriger Wert für Leistungswichtigkeit bei hohem Wert für Leistungseindruck: Hier sind Kunden in hohem Maße zufrieden, eine Wettbewerbsfähigkeit des Angebots ist jedoch fraglich, weil viele Kunden in Erwartung niedriger Leistung erst gar nicht beim Anbieter auftauchen. • Sowohl niedriger Wert für Leistungswichtigkeit als auch niedriger Wert für Leistungseindruck: Hier sind Kunden auf niedrigem Niveau zufrieden, es besteht eine geringe Wettbewerbsfähigkeit des Angebots. Daher sind dringend Verbesserungsmaßnahmen erforderlich. Ein Vorteil des Servqual-Ansatzes liegt in der Standardisierung der Qualitätsmessung und damit in der Möglichkeit, Anbieter/Angebote innerhalb einer Branche oder auch über Branchen hinweg miteinander zu vergleichen. Allerdings ist kritisch zu beachten, ob die Kriterien wirklich alle jeweils relevanten Dimensionen erfassen, nicht aber gleich mehrfach abdecken, was eher zu bezweifeln ist. Werden jedoch eigenständige Merkmalskataloge mit Vollständigkeit, aber ohne Redundanz erstellt, entfällt diese Vergleichsmöglichkeit. Im übrigen liegt ein großes Problem darin, wie diese Kriterien erfasst werden. Es liegt nahe, dass die Angabe der gewünschten Leistungen zu einer „Anspruchsinflation“ führt, die sich in hohen Kosten materialisiert, die Preise erforderlich machen, die eben diese befragten Personen nicht bereit sind zu zahlen. Das heißt, schenkt man den Kundenäußerungen unreflektiert Glauben, manövriert man sich als Anbieter geradezu aus dem Markt heraus. Vor allem aber ist die Auswertungslogik fraglich, denn eine hohe Zufriedenheit ergibt sich danach u. a. auch dann, wenn sowohl die Wichtigkeit der tatsächlich erlebten Leistung als auch deren Eindruck gering sind. Dann ist die Lücke zwar gering, was gerade als Indiz für hohe Kundenzufriedenheit zu interpretieren wäre. Es kommt also mitnichten nur auf die Relation der Werte an, sondern ganz entscheidend muss ein absoluter Referenzstandard für als hinreichend erachtete Mindestqualität hinzukommen. Auch darf die Urteilsfähigkeit der befragten Personen nicht überfordert werden. Die Differenzenmessung erhebt die Erwartungskomponente einerseits und die Erlebniskomponente einer Leistung andererseits zeitlich getrennt. Dies entspricht am ehesten dem Konzept des C-D-Paradigmas. In einem ersten Durchgang werden Personen daher hinsichtlich ihrer Erwartungshaltung an eine Leistung erhoben. Diese wird in allen relevant erscheinenden Merkmalen erfasst. Die Relevanz dieser Merkmale ist in einer Vorerhebung konzeptionell abzusichern. In einer zweiten Runde werden dann dieselben, durchaus aber auch vergleichbare andere Personen hinsichtlich ihres Erlebnisses der Leistung erhoben. Die Erhebung findet jeweils anhand identischer Skalen statt, sodass die Ergebnisse untereinander vergleichbar sind. Wegen der Skalenabfrage ist dabei auch eine größere Zahl von Kriterien umsetzbar. Die Personen werden ausdrücklich nicht zu ihrer Zufriedenheit erhoben, da dies erhebliche Verzerrungen impliziert, aber zeitlich getrennt, einmal vor der Leistungserstellung zu ihrer Erwartung und ein andermal nach der Leistungserstellung zu ihrem Erlebnis.

214

12. Marketing-Mix-übergreifende Marktforschungsanliegen

Die Werte der Erwartungskomponente werden je Kriterium über alle Personen als Durchschnitt gebildet, ebenso die Werte der Erlebniskomponente. Daraus lassen sich bei untereinander angeordneten Skalen Leistungsprofile grafisch darstellen. Die rechnerische oder optische Differenz zwischen den jeweiligen Erwartungs- und Erlebniswerten weist den Zufriedenheitsgrad aus, ohne dass es dazu der expliziten Äußerung der Probanden bedürfte: • Liegt der (ex ante-)Erwartungs-Mittelwert hinsichtlich einer Dimension über deren (ex post-)Erlebnis-Mittelwert, liegt Unzufriedenheit vor. Die Qualität wird als unzureichend wahrgenommen, und zwar als umso schlechter, je höher die (negative) Differenz zwischen beiden Werten ausfällt. Dies führt zur Frustration der Kunden, zur Äußerung ihrer Unzufriedenheit im sozialen Umfeld oder zu sinkenden Kundenzahlen. • Liegt der (ex ante-)Erwartungs-Mittelwert hinsichtlich einer Dimension unter deren (ex post-)Erlebnis-Mittelwert, so ist Begeisterung gegeben. Die Qualität wird als exzellent wahrgenommen, und zwar als umso besser, je höher die (positive) Differenz zwischen beiden Werten ausfällt. Dies führt zu hoher Motivation der Kunden, zur Äußerung ihrer Zufriedenheit im sozialen Umfeld und zum Verbleib beim Anbieter. • Mehr oder minder zufällig kann der Erwartungs-Mittelwert auch mit dem ErlebnisMittelwert übereinstimmen. Dies ist als indifferente Zufriedenheit zu interpretieren. Die Analyse bietet folgende Interpretationsmöglichkeiten: • Hohe Differenz infolge hohen Erwartungs- und niedrigen Erlebniswerts: Die Kunden verspüren ein hohes Maß an Enttäuschung, die Attraktivität des Anbieters leidet, daher sind dringend Verbesserungsmaßnahmen erforderlich (stabile Unzufriedenheit). • Hohe Differenz infolge niedrigen Erwartungs- und hohen Erlebniswerts: Die Kunden sind in hohem Maß zufrieden (begeistert), die Attraktivität des Anbieters ist jedoch fraglich, weil viele potenzielle Kunden in Erwartung niedriger Qualität erst gar nicht dort vorstellig werden (stabile Zufriedenheit). • Geringe Differenz, wobei sich beide Werte auf hohem Niveau bewegen: Die Kunden sind auf hohem Niveau zufrieden, der Anbieter ist hoch attraktiv, es gilt jedoch wegen der hohen Erwartungen, diesen Level unbedingt zu halten (fordernde Zufriedenheit). • Geringe Differenz, wobei sich beide Werte auf niedrigem Niveau bewegen: Die Kunden sind auf niedrigem Niveau zwar hinlänglich zufrieden, aber der Anbieter ist wenig attraktiv, daher sind dringend entsprechende Verbesserungsmaßnahmen erforderlich. Dekompositionelle Verfahren nehmen die Zerlegung eines komplexen Gesamteindrucks in differenzierte Einzeleindrücke vor, die dann einzeln analysiert, zu-

12.1 Kundenzufriedenheitsmessungen

215

einander gewichtet und in der Summe gerangreiht werden. Dafür kommen vor allem zwei Ansätze in Betracht. Bei der Vignette-Methode liegen Schlüsselinformationen zugrunde, aus denen sich konkrete Hinweise darauf ergeben, wo genau mit Aktivitäten angesetzt werden soll. Dabei wird davon ausgegangen, dass relativ wenige Faktoren letztlich die gesamte Leistungswahrnehmung durch Kunden bestimmen, d. h., eine Vielzahl von Einzeldimensionen wird zu übergeordneten Faktoren gebündelt, deren Betrachtung stellvertretend für alle Teilleistungen zur Leistungseinstufung führt. In dem Maße, wie es gelingt, diese Schlüsselfaktoren zu optimieren, überstrahlen sie andere, weniger relevante Merkmale (Irradiation). Weiterhin problematisch ist die Identifizierung dieser Kernfaktoren. Dazu ist es erforderlich, das komplexe Gesamturteil auf den relativen Beitrag einzelner Merkmale herunterzubrechen. Dies kann nur erreicht werden, indem man zunächst alle Teilleistungen katalogisiert und diese dann einzeln hinsichtlich ihres Leistungsbeitrags bei Kunden abfragt. Dies überfordert aber Auskunftspersonen leicht, sodass man real anders vorgeht, indem einzelne vordefinierte Teilleistungen unter Beibehaltung aller anderen variiert (steigern, verschlechtern, hinzunehmen, weglassen) werden und die sich daraus ergebende Veränderung im Gesamturteil gemessen wird. Die Conjoint-Analyse kann dazu den partiellen Beitrag einzelner Attribute einer Gruppe von Objekten, z. B. Auspackqualität, Lieferzeit im Versandhandel, telefonische Bestellannahme, zum Zustandekommen des Globalurteils ermitteln. Insofern kann die relative Bedeutung einzelner Objekteigenschaften, z. B. variierte Auspackqualität, unterschiedliche Lieferzeiten, verschiedene Bestellmedien, isoliert werden. Die Teilleistungen, deren Veränderung den größten nachvollziehbaren Ausschlag im Gesamturteil ergeben, sind offensichtlich die Kernfaktoren. Allerdings ufert der Aufwand zur Erhebung schon bei wenigen Vignetten kombinatorisch rasch aus, sodass real immer nur wenige Kombinationen gemessen werden können. Auswege sind hier fraktionelle Designs, die jedoch einen Informationsverlust bedeuten, mehrstufige Präsentationsprocederes, die jedoch in Suboptimalität enden können, oder paarweise Bewertungen, die zumindest eine Überforderung der Probanden vermeiden. Denkbar ist auch, von allen wahrnehmbaren zunächst die besonders zufriedenheitskritischen Merkmale zu identifizieren, das sind solche, die Zielpersonen für besonders bedeutsam erachten, und diese dann einzeln hinsichtlich ihres Einflusses auf den globalen Qualitätseindruck zu bewerten. Dazu ist eine Vorerhebung erforderlich, die erst einmal diese käuferwichtigen Merkmale feststellt, bevor sie gemessen werden können. Die Qualität setzt sich demnach aus kritischen Routinekomponenten zusammen, deren Erfüllung in jedem Fall erwartet und nicht gesondert honoriert, deren Fehlen aber als gravierend empfunden wird – Qualitätsmängel führen hier zu Penalties – sowie unkritischen Ausnahmekomponenten, die nicht unbedingt erwartet werden, deren Fehlen also nicht weiter moniert, deren Erfüllung aber besonders honoriert wird – Qualität führt hier zu Rewards. Daraus

216

12. Marketing-Mix-übergreifende Marktforschungsanliegen

ergeben sich konkrete Hinweise auf die Qualitätswahrnehmung derart, dass zunächst die Penalty-Faktoren auf ein akzeptiertes Mindestniveau zu hieven sind, bevor es sinnvoll ist, sich mit den Reward-Faktoren zu beschäftigen. Sofern dieses Mindestniveau bei Penalty-Faktoren aber erreicht ist, kann mit Reward-­Faktoren ein komparativer Konkurrenzvorsprung erreicht werden. Ein Problem liegt hierbei darin, was als qualitätskritische Merkmale anzusehen ist. Eindeutig sind hingegen die Leistungsfaktoren, sie führen zu einer hohen Zufriedenheit, je ausgeprägter sie vorhanden sind. So wird z. B. oft versucht, auf den Bereich „Gags&Gimmicks“ auszuweichen, statt sich auf die Kernleistungen des Unternehmens zu konzentrieren, was unbedingt zu vermeiden ist. Denn werden die Kernleistungen (Kompetenz, Akzeptanz, Sympathie, Vertrauen) nicht auf hohem Niveau erbracht (analog Hygienefaktoren), können auch Motivatoren ein Manko nicht kompensieren, kosten aber Zeit und Energie. Erst wenn die Kernleistungen zuverlässig auf hohem Niveau erbracht werden, können Zusatzleistungen Wettbewerbsvorsprünge erzeugen. Eine Gefahr besteht im Pampering von Kunden mit Zusatzleistungen, die diese so gar nicht erwartet hätten, nun, da sie sie aber angeboten erhalten, gern mitnehmen. Fallen diese Zusatzleistungen dann später, etwa aus Lean Management-Gründen, weg, tritt eine Enttäuschung bei Kunden auf, die ansonsten, also ohne das Angebot unnötiger Zusatzleistungen, nicht aufgetreten wäre, nun aber zum Nachteil des Anbieters gerät. Daher empfiehlt es sich, solche Zusatzleistungen an Gegenleistungen zu koppeln (z. B. Bestellumfang, Zahlungsform), nur gegen extra Berechnung zu erbringen oder ganz zu unterlassen (No Frills). 12.1.2.3 Ereignisgestützte Erfassung Bei der Ereignismessung werden alle Kontaktpunkte zwischen Anbieter und Kunden, solche also, an denen es zu Interaktionen kommt, als Ereignisse angesehen. Diese gehen vom Personal (Kundenkontaktmitarbeiter) oder den Anlagen/ Betriebsmitteln des Anbieters aus, werden von Kunden als solche wahrgenommen und zugleich als herausgehoben erachtet. Dabei wird davon ausgegangen, dass Kunden aus der Vielzahl der Situationen überhaupt nur eine begrenzte Anzahl wahrnehmen können (Onstage), wohingegen ihnen eine Vielzahl anderer verborgen bleibt (Back Office). Folglich gilt es auch nur, diese wahrgenommenen Kontaktpunkte zu optimieren. Dazu bedarf es aber zunächst der Kontaktpunktidentifikation. Zu deren Messung werden meist zwei Verfahren eingesetzt. Bei der sequenziellen Ereignismessung wird der Leistungsprozess in einzelne Phasen zerlegt, deren Qualitätswahrnehmungen jeweils getrennt erfasst werden. Dazu werden die Phasen mit Kunden im Rahmen von offenen, strukturierten Interviews aus deren Perspektive gedanklich Schritt für Schritt durchgegangen und in eine Abfolge der Einzelaktivitäten zur Herbeiführung des beabsichtigten Erfolgs gebracht. Die Erfassung erfolgt damit auf Basis der gestützten Erinnerung.

12.1 Kundenzufriedenheitsmessungen

217

Die grafische Darstellung dieser Sequenzen in Form eines Ablaufdiagramms nennt man Blueprint. Allein diese Aufschlüsselung erbringt oft schon erstaunliche Erkenntnisse über den eigentlichen Leistungserstellungsprozess. Darin werden dann die unmittelbar von Kunden wahrnehmbaren Ereignisse (Encounter Points) markiert. Es ergibt sich eine Line of Visibility als Abfolge aller Aktivitäten, die Kunden zu Gesicht bekommen. Diese sichtbaren Teile (Moments of Truth) werden Kunden im persönlichen Gespräch gebeten, nochmals gedanklich-emotional nachzuvollziehen. Das heißt, zum Blueprint gehören alle, auch die normalerweise „kundenunsichtbaren“, zur Line of Visibility aber nur die „kundensichtbaren“ Prozessstufen. Da nur letztere urteilsrelevant sind, denn die Kundenbeurteilung beruht nur auf dem, was von diesen auch wahrgenommen werden kann bzw. von dem, was wahrgenommen werden kann, wird auf das geschlossen, was unsichtbar bleibt (Halo-Effekt), müssen sich Ansätze zur Qualitätssicherung bzw. -steigerung auf diese sichtbaren Teilleistungen konzentrieren. Allerdings ist es unvermeidlich, dass Bemühungen bei „kundensichtbaren“ Prozessen regelmäßig auch die „kundenunsichtbaren“ einbeziehen, weil letztere Voraussetzung für erstere sind. Insofern ist diese Unterscheidung eher anschaulich gemeint. Bei der Kritischen Ereignismessung (Critical Incident Technique)  wird von allen sichtbaren nur die Teilmenge der subjektiv als qualitätsrelevant (besonders zufriedenstellend oder besonders unbefriedigend) erachteten Kernprozesse durch Kunden auf Basis ungestützter Erinnerung beurteilt. Da ihnen die größte Bedeutung zukommt, ist Abhilfe von Mängeln dort am dringlichsten. Dazu bedarf es allerdings einer Vormessung, um aus allen wahrnehmbaren, die als positiv oder negativ herausgehoben erachteten Ereignisse zu selektieren. Indem im Folgenden nur diese beurteilt werden, kommt es zu einer wesentlichen Vereinfachung der Er­hebung und zur Vermeidung der Überforderung der Auskunftspersonen. Allerdings gilt auch hier, dass kritische Ereignisse von der hochwertigen Erfüllung auch unkritischer wie „kundenunsichtbarer“ Ereignisse abhängen. Zudem weicht die Ansicht über kritische Ereignisse intersubjektiv mehr oder minder erheblich voneinander ab. Daraus kann dann ein Anforderungsprofil an Leistungsprozesse abgeleitet werden. Vorteilhaft ist dabei vor allem, dass jeweils von den individuellen Bedarfen der Kunden ausgegangen wird. 12.1.2.4 Problemgestützte Erfassung Hierbei geht es nur um die Teilmenge der negativ auffälligen Ereignisse. Bei der Problementdeckungsmethode werden Aussagen über die Dringlichkeit einer erforderlich werdenden Problembehebung ermittelt, die zumeist als abhängig von der Problemhäufigkeit und der Problembedeutung angesehen wird. Dazu bedarf es zunächst der Zusammenstellung und Erhebung möglicher Probleme. Dann werden die Situationen, in denen Probleme auftreten können, nach ihrer Häufigkeit

218

12. Marketing-Mix-übergreifende Marktforschungsanliegen

ausgewertet und nach ihrer Bedeutung aus der Sicht von Kunden gewichtet. Dazu bedarf es sowohl der Erhebung der Häufigkeit von Problemen als auch des Einflusses dieser Probleme auf das gesamte Qualitätsurteil. Es ergeben sich häufige und seltene Kundenkontaktsituationen, diese sind entweder kundenwichtig oder kundenunwichtig. Die Schritte lauten daher: • Ermittlung einer Problemliste, dabei geht es zunächst um eine gewisse Vollständigkeit, denn Probleme, die hier „übersehen“ werden, fehlen während des gesamten weiteren Verfahrens. • Komprimierung dieser Liste nach Relevanz- und Redundanzaspekten, indem Oberbegriffe für Detailprobleme geschaffen und ähnliche Probleme darunter zusammengefasst werden. • Erstellung eines Fragebogens mit Statements zu den dabei verbleibenden Problemen, wobei sowohl die Relevanz von Problemen als auch deren Auftritts­ frequenz abgefragt wird. • Datenerhebung der Kundenaussagen mit Durchführung der Befragung sowie anschließender Sichtung und Auswertung der Daten, um zu aussagefähigen Schlussfolgerungen zu gelangen. Bereits eingeleitete Maßnahmen zur Problembehebung können danach hinsicht­ lich ihrer Effektivität aus Kundensicht erhoben werden. So erhält man einerseits wertvolle Verbesserungsvorschläge und andererseits ein Feedback darüber, inwieweit eine Problemlösung bereits erreicht ist oder weitere Maßnahmen erforderlich sind. Wichtig ist, dass das, was relevant ist, sich allein aus der Sicht der betroffenen Kunden bestimmt. Darin liegt zugleich auch das Problem, denn Nachfrage ist nicht kreativ, d. h., was Kunden für wichtig ansehen oder nicht, darüber können diese kaum initiativ Auskunft geben, sondern nur durch Reflektion auf ein konkretes Angebot. Daraus ergibt sich eine gewisse Unausgewogenheit derart, dass zwar vorhandene Probleme erfasst werden können, Verbesserungsmöglichkeiten jedoch verborgen bleiben. Ausgehend davon liegt es nahe, Kunden hinsichtlich ihrer Vorstellungen zur Möglichkeit der Problemlösung (etwa bei der Konkurrenz, in verwandten Branchen etc.) zu befragen, um Anregungen zur Abstellung von Mängeln zu gewinnen. Die Frequenz-Relevanz-Analyse für Probleme (FRAP) stellt eine Variante der Problementdeckungsmethode dar, die sich mit den Fragen beschäftigt, ob das jeweilige potenzielle Problem überhaupt aufgetreten ist, wie groß das Ausmaß der Verärgerung bei Kunden ist und wie diese darauf reagieren bzw. zu reagieren ankündigen. Dabei liegt die Annahme zugrunde, dass ein Anbieter sich umso eher mit einem Problem befassen sollte, je häufiger es auftritt und je bedeutsamer es für Kunden ist. Als Informationsbasis dienen Kundenbefragungen nach Problemauftritt (Frequenz), Ausmaß der Verärgerung bei Problemauftritt und Verhaltensreaktion (z. B. Beschwerde/Voice oder Anbieterwechsel/Switch) darauf. Die so erfassten

12.2 Lebensstilforschung

219

Probleme werden zu Gruppen zusammengefasst. Die Ermittlung der Frequenzwerte ist relativ unproblematisch, die Ermittlung der Relevanzwerte entsteht durch Multiplikation der Aussagen zu den beiden übrigen Kategorien Verärgerungsausmaß und Verhaltensreaktion. Die grafische Darstellung erfolgt in Form eines Diagramms. Problemwertindices errechnen sich als Quotient aus der Summe der für einzelne Problemdimensionen bestimmten Relevanzwerte und der Gesamtzahl der Befragten. Dabei stellt sich zumeist heraus, dass wenige Probleme den größten Anteil der Problemrelevanz ausmachen (Pareto-Prinzip). Hochfrequente und hochrelevante Probleme (also die, mit dem höchsten Produkt) sind dabei zuerst hinsichtlich einer Problembeseitigung zu untersuchen, geringfrequente und geringrelevante zuletzt und alle anderen dazwischen liegend. Wobei nicht verschwiegen werden soll, dass auch kleinere Probleme in hoher Frequenz nerven oder seltene, dafür aber durchschlagende Probleme. Insofern geht es hier nur um eine Prioritätsfolge. Voraussetzung für die Anwendbarkeit ist allerdings der häufige Kontakt von Kunden mit dem Anbieter, da es ansonsten an der erforderlichen Kontaktfrequenz mangelt.

12.2 Lebensstilforschung 12.2.1 Wertebasis Werte sind allgemein Auffassungen von Wünschenswertem, die explizit oder implizit für ein Individuum oder für eine Gruppe kennzeichnend sind und die Auswahl der zugänglichen Weisen, Mittel und Ziele des Handelns beeinflussen. Man unterscheidet: • Globalwerte als überdauernde Überzeugungen, die sich auf gewünschte Existenzialzustände bzw. Verhaltensweisen beziehen. Dabei handelt es sich um wenige Basiswerte und Grundorientierungen (z. B. Beachtung der Ökologie). • Bereichswerte als kaufbezogene Aspekte, die Auskunft über Lebens- und Gesellschaftsbereiche geben (z. B. Bevorzugung von Qualität). Dies sind einige Indikatoren. • Angebotswerte als produktliche Attribute und deren bewertende Überzeugungen. Dies sind viele Kriterien. Werte unterliegen stetiger bis sprunghafter Veränderung (Wertewandel). Solche Wertestrukturen kommen vor allem in Lebensstilen zum Ausdruck. Dafür gibt es mehrere wesentliche Ansätze. Der AIO-(für Activities, Interests, Opinions-)Ansatz untersucht: • beobachtbare Aktivitäten (Activities) wie Arbeit, Hobbys, soziale Ereignisse, Urlaub, Unterhaltung, Vereinsmitgliedschaft, Gemeinschaften, Einkaufen, Sport,

220

12. Marketing-Mix-übergreifende Marktforschungsanliegen

• emotionale Interessen (Interests) wie Familie, Zuhause, Beruf, Gemeinschaften, Erholung, Mode, Essen, Medien, Leistungserreichung, • kognitive Meinungen (Opinions) wie Einstellungen zu sich selbst, soziale Belange, Politik, Geschäftswelt, Wirtschaft, Erziehung/Bildung, Produkte, Zukunft, Kultur. Der VALS (für Value and Lifestyles-)-Ansatz hebt zusätzlich zu den Aktivitäten, Interessen und Meinungen auf die Werthaltungen ab (in 35 Elementen), die durch Fragenkataloge erfasst werden. Alle Elemente bilden gemeinsam mit der Soziodemographie (in vier Dimensionen) Lebensstiltypen. So ergeben sich auf Basis erwachsener Amerikaner (ca. 80.000 Umfragen) zwei Gruppen mit je vier Charakterisierungen. Ausgangspunkt dafür ist einerseits die Konsummotivation. Diese basiert auf Idealen, Erfolg und Selbstdarstellung. vor allem Wissen, Prinzipien, Aktivität, Abwechslung und Risiko. Andererseits die Ressourcenverfügbarkeit. Die Ressourcen ergeben sich aus Energie, Selbstbewusstsein, Intellektualität, Suche nach Neuem, Kreativität, Impulsivität, Führungsanspruch und Eitelkeit. Bei hoher Ressourcenverfügbarkeit handelt es sich dann um folgende Konsumententypen: • Innovatoren sind erfolgreiche, anspruchsvolle, aktive, die Leitung übernehmende Personen mit ausgeprägtem Selbstwertgefühl. Ihre Einkäufe spiegeln oft Vorlieben für nischenorientierte Produkte und Dienstleistungen der oberen Preisklasse wider. • Denker sind reife, zufriedene und reflektierende Menschen, die durch Ideale angetrieben werden und Aspekten wie Ordnung, Wissen und Verantwortung hohen Stellenwert beimessen. Sie suchen bei Produkten nach Langlebigkeit, Funktionalität und Qualität. • Arrivierte sind erfolgreiche, zielorientierte Menschen, die sich auf Karriere und Familie konzentrieren. Sie bevorzugen Premiumprodukte, die Gleichrangigen ihren Erfolg verdeutlichen. • Erfahrungssucher sind junge, enthusiastische, impulsive Menschen, die nach Abwechslung und Spannung suchen. Sie geben überproportional viel Geld für Kleidung, Unterhaltung und Geselligkeit aus, für sie ist Selbstdarstellung wichtig. Bei geringer Ressourcenverfügbarkeit handelt es sich um folgende Konsumententypen: • Gläubige sind konservative, konventionelle und auf Tradition ausgerichtete Menschen mit fest verankerten Werten. Sie bevorzugen bekannte, inländisch produzierte Produkte und halten etablierten Marken die Treue. • Aufstrebende sind moderne, spaßorientierte Menschen. Sie bevorzugen modische Produkte, die denen derer ähneln, die in größerem materiellen Wohlstand leben als sie und Erfolg demonstrieren.

12.2 Lebensstilforschung

221

• Macher sind praktisch veranlagte, mit beiden Beinen fest auf dem Boden stehende, autarke Menschen, die gern manuelle Arbeiten verrichten. Sie bevorzugen inländisch produzierte Produkte mit praktischem oder funktionalem Verwendungszweck. • Überlebende sind ältere, passive Menschen, die sich Sorgen um negative Wirkungen von Veränderungen machen und ihre Lieblingsmarken mit Treue belohnen. Sie sind wenig innovativ. Ein weiterer Ansatz hebt auf die ursprünglichen, unverfälschten Werte ab, die jeder Mensch in sich trägt und die seine Einstellung wie sein Verhalten bestimmen, indem zur Messung ausgewählte Wörter verwendet werden (Semiometrie/ Emnid). Dabei werden potenzielle Käufer oder Zuschauer nicht nach Alter, Geschlecht oder Einkommen eingegrenzt, vielmehr wird davon ausgegangen, dass Wörter bestimmte Werte, angenehme oder unangenehme Gefühle vermitteln und wecken. Personen mit gleichen Einstellungen, Meinungen und Motiven werden daher auch die einzelnen Wörter ähnlich bewerten. Dem liegt die Hypothese zugrunde, dass sich Werte in der Sprache widerspiegeln und unterschiedliche Werthaltungen durch die Interpretation von Wörtern zum Ausdruck kommen. Emnid verwendet dazu 210, durch Vorstudien reduzierte, ausgewählte Wörter (Substantive, Verben, Adjektive), die im Zeitablauf konstant bleiben. Jedes Wort wird von Probanden auf repräsentativer Basis auf einer siebenstufigen Skala von „sehr angenehm“ bis „sehr unangenehm“ bewertet. Aus den kumulierten Bewertungen ergibt sich durch multivariate Analyse die Position jedes Wortes in einem mehrdimensionalen Raum, zweidimensional reduziert kann es sich z. B. um die Dimensionen „Sozialität“ vs. „Individualität“ und „Lebensfreude“ vs. „Pflicht“ handeln. Für die Gesamtbevölkerung liegt diese Anordnung der Wörter im Raum also repräsentativ vor (durch regelmäßige Erhebung wird der Wertewandel berücksichtigt). Probanden, stellvertretend für dahinter stehende Zielgruppen, bilden nun eine vom Durchschnitt abweichende Anordnung dieser Wörter im Raum ab. So finden sich Wörter, die von Probanden übereinstimmend abweichend vom Durchschnitt über- oder unterbewertet werden. Diese Personen stellen dann im System ein gemeinsames Segment dar. Selektiert man bei den so gefundenen Segmenten Gemeinsamkeiten der Personen, ergibt sich daraus ein wertebezogenes Ziel­ gruppenprofil. Eine wesentliche Gemeinsamkeit kann z. B. in der Verwendung einer Marke liegen, sodass sich Zielgruppenprofile verschiedener Marken vergleichen lassen. Mit Hilfe dieses Ansatzes kristallisieren sich somit psychokulturellen Wertmuster von Produktverwendern, Fernsehzuschauern oder auch Zeitschriftenlesern heraus. Jeder dieser Typen kann als eigenes Marktsegment verstanden und durch Aktivitäten kontaktiert werden. Typologien gehen jedoch noch einen Schritt weiter, indem sie vermarktungsrelevante Tatbestände in die Erhebung einbeziehen.

222

12. Marketing-Mix-übergreifende Marktforschungsanliegen

12.2.2 Lebensstiltypologien Lebensstiltypologien erfassen Aktivitäten, Interessen und Meinungen gegenüber Freizeit, Arbeit und Konsum einer Person allein oder mehrerer Personen zusammen mit anderen in Bezug auf allgemeines Verhalten oder spezifische Produktklassen. Ziel ist es dabei jeweils, herauszufinden, „how People spend their Time at Work and Leisure (Activities), what is important to them in their immediate Surrounding (Interests) and how they feel about themselves and the larger World (Opinions).“ (Leo Burnett). Die Typologien werden durch multivariate, statistische Reduktionsverfahren gebildet. Zusätzlich werden jeweils auch sozio­ demographische Merkmale erhoben und ausgewertet. Bereits vor 40 Jahren hat Leo Burnett mit der Chicago University den Lebensstilforschungs-Ansatz begründet und zur Lifestyle-Typologie entwickelt. Damit wollte er die Schwächen der rein demographischen Zielgruppenbeschreibung durch die Einbeziehung von Lebensstilen überwinden. Die Lifestyle-Typologie erfasste 27 Lebensstilbereiche für 91 Produktfelder und 74 Medien. Hinzu kamen kunden-/produktspezifische Items. Befragt wurden 2.000 Personen ab 14 Jahre mündlich, anhand von Selbstbeschreibung und Soziodemographie, sowie schriftlich, anhand von Haushaltsbuch und Mediennutzung über 250 AIO-Items, 25 demographische Items und 50 Konsumitems nach Produktkategorien getrennt. Abgefragt wurden dabei u. a. folgende Statements: • Freizeit und soziales Leben: Freizeitaktivitäten, Freizeitmotive, Ausübung verschiedener Sportarten, bevorzugte Urlaubs-/Reiseart, soziales Netzwerk, • Interessen: Musikinteressen, Themeninteressen, Gruppenmitgliedschaften, • Stilpräferenzen: bevorzugter Wohnstil (bildgestützt), bevorzugter Kleidungsstil (verbal und optisch präsentiert), • Konsum: Öko-Einstellungen, Einstellung zu Essen und Trinken, Einstellung zu Geld und Konsum, • Outfit: Einstellung zu Kleidung, Body-Image, • Grundorientierung: Lebensphilosophie und Moral, Zukunftsoptimismus, soziale Milieus, • Arbeit: Arbeitszufriedenheit, Arbeitseinstellungen, Berufserwartungen, • Familie: Einstellungen zu Familie, Partnerschaft und Emanzipation, Rollenbilder, Wohnsituation, • Politik: Politisches Interesse und Parteiinteresse, Politikwahrnehmung. Als Output der Analyse ergaben sich Personentypen, die mit Namen und Foto versehen waren, um ihre Prägnanz zu erhöhen. Männliche Namen zeigten an, dass dieser Typ überwiegend, wenngleich nicht ausschließlich, bei Männern vertreten

12.2 Lebensstilforschung

223

war, weibliche Namen analog, Pärchen zeigten an, dass die Ausprägung ungefähr gleichermaßen männlich wie weiblich besetzt war. Der Ansatz wird seit 1991 nicht mehr verfolgt. Der letzte Durchgang ergab folgende Typen: • Traditionelle Lebensstile (37 % der erwachsenen Bevölkerung): Erika – die aufgeschlossene Häusliche, Erwin – der Bodenständige, Wilhelmine – die bescheidene Pflichtbewusste, • Gehobene Lebensstile (20 %): Frank und Franziska – die Arrivierten, Claus und Claudia – die neue Familie, Stefan und Stefanie – die jungen Individualisten, • Moderne Lebensstile (42 %): Michael und Michaela  – die Aufstiegsorientierten, Tim und Tina – die fun-orientierten Jugendlichen, Martin und Martina – die trendbewussten Mitmacher, Monika – die Angepasste, Eddi – der Coole, Ingo und Inge – die Geltungsbedürftigen. Der Typologie Sozialer Milieus (Sinus Sociovison) liegt die Hypothese zugrunde, dass der Mensch in seinem Wesen nicht genetisch codiert, sondern Produkt seiner Sozialisation ist. Dies unterstellt, kann der Umkehrschluss gewagt werden, nämlich aus der Umgebung auf den Menschen, der sich darin wohlfühlt, zu schließen. Mit der Lebensweltforschung wird seit 1979 versucht, Veränderungen in Einstellungen und Verhaltensweisen als Abbild des gesellschaftlichen Wertewandels zu beschreiben und zu prognostizieren. Dabei werden alle wichtigen Erlebnis­ bereiche erfasst. Die empirisch ermittelten Wertprioritäten und Lebensstile werden zu einer Basis-Typologie verdichtet. Sie enthält derzeit zehn Gruppen. Die Anteile der einzelnen Milieus an der Bevölkerung werden jährlich aktualisiert. Gleichzeitig wird versucht, dem Wertewandel auf der Spur zu bleiben. Bei Bedarf werden neue Milieus aufgenommen bzw. bestehende verändert oder weggelassen. Durch die hohen Fallzahlen werden auch kleinere Milieugruppen valide erhoben. Soziale Milieus stellen eine Weiterentwicklung der Lifestyle-Forschung dar. Demzufolge sind Lebensstile nur sinnvoll im Kontext von Milieus zu interpretieren. Die milieuspezifische Wertorientierung steuert Lebens- und Konsumstile, die wiederum das ästhetische Erleben und Verhalten sowie den Geschmack prägen. Die Typologie Sozialer Milieus der Sinus Marktforschung erfasst in 4.000 Interviews die verschiedenen, nach Vorstudien als relevant erachteten Bausteine der Lebenswelten mit folgenden Inhalten: • Lebensziel, d. h. Werte, Lebensgüter, Lebensstrategie, Lebensphilosophie, • soziale Lage, d. h. Anteil an der Grundgesamtheit, soziodemographische Struktur der Milieus, • Arbeit/Leistung, d. h. Arbeitsethos, Arbeitszufriedenheit, gesellschaftlicher Aufstieg, Prestige, materielle Sicherheit, • Gesellschaftsbild, d. h. politisches Interesse, Engagement, Systemzufriedenheit, Wahrnehmung und Verarbeitung gesellschaftlicher Probleme,

224

12. Marketing-Mix-übergreifende Marktforschungsanliegen

• Familie/Partnerschaft, d. h. Einstellung zu Partnerschaft, Familie, Kindern, Geborgenheit, emotionale Sicherheit, Vorstellung vom privaten Glück, • Freizeit, d. h. Freizeitgestaltung, Freizeitmotive, Kommunikation und soziales Leben, • Wunsch-/Leitbilder, d. h. Wünsche, Tagträume, Fantasien, Sehnsüchte, Leitbilder, Vorbilder, Identifikationsobjekte, • Lebensstil, d. h. ästhetische Grundbedürfnisse (Alltagsästhetik), milieuspezifische Stil- und Wohnwelten.

Abbildung 63: Sinus-Milieus in Deutschland (Quelle: Sinus)

Bei den Sozialen Milieus (Milieugruppen) werden aktuell folgende unterschieden (Sinus Institut, siehe Abbildung 63): • Adaptiv-pragmatisches Milieu (C2): Die mobile, zielstrebige junge Mitte der Gesellschaft mit ausgeprägtem Lebenspragmatismus und Nutzenkalkül, erfolgsorientiert und kompromissbereit, starkes Bedürfnis nach Flexibilität bei gleichzeitiger Sicherheit (9 % der erwachsenen Gesamtbevölkerung). • Expeditives Milieu (C 12): Die stark individualistisch geprägte, digitale Avantgarde, unkonventionell, kreativ, mental und geografisch mobil und immer auf der Suche nach neuen Grenzen und Veränderungen (6 %). Untergruppen sind Kreative Avantgarde und Experimentalisten. • Bürgerliche Mitte (B 23): Der leistungs- und anpassungsbereite bürgerliche Mainstream, generelle Bejahung der gesellschaftlichen Ordnung, Streben nach

12.2 Lebensstilforschung

225

beruflicher und sozialer Etablierung, nach gesicherten und harmonischen Verhältnissen  (14 %). Untergruppen sind Statusorientiertes Bürgertum und Moderne Harmoniemilieus. • Hedonistisches Milieu (BC 23): Die spaßorientierte moderne Unterschicht/untere Mittelschicht, Leben im Hier und Jetzt, Verweigerung von Konventionen und Verhaltenserwartungen der Leistungsgesellschaft (15 %). Untergruppen sind bürgerliche Hedonisten und Subkulturelle Hedonisten. • Konservativ-etabliertes Milieu (AB 12): Das klassische Establishment: Verantwortungs- und Erfolgsethik, Exklusivitäts- und Führungsansprüche vs. Tendenz zu Rückzug und Abgrenzung (10 %). Untergruppen sind Standesbewusste Repräsentanten und Humanistisch-Bildungsbürgerliche. • Liberal-intellektuelles Milieu (B 1): Die aufgeklärte Bildungselite mit liberaler Grundhaltung, postmateriellen Wurzeln, Wunsch nach selbstbestimmtem Leben und vielfältigen intellektuellen Interessen (7 %). Untergruppen sind Individualistisch-Intellektuelle und Sozial-Ökologische. • Performer-Milieu (C 1): Die multi-optionale, effizienzorientierte Leistungselite mit global-ökonomischem Denken und stilistischem Avantgarde-Anspruch (7 %). Untergruppen sind Liberale Performer und Bürgerliche Performer. • Prekäres Milieu (B 3): Die Teilhabe und Orientierung suchende Unterschicht mit starken Zukunftsängsten und Ressentiments, bemüht, Anschluss zu halten an die Konsumstandards der breiten Mitte als Kompensationsversuch sozialer Benachteiligungen, geringe Aufstiegsperspektiven und delegative/reaktive Grundhaltung, Rückzug ins eigene soziale Umfeld (9 %). Untergruppen sind Robuste Konsum-Materialisten und Defensiv-Prekäre. • Sozial-ökologisches Milieu (B 12): Idealistisches, konsumkritisches/-bewusstes Milieu mit ausgeprägtem ökologischen und sozialen Gewissen, Globalisierungs-Skeptiker, Bannerträger von Political Correctness und Diversity (7 %). • Traditionelles Milieu (AB 23): Die Sicherheit und Ordnung liebende Kriegs-/ Nachkriegsgeneration, in der alten kleinbürgerlichen Welt bzw. in der traditionellen Arbeiterkultur verhaftet (15 %). Untergruppen sind Traditionsverhaftete, Junge Traditionsverhaftete und Zurückgezogene Traditionelle. Die Roper Socio Styles (GfK) streben ein komplexes, dynamisches Portrait von Menschen mit der Synthese einer Vielzahl von Lebensfacetten in unterschiedlichen wirtschaftlichen und gesellschaftlichen Bereichen an. Dabei werden bei über 40.000 Personen in mehr als 40 europäischen Ländern charakteristische Lebensstile in Bezug auf das tägliche Leben erhoben. Unterschiede zwischen den einzelnen Ländern spiegeln sich in unterschiedlichen Größen der jeweiligen Lebensstiltypen wider. Jeder Lebensstil ist einheitlich für ganz Europa definiert. Unterschiede resultieren dann in abweichenden prozentualen Anteilen. Dadurch wird eine standardisierte Marktbearbeitung möglich. Gesellschaftliche Trends und Entwicklungen können somit frühzeitig erkannt und deren Einfluss auf den Konsum abgeschätzt werden.

226

12. Marketing-Mix-übergreifende Marktforschungsanliegen

Jeder Socio-Style ist in jedem europäischen Land anzutreffen, weil, so die These, die westeuropäischen Gesellschaften in der Neuzeit parallel eine gleichartige soziale Entwicklung vollzogen haben. Insofern können Zielgruppen ländergrenzenübergreifend gleichartig definiert werden. Als Basis dienen 3.500 AIOVariable für jede Befragungsperson. Die Aufnahme auftraggeberspezifischer Items ist möglich. Erfasst werden ansonsten Besitz, Verbrauchs- und Kaufverhalten (mit Motivationsstrukturen: Mein Privatleben, Mein Berufsleben, Mein gesellschaftliches Leben, Mein politisches Leben, Mein kulturelles Leben, Mein Geschäftsleben, Mein Leben als Verbraucher) sowie Mediennutzung. Grafisch erfolgt die Einordnung in eine Matrix mit vier Polen: einerseits Frieden, Sicherheit und Puritanismus (Settlement/Beständigkeit) vs. Leidenschaft, Hedonis­ mus und Vergnügen (Movement/Veränderung), sowie andererseits Haben-Materialismus und Preisorientierung (Valuables/Illusion) vs. Sein-Postmaterialismus und Qualität (Values/Wirklichkeit). Daraus entstehen aktuell folgende Lebensstiltypen (siehe Abbildung 64): • Die Bodenständigen (Steady World) sind traditionsorientierte Senioren mit mittlerem Lebensstandard, die ihren Ruhestand voll und ganz ausschöpfen. Sie pflegen einen bewusst einfachen Konsumstil, der auf Familie, Sicherheit und Gesundheit ausgerichtet ist. • Die Behaglichen (Cosy Tech World) sind aktive moderne Paare mittleren Alters mit meist überdurchschnittlicher Haushaltsausstattung, die auf der Suche nach persönlicher Entfaltung sind. • Die Träumer (Magic World)  sind intuitive, junge und materialistische Leute, die von der Welt der Stars träumen und einem Platz an der Sonne hinterher jagen. Sie wollen Marken mit starkem Image und sind stets auf der Suche nach Schnäppchen. • Die Abenteurer (Crafty World)  sind junge, dynamische Leute einfacher Herkunft auf der Suche nach Erfolg und materieller Unabhängigkeit. Sie pflegen einen demonstrativen, auf Freizeit und Innovation ausgerichteten Konsum und sind Trendsetter. • Die Kritischen (Authentic World) sind engagierte Familien mit klarem Bekenntnis zu Umwelt und Gesellschaft, ohne dabei die angenehmen Seiten des Lebens (Harmonie, Ausgeglichenheit) zu vernachlässigen. Sie haben einen rationalen, an hoher Qualität und Zukunftsträchtigkeit ausgerichteten Konsumstil. • Die Schutzsuchenden (Secure World) sind konformistische, hedonistische Familien aus einfachen Kreisen, die sich abkapseln, vom einfacheren Leben träumen und sich den traditionellen Rollen verbunden fühlen. • Die Anspruchsvollen (Standing World) sind kultivierte, pflichtbewusste Bürger mit traditionellem Halt und disziplinierter Persönlichkeit. Sie pflegen einen anspruchsvollen Konsumstil. Sie legen Wert auf Qualität und kaufen in der Regel vernunftbetont.

12.2 Lebensstilforschung

227

• Die Weltoffenen (New World) sind hedonistische, tolerante Intellektuelle auf der Suche nach Individualität und persönlicher Harmonie. Ihr gehobener Konsumstil ist auf Lifestyle und Ambiente ausgerichtet.

Abbildung 64: Euro Socio Styles (Quelle: GfK)

Das Pariser Research Institute on Social Change (RISC) untersucht seit 20 Jahren gesellschaftliche Trends in ganz Europa, um daraus Typologien zu entwickeln (RISC-Typologie). Der entsprechende Fragebogen umfasst 100 soziokulturelle Fragen und Statements, wie „Unsere Kultur und viele Werte unseres Landes sind heute in Gefahr“, die graduell beantwortet werden. Jeder Befragte wird daraufhin auf Basis seiner Antworten dreidimensional positioniert: • Die erste Dimension bewegt sich zwischen Aufbruch und Stabilität (dabei wird die Offenheit für neue Ideen erhoben). • Die zweite Dimension stellt die Antipole „Streben nach Harmonie/höhere Werte“ und „profaner Lustgewinn“ gegenüber (Beispiel: Lehrer, die an einer Waldorfschule unterrichten als Gegenpol zu ausgemachten Techno-Freaks). • Die dritte Dimension erfasst die globale vs. lokale Orientierung. Entweder fühlen sich die Interviewten als Teil  einer „Weltgemeinschaft Gleichgesinnter“ oder sind eher ihrer direkten Umgebung verbunden (Beispiel: Globetrotter vs. Kegelclub-Ausflug an die Mosel). Die Position der Befragten wird nicht in Koordinaten umgesetzt, sondern in „Euroscan“, einer dreidimensionalen Abbildung der RISC-Typen. Für jedes dieser Segmente werden spezielle Merkmale abgefragt. Die Antworten für jeden einzelnen Typ werden sodann anhand der Gesamtbevölkerung indiziert. Werte über 100 sprechen für eine überproportionale Ausprägung. Mit der speziellen Software Micro­RISC können die Umfragen ausgewertet und im Euroscan dargestellt werden.

228

12. Marketing-Mix-übergreifende Marktforschungsanliegen

Lebensstiltypologien haben eine Reihe von Vor- und Nachteilen. Als Vorteile sind vor allem folgende zu nennen: • Es besteht eine hohe Marketingrelevanz, da beobachtbares Verhalten oder zumindest mehrfach abgesicherte Indikatoren für dieses Verhalten die Grundlage der Ergebnisse bilden. • Typologien erleichtern den Beteiligten durch ihre Anschaulichkeit die Arbeit, denn ansonsten abstrakt und wenig greifbar erscheinende Segmentbeschreibungen werden prägnant und transparent. • Die Plastizität der Ergebnisse erleichtert die Ableitung zielgerichteter Marketingaktivitäten, um die identifizierten und anzusteuernden Segmente bearbeiten zu können. • Sach- und Dienstleistungen können hinreichend an das Profil der Lebensstile angepasst werden und erreichen damit eine höhere Akzeptanz am Markt. • Die Aussagen der Typologien erleichtern die Übersetzung in werbliche Botschaften, die zur Auslobung geeignet sind. • Typologien sind recht differenziert in ihren Aussagen, sodass Segmente sehr zielgenau abgegrenzt und angesteuert werden können. • Es handelt sich um Ableitungen aus realen Gegebenheiten, nicht um leicht angreifbare Hypothesen oder theoretische Erwägungen. • Typologien sind, sachgerecht erhoben und ausgewertet, ein exaktes Spiegelbild der tatsächlichen Nachfrageverhältnisse am Markt. Diesen Vorteilen stehen jedoch auch erhebliche Nachteile gegenüber: • Typologien täuschen womöglich eine Scheinexaktheit vor, die so nicht gegeben ist und auch nicht erreichbar scheint. Dies ist vor allem bei einem unreflektierten Umgang mit den Ergebnissen problematisch. • Die Praktikabilität des Erhebungsumfangs verhindert die Berücksichtigung spezieller Inhalte, allerdings gibt es zwischenzeitlich eine inflationierende Vielzahl spezialisierter Typologien. • Die Merkmale, die der Typologie zugrunde liegen, sind nicht allgemein klassifizierbar, weil sie als qualitative Daten wenig trennscharf und exakt bleiben. • Da Typologien jeweils individuelle Forschungs-Designs zugrunde liegen, sind ihre Ergebnisse untereinander nicht vergleichbar. Dadurch ist ihre Anwendung erheblich begrenzt. • Die forscherische Fundierung der Typologien ist im Einzelfall eher zweifelhaft, zudem werden die Forschungs-Designs gelegentlich wohl so angelegt, dass sie die Ergebnisse zu liefern vermögen, die ihre Auftraggeber von ihnen erwarten (z. B. Verlagstypologien).

12.3 Wettbewerbsforschung

229

• Für die entstehenden Typen ergeben sich Identifikationsschwierigkeiten, da die Ursprungsdaten mathematisch-statistisch reduziert werden und dadurch ihre Rückbeziehbarkeit auf die Ausgangseinheiten unmöglich wird („Falltür“). • Zudem entstehen in Typologien regelmäßig Kunsttypen, die so in der Wirtschaftswirklichkeit überhaupt nicht vorhanden, sondern bloße Artefakte quantitativer Verfahren sind (induktiver Ansatz). • Wegen des hohen Erhebungsaufwands werden Typologien häufig nur in größeren Zeitabständen ermittelt, sodass sie den dazwischen stattfindenden Wertewandel nur unvollkommen wiedergeben können.

12.3 Wettbewerbsforschung Die Wettbewerbsforschung (Competitive Intelligence/CI) umfasst im Einzelnen sowohl Methoden, die illegal (kriminell) sind, als auch solche (hier interessierend), die rechtlich einwandfrei sind. In einem ersten Schritt erfolgt eine Feststellung des Informationsbedarfs, u. a. hinsichtlich des Umfangs der erforderlichen Informationen, des Zielinhalts der Forschung, des dabei zu erfassenden Zeithorizonts, der erforderlichen Strukturierung der Daten etc. Nach der Häufigkeit der Durchführung kann eine einmalige, eine fallweise wiederholte, eine regelmäßig wiederholte oder eine kontinuierliche CI-Forschung unterschieden werden. Weiterhin steht eine Abgrenzung des Forschungsobjekts an (Wer ist Wettbewerb?). Dazu ist eine, wenngleich schwierige Abgrenzung des Relevanten Markts erforderlich (Strategisches Geschäftsfeld/Arena) (s. o.). Innerhalb des Relevanten Markts sind die Strategischen Gruppen zu identifizieren und innerhalb dieser wiederum der zentrale „Gegner“. Zur Abgrenzung der Strategischen Gruppe dienen folgende Kriterien: • Raum betrifft ein im Wesentlichen gleiches Absatzgebiet, • Produkt betrifft ein vergleichbares Nutzenangebot, • Person betrifft eine gemeinsame Zielgruppe, • Zeit betrifft eine gleiche Marktpräsenz. Die dann zur Verfügung stehenden Informationsquellen können interne oder externe sein. Intern ist als Primärquelle vor allem an Mitarbeiter als Erfahrungsträger (Implicit Knowledge)  zu denken. Dabei kann es sich um aktuelle Mit­ arbeiter, ehemalige Mitarbeiter, Marktforscher etc. handeln. Als Sekundärquelle stehen forschungsrelevante Dokumentationen, Analysen, Expertisen o.Ä. zur Verfügung. Denkbar ist zudem eine Gewichtung dieser Quellen nach ihrer vermuteten Relevanz.

230

12. Marketing-Mix-übergreifende Marktforschungsanliegen

Extern sind ausgesprochen vielfältige Informationsquellen verfügbar. Zu nennen sind folgende: • Auftrag an Clipping-Dienste, die eine Auswahl aus Veröffentlichungen zu vorgegebenen Stichworten zur Verfügung stellen, diese können einem Textmining unterzogen werden, • Versuch zur Erfassung des Deep Web, das sind Seiten im WWW mit Zugangssperre, ohne aussagefähige Metatags, mit Aussperrung von Crawlers, mit (dyna­ mischen) Echtzeitdaten, ohne Links von anderen Seiten, mit Zahlungspflicht etc., diese Seiten werden in „normalen“ Suchmaschinen aufgrund des Suchalgorithmus nicht angezeigt, • Auswertung von Spezialsuchmaschinen, diese sind kostenpflichtig und nur auf ein Thema spezialisiert, z. B. bei Wirtschaft LexisNexis, Genios, Wisonet etc., • Sichtung von Weblogs, z. B. von Amateur-Rechercheuren, • Recherche von Handelsregistereinträgen mit Informationen zu Rechtsform, Firmierung, Niederlassungen, Geschäftsgegenstand, Gründungskapital, Geschäftssitz, Gesellschafter, vertretungsberechtigte Personen/Prokura, Insolvenzanmeldung, Formumwandlung, Liquidation etc., • Sichtung von Artikeln in Fachzeitschriften, wo wichtige Informationen zu PRZwecken verbreitet werden, von Vorträgen auf Fachveranstaltungen/Symposien, häufig als Rahmen von Messen/Ausstellungen, • Fachgespräche mit ehemaligen Mitarbeitern der Konkurrenz, evtl. erst nach einer Cooling-off Period, mit Experten, Journalisten, Beratern, Forschern etc., • Observation von Messen/Ausstellungen und Events/Präsentationen, • Patentrecherche beim Deutschen Patent- und Marken-Amt (DPMA) bzw. Europäischen Patentamt (EMA), • fingierte Anfragen von Partnern zum Zwecke des Angebotsvergleichs (Competitive Benchmarking), • Kauf von Konkurrenzprodukten mit dem Ziel des Reverse Engineering zur Zielkostenkalkulation, • Auswertung von Luftbildern/Satellitenaufnahmen von Betriebsstätten, Geländen, Lager- und Transporteinrichtungen etc., • Einholung von Auskünften über Wettbewerber bei gemeinsamen Kunden bzw. Lieferanten oder anderen Geschäftspartnern, • Abonnement von Paneldaten, etwa für Handels-Panels (Nielsen/GfK), • fiktiver Mediaplanvergleich zur Ermittlung des Werbedrucks in der Zielgruppe auf Basis von GRP’s.

12.3 Wettbewerbsforschung

231

Nach Vorlage der Daten ist deren strategische Analyse möglich. Dazu können zahlreiche Tools eingesetzt werden: • Analyse der Wertschöpfungskette nach Struktur/Aufbau, nach Breite/Integration und Tiefe/Make or Buy, • Marktfeldbestimmung, Marktparzellenbestimmung, Bestimmung des kompara­ tiven Angebotsvorteils, Marktverhaltensbestimmung, Marktsequenzbestimmung, • Auswertung der Positionierung mit Angebotsanspruch (Claim, Reason Why) und Nutzenversprechen (Benefit), • Identifizierung des Produktlebenszyklusstadiums, • Versuch der Prognose über Szenarios/Früherkennung bzw. Indikatoren, • Simulation von Interaktionsketten durch gezieltes Wargaming. Weitere Recherchen beziehen sich auf das Profil der entscheidenden Manager in Wettbewerbsunternehmen über Distant Profiling. Dazu gehören Informationen über • die Unternehmensgeschichte (Timeline) und den Managementwerdegang (Track Record wie Zugehörigkeitsdauer, vorherige Berufsstationen, Erfolge/Misserfolge etc.), • die Aufbauorganisation (Organigramm) und die individuelle Einordnung dort, • die Auswertung Sozialer Netzwerke (privat und beruflich), • Ausbildung, Vorbilder, Gegner, Verbindungen, Assoziationszugehörigkeiten, • Risikofreude (Spirit of Competition), individuelle Stärken und Schwächen, • Berater (wie Werbeagentur, Unternehmensberatung, Wirtschaftsprüfer, Anwaltssozietät etc.). Wichtig ist auch die Ausprägung der betrieblichen Funktionen. Dazu gehören Informationen etwa zu: • Forschungs- und Entwicklungsaufwendungen (Status/Entwicklung), Forschungsergebnissen, • Gehaltsstrukturen/Sozialleistungen, Aktienoptionen/Erfolgsbeteiligungen etc., • Lieferantenstruktur, Beschaffungsnetzwerken, • Produktionsstandorten, Fertigungskapazitäten, Kapazitätsauslastungen, • Produktqualität, Ökostandards (Carbon Footprint). Schließlich sind naturgemäß Finanzdaten von hohem Interesse. Diese betreffen etwa folgende: • Bilanzanalyse (mit Bilanzrelationen, Bewertungsprinzipien etc.),

232

12. Marketing-Mix-übergreifende Marktforschungsanliegen

• Financial Ratios wie CVA, CFRoI, EBIT, EBITDA, RoCE/RoE, RoNA etc., • Finanzmittelausstattung (wie Eigenkapital, Fremdkapital, Fristigkeiten etc.), • Finanzierungsmöglichkeiten (wie Kreditlinien, Gesellschafterpotenzial etc.), • Eigentümerstruktur, Ankeraktionäre, Kapitalsammelstellen etc. Neben diese legalen internen und externen, primären und sekundären Informa­ tionsquellen treten auch illegale, die hier nur kursorisch erwähnt werden. Dazu gehört ein ganzes Arsenal von Maßnahmen: • Einladung von frustrierten Mitarbeitern der Konkurrenz zu fingierten Bewerbungsgesprächen, um diese über aktuelle Aktivitäten auszuhorchen, • Einschleusen von Praktikanten in die Organisation, um Informationen vor Ort zu sammeln, • Einschleusen von Putzkolonnen/Reinigungspersonal/Schädlingsbekämpfern/War­ tungstechnikern etc., um vor Ort illegal Informationen zu sammeln (z. B. durch Abfallsichtung/Waste Archeology), • Anzapfen des Wissens von Zeitarbeitskräften/Leasingpersonal, • Anzapfen von unzureichend gesicherten, drahtlosen Unternehmensnetzwerken (W-LAN/Intranet), • Einbau von Sendern in Fotokopierer durch fingierte Gerätewartung, die fortlaufend Scans übertragen, • Installation von Schadsoftware (Backdoor über Viren, Würmer, Trojaner, Spyware etc.), • Anzapfen von Dienstleistern wie Werbeagenturen, Sicherheitsfirmen, Mafo-­Insti­ tuten, z. B. über Tips für Mitarbeiter, • Initiierung von Whistleblowing (i. S. v. Denunziantentum), • Liegenlassen von USB-Sticks mit interessanten Aufschriften wie Gehaltsliste oder Porno, versehen mit Schadsoftware, die von der Sicherheits-Software nicht erkannt werden, • e-Mails an Mitarbeiter aus dem privaten Bereich mit Schadsoftware (die dazugehörigen Adressen stammen meist aus Sozialen Netzwerken), • Ableitung von Passwörtern aus dem privaten Bereich oder durch Kombinatorik. Diese Maßnahmen erfordern von jedem Unternehmen eine konsequente Counter-Intelligence. Dazu gehört die Sensibilisierung aller Mitarbeiter für betriebsund geschäftsgeheimnisrelevante Informationen. Technisch sind strikte Zugangskontrollen für Daten (hierarchisch aufgebaut) erforderlich, neben physischen Zutrittskontrollen für Personen (z. B. über RFID/NFC) mit besonders gesicherten Gebäudebereichen/Standorten, durchgeführt von Security-Diensten mit Personal-

12.4 Marktforschung bei gewerblicher Beschaffung

233

checks, aber auch Servicer-Checks. Ebenso erforderlich ist eine Malware-sichere IT mit IT-Forensik zur Meldung von Datenverlust, Datenlöschung, Datenversteck, Datentarnung o.Ä. Im Gegenzug kann es auch zur gezielten Desinformation des Wettbewerbs kommen (Fintierung) und zur Tarnung von Vorhaben durch subversives Vorgehen (geheime Treffen, Decknamen etc.).

12.4 Marktforschung bei gewerblicher Beschaffung Geschäftliche (B-t-B-)Transaktionen sind allgemein dadurch gekennzeichnet, dass ein Kontakt zwischen mindestens zwei Individuen, auch stellvertretend für Organisationen, in einer zeitlichen Abfolge von Aktionen und Reaktionen bei Interdependenz der Handlungen dieser Partner gegeben ist. Sie sind überwiegend kosten-nutzen-orientiert, also rational basiert. Im Rahmen der Marktforschung sind vor allem zwei Fragestellungen von Relevanz: Erstens wie können Abnehmer im gewerblichen Bereich segmentiert werden und zweitens, wie fallen Entscheidungen über Kauf bzw. Nichtkauf.

12.4.1 Segmentierung im B-t-B-Sektor Zur Segmentierung findet sich eine ganze Reihe von Ansätzen. Die wohl wichtigsten sind die folgenden (siehe Abbildung 65).

Segmentierung im B-t-B-Sektor einstufige Marktsegmentierung

mehrstufige, sukzessive Marktsegmentierung

mehrstufige, simultane Marktsegmentierung

Abbildung 65: Segmentierung im B-t-B-Sektor

Beim einstufigen Ansatz wird nur ein Kriterium zur Segmentierung zugrunde gelegt. Insofern wird eher unsystematisch differenziert, z. B. nach objektiven Kriterien wie

234

12. Marketing-Mix-übergreifende Marktforschungsanliegen

• Abnehmerbranche, Unternehmensgröße, Standort des Unternehmens, • Anwenderstatus, Kundenkompetenz, Technologiestand, spezifische Produkt­ anwen­dungen, • Organisationsform der Beschaffungsfunktion, allgemeine Beschaffungspolitik, Auftragsumfang. Oder es geht um subjektive Kriterien wie • Dringlichkeit des Bedarfs, vorgefundene Machtstrukturen, bestehende Beziehungen, • Ähnlichkeit zwischen Käufer und Verkäufer, angewendete Kaufkriterien, • Risikobereitschaft, Lieferantentreue. Beim mehrstufigen sukzessiven Ansatz wird die jeweils nachfolgende Stufe nur innerhalb der bereits gewählten vorausgehenden Stufe bestimmt. Ein Beispiel dafür ist der hierarchische Ansatz. Hierbei wird nacheinander unterschieden in die • erste Ebene der organisationsbezogenen Kriterien, etwa organisationsdemographische Merkmale wie Standort, Betriebsform etc., Institutionalisierung der Einkaufsfunktion durch Zentralisation/Dezentralisation, Aufgabenbereich etc., organisatorische Beschaffungsregeln wie Angebotsbewertung, computergestützte Einkaufshilfsmittel etc., • zweite Ebene der Merkmale des Entscheidungskollektivs, etwa Größe des Buying Center, Zusammensetzung des Buying Center etc., • dritte Ebene der Merkmale des konkret entscheidungsbeteiligten Individuums, etwa Informationsverhalten, Einstellungen etc. Beim mehrstufigen simultanen Ansatz werden Segmentierungskriterien gleichzeitig angelegt. Ein Beispiel dafür ist der Schalenansatz (Bonoma/Shapiro). Hierbei sind folgende Dimensionen grundlegend: • ökoskopische Merkmale (welche Branchen, Unternehmen welcher Größe, welche geographischen Gebiete stehen im Mittelpunkt?), • leistungsbezogene (operative) Merkmale wie Technologien, technische Ausstattung, finanzielle Möglichkeiten etc. (Auf welche Kundentechnologien soll man sich konzentrieren? Soll man sich auf Intensiv-, Medium- oder Extensivverwender oder aber auf Nichtverwender konzentrieren? Soll man sich auf Kunden konzentrieren, die viele produktbegleitenden Dienstleistungen benötigen oder auf solche, die wenige benötigen?), • beschaffungsbezogene Merkmale wie formale Organisation, Beschaffungsrichtlinien, Machtstrukturen etc. (Soll man sich auf Unternehmen mit stark zentralisierter oder dezentralisierter Beschaffungsfunktion konzentrieren? Soll man sich auf Unternehmen konzentrieren, bei denen die Technikabteilung dominiert,

12.4 Marktforschung bei gewerblicher Beschaffung

235

oder auf solche, wo die Finanzabteilung dominiert oder wieder andere? Soll man sich auf Unternehmen konzentrieren, zu denen bereits intensive Geschäftsbeziehungen unterhalten werden, oder einfach die attraktivsten Kunden ansprechen? Soll man sich auf Kunden konzentrieren, die Leasing, Wartungsverträge, Systemkäufe oder die Beschaffung mittels Ausschreibungen bevorzugen? Soll man sich auf Kunden konzentrieren, die in erster Linie Wert auf Qualität legen, oder auf Kundendienst, oder auf niedrige Preise?), • situative Faktoren wie Dringlichkeit des Kaufs, Spezialwünsche, Auftragsvolumen etc. (Soll man sich auf Unternehmen konzentrieren, die auf schnelle und kurzfristige Lieferungen angewiesen sind? Soll man sich auf bestimmte Anwendungen eines Produkts konzentrieren, statt auf alle? Soll man sich auf hohe oder geringe Auftragsgrößen konzentrieren?), • individuelle Charakteristika wie Risikoverhalten, Toleranz, Image-/Faktenreagie­ rer etc. (Soll man sich auf Unternehmen konzentrieren, deren Mitarbeiter und Wertvorstellungen Ähnlichkeit mit den eigenen aufweisen? Soll man sich auf risikofreudige oder aber auf vorsichtige Kunden konzentrieren? Soll man sich auf Unternehmen konzentrieren, die ihren Lieferanten gegenüber besonders loyal sind?). Als Anforderungen an die Segmentierungskriterien sind folgende zu nennen: • Kaufverhaltensrelevanz: Die Marktsegmentierungsvariablen sollen in einem kausalen Zusammenhang zum Verhalten der Bedürfnisträger stehen, damit sollen die Segmentierungskriterien auch zur Bestimmung des zukünftigen Wahl- bzw. Kaufverhaltens geeignet, also prädikatorisch einsetzbar, sein. • Aussagefähigkeit für den Einsatz der Marketing-Instrumente: Es sollen konkrete Anhaltspunkte für die handlungsfähige Ausgestaltung der Marketing-Instrumente geliefert werden. • Zugänglichkeit: Die durch die Segmentierungskriterien gebildeten Marktsegmente sollen durch Marketing-Instrumente wirksam erreicht und bedient werden können. • Messbarkeit: Variable, die zur Identifikation von Marktsegmenten herangezogen werden, sollen mit den verfügbaren Marktforschungsmethoden reliabel und valide operationalisiert werden können. • Zeitstabilität: Die Kriterien sollen über einen längeren Zeitraum bestehen bleiben, dies resultiert aus der für die Wirksamwerdung einer segmentbezogenen Strategie insgesamt benötigten Zeit. • Wirtschaftlichkeit: Die eingesetzten Segmentierungskriterien sollen zu Segmenten mit einem genügend großen Absatzpotenzial führen, damit sich eine segmentspezifische Ausgestaltung des Marketing-Mix als ökonomisch erweisen kann.

236

12. Marketing-Mix-übergreifende Marktforschungsanliegen

12.4.2 Kaufentscheidung im B-t-B-Sektor

Entscheidung im B-t-B-Sektor

Buying Center

Potenzialkonzept

Reagiererkonzept

Informationskonzept

Abbildung 66: Entscheidung im B-t-B-Sektor

12.4.2.1 Buying Center Die Entscheidung in der gewerblichen Beschaffung wird durch verschiedene Modelle theoretisch erklärt, zu nennen sind in diesem Zusammenhang vor allem das Buying Center-Modell, das Potenzialkonzept, das Reagiererkonzept und das Informationskonzept (siehe Abbildung 66). Buying Centers bestehen aus unterschiedlichen Personen, die verschiedene Funktionen bei der gewerblichen Beschaffung wahrnehmen. Denkbar ist aber auch, dass ein Mitglied mehrere Funktionen gleichzeitig oder nacheinander übernimmt oder mehrere Mitglieder sich eine Funktion teilen. Einzelne Funktionen können dabei durchaus auch von Externen übernommen werden. Bei der Analyse geht es um die Identifikation der Mitglieder des Buying Center, die Untersuchung des Informationsverhaltens der Teilnehmer, ihres Entscheidungsfindungsprozesses und des Einflusses der einzelnen Mitglieder auf diesen Entscheid. Dabei geht es auch um Rollenerwartungen, die von anderen Teilnehmern an das einzelne Buying Center-Mitglied gestellt werden, die Ansprechbarkeit der einzelnen Mitglieder und die Informationsinhalte für einen Kontakt. Folgende Typen lassen sich im Buying Center (Webster, Wind) als hybrider Organisationsform, die nicht eigens aufbauorganisatorisch verankert ist, unterscheiden: • Der Vorselektierer (Gatekeeper) übernimmt die Informationssammlung, die Identifikation der in Betracht kommenden Kaufalternativen und trifft damit die Entscheidungsvorbereitung. Informationen, die diese Schleuse nicht passieren können, gelangen damit erst gar nicht zur engeren Beurteilung. Daher ist es für

12.4 Marktforschung bei gewerblicher Beschaffung

237

Anbieter hoch bedeutsam sicherzustellen, dass Informationen, die Entscheidungsgrundlage sind, auch tatsächlich im Buying Center ankommen. Die Funktion des Gatekeeper wird häufig von einer Stabsstelle übernommen, dies kann aber auch das Sekretariat sein. • Der Entscheider (Decider) übernimmt die Letztauswahl des Kaufobjekts bzw. dessen Lieferanten. Dabei handelt es sich meist um eine Person in leitender Stellung (Positionsmacht), welche die vorgeleistete Gremiumsarbeit durch ihr Votum sanktioniert. Je nach Einmischungsgrad in die operative Ebene übt sie mehr oder minder großen formalen Einfluss auf die Beschaffungsentscheidung aus. Sie erteilt die Kaufgenehmigung, verwaltet einen eigenen Etat und verfügt über Budgets, sie kann Mittel freigeben und hat eine Veto-Macht. Der Entscheider konzentriert sich gemeinhin auf die Auswirkungen eines Kaufs für das Unternehmen und das Geschäftsergebnis. • Der Einkäufer (Buyer) trifft die Vorauswahl der Lieferanten, indem ein Projekt ausgeschrieben und potenzielle Partner zur Angebotsabgabe aufgefordert werden. Er schließt außerdem formal den Kaufvertrag ab, führt die Nachverhandlungen en détail und überwacht die Kaufabwicklung inkl. aller Vor- und Nacharbeiten. Oft hat der Einkäufer bei hoch spezialisierten Kaufobjekten auch nur administrative Funktion. Er gehört organisatorisch im Regelfall der Einkaufs­ abteilung an und erledigt Routinetransaktionen auch allein. • Der Verwender (User) bringt den Kaufentscheidungsprozess in Gang, indem er einen empfundenen Mangelzustand signalisiert. Er definiert Anforderungsmaßstab und Verfügbarkeitstermin. Außerdem beurteilt er nachher die Eignung der gekauften Betriebsmittel. Denn er ist Erfahrungsträger im Hinblick auf die (Mindest-)Produktqualität, sein Einsatzverhalten ist wichtig für die gesamte Beschaffungsaktion. Er ist persönlich durch die Anschaffung betroffen, sowohl bei Erfolg als auch bei Misserfolg. Folglich konzentriert er sich auf die Funktionserfüllung und will konkrete Nutzen haben. Gelegentlich wird hiervon noch die Funktion des Auslösers (Initiator) unterschieden. Dies ist immer dann der Fall, wenn die Bedarfsmeldung nicht vom Verwender selbst, sondern von einer anderen Stelle ausgeht. • Der Beeinflusser (Influencer) nimmt durch Fachkompetenz Einfluss auf die Beurteilung der Kaufobjekte und die Entscheidung zugunsten einer Alternative. Oft handelt es sich dabei um einen externen Berater oder Mitarbeiter einer internen Service-Abteilung, der nicht unmittelbar von den Konsequenzen des Kaufs betroffen ist und deshalb vermeintlich vorurteilsfrei werten kann. • Der Initiator löst einen Bedarf aus. Er leitet damit den Kaufentscheidungsprozess ein. Dabei muss es sich nicht um einen internen Mitarbeiter handeln, denkbar ist etwa, dass ein Kunde ein Produkt nachfragt, das mit der vorhandenen Produktionsmittelausstattung nicht realisierbar ist. Es muss sich auch nicht zwingend um eine Person handeln. Denkbar ist etwa, dass werbliche Botschaften oder hoheitliche

238

12. Marketing-Mix-übergreifende Marktforschungsanliegen

Gesetze den auslösenden Impuls geben. Der Initiator als Person kann im Buying Center weiterführende Funktionen wahrnehmen, etwa als späterer Anwender. • Der Coach hält aus dem Buying Center heraus ständigen Kontakt nach außen hin zu Anbietern und tauscht mit diesen die für erforderlich gehaltenen Informationen aus. Durch Informationsfilterung kann er dabei strukturierend oder aber auch verwirrend einwirken. Problematisch ist dabei zumeist, dass die den einzelnen Funktionen zugehörigen Personen nicht vorab identifiziert werden können und deren tatsächlicher Entscheidungsanteil verschwommen bleibt, obgleich diese Informationen gerade von höchster Bedeutung sind. Dies ist freilich tatsächlich nur schwer zu ermitteln und wird von beschaffenden Unternehmen auch gezielt verborgen gehalten. Quellen können dann Dritte sein, die Erfahrungswerte über das beschaffende Unternehmen haben. Ergänzend kommen Internet- und Medienquellen hinzu. Das größte Potenzial bietet aber ein Besuch vor Ort. 12.4.2.2 Potenzialkonzept Bei Kaufentscheidungen in Organisationen lassen sich unterschiedliche Rollenauffassungen feststellen. Das Promotoren-Opponenten-Konzept (Witte) unterscheidet zwischen Personen, die innovative Einkaufsentscheidungen gegen techno­ logische, ökonomische und umfeldbezogene Widerstände unterstützen, und solchen, die sie blockieren wollen, und zwar wegen Willensbarrieren oder aus weltanschaulichen, sachlichen oder persönlichen Gründen. Erstere sind Promotoren, also Personen, die Veränderungen fördern, letztere Opponenten, also Personen, die Veränderungen behindern, verzögern oder zumindest fraktionieren. Beide Gruppen stützen sich auf bestimmte Positionen. Promotoren (Champion Power) initiieren den Beschaffungsprozess und fördern ihn aktiv und intensiv bis zum Abschluss: • Machtpromotoren verfügen aufgrund ihrer hierarchischen Stellung in der Organisation über Entscheidungsmacht. Sie sind meist intern legitimiert, Vertrags­ abschlüsse bindend zu tätigen. Sie können dadurch Vorgänge mittels Anordnung, Sanktion gegenüber „Bremsern“ und Unterstützung treibender Kräfte in Richtung und Tempo maßgeblich beeinflussen. Sie haben dabei weniger technisch-organisatorische Details im Sinn als vielmehr deren Auswirkungen auf das Unternehmen insgesamt. • Fachpromotoren zeichnen sich, unabhängig von ihrer hierarchischen Stellung, durch spezifisches Sachwissen aus. Sie nehmen somit aufgrund fachlicher Legitimation auf die Entscheidung Einfluss. Fachpromotoren sind typischerweise im Middle Management angesiedelt. Selten treten Macht- und Fachpromotoren in Personalunion auf. Häufiger treten sie aber als Team auf, was ihnen eine besondere Effektivität verleiht. Gelegentlich wird davon noch der Prozesspromotor unterschieden, der für die Durchsetzung

12.4 Marktforschung bei gewerblicher Beschaffung

239

von Entscheidungen in der Organisation Sorge trägt. Diese Personen sind mit den Prozessen im Unternehmen bestens vertraut und wirken mittels dieser Kenntnis auf die Durchsetzung der Entscheidung in der Organisation ein. Im Gegensatz dazu stehen die Opponenten (Veto Power). Sie hemmen die Innovation bei der erstmaligen Anschaffung neuer Einkaufsobjekte ebenso wie Promotoren sie fördern. Analog zu diesen unterscheidet man Machtopponenten, also Personen, die Entscheidungen kraft hierarchischer Stellung behindern, Fach­ opponenten, also Personen, die Entscheidungen kraft Spezialistenwissen behindern, sowie Prozessopponenten, also Personen, die Entscheidungen kraft Kenntnis interner organisatorischer Abläufe behindern. Im Wesentlichen bleibt der Einfluss der einzelnen Beteiligten am Beschaffungsvorgang jedoch verborgen. Wahrscheinlich wechselt er auch von Fall zu Fall. Oft sind sowohl Promotoren als auch Opponenten bemüht, ihre Absicht zu verschleiern, um Gegenpotenziale nicht herauszufordern. Insofern handeln sie, wenn es darauf ankommt, subversiv (d. h. als verdeckte Promotoren, die tatsächlich aber Opponenten sind, und umgekehrt). Im Falle des Vorhandenseins von Machtpromotoren bzw. -opponenten, kann­ deren Macht auf verschiedenen Machtbasen aufbauen: • Belohnungsmacht hat, wer durch Förderungsmöglichkeit andere Personen stützen kann. • Bestrafungsmacht hat, wer durch negative Sanktionsmöglichkeit Personen stürzen kann. • Legitimationsmacht hat, wer über (hierarchische) Autorität gegenüber anderen Personen verfügt. • Identifikationsmacht hat, wer durch (informelle) Überzeugungskraft auf andere Personen einwirkt. • Expertenmacht hat, wer durch Vorenthalten oder Gewähren von Fachwissen Personen beeinflussen kann. 12.4.2.3 Reagiererkonzept Das Reagiererkonzept (Cox) unterscheidet im Spezialfall von Innovationen, wohl aber auch erweiternd generell gültig, zwischen den Prototypen des Faktenreagierers (Clarifier) und des Imagereagierers (Simplifier) in Bezug auf das Informationsverhalten: • Dem „faktenzerlegenden“ Clarifier ist für die Einkaufsentscheidung an möglichst viel Information gelegen, die er dann für sich sichtet und verarbeitet, um so zu einem fundierten Ergebnis zu gelangen. Er ist an einer möglichst vollständigen, abgerundeten Beurteilung hinsichtlich der angebotenen Produkte für sich

240

12. Marketing-Mix-übergreifende Marktforschungsanliegen

selbst interessiert. Dabei werden alle für die Anwendung im Unternehmen relevanten Gesichtspunkte geprüft, um das Entscheidungsrisiko zu senken. Wichtig ist daher in der Akquisition eine detaillierte, aussagefähige schriftliche und/oder mündliche Argumentation. • Der „imagesammelnde“ Simplifier ist hingegen gleich an verdichteten Informationen interessiert, die für ihn einfach zu verarbeiten sind. Es kommt ihm also nicht auf die Vollständigkeit seines Informationsstands an, sondern nur auf die Vorlage als wichtig erachteter Schlüsselinformationen (Information Chunks), die einen Gesamteindruck über die angebotenen Alternativen erlauben. Dabei ist in der Akquisition jeweils der Nutzen aus dem Einsatz der anzuschaffenden Produkte zu betonen. Bedeutsam ist, dass dieselben Argumente, die für den Clarifier von höchstem Interesse sind, nämlich detaillierte Angaben zu Leistungsmerkmalen, Konstruktionselementen, Materialien etc., Simplifier langweilen. Und umgekehrt diejenigen Argumente, die für Simplifier hochinteressant sind, nämlich Kostenersparnis, Wettbewerbsvorteil, Motivationssteigerung etc., dem Clarifier viel zu allgemein gehalten sind. Daher ist es wichtig, sich zu verdeutlichen, welchen Reagierertyp die Einkaufsseite repräsentiert. Hinweise darauf erhält man etwa aus Signalen der Körpersprache oder der Arbeitsplatzausstattung. Als Mischtyp gibt es noch den Reaktionsneutralen, dem eine ausgewogene Relation aus punktuell vertiefenden Informationen bei gleichzeitiger Wahrung eines gesamthaften Überblicks zuzuschreiben ist. 12.4.2.4 Informationskonzept Das Informationskonzept hebt auf das Suchverhalten und die Verarbeitung von Informationen ab. Dabei werden drei Typen unterschieden: • Der literarisch-wissenschaftliche Typ ist dadurch gekennzeichnet, dass er sich möglichst umfassend und detailliert über beschaffungsrelevante Aspekte eines Kaufobjekts informiert. Er hat eine Präferenz für schriftliche Quellen wie Fachzeitschriften, Fachbücher, Fachdatenbanken etc. Sein Suchverhalten ist projektbezogen, d. h. seine Bestrebungen gehen dahin, ständig aktuell über Wissensentwicklungen informiert zu sein. Bei einem neuen Kaufobjekt ist sein Informationsbedarf daher gering, weil er hinreichend vorinformiert ist. Durch regelmäßige Zuführung aussagefähiger Unterlagen kann er für einen Anbieter eingenommen werden. • Der objektiv-wertende Typ ist stark projektorientiert ausgerichtet. Er informiert sich erst mit Beginn eines Beschaffungsprozesses und versucht, seinen Wissensstand zu verbessern. Dabei greift er auf die üblichen Fachzeitschriften, Prospekte, Suchartikel im Internet etc. zurück und wertet diese aus. Insofern kann durch ein gezieltes Informationsangebot positiv auf ihn eingewirkt werden. Hilf-

12.4 Marktforschung bei gewerblicher Beschaffung

241

reich sind dabei alle Mittel, die unkompliziert und konzentriert relevante Informationen liefern. • Der spontan-passive Typ sucht hingegen nicht aktiv nach Informationen, sondern lässt sich von diesen eher zufällig berieseln. Er zeigt wenig Eigeninitiative und bedient sich meist Personen, die besser informiert sind als er selbst. Insofern ist er auch nicht an detaillierten, ausführlichen Informationen interessiert, sondern eher an einem kursorischen Überblick. Eine andere Form der Verfeinerung resultiert aus der Unterscheidung in Entscheidungsorientierte, Faktenorientierte und Sicherheitsorientierte (Spiegel-Verlag). Dabei handelt es sich allerdings im Wesentlichen um eine Kombination der Erkenntnisse des Promotorenkonzepts mit den Arten der Informationsverarbeitung: • Entscheidungsorientierte sind souverän und zügig in ihrem Vorgehen, sie entscheiden meist allein oder haben zumindest die höchste Entscheidungsbeteiligung. Sie kümmern sich wenig um Details, sondern konzentrieren sich auf die Kernfakten. Vorarbeiten werden delegiert, der Informationsstand ist bei näherem Hinsehen lückenhaft. Images spielen für ihre Entscheidung keine Rolle, Qualitätsaspekte sind hingegen vorrangig. Der Führungsstil ist kooperativ, das Informationsverhalten ist vorwiegend persönlich und interaktiv. • Faktenorientierte sind detailbesessen und ausgesprochen umsichtig, sie wirken an Entscheidungen meist nur in begrenztem Umfang mit. Sie haben ein breites Wissensspektrum und treiben Entscheidungen durch vorbereitende Aktivitäten voran. Images spielen für ihre Einschätzung der Dinge keine Rolle, der Preis ist vielmehr vorrangig. Das hierarchische Denken ist ausgeprägt, das Informationsverhalten vorwiegend dokumentär, also unpersönlich ausgerichtet. • Sicherheitsorientierte sind risikoscheu und zaudernd in ihrem Verhalten, sie halten sich oft aus Entscheidungen heraus oder haben eine sehr geringe Entscheidungsbeteiligung. Sie interessieren sich weniger für Details als vielmehr für das Ganze. Dabei haben Sicherheitsaspekte einen hohen Stellenwert (wie Service, Lifecycle Costs etc.). Images kommt eine hohe absichernde Bedeutung zu, Qualitätsaspekte sind primär. Das Gruppendenken ist wegen der Verteilung der Verantwortung ausgeprägt. Durch intensive Information werden alle in Frage kommenden Quellen gesichtet und genutzt.

Literatur Atteslander, P.: Methoden der empirischen Sozialforschung, 12. Auflage, Berlin u. a. 2010 Backhaus, Klaus/Erichson, Bernd/Plinke, Wulff/Weiber, Rolf: Multivariate Analysemethoden, 13. Auflage, Berlin 2010 Bauer, Erich: Internationale Marketingforschung, 4. Auflage, München u. a. 2009 Baumann, Axel/Wagner, Gabriele: Einstieg in die Marktforschung, Sternenfels 2010 Berekoven, Ludwig/Eckert, Werner/Ellenrieder, P.: Marktforschung, 12. Auflage, Wiesbaden 2009 Bernecker, Michael/Weihe, Kerstin: Kursbaustein Marktforschung, Berlin 2011 Böhler, Heymo: Marktforschung, 3. Auflage, Stuttgart u. a. 2004 Buber, Renate/Holzmüller, Hartmut (Hrsg.): Qualitative Marktforschung, 2. Auflage, Wies­ baden 2009 Fantapié Altobelli, Claudia: Marktforschung, 2. Auflage, Stuttgart 2011 – /Hoffmann, Sascha: Grundlagen der Marktforschung, Stuttgart 2011 Grunwald, Guido/Hempelmann, Bernd: Angewandte Marktforschung, München-Wien 2011 Hammann, Peter/Erichson, Bernd: Marktforschung, 5. Auflage, Stuttgart/Jena 2008 Hermann, A./Homburg, Chr. (Hrsg.): Marktforschung, 3. Auflage Nachdruck, Wiesbaden 2014 Hüttner, Manfred: Grundzüge der Marktforschung, 7. Auflage, München u. a. 2002 Kamenz, Uwe: Marktforschung  – Einführung mit Fallbeispielen, Aufgaben und Lösungen, 2. Auflage, Stuttgart 2001 Kastin, Klaus S.: Marktforschung mit einfachen Mitteln, 3. Auflage, München 2008 – Marktforschung mit kleinem Budget, München 2009 Koch, Jörg: Marktforschung – Begriffe und Methoden, 6. Auflage, München/Wien 2012 Kuß, Alfred/Eisend, Martin: Marktforschung, 5. Auflage, Wiesbaden 2014 Lubritz, Stefan: Marketing und Marktforschung, Stuttgart 2010 Naderer, Gabriele/Balzer, Eva (Hrsg.): Qualitative Marktforschung in Theorie und Praxis, 2. Auflage, Wiesbaden 2011 Neumann, Peter: Handbuch der psychologischen Marktforschung, Bern 2013 Noelle-Neumann, E./Schulz, W./Wilke, J. (Hrsg.): Alle, nicht jeder – Einführung in die Methoden der Demoskopie, 3. Auflage, Berlin u. a. 2000 Olbrich, Rainer/Battenfeld, Dirk/Buhr, Carl-Christian: Marktforschung, Heidelberg 2012

Literatur

243

Ottawa, Marco/Rietz, Christian: Betriebliche Marktforschung, München/Wien 2013 Pepels, Werner (Hrsg.): Marktforschung, 2. Auflage, Düsseldorf 2008 – Käuferverhalten und Marktforschung, Stuttgart 2000 Pfaff, Dietmar: Marktforschung, Berlin 2005 Raab, Gerhard/Unger, Alexander/Unger, Fritz: Methoden der Marketing-Forschung, 2. Auflage, Wiesbaden 2009 Schnell, Rainer/Hill, Paul B./Esser, Elke: Methoden der empirischen Sozialforschung, 9. Auflage, München u. a. 2011 Schnettler, Josef/Wendt, Gero: Marketing und Marktforschung, 3. Auflage, Berlin 2009 Theobald, Axel/Dreyer, Marcus/Starsetzki, Thomas (Hrsg.): Online-Marktforschung, 2. Auflage, Wiesbaden 2003 Theobald, Elke/Neundorfer, Lisa: Qualitative Online-Marktforschung, Baden-Baden 2010 Weihe, Kerstin/Bernecker, Michael: Basiswissen Marktforschung, Berlin 2009 Weis, Hans Christian/Steinmetz, Peter: Marktforschung, 8. Auflage, Ludwigshafen 2012

Sachwortverzeichnis Ablaufordnungsfrage 55 Ablenkungsfrage 56 Absatzforschung 15 Ad hoc-Erhebung  191 Ähnlichkeitsraum 145 AIO-Ansatz 219 Aktualitätsgrad (Informationen)  26 Analogieschätzung 122 Analyseverfahren, multivariate  113 Analyseverfahren, univariate  111 Anfangsbuchstabenverfahren 32 Arithmetisches Mittel  112 Assoziationsfrage 56 Ausgleichsfrage 56 Auskunftskontrollfrage 55 Auswahl aufs Geratewohl  38 Auswahl mit Anordnung  35 Auswahl mit ungleichen Wahrscheinlichkeiten  34 Auswahl typischer Fälle  38 Auswahlverfahren  29, 88 Auswahlverzerrungen 38 Banner-Auswahl 88 BCG-Matrix 164 Beeinflusser 237 Befragung, computergestützte  68 Befragung, prognostische  122 Befragung, Rücklaufproblem  66 Befragung, Rücklaufverbesserung  67 Befragung, schriftliche  65, 67 Befragung, telefonisch  63 Befragungsdurchführung 62 Befragungsverfahren 43 Beobachtung, Bewusstseinsgrad  73 Beobachtung, nicht-teilnehmende  103 Beobachtung, teilnehmende  103 Beobachtung, themenorientierte  103 Beobachtung, Umgebung  73 Beteiligungsuntersuchung 59 Bewertungsportale 85

Bewusstauswahlverfahren 35 Bildschirmbefragung 68 Blog 84 Branchenstruktur-Analyse 157 Buying Center  236 Carry over-Effekt  78 Chancen-Risiken-Analyse 162 Clarifier 239 Cluster-Analyse 116 Competitive Intelligence  229 Computer Assisted Telephone Interviewing  71 Computer Assisted Web Interviewing  92 Computerbefragung 69 Daten, Wahrheitsgehalt  27 Datenauswertung (statistische)  111 Datenqualität (Online)  108 Datenquellen, externe  42 Datenquellen, interne  42 Delphi-Methode 124 Detaillierungsgrad (Informationen)  26 Dialogfrage 57 Diskriminanz-Analyse 117 Dispersionsparameter 112 EBA-CBA-Experiment 78 EBA-Experiment 78 Eigenforschung 22 Eigenschaftsraum 145 Eingliederungsuntersuchung 59 Einkäufer 237 Einzelbefragung, Durchführung  62 Einzelbefragung, mündliche  46 Einzelbefragung, schriftliche  65 Einzelbefragung, telefonische  63 e-Mail 82 e-Mail-Auswahl 89 e-Mail-Befragung 96 Empfängeranalysen 192

Sachwortverzeichnis Entscheider 237 Entwicklungseffekt 78 Ergebnisfrage 56 Erhebungskontrollfrage 54 Euro Socio Styles  227 Experiment 76 Experiment, Formen  77 Experiment, Variable  77 Exponenzielle Glättung  129 Fachdatenbank 87 Faktoren-Analyse 115 Feldtheorie 151 File Sharing  84 Filterfrage 55 Flächenstichprobe 33 Formparameter 112 Fragearten 49 Frageformulierung 53 Fragefunktionen 54 Fragen, direkte  52 Fragen, geschlossene  49 Fragen, indirekte  52 Fragen, offene  49 Fragestrategie 53 Fragetaktik 58 Freihandtrend 122 Fremdforschung 20 Füllfragen 56 Gabelungsfrage 55 Geburtstagverfahren 32 Grundgesamtheit 29 Gruppendiskussion 44 Gruppen-Effekt 78 Handels-Panel 199 Haushalts-Panel 197 Idealpunktverfahren 145 Idealvektorverfahren 145 Indikatorberechnung 131 Indikatorfrage 57 Information, deterministische  25 Information, indeterministische  26 Information, objektiv-stochastische  25 Information, subjektiv-stochastische  25 Informationsanforderungen 26

245

Informationserhebung 41 Informationsgewinnung 25 Informationsgrad (von Daten)  25 Informationskonzept 240 Initiator 237 Instant Messaging  83 Instrumentalfragen 55 Intercept-Auswahl 88 Internet 82 Internetforen-Auswahl 88 Interview, freies  47 Interview, standardisiertes  46 Interview, strukturiertes  47 Interview, unstrukturiertes  47 Interviewerauswahl 60 Interviewerbedeutung 60 Interviewereinsatz 60 Interviewerkontrolle 61 Interviewerqualifizierung 61 IRC 83 IRC-Befragung 99 Kaufentscheidung (B-t-B)  236 Kausal-Analyse 114 Klumpenauswahl 33 Kohortenanalyse 196 Kontaktanalysen 193 Kontaktfrage 56 Kontrastgruppen-Analyse 117 Konzentrationsauswahl 37 Konzentrationsparameter 112 Korrelations-Analyse 116 Korrelationsfrage 54 Kundenzufriedenheitsforschung 204 Lebensstilforschung 219 Lebensstiltypologien 222 Lebenszyklus-Analyse 153 Lifestyle-Typologie 222 Lokalisationsparameter 111 Marketingforschung 15 Marktabgrenzung, dreidimensionale  148 Marktabgrenzung, eindimensionale  146 Marktabgrenzung, mehrdimensionale  148 Marktabgrenzung, zweidimensionale  148 Marktabgrenzungskriterien 147 Marktforschung, Abgrenzungen  18

246

Sachwortverzeichnis

Marktforschung, Arbeitsphasen  17 Marktforschung, Begrifflichkeiten  15 Marktforschung, strategische  153 Marktforschung, Träger  20 Marktforschungsinstitut, Auswahl  22 Marktprognose, Einteilungen  120 Marktsegmentierung, demographische  138 Marktsegmentierung, einstufige  135 Marktsegmentierung, entscheidungsbezogene  139 Marktsegmentierung, mehrstufige  136 Marktsegmentierung, neuroökonomische  143 Marktsegmentierung, psychographische  140 Marktsegmentierung, soziographische  141 Marktsegmentierung, typologische  142 Marktsegmentierungskriterien 138 Marktsegmentierungsvoraussetzungen 137 Mash up  84 Maßstabsfrage 56 Median 112 Messverfahren, aktualgenetische  184 Messverfahren, explorative  184 Messverfahren, mechanische  186 Messverfahren, projektiv-assoziative  187 Messverfahren, psychomotorische  185 Messverfahren, spezielle  189 Methodische Frage  56 Mikro-Markttest, elektronischer  171 Mini-Markttest 169 Mittlere Abweichung  112 Modus 111 Multidimensionale Skalierung  115

Panel  75, 104, 195 Paneleffekt 198 Panelsterblichkeit 197 Personenfrage 57 Portfolio-Analyse 163 Positionierung 145 Positioning Statement  152 Positionsentwicklung 146 Potenzial-Analyse 160 Potenzialkonzept 238 Präferenzraum 145 Präsentation 118 Präzisionsfrage 56 Preisfindung, Befragungsverfahren  175 Preisfindung, Beobachtungsverfahren  174 Preisfindung, Bieteverfahren  180 Preisfindung, Experimentalverfahren  178 Primärforschung 42 Produkttest 165 Prognose, analytische  131 Prognose, deskriptive  126 Prognose, intuitive  122 Prognose, systematische  126 Prognosearten 119 Prognoseeffekte 134 Prognosefehler 133 Prognosegrenzen 133 Prognosemodelle 122 Prognoseverfahren, kurzfristige  128 Prognoseverfahren, langfristige  130 Projektionsfrage 56 Promotor 238

Newsgroup-Auswahl 89 Newsgroup-Befragung 98 Newsgroup-Experiment 107 Nielsen-Gebiete 203

Quartilsabstand 112 Quota-Verfahren 35

Objektivität 28 Omnibusbefragung 59 Online-Befragung 92 Online-Beobachtung 100 Online-Erhebung 82 Online-Experiment 106 Online-Primärforschung 88 Online-Sekundärforschung 85 Opponent 239 Overreporting 198

Reagiererkonzept 239 Recall-Test 191 Recognition-Test 192 Regressions-Analyse 113 Relevanter Markt  151 Reliabilität 27 Repräsentanz 29 Ressourcen-Analyse 160 RISC-Typologie 227 Roper Socio Styles  225 Schlussziffernverfahren 32

Sachwortverzeichnis Schneeballverfahren 34 Segmentbeschreibung 138 Segmentierung, B-t-B  233 Segmentierung, einstufige  233 Segmentierung, mehrstufig-simultane  234 Segmentierung, mehrstufig-sukzessive  234 Segmentierungsanliegen 135 Segmentierungsvoraussetzungen 137 Sekundärforschung 41 Sicherheitsgrad (Entscheidung)  25 Signifikanz 28 Simplifier 240 Single Choice-Modell  145 Sinus Milieus  224 Skalierungsfrage 57 Social Bookmarking  84 Social Media Monitoring, messen  108 Social Media Monitoring, zuhören  107 Social Networking  84 Spannweite 112 Spill over-Effekt  78 Stärken-Schwächen-Analyse 161 STEPP-Analyse 156 Stichprobe 29 Stichprobenausfälle 39 Stichprobenfehler 39 Stichprobengröße 30 Stichprobenprobleme (Online)  90 Storetest 168 Strategische Gruppen  149 Suchmaschine, Katalog  86 Suchmaschine, Meta-  86 Suchmaschine, Volltext  86 Suchmaschinenauswahl 89 SWOT-Analyse 161 Szenario-Technik 125 Teilerhebung 29 Test, Formen  80 Testmarkt, regionaler  165 Testmarktersatzverfahren 167 Testmarktsimulation 167 TOWS-Matrix 162 Trendextrapolation 130 TV-Panel 193 Typologie Sozialer Milieus  223 Umfeld-Analyse 156

247

Underreporting 198 Unterweisungsfragen 56 Usenet 83 Validität 27 VALS-Ansatz 220 Varianz 112 Varianz-Analyse 114 Verbraucherpanel 75 Verwender 237 Voice over-IP  83 Vorlagenfrage 56 Vorselektierer 236 Vortragsfrage 56 Wahlaxiom-Modell 145 Wahrheitsgehalt (Informationen)  27 Wahrnehmungsraum 145 Web 2.0  83 Wellenerhebung 191 Werbeeffizienzmessung 182 Werbeerfolgskontrolle 194 Werbeerfolgsprognose 190 Werbetest 189 Werbewirkungskontrolle 190 Werbewirkungsprognose, aktualgenetische 184 Werbewirkungsprognose, explorative  184 Werbewirkungsprognose, mechanische  187 Werbewirkungsprognose, projektiv-assoziative  188 Werbewirkungsprognose, psychomotororische  185 Wettbewerbsforschung 229 Wiki 84 Wirkungsprognose 132 WWW 83 WWW-Befragung 94 WWW-Experiment 106 WWW-Logfile-Analyse 101 Zeitreihe 119 Zitatfrage 57 Zufallsauswahl, geschichtete  33 Zufallsauswahl, mehrphasige  34 Zufallsauswahl, mehrstufige  34 Zufallsauswahl, reine  31 Zufallsauswahl, Sonderformen  34 Zufallsauswahl, systematische  32

248

Sachwortverzeichnis

Zufallsauswahlverfahren 31 Zufallsstartverfahren 32 Zufallszahlenverfahren 32 Zufriedenheitsmessung, ereignisgestützte  216 Zufriedenheitsmessung, explorative  208

Zufriedenheitsmessung, merkmalsgestützte 210 Zufriedenheitsmessung, objektive  204 Zufriedenheitsmessung, problemgestützte  217 Zufriedenheitsmessung, subjektive  207